Abo
  • Services:
Anzeige
Ceph, kurz für Cephalopoda (Kopffüßer),
Ceph, kurz für Cephalopoda (Kopffüßer), (Bild: Rich Bowen, Flickr.com/CC-BY 2.0)

Cloud Computing: Was ist eigentlich Software Defined Storage?

Ceph, kurz für Cephalopoda (Kopffüßer),
Ceph, kurz für Cephalopoda (Kopffüßer), (Bild: Rich Bowen, Flickr.com/CC-BY 2.0)

Cloud Computing boomt und beschert auch dem Konzept des Software Defined Storage (SDS) ordentlich Auftrieb. Worum geht es dabei eigentlich und warum ist SDS interessant? Golem.de erklärt das am Beispiel der SDS-Lösung Ceph.
Ein Bericht von Martin Loschwitz

Software Defined Storage (SDS) hat in Folge der Beliebtheit des Cloud Computings zu großer Verbreitung gefunden: Wenn Unternehmen heute Cloud-Setups planen, spielt SDS dabei fast immer eine Rolle. Der Begriff ist für viele aber bis heute eher abstrakt. Was genau ist damit eigentlich gemeint, und was sind die Unterschiede zwischen SDS-Setups und klassischen Storage-Appliances, etwa den Storage Area Networks (SAN) der etablierten Hersteller? Dieser Artikel erklärt die Grundlagen und erläutert am Beispiel von Ceph, wie SDS-Theorie zur Praxis wird.

Anzeige

Skalierbarkeit ist wichtig

Cloud-Setups sind immer Setups, bei denen Skalierbarkeit eine große Rolle spielt. Schließlich soll die Cloud zusammen mit dem Kundenstamm wachsen. Und ein neuer Kunde, der ad hoc etliche Terabyte Plattenplatz braucht, soll nicht zu einem anderen Anbieter wechseln, weil man selbst diesen Plattenplatz nicht schnell genug anbieten kann. Stattdessen muss sich das eigene Storage-System quasi augenblicklich um die benötigte Kapazität erweitern lassen.

Die moderne IT unterscheidet zwei Arten von Skalierbarkeit: Das Skalieren in die Höhe und das Skalieren in die Breite. Ersteres steckt in vorhandene Systeme Hardware nach; zweiteres ergänzt vorhandene Systeme um weitere Hardware und verteilt so die Last auf mehr Systeme insgesamt.

Das Skalieren in die Höhe funktioniert nur solange, bis das Zielsystem sich nicht mehr um zusätzliche Ressourcen erweitern lässt. Bei Servern etwa ist die Menge an möglichem RAM durch die Anzahl der Steckplätze einerseits und durch die maximale Kapazität der nutzbaren RAM-Riegel andererseits begrenzt. Ähnlich ist es bei klassischen Storage-Appliances, in die sich nur eine bestimmte Zahl von Festplatten hineinstecken lassen. Ist das Gehäuse voll, muss ein zweites Gerät her. Bei Admins sorgt das regelmäßig für Zähneknirschen, weil dann mehr als ein zu administrierendes Gerät existiert.

Das Skalieren in die Breite hat die genannten Probleme hingegen üblicherweise nicht: Die Zahl zu installierender Server ist höchstens durch Faktoren wie Platz im Rechenzentrum oder Strom eingeschränkt, nicht jedoch auf der technischen Seite. Für Cloud-Setups stehen deshalb meist Lösungen im Vordergrund, die in die Breite skalieren können.

Breitenskalierung eigentlich nichts Neues

Das Skalieren in die Breite ist nichts Neues. Das HTTP-Protokoll etwa nutzt das Konzept seit Jahrzehnten: Das Prinzip, einen Loadbalancer zu verwenden und die Anzahl der verfügbaren Backends von der tatsächlichen Last abhängig zu machen, folgt exakt denselben Ideen. Auch Datenbanken haben in den vergangenen Jahren beim Skalieren in die Breite nachgelegt: Sowohl MySQL - zum Beispiel per Galera - als auch PostgreSQL beherrschen entsprechende Funktionalität. Beim Thema Storage sah das eine ganze Weile anders aus. Klassische Speicher im Sinne von SAN-Storages etwa können eben nur in die Höhe skalieren, aber nicht in die Breite.

Des Übels Wurzel

Warum ist das Skalieren in die Breite bei klassischem Storage so schwer? Ein Blick unter die Haube hilft beim Verstehen. Praktisch alle Speichermedien der Gegenwart sind blockbasiert. Das gilt für sämtliche Geräte im Serverumfeld wie für USB-Sticks aus dem Computermarkt des Vertrauens. Blockbasierte Speicher lassen sich ab Werk nicht sinnvoll nutzen; zwar lassen sich Daten auf ihnen ablegen, aber wollte man exakt die gleichen Daten später wieder lesen, müsste man den kompletten Datenträger absuchen und aus dem Suchergebnis die passenden Daten herausfiltern. Damit Blockgeräte also nutzbar werden, müssen sie irgendwie sinnvoll organisiert sein.

Der klassische Ansatz sind dafür Dateisysteme. Diese legen auf dem Gerät eine entsprechende Struktur an, die abfragbar ist. Über den Umweg des Dateisystems lassen sich auf einem Blockgerät Daten zuverlässig finden. Das Problem hierbei ist, dass praktisch alle relevanten Dateisysteme für Linux so konstruiert sind, dass sie die konkrete Bindung an ein Blockgerät vorsehen. Es ist also unmöglich, das Dateisystem eines Datenträgers auf mehrere Blockgeräte zu verteilen. Doch gerade darum geht es ja bei Clouds. Systeme, die in die Breite skalieren können, sind immer verteilte Systeme.

Software Defined Storage ermöglicht verteiltes Speichern 

eye home zur Startseite
AgentBignose 19. Okt 2016

Ich finde den Artikel etwas zu unkritisch, klingt ein bisschen wie ein Werbe Prospekt...

amagol 07. Okt 2016

Die lokale SSD bring dir aber nur etwas wenn du weisst das die Daten genau auf dieser...

Käx 07. Okt 2016

Eben dieses. Der Vorteil von Drive Pooling ist das selektive (!) Spiegeln von Daten. Die...

olqs 06. Okt 2016

Wenn ihr sowieso eine Forschungseinrichtung seit, dann fragt doch mal unverbindlich beim...



Anzeige

Stellenmarkt
  1. Deutsche Nationalbibliothek, Frankfurt am Main
  2. Power Service GmbH, Heilbronn
  3. expert SE, Langenhagen
  4. Württembergische Lebensversicherung AG, Stuttgart


Anzeige
Spiele-Angebote
  1. (-8%) 45,99€
  2. 5,00€
  3. 10,99€

Folgen Sie uns
       


  1. Die Woche im Video

    Zweiräder heben ab und ein Luftschiff kommt runter

  2. Autonomes Fahren

    Singapur kündigt fahrerlose Busse an

  3. Coinhive

    Kryptominingskript in Chat-Widget entdeckt

  4. Monster Hunter World angespielt

    Die Nahrungskettensimulation

  5. Rechtsunsicherheit bei Cookies

    EU warnt vor Verzögerung von ePrivacy-Verordnung

  6. Schleswig-Holstein

    Bundesland hat bereits 32 Prozent echte Glasfaserabdeckung

  7. Tesla Semi

    Teslas Truck gibt es ab 150.000 US-Dollar

  8. Mobilfunk

    Netzqualität in der Bahn weiter nicht ausreichend

  9. Bake in Space

    Bloß keine Krümel auf der ISS

  10. Sicherheitslücke

    Fortinet vergisst, Admin-Passwort zu prüfen



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Gaming-Smartphone im Test: Man muss kein Gamer sein, um das Razer Phone zu mögen
Gaming-Smartphone im Test
Man muss kein Gamer sein, um das Razer Phone zu mögen
  1. Razer Phone im Hands on Razers 120-Hertz-Smartphone für Gamer kostet 750 Euro
  2. Kiyo und Seiren X Razer bringt Ringlicht-Webcam für Streamer
  3. Razer-CEO Tan Gaming-Gerät für mobile Spiele soll noch dieses Jahr kommen

Firefox 57: Viel mehr als nur ein Quäntchen schneller
Firefox 57
Viel mehr als nur ein Quäntchen schneller
  1. Firefox Nightly Build 58 Firefox warnt künftig vor Webseiten mit Datenlecks
  2. Mozilla Wenn Experimente besser sind als Produkte
  3. Mozilla Firefox 56 macht Hintergrund-Tabs stumm

Fire TV (2017) im Test: Das Streaminggerät, das kaum einer braucht
Fire TV (2017) im Test
Das Streaminggerät, das kaum einer braucht
  1. Neuer Fire TV Amazons Streaming-Gerät bietet HDR für 80 Euro
  2. Streaming Update für Fire TV bringt Lupenfunktion
  3. Streaming Amazon will Fire TV und Echo Dot vereinen

  1. Re: iPhone X = Experimental

    stoneburner | 08:13

  2. Deutschlands größter Speicher steht in Goldisthal

    barforbarfoo | 07:41

  3. Re: 24/32

    esqe | 07:05

  4. Re: Entwickler kündigen

    GodsBoss | 06:56

  5. Re: Nicht jammern, sondern machen

    esqe | 06:54


  1. 09:00

  2. 17:56

  3. 15:50

  4. 15:32

  5. 14:52

  6. 14:43

  7. 12:50

  8. 12:35


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel