Abo
  • Services:
Anzeige
Ceph, kurz für Cephalopoda (Kopffüßer),
Ceph, kurz für Cephalopoda (Kopffüßer), (Bild: Rich Bowen, Flickr.com/CC-BY 2.0)

Cloud Computing: Was ist eigentlich Software Defined Storage?

Ceph, kurz für Cephalopoda (Kopffüßer),
Ceph, kurz für Cephalopoda (Kopffüßer), (Bild: Rich Bowen, Flickr.com/CC-BY 2.0)

Cloud Computing boomt und beschert auch dem Konzept des Software Defined Storage (SDS) ordentlich Auftrieb. Worum geht es dabei eigentlich und warum ist SDS interessant? Golem.de erklärt das am Beispiel der SDS-Lösung Ceph.
Ein Bericht von Martin Loschwitz

Software Defined Storage (SDS) hat in Folge der Beliebtheit des Cloud Computings zu großer Verbreitung gefunden: Wenn Unternehmen heute Cloud-Setups planen, spielt SDS dabei fast immer eine Rolle. Der Begriff ist für viele aber bis heute eher abstrakt. Was genau ist damit eigentlich gemeint, und was sind die Unterschiede zwischen SDS-Setups und klassischen Storage-Appliances, etwa den Storage Area Networks (SAN) der etablierten Hersteller? Dieser Artikel erklärt die Grundlagen und erläutert am Beispiel von Ceph, wie SDS-Theorie zur Praxis wird.

Anzeige

Skalierbarkeit ist wichtig

Cloud-Setups sind immer Setups, bei denen Skalierbarkeit eine große Rolle spielt. Schließlich soll die Cloud zusammen mit dem Kundenstamm wachsen. Und ein neuer Kunde, der ad hoc etliche Terabyte Plattenplatz braucht, soll nicht zu einem anderen Anbieter wechseln, weil man selbst diesen Plattenplatz nicht schnell genug anbieten kann. Stattdessen muss sich das eigene Storage-System quasi augenblicklich um die benötigte Kapazität erweitern lassen.

Die moderne IT unterscheidet zwei Arten von Skalierbarkeit: Das Skalieren in die Höhe und das Skalieren in die Breite. Ersteres steckt in vorhandene Systeme Hardware nach; zweiteres ergänzt vorhandene Systeme um weitere Hardware und verteilt so die Last auf mehr Systeme insgesamt.

Das Skalieren in die Höhe funktioniert nur solange, bis das Zielsystem sich nicht mehr um zusätzliche Ressourcen erweitern lässt. Bei Servern etwa ist die Menge an möglichem RAM durch die Anzahl der Steckplätze einerseits und durch die maximale Kapazität der nutzbaren RAM-Riegel andererseits begrenzt. Ähnlich ist es bei klassischen Storage-Appliances, in die sich nur eine bestimmte Zahl von Festplatten hineinstecken lassen. Ist das Gehäuse voll, muss ein zweites Gerät her. Bei Admins sorgt das regelmäßig für Zähneknirschen, weil dann mehr als ein zu administrierendes Gerät existiert.

Das Skalieren in die Breite hat die genannten Probleme hingegen üblicherweise nicht: Die Zahl zu installierender Server ist höchstens durch Faktoren wie Platz im Rechenzentrum oder Strom eingeschränkt, nicht jedoch auf der technischen Seite. Für Cloud-Setups stehen deshalb meist Lösungen im Vordergrund, die in die Breite skalieren können.

Breitenskalierung eigentlich nichts Neues

Das Skalieren in die Breite ist nichts Neues. Das HTTP-Protokoll etwa nutzt das Konzept seit Jahrzehnten: Das Prinzip, einen Loadbalancer zu verwenden und die Anzahl der verfügbaren Backends von der tatsächlichen Last abhängig zu machen, folgt exakt denselben Ideen. Auch Datenbanken haben in den vergangenen Jahren beim Skalieren in die Breite nachgelegt: Sowohl MySQL - zum Beispiel per Galera - als auch PostgreSQL beherrschen entsprechende Funktionalität. Beim Thema Storage sah das eine ganze Weile anders aus. Klassische Speicher im Sinne von SAN-Storages etwa können eben nur in die Höhe skalieren, aber nicht in die Breite.

Des Übels Wurzel

Warum ist das Skalieren in die Breite bei klassischem Storage so schwer? Ein Blick unter die Haube hilft beim Verstehen. Praktisch alle Speichermedien der Gegenwart sind blockbasiert. Das gilt für sämtliche Geräte im Serverumfeld wie für USB-Sticks aus dem Computermarkt des Vertrauens. Blockbasierte Speicher lassen sich ab Werk nicht sinnvoll nutzen; zwar lassen sich Daten auf ihnen ablegen, aber wollte man exakt die gleichen Daten später wieder lesen, müsste man den kompletten Datenträger absuchen und aus dem Suchergebnis die passenden Daten herausfiltern. Damit Blockgeräte also nutzbar werden, müssen sie irgendwie sinnvoll organisiert sein.

Der klassische Ansatz sind dafür Dateisysteme. Diese legen auf dem Gerät eine entsprechende Struktur an, die abfragbar ist. Über den Umweg des Dateisystems lassen sich auf einem Blockgerät Daten zuverlässig finden. Das Problem hierbei ist, dass praktisch alle relevanten Dateisysteme für Linux so konstruiert sind, dass sie die konkrete Bindung an ein Blockgerät vorsehen. Es ist also unmöglich, das Dateisystem eines Datenträgers auf mehrere Blockgeräte zu verteilen. Doch gerade darum geht es ja bei Clouds. Systeme, die in die Breite skalieren können, sind immer verteilte Systeme.

Software Defined Storage ermöglicht verteiltes Speichern 

eye home zur Startseite
AgentBignose 19. Okt 2016

Ich finde den Artikel etwas zu unkritisch, klingt ein bisschen wie ein Werbe Prospekt...

amagol 07. Okt 2016

Die lokale SSD bring dir aber nur etwas wenn du weisst das die Daten genau auf dieser...

Käx 07. Okt 2016

Eben dieses. Der Vorteil von Drive Pooling ist das selektive (!) Spiegeln von Daten. Die...

olqs 06. Okt 2016

Wenn ihr sowieso eine Forschungseinrichtung seit, dann fragt doch mal unverbindlich beim...



Anzeige

Stellenmarkt
  1. cab Produkttechnik GmbH & Co. KG, Karlsruhe
  2. über Hanseatisches Personalkontor Mannheim, Mannheim
  3. Jetter AG, Ludwigsburg
  4. Landeshauptstadt München, München


Anzeige
Top-Angebote
  1. 4,44€
  2. 99€ für Prime-Mitglieder
  3. 99€ (nur bis Montag 9 Uhr)

Folgen Sie uns
       


  1. Mass Effect

    Bioware erklärt Arbeit an Kampagne von Andromeda für beendet

  2. Kitkat-Werbespot

    Atari verklagt Nestlé wegen angeblichem Breakout-Imitat

  3. Smarter Lautsprecher

    Google Home erhält Bluetooth-Zuspielung und Spotify Free

  4. Reverb

    Smartphone-App aktiviert Alexa auf Zuruf

  5. Bildbearbeitung

    Google-Algorithmus entfernt Wasserzeichen auf Fotos

  6. Ladestationen

    Regierung lehnt Zwangsverkabelung von Tiefgaragen ab

  7. Raspberry Pi

    Raspbian auf Stretch upgedated

  8. Trotz Förderung

    Breitbandausbau kommt nur schleppend voran

  9. Nvidia

    Keine Volta-basierten Geforces in 2017

  10. Grafikkarte

    Sonnets eGFX Breakaway Box kostet 330 Euro



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Threadripper 1950X und 1920X im Test: AMD hat die schnellste Desktop-CPU
Threadripper 1950X und 1920X im Test
AMD hat die schnellste Desktop-CPU
  1. Ryzen AMD bestätigt Compiler-Fehler unter Linux
  2. CPU Achtkerniger Threadripper erscheint Ende August
  3. Ryzen 3 1300X und 1200 im Test Harte Gegner für Intels Core i3

Sysadmin Day 2017: Zum Admin-Sein fehlen mir die Superkräfte
Sysadmin Day 2017
Zum Admin-Sein fehlen mir die Superkräfte

Ausweis: Prepaid-Registrierung bislang nicht konsequent umgesetzt
Ausweis
Prepaid-Registrierung bislang nicht konsequent umgesetzt
  1. 10 GBit/s Erste 5G-Endgeräte sind noch einen Kubikmeter groß
  2. Verbraucherzentrale Datenlimits bei EU-Roaming wären vermeidbar
  3. Internet Anbieter umgehen Wegfall der EU-Roaming-Gebühren

  1. Re: Es gibt einen grundsätzlichen Denkfehler bei...

    superdachs | 15:11

  2. Viele Hersteller würden sich freuen,

    ibecf | 15:08

  3. Re: Ach Bioware....

    Cok3.Zer0 | 15:07

  4. Re: 10-50MW

    anybody | 15:07

  5. Re: Finde ich gut

    Érdna Ldierk | 15:04


  1. 13:33

  2. 13:01

  3. 12:32

  4. 11:50

  5. 14:38

  6. 12:42

  7. 11:59

  8. 11:21


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel