Abo
  • Services:

Cloud Computing: Was ist eigentlich Software Defined Storage?

Cloud Computing boomt und beschert auch dem Konzept des Software Defined Storage (SDS) ordentlich Auftrieb. Worum geht es dabei eigentlich und warum ist SDS interessant? Golem.de erklärt das am Beispiel der SDS-Lösung Ceph.

Ein Bericht von Martin Loschwitz veröffentlicht am
Ceph, kurz für Cephalopoda (Kopffüßer),
Ceph, kurz für Cephalopoda (Kopffüßer), (Bild: Rich Bowen, Flickr.com/CC-BY 2.0)

Software Defined Storage (SDS) hat in Folge der Beliebtheit des Cloud Computings zu großer Verbreitung gefunden: Wenn Unternehmen heute Cloud-Setups planen, spielt SDS dabei fast immer eine Rolle. Der Begriff ist für viele aber bis heute eher abstrakt. Was genau ist damit eigentlich gemeint, und was sind die Unterschiede zwischen SDS-Setups und klassischen Storage-Appliances, etwa den Storage Area Networks (SAN) der etablierten Hersteller? Dieser Artikel erklärt die Grundlagen und erläutert am Beispiel von Ceph, wie SDS-Theorie zur Praxis wird.

Skalierbarkeit ist wichtig

Inhalt:
  1. Cloud Computing: Was ist eigentlich Software Defined Storage?
  2. Software Defined Storage ermöglicht verteiltes Speichern
  3. Zwei Basis-Komponenten
  4. Parallellität als Matchwinner

Cloud-Setups sind immer Setups, bei denen Skalierbarkeit eine große Rolle spielt. Schließlich soll die Cloud zusammen mit dem Kundenstamm wachsen. Und ein neuer Kunde, der ad hoc etliche Terabyte Plattenplatz braucht, soll nicht zu einem anderen Anbieter wechseln, weil man selbst diesen Plattenplatz nicht schnell genug anbieten kann. Stattdessen muss sich das eigene Storage-System quasi augenblicklich um die benötigte Kapazität erweitern lassen.

Die moderne IT unterscheidet zwei Arten von Skalierbarkeit: Das Skalieren in die Höhe und das Skalieren in die Breite. Ersteres steckt in vorhandene Systeme Hardware nach; zweiteres ergänzt vorhandene Systeme um weitere Hardware und verteilt so die Last auf mehr Systeme insgesamt.

Das Skalieren in die Höhe funktioniert nur solange, bis das Zielsystem sich nicht mehr um zusätzliche Ressourcen erweitern lässt. Bei Servern etwa ist die Menge an möglichem RAM durch die Anzahl der Steckplätze einerseits und durch die maximale Kapazität der nutzbaren RAM-Riegel andererseits begrenzt. Ähnlich ist es bei klassischen Storage-Appliances, in die sich nur eine bestimmte Zahl von Festplatten hineinstecken lassen. Ist das Gehäuse voll, muss ein zweites Gerät her. Bei Admins sorgt das regelmäßig für Zähneknirschen, weil dann mehr als ein zu administrierendes Gerät existiert.

Stellenmarkt
  1. Continental AG, Frankfurt am Main, Wolfsburg
  2. TQ-Systems GmbH, Gut Delling bei München

Das Skalieren in die Breite hat die genannten Probleme hingegen üblicherweise nicht: Die Zahl zu installierender Server ist höchstens durch Faktoren wie Platz im Rechenzentrum oder Strom eingeschränkt, nicht jedoch auf der technischen Seite. Für Cloud-Setups stehen deshalb meist Lösungen im Vordergrund, die in die Breite skalieren können.

Breitenskalierung eigentlich nichts Neues

Das Skalieren in die Breite ist nichts Neues. Das HTTP-Protokoll etwa nutzt das Konzept seit Jahrzehnten: Das Prinzip, einen Loadbalancer zu verwenden und die Anzahl der verfügbaren Backends von der tatsächlichen Last abhängig zu machen, folgt exakt denselben Ideen. Auch Datenbanken haben in den vergangenen Jahren beim Skalieren in die Breite nachgelegt: Sowohl MySQL - zum Beispiel per Galera - als auch PostgreSQL beherrschen entsprechende Funktionalität. Beim Thema Storage sah das eine ganze Weile anders aus. Klassische Speicher im Sinne von SAN-Storages etwa können eben nur in die Höhe skalieren, aber nicht in die Breite.

Des Übels Wurzel

Warum ist das Skalieren in die Breite bei klassischem Storage so schwer? Ein Blick unter die Haube hilft beim Verstehen. Praktisch alle Speichermedien der Gegenwart sind blockbasiert. Das gilt für sämtliche Geräte im Serverumfeld wie für USB-Sticks aus dem Computermarkt des Vertrauens. Blockbasierte Speicher lassen sich ab Werk nicht sinnvoll nutzen; zwar lassen sich Daten auf ihnen ablegen, aber wollte man exakt die gleichen Daten später wieder lesen, müsste man den kompletten Datenträger absuchen und aus dem Suchergebnis die passenden Daten herausfiltern. Damit Blockgeräte also nutzbar werden, müssen sie irgendwie sinnvoll organisiert sein.

Der klassische Ansatz sind dafür Dateisysteme. Diese legen auf dem Gerät eine entsprechende Struktur an, die abfragbar ist. Über den Umweg des Dateisystems lassen sich auf einem Blockgerät Daten zuverlässig finden. Das Problem hierbei ist, dass praktisch alle relevanten Dateisysteme für Linux so konstruiert sind, dass sie die konkrete Bindung an ein Blockgerät vorsehen. Es ist also unmöglich, das Dateisystem eines Datenträgers auf mehrere Blockgeräte zu verteilen. Doch gerade darum geht es ja bei Clouds. Systeme, die in die Breite skalieren können, sind immer verteilte Systeme.

Software Defined Storage ermöglicht verteiltes Speichern 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


Anzeige
Top-Angebote
  1. (u. a. Canon EOS M100 + Objektiv 15-45 mm + 50€ Cashback für 299€ statt 376,86€ im Vergleich...
  2. (u. a. Inferno Blu-ray Steelbook für 6,99€ und Ni No Kuni 2: Schicksal eines Königreichs King's...
  3. 16,99€ + 3,49€ Versand (Vergleichspreis ca. 30€)
  4. (u. a. NieR Automata für 20,99€ und Dead in Vinland für 12,49€)

AgentBignose 19. Okt 2016

Ich finde den Artikel etwas zu unkritisch, klingt ein bisschen wie ein Werbe Prospekt...

amagol 07. Okt 2016

Die lokale SSD bring dir aber nur etwas wenn du weisst das die Daten genau auf dieser...

Käx 07. Okt 2016

Eben dieses. Der Vorteil von Drive Pooling ist das selektive (!) Spiegeln von Daten. Die...

olqs 06. Okt 2016

Wenn ihr sowieso eine Forschungseinrichtung seit, dann fragt doch mal unverbindlich beim...


Folgen Sie uns
       


The Crew 2 - Fazit

The Crew 2 bietet zum Teil wahnwitzige Neuerungen, stolpert im Test aber trotzdem über alte Fehler.

The Crew 2 - Fazit Video aufrufen
Automatisiertes Fahren: Der schwierige Weg in den selbstfahrenden Stau
Automatisiertes Fahren
Der schwierige Weg in den selbstfahrenden Stau

Der Staupilot im neuen Audi A8 soll der erste Schritt auf dem Weg zum hochautomatisierten Fahren sein. Doch die Verhandlungen darüber, was solche Autos können müssen, sind sehr kompliziert. Und die Tests stellen Audi vor große Herausforderungen.
Ein Bericht von Friedhelm Greis

  1. Autonomes Fahren Ford will lieber langsam sein
  2. Navya Mainz testet autonomen Bus am Rheinufer
  3. Drive-by-wire Schaeffler kauft Lenktechnik für autonomes Fahren

Smartphone von Gigaset: Made in Bocholt
Smartphone von Gigaset
Made in Bocholt

Gigaset baut sein Smartphone GS185 in Bocholt - und verpasst dem Gerät trotz kompletter Anlieferung von Teilen aus China das Label "Made in Germany". Der Fokus auf die Region ist aber vorhanden, eine erweiterte Fertigung durchaus eine Option. Wir haben uns das Werk angeschaut.
Ein Bericht von Tobias Költzsch

  1. Bocholt Gigaset baut Smartphone in Deutschland

Stromversorgung: Das Märchen vom Blackout durch Elektroautos
Stromversorgung
Das Märchen vom Blackout durch Elektroautos

Die massenhafte Verbreitung von Elektroautos stellt das Stromnetz vor neue Herausforderungen. Doch verschiedenen Untersuchungen zufolge sind diese längst nicht so gravierend, wie von Kritikern befürchtet.
Ein Bericht von Friedhelm Greis

  1. Elektromobilität iEV X ist ein Ausziehelektroauto
  2. Elektroautos Bundesrechnungshof hält Kaufprämie für unwirksam
  3. Ladekabel Startup Ubitricity gewinnt Klimaschutzpreis in New York

    •  /