Abo
  • Services:

Cloud Computing: Was ist eigentlich Software Defined Storage?

Cloud Computing boomt und beschert auch dem Konzept des Software Defined Storage (SDS) ordentlich Auftrieb. Worum geht es dabei eigentlich und warum ist SDS interessant? Golem.de erklärt das am Beispiel der SDS-Lösung Ceph.

Ein Bericht von Martin Loschwitz veröffentlicht am
Ceph, kurz für Cephalopoda (Kopffüßer),
Ceph, kurz für Cephalopoda (Kopffüßer), (Bild: Rich Bowen, Flickr.com/CC-BY 2.0)

Software Defined Storage (SDS) hat in Folge der Beliebtheit des Cloud Computings zu großer Verbreitung gefunden: Wenn Unternehmen heute Cloud-Setups planen, spielt SDS dabei fast immer eine Rolle. Der Begriff ist für viele aber bis heute eher abstrakt. Was genau ist damit eigentlich gemeint, und was sind die Unterschiede zwischen SDS-Setups und klassischen Storage-Appliances, etwa den Storage Area Networks (SAN) der etablierten Hersteller? Dieser Artikel erklärt die Grundlagen und erläutert am Beispiel von Ceph, wie SDS-Theorie zur Praxis wird.

Skalierbarkeit ist wichtig

Inhalt:
  1. Cloud Computing: Was ist eigentlich Software Defined Storage?
  2. Software Defined Storage ermöglicht verteiltes Speichern
  3. Zwei Basis-Komponenten
  4. Parallellität als Matchwinner

Cloud-Setups sind immer Setups, bei denen Skalierbarkeit eine große Rolle spielt. Schließlich soll die Cloud zusammen mit dem Kundenstamm wachsen. Und ein neuer Kunde, der ad hoc etliche Terabyte Plattenplatz braucht, soll nicht zu einem anderen Anbieter wechseln, weil man selbst diesen Plattenplatz nicht schnell genug anbieten kann. Stattdessen muss sich das eigene Storage-System quasi augenblicklich um die benötigte Kapazität erweitern lassen.

Die moderne IT unterscheidet zwei Arten von Skalierbarkeit: Das Skalieren in die Höhe und das Skalieren in die Breite. Ersteres steckt in vorhandene Systeme Hardware nach; zweiteres ergänzt vorhandene Systeme um weitere Hardware und verteilt so die Last auf mehr Systeme insgesamt.

Das Skalieren in die Höhe funktioniert nur solange, bis das Zielsystem sich nicht mehr um zusätzliche Ressourcen erweitern lässt. Bei Servern etwa ist die Menge an möglichem RAM durch die Anzahl der Steckplätze einerseits und durch die maximale Kapazität der nutzbaren RAM-Riegel andererseits begrenzt. Ähnlich ist es bei klassischen Storage-Appliances, in die sich nur eine bestimmte Zahl von Festplatten hineinstecken lassen. Ist das Gehäuse voll, muss ein zweites Gerät her. Bei Admins sorgt das regelmäßig für Zähneknirschen, weil dann mehr als ein zu administrierendes Gerät existiert.

Stellenmarkt
  1. Deutsche Bundesbank, Frankfurt am Main
  2. ABUS Security-Center GmbH & Co. KG, Affing

Das Skalieren in die Breite hat die genannten Probleme hingegen üblicherweise nicht: Die Zahl zu installierender Server ist höchstens durch Faktoren wie Platz im Rechenzentrum oder Strom eingeschränkt, nicht jedoch auf der technischen Seite. Für Cloud-Setups stehen deshalb meist Lösungen im Vordergrund, die in die Breite skalieren können.

Breitenskalierung eigentlich nichts Neues

Das Skalieren in die Breite ist nichts Neues. Das HTTP-Protokoll etwa nutzt das Konzept seit Jahrzehnten: Das Prinzip, einen Loadbalancer zu verwenden und die Anzahl der verfügbaren Backends von der tatsächlichen Last abhängig zu machen, folgt exakt denselben Ideen. Auch Datenbanken haben in den vergangenen Jahren beim Skalieren in die Breite nachgelegt: Sowohl MySQL - zum Beispiel per Galera - als auch PostgreSQL beherrschen entsprechende Funktionalität. Beim Thema Storage sah das eine ganze Weile anders aus. Klassische Speicher im Sinne von SAN-Storages etwa können eben nur in die Höhe skalieren, aber nicht in die Breite.

Des Übels Wurzel

Warum ist das Skalieren in die Breite bei klassischem Storage so schwer? Ein Blick unter die Haube hilft beim Verstehen. Praktisch alle Speichermedien der Gegenwart sind blockbasiert. Das gilt für sämtliche Geräte im Serverumfeld wie für USB-Sticks aus dem Computermarkt des Vertrauens. Blockbasierte Speicher lassen sich ab Werk nicht sinnvoll nutzen; zwar lassen sich Daten auf ihnen ablegen, aber wollte man exakt die gleichen Daten später wieder lesen, müsste man den kompletten Datenträger absuchen und aus dem Suchergebnis die passenden Daten herausfiltern. Damit Blockgeräte also nutzbar werden, müssen sie irgendwie sinnvoll organisiert sein.

Der klassische Ansatz sind dafür Dateisysteme. Diese legen auf dem Gerät eine entsprechende Struktur an, die abfragbar ist. Über den Umweg des Dateisystems lassen sich auf einem Blockgerät Daten zuverlässig finden. Das Problem hierbei ist, dass praktisch alle relevanten Dateisysteme für Linux so konstruiert sind, dass sie die konkrete Bindung an ein Blockgerät vorsehen. Es ist also unmöglich, das Dateisystem eines Datenträgers auf mehrere Blockgeräte zu verteilen. Doch gerade darum geht es ja bei Clouds. Systeme, die in die Breite skalieren können, sind immer verteilte Systeme.

Software Defined Storage ermöglicht verteiltes Speichern 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


Anzeige
Hardware-Angebote
  1. 39,99€ statt 59,99€
  2. (reduzierte Überstände, Restposten & Co.)
  3. und Vive Pro vorbestellbar

AgentBignose 19. Okt 2016

Ich finde den Artikel etwas zu unkritisch, klingt ein bisschen wie ein Werbe Prospekt...

amagol 07. Okt 2016

Die lokale SSD bring dir aber nur etwas wenn du weisst das die Daten genau auf dieser...

Käx 07. Okt 2016

Eben dieses. Der Vorteil von Drive Pooling ist das selektive (!) Spiegeln von Daten. Die...

olqs 06. Okt 2016

Wenn ihr sowieso eine Forschungseinrichtung seit, dann fragt doch mal unverbindlich beim...


Folgen Sie uns
       


Bionic Wheel Bot von Festo angesehen und Interview

Gehen oder rollen? Der Bionic Wheel Bot von Festo ist nach dem Vorbild einer Spinne konstruiert, die normalerweise läuft. Hat sie es eilig, etwa um sich vor Feinden in Sicherheit zu bringen, formt sie aus ihren Beinen Räder und rollt davon.

Bionic Wheel Bot von Festo angesehen und Interview Video aufrufen
Datenschutz-Grundverordnung: Was Unternehmen und Admins jetzt tun müssen
Datenschutz-Grundverordnung
Was Unternehmen und Admins jetzt tun müssen

Ab dem 25. Mai gilt europaweit ein neues Datenschutz-Gesetz, das für Unternehmen neue rechtliche Verpflichtungen schafft. Trotz der nahenden Frist sind viele IT-Firmen schlecht vorbereitet. Wir erklären, was auf Geschäftsführung und Admins zukommt.
Von Jan Weisensee

  1. IT-Konzerne Merkel kritisiert Pläne für europäische Digitalsteuer
  2. EU-Kommission Mehr Transparenz für Suchmaschinen und Online-Plattformen
  3. 2019 Schweiz beginnt UKW-Abschaltung

Steam Link App ausprobiert: Games in 4K auf das Smartphone streamen
Steam Link App ausprobiert
Games in 4K auf das Smartphone streamen

Mit der Steam Link App lassen sich der Desktop und Spiele vom Computer auf Smartphones übertragen. Im Kurztest mit einem Windows-Desktop und einem Google Pixel 2 klappte das einwandfrei - sogar in 4K.
Ein Bericht von Marc Sauter

  1. Valve Steam Spy steht nach Datenschutzänderungen vor dem Aus
  2. Insel Games Spielehersteller wegen Fake-Reviews von Steam ausgeschlossen
  3. Spieleportal Bitcoin ist Steam zu unbeständig und zu teuer

Ryzen 5 2600X im Test: AMDs Desktop-Allrounder
Ryzen 5 2600X im Test
AMDs Desktop-Allrounder

Der Ryzen 5 2600X ist eine der besten sechskernigen CPUs am Markt. Für gut 200 Euro liefert er die gleiche Leistung wie der Core i5-8600K. Der AMD-Chip hat klare Vorteile bei Anwendungen, das Intel-Modell in Spielen.
Ein Test von Marc Sauter

  1. Golem.de-Livestream Wie gut ist AMDs Ryzen 2000?
  2. RAM-Overclocking getestet Auch Ryzen 2000 profitiert von schnellem Speicher
  3. Ryzen 2400GE/2200GE AMD veröffentlicht sparsame 35-Watt-APUs

    •  /