Abo
  • Services:
Anzeige
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein.
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein. (Bild: Screenshot Valentin Höbel)

LizardFS: Software-defined Storage, wie es sein soll

Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein.
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein. (Bild: Screenshot Valentin Höbel)

Alternativen zu teuren Appliances gibt es im Bereich Software-defined Storage einige: Oft genügt es, Standardhardware mit einer Software zu einem ausfallsicheren Storage-Pool zusammenzuschalten. Wer dabei mit Lösungen wie GlusterFS nicht zufrieden war, sollte LizardFS testen.
Von Valentin Höbel

Ein klassisches Mittel, um Speicherplatz zur Verfügung zu stellen, ist der Erwerb einer oder mehrerer Storage-Appliances, die Software und Hardware fest miteinander verzahnen. Allerdings sind diese nicht sehr flexibel, nicht skalierbar und lassen sich nicht so einfach zu Lösungen anderer Hersteller migrieren.

Anzeige

Anders sieht das beim Software-defined Storage (SDS) aus: Hier abstrahiert Software die Storage-Funktion der Hardware. Im Idealfall können verschiedene herkömmliche Server mit Festplatten oder SSDs zu einem Pool an Geräten zusammengeschaltet werden, wobei jedes System Speicherplatz bereitstellt und - je nach Lösung - unterschiedliche Aufgaben übernehmen kann. Skalierung ist möglich, indem weitere Geräte hinzugefügt werden, Flexibilität ist durch die Unabhängigkeit vom Hardwarehersteller und eine schnelle Reaktion auf wachsende Anforderungen gegeben. Im Normalfall sorgt die Software zudem dafür, dass Daten ausfallsicher über Server-Grenzen hinweg vorgehalten werden.

Große Auswahl und große Unterschiede

Im Open-Source-Bereich gibt es bereits einige Lösungen: Die bekanntesten sind Lustre, GlusterFS, Ceph und MooseFS. Nicht alle sind gleich gut, und einige haben sich spezialisiert, wie etwa Ceph auf Object Storage. Besonders gefragt ist das Feature, bei dem ein SDS ein Posix-kompatibles Dateisystem bereitstellt - aus Sicht des Clients soll das verteilte Dateisystem die gleichen Merkmale aufweisen wie ein gewöhnliches lokal verwendetes Dateisystem (beispielsweise Ext4).

Einige der verfügbaren Lösungen werden von großen Firmen betrieben, wie etwa Lustre, GlusterFS und Ceph. Andere hängen von wenigen Entwicklern ab oder werden gar überhaupt nicht mehr gepflegt, wie MooseFS. Das Projekt wirkt streckenweise wie tot oder auch wie ein Ein-Mann-Projekt ohne Langzeitstrategie und aktive Community. Diesen Umstand nahmen einige Entwickler aus Polen im Sommer 2013 zum Anlass, um einen Fork zu erstellen und ihn unter GLPLv3-Lizenz aktiv weiterzuentwickeln: LizardFS war geboren.

LizardFS wird von seinen Entwicklern als verteiltes skalierbares Dateisystem mit Enterprise-Features wie Fehlertoleranz, Ausfallsicherheit und Hochverfügbarkeit bezeichnet. Die Software wird hauptsächlich von rund zehn Entwicklern unter dem Dach der Warschauer Firma Skytechnology eigenständig entwickelt.

Wer LizardFS installieren möchte, kann die Software aus den Quellen bauen oder von der Download-Seite Pakete für Debian, Ubuntu, CentOS und Red Hat beziehen. Zudem gibt es LizardFS seit den vergangenen Monaten über diverse offizielle Distributionsquellen.

Komponenten und Architektur

Das Design von LizardFS sieht eine Trennung von Metadaten wie Dateinamen, Speicherorten und Prüfsummen von den eigentlichen Daten vor. Damit keine Inkonsistenzen entstehen und atomare Aktionen auf Dateisystemebene möglich sind, müssen sämtliche Vorgänge durch einen sogenannten Master geschleust werden. Er hält alle Metadaten vor und ist der zentrale Ansprechpartner für Server-Komponenten und Clients.

Damit ein Master ausfallen darf, kann er auch in einer "Shadow"-Rolle laufen. Hier wird ein Master auf einem zusätzlichen Server installiert, der aber passiv bleibt. Der Shadow-Master holt permanent alle Änderungen der Metadaten ab und spiegelt damit den Zustand des Dateisystems im eigenen Arbeitsspeicher. Fällt der Master aus, kann das zweite System mit dem Shadow-Master in die aktive Rolle hinüberschalten und weiter alle Teilnehmer mit Informationen versorgen.

Die Open-Source-Variante von LizardFS beinhaltet allerdings keinen automatischen Failover zwischen dem primären und theoretisch beliebig vielen sekundären Mastern. Als Administrator ist man daher entweder gezwungen, manuell umzuschalten oder eine eigene Failover-Mechanik zu bauen, etwa auf Grundlage eines Pacemaker-Clusters. Da das Umschalten der Master-Rollen jedoch nur aus dem Abändern einer Konfigurationsvariablen sowie einem Reload des Master-Daemons besteht, sollten Administratoren mit Erfahrung im Betrieb von Clustern schnell eine eigene Lösung finden können.

Verwaltet, gespeichert und repliziert wird über die Chunk-Server 

eye home zur Startseite
felix.schwarz 09. Mai 2016

hm, zu den restlichen Aussagen (Microsoft's scale-out Angebote) kann ich nichts sagen...

Juge 30. Apr 2016

Kennst Du Microsoft Azure? Xbox Live? Skype? Das läuft alles auf SDS (Scale out Fileserver).

tingelchen 27. Apr 2016

Am Ende muss man eigentlich nur hergehen und die Online Speicher als FS im Linux...

olqs 27. Apr 2016

Im Text wird geschrieben, dass CephFS auch von den Entwicklern noch als "nur für Early...



Anzeige

Stellenmarkt
  1. SICK AG, Reute bei Freiburg im Breisgau
  2. T-Systems International GmbH, Stuttgart, Leinfelden-Echterdingen
  3. PTV Group, Karlsruhe
  4. über Mentis International Human Resources GmbH, Nordbayern


Anzeige
Blu-ray-Angebote
  1. 39,99€ (Vorbesteller-Preisgarantie)
  2. 24,99€ (Vorbesteller-Preisgarantie)
  3. (u. a. Warcraft Blu-ray 9,29€, Jack Reacher Blu-ray 6,29€, Forrest Gump 6,29€, Der Soldat...

Folgen Sie uns
       

Anzeige
Whitepaper
  1. Data Center-Modernisierung mit Hyper Converged-Infrastruktur
  2. Business Continuity für geschäftskritische Anwendungen
  3. Modernisierung der RZ-Infrastruktur aus geschäftlicher Sicht


  1. BVG

    Fast alle U-Bahnhöfe mit offenem WLAN

  2. Android-Apps

    Rechtemissbrauch erlaubt unsichtbare Tastaturmitschnitte

  3. Electro Fluidic Technology

    Schnelles E-Paper-Display für Video-Anwendungen

  4. Heiko Maas

    "Kein Wunder, dass Facebook seine Vorgaben geheim hält"

  5. Virtual Reality

    Oculus Rift unterstützt offiziell Roomscale-VR

  6. FTP-Client

    Filezilla bekommt ein Master Password

  7. Künstliche Intelligenz

    Apple arbeitet offenbar an eigenem AI-Prozessor

  8. Die Woche im Video

    Verbogen, abgehoben und tiefergelegt

  9. ZTE

    Chinas großes 5G-Testprojekt läuft weiter

  10. Ubisoft

    Far Cry 5 bietet Kampf gegen Sekte in und über Montana



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Redmond Campus Building 87: Microsofts Area 51 für Hardware
Redmond Campus Building 87
Microsofts Area 51 für Hardware
  1. Windows on ARM Microsoft erklärt den kommenden x86-Emulator im Detail
  2. Azure Microsoft betreut MySQL und PostgreSQL in der Cloud
  3. Microsoft Azure bekommt eine beeindruckend beängstigende Video-API

3D-Druck bei der Bahn: Mal eben einen Kleiderhaken für 80 Euro drucken
3D-Druck bei der Bahn
Mal eben einen Kleiderhaken für 80 Euro drucken
  1. Bahnchef Richard Lutz Künftig "kein Ticket mehr für die Bahn" notwendig
  2. Flatrate Öffentliches Fahrradleihen kostet 50 Euro im Jahr
  3. Nextbike Berlins neues Fahrradverleihsystem startet

Panasonic Lumix GH5 im Test: Die Kamera, auf die wir gewartet haben
Panasonic Lumix GH5 im Test
Die Kamera, auf die wir gewartet haben
  1. Die Woche im Video Scharfes Video, spartanisches Windows, spaßige Switch

  1. Re: Erster!!!

    Andreas_B | 12:18

  2. Re: Wieder mal ein Sinnloser Artikel.

    /usr/ | 12:18

  3. Re: Siri und diktieren

    stiGGG | 12:01

  4. Re: bitte klär mich jemand nochmal auf...

    kazhar | 12:00

  5. AI-Prozessor =

    casual_keks | 11:48


  1. 12:15

  2. 11:33

  3. 10:35

  4. 12:54

  5. 12:41

  6. 11:44

  7. 11:10

  8. 09:01


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel