Abo
  • Services:
Anzeige
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein.
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein. (Bild: Screenshot Valentin Höbel)

LizardFS: Software-defined Storage, wie es sein soll

Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein.
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein. (Bild: Screenshot Valentin Höbel)

Alternativen zu teuren Appliances gibt es im Bereich Software-defined Storage einige: Oft genügt es, Standardhardware mit einer Software zu einem ausfallsicheren Storage-Pool zusammenzuschalten. Wer dabei mit Lösungen wie GlusterFS nicht zufrieden war, sollte LizardFS testen.
Von Valentin Höbel

Ein klassisches Mittel, um Speicherplatz zur Verfügung zu stellen, ist der Erwerb einer oder mehrerer Storage-Appliances, die Software und Hardware fest miteinander verzahnen. Allerdings sind diese nicht sehr flexibel, nicht skalierbar und lassen sich nicht so einfach zu Lösungen anderer Hersteller migrieren.

Anzeige

Anders sieht das beim Software-defined Storage (SDS) aus: Hier abstrahiert Software die Storage-Funktion der Hardware. Im Idealfall können verschiedene herkömmliche Server mit Festplatten oder SSDs zu einem Pool an Geräten zusammengeschaltet werden, wobei jedes System Speicherplatz bereitstellt und - je nach Lösung - unterschiedliche Aufgaben übernehmen kann. Skalierung ist möglich, indem weitere Geräte hinzugefügt werden, Flexibilität ist durch die Unabhängigkeit vom Hardwarehersteller und eine schnelle Reaktion auf wachsende Anforderungen gegeben. Im Normalfall sorgt die Software zudem dafür, dass Daten ausfallsicher über Server-Grenzen hinweg vorgehalten werden.

Große Auswahl und große Unterschiede

Im Open-Source-Bereich gibt es bereits einige Lösungen: Die bekanntesten sind Lustre, GlusterFS, Ceph und MooseFS. Nicht alle sind gleich gut, und einige haben sich spezialisiert, wie etwa Ceph auf Object Storage. Besonders gefragt ist das Feature, bei dem ein SDS ein Posix-kompatibles Dateisystem bereitstellt - aus Sicht des Clients soll das verteilte Dateisystem die gleichen Merkmale aufweisen wie ein gewöhnliches lokal verwendetes Dateisystem (beispielsweise Ext4).

Einige der verfügbaren Lösungen werden von großen Firmen betrieben, wie etwa Lustre, GlusterFS und Ceph. Andere hängen von wenigen Entwicklern ab oder werden gar überhaupt nicht mehr gepflegt, wie MooseFS. Das Projekt wirkt streckenweise wie tot oder auch wie ein Ein-Mann-Projekt ohne Langzeitstrategie und aktive Community. Diesen Umstand nahmen einige Entwickler aus Polen im Sommer 2013 zum Anlass, um einen Fork zu erstellen und ihn unter GLPLv3-Lizenz aktiv weiterzuentwickeln: LizardFS war geboren.

LizardFS wird von seinen Entwicklern als verteiltes skalierbares Dateisystem mit Enterprise-Features wie Fehlertoleranz, Ausfallsicherheit und Hochverfügbarkeit bezeichnet. Die Software wird hauptsächlich von rund zehn Entwicklern unter dem Dach der Warschauer Firma Skytechnology eigenständig entwickelt.

Wer LizardFS installieren möchte, kann die Software aus den Quellen bauen oder von der Download-Seite Pakete für Debian, Ubuntu, CentOS und Red Hat beziehen. Zudem gibt es LizardFS seit den vergangenen Monaten über diverse offizielle Distributionsquellen.

Komponenten und Architektur

Das Design von LizardFS sieht eine Trennung von Metadaten wie Dateinamen, Speicherorten und Prüfsummen von den eigentlichen Daten vor. Damit keine Inkonsistenzen entstehen und atomare Aktionen auf Dateisystemebene möglich sind, müssen sämtliche Vorgänge durch einen sogenannten Master geschleust werden. Er hält alle Metadaten vor und ist der zentrale Ansprechpartner für Server-Komponenten und Clients.

Damit ein Master ausfallen darf, kann er auch in einer "Shadow"-Rolle laufen. Hier wird ein Master auf einem zusätzlichen Server installiert, der aber passiv bleibt. Der Shadow-Master holt permanent alle Änderungen der Metadaten ab und spiegelt damit den Zustand des Dateisystems im eigenen Arbeitsspeicher. Fällt der Master aus, kann das zweite System mit dem Shadow-Master in die aktive Rolle hinüberschalten und weiter alle Teilnehmer mit Informationen versorgen.

Die Open-Source-Variante von LizardFS beinhaltet allerdings keinen automatischen Failover zwischen dem primären und theoretisch beliebig vielen sekundären Mastern. Als Administrator ist man daher entweder gezwungen, manuell umzuschalten oder eine eigene Failover-Mechanik zu bauen, etwa auf Grundlage eines Pacemaker-Clusters. Da das Umschalten der Master-Rollen jedoch nur aus dem Abändern einer Konfigurationsvariablen sowie einem Reload des Master-Daemons besteht, sollten Administratoren mit Erfahrung im Betrieb von Clustern schnell eine eigene Lösung finden können.

Verwaltet, gespeichert und repliziert wird über die Chunk-Server 

eye home zur Startseite
felix.schwarz 09. Mai 2016

hm, zu den restlichen Aussagen (Microsoft's scale-out Angebote) kann ich nichts sagen...

Juge 30. Apr 2016

Kennst Du Microsoft Azure? Xbox Live? Skype? Das läuft alles auf SDS (Scale out Fileserver).

tingelchen 27. Apr 2016

Am Ende muss man eigentlich nur hergehen und die Online Speicher als FS im Linux...

olqs 27. Apr 2016

Im Text wird geschrieben, dass CephFS auch von den Entwicklern noch als "nur für Early...



Anzeige

Stellenmarkt
  1. Daimler AG, Leinfelden-Echterdingen
  2. operational services GmbH & Co. KG, Chemnitz, Zwickau, Dresden
  3. macom GmbH, München
  4. Schaeffler Automotive Aftermarket GmbH & Co. KG, Langen


Anzeige
Top-Angebote
  1. 294,78€ (zur Zeit günstigste RX 580 mit 8 GB)
  2. 20,99€ + 5€ Versand (für Prime-Mitglieder)
  3. 8,58€ (ohne Prime bzw. unter 29€ Einkauf + 3€ Versand)

Folgen Sie uns
       

Anzeige
Whitepaper
  1. Durch Wechsel zur Cloud die Unternehmens-IT dynamisieren
  2. Data Center-Modernisierung für mehr Performance und
  3. Business Continuity für geschäftskritische Anwendungen


  1. Ronny Verhelst

    Tele-Columbus-Chef geht nach Hause

  2. Alphabet

    Googles Gewinn geht wegen EU-Strafe zurück

  3. Microsoft

    Nächste Hololens nutzt Deep-Learning-Kerne

  4. Schwerin

    Livestream-Mitschnitt des Stadtrats kostet 250.000 Euro

  5. Linux-Distributionen

    Mehr als 90 Prozent der Debian-Pakete reproduzierbar

  6. Porsche Design

    Huaweis Porsche-Smartwatch kostet 800 Euro

  7. Smartphone

    Neues Huawei Y6 für 150 Euro bei Aldi erhältlich

  8. Nahverkehr

    18 jähriger E-Ticket-Hacker in Ungarn festgenommen

  9. Bundesinnenministerium

    Neues Online-Bürgerportal kostet 500 Millionen Euro

  10. Linux-Kernel

    Android O filtert Apps großzügig mit Seccomp



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Indiegames Rundschau: Meisterdiebe, Anti- und Arcadehelden
Indiegames Rundschau
Meisterdiebe, Anti- und Arcadehelden
  1. Jump So was wie Netflix für Indiegames
  2. Indiegames-Rundschau Weltraumabenteuer und Strandurlaub
  3. Indiegames-Rundschau Familienflüche, Albträume und Nostalgie

Ausprobiert: JPEGmini Pro komprimiert riesige JPEGs um bis zu 80 Prozent
Ausprobiert
JPEGmini Pro komprimiert riesige JPEGs um bis zu 80 Prozent
  1. Google KI erstellt professionelle Panoramen
  2. Bildbearbeitung Google gibt Nik Collection auf

Kryptowährungen: Bitcoin steht vor grundlegenden Änderungen
Kryptowährungen
Bitcoin steht vor grundlegenden Änderungen
  1. Die Woche im Video Strittige Standards, entzweite Bitcoins, eine Riesenkonsole
  2. Drogenhandel Weltweit größter Darknet-Marktplatz Alphabay ausgehoben
  3. Kryptowährung Bitcoin notiert auf neuem Rekordhoch

  1. Re: nächste Hololens, wo ist die momentane Hololens?

    Emulex | 06:53

  2. Re: Eine Beleidigung für echte Fotografen

    Dennisb456 | 06:52

  3. Re: USB Anschluss

    Peter Brülls | 06:44

  4. Re: DSLRs?

    ArcherV | 06:38

  5. Re: Andersherum: Wieso nicht das Unternehmen...

    oleurgast | 05:16


  1. 23:54

  2. 22:48

  3. 16:37

  4. 16:20

  5. 15:50

  6. 15:35

  7. 14:30

  8. 14:00


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel