Abo
  • Services:
Anzeige
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein.
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein. (Bild: Screenshot Valentin Höbel)

Erfahrungswerte

Der Autor beschäftigt sich seit Längerem mit SDS-Technologien und testet eine LizardFS-Umgebung im Rahmen eines Pilotierungsprojekt. Der mehrere Monate andauernde Testlauf basiert auf der zum Startzeitpunkt für Debian 7 verfügbaren LizardFS-Version 2.6 und sieht die Überprüfung der Software unter produktionsnahen Bedingungen inklusive verschiedener Tests, unter anderem Failovers, vor.

Die hier beschriebenen Tests decken zwar nur einen Teil der möglichen Ereignisse ab, zeigen aber, dass die Lösung grundsätzlich funktioniert und mit Fehlerfällen umgehen kann. Das Verhalten von LizardFS in einem solchen Fall wirkt in der Regel nachvollziehbar, wenn auch manchmal etwas träge.

Anzeige

Eines der Testszenarien war der Neustart eines Masters, um einen Wechsel der Master-Rolle auf einen anderen Knoten in einem anderen Rechenzentrum zu provozieren. Der gleichzeitig stattfindende Lesezugriff eines Clients wurde während des Master-Wechsels für knapp zwei Sekunden unterbrochen, lief danach jedoch weiter. In solchen Fällen scheint es also wichtig, dass die zugreifende Applikation mit solchen Wartezeiten umgehen kann und der Master-Wechsel möglichst schnell erfolgt.

Ein anderes Szenario sieht vor, dass Clients die RZ-lokalen Chunk-Server kennen und sie beim Lesezugriff gegenüber den Chunk-Servern von einem anderen Standort bevorzugen. Während eines Lesevorgangs durch einen RZ-lokalen Client wurden die Chunk-Server im gleichen Standort vom Netz getrennt, womit der Client die Daten ohne erkennbare Verzögerung von den Chunk-Servern des anderen Standorts bezog. Sobald die vom Netz getrennten Chunk-Server im gleichen RZ wieder verfügbar waren, schwenkte der Client automatisch zurück und las die Daten wieder von den ursprünglichen Nodes.

Diese Tests haben ein Limit aufgezeigt: In LizardFS werden Goals festgelegt, die besagen, wie oft das verteilte Dateisystem eine Datei vorhalten soll. In der Regel stellt man mindestens genauso viele bis deutlich mehr Chunk-Server auf, damit dieses Ziel erfüllt werden kann. Wenn durch Tests, Reboots, Abstürze oder andere Ausfälle jedoch zu wenige Chunk-Server online sind, um das Ziel für eine neue Datei sofort zu erfüllen, verweigert der LizardFS-Master den Schreibvorgang. In diesem Beispiel waren nur noch zwei Chunk-Server bei einem Replication-Goal von drei verfügbar. Ein LizardFS-Entwickler bestätigte dieses Verhalten und kündigte eine interne Diskussion zu diesem Thema an.

Im Vergleich

LizardFS muss sich im SDS-Bereich mit vielen verschiedenen Konkurrenten messen, etwa mit Ceph oder GlusterFS. Ceph ist primär ein zu Amazons S3-API kompatibler Object-Store, kann aber auch Block-Devices oder ein Posix-kompatibles Dateisystem ("CephFS") bereitstellen. Letzteres ist mehr ein Overlay über den Object-Store als ein robustes Dateisystem. Die Hersteller schreiben selbst auf ihrer Webseite, dass sich CephFS derzeit primär an Early-Adopter richtet und keine wichtigen Daten darauf gespeichert werden sollten. Da Ceph seinen Fokus auf die Object-Store-Funktionalität legt, kann es nicht als direkte Konkurrenz zu LizardFS betrachtet werden.

GlusterFS bietet auf dem Papier die nahezu gleiche Funktionalität, ist aber schon länger auf dem Markt und genießt dementsprechend viel Ansehen in der SDS-Community. GlusterFS bietet viele verschiedene Betriebsmodi, die je nach Konfiguration verschiedene Level an Ausfallsicherheit und Performance bieten. Es bietet diese Konfigurationsmöglichkeiten auf Volume-Ebene, während LizardFS die Replikationsziele pro Ordner oder Datei festlegt. Beide Varianten besitzen ihre Vor- und Nachteile: Bei GlusterFS muss sich der Administrator bei Erstellung des Volumes für eine Variante entscheiden, während die Replikationsart bei LizardFS jederzeit abänderbar ist.

Für sicherheitsbewusste Systembetreuer bietet GlusterFS die Möglichkeit, ein Volume mit einem Key zu verschlüsseln. Nur die Server, die den richtigen Key vorweisen können, sind dann in der Lage, das Volume einzuhängen und zu entschlüsseln. Sowohl GlusterFS als auch LizardFS werden auf Linux-Clients als FUSE-Modul im User-Space betrieben.

Während bei LizardFS die Daten nur einmal auf einen Chunk-Server geschrieben werden müssen (von dort aus replizieren die Chunk-Server untereinander weiter), übernimmt bei GlusterFS der Client die Replikation: Der Schreibvorgang geschieht auf allen beteiligten GlusterFS-Servern parallel, sodass der Client sicherstellen muss, dass die Replikation überall erfolgreich abgeschlossen wurde. Das sorgt bei Schreibzugriffen für eine langsamere Performance, fällt aber ansonsten nicht ins Gewicht.

Während LizardFS dem Client stets einen Master präsentiert, können GlusterFS-Clients beim Einhängen des Volumens mehrere GlusterFS-Server angeben. Damit kann ein Client bei einem Ausfall des ersten angegebenen Servers auf andere GlusterFS-Nodes zurückgreifen.

 Mehr Chunk-Server für mehr SpeicherplatzAusblick 

eye home zur Startseite
felix.schwarz 09. Mai 2016

hm, zu den restlichen Aussagen (Microsoft's scale-out Angebote) kann ich nichts sagen...

Juge 30. Apr 2016

Kennst Du Microsoft Azure? Xbox Live? Skype? Das läuft alles auf SDS (Scale out Fileserver).

tingelchen 27. Apr 2016

Am Ende muss man eigentlich nur hergehen und die Online Speicher als FS im Linux...

olqs 27. Apr 2016

Im Text wird geschrieben, dass CephFS auch von den Entwicklern noch als "nur für Early...



Anzeige

Stellenmarkt
  1. SARSTEDT AG & Co., Nümbrecht-Rommelsdorf
  2. Automotive Safety Technologies GmbH, Gaimersheim
  3. Robert Bosch GmbH, Abstatt
  4. T-Systems International GmbH, München


Anzeige
Spiele-Angebote
  1. (-20%) 31,99€
  2. 1,49€
  3. 4,99€

Folgen Sie uns
       

Anzeige
Whitepaper
  1. Modernisierung der RZ-Infrastruktur aus geschäftlicher Sicht
  2. Verbindung zwischen traditioneller IT und Private Cloud
  3. Business Continuity für geschäftskritische Anwendungen


  1. Service

    Telekom verspricht kürzeres Warten auf Techniker

  2. BVG

    Fast alle U-Bahnhöfe mit offenem WLAN

  3. Android-Apps

    Rechtemissbrauch erlaubt unsichtbare Tastaturmitschnitte

  4. Electro Fluidic Technology

    Schnelles E-Paper-Display für Video-Anwendungen

  5. Heiko Maas

    "Kein Wunder, dass Facebook seine Vorgaben geheim hält"

  6. Virtual Reality

    Oculus Rift unterstützt offiziell Roomscale-VR

  7. FTP-Client

    Filezilla bekommt ein Master Password

  8. Künstliche Intelligenz

    Apple arbeitet offenbar an eigenem AI-Prozessor

  9. Die Woche im Video

    Verbogen, abgehoben und tiefergelegt

  10. ZTE

    Chinas großes 5G-Testprojekt läuft weiter



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
XPS 13 (9365) im Test: Dells Convertible zeigt alte Stärken und neue Schwächen
XPS 13 (9365) im Test
Dells Convertible zeigt alte Stärken und neue Schwächen
  1. Prozessor Intel wird Thunderbolt 3 in CPUs integrieren
  2. Schnittstelle Intel pflegt endlich Linux-Treiber für Thunderbolt
  3. Atom C2000 & Kaby Lake Updates beheben Defekt respektive fehlendes HDCP 2.2

Calliope Mini im Test: Neuland lernt programmieren
Calliope Mini im Test
Neuland lernt programmieren
  1. Arduino Cinque RISC-V-Prozessor und ESP32 auf einem Board vereint
  2. MKRFOX1200 Neues Arduino-Board erscheint mit kostenlosem Datentarif
  3. Creoqode 2048 Tragbare Spielekonsole zum Basteln erhältlich

Tado im Langzeittest: Am Ende der Heizperiode
Tado im Langzeittest
Am Ende der Heizperiode
  1. Speedport Smart Telekom bringt Smart-Home-Funktionen auf den Speedport
  2. Tapdo Das Smart Home mit Fingerabdrücken steuern
  3. Mehr Möbel als Gadget Eine Holzfernbedienung für das Smart Home

  1. Mittelmäßig nützlich, ersetzt kein LTE

    HerrBraun | 14:40

  2. Ist doch gut

    bla | 14:36

  3. Telekom-Termin = irgendwann zwischen 8 und 21 Uhr

    stacker | 14:35

  4. Re: Kenne ich

    RipClaw | 14:33

  5. Re: Nicht realisierbar

    moppi | 14:31


  1. 12:31

  2. 12:15

  3. 11:33

  4. 10:35

  5. 12:54

  6. 12:41

  7. 11:44

  8. 11:10


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel