Abo
  • Services:
Anzeige
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein.
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein. (Bild: Screenshot Valentin Höbel)

Simple, aber ausreichende Web-GUI

Damit Benutzer und Administratoren den Überblick behalten, stellt LizardFS mit dem CGI-Server eine simple, aber ausreichende Web-GUI bereit. Diese Komponente kann prinzipiell auf jedem System zusätzlich mit installiert werden und bietet eine Übersicht über alle Server im Verbund, die Anzahl der Dateien, deren Replikationszustände und andere wichtige Informationen.

  • Genereller Kommunikationsfluss bei LizardFS (Quelle: Skytechnology)
  • CGI-Oberfläche von LizardFS (Quelle: Skytechnology)
  • Architekturübersicht LizardFS (Quelle: Skytechnology)
  • Grafische Darstellung des Lesevorgangs unter LizardFS (Quelle: Skytechnology)
  • Grafische Darstellung des Schreibvorgangs unter LizardFS (Quelle: Skytechnology)
CGI-Oberfläche von LizardFS (Quelle: Skytechnology)

Wer zudem einen Support-Vertrag mit der Firma hinter LizardFS abschließt, kann den proprietären uRaft-Daemon einsetzen. Dieses Tool ist unabhängig von LizardFS und bietet auf Grundlage des Raft-Consensus-Algorithmus eine Mechanik für den automatisierbaren Failover. Mit Hilfe von Heartbeats wählen alle beteiligten Master-Daemons stets einen Hauptverantwortlichen aus. Damit das zuverlässig funktioniert, sollte für ein Quorum eine ungerade Zahl an Mastern zur Verfügung stehen.

Anzeige

uRaft sorgt dann mit Hilfe von einfachen Shell-Scripten dafür, dass die Master jeweils befördert oder degradiert werden. Wer LizardFS zusammen mit dem uRaft-Daemon laufen lässt, gibt die typischen Master- und Shadow-Rollen auf und überlässt uRaft ganz die Verwaltung der einzelnen Rollen. Zudem sorgt uRaft für den Start und Stop der Master-Daemons, womit Administratoren das Init-Script für den LizardFS-Master nicht mehr verwenden dürfen.

uRaft setzt voraus, dass sich alle Master im gleichen Netz befinden und mit dem jeweils primären Master eine Floating-IP verschoben werden kann. Der uRaft-Daemon wird auf jedem Server installiert, auf dem auch ein Master-Dienst läuft.

Alle Komponenten stellen kaum Anforderungen an das darunter liegende System. Einzig der Master-Server sollte, je nach Anzahl der zu verwaltenden Dateien, über etwas mehr Arbeitsspeicher verfügen.

Feature-Vielfalt und Limits

LizardFS stellt aus Client-Sicht ein Posix-kompatibles Dateisystem zur Verfügung, das - ähnlich wie bei NFS - über einen Mount-Befehl eingehängt werden kann. Während die Server-Komponenten zwingend Linux als das zugrundeliegende Betriebssystem voraussetzen, können, neben Linux-basierten Clients, auch Windows-Rechner auf das Netzwerkdateisystem zugreifen.

Naturgemäß läuft LizardFS im Idealfall auf mehreren Servern, wobei es für die Funktionalität keine Rolle spielt, ob virtuelle Maschinen oder Standardhardware zum Einsatz kommen. Alle Server können sämtliche oder unterschiedliche Rollen einnehmen, wobei eine Spezialisierung teilweise sinnvoll ist. So sollten Chunk-Server eher auf Systemen mit viel (und gegebenenfalls schnellem) Speicherplatz laufen, während die Master-Server vor allem Anforderungen an CPU und Arbeitsspeicher stellen. Der Metadata-Backup-Logger hingegen kann wegen der niedrigen Anforderungen auch auf einer kleinen virtuellen Maschine oder einem Backup-Server mitlaufen.

Die Daten werden mit Hilfe vorgefertigter Replikationsziele ("Goals") beliebig oft zwischen den Systemen repliziert und liegen so redundant und gleichzeitig fehlertolerant vor - fällt ein Chunk-Server aus, sind die Daten dennoch über andere Server verfügbar. Ist das defekte System repariert und wieder im Verbund eingegliedert, übernimmt LizardFS automatisch die Neuverteilung der Dateien, damit die Replikationsziele wieder erfüllt werden können. Die Goals können standardmäßig auf Server-Seiten eingestellt werden; alternativ erlaubt man auch den Clients, Replikationsziele zu setzen. Damit ist es beispielsweise möglich, ein eingehängtes Dateisystem prinzipiell redundant vorzuhalten, aber dem Benutzer die Gelegenheit zu geben, zum Beispiel temporäre Dateien nur einmal im Storage-Pool abzulegen.

Die Chunk-Server können mit den Topologien aus dem eigenen Rechenzentrum gefüttert werden, womit LizardFS im Bilde ist, ob sich die Chunk-Server im gleichen Rack oder Cage befinden. Wer die Topologien sinnvoll konfiguriert, kann den durch die Replikation verursachten Traffic somit hinter dem gleichen Switch oder innerhalb einer Co-Location halten, da die Topologien auch an die Clients propagiert werden.

 Verwaltet, gespeichert und repliziert wird über die Chunk-ServerLizardFS über Rechenzentrumsgrenzen hinweg betreiben 

eye home zur Startseite
felix.schwarz 09. Mai 2016

hm, zu den restlichen Aussagen (Microsoft's scale-out Angebote) kann ich nichts sagen...

Juge 30. Apr 2016

Kennst Du Microsoft Azure? Xbox Live? Skype? Das läuft alles auf SDS (Scale out Fileserver).

tingelchen 27. Apr 2016

Am Ende muss man eigentlich nur hergehen und die Online Speicher als FS im Linux...

olqs 27. Apr 2016

Im Text wird geschrieben, dass CephFS auch von den Entwicklern noch als "nur für Early...



Anzeige

Stellenmarkt
  1. Voith Digital Solutions GmbH, Heidenheim
  2. operational services GmbH & Co. KG, Chemnitz, Zwickau, Dresden
  3. IT Baden-Württemberg (BITBW), Stuttgart-Feuerbach
  4. DEKRA SE, Stuttgart


Anzeige
Blu-ray-Angebote
  1. (u. a. Hobbit Trilogie Blu-ray 43,89€ und Batman Dark Knight Trilogy Blu-ray 17,99€)
  2. (u. a. Fast & Furious 1-7 Blu-ray 24,29€, Indiana Jones Complete Blu-ray 14,76€, The Complete...
  3. 39,99€ (Vorbesteller-Preisgarantie)

Folgen Sie uns
       

Anzeige
Whitepaper
  1. Verbindung zwischen traditioneller IT und Private Cloud
  2. Data Center-Modernisierung mit Hyper Converged-Infrastruktur
  3. Durch Wechsel zur Cloud die Unternehmens-IT dynamisieren


  1. Komplett-PC

    In Nvidias Battleboxen steckt AMDs Ryzen

  2. Internet

    Cloudflare macht IPv6 parallel zu IPv4 jetzt Pflicht

  3. Square Enix

    Neustart für das Final Fantasy 7 Remake

  4. Agesa 1006

    Ryzen unterstützt DDR4-4000

  5. Telekom Austria

    Nokia erreicht 850 MBit/s im LTE-Netz

  6. Star Trek Bridge Crew im Test

    Festgetackert im Holodeck

  7. Quantenalgorithmen

    "Morgen könnte ein Physiker die Quantenmechanik widerlegen"

  8. Astra

    ZDF bleibt bis zum Jahr 2020 per Satellit in SD verfügbar

  9. Kubic

    Opensuse startet Projekt für Container-Plattform

  10. Frühstart

    Kabelnetzbetreiber findet keine Modems für Docsis 3.1



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Calliope Mini im Test: Neuland lernt programmieren
Calliope Mini im Test
Neuland lernt programmieren
  1. Arduino Cinque RISC-V-Prozessor und ESP32 auf einem Board vereint
  2. MKRFOX1200 Neues Arduino-Board erscheint mit kostenlosem Datentarif
  3. Creoqode 2048 Tragbare Spielekonsole zum Basteln erhältlich

Tado im Langzeittest: Am Ende der Heizperiode
Tado im Langzeittest
Am Ende der Heizperiode
  1. Wemo Belkin erweitert Smart-Home-System um Homekit-Bridge
  2. Speedport Smart Telekom bringt Smart-Home-Funktionen auf den Speedport
  3. Tapdo Das Smart Home mit Fingerabdrücken steuern

Blackberry Keyone im Test: Tolles Tastatur-Smartphone hat zu kurze Akkulaufzeit
Blackberry Keyone im Test
Tolles Tastatur-Smartphone hat zu kurze Akkulaufzeit
  1. Blackberry Keyone kommt Mitte Mai
  2. Keyone Blackberrys neues Tastatur-Smartphone kommt später

  1. Re: Turk Telekom als Vergleich

    sneaker | 20:56

  2. Re: Meine Erfahrung als Störungssucher in Luxemburg

    Ovaron | 20:54

  3. Re: Geht einfacher.

    Der Held vom... | 20:49

  4. Re: Als Trekkie rollen sich mir da...

    ArcherV | 20:47

  5. Und bei der Überschrift dachte ich mir ...

    Tigtor | 20:44


  1. 18:08

  2. 17:37

  3. 16:55

  4. 16:46

  5. 16:06

  6. 16:00

  7. 14:21

  8. 13:56


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel