Abo
  • Services:
Anzeige
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein.
Für alle, die ein funktionierendes SDS suchen, dürfte LizardFS interessant sein. (Bild: Screenshot Valentin Höbel)

Simple, aber ausreichende Web-GUI

Damit Benutzer und Administratoren den Überblick behalten, stellt LizardFS mit dem CGI-Server eine simple, aber ausreichende Web-GUI bereit. Diese Komponente kann prinzipiell auf jedem System zusätzlich mit installiert werden und bietet eine Übersicht über alle Server im Verbund, die Anzahl der Dateien, deren Replikationszustände und andere wichtige Informationen.

Anzeige
  • Genereller Kommunikationsfluss bei LizardFS (Quelle: Skytechnology)
  • CGI-Oberfläche von LizardFS (Quelle: Skytechnology)
  • Architekturübersicht LizardFS (Quelle: Skytechnology)
  • Grafische Darstellung des Lesevorgangs unter LizardFS (Quelle: Skytechnology)
  • Grafische Darstellung des Schreibvorgangs unter LizardFS (Quelle: Skytechnology)
CGI-Oberfläche von LizardFS (Quelle: Skytechnology)

Wer zudem einen Support-Vertrag mit der Firma hinter LizardFS abschließt, kann den proprietären uRaft-Daemon einsetzen. Dieses Tool ist unabhängig von LizardFS und bietet auf Grundlage des Raft-Consensus-Algorithmus eine Mechanik für den automatisierbaren Failover. Mit Hilfe von Heartbeats wählen alle beteiligten Master-Daemons stets einen Hauptverantwortlichen aus. Damit das zuverlässig funktioniert, sollte für ein Quorum eine ungerade Zahl an Mastern zur Verfügung stehen.

uRaft sorgt dann mit Hilfe von einfachen Shell-Scripten dafür, dass die Master jeweils befördert oder degradiert werden. Wer LizardFS zusammen mit dem uRaft-Daemon laufen lässt, gibt die typischen Master- und Shadow-Rollen auf und überlässt uRaft ganz die Verwaltung der einzelnen Rollen. Zudem sorgt uRaft für den Start und Stop der Master-Daemons, womit Administratoren das Init-Script für den LizardFS-Master nicht mehr verwenden dürfen.

uRaft setzt voraus, dass sich alle Master im gleichen Netz befinden und mit dem jeweils primären Master eine Floating-IP verschoben werden kann. Der uRaft-Daemon wird auf jedem Server installiert, auf dem auch ein Master-Dienst läuft.

Alle Komponenten stellen kaum Anforderungen an das darunter liegende System. Einzig der Master-Server sollte, je nach Anzahl der zu verwaltenden Dateien, über etwas mehr Arbeitsspeicher verfügen.

Feature-Vielfalt und Limits

LizardFS stellt aus Client-Sicht ein Posix-kompatibles Dateisystem zur Verfügung, das - ähnlich wie bei NFS - über einen Mount-Befehl eingehängt werden kann. Während die Server-Komponenten zwingend Linux als das zugrundeliegende Betriebssystem voraussetzen, können, neben Linux-basierten Clients, auch Windows-Rechner auf das Netzwerkdateisystem zugreifen.

Naturgemäß läuft LizardFS im Idealfall auf mehreren Servern, wobei es für die Funktionalität keine Rolle spielt, ob virtuelle Maschinen oder Standardhardware zum Einsatz kommen. Alle Server können sämtliche oder unterschiedliche Rollen einnehmen, wobei eine Spezialisierung teilweise sinnvoll ist. So sollten Chunk-Server eher auf Systemen mit viel (und gegebenenfalls schnellem) Speicherplatz laufen, während die Master-Server vor allem Anforderungen an CPU und Arbeitsspeicher stellen. Der Metadata-Backup-Logger hingegen kann wegen der niedrigen Anforderungen auch auf einer kleinen virtuellen Maschine oder einem Backup-Server mitlaufen.

Die Daten werden mit Hilfe vorgefertigter Replikationsziele ("Goals") beliebig oft zwischen den Systemen repliziert und liegen so redundant und gleichzeitig fehlertolerant vor - fällt ein Chunk-Server aus, sind die Daten dennoch über andere Server verfügbar. Ist das defekte System repariert und wieder im Verbund eingegliedert, übernimmt LizardFS automatisch die Neuverteilung der Dateien, damit die Replikationsziele wieder erfüllt werden können. Die Goals können standardmäßig auf Server-Seiten eingestellt werden; alternativ erlaubt man auch den Clients, Replikationsziele zu setzen. Damit ist es beispielsweise möglich, ein eingehängtes Dateisystem prinzipiell redundant vorzuhalten, aber dem Benutzer die Gelegenheit zu geben, zum Beispiel temporäre Dateien nur einmal im Storage-Pool abzulegen.

Die Chunk-Server können mit den Topologien aus dem eigenen Rechenzentrum gefüttert werden, womit LizardFS im Bilde ist, ob sich die Chunk-Server im gleichen Rack oder Cage befinden. Wer die Topologien sinnvoll konfiguriert, kann den durch die Replikation verursachten Traffic somit hinter dem gleichen Switch oder innerhalb einer Co-Location halten, da die Topologien auch an die Clients propagiert werden.

 Verwaltet, gespeichert und repliziert wird über die Chunk-ServerLizardFS über Rechenzentrumsgrenzen hinweg betreiben 

eye home zur Startseite
felix.schwarz 09. Mai 2016

hm, zu den restlichen Aussagen (Microsoft's scale-out Angebote) kann ich nichts sagen...

Juge 30. Apr 2016

Kennst Du Microsoft Azure? Xbox Live? Skype? Das läuft alles auf SDS (Scale out Fileserver).

tingelchen 27. Apr 2016

Am Ende muss man eigentlich nur hergehen und die Online Speicher als FS im Linux...

olqs 27. Apr 2016

Im Text wird geschrieben, dass CephFS auch von den Entwicklern noch als "nur für Early...



Anzeige

Stellenmarkt
  1. dm-drogerie markt GmbH + Co. KG, Karlsruhe
  2. Elektror airsystems GmbH, Ostfildern bei Stuttgart
  3. Fresenius Medical Care Deutschland GmbH, Schweinfurt
  4. Zurich Gruppe Deutschland, Bonn


Anzeige
Spiele-Angebote
  1. 1,29€
  2. (-50%) 9,99€
  3. (-50%) 29,99€

Folgen Sie uns
       


  1. LAA

    Nokia und T-Mobile erreichen 1,3 GBit/s mit LTE

  2. Alcatel 1X

    Android-Go-Smartphone mit 2:1-Display kommt für 100 Euro

  3. Apple

    Ladestation Airpower soll im März 2018 auf den Markt kommen

  4. Radeon Software Adrenalin 18.2.3

    AMD-Treiber macht Sea of Thieves schneller

  5. Lifebook U938

    Das fast perfekte Business-Ultrabook bekommt vier Kerne

  6. Wochenrückblick

    Früher war nicht alles besser

  7. Raumfahrt

    Falsch abgebogen wegen Eingabefehler

  8. Cloud

    AWS bringt den Appstore für Serverless-Software

  9. Free-to-Play-Strategie

    Total War Arena beginnt den Betabetrieb

  10. Funkchip

    US-Grenzbeamte können Pass-Signaturen nicht prüfen



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Homepod im Test: Smarter Lautsprecher für den Apple-affinen Popfan
Homepod im Test
Smarter Lautsprecher für den Apple-affinen Popfan
  1. Rückstände Homepod macht weiße Ringe auf Holzmöbeln
  2. Smarter Lautsprecher Homepod schwer reparierbar
  3. Smarter Lautsprecher Homepod-Reparaturen kosten fast so viel wie ein neues Gerät

Indiegames-Rundschau: Tiefseemonster, Cyberpunks und ein Kelte
Indiegames-Rundschau
Tiefseemonster, Cyberpunks und ein Kelte
  1. Indiegames-Rundschau Krawall mit Knetmännchen und ein Mann im Fass
  2. Games 2017 Die besten Indiespiele des Jahres

HP Omen X VR im Test: VR auf dem Rücken kann nur teils entzücken
HP Omen X VR im Test
VR auf dem Rücken kann nur teils entzücken
  1. 3D Rudder Blackhawk Mehr Frags mit Fußschlaufen
  2. Kreativ-Apps für VR-Headsets Austoben im VR-Atelier
  3. Apps und Games für VR-Headsets Der virtuelle Blade Runner und Sport mit Sparc

  1. Re: Wie bitte?

    Etas One | 04:35

  2. Re: Als fast Gehörloser kann ich sagen: Unnötig!

    Etas One | 04:34

  3. Re: Das sagt eine Schlange auch

    teenriot* | 02:24

  4. Re: LAA mit bereits erhältlichen Geräten

    RipClaw | 02:14

  5. Re: Android One war mal das Android Go

    DAGEGEN | 02:03


  1. 22:05

  2. 19:00

  3. 11:53

  4. 11:26

  5. 11:14

  6. 09:02

  7. 17:17

  8. 16:50


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel