Microsofts eigene Art von Deduplikation mit Block Cloning
Statt wie ZFS eine Art Deduplikations-Methode zu implementieren, erdenkt sich Microsoft für ReFS das Feature Block Cloning. Es widmet sich ebenfalls den Problemen, die beim Kopieren von Daten erstellt werden. Schließlich gehört die Copy-Instruktion zu den rechnerisch aufwendigen Operationen eines Dateisystems.
Im Gegensatz zur Deduplikation, die identische Datenblöcke auf der Platte erkennt und so Speicherplatz durch geteilte Datenblöcke statt separaten Kopien einspart, soll Block Cloning zusätzlich die Rechenzeit verringern, die für eine Copy-Aktion benötigt wird. Dabei werden nur die Metadaten einer Kopie neu erstellt. Diese zeigen aber weiterhin auf den gleichen logischen Cluster auf dem Laufwerk.
Das bedeutet: Die Kopie und das Original verwenden beide identische Datenblöcke auf dem System. Ein echtes Kopieren aller Daten, also das Schreiben in den Arbeitsspeicher und dann auf einen Laufwerkssektor, ist nicht notwendig. Dadurch kann eine signifikante Menge an Input-Output-Operationen (IOPS) eingespart werden. Denn das Kopieren von Metadaten ist leicht erledigt.
Maximal 35 Petabyte
ReFS setzt im Vergleich zu NTFS (B-Tree) und anderen älteren Dateisystemen zudem auf das B+-Tree-Konzept, um Daten logisch anzuordnen und so möglichst schnell wiederzufinden. Die maximale Größe eines mit ReFS formatierten Laufwerks kann 35 Petabyte betragen. Das entspricht 35.000 Terabyte. Zum Vergleich: NTFS kann maximal 256 TByte große Laufwerke verwalten.
Nun können wir uns fragen: Wozu brauchen wir so große Laufwerke? Gerade im Enterprise-Bereich können logische Laufwerke aus vielen Dutzend oder Hundert physischen Datenträgern bestehen. Eine Kapazität von 256 TByte kann schon in kleinen oder mittelständischen Unternehmen schnell erreicht werden. Es ist daher sinnvoll, diese Größe entsprechend den gestiegenen Datenanforderungen zu erhöhen.
Checksummen für Metadaten
Interessanterweise behält Microsoft die maximale Anzahl von Unicode-Symbolen für Dateinamen bei. Es können weiterhin 255 Zeichen genutzt werden. Dateipfade dürfen zudem maximal 32.000 Zeichen lang sein. Gerade die Dateilänge kann also in seltenen Fällen weiterhin zu Problemen führen.
Metadaten sind ein wichtiger Teil des Dateisystems. Sie teilen dem Dateisystem Speicherorte und Informationen zu unterschiedlichen Daten auf dem Laufwerk mit. ReFS berechnet automatisiert Checksummen für die eigenen Metadaten. Sollte ein Fehler auftreten und so ein Teil der Informationen verloren gehen, können sie mithilfe der Checksummen erkannt werden. Interessant: Checksummen für eigentliche Daten und Dateien sind hier komplett optional und müssen manuell aktiviert werden.
Dieses Zusatzfeature nennt Microsoft Integrity Streams.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
ReFS erklärt: Das kann der mögliche Nachfolger von NTFS für Windows | Dateifehlern vorbeugen mit Integrity Streams |
Das ist schön, aber der Kunde wird wohl den Windows Explorer nutzen um an seine Dateien...
Naja, dann komm bitte nicht mit Red Hat. - Da denkt jeder sofort an das Server-Geschäft...
Nur Storage Spaces Direct, nicht das normale Storage Spaces. Zumindest nach dem was ich...
Missing trigger defininition error. Zurück an die Programmierer. :D
Kommentieren