IETF Webpackage: Wie das Offline-Internet auf SD-Karte kommen könnte
Große Teile der Weltbevölkerung haben keinen oder nur einen sehr schlechten Zugang zum Internet. Um trotzdem am Leben mit dem Internet teilhaben zu können, tauschen Menschen Inhalte schlicht offline, über Festplatten, SD-Karten oder auch per Direktverbindung zwischen zwei Smartphones. Am bekanntesten ist dieses Vorgehen wohl aus Kuba(öffnet im neuen Fenster) , es tritt allerdings weltweit auf. Wohl deshalb möchte Jeffrey Yasskin aus Googles Chromium-Team diese Methode standardisieren(öffnet im neuen Fenster) .
Natürlich halten sich Nutzer in dem eingangs beschriebenen Szenario nicht immer an Urheberrechte, weshalb einige Smartphone-Apps ihren Nutzern bereits von Haus aus legal anbieten, Inhalte offline zu nutzen oder gar weiterzuverteilen. Prominente Beispiele sind hier etwa die App von Netflix oder das in Indien vorgestellte Youtube Go .
Derartige Anstrengungen großer Hersteller werden aber auch langfristig nicht mehr als Beispiele für die Umsetzbarkeit sein. Das Internet mit seinen unzähligen Inhalten ist schlicht zu vielfältig, als dass alle Anbieter, egal wie groß, solche Modelle umsetzen. Ebenso ist klar, dass die Nutzer ihre Inhalte trotzdem weiter offline verteilen wollen. Um dieses Vorgehen wenigstens einigermaßen in geordnete Bahnen zu lenken, erwägt Yasskin nun eben Standards dafür.
Ein Webpaket für Offline-Seiten
Die Idee, die Yasskin auf dem IETF Meeting 99 vorstellt ( PDF(öffnet im neuen Fenster) ), das derzeit in Prag stattfindet, ist dabei denkbar einfach. Künftig soll es ein standardisiertes Format geben, das vorerst schlicht Webpackage heißt, in dem eine Webseite zur Offline-Nutzung gespeichert werden kann. Zusätzlich dazu soll es ein einheitliches Verhalten der Webbrowser geben, dieses Paket zu laden, was im World Wide Web Consortium (W3C) standardisiert werden soll.
Probleme für den Vorschlag ergeben sich aber schon bei ersten konkreten Überlegungen, die über die grundlegende Idee hinausgehen. Das fängt schon dabei an, dass sich Yasskin selbst darüber im Unklaren ist, ob die IETF überhaupt das richtige Gremium für diese Arbeit wäre, und wenn ja, in welchem Umfang. Deshalb wird der Vorschlag zunächst auch in der Dispatch Arbeitsgruppe diskutiert, die das Thema möglicherweise an eine existierende Arbeitsgruppe überträgt oder gar eine neue dafür einsetzt. Hinzu kommen auch noch einige praktische Erwägungen, die die Umsetzung erschweren könnten.
Webseiten aufnehmen, signieren, bündeln
Für das Paketformat wird derzeit Cbor(öffnet im neuen Fenster) verwendet, das bereits von der IETF standardisiert ist. Die eigentlichen Inhalte einer Webseite werden dem Vorschlag von Yasskin zufolge derzeit als Map gespeichert, die HTTP-Requests ihren jeweiligen Responses zuweist.
Optional könnte das Paket eine signierte Liste mit Hashwerten der gespeicherten Ressourcen enthalten, um die Integrität der geteilten Inhalten gewährleisten zu können. Und schon hier stellt sich die Frage, wie das System etwa mit einem Umsortieren beziehungsweise Austausch oder Fehlen von Ressourcen umgehen können soll.
Der Austausch von Ressourcen in einem Paket ist insofern nachvollziehbar, als dass etwa mehrere Sub-Ressourcen einer Nachrichtenwebseite verteilt werden und dann je nach Interesse der Empfänger entsprechend ausgewählt werden könnten. Sollte dies über eine Art Paket- und Abhängigkeitssystem funktionieren, wie etwa in Linux-Distributionen oder bei einigen Programmiersprachen üblich? Und wie könnte solch ein System dezentral aufrechterhalten werden, ohne die Integrität des Originalinhalts zu gefährden?
Weitere noch offene Fragen sind etwa, wie ein solches System die im Web genutzte Zertifikat-Infrastruktur und HTTPS integrieren kann. Immerhin wird dieses System eben nicht nur genutzt, um die Inhalte beim Transport zu verschlüsseln, sondern auch, um deren Echtheit zu garantieren.
Es ist schwer zu beurteilen, wie und ob überhaupt die zuletzt genannten Probleme gelöst werden könnten. Ebenso bleibt fraglich, warum die IETF hierfür zuständig sein sollte und nicht etwa das W3C für sämtliche Teile der Technik.
Angesichts der offensichtlichen Offline-Nutzung des Internets durch große Teile der Weltbevölkerung scheint eine Standardisierung dieser Technik, wie Yasskin sie anstrebt, durchaus sinnvoll. Derzeit ist aber nicht abzusehen, dass dies mittelfristig gelingen kann.
- Anzeige Hier geht es zu den aktuellen Blitzangeboten bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



