Mark Nottingham leitet die IETF-Arbeitsgruppe HTTPBIS.
Mark Nottingham leitet die IETF-Arbeitsgruppe HTTPBIS. (Bild: Mark Nottingham)

WWW HTTP/2.0 soll das Web schneller machen

Das Web soll eine neue, schnellere Grundlage erhalten: HTTP/2.0. Ausgangspunkt für HTTP/2.0 ist Googles Protokoll SPDY, an der Entwicklung beteiligen sich mittlerweile aber auch Microsoft und Apple. Dabei ziehen derzeit alle an einem Strang.

Anzeige

Was einst als Projekt zweier Google-Mitarbeiter begann, könnte schon bald das Web grundlegend verändern, denn im Rahmen der IETF entsteht derzeit eine neue Version des Hypertext Transfer Protocol, kurz HTTP. Initiiert hat die Standardisierung Mark Nottingham, der die IETF-Arbeitsgruppe HTTPBIS leitet.

Ausgangspunkt für die Entwicklung von HTTP/2.0 ist das von Google entwickelte Protokoll SPDY. Darauf haben sich die Beteiligten schnell geeinigt. Für den ersten Entwurf von HTTP/2.0 wurde die SPDY-Spezifikation lediglich kopiert. Dabei wird es aber nicht bleiben, denn die für HTTP verantwortliche Arbeitsgruppe hat sich bereits auf wesentliche Änderungen geeinigt.

Dazu zählt unter anderen ein anderer Algorithmus zur Header-Kompression. Das ist notwendig, da der in SPDY genutzte Ansatz, Gzip zu verwenden, nicht sicher ist, wie Juliano Rizzo herausgefunden hat. Derzeit spreche vieles für einen von Grund auf neu entwickelten Algorithmus, der speziell zur Header-Kompression ausgelegt wurde, sagt Mark Nottingham im Gespräch mit Golem.de. Ganz nebenbei soll dadurch der Speicherbedarf im Vergleich zu SPDY verringert werden.

Während SPDY nur verschlüsselte Verbindungen zulässt, soll bei HTTP/2.0 nach aktuellem Stand die Verschlüsselung optional sein, auch wenn durchaus denkbar ist, dass einige Browser oder Server nur verschlüsselte Verbindungen über HTTP/2.0 zulassen werden.

Umstieg auf HTTP/2.0

Noch offen ist die Frage, wie der Umstieg auf HTTP/2.0 vollzogen werden soll. SPDY setzt dazu auf die TLS-Erweiterung Next Protocol Negotiation (NPN). Wenn aber die Verschlüsselung optional sein soll, wird hierfür ein anderer Ansatz benötigt. Laut Nottingham sieht es derzeit so aus, als würde das von Microsoft entwickelte Application Layer Protocol Negotiation (ALPN) zum Einsatz kommen, was auch Google befürworte.

Roberto Peon, der zusammen mit Mike Belshe die erste Version von SPDY entwickelt hat und einer der Autoren der HTTP/2.0-Spezifikation ist, hält vor allem diesen Upgrade-Mechanismus für wichtig. Sollte es gelingen, HTTP/2.0 auf diese Art und Weise zu etablieren, wäre es ein Leichtes, später weitere neue Protokolle oder Protokollerweiterungen einzuführen. Laut Nottingham wird derzeit beispielsweise über eine angepasste Protokollversion für mobile Endgeräte nachgedacht.

SPDY wird zum Spielfeld

SPDY soll voraussichtlich neben HTTP/2.0 weiterentwickelt werden, nicht als konkurrierender Standard, sondern vielmehr als Spielfeld, um neue Ideen auszuprobieren, die später im Standard landen könnten. Dabei passt Google die SPDY-Spezifikation den Änderungen von HTTP/2.0 an, so dass die beiden Protokolle bis auf einige noch experimentelle Neuerungen in SPDY praktisch identisch sind.

Eine solche Neuerung ist die Priorisierung von Requests: SPDY und auch HTTP/2.0 unterstützen Multiplexing, ermöglichen es also, neben dem HTML-Code auch Javascript- und CSS-Dateien sowie Bilder in einem Rutsch über eine HTTP-Verbindung zu übertragen. Das kann die Ladezeiten einer Website verringern.

Es kann aber auch einen negativen Effekt haben, wenn der Browser die gesamte Bandbreite nutzt, um Bilder zu laden, die im nicht sichtbaren Bereich sind, und das Herunterladen der für die Anzeige der Website zwingend notwendigen CSS-Datei verzögert wird. Die Priorisierung der Requests kann Abhilfe schaffen, denn so könnten Webentwickler festlegen, in welcher Reihenfolge Inhalte heruntergeladen werden sollen. Google geht aber noch einen Schritt weiter und experimentiert mit einer mehrdimensionalen Priorisierung, so dass der Browser, je nachdem, welches Tab gerade sichtbar ist, die Prioritäten verändern kann.

Noch fehlt es aber an ausreichenden Daten, um sicher einschätzen zu können, ob sich dieser Weg lohnt. Und nur dann würde das Konzept auch in HTTP/2.0 aufgenommen werden.

Arbeiten schreiten zügig voran

Derzeit mache die Entwicklung von HTTP/2.0 schnelle Fortschritte, so Nottingham. So fand kürzlich ein Treffen der Arbeitsgruppe in der Zentrale von Twitter statt, auf dem viele der offenen Fragen geklärt werden konnten. Nottingham geht davon aus, dass in ein bis zwei Wochen ein neuer Entwurf für HTTP/2.0 vorliegt, der die Ergebnisse enthält.

Das nächste kurze Treffen ist bereits für Ende Juli 2013 im Rahmen des IETF Meeting in Berlin geplant. Kurz danach will sich die Arbeitsgruppe in den Büros von Adobe in Hamburg für mehrere Tage zusammensetzen.


redmord 24. Jun 2013

Generell hast du natürlich absolut recht! Der Sys machte einen Gedankenfehler, meinte...

Smaug 22. Jun 2013

Microsoft und Apple sind für den hemmungslosen Einsatz von Softwarepatente berüchtigt...

Terrier 21. Jun 2013

Die eignen sich das nicht nur einfach an. Sie lassen sich auch dafür entlohnen, wenn man...

teenriot 21. Jun 2013

Ich ja auch nicht, einzig die Gefahr das so wichtige "Menschheits"-Protokolle...

monzta 21. Jun 2013

k thx

Kommentieren



Anzeige

  1. IT-Systembetreuer Sharepoint (m/w)
    SEW-EURODRIVE GmbH & Co KG, Bruchsal
  2. Sachbearbeiter/-in SharePoint (AIDA / Finanzmarktwächter)
    Verbraucherzentrale Bundesverband e.V., Berlin
  3. Software-Entwicklungsingenie- ur (m/w) WIN CE / Embedded Systems
    Jetter AG, Ludwigsburg
  4. Linux Junior Systemadministrator (m/w) OEDIV KG
    OEDIV KG, Bielefeld

 

Detailsuche


Spiele-Angebote
  1. NEU: Battlefield 4 Download
    11,97€
  2. TIPP: Call of Juarez Gunslinger + PCGH-Ausgabe 01/2015
    5,50€
  3. Batman: Arkham Knight Collector's Edition
    109,00€

 

Weitere Angebote


Folgen Sie uns
       


  1. BSI-Sicherheitsbericht

    Hacker beschädigen Hochofen in deutschem Stahlwerk

  2. Innenminister de Maizière

    Jeder kleine Webshop muss sicher sein

  3. Smartwatch

    Pebble unterstützt Android Wear

  4. Sony-Leaks

    MPAA lobbyiert weiter für DNS-Sperren

  5. South Park S18

    Eine sehenswerte Staffel voller IT-Kritik

  6. Wiredtiger

    MongoDB übernimmt schnellen, skalierbaren Datenspeicher

  7. Trinity Desktop R14

    KDE3-Fork integriert neue Software

  8. Automatische Filterfunktion

    Facebook macht dunkle Selfies hell

  9. IT-Sicherheitsgesetz

    Kabinett beschließt Meldepflicht für Cyberangriffe

  10. Jahresrückblick

    Was 2014 bei Golem.de los war



Haben wir etwas übersehen?

E-Mail an news@golem.de



O2 Car Connection im Test: Der Spion unterm Lenkrad
O2 Car Connection im Test
Der Spion unterm Lenkrad
  1. Urban Windshield Jaguar bringt Videospiel-Feeling ins Auto
  2. Tweak Carplay ohne passendes Auto verwenden
  3. Streckenerkennung Audi-Rennwagen fährt fahrerlos auf dem Hockenheimring

Rock n' Roll Racing (1993): Nachbrenner vom Schneesturm
Rock n' Roll Racing (1993)
Nachbrenner vom Schneesturm
  1. Ultima Underworld (1992) Der revolutionäre Dungeon Simulator
  2. Sid Meier's Colonization (1994) Auf Augenhöhe mit George Washington
  3. Star Wars X-Wing (1993) Flugsimulation mit R2D2 im Nacken

Zbox Pico im Test: Der Taschenrechner, der fast alles kann
Zbox Pico im Test
Der Taschenrechner, der fast alles kann

    •  / 
    Zum Artikel