Aus für Deep-Packet-Inspection
Die Standardisierung von Quic durch die IETF ist allerdings bei den Beteiligten teilweiser umstritten. Zum einen, weil die Task Force zwischenzeitlich in mühevoller Abstimmungsarbeit den neuen Standard HTTP/2 fertiggestellt hat. Er basiert im wesentlichen auf dem ebenfalls von Google vorgeschlagenen SPDY-Protokoll. Zwar bietet HTTP/2 wie Quic die Möglichkeit, per Multiplexing mehrere Anfragen zusammenzufassen, doch setzt auch die zweite Version des World-Wide-Web-Protokolls auf TCP, weshalb sich Latenzen bei der Fehlerkorrektur auf alle Streams gemeinsam auswirken, auch wenn Google versucht, das mit dem Rack-Algorithmus einzuschränken.
Vielmehr stören sich etliche Netzwerkbetreiber an Quic wegen seiner sehr tiefgreifenden Verschlüsselung der Datenpakete und der Authentifizierung der Headerdaten. In ihnen befinden sich jede Menge Meta-Informationen, die den Weg der Datagramme durch das Netz steuern. Sowohl durchgehende Ende-zu-Ende-Verschlüsselung als auch die Authentifizierung hat Google bislang in Quic standardmäßig vorgesehen, auch die IETF wird wohl daran festhalten. Dies sei im Interesse der Datensicherheit und des Datenschutzes nötig.
Quic-Dilemma für Betreiber
Dadurch aber können die Header während des Transportes durch das Netz nicht mehr verändert werden. Authentifizierte Header, die verändert wurden, lehnen die Empfänger nämlich ab. "Und das bringt einen Konfliktpunkt hervor, weil die Betreiber bislang Verkehrsmanagement gerne so gemacht haben, dass sie auf die Headerdaten zugegriffen haben", beschreibt der Netzwerkspezialist Eggert das Dilemma.
Aus den Headerdaten wurden bislang Informationen zur Netzsteuerung gewonnen, teilweise wurden sie auch zur Optimierung des Verkehrsflusses verändert. Das ist mit Quic gar nicht mehr möglich. Nicht nur weil die Authentifizierung das verbietet, sondern auch, weil ein Großteil der Headerdaten genauso wie die Nutzdaten selbst verschlüsselt ist.
Auch zusätzliche Datenkomprimierung oder Deep-Packet-Inspection, also die Untersuchung der Datenpakete etwa zur Feststellung des Medientyps, sind mit Quic nicht mehr umsetzbar. Besonders Mobilfunkbetreiber, die ihre ständig knappen Netzwerkressourcen durch geschicktes Management zu steuern versuchen, tun sich mit einer Standardisierung durch die IETF schwer. Heftige Diskussionen werden für die kommenden Quic-Sessions erwartet, bevor irgendwann der traditionelle Konsens für das Protokoll gefunden werden kann und ein RFC daraus wird, also ein Internet-Standard.
Schon die letzte Quic-Session auf dem 96. IETF-Meeting in Berlin war komplett überfüllt, was das große Interesse der Netz-Community an dieser Diskussion zeigt. Eggert ist zuversichtlich, dass sich die Netzwerkbetreiber mit dieser Situation abfinden und neue Möglichkeiten der Netzwerkoptimierung auftun werden. "Es gibt ja zudem noch immer die Möglichkeit, dass man mehr in Kapazität investiert statt in Equipment, um Kapazitätsengpässe zu managen."
Manfred Kloiber arbeitet als freier Wissenschaftsjournalist in Köln. Sein Einstieg in die IT-Welt begann in der 1980er-Jahren als Film-Autor und Realisator beim legendären WDR-Computerclub. Nachdem die Sendung im WDR-Programm auslief, produzierte er über Jahre hinweg zusammen mit Wolfgang Back und Wolfgang Rudolph den Computerclub2. Seit über 20 Jahren ist er Redakteur am Mikrofon der wöchentlichen Deutschlandfunk-Sendung Computer und Kommunikation. Darüber hinaus berichtet er regelmäßig für Deutschlandradio und die ARD über IT-Themen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Alles in einem Aufwasch |
Als selbst gemachte Not sehe ich das Thema Sicherheit nun wirklich nicht. Wir haben 600...
Das ist soweit richtig und dagegen sage ich auch nichts. Generell sind...
Bitte noch mal den Artikel lesen. Hier geht es um eine Standardisierung.
Hast du zufällig die Stelle mit Time is Money überlesen?