Remy für TCP: Algorithmus gegen Datenstau

TCP, das Transmission Control Protocol, regelt den Datenverkehr im Internet. Damit es nicht zu einer Überlast der Netze kommt, müssen die einzelnen Systeme aber mitspielen und die gesendete Datenmenge der freien Kapazität anpassen. TCP nimmt Paketverluste durch Überlast ausdrücklich in Kauf, auf die dann die jeweiligen Systeme reagieren, indem sie weniger Daten senden. Dabei kommen unterschiedliche Algorithmen zur Überlaststeuerung zum Einsatz. Unter Windows ist es beispielsweise Compound TCP(öffnet im neuen Fenster) , unter Linux Cubic TCP(öffnet im neuen Fenster) .
Forscher am Massachusetts Institute of Technology (MIT) haben nun ein Computersystem namens Remy entwickelt(öffnet im neuen Fenster) , das Überlaststeuerungsalgorithmen für TCP automatisch auf Basis einer Vielzahl von Faktoren erstellt. So soll sich der Datendurchsatz in Computernetzen im Vergleich zu Systemen mit von Menschen geschriebenen Algorithmen deutlich erhöhen lassen. Die Forscher sprechen von einem Faktor 2 oder 3.
Konkret handelt es sich bei Remy um ein System, das auf maschinelles Lernen setzt, also Algorithmen auf Basis vieler Faktoren erzeugt und in vielen Variationen testet, um herauszufinden, welche Variante am besten funktioniert. Dabei kann das System auch Charakteristiken des jeweiligen Netzwerks berücksichtigen, beispielsweise den Fakt, dass die Bandbreite bestimmter Links fluktuiert. Remy erzeugt auch ein Traffic-Profil, das beispielsweise aufzeigt, wie groß die Zahl der Nutzer ist, die gerade statische Webseiten abrufen oder Applikationen mit hoher Bandbreite wie Videokonferenzen nutzen.
Letztendlich legt aber der Nutzer fest, welche Metriken bei der Bestimmung der Netzwerkleistung berücksichtigt werden sollen. Standard-Metriken, Datendurchsatz und Latenz können dabei auch gewichtet werden, um beispielsweise vorzugeben, dass die Erhöhung des Datendurchsatzes dreimal so wichtig ist wie die Reduktion von Latenzen.
Das von Professor Hari Balakrishnan und Keith Winstein entwickelte System muss zwar alle erzeugten Algorithmen unter verschiedenen Netzwerkbedingungen testen, geht dabei aber clever vor, um den Aufwand zu reduzieren: So konzentriert Remy seine Analysen auf Situationen, in denen kleine Variationen große Auswirkungen haben und nimmt sich weniger Zeit für Fälle, in denen das Netzwerkverhalten gut vorhersagbar ist. Dabei kann Remy den Traffic sehr fein anpassen.
Getestet haben die Forscher ihre Algorithmen mit dem Netzwerksimulator ns-2(öffnet im neuen Fenster) . Dabei konnte Remy den Datendurchsatz in einem simulierten High-Speed-Netz mit konstanten Übertragungsraten in etwa verdoppeln und die Latenz um rund zwei Drittel reduzieren. In einer Simulation von Veriozons Mobilfunknetzwerk hingegen waren die Vorteile deutlich kleiner. Der Datendurchsatz konnte hier aber immer noch um 20 bis 30 Prozent gesteigert und die Latenz um 25 bis 40 Prozent reduziert werden.
Warum die von Remy generierten Algorithmen so gut funktionieren, gilt es aber noch zu untersuchen.



