WOS3: Peer-to-Peer-Technik zur Rettung des Usenet?
Mittels Peer-to-Peer-Technik, bei der Daten dezentral, da auf verschiedenen, evtl. geographisch weit voneinander entfernten Rechnern gespeichert werden, könnten etwa Museen und Online-Bibliotheken hochauflösende Scans alter Dokumente archivieren und anderen zur Verfügung stellen, ohne viel Geld für Speicherplatz und Traffic ausgeben zu müssen. Als aktuelles Beispiel nannte Anderson das geplante freie Filmarchiv der BBC, die große Teile ihrer Inhalte online zur Verfügung stellen will – mittels herkömmlicher Online-Distribution würden hier bei steigender Anzahl zum Download angebotener Videos die Kosten nicht mehr tragbar sein.
Auch im Bereich der Computersicherheit, insbesondere in Bezug auf Verfügbarkeit oder verteilte Backup-Systeme, können entsprechende Technologien gute Dienste leisten. Darüber hinaus könnte ein verteiltes Nachrichten-Verbreitungssystem unabhängigen Medien und Berichterstattern helfen, ihre Berichte, Audio- und Videostreams zu verbreiten, ohne an den Kosten für die Distribution zu scheitern.
Als konkretes Beispiel, bei dem Peer-to-Peer-Systeme großen Nutzen stiften können, nennt Anderson das zunehmend durch Spam und Binaries belastete Usenet. Der gesamte Usenet-Feed sei auf Grund für die Provider zu hohen Datentransfer-Kosten an nur noch 50 Stellen komplett verfügbar. Kein Wunder: Pro Sekunde würden rund 12 Megabyte und somit pro Woche rund 10 Terabyte Daten übertragen, was den Datenabgleich zwischen den Usenet-Anbietern und lesenden wie schreibenden Usenet-Nutzern beinhaltet. Einfach alle Binaries zu entfernen, wäre auf Grund der hohen Nachfrage nicht sinnvoll, auch reine Header-Feeds hätten nur die Belastung gesteigert und den Zugriff auf Usenet-Beiträge erschwert.
Ein bereits seit zwei bis drei Jahren gemeinsam mit dem MIT entwickeltes, auf Distributed Hash Tables (DHT) basierendes Peer-to-Peer-System soll nun für Usenet adaptiert werden und ab Ende 2004/Anfang 2005 als UsenetDHT in die Beta-Phase eintreten. Usenet-Beiträge werden dabei in einmal über alle teilnehmenden Provider verteilt gespeichert, es werde demnach nur noch eine einzelne Kopie des Usenet benötigt. Anderson zufolge wird das Usenet in der Praxis mit UsenetDHT komplett abgebildet dann vermutlich auf drei bis vier Servern liegen, ansonsten aber verteilt über viele Systeme gespeichert – dabei können die Server-Betreiber weiterhin selbst festlegen, welche Usenet-Groups sie abonnieren. Wenn ein Nutzer dann einen neuen Beitrag ins Peer-to-Peer-Usenet stellt, wird der Beitrag vom lokalen UsenetDHT-Server ins DHT geschrieben. Die Server tauschen untereinander nur die Header-Informationen aus.
Je mehr Provider teilnehmen, umso besser soll das skalierende System funktionieren. In einer Beispielrechnung führte Anderson ein UsenetDHT-Netz von 300 Providern an, das im Vergleich zum herkömmlichen Usenet-Datenabgleich die übertragene Datenmenge von 12 MByte/s bzw. 10 TByte/Woche auf nur noch 120 KByte/s respektive 60 GByte/Woche senken könnte, wenn etwa jeder der Server 1 Prozent aller Artikel abruft.
DHT soll sich auch für andere Peer-to-Peer-Anwendungen gut einsetzen lassen, da es von Programmierern wie ein einzelner geteilter Netzwerkspeicher angesprochen werden kann, der zudem gut über eine große Zahl von Servern skaliert und robust gegenüber (Speicher-)Fehlern sein soll. Auch anonyme und zensurunanfällige Netze sollen sich so aufbauen lassen, allerdings ginge dieses auch bei anderen Systemen immer damit einher, dass die Zeit für das Finden und Übertragen von Daten enorm anwachse, während etwa Datenarchivierungs- und Backup-Systeme schneller reagieren müssten.
Andersons Ansatz einer möglichen Lösung für bekannte Filsharing- und Peer-to-Peer-Probleme richtet sich zunächst an die Anreiz-Mechnismen von Peer-to-Peer-Systemen. Während aktuelle Filesharing-Systeme wie Freenet und Freehaven (beide auf DHT-Basis) beliebige Daten auf den Rechnern der Nutzer speichern und somit gleichberechtigt zu den Inhalten des Nutzers behandeln sowie Filesharing-Systeme wie Kazaa, eDonkey und Gnutella Daten auch aus völlig wiedersprechenden Interessensgebieten enthalten – Schulband-Musikmitschnitte neben Pornos – soll sich dies in künftigen Systemen ändern. Inhalte sollen dann laut Anderson kategorisiert getauscht werden und Anreizsysteme dafür sorgen, dass sich Teilnehmer in gleichgesinnten Gruppen zusammenfinden, da sie in diesen eher erhalten, was sie suchen. Ähnlich wie im Usenet schon heute könnten dann Fanclubs entstehen, die Inhalte untereinander austauschen, anstatt großer Netze, in denen die unterschiedlichsten Inhalte getauscht werden.
Diese so entstehenden Fanclubs hätten dann die Chance, sich beispielsweise mit den jeweiligen Künstlern über eine Kompensation zu einigen, statt sich etwa mit Vertretern der Musikindustrie auseinander zu setzen. Je mehr Ressourcen Nutzer dabei für eine Verteidigung des Netze gegen Attacken von außen bereitstellen, wie auch immer diese Attacken aussehen, je besser werden sie durch das Netz in Bezug auf ihre eigenen Präferenzen bedient. Dabei greife der von Anderson und Andrei Serjantov entwickelte Ansatz zur Nutzung der "Social Choice Theorie", so dass es möglich ist, auf ausgereifte Anreizsysteme zurückzugreifen. Die Nutzer erhalten dann laut Anderson mehr Kontrolle über das was sie tauschen.
Ein entsprechendes System wäre heutigen Peer-to-Peer-Systemen darüber hinaus in einem wesentlichen Punkt überlegen: Während die aktuellen Filsharing-Systeme recht gut darin sind, aktuelle und populäre Musik zu verteilen, sind sie als Archiv für alte oder aus der Mode gekommene Musik kaum zu gebrauchen, da nur Daten mit hohem Verbreitungsgrad leicht gefunden und schnell bezogen werden können.
- Anzeige Hier geht es zur AVM Fritzbox 7590 AX bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



