P2P'08: Die Ökonomie in P2P-Netzwerken

Warum Peer-to-Peer kein Allheilmittel sein wird

Am zweiten Tag der internationalen Peer-to-Peer-Konferenz in Aachen stand die Ökonomie von P2P-Netzwerken im Zentrum der Aufmerksamkeit. Ressourcennutzung und Kooperationsprobleme beschäftigten die Forscher. Dabei wird eines klar: Ein Allheilmittel ist die Peer-to-Peer-Technik nicht.

Artikel veröffentlicht am ,

Auch im P2P-Zeitalter stehen nicht unbegrenzt Ressourcen zur Verfügung und nicht alle P2P-Clients sind gutwillig und kooperativ. Auf diese beiden Nenner lassen sich die wichtigsten aktuellen Probleme beim Design und in der Implementierung von Peer-to-Peer-Netzwerken bringen. Die Entwickler haben es also mit klassischen ökonomischen Fragestellungen zu tun, machte der Keynote-Speaker des zweiten Konferenztages, Henning Schulzrinne von der Columbia University, den Zuhörern im Eröffnungsvortrag klar. Seine wichtigste Schlussfolgerung präsentierte er dann auch gleich zu Anfang seines Vortrages: Die Ingenieure müssen sich bei ihren Designentscheidungen von ökonomischen Überlegungen leiten lassen. Der Verbrauch von Ressourcen wie Bandbreite und Energie muss ebenso berücksichtigt werden wie die vergleichsweise fest gegossene Internetarchitektur oder nationale Spezifika des Internetzugangs.

Schulzrinne machte in seinem Vortrag "Engineering Peer-to-Peer Systems" an verschiedenen Beispielen deutlich, wie sich die Bedingungen in der realen Welt auf das Systemdesign auswirken müssen. Ein großes Handicap stelle beispielsweise das fehlende "Bewusstsein für Lokalität" dar, das die allermeisten P2P-Systeme auszeichne. Dabei handelt es sich keineswegs um ein akademisches Problem. So werden etwa in Japan und Südkorea zunehmend mobile Endgeräte für den Internetzugang benutzt, während PCs immer mehr eine Außenseiterrolle einnehmen. Mobiltelefone eignen sich aber aufgrund ihrer begrenzten Leistung (Speicher, Rechenleistung, Bandbreite) kaum als P2P-Clients für die existierenden Protokolle.

P2P als Kostenfalle

In manchen Ländern gibt es außerdem keine echten Datenflatrates. Eine Konsequenz daraus ist, dass Internetnutzer, die über P2P-Clients Bandbreite zur Verfügung stellen, mit stark steigenden Kosten oder durch die Provider erzwungenen Bandbreiteneinschränkungen rechnen müssen, sobald ihr monatliches Datenvolumen einen vom Provider gesetzten Schwellenwert überschreitet. P2P-Clients, die das nicht berücksichtigen, stellen ein erhebliches Kostenrisiko für die Anwender dar und dürften auf ernste Akzeptanzprobleme treffen. Intelligente Routingverfahren müssten solche Einschränkungen berücksichtigen. Ganz abgesehen davon, ist es in Anbetracht der Gigabyte-Kosten immer noch billiger, hochauflösende DVDs per Post zu verschicken als über das Internet.

Die Provider ihrerseits sehen sich zu solchen Maßnahmen gegen ihre Kunden gezwungen, um ihre eigenen Kosten unter Kontrolle zu halten. Nur die wenigsten Provider verfügen ja über eigene Leitungskapazitäten; die meisten Provider kaufen Kapazitäten bei den Backbone-Betreibern oder Zwischenhändlern ein. Hinzu kommt, dass zu hohe Kosten für Leitungskapazitäten bei Tier-2-Providern zu Lasten der Investitionen in die Infrastruktur gehen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
P2P'08: Die Ökonomie in P2P-Netzwerken 
  1. 1
  2. 2
  3. 3
  4.  


Aktuell auf der Startseite von Golem.de
Sparmaßnahmen
"Komplettes Chaos" nach Entlassungen bei Oracle

Auch Oracle hat einen massiven Stellenabbau begonnen. Das Unternehmen will eine Milliarde US-Dollar an Kosten einsparen.

Sparmaßnahmen: Komplettes Chaos nach Entlassungen bei Oracle
Artikel
  1. Klimawandel: SSDs sind klimaschädlicher als mechanische Festplatten
    Klimawandel
    SSDs sind klimaschädlicher als mechanische Festplatten

    Während ihrer Lebensdauer verursacht eine SSD fast doppelt so hohe CO2-Emissionen wie eine mechanische HDD.

  2. Micron GDDRX6: Der Speicher für die Geforce RTX 4090 ist schon da
    Micron GDDRX6
    Der Speicher für die Geforce RTX 4090 ist schon da

    Mit 24 GBit/s für über ein TByte/s an Transferrate: Der GDDRX6-Videospeicher von Micron dürfte bei Nvidias Ada-Generation verwendet werden.

  3. Microsoft Loop: Riesenkonzept mit Riesenchance auf Riesenchaos
    Microsoft Loop
    Riesenkonzept mit Riesenchance auf Riesenchaos

    Sehr unauffällig rollt Microsoft seine neue Technik Loop für die Onlinezusammenarbeit aus. Admins sollten sie jetzt schon auf dem Schirm haben, denn sie ist vielversprechend, erfordert aber viel Eindenken. Wir erklären sie im Detail.
    Von Mathias Küfner

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • MindStar (Gainward RTX 3070 559€, ASRock RX 6800 639€) • WD Black 2TB m. Kühlkörper (PS5) 219,90€ • Gigabyte Deals • Alternate (DeepCool Wakü 114,90€) • Apple Week bei Media Markt • be quiet! Deals • SSV bei Saturn (u. a. WD_BLACK SN850 1TB 119€) • Gamesplant Summer Sale [Werbung]
    •  /