Zum Hauptinhalt Zur Navigation

Offene Arbeitsgruppe für Distributed Computing gegründet

New Productivity Initiative soll freie Rechnerkapazität nutzbar machen. Elf Hardware- und Software-Unternehmen, zu denen auch Compaq, Hewlett-Packard, Platform Computing und SGI zählen, haben die Gründung der New Productivity Initiative (NPI) bekannt gegeben. Das Ziel der offenen Arbeitsgruppe ist die Schaffung eines Distributed-Computing-Standards und zugehöriger Programmierschnittstellen, die eine Anwendungsgebiet-übergreifende Nutzung von freien Kapazitäten vernetzter Computer vom Desktop-PC bis zum Großrechner erlauben.
/ Christian Klaß
Kommentare News folgen (öffnet im neuen Fenster)

Mit Hilfe des Distributed Computing, auch verteiltes Rechnen genannt, sollen Teilnehmer, unabhängig davon, ob es sich um Privatpersonen, Unternehmen oder Organisationen handelt, eine gigantische und stets wachsende Rechenleistung für anspruchsvolle Aufgaben zur Verfügung gestellt bekommen. Im Gegenzug müssen sie jedoch auch ihre freie Rechenkapazität zur Verfügung stellen.

Die freie Rechenkapazität gibt es zur Genüge - wie man an ähnlichen, für spezielle Aufgaben programmierten Distributed-Computing-Projekten sieht. Das wohl bekannteste Beispiel ist Seti@Home - ein Projekt, an dem Tausende von heimischen und Büro-PCs Datenmaterial von Teleskopen nach Signalen von außerirdischen Lebensformen durchforsten. Andere Projekte befassen sich mit dem Knacken von Verschlüsselungsalgorithmen, dem Suchen von immer höheren Primzahlen und Ähnlichem.

Zwar gibt es schon einige Anbieter, die das enorme Potenzial des Distributed Computing stärker ausnutzen wollen, indem sie universell einsetzbare Clients entwickeln und teilweise Interessenten ein Anmieten von Kapazitäten ermöglichen, doch zögern viele Unternehmen offenbar aus Sicherheitsbedenken. Sie fürchten offenbar, dass jemand ihre Daten und Berechnungen für sich verwenden könnte.

Die Schaffung eines offenen Industriestandards könnte hier helfen, die Bedenken abzubauen, da jeder die Spezifikationen einsehen und eigene Vorschläge einbringen kann. Schwachstellen können so schneller entdeckt werden.

Der große Vorteil des Distributed Computing liegt unbestreitbar an der stetig wachsenden Anzahl von immer leistungsfähigeren Heim- und Büro-Rechnern: Ein schneller Athlon-, Pentium- oder PowerPC-Prozessor hat bei normaler oder gelegentlicher Benutzung genügend Rechen- und Speicherkapazität zur Verfügung, um einen Teil davon abzugeben.

Verbindet man Hunderte oder gar Tausende von solchen Rechnern zu einem Rechenverbund, so reicht die zur Verfügung stehende Kapazität aus, um selbst aufwendige wissenschaftliche Berechnungen abzuarbeiten. Steht diese dann auch noch zur freien Verfügung, da viele sich daran beteiligen, so können selbst kleine oder finanzschwache Nutzer teilhaben.

Und wer würde nicht gerne daran teilhaben, wenn z.B. ein Impfstoff auf dem eigenen Rechner berechnet und gar entdeckt werden würde?


Relevante Themen