Offene Arbeitsgruppe für Distributed Computing gegründet

Die freie Rechenkapazität gibt es zur Genüge - wie man an ähnlichen, für spezielle Aufgaben programmierten Distributed-Computing-Projekten sieht. Das wohl bekannteste Beispiel ist Seti@Home - ein Projekt, an dem Tausende von heimischen und Büro-PCs Datenmaterial von Teleskopen nach Signalen von außerirdischen Lebensformen durchforsten. Andere Projekte befassen sich mit dem Knacken von Verschlüsselungsalgorithmen, dem Suchen von immer höheren Primzahlen und Ähnlichem.
Zwar gibt es schon einige Anbieter, die das enorme Potenzial des Distributed Computing stärker ausnutzen wollen, indem sie universell einsetzbare Clients entwickeln und teilweise Interessenten ein Anmieten von Kapazitäten ermöglichen, doch zögern viele Unternehmen offenbar aus Sicherheitsbedenken. Sie fürchten offenbar, dass jemand ihre Daten und Berechnungen für sich verwenden könnte.
Die Schaffung eines offenen Industriestandards könnte hier helfen, die Bedenken abzubauen, da jeder die Spezifikationen einsehen und eigene Vorschläge einbringen kann. Schwachstellen können so schneller entdeckt werden.
Der große Vorteil des Distributed Computing liegt unbestreitbar an der stetig wachsenden Anzahl von immer leistungsfähigeren Heim- und Büro-Rechnern: Ein schneller Athlon-, Pentium- oder PowerPC-Prozessor hat bei normaler oder gelegentlicher Benutzung genügend Rechen- und Speicherkapazität zur Verfügung, um einen Teil davon abzugeben.
Verbindet man Hunderte oder gar Tausende von solchen Rechnern zu einem Rechenverbund, so reicht die zur Verfügung stehende Kapazität aus, um selbst aufwendige wissenschaftliche Berechnungen abzuarbeiten. Steht diese dann auch noch zur freien Verfügung, da viele sich daran beteiligen, so können selbst kleine oder finanzschwache Nutzer teilhaben.
Und wer würde nicht gerne daran teilhaben, wenn z.B. ein Impfstoff auf dem eigenen Rechner berechnet und gar entdeckt werden würde?



