Viele Fehlschläge bei Mission-Critical-Software
Insgesamt verursache mangelnde Software-Qualität bis zu 45 Prozent Nicht-Verfügbarkeit von Systemen, was sich auf einen gesamtwirtschaftlichen Schaden von 85 Millionen Euro in Deutschland hochaddiert. Die Beseitigung dieser Pannen wiederum verschlingt etwa ein Drittel der gesamten IT-Budgets in Unternehmen.
"Obwohl Unternehmen in Deutschland 2002 rund 252 Millionen Euro, das entspricht einem Wachstum von 20 Prozent gegenüber 2001, für Lösungen in Testanwendungen und das Software-Qualitätsmanagement investieren werden, fehlt es an geeigneten Strategien, um eine unternehmensweit durchgängig hohe Qualität der Software zu gewährleisten" , fasste Karsten Ludolph, Managing Director Mercury Interactive Central Europe, die Erfahrungswerte zusammen.
Im Rahmen der Auswertung der 2.000 Projekte hat Mercury Interactive die häufigsten Probleme in Bezug auf die Qualität der Software und IT-Infrastruktur in Großunternehmen identifiziert. Demnach erreichen durchschnittliche Applikationen und Systeme beim ersten Einsatz nur 15 Prozent ihrer ursprünglich vorgesehenen Kapazität und erschreckende 98 Prozent aller Web-Applikationen, die angeblich startbereit sind, haben kritische Stabilitäts- und oder Performance-Probleme. In 70 Prozent aller Fälle ist die Hardware zu mindestens 50 Prozent überproportioniert worden; 60 Prozent aller Fehler sind bei Applikationen wie Datenbanken, Applikations- und Webserver zu finden. Die übrigen 40 Prozent der Fehler treten in der Infrastruktur wie Netzwerk und Sicherheitskomponenten auf.
"Die IT erweist sich zunehmend als Motor der Unternehmen, daher steigt die Investitionsbereitschaft nach wie vor. Doch die zunehmende Komplexität wirkt sich ohne Strategien für das Qualitätsmanagement negativ auf Effizienz und Effektivität aus" , fügte Karsten Ludolph hinzu.



