Viele Fehlschläge bei Mission-Critical-Software
Mangelhafte Software-Qualität in Unternehmen
Mercury Interactive, ein amerikanischer Anbieter für Testing-, Tuning- und Performance-Management-Lösungen, hat eine auf eigenen Erfahrungswerten bei 2000 Softwareprojekten basierende Untersuchung über die Software-Qualität in deutschen Großunternehmen durchgeführt. Alarmierend hoch ist dabei der Prozentsatz fehlgeschlagener Mission-Critical-Applikationen: 75 Prozent der für unternehmensweite Geschäftsprozesse extrem wichtigen Anwendungen funktionieren bereits vor dem Produktivstart nicht, bei 84 Prozent der in Betrieb gegangenen Applikationen werden die geplanten Funktionen und/oder Performance nicht erreicht.
Insgesamt verursache mangelnde Software-Qualität bis zu 45 Prozent Nicht-Verfügbarkeit von Systemen, was sich auf einen gesamtwirtschaftlichen Schaden von 85 Millionen Euro in Deutschland hochaddiert. Die Beseitigung dieser Pannen wiederum verschlingt etwa ein Drittel der gesamten IT-Budgets in Unternehmen.
"Obwohl Unternehmen in Deutschland 2002 rund 252 Millionen Euro, das entspricht einem Wachstum von 20 Prozent gegenüber 2001, für Lösungen in Testanwendungen und das Software-Qualitätsmanagement investieren werden, fehlt es an geeigneten Strategien, um eine unternehmensweit durchgängig hohe Qualität der Software zu gewährleisten", fasste Karsten Ludolph, Managing Director Mercury Interactive Central Europe, die Erfahrungswerte zusammen.
Im Rahmen der Auswertung der 2.000 Projekte hat Mercury Interactive die häufigsten Probleme in Bezug auf die Qualität der Software und IT-Infrastruktur in Großunternehmen identifiziert. Demnach erreichen durchschnittliche Applikationen und Systeme beim ersten Einsatz nur 15 Prozent ihrer ursprünglich vorgesehenen Kapazität und erschreckende 98 Prozent aller Web-Applikationen, die angeblich startbereit sind, haben kritische Stabilitäts- und oder Performance-Probleme. In 70 Prozent aller Fälle ist die Hardware zu mindestens 50 Prozent überproportioniert worden; 60 Prozent aller Fehler sind bei Applikationen wie Datenbanken, Applikations- und Webserver zu finden. Die übrigen 40 Prozent der Fehler treten in der Infrastruktur wie Netzwerk und Sicherheitskomponenten auf.
"Die IT erweist sich zunehmend als Motor der Unternehmen, daher steigt die Investitionsbereitschaft nach wie vor. Doch die zunehmende Komplexität wirkt sich ohne Strategien für das Qualitätsmanagement negativ auf Effizienz und Effektivität aus", fügte Karsten Ludolph hinzu.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed