Weniger ist manchmal zuverlässiger
Mit der beschränkten Rechenleistung früherer Jahre hätte es dieses Problem nie gegeben. Die exponentiell wachsende Rechenleistung der Hardware ermöglichte erst den Luxus, solche unnötigen Programmteile auszuführen. Es war also keine schlechtere Qualitätskontrolle nötig, um diese Fehler herbeizuführen. Die Qualitätskontrolle musste sich um immer mehr Funktionen in der Software kümmern, womit Fehler leichter durchkamen. Inzwischen hat sich in der Programmierung eine gewisse Askese durchgesetzt und die Testverfahren wurden verbessert. Dazu gehören Verfahren wie die systemtheoretische Prozessanalyse (STPA).
In der Praxis lief das alles auf eine engere Integration der Softwareentwickler in den Rest der Entwicklung hinaus. Bis dahin wurde die Softwareentwicklung als alleinstehender Teil der Entwicklung betrachtet. Das ging so weit, dass Software nur als ein einziger Punkt in der Fehleranalyse auftauchte. Die Anforderungen an die Software wurden klarer formuliert und strukturiert. Damit wurden sie für die Softwareentwickler besser zugänglich und konnten auch besser getestet werden.
Inzwischen stehen wieder die Probleme der mechanischen Hardware im Mittelpunkt. Wegen der hohen Kosten waren Vereinfachungen in den konservativen Verfahren der Fehlerkontrolle dort notwendig. Diese Vereinfachungen führten ihrerseits wieder zu neuen Fehlern, wie zuletzt bei Orbital Sciences und SpaceX.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Ein Kommafehler und das Schicksal eines Titan-IV-Starts |
Du meinst natürlich "Handytastaturen"... :P Autokorrektur sorgt doch eher dafür, dass...
Linux ist genau so wenig zu 100% stabil. Gibt genug verwurstelte Bibliotheken die keiner...
Naja, zumindest werden Klicks auch von denen generiert, die wissen wollen wie Golem auf...
Das "garnichts" getestet wird ist ja nicht der Fall. Die Frage bleibt, was es bringt...