Automation macht uns faul

Im Jahr 2008 fuhr in Seattle der Fahrer eines dreieinhalb Meter hohen Busses, in dem die Sportmannschaft einer Highschool saß, in eine Betonbrücke mit 2,70 Metern Durchfahrtshöhe. Das Dach des Busses wurde abgerissen, und 21 Schüler mussten mit Verletzungen ins Krankenhaus gebracht werden. Der Fahrer sagte bei der Polizei aus, er sei GPS-Anweisungen gefolgt und habe die Schilder und Warnlichter vor der niedrigen Brücke "nicht gesehen". Besonders gefährlich ist der Automation Bias für Menschen, die Analysen oder Diagnosen mit Software-Tools zur Entscheidungsunterstützung durchführen. Seit den späten 1990er-Jahren setzen Radiologen computergestützte Bildauswertungsprogramme ein, die verdächtige Bereiche in Mammographien oder anderen Röntgenaufnahmen hervorheben. Ein Bild wird eingescannt und von einer Mustererkennungssoftware überprüft, und die Regionen, die der Arzt näher untersuchen sollte, werden markiert. In manchen Fällen helfen diese Markierungen bei der Diagnose von Krankheiten, weil sie den Radiologen auf mögliche Tumore hinweisen, die er sonst womöglich übersehen hätte.

Doch verschiedene Studien ergaben, dass diese Markierungen auch den gegenteiligen Effekt haben können. Wenn sich ein Arzt zu sehr auf die Vorschläge der Software verlässt, widmet er möglicherweise den nicht hervorgehobenen Regionen eines Bildes weniger Aufmerksamkeit und übersieht womöglich einen Tumor im frühen Stadium oder eine andere Auffälligkeit. Die Markierungen erhöhen außerdem die Wahrscheinlichkeit einer falsch-positiven Diagnose, wenn ein Radiologe nachträglich eine unnötige Biopsie an einem Patienten durchführen lässt.

Eine aktuelle Review von Mammographiedaten eines Forscherteams von der City University London zeigte, dass Radiologen und andere Bildauswerter stärker von Automation Bias beeinflusst werden, als bisher angenommen. Die Forscher fanden heraus, dass computergestützte Bildauswertungsprogramme zwar die Trefferquote von "weniger aufmerksamen Auswerfern" bei "vergleichsweise einfachen Fällen" erhöhten, dass sie jedoch die Leistung erfahrener Auswerter bei der Diagnose komplizierter Fälle zum Teil verschlechterten.

Wenn die Experten sich auf die Software verlassen, steigt die Wahrscheinlichkeit, dass sie bestimmte Krebsarten übersehen. Die verzerrte Wahrnehmung beim Einsatz computergestützter Entscheidungshilfen könnte sogar "fester Bestandteil der menschlichen kognitiven Vorgänge bei der Verarbeitung von Signalen und Alarmzeichen" sein. Die Hilfen steuern unseren Blick und verzerren so unsere Wahrnehmung.

Sowohl Complacency als auch Bias haben mit den Grenzen unserer Aufmerksamkeit zu tun. Der Hang zur Complacency zeigt, wie schnell Konzentration und Aufmerksamkeit abnehmen, wenn man nicht ständig mit seiner Umgebung interagieren muss. Die Neigung zum Bias bei der Auswertung und Bewertung von Informationen zeigt, dass wir uns immer nur auf bestimmte Punkte konzentrieren können und dass unser Fokus durch unangebrachtes Vertrauen oder scheinbar hilfreiche Markierungen fehlgeleitet werden kann.

Sowohl Complacency als auch Bias nehmen mit zunehmender Qualität und Zuverlässigkeit eines automatischen Systems zu. Experimente haben gezeigt, dass die Benutzer hoch aufmerksam bleiben, wenn ein System häufig Fehler macht. Der Nutzer bleibt aufmerksam für seine Umgebung und zieht sorgfältig mehrere Informationsquellen in Betracht. Doch wenn ein System sehr zuverlässig arbeitet und nur selten abstürzt oder Fehler macht, werden wir faul. Wir vertrauen zunehmend in die Unfehlbarkeit des Systems.

Da automatische Systeme in der Regel gut funktionieren, auch wenn wir unaufmerksam werden oder unsere Objektivität verlieren, haben Complacency und Bias nur selten böse Folgen. So verstärken sich die Probleme noch, wie Parasuraman in einem Artikel aus dem Jahr 2010 erörterte, den er mit seinem deutschen Kollegen Dietrich Manzey verfasste. "Angesichts der üblicherweise sehr guten Zuverlässigkeit automatischer Systeme hat selbst ein stark von Complacency und Bias beeinflusstes Verhalten bei der Bedienung der Systeme nur selten offensichtliche Auswirkungen auf die Leistung", schrieben die Forscher. Das fehlende negative Feedback führe mit der Zeit zu "einem kognitiven Prozess ähnlich der sogenannten 'gelernten Sorglosigkeit'".

Ein Beispiel: Wenn man übermüdet Auto fährt, dabei einnickt und von der Fahrbahn abkommt, fährt man meist auf einen holprigen Randstreifen, einen Rüttelstreifen, oder man erntet ein Hupkonzert der anderen Autofahrer. Diese Signale wecken den Fahrer auf. Wenn man aber nun mit einem Auto fährt, das automatisch in der Spur bleibt, weil es die Fahrbahnmarkierung beachtet und die Lenkung anpasst, erhält man keine solche Warnung. Man wird daher einschlafen. Wenn dann etwas Unvorhergesehenes geschieht - wenn etwa ein Tier über die Straße läuft oder ein vorausfahrender Wagen plötzlich bremst -, ist die Wahrscheinlichkeit eines Unfalls deutlich erhöht. Die Automatisierung verhindert negatives Feedback und erschwert das Wach- und Aufmerksam-Bleiben. Wir schalten immer mehr ab.

Der Text ist ein Auszug aus: "Abgehängt - Wo bleibt der Mensch, wenn Computer entscheiden?" von Nicholas Carr. Carl Hanser Verlag München, 2014. 19,99 Euro.

Nicholas Carr war unter anderem Herausgeber der Harvard Business Review und Kolumnist für den Guardian. Er schreibt für das New York Times Magazine und das Wall Street Journal. Sein Buch "Wer bin ich, wenn ich online bin" wurde in 23 Sprachen übersetzt und war Finalist für den Pulitzerpreis. Nicholas Carr lebt in Boulder, Colorado.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Nicholas Carr: Automatisierung macht uns das Leben schwer
  1.  
  2. 1
  3. 2


michael.maie 04. Okt 2014

Wenn ein Assistenzsystem merkt dass der Fahrer droht ungewollt die Fahrspur zu verlassen...

derw4tz 30. Sep 2014

Nein, weil man dann im vergleich zu den 5 Beispielen für die man zT fast 20 jahre in die...

__destruct() 30. Sep 2014

Und viele Existenzen vernichten.

TrashFan 30. Sep 2014

Jop. Fahrt mal nach Hagen ins LWL Freilichtmuseum und unterhalt dich mit'm Schmied da...



Aktuell auf der Startseite von Golem.de
Grace Hopper Superchip
Nvidia zeigt den DGX GH200 AI-Supercomputer

Computex 2023 Die Kombination aus Grace Hopper, Bluefield 3 und NVLink ergibt funktional eine riesige GPU mit der Rechenkapazität eines Supercomputers und 144 TByte Grafikspeicher.

Grace Hopper Superchip: Nvidia zeigt den DGX GH200 AI-Supercomputer
Artikel
  1. Cortex v9 & v5 GPU: Arm setzt für Mobile SOCs voll auf 64-Bit
    Cortex v9 & v5 GPU
    Arm setzt für Mobile SOCs voll auf 64-Bit

    Computex 2023 Handys sollten durch den Wegfall von 32-Bit schneller, sicherer und trotzdem deutlich sparsamer werden.

  2. Reiner Haseloff: Ministerpräsident fordert Nullrunde bei Rundfunkbeitrag
    Reiner Haseloff
    Ministerpräsident fordert Nullrunde bei Rundfunkbeitrag

    Zwei Jahre soll der Rundfunkbeitrag eingefroren werden, die Zukunftskommission derweil Reformideen vorlegen, schlägt Sachsen-Anhalts Ministerpräsident vor.

  3. System Shock Remake angespielt: Die Kult-KI Shodan kämpft frisch entfesselt
    System Shock Remake angespielt
    Die Kult-KI Shodan kämpft frisch entfesselt

    System Shock gilt als wegweisendes Shooter-Rollenspiel. Jetzt ist Golem.de im Remake wieder gegen die Super-KI Shodan angetreten (Windows-PC).
    Von Peter Steinlechner

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Microsoft Xbox Wireless Controller 40,70€ • Lexar Play 1 TB 99,60€ • DAMN!-Deals mit AMD-Bundle-Aktion • MindStar: AMD Ryzen 9 5950X 429€, MSI RTX 3060 Gaming Z Trio 12G 329€, GIGABYTE RTX 3060 Eagle OC 12G 299€, be quiet! Pure Base 500DX 89€ • Logitech bis -46% [Werbung]
    •  /