Menschen müssen der KI viel helfen
Das gegenteilige Problem entsteht, wenn die Trainingsdaten so vielfältig sind, dass das Programm nur wenige oder uneindeutige Regelmäßigkeiten findet und deswegen in der Testphase schlechter darin ist, überhaupt zuverlässig Wasser zu erkennen. Dabei könnte Vielfalt heißen, dass die Bilder von zu vielen unterschiedlichen Kameras aufgenommen wurden, zu unterschiedliche Auflösungen haben oder aus aus geografisch zu unterschiedlichen Regionen stammen.
Den Forschern um Wieland ist die Qualität ihrer Daten also deswegen wichtig, weil sie dem Programm hilft, die überfluteten Flächen besser zu erkennen. Dadurch könnte die Einsatzleitung ihre Katastrophenhelfer zum Beispiel in besonders betroffene Gebiete schicken. Oder sie könnte ableiten, wo die Flut Rettungswege gelassen hat, so dass Einsatzkräfte sie zur Bergung nutzen könnten.
Die übrigen drei Systeme machen aus Laiensicht etwas sehr Ähnliches. So verwendet das zweite System ein weiteres U-Net, um auf Bildern vor und nach der Überflutung Straßen zu erkennen. Dazu verwendete Wieland ein Programm, das aus über 6.000 per Hand annotierten Bildern von Landschaften mit Straßen gelernt hat, wie eine Straße auf den unterschiedlichsten Satellitenbildern aussieht.
In der Fachsprache heißt das "supervised learning" , weil Menschen durch das Annotieren das Lernen betreut haben: Sie haben auf den Bildern im Trainingsdatensatz verzeichnet, was eine Straße ist und was nicht. Das hilft KI-Programmen, auch in schwierigen Fällen die richtigen Regelmäßigkeiten zu lernen: zum Beispiel bei überwachsenen, kleinen oder unbefestigten Straßen, die nicht so leicht vom Umland zu unterscheiden sind wie eine Autobahn.
Große KI-Systeme sind heute übrigens von unzähligen Stunden menschlicher Arbeit abhängig. Weiterhin annotieren Tausende Menschen Trainingsdaten oder werten Antworten von ChatGPT und Co. aus, um die Programme immer besser zu machen. Das ist ethisch problematisch, weil oft Menschen im globalen Süden diese zumeist schlecht bezahlte Arbeit verrichten, obwohl es vorerst unwahrscheinlich ist, dass sie überhaupt von der KI profitieren werden(öffnet im neuen Fenster) .
Objekte erkennen kann schwierig sein
Das dritte System, das Wieland beschreibt, erkennt Fahrzeuge und Gebäude. Hier geht es um Objekterkennung statt Segmentierung. Hier könnten je nach Region und Katastrophe die unterschiedlichsten Daten verfügbar sein: Bilder aus dem All, Aufnahmen von Drohnen oder aus Helikoptern.
Für dieses System setzen die Forscher auf unsupervised learning, einen Prozess, in dem das Modell selbst herausfindet, anhand welcher Merkmale es die Zielobjekte am besten erkennt. Ein Vorteil davon ist, dass Programme so bisweilen rein statistische Merkmale entdecken, auf die Menschen nicht gekommen wären und die uns teilweise nur schwer begreiflich sind.



