Google hat ethische Grundsätze für KI weitgehend aufgegeben

Schon vor wenigen Wochen wurde bekannt, dass Google wohl seine ethischen Grundsätze für die Entwicklung des Chatbots Bard aufgibt, der nun auch als Grundlage für die KI-Funktionen der Suche dient. In der wissenschaftlichen Beschreibung des zugrundeliegenden Modells Palm 2 warnt das Unternehmen sogar vor einem produktiven Einsatz, ohne zuvor Sicherheit und Fairness des Modells zu bedenken. Aber genau das ist bei Google wohl geschehen, denn schon zu den Trainingsdaten heißt es, dass diese verzerrt und voreingenommen seien.

Zu möglichen Filtern und Vorurteilen zieht sich Google in der öffentlichen Ankündigung nun darauf zurück, verantwortungsvoll zu handeln. Nutzer sollen einer intransparenten und voreingenommenen Technik Vertrauen schenken, die nicht, wie Papageien, nur stumpf Dinge nachplappert, sondern auch falsche Dinge halluziniert.

Links sollen Wahrheitswahrscheinlichkeit erhöhen

Als Schranke in der Google-Suche soll zwar auch die bisherige Auswahl der Suchergebnisse und des Suchalgorithmus herhalten – ähnlich, wie dies auch Microsoft umsetzt. Die KI-Texte werden von Links begleitet und die dahinterstehenden Informationen fließen in die Erklärungen ein. Doch schon in der ersten Testversion von Bard waren die eigenen Angestellten entsetzt von der grundsätzlich schlechten Qualität der Antworten, auch wegen der sachlichen Fehler. Ein aktualisiertes Sprachmodell kann daran nicht grundsätzlich etwas ändern, denn es bleibt ein stochastischer Papagei – Google-Nutzer müssen hoffen, dass die Links zumindest eine Art Wahrheitsrahmen bilden.

Immerhin versucht Google auf dem zugegeben schmalen Grat der ethischen Einordnung von KI-Anwendungen seinen Markenkern nicht zu sehr zu verwässern und will wirklich unverantwortliche KI-Technik nicht ohne Weiteres bereitstellen. Das war schon bei der Gesichtserkennung so und soll nun auch für Technik gelten, mit denen Deep Fakes erzeugt werden können, wie den lippensynchronen Universalübersetzer.

Der soll zunächst ein Experiment bleiben und nur für wenige Partner bereitstehen. In Lens sollen KI-Funktionen Hinweise auf möglicherweise manipulierte Bilder geben und von der Google-KI erzeugte Bilder sollen mit Metadaten bestückt werden, damit diese als solche erkannt werden. Aber ausgerechnet bei der KI-Integration in das wichtigste und bekannteste Google-Produkt – die Suche – übergeht Google offensichtlich ethische Probleme.

Werden Geschäftsfragen ignoriert?

Nicht nur ist es möglich, dass sich Google mit der überstürzten Veröffentlichung der KI-Suche seine eigene Nutzerschaft verschreckt, weil die Antworten auf Suchanfragen möglicherweise Unwahrheiten – oder besser gesagt Halluzinationen der Modelle – enthalten. Google ist, ob man das mag oder nicht, für viele Internetnutzer der Standard, wenn es um die Beschaffung von Informationen geht. Einem Google-Suchergebnis vertrauen die meisten ganz automatisch, und gerade an diesem Punkt kann eine halluzinierende KI Vertrauen unterwandern.

Auch sein eigenes Geschäft könnte Google damit unterlaufen: Denn bisher verdient Google sein Geld hauptsächlich mit Werbeanzeigen, auch in der Suche. Informationen dazu, wie die KI-Suche künftig einfach Werbeanzeigen verdrängen könnte oder wie diese dann genau dargestellt werden, sind derzeit nicht bekannt.

Nur so viel: Es soll weiterhin dedizierte Plätze in der Anzeige der Antworten auf Suchanfragen geben, die für Werbung reserviert sind. Außerdem versichert das Unternehmen, dass Werbung weiterhin eine wichtige Rolle spielen und Anzeigen mit der KI-Suche weiterentwickelt werden. Diese eher unkonkreten Ansagen dürfte das sowieso schon angespannte Verhältnis der von Google abhängigen Werbetreibenden wenig beruhigen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Google: KI first, Bedenken secondGoogles KI-Probleme mit SEO, Leistungsschutzrecht und sinnvoller Nutzung 
  1.  
  2. 1
  3. 2
  4. 3
  5.  


Aktuell auf der Startseite von Golem.de
Grace Hopper Superchip
Nvidia zeigt den DGX GH200 AI-Supercomputer

Computex 2023 Die Kombination aus Grace Hopper, Bluefield 3 und NVLink ergibt funktional eine riesige GPU mit der Rechenkapazität eines Supercomputers und 144 TByte Grafikspeicher.

Grace Hopper Superchip: Nvidia zeigt den DGX GH200 AI-Supercomputer
Artikel
  1. Cortex v9 & v5 GPU: Arm setzt für Mobile SOCs voll auf 64-Bit
    Cortex v9 & v5 GPU
    Arm setzt für Mobile SOCs voll auf 64-Bit

    Computex 2023 Handys sollten durch den Wegfall von 32-Bit schneller, sicherer und trotzdem deutlich sparsamer werden.

  2. Reiner Haseloff: Ministerpräsident fordert Nullrunde bei Rundfunkbeitrag
    Reiner Haseloff
    Ministerpräsident fordert Nullrunde bei Rundfunkbeitrag

    Zwei Jahre soll der Rundfunkbeitrag eingefroren werden, die Zukunftskommission derweil Reformideen vorlegen, schlägt Sachsen-Anhalts Ministerpräsident vor.

  3. System Shock Remake angespielt: Die Kult-KI Shodan kämpft frisch entfesselt
    System Shock Remake angespielt
    Die Kult-KI Shodan kämpft frisch entfesselt

    System Shock gilt als wegweisendes Shooter-Rollenspiel. Jetzt ist Golem.de im Remake wieder gegen die Super-KI Shodan angetreten (Windows-PC).
    Von Peter Steinlechner

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Microsoft Xbox Wireless Controller 40,70€ • Lexar Play 1 TB 99,60€ • DAMN!-Deals mit AMD-Bundle-Aktion • MindStar: AMD Ryzen 9 5950X 429€, MSI RTX 3060 Gaming Z Trio 12G 329€, GIGABYTE RTX 3060 Eagle OC 12G 299€, be quiet! Pure Base 500DX 89€ • Logitech bis -46% [Werbung]
    •  /