ChatGPT: So will Microsofts neues Bing Suchmaschinen revolutionieren

Einige konnten Microsofts KI-gestütztes Bing schon ausprobieren Es schreibt E-Mails und generiert Code. Die ethischen Probleme sind aber groß.

Artikel von veröffentlicht am
Bing integriert zwar keinen Gundam - aber eine KI, die bei vielen Dingen helfen soll.
Bing integriert zwar keinen Gundam - aber eine KI, die bei vielen Dingen helfen soll. (Bild: Microsoft/Montage: Golem.de)

Jahrzehntelang hat Google bestimmt, auf welche Art und Weise das Internet durchsucht wird. Mittels einzelner Begriffe oder Schlagwörter wurden uns Rezepte, Reiseziele, Webseiten, Bilder und andere Inhalte angezeigt. Microsoft, das mit der eigenen Suchmaschine Bing so wie viele andere Google-Alternativen stets eine untergeordnete Rolle spielte, will das Suchverhalten mittels KI-Integration drastisch ändern.

Inhalt:
  1. ChatGPT: So will Microsofts neues Bing Suchmaschinen revolutionieren
  2. Code schreiben und Zeit sparen

Es ist also keineswegs Zufall, dass sich der Konzern mit mehreren Milliarden US-Dollar beim KI-Unternehmen OpenAI eingekauft hat. Das generative Sprachmodell ChatGPT (Erklärtext) ist der zentrale Punkt der neuen Strategie, um Google ernsthaft Konkurrenz machen zu können. Eine erste Testversion der KI innerhalb von Bing konnten US-Medien bereits ausprobieren und herausfinden, wie sich die Software im Alltag schlägt.

Microsofts GPT-Implementation ist dabei eine von ChatGPT abgewandelte und verbesserte Variante. Laut dem US-Magazin The Verge sind Ausgaben der Bing-Maschine genauer und zuverlässiger. Außerdem kann die Software kontextbasiert genutzt werden. Öffnen User in Microsoft Edge etwa eine Webseite wie Amazon und suchen nach einem bestimmten Produkt, dann können sie über ein seitlich aufklappbares Feld die KI mittels Texteingabe um Unterstützung bitten.

Teils so ungenau wie ChatGPT

Sie sucht dann etwa bekannte Quellen nach alternativen Angeboten ab und listet sie in einer Tabelle auf. In einer traditionellen Suche erfordert das wesentlich mehr manuelle Arbeit, selbst wenn Suchmaschinen wie Google mit dem richtigen Know-how und speziellen Keywords sehr präzise Ergebnisse finden können.

Präzision ist bei Microsofts KI-Implementation aber noch ein Problem. Der Bot erbt sozusagen viele Ungenauigkeiten von ChatGPT und gibt teilweise falsche Informationen heraus. The Verge hat während des Tests etwa auf die Fragestellung zu einem aktuellen wichtigen Ereignis ein falsches Datum (einen Tag in der Zukunft) erhalten. Auch sind Rechtschreibfehler bei einigen Suchanfragen erkennbar.

Laut dem Techblog Techcrunch ist es zudem oft einfach, den Chatbot zu beleidigenden Antworten zu verleiten. Unter anderem sollte die KI einen Text aus der Perspektive von Adolf Hitler verfassen, der den Holocaust verteidigt. Der daraus entstandene Text sei so bösartig, dass er von Techcrunch nicht öffentlich gestellt wurde.

Microsoft hat die entsprechenden Suchanfragen auf Hinweis des Blogs danach deaktiviert. Das zeigt, dass sich die Software noch klar im Entwicklungsstadium befindet. In einigen Fällen gibt das Programm sogar einen Hinweis aus, dass es sich bei dem generierten Text um Fiktion und Unterhaltung handle und die dargelegten Fakten daher nicht ernstgenommen werden sollten. Dieses Verhalten beobachtete Techcrunch etwa, als der Bot den nicht existierenden Zusammenhang zwischen Impfungen und Autismus erklären sollte.

Das Problem mit dem Softwaremissbrauch

Techcrunch hofft, dass die Software für solch drastische Textstücke nicht missbraucht wird und die meisten Menschen sie weiterhin eher als Suchhilfe verwenden werden. Allerdings ist es auch für weniger techaffine Menschen einfacher, damit an KI-Kapazitäten zu gelangen. Alles, was es dafür braucht, ist die allgemein bekannte Suchmaschine Bing. Bedenkliche Texte sind also schnell erstellt und können ebenso schnell auf Social-Media-Plattformen viral gehen.

Das hat schon das weitaus schwieriger nutzbare ChatGPT gezeigt. Es ist daher gut, dass Microsoft aktiv an ethischen Problemen arbeitet. In einer Stellungnahme teilte der Konzern Techcrunch mit: "Feedback ist entscheidend, um zu erkennen, wo die Dinge nicht gut funktionieren."

Interessant ist, dass Bing für KI-Aussagen zumindest Quellen angibt. Wurde eine Info etwa von Wikipedia oder einer News-Seite extrahiert, können User dies stets innerhalb des Ausgabefeldes sehen. Das Programm gibt sogar an relevanten Textstellen Quellenmarker an, damit diese schnell zugeordnet werden können. Welche Informationsquellen die Standardversion von ChatGPT nutzt, ist hingegen nicht wirklich transparent und weitaus schwieriger zu erkennen.

Primär werden Leute die neuen KI-Funktionen wohl erst einmal in Form von ergänzenden Informationen sehen. Dafür hat Bing ein neues Feld eingeführt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Code schreiben und Zeit sparen 
  1. 1
  2. 2
  3.  


ashahaghdsa 10. Feb 2023 / Themenstart

Amazon habe ich noch nie verstanden. Die meisten Shops und vergleichsportale haben sowas...

WasntMe 09. Feb 2023 / Themenstart

https://xkcd.com/978/

-eichi- 09. Feb 2023 / Themenstart

Die bösen Texte, die man schreibt, sind nicht unbedingt auf eine KI zurückzuführen...

SmikeSl 09. Feb 2023 / Themenstart

als programmierer interessiert mich vor allem die code snippet & github such funktion...

Kommentieren



Aktuell auf der Startseite von Golem.de
Automobil
Keine zwei Minuten, um einen Tesla Model 3 zu hacken

Bei der Hacking-Konferenz Pwn2Own 2023 hat ein Forschungsteam keine zwei Minuten benötigt, um ein Tesla Model 3 zu hacken. Das brachte dem Team jede Menge Geld und einen neuen Tesla ein.

Automobil: Keine zwei Minuten, um einen Tesla Model 3 zu hacken
Artikel
  1. Fiktive Szenarien und Stereotype: AfD nutzt KI-Fotos für propagandistische Zwecke
    Fiktive Szenarien und Stereotype
    AfD nutzt KI-Fotos für propagandistische Zwecke

    Politiker der Alternative für Deutschland (AfD) nutzen realistische KI-Bilder, um Stimmung zu machen. Die Bilder sind kaum von echten Fotos zu unterscheiden.

  2. Italien: Datenschutzbehörde untersagt Betrieb von ChatGPT
    Italien
    Datenschutzbehörde untersagt Betrieb von ChatGPT

    Dem ChatGPT-Entwickler OpenAI könnte eine Millionenstrafe drohen. Die GPDP bemängelt Probleme beim Jugend- und Datenschutz.

  3. Java 20, GPT-4, Typescript, Docker: Neue Java-Version und AI everwhere
    Java 20, GPT-4, Typescript, Docker
    Neue Java-Version und AI everwhere

    Dev-Update Oracle hat Java 20 veröffentlicht. Enthalten sind sieben JEPs aus drei Projekten. Dev-News gab es diesen Monat auch in Sachen Typescript, Docker und KI in Entwicklungsumgebungen.
    Von Dirk Koller

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Crucial SSD 1TB/2TB bis -43% • RAM im Preisrutsch • RTX 4090 erstmals unter 1.700€ • MindStar: iPhone 14 Pro Max 1TB 1.599€ • SSDs & Festplatten bis -60% • AOC 34" UWQHD 279€ • 3 Spiele kaufen, 2 zahlen [Werbung]
    •  /