Blenderbot 3: Meta präsentiert neuen KI-Chatbot

Mit seinem Chatbot will Meta ein Fiasko wie bei Microsofts Tay im Jahr 2016 vermeiden - unter anderem durch Sicherheitsmechanismen.

Artikel veröffentlicht am ,
Metas Chatbot soll bekannte KI-Probleme vermeiden
Metas Chatbot soll bekannte KI-Probleme vermeiden (Bild: Meta)

Meta hat mit Blenderbot 3 einen neuen KI-Chatbot vorgestellt. Blenderbot 3 kann in den USA über ein Webinterface ausprobiert werden, in anderen Ländern ist das Programm noch nicht verfügbar. Meta zufolge soll Blenderbot 3 künftig aber auch außerhalb der USA angeboten werden.

Stellenmarkt
  1. Senior Software Developer (m/w/d)
    Allianz Technology SE, Stuttgart
  2. System Engineer / System Developer (m/f/d) ADAS data measurement / replay and SiL/HiL solutions
    Elektrobit Automotive GmbH, Braunschweig, Erlangen
Detailsuche

Der Chatroboter soll Unterhaltungen über zahlreiche Themen führen, aber auch konkrete Fragen beantworten können. Um sicherzustellen, dass sich Blenderbot 3 beim Beantworten von Fragen keinen Unsinn ausdenkt, sucht der Chatroboter nach Fakten zum Thema im Internet und kann diese bei seiner Antwort präsentieren.

Durch die Veröffentlichung des Chatbots zur freien Verwendung erhofft sich Meta, dass genügend Daten für die Verbesserung des KI-Algorithmus generiert werden.

Blenderbot 3 soll nicht wie Tay enden

In einem Beispiel zeigte Meta, wie Blenderbot 3 über Literatur spricht. Je mehr Personen mit dem Chatbot interagieren, desto mehr lernt das Programm und kann besser zwischen hilfreichen und weniger hilfreichen Konversationen unterscheiden.

Golem Karrierewelt
  1. First Response auf Security Incidents: Ein-Tages-Workshop
    14.11.2022, Virtuell
  2. Kubernetes Dive-in-Workshop: virtueller Drei-Tage-Workshop
    11.-13.10.2022, Virtuell
Weitere IT-Trainings

Dem Unternehmen ist bewusst, dass nicht alle Akteure, die mit Blenderbot 3 sprechen, gute Absichten haben. Ein Misserfolg wie Microsofts Tay-Chatbot aus dem Jahr 2016 soll aber verhindert werden.

Tay war ein Twitter-Chatprogramm, dessen KI nach wenigen Stunden durch gezielte Fragen dazu gebracht wurde, rassistische, homophobe und frauenfeindliche Inhalte von sich zu geben. Microsoft musste den Bot nach nicht einmal 24 Stunden wieder offline nehmen.

Neue Algorithmen sollen bei Blenderbot 3 sicherstellen, dass das Programm hilfreiche von nicht hilfreichen Lehrern unterscheidet. Außerdem gibt es weitere Sicherheitsmaßnahmen, die einen zweiten Tay verhindern sollen - in seinem Blogbeitrag und in verschiedenen Papers erklärt Meta einige der Maßnahmen detaillierter. Das Unternehmen hinter Facebook stellt aber gleichzeitig klar, dass der Punkt Sicherheit nicht abschließend geklärt sei.

Wissenschaftler können Einsicht in komplettes Modell beantragen

Der Blenderbot 3 zugrunde liegende Code kann hier eingesehen werden. Wissenschaftler können auch Einblick in das komplette Programm mit seinen 175 Milliarden Parametern beantragen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Eichrechtsverstoß
Tesla betreibt gut 1.800 Supercharger in Deutschland illegal

Teslas Supercharger in Deutschland sind wie viele andere Ladesäulen nicht gesetzeskonform. Der Staat lässt die Anbieter gewähren.

Eichrechtsverstoß: Tesla betreibt gut 1.800 Supercharger in Deutschland illegal
Artikel
  1. Bitblaze Titan samt Baikal-M: Russischer Laptop mit russischem Chip ist fast fertig
    Bitblaze Titan samt Baikal-M
    Russischer Laptop mit russischem Chip ist fast fertig

    Ein 15-Zöller mit ARM-Prozessor: Der Bitblaze Titan soll sich für Office und Youtube eignen, die Akkulaufzeit aber ist fast schon miserabel.

  2. Quartalsbericht: Huawei steigert den Umsatz trotz US-Sanktionen wieder
    Quartalsbericht
    Huawei steigert den Umsatz trotz US-Sanktionen wieder

    Besonders im Bereich Cloud erzielt Huawei wieder Zuwächse.

  3. Maschinelles Lernen und Autounfälle: Es muss nicht immer Deep Learning sein
    Maschinelles Lernen und Autounfälle
    Es muss nicht immer Deep Learning sein

    Nicht nur das autonome Fahren, sondern auch die Fahrzeugsicherheit könnte von KI profitieren - nur ist Deep Learning nicht unbedingt der richtige Ansatz dafür.
    Von Andreas Meier

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Günstig wie nie: Palit RTX 3080 Ti 1.099€, Samsung SSD 2TB m. Kühlkörper (PS5) 219,99€, Samsung Neo QLED TV (2022) 50" 1.139€, AVM Fritz-Box • Asus: Bis 840€ Cashback • MindStar (MSI RTX 3090 Ti 1.299€, AMD Ryzen 7 5800X 288€) • Microsoft Controller (Xbox&PC) 48,99€ [Werbung]
    •  /