Zum Hauptinhalt Zur Navigation

Gerichtsurteil: Air Canada muss für Falschinformationen von Chatbot zahlen

Ein KI-Chatbot auf der Air-Canada-Webseite hat einem Kunden fälschlich eine Rückerstattung versprochen. Laut Urteil muss die Fluggesellschaft zahlen.
/ Andreas Donath
13 Kommentare News folgen (öffnet im neuen Fenster)
Rouge Airbus A319 (Bild: Air Canada)
Rouge Airbus A319 Bild: Air Canada

Die Fluggesellschaft Air Canada ist von einem Schiedsgericht zur Zahlung einer Rückerstattung verurteilt(öffnet im neuen Fenster) worden, die ein KI-Chatbot einem Kunden zugesagt hatte. Air Canada wurde angewiesen, dem Kunden 812 kanadische Dollar für den Fehler des Bots zu erstatten.

In dem Fall ging es um die sogenannten Trauerfallpreise Air Canadas, mit denen Kunden mit einem Sterbefall in der Familie Rabatte auf Last-Minute-Buchungen erhalten. Die Richtlinie der Fluggesellschaft besagt jedoch, dass diese ermäßigten Tickets explizit gebucht werden müssen.

KI-Chatbot widerspricht Unternehmensrichtlinien

Genau dies machte der KI-Chatbot falsch. Dem Gerichtsurteil zufolge fragte der Kunde den Chatbot nach dem Tod seiner Großmutter nach dem ermäßigten Trauertarif. Der Chatbot empfahl, das Ticket zunächst zum vollen Preis zu buchen und sich dann innerhalb von 90 Tagen an die Fluggesellschaft zu wenden, um eine Teilerstattung zu erhalten. Das stimmte so aber nicht.

Der Kunde befolgte die Anweisungen des Chatbots, doch Air Canada weigerte sich, die Erstattung zu gewähren. Die Fluggesellschaft argumentierte im Wesentlichen, dass der Chatbot als "eigenständige juristische Person, die für ihre eigenen Handlungen verantwortlich ist" , die alleinige Schuld trage.

Das Schiedsgericht war anderer Meinung und stellte fest, dass Air Canada eindeutig für alle Informationen auf seiner Website verantwortlich sei - unabhängig davon, ob sie von statischen Seiten oder Chatbots stammten.

Der Autor meint dazu

Da KI bereits in vielen Kundendienstanwendungen eingesetzt wird, wirft das Urteil Fragen hinsichtlich der Verantwortung auf, wenn Bots Fehler machen.

Unternehmen brauchen klare Richtlinien dazu, insbesondere für Chatbots mit Kundenkontakt. Fehler ausschließlich auf KI-Tools zu schieben, dürfte rechtlich kaum haltbar sein, wie Air Canada feststellen musste.

Der Fall verdeutlicht auch, wie schwierig es ist, Chatbots zu schulen, die ohne menschliche Aufsicht den geltenden Richtlinien widersprechen können.


Relevante Themen