Air Canada erstattet dem Benutzer eine Rückerstattung, nachdem sein KI-Chatbot eine Richtlinie gefälscht hat

Air Canada erstattet dem Benutzer eine Rückerstattung, nachdem sein KI-Chatbot eine Richtlinie gefälscht hat

Ein Gericht in Kanada hat entschieden, dass Verbraucher, die durch KI-Programme irreführende Informationen erhalten, eine Entschädigung erhalten können.

Das Civil Resolution Tribunal von British Columbia hat das Urteil gefällt, nachdem ein kanadischer Flyer einen Trauerfallrabatt durch eine KI versprochen hatte Chatbot gewann ein Verfahren gegen Air Canada.

Lies auch: OpenAI behauptet, die New York Times habe ChatGPT „gehackt“, um einen Urheberrechtsfall zu entwickeln 

KI-Chatbot-Fehler

Das Gericht hörte, dass Jake Moffat im November 2022 einen Flug bei Air Canada gebucht hatte, um von Vancouver nach Toronto zu reisen, um an der Beerdigung seiner Großmutter teilzunehmen.

Während er nach Flügen recherchierte, wandte er sich an einen KI-Chatbot auf der Website der Fluggesellschaft und fragte, ob ein Compassionate-Tarif in Betracht gezogen werden könne, der deutlich unter den regulären Flugpreisen liege.

Der Chatbot teilte Moffat mit, dass er ein normales Ticket kaufen und dann innerhalb von drei Monaten eine „teilweise Rückerstattung“ beantragen könne, indem er die Trauerfallrichtlinie von Air Canada nutzt. gemäß zu der zivilrechtlichen Entscheidung des Schiedsgerichts vom Februar. Er befolgte den Rat und kaufte das volle Ticket.

Als Moffat jedoch eine Rückerstattung in Höhe von insgesamt 880 kanadischen Dollar beantragte, wurde ihm von Mitarbeitern von Air Canada mitgeteilt, dass der Chatbot ihm „irreführende“ Informationen gegeben habe und er keinen Anspruch auf eine Rückerstattung habe.

Der Mann zog vor Gericht und forderte Wiedergutmachung. Moffat stützte sich auf Screenshots des Gesprächs, das er mit dem Chatbot führte, die laut Beschluss Folgendes als Beweismittel enthielten:

„Air Canada bietet ermäßigte Trauertarife an, wenn Sie wegen eines bevorstehenden Todes oder eines Todesfalls in Ihrer unmittelbaren Familie reisen müssen“, sagte der Chatbot.

„Wenn Sie sofort reisen müssen oder bereits gereist sind und Ihr Ticket zu einem ermäßigten Todesfallpreis einreichen möchten, tun Sie dies bitte innerhalb von 90 Tagen nach dem Ausstellungsdatum Ihres Tickets, indem Sie unser Antragsformular für eine Ticketrückerstattung ausfüllen.“

Zu ihrer Verteidigung erklärte die Fluggesellschaft, dass Moffat, obwohl der KI-Chatbot den Kunden in die Irre geführt habe, „nicht das ordnungsgemäße Verfahren befolgt habe, um Trauertarife zu beantragen, und diese nicht rückwirkend einfordern könne“.

Die Fluggesellschaft versuchte sogar, sich von der KI zu distanzieren und sagte, sie sei eine eigenständige juristische Person, die für ihre eigenen Handlungen verantwortlich sei. Air Canada sagte, dass es „nicht für Informationen haftbar gemacht werden kann, die von einem seiner Agenten, Bediensteten oder Vertretern, einschließlich eines Chatbots, bereitgestellt werden“.

Air Canada ist gezwungen, Kunden eine Rückerstattung zu leisten, nachdem ihr KI-Chatbot eine Richtlinie gefälscht hat
Air Canada im Flug. Bildnachweis: Air Canada/X

„Große rote Fahne“

Laut seiner Website bietet Air Canada bestimmte Vorkehrungen, wie z. B. ermäßigte Tarife, für Passagiere, die aufgrund des Todes eines unmittelbaren Familienangehörigen reisen.

Es heißt jedoch teilweise, dass die Trauerfallrichtlinie nicht für Rückerstattungsanträge gilt, die nach der Reise gestellt werden.

Ungeachtet der Verteidigung der Fluggesellschaft sagte der Richter des Gerichts Christopher C. Rivers, das Unternehmen sei dafür verantwortlich, sicherzustellen, dass alle Informationen auf seiner Website korrekt und für den Kunden nutzbar seien. Es wurde entschieden, dass Air Canada eine Fürsorgepflicht gegenüber den Nutzern seines Chatbots hat.

Moffat erhielt zusätzlich zu Schadensersatz, Zinsen und Gerichtsgebühren eine teilweise Rückerstattung von 650 kanadischen Dollar [~ 480 US-Dollar].

Da immer mehr Unternehmen KI im Kundenservice einsetzen, nehmen auch die rechtlichen Herausforderungen zu, nicht zuletzt die Klage dagegen ChatGPT Schöpfer OpenAI für angeblich nutzt urheberrechtlich geschütztes Material wie Bücher, um seinen beliebten Konversations-KI-Chatbot zu trainieren.

Jesse Brody, Partner bei der New Yorker Rechtsberatungsfirma Manatt, sagt, der Fall Moffat vs. Air Canada zeige, dass Unternehmen für Ungenauigkeiten ihrer KI zur Verantwortung gezogen werden könnten, selbst wenn die Software von einem Drittanbieter bereitgestellt werde.

„Dieser Fall verdeutlicht die zunehmende Verantwortung, mit der Unternehmen für die Handlungen ihrer KI-Systeme konfrontiert werden, insbesondere derjenigen, die verbraucherorientiert sind“, sagte Brody berichtet von JD Supra.

„Die Tatsache, dass ein Chatbot in der Lage war, die Rückerstattungsrichtlinien eines Unternehmens vollständig zu manipulieren, sollte ein großes Warnsignal für Unternehmen sein, die sich auf Chatbots verlassen, um ihren Kunden genaue Informationen über die Richtlinien des Unternehmens bereitzustellen“, fügte er hinzu.

Zeitstempel:

Mehr von MetaNews