Air Canada återbetalar användare efter att dess AI-chatbot förfalskade en policy

Air Canada återbetalar användare efter att dess AI-chatbot förfalskade en policy

En domstol i Kanada har beslutat att konsumenter som får vilseledande information från AI-program kan få ersättning.

Civil Resolution Tribunal i British Columbia fattade beslutet efter att en kanadensisk reklamblad lovade en dödsfallsrabatt av en AI chatbot vann ett mål mot Air Canada.

Läs också: OpenAI hävdar att New York Times "hackat" ChatGPT för att utveckla ett upphovsrättsfall 

AI chatbot misstag

Tribunalen hörde att Jake Moffat i november 2022 bokade ett flyg med Air Canada, med avsikt att resa från Vancouver till Toronto för att delta i sin mormors begravning.

Medan han undersökte flygningar, kontaktade han en AI-chattbot på flygbolagets webbplats och frågade om det kunde övervägas att ha ett pris som är avsevärt lägre än vanliga flygpriser.

Chatboten informerade Moffat om att han kunde köpa en vanlig biljett och sedan söka en "delvis återbetalning" med hjälp av Air Canadas dödsfallspolicy inom tre månader, enligt till det civila beslut som nämnden utfärdade i februari. Han tog rådet och köpte hela biljetten.

Men när han strävade efter en återbetalning på totalt $880 kanadensiska dollar, fick Moffat höra av personalen på Air Canada att chatboten hade gett honom "vilseledande" information och att han inte var berättigad till återbetalning.

Mannen tog ärendet till domstolen och begärde upprättelse. Moffat förlitade sig på skärmdumpar av samtalet han hade med chatboten, som enligt resolutionen hade följande som bevis:

"Air Canada erbjuder reducerade dödsfallspriser om du behöver resa på grund av en nära förestående död eller ett dödsfall i din närmaste familj", sa chatboten.

"Om du behöver resa omedelbart eller redan har rest och vill skicka in din biljett för ett reducerat dödsfallspris, vänligen gör det inom 90 dagar från det datum då din biljett utfärdades genom att fylla i vårt formulär för återbetalning av biljett."

Till sitt försvar sa flygbolaget att även om AI-chatboten vilseledde kunden, följde Moffat inte korrekt procedur för att begära slöseripriser och kan inte göra anspråk på dem retroaktivt.

Flygbolaget försökte till och med ta avstånd från AI och sa att det var en separat juridisk enhet som var ansvarig för sina egna handlingar. Air Canada sa att det "inte kan hållas ansvarigt för information som tillhandahålls av en av dess agenter, tjänare eller representanter, inklusive en chatbot."

Air Canada tvingades återbetala kunder efter att dess AI-chattbot förfalskade en policy
Air Canada under flygning. Bildkrediter: Air Canada/X

"Stor röd flagga"

Air Canada tillhandahåller vissa boenden, till exempel reducerade priser, för passagerare som reser på grund av att en närmaste familjemedlem har dött, enligt sin hemsida.

Däremot står det delvis att dödsfallspolicyn inte gäller för begäran om återbetalning som görs efter resan.

Trots flygbolagets försvar sa tribunalmedlemmen Christopher C. Rivers att företaget var ansvarigt för att se till att all information på dess hemsida var korrekt och användbar för kunden. Den slog fast att Air Canada har en omsorgsplikt för användare av sin chatbot.

Moffat tilldelades en partiell återbetalning på $650 kanadensiska dollar [~$480], utöver skadestånd, räntor och domstolsavgifter.

I takt med att fler företag tar till sig AI inom kundservice har även juridiska utmaningar börjat växa, inte minst rättegången mot ChatGPT skapare OpenAI för påstås använder upphovsrättsskyddat material som böcker för att träna sin populära konversations-AI-chatbot.

Jesse Brody, partner på New Yorks juridiska konsultföretag Manatt, säger att fallet Moffat vs. Air Canada visar att företag kan hållas ansvariga för felaktigheter som produceras av deras AI, även om programvaran tillhandahålls av en tredjepartsleverantör.

"Det här fallet belyser den ökande ansvarsskyldigheten som företag kommer att möta för åtgärderna i sina AI-system, särskilt de som är konsumentinriktade," sa Brody. rapporterade av JD Supra.

"Det faktum att en chatbot helt och hållet kunde tillverka ett företags återbetalningspolicy borde vara en stor röd flagga för företag som förlitar sig på chatbots för att ge korrekt information om företagets policyer till sina kunder," tillade han.

Tidsstämpel:

Mer från MetaNews