Air Canada refunderer brukeren etter at AI-chatboten forfalsket en policy

Air Canada refunderer brukeren etter at AI-chatboten forfalsket en policy

En domstol i Canada har avgjort at forbrukere som får villedende informasjon fra AI-programmer kan få kompensasjon.

Civil Resolution Tribunal of British Columbia avsa kjennelsen etter at en kanadisk flyer lovet en sorgrabatt av en AI chatbot vant en sak mot Air Canada.

Les også: OpenAI hevder at New York Times "hakket" ChatGPT for å utvikle en opphavsrettssak 

AI chatbot tabber

Nemnda hørte at i november 2022 bestilte Jake Moffat et fly med Air Canada, og hadde til hensikt å reise fra Vancouver til Toronto for å delta i bestemorens begravelse.

Mens han undersøkte flyreiser, kontaktet han en AI-chatbot på flyselskapets nettside, og spurte om det kunne vurderes å vurdere en medfølende billett betydelig lavere enn vanlige flypriser.

Chatboten informerte Moffat om at han kunne kjøpe en vanlig billett og deretter søke en "delvis refusjon" ved å bruke Air Canadas dødsrettspolitikk innen tre måneder, ifølge til det sivile vedtaket avgitt av nemnda i februar. Han tok rådet og kjøpte hele billetten.

Men i jakten på en refusjon på totalt $880 kanadiske dollar, ble Moffat fortalt av ansatte ved Air Canada at chatboten hadde gitt ham "villedende" informasjon og at han ikke var kvalifisert for refusjon.

Mannen tok saken inn for retten og søkte oppreisning. Moffat stolte på skjermbilder av samtalen han hadde med chatboten, som ifølge resolusjonen hadde følgende som bevis:

"Air Canada tilbyr reduserte sorgpriser hvis du trenger å reise på grunn av en forestående død eller et dødsfall i din nærmeste familie," sa chatboten.

"Hvis du trenger å reise umiddelbart eller allerede har reist og ønsker å sende inn billetten din for en redusert dødsfallsrate, vennligst gjør det innen 90 dager etter datoen billetten ble utstedt ved å fylle ut vårt søknadsskjema for tilbakebetaling av billetter."

Til sitt forsvar sa flyselskapet at selv om AI-chatboten villedet kunden, fulgte Moffat ikke riktig prosedyre for å be om tapspriser og kan ikke kreve dem med tilbakevirkende kraft.

Flyselskapet prøvde til og med å ta avstand fra AI og sa at det var en egen juridisk enhet som var ansvarlig for sine egne handlinger. Air Canada sa at det "ikke kan holdes ansvarlig for informasjon gitt av en av sine agenter, tjenere eller representanter, inkludert en chatbot."

Air Canada tvunget til å refundere kunder etter at AI-chatboten forfalsket en policy
Air Canada på flukt. Bildekreditt: Air Canada/X

"Stort rødt flagg"

Air Canada tilbyr visse overnattingssteder, for eksempel reduserte priser, for passasjerer som reiser på grunn av døden til et nærmeste familiemedlem, ifølge nettstedet.

Imidlertid står det delvis at sorgreglene ikke gjelder for forespørsler om refusjon gjort etter reisen.

Til tross for flyselskapets forsvar, sa tribunalmedlemmet Christopher C. Rivers at selskapet var ansvarlig for å sikre at all informasjon på nettsiden deres var nøyaktig og brukbar for klienten. Den slo fast at Air Canada har en omsorgsplikt for brukere av chatboten sin.

Moffat ble tildelt en delvis refusjon på $650 kanadiske dollar [~$480], i tillegg til erstatning, renter og domstolsgebyrer.

Etter hvert som flere selskaper tar i bruk AI i kundeservice, har også juridiske utfordringer begynt å stige, ikke minst søksmålet mot ChatGPT skaperen OpenAI for angivelig bruker opphavsrettsbeskyttet materiale som bøker for å trene sin populære samtale-AI-chatbot.

Jesse Brody, partner i New Yorks juridiske konsulentfirma Manatt, sier at Moffat vs. Air Canada-saken viser at selskaper kan bli holdt ansvarlige for unøyaktigheter produsert av deres AI, selv om programvaren er levert av en tredjepartsleverandør.

"Denne saken fremhever den økende ansvarligheten selskaper vil møte for handlingene til AI-systemene deres, spesielt de som er forbrukervendt," sa Brody. rapportert av JD Supra.

"Det faktum at en chatbot var i stand til å fremstille et selskaps refusjonspolicy fullstendig burde være et stort rødt flagg for selskaper som er avhengige av chatboter for å gi nøyaktig informasjon om selskapets retningslinjer til kundene sine," la han til.

Tidstempel:

Mer fra MetaNews