Linie Air Canada zwracają pieniądze użytkownikowi po tym, jak jego chatbot AI sfałszował zasady

Linie Air Canada zwracają pieniądze użytkownikowi po tym, jak jego chatbot AI sfałszował zasady

Trybunał w Kanadzie orzekł, że konsumenci, którzy otrzymają wprowadzające w błąd informacje w ramach programów AI, mogą otrzymać odszkodowanie.

Trybunał ds. rozstrzygania spraw cywilnych Kolumbii Brytyjskiej wydał orzeczenie po tym, jak kanadyjski lotnik obiecał sztuczną inteligencję zniżkę w przypadku żałoby chatbot wygrał sprawę przeciwko Air Canada.

Przeczytaj także: OpenAI twierdzi, że New York Times „zhakował” ChatGPT w celu opracowania sprawy dotyczącej praw autorskich 

Błędy chatbota AI

Trybunał dowiedział się, że w listopadzie 2022 r. Jake Moffat zarezerwował lot liniami Air Canada z zamiarem podróży z Vancouver do Toronto, aby wziąć udział w pogrzebie swojej babci.

Szukając informacji o lotach, skontaktował się z chatbotem opartym na sztucznej inteligencji na stronie internetowej linii lotniczej i zapytał, czy można rozważyć wprowadzenie tańszej taryfy znacznie niższej niż zwykłe bilety lotnicze.

Chatbot poinformował Moffata, że ​​może kupić normalny bilet, a następnie w ciągu trzech miesięcy ubiegać się o „częściowy zwrot pieniędzy”, korzystając z polityki dotyczącej żałoby Air Canada, według do uchwały cywilnej wydanej przez trybunał w lutym. Posłuchał rady i kupił pełny bilet.

Jednak starając się o zwrot pieniędzy w wysokości 880 dolarów kanadyjskich, personel Air Canada powiedział Moffatowi, że chatbot przekazał mu „wprowadzające w błąd” informacje i nie kwalifikuje się do zwrotu pieniędzy.

Mężczyzna skierował sprawę do sądu, domagając się zadośćuczynienia. Moffat oparł się na zrzutach ekranu rozmowy, którą odbył z chatbotem, na których, zgodnie z uchwałą, jako dowód wskazano:

„Air Canada oferuje obniżone ceny biletów w przypadku żałoby, jeśli musisz podróżować z powodu nieuchronnej śmierci lub śmierci najbliższej rodziny” – powiedział chatbot.

„Jeśli musisz natychmiast udać się w podróż lub już podróżowałeś i chcesz zgłosić swój bilet w ramach obniżonej stawki na wypadek żałoby, zrób to w ciągu 90 dni od daty wystawienia biletu, wypełniając nasz formularz wniosku o zwrot biletu”.

W swojej obronie linia lotnicza stwierdziła, że ​​chociaż chatbot oparty na sztucznej inteligencji wprowadził klienta w błąd, Moffat „nie postępował zgodnie z odpowiednią procedurą, aby zażądać opłat związanych z żałobą i nie może ubiegać się o nie z mocą wsteczną”.

Linia lotnicza próbowała nawet odciąć się od sztucznej inteligencji, twierdząc, że jest odrębnym podmiotem prawnym odpowiedzialnym za własne działania. Air Canada stwierdziło, że „nie może ponosić odpowiedzialności za informacje przekazane przez jednego z jej agentów, pracowników lub przedstawicieli, w tym chatbota”.

Linie Air Canada zmuszone do zwrotu pieniędzy klientom po tym, jak chatbot AI sfałszował zasady
Air Canada w locie. Zdjęcia: Air Canada/X

„Wielka czerwona flaga”

Jak wynika ze swojej strony internetowej, Air Canada zapewnia określone udogodnienia, takie jak zniżki na bilety, pasażerom podróżującym z powodu śmierci najbliższego członka rodziny.

Częściowo stwierdza się jednak, że zasady dotyczące żałoby nie mają zastosowania do wniosków o zwrot pieniędzy złożonych po podróży.

Pomimo obrony linii lotniczej członek trybunału Christopher C. Rivers stwierdził, że firma jest odpowiedzialna za dopilnowanie, aby wszystkie informacje zawarte na jej stronie internetowej były dokładne i przydatne dla klienta. Orzekł, że Air Canada ma obowiązek dbać o użytkowników swojego chatbota.

Moffatowi przyznano częściowy zwrot 650 dolarów kanadyjskich [~480 dolarów], oprócz odszkodowania, odsetek i opłat sądowych.

W miarę jak coraz więcej firm wdraża sztuczną inteligencję w obsłudze klienta, zaczęły także narastać wyzwania prawne, zwłaszcza pozwy przeciwko tej firmie ChatGPT twórca OpenAI dla rzekomo używanie materiałów chronionych prawem autorskim, takich jak książki, do szkolenia popularnego chatbota konwersacyjnego AI.

Jesse Brody, partner w nowojorskiej firmie doradztwa prawnego Manatt, twierdzi, że sprawa Moffat przeciwko Air Canada pokazuje, że firmy mogą zostać pociągnięte do odpowiedzialności za nieścisłości spowodowane ich sztuczną inteligencją, nawet jeśli oprogramowanie jest dostarczane przez zewnętrznego dostawcę.

„Ten przypadek podkreśla rosnącą odpowiedzialność firm za działania swoich systemów sztucznej inteligencji, zwłaszcza tych skierowanych do konsumentów” – powiedział Brody. zgłaszane przez JD Suprę.

„Fakt, że chatbot był w stanie w całości sfabrykować politykę firmy dotyczącą zwrotów kosztów, powinien być sygnałem ostrzegawczym dla firm, które korzystają z chatbotów w celu dostarczania swoim klientom dokładnych informacji na temat polityki firmy” – dodał.

Znak czasu:

Więcej z MetaWiadomości