Air Canada rimborsa un utente dopo che il suo chatbot AI ha falsificato una polizza

Air Canada rimborsa un utente dopo che il suo chatbot AI ha falsificato una polizza

Un tribunale canadese ha stabilito che i consumatori che ottengono informazioni fuorvianti dai programmi di intelligenza artificiale possono ricevere un risarcimento.

Il Tribunale di Risoluzione Civile della Columbia Britannica ha emesso la sentenza dopo che un volantino canadese aveva promesso uno sconto per il lutto da parte di un'intelligenza artificiale chatbot ha vinto una causa contro Air Canada.

Leggi anche: OpenAI rivendica il ChatGPT "hackerato" dal New York Times per sviluppare un caso di copyright 

Errori del chatbot AI

Il tribunale ha appreso che nel novembre 2022 Jake Moffat ha prenotato un volo con Air Canada, con l'intenzione di viaggiare da Vancouver a Toronto per partecipare al funerale di sua nonna.

Durante la ricerca sui voli, ha contattato un chatbot AI sul sito web della compagnia aerea, chiedendo se si potesse prendere in considerazione una tariffa compassionevole significativamente inferiore rispetto alle normali tariffe aeree.

Il chatbot ha informato Moffat che avrebbe potuto acquistare un biglietto normale e poi chiedere un "rimborso parziale" utilizzando la politica di lutto di Air Canada entro tre mesi, secondo alla decisione civile emessa dal tribunale a febbraio. Ha seguito il consiglio e ha acquistato il biglietto intero.

Ma nel richiedere un rimborso per un totale di 880 dollari canadesi, il personale di Air Canada ha detto a Moffat che il chatbot gli aveva fornito informazioni “fuorvianti” e che non aveva diritto a un rimborso.

L'uomo ha portato il caso in tribunale, chiedendo riparazione. Moffat si è basato sugli screenshot della conversazione avuta con il chatbot che, secondo la risoluzione, portavano come prova quanto segue:

"Air Canada offre tariffe ridotte per il lutto se hai bisogno di viaggiare a causa di una morte imminente o di un decesso di un tuo parente stretto", ha detto il chatbot.

"Se hai bisogno di viaggiare immediatamente o hai già viaggiato e desideri presentare il tuo biglietto per una tariffa per lutto ridotta, ti preghiamo di farlo entro 90 giorni dalla data di emissione del biglietto completando il nostro modulo di richiesta di rimborso del biglietto."

In sua difesa, la compagnia aerea ha affermato che, sebbene il chatbot basato sull’intelligenza artificiale abbia ingannato il cliente, Moffat “non ha seguito la procedura corretta per richiedere le tariffe per il lutto e non può richiederle retroattivamente”.

La compagnia aerea ha anche tentato di dissociarsi dall’AI, affermando che si trattava di un’entità legale separata responsabile delle proprie azioni. Air Canada ha affermato che "non può essere ritenuta responsabile per le informazioni fornite da uno dei suoi agenti, dipendenti o rappresentanti, incluso un chatbot".

Air Canada costretta a rimborsare i clienti dopo che il suo chatbot AI ha falsificato una politica
Air Canada in volo. Crediti immagine: Air Canada/X

"Grande bandiera rossa"

Secondo il suo sito web, Air Canada offre alcune sistemazioni, come tariffe ridotte, per i passeggeri che viaggiano a causa della morte di un parente stretto.

Tuttavia, si dice, in parte, che la politica sul lutto non si applica alle richieste di rimborso effettuate dopo il viaggio.

Nonostante la difesa della compagnia aerea, il membro del tribunale Christopher C. Rivers ha affermato che la compagnia è responsabile di garantire che tutte le informazioni sul suo sito web siano accurate e utilizzabili dal cliente. Ha stabilito che Air Canada ha il dovere di diligenza nei confronti degli utenti del suo chatbot.

Moffat ha ottenuto un rimborso parziale di 650 dollari canadesi [~$ 480], oltre a danni, interessi e spese giudiziarie.

Man mano che sempre più aziende adottano l’intelligenza artificiale nel servizio clienti, hanno iniziato ad aumentare anche le sfide legali, non ultima la causa contro ChatGPT creatore OpenAI per presumibilmente utilizzando materiale protetto da copyright come libri per addestrare il suo popolare chatbot con intelligenza artificiale conversazionale.

Jesse Brody, partner della società di consulenza legale Manatt di New York, afferma che il caso Moffat contro Air Canada dimostra che le aziende potrebbero essere ritenute responsabili per le imprecisioni prodotte dalla loro intelligenza artificiale, anche se il software è fornito da un fornitore di terze parti.

"Questo caso evidenzia la crescente responsabilità che le aziende dovranno affrontare per le azioni dei loro sistemi di intelligenza artificiale, in particolare quelli rivolti ai consumatori", ha affermato Brody. segnalati di JD Supra.

"Il fatto che un chatbot sia in grado di inventare interamente la politica di rimborso di un'azienda dovrebbe essere un grande campanello d'allarme per le aziende che si affidano ai chatbot per fornire ai propri clienti informazioni accurate sulle politiche aziendali", ha aggiunto.

Timestamp:

Di più da MetaNotizie