Air Canada rembourse un utilisateur après que son chatbot IA ait falsifié une politique

Air Canada rembourse un utilisateur après que son chatbot IA ait falsifié une politique

Un tribunal canadien a statué que les consommateurs qui obtiennent des informations trompeuses grâce aux programmes d'IA peuvent recevoir une compensation.

Le Tribunal de résolution civile de la Colombie-Britannique a rendu sa décision après qu'un dépliant canadien ait promis une remise en cas de deuil par une IA. Chatbot a gagné un procès contre Air Canada.

A lire également: OpenAI affirme que le New York Times a « piraté » ChatGPT pour développer une affaire de droit d'auteur 

Erreurs du chatbot IA

Le tribunal a appris qu'en novembre 2022, Jake Moffat avait réservé un vol avec Air Canada, avec l'intention de se rendre de Vancouver à Toronto pour assister aux funérailles de sa grand-mère.

Lors de ses recherches sur les vols, il a contacté un chatbot IA sur le site Web de la compagnie aérienne, lui demandant s'il était possible d'envisager un tarif compassionnel nettement inférieur aux tarifs aériens réguliers.

Le chatbot a informé Moffat qu'il pouvait acheter un billet normal, puis demander un « remboursement partiel » en utilisant la politique de deuil d'Air Canada dans un délai de trois mois. selon à la résolution civile émise par le tribunal en février. Il a suivi le conseil et a acheté le billet complet.

Mais alors qu'il cherchait à obtenir un remboursement totalisant 880 dollars canadiens, le personnel d'Air Canada a dit à Moffat que le chatbot lui avait donné des informations « trompeuses » et qu'il n'était pas admissible à un remboursement.

L'homme a porté l'affaire devant le tribunal pour obtenir réparation. Moffat s'est appuyé sur des captures d'écran de la conversation qu'il a eue avec le chatbot, qui, selon la résolution, contenaient les éléments de preuve suivants :

"Air Canada propose des tarifs réduits en cas de deuil si vous devez voyager en raison d'un décès imminent ou d'un décès dans votre famille immédiate", a indiqué le chatbot.

"Si vous devez voyager immédiatement ou avez déjà voyagé et souhaitez soumettre votre billet à un tarif réduit en cas de deuil, veuillez le faire dans les 90 jours suivant la date d'émission de votre billet en remplissant notre formulaire de demande de remboursement de billet."

Pour sa défense, la compagnie aérienne a déclaré que bien que le chatbot IA ait induit le client en erreur, Moffat « n’a pas suivi la procédure appropriée pour demander des tarifs de deuil et ne peut pas les réclamer rétroactivement ».

La compagnie aérienne a même tenté de se dissocier d’AI, affirmant qu’elle était une entité juridique distincte responsable de ses propres actions. Air Canada a déclaré qu'elle "ne peut être tenue responsable des informations fournies par l'un de ses agents, préposés ou représentants, y compris un chatbot".

Air Canada est obligée de rembourser ses clients après que son chatbot IA ait falsifié une politique
Air Canada en vol. Crédits image : Air Canada/X

« Grand drapeau rouge »

Air Canada offre certains aménagements, tels que des tarifs réduits, aux passagers voyageant en raison du décès d'un membre de leur famille immédiate, selon son site Internet.

Cependant, il indique en partie que la politique en matière de deuil ne s'applique pas aux demandes de remboursement effectuées après le voyage.

Malgré la défense de la compagnie aérienne, Christopher C. Rivers, membre du tribunal, a déclaré qu'il incombait à la compagnie de s'assurer que toutes les informations figurant sur son site Web étaient exactes et utilisables par le client. Elle a statué qu'Air Canada a un devoir de diligence envers les utilisateurs de son chatbot.

Moffat a obtenu un remboursement partiel de 650 dollars canadiens [~480 dollars], en plus des dommages-intérêts, des intérêts et des frais de justice.

À mesure que de plus en plus d’entreprises adoptent l’IA dans leur service client, les contestations juridiques ont également commencé à se multiplier, notamment le procès contre ChatGPT créateur OpenAI pour prétendument utiliser du matériel protégé par le droit d'auteur, comme des livres, pour former son chatbot conversationnel IA populaire.

Jesse Brody, associé du cabinet de conseil juridique new-yorkais Manatt, affirme que l'affaire Moffat contre Air Canada montre que les entreprises pourraient être tenues responsables des inexactitudes produites par leur IA, même si le logiciel est fourni par un fournisseur tiers.

"Cette affaire met en évidence la responsabilité croissante des entreprises face aux actions de leurs systèmes d'IA, en particulier ceux destinés aux consommateurs", a déclaré Brody. rapporté par JD Supra.

"Le fait qu'un chatbot ait pu fabriquer entièrement la politique de remboursement d'une entreprise devrait être un signal d'alarme pour les entreprises qui s'appuient sur des chatbots pour fournir à leurs clients des informations précises sur les politiques de l'entreprise", a-t-il ajouté.

Horodatage:

Plus de MétaActualités