Air Canada reembolsa al usuario después de que su chatbot de IA falsificó una política

Air Canada reembolsa al usuario después de que su chatbot de IA falsificó una política

Un tribunal de Canadá dictaminó que los consumidores que obtengan información engañosa de programas de inteligencia artificial pueden recibir una compensación.

El Tribunal de Resolución Civil de Columbia Británica emitió el fallo después de que un viajero canadiense prometiera un descuento por duelo mediante una IA. chatterbot ganó un caso contra Air Canada.

Lea también: OpenAI afirma que el New York Times “pirateó” ChatGPT para desarrollar un caso de derechos de autor 

Errores del chatbot de IA

El tribunal escuchó que en noviembre de 2022, Jake Moffat reservó un vuelo con Air Canada con la intención de viajar de Vancouver a Toronto para asistir al funeral de su abuela.

Mientras investigaba vuelos, se acercó a un chatbot de inteligencia artificial en el sitio web de la aerolínea y preguntó si se podría considerar una tarifa compasiva significativamente más baja que las tarifas aéreas regulares.

El chatbot informó a Moffat que podía comprar un billete normal y luego solicitar un "reembolso parcial" utilizando la política de duelo de Air Canada en un plazo de tres meses. conforme a la resolución civil emitida por el tribunal en febrero. Siguió el consejo y compró el billete completo.

Pero al solicitar un reembolso por un total de 880 dólares canadienses, el personal de Air Canada le dijo a Moffat que el chatbot le había proporcionado información “engañosa” y que no era elegible para un reembolso.

El hombre llevó el asunto a los tribunales en busca de reparación. Moffat se basó en capturas de pantalla de la conversación que mantuvo con el chatbot, las cuales, según la resolución, llevaban como prueba lo siguiente:

"Air Canada ofrece tarifas reducidas en caso de duelo si necesita viajar debido a una muerte inminente o la muerte de un familiar directo", dijo el chatbot.

"Si necesita viajar de inmediato o ya ha viajado y desea enviar su boleto para obtener una tarifa reducida por duelo, hágalo dentro de los 90 días posteriores a la fecha de emisión de su boleto completando nuestro formulario de Solicitud de reembolso de boleto".

En su defensa, la aerolínea dijo que, aunque el chatbot de IA engañó al cliente, Moffat "no siguió el procedimiento adecuado para solicitar tarifas de duelo y no puede reclamarlas retroactivamente".

La aerolínea incluso intentó disociarse de la IA, diciendo que era una entidad legal independiente responsable de sus propias acciones. Air Canada dijo que “no se hace responsable de la información proporcionada por uno de sus agentes, servidores o representantes, incluido un chatbot”.

Air Canada se vio obligada a reembolsar a los clientes después de que su chatbot de IA falsificara una política
Air Canada en vuelo. Créditos de la imagen: Air Canada/X

'Gran bandera roja'

Air Canada ofrece ciertas adaptaciones, como tarifas reducidas, para pasajeros que viajan debido a la muerte de un familiar directo, según su sitio web.

Sin embargo, dice, en parte, que la política de duelo no se aplica a las solicitudes de reembolso realizadas después del viaje.

A pesar de la defensa de la aerolínea, el miembro del tribunal Christopher C. Rivers dijo que la compañía era responsable de garantizar que toda la información en su sitio web fuera precisa y utilizable para el cliente. Decidió que Air Canada tiene el deber de cuidar de los usuarios de su chatbot.

Moffat recibió un reembolso parcial de 650 dólares canadienses [~480 dólares], además de daños, intereses y honorarios judiciales.

A medida que más empresas adoptan la IA en el servicio al cliente, también han comenzado a acumularse desafíos legales, entre ellos la demanda contra ChatGPT creador OpenAI para pretendidamente utilizando material protegido por derechos de autor, como libros, para entrenar su popular chatbot conversacional de IA.

Jesse Brody, socio de la firma de consultoría legal Manatt de Nueva York, dice que el caso Moffat vs. Air Canada muestra que las empresas podrían ser consideradas responsables por las imprecisiones producidas por su IA, incluso si el software es proporcionado por un proveedor externo.

"Este caso pone de relieve la creciente responsabilidad que enfrentarán las empresas por las acciones de sus sistemas de inteligencia artificial, especialmente aquellos que están orientados al consumidor", dijo Brody, como reportaron por JD Supra.

"El hecho de que un chatbot fuera capaz de fabricar por completo la política de reembolso de una empresa debería ser una gran señal de alerta para las empresas que dependen de los chatbots para proporcionar información precisa sobre las políticas de la empresa a sus clientes", añadió.

Sello de tiempo:

Mas de MetaNoticias