Air Canada hoàn tiền cho người dùng sau khi Chatbot AI của họ làm giả chính sách

Air Canada hoàn tiền cho người dùng sau khi Chatbot AI của họ làm giả chính sách

Một tòa án ở Canada đã ra phán quyết rằng người tiêu dùng nhận được thông tin sai lệch từ các chương trình AI có thể được bồi thường.

Tòa án Giải quyết Dân sự của British Columbia đã đưa ra phán quyết sau khi một hành khách người Canada hứa giảm giá tang chế bằng AI chatbot đã thắng kiện Air Canada.

Ngoài ra đọc: OpenAI tuyên bố New York Times đã “hack” ChatGPT để phát triển một trường hợp bản quyền 

Những sai lầm của chatbot AI

Tòa án được biết rằng vào tháng 2022 năm XNUMX, Jake Moffat đã đặt chuyến bay với Air Canada, dự định đi từ Vancouver đến Toronto để dự đám tang của bà ngoại.

Trong khi nghiên cứu các chuyến bay, anh đã liên hệ với một chatbot AI trên trang web của hãng hàng không và hỏi liệu có thể xem xét mức giá vé nhân đạo thấp hơn đáng kể so với giá vé máy bay thông thường hay không.

Chatbot thông báo cho Moffat rằng anh ta có thể mua một vé bình thường và sau đó yêu cầu “hoàn lại một phần” bằng chính sách tang chế của Air Canada trong vòng ba tháng, theo theo nghị quyết dân sự do tòa án ban hành vào tháng Hai. Anh ấy đã nghe theo lời khuyên và mua hết vé.

Nhưng khi theo đuổi khoản hoàn trả tổng trị giá 880 đô la Canada, Moffat được nhân viên của Air Canada cho biết rằng chatbot đã cung cấp cho anh thông tin “gây hiểu lầm” và anh không đủ điều kiện để được hoàn lại tiền.

Người đàn ông đã đưa vấn đề ra tòa và yêu cầu được giải quyết. Moffat đã dựa vào ảnh chụp màn hình cuộc trò chuyện của anh ấy với chatbot, theo độ phân giải, có những bằng chứng sau:

“Air Canada cung cấp giảm giá vé tang chế nếu bạn cần đi du lịch vì cái chết sắp xảy ra hoặc cái chết của người thân trong gia đình bạn,” chatbot cho biết.

“Nếu bạn cần đi du lịch ngay lập tức hoặc đã đi du lịch và muốn gửi vé của mình để được giảm tỷ lệ tang chế, vui lòng làm như vậy trong vòng 90 ngày kể từ ngày vé của bạn được phát hành bằng cách hoàn thành mẫu Đơn xin hoàn vé của chúng tôi.”

Để bào chữa, hãng hàng không cho biết mặc dù chatbot AI đã đánh lừa khách hàng nhưng Moffat “đã không tuân theo quy trình thích hợp để yêu cầu giá vé tang chế và không thể yêu cầu bồi thường trước đó”.

Hãng hàng không thậm chí còn cố gắng tách mình ra khỏi AI, nói rằng đây là một thực thể pháp lý riêng biệt chịu trách nhiệm về hành động của chính mình. Air Canada cho biết họ “không thể chịu trách nhiệm pháp lý đối với thông tin được cung cấp bởi một trong các đại lý, người phục vụ hoặc đại diện của họ, bao gồm cả chatbot”.

Air Canada buộc phải hoàn tiền cho khách hàng sau khi Chatbot AI của họ làm giả chính sách
Air Canada trong chuyến bay. Tín dụng hình ảnh: Air Canada/X

'Cờ đỏ lớn'

Theo trang web của hãng, Air Canada cung cấp một số chỗ ở nhất định, chẳng hạn như giảm giá vé, cho hành khách đi du lịch do người thân trong gia đình qua đời.

Tuy nhiên, một phần, nó nói rằng chính sách tang chế không áp dụng cho các yêu cầu hoàn lại tiền được thực hiện sau chuyến đi.

Bất chấp sự bào chữa của hãng hàng không, thành viên tòa án Christopher C. Rivers cho biết công ty chịu trách nhiệm đảm bảo rằng tất cả thông tin trên trang web của mình là chính xác và có thể sử dụng được cho khách hàng. Tòa phán quyết rằng Air Canada có nghĩa vụ chăm sóc người dùng chatbot của mình.

Moffat đã được hoàn lại một phần trị giá 650 đô la Canada [~ 480 đô la], bên cạnh các khoản bồi thường thiệt hại, tiền lãi và phí trọng tài.

Khi ngày càng nhiều công ty áp dụng AI trong dịch vụ khách hàng, các thách thức pháp lý cũng bắt đầu gia tăng, đặc biệt là vụ kiện chống lại ChatGPT người sáng tạo OpenAI cho bị cáo buộc sử dụng tài liệu có bản quyền như sách để đào tạo chatbot AI đàm thoại phổ biến của mình.

Jesse Brody, đối tác tại công ty tư vấn pháp lý Manatt ở New York, cho biết vụ Moffat kiện Air Canada cho thấy các công ty có thể phải chịu trách nhiệm về những sai sót do AI của họ tạo ra, ngay cả khi phần mềm được cung cấp bởi nhà cung cấp bên thứ ba.

Brody cho biết: “Trường hợp này nhấn mạnh trách nhiệm giải trình ngày càng tăng mà các công ty sẽ phải đối mặt đối với các hoạt động của hệ thống AI của họ, đặc biệt là những hệ thống hướng tới người tiêu dùng”. báo cáo của JD Supra.

Ông nói thêm: “Việc chatbot có thể giả mạo hoàn toàn chính sách hoàn tiền của công ty sẽ là một cảnh báo lớn đối với các công ty đang dựa vào chatbot để cung cấp thông tin chính xác về chính sách của công ty cho khách hàng của họ”.

Dấu thời gian:

Thêm từ MetaNews