Anthropic cho biết họ sẽ không sử dụng dữ liệu riêng tư của bạn để đào tạo AI - Giải mã

Anthropic cho biết họ sẽ không sử dụng dữ liệu riêng tư của bạn để đào tạo AI – Giải mã

Anthropic cho biết họ sẽ không sử dụng dữ liệu riêng tư của bạn để đào tạo AI của mình - Giải mã trí thông minh dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Công ty khởi nghiệp AI hàng đầu Anthropic đã tuyên bố rằng họ sẽ không sử dụng dữ liệu của khách hàng để đào tạo Mô hình ngôn ngữ lớn (LLM) và sẽ can thiệp để bảo vệ người dùng trước các khiếu nại về bản quyền.

Anthropic, được thành lập bởi các nhà nghiên cứu cũ của OpenAI, đã cập nhật thông tin thương mại của mình Các Điều Khoản của Dịch Vụ để thể hiện lý tưởng và ý định của mình. Bằng cách khai thác dữ liệu riêng tư của chính khách hàng của mình, Anthropic đang tạo sự khác biệt rõ ràng với các đối thủ như OpenAI, Amazon và Meta, những công ty tận dụng nội dung người dùng để cải thiện hệ thống của họ.

“Anthropic không được đào tạo các mô hình về nội dung của khách hàng từ các dịch vụ phải trả phí,” theo các điều khoản cập nhật, đồng thời bổ sung thêm rằng “giữa các bên và trong phạm vi được luật hiện hành cho phép, anthropic đồng ý rằng khách hàng sở hữu tất cả kết quả đầu ra và từ chối mọi quyền mà nó nhận được nội dung của khách hàng theo các điều khoản này.”

Các điều khoản tiếp tục nói rằng “Anthropic không lường trước được bất kỳ quyền nào đối với nội dung của khách hàng theo các điều khoản này” và họ “không cấp cho bên nào bất kỳ quyền nào đối với nội dung hoặc tài sản trí tuệ của bên kia, dù ngầm ý hay cách khác”.

Tài liệu pháp lý cập nhật có vẻ như cung cấp sự bảo vệ và tính minh bạch cho các khách hàng thương mại của Anthropic. Các công ty sở hữu tất cả các kết quả đầu ra AI được tạo ra, chẳng hạn như tránh các tranh chấp về quyền sở hữu trí tuệ có thể xảy ra. Anthropic cũng cam kết bảo vệ khách hàng khỏi các khiếu nại về bản quyền đối với bất kỳ nội dung vi phạm nào do Claude sản xuất.

Chính sách phù hợp với Sứ mệnh của Anthropic tuyên bố rằng AI phải có lợi, vô hại và trung thực. Khi sự hoài nghi của công chúng ngày càng tăng đối với đạo đức của AI sáng tạo, cam kết của công ty trong việc giải quyết các mối lo ngại như quyền riêng tư dữ liệu có thể mang lại lợi thế cạnh tranh cho công ty.

Dữ liệu của người dùng: Thực phẩm quan trọng của LLMs

Các Mô hình Ngôn ngữ Lớn (LLM) như GPT-4, LlaMa hay Claude của Anthropic là các hệ thống AI tiên tiến có thể hiểu và tạo ra ngôn ngữ của con người bằng cách được đào tạo trên dữ liệu văn bản mở rộng. Những mô hình này tận dụng các kỹ thuật học sâu và mạng lưới thần kinh để dự đoán chuỗi từ, hiểu ngữ cảnh và nắm bắt sự tinh tế của ngôn ngữ. Trong quá trình đào tạo, họ liên tục tinh chỉnh các dự đoán của mình, nâng cao khả năng trò chuyện, soạn văn bản hoặc cung cấp thông tin liên quan. Hiệu quả của LLM phụ thuộc rất nhiều vào tính đa dạng và khối lượng dữ liệu mà họ được đào tạo, giúp họ nhận thức chính xác hơn và theo ngữ cảnh hơn khi họ học từ các mẫu ngôn ngữ, phong cách và thông tin mới khác nhau.

Và đây là lý do tại sao dữ liệu của người dùng lại có giá trị trong việc đào tạo LLM. Thứ nhất, nó đảm bảo rằng các mô hình luôn cập nhật các xu hướng ngôn ngữ mới nhất và sở thích của người dùng (ví dụ: hiểu các tiếng lóng mới). Thứ hai, nó cho phép cá nhân hóa và tương tác với người dùng tốt hơn bằng cách thích ứng với các tương tác và phong cách của từng người dùng. Tuy nhiên, điều này tạo ra một cuộc tranh luận về mặt đạo đức vì các công ty AI không trả tiền cho người dùng những thông tin quan trọng được sử dụng để đào tạo các mô hình giúp họ kiếm được hàng triệu đô la.

Theo báo cáo của Giải mã, meta gần đây đã tiết lộ rằng họ đang đào tạo LlaMA-3 LLM sắp tới dựa trên dữ liệu của người dùng và các mẫu EMU mới (tạo ảnh và video từ lời nhắc bằng văn bản) cũng đã được đào tạo bằng cách sử dụng dữ liệu có sẵn công khai do người dùng tải lên trên mạng xã hội.

Bên cạnh đó, Amazon cũng tiết lộ rằng LLM sắp tới của họ, sẽ hỗ trợ phiên bản nâng cấp của Alexa, cũng đang được đào tạo về các cuộc trò chuyện và tương tác của người dùng, tuy nhiên, người dùng có thể chọn không tham gia dữ liệu đào tạo mà theo mặc định được đặt để cho rằng người dùng đồng ý để chia sẻ thông tin này. “[Amazon] luôn tin rằng việc đào tạo Alexa với các yêu cầu trong thế giới thực là điều cần thiết để mang lại trải nghiệm chính xác, được cá nhân hóa và không ngừng trở nên tốt hơn cho khách hàng,” người phát ngôn của Amazon nói với Giải mã. “Nhưng song song với đó, chúng tôi cung cấp cho khách hàng quyền kiểm soát xem bản ghi âm giọng nói Alexa của họ có được sử dụng để cải thiện dịch vụ hay không và chúng tôi luôn tôn trọng sở thích của khách hàng khi đào tạo các mô hình của mình.”

Với những gã khổng lồ công nghệ đang chạy đua để phát hành các dịch vụ AI tiên tiến nhất, việc thực hành dữ liệu có trách nhiệm là chìa khóa để giành được sự tin tưởng của công chúng. Anthropic nhằm mục đích dẫn đầu bằng ví dụ về vấn đề này. Cuộc tranh luận về mặt đạo đức về việc đạt được các mô hình mạnh mẽ và tiện lợi hơn với chi phí phải cung cấp thông tin cá nhân vẫn phổ biến ngày nay cũng như cách đây nhiều thập kỷ khi phương tiện truyền thông xã hội phổ biến khái niệm về người dùng. trở thành sản phẩm để đổi lấy các dịch vụ miễn phí.

Ryan Ozawa biên tập.

Luôn cập nhật tin tức về tiền điện tử, cập nhật hàng ngày trong hộp thư đến của bạn.

Dấu thời gian:

Thêm từ Giải mã