Anthropic đã tạo ra một chatbot AI dân chủ bằng cách cho phép người dùng lựa chọn các nguyên tắc của nó.

Anthropic đã tạo ra một chatbot AI dân chủ bằng cách cho phép người dùng lựa chọn các nguyên tắc của nó.

Anthropic đã tạo ra một chatbot AI dân chủ bằng cách cho phép người dùng lựa chọn các nguyên tắc của nó. Thông tin dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.
<!–
Hướng dẫn HTML
->

Trong một cuộc khám phá mang tính đột phá về các khả năng của AI, Anthropic, một công ty trí tuệ nhân tạo (AI), đã điều chỉnh một mô hình ngôn ngữ lớn (LLM) để phản ánh các giá trị do người dùng xác định. Nghiên cứu độc đáo này bao gồm việc thu thập thông tin đầu vào từ 1,000 người tham gia để điều chỉnh phản hồi của LLM dựa trên đánh giá tập thể của họ.

Không giống như các LLM thông thường được trang bị các rào chắn được xác định trước để hạn chế một số đầu ra nhất định, cách tiếp cận của Anthropic bao trùm cơ quan người dùng. Các mô hình như Claude từ Anthropic và ChatGPT từ OpenAI thường tuân thủ các phản hồi an toàn được đặt trước, đặc biệt là liên quan đến các chủ đề nhạy cảm. Tuy nhiên, các nhà phê bình cho rằng những biện pháp can thiệp như vậy có thể ảnh hưởng đến quyền tự chủ của người dùng, vì định nghĩa về khả năng chấp nhận khác nhau và mang tính chủ quan giữa các nền văn hóa và khoảng thời gian.

Một giải pháp tiềm năng cho thách thức phức tạp này là trao quyền cho người dùng định hình sự liên kết giá trị của các mô hình AI. Anthropic bắt tay vào thử nghiệm “AI lập hiến tập thể” với sự cộng tác của Polis và Dự án Trí tuệ Tập thể. Thu hút 1,000 người dùng từ nhiều nền tảng khác nhau, họ đặt ra một loạt câu hỏi thông qua cuộc bỏ phiếu để thu thập những hiểu biết có giá trị.

Thử nghiệm xoay quanh việc cấp cho người dùng quyền xác định sự phù hợp mà không khiến họ gặp phải những kết quả đầu ra không mong muốn. Quá trình này liên quan đến việc khơi gợi các giá trị của người dùng và kết hợp chúng vào một mô hình được đào tạo trước. Anthropic sử dụng một kỹ thuật được gọi là “AI hiến pháp”, trong đó mô hình được cung cấp một bộ quy tắc để tuân theo, giống như hiến pháp hướng dẫn quản trị ở các quốc gia.

Trong thử nghiệm AI về Hiến pháp tập thể, Anthropic nhằm mục đích tích hợp phản hồi từ các nhóm người dùng vào hiến pháp của mô hình. Theo bài đăng trên blog của Anthropic, kết quả cho thấy một thành công về mặt khoa học, làm sáng tỏ những thách thức liên quan đến việc cho phép người dùng xác định chung các giá trị của một sản phẩm LLM.

Một trở ngại đáng chú ý mà nhóm phải đối mặt là phát triển một quy trình đo điểm chuẩn mới. Do tính chất tiên phong của thử nghiệm và sự phụ thuộc vào phương pháp AI Hiến pháp của Anthropic, không có thử nghiệm nào được thiết lập để so sánh các mô hình cơ sở với các mô hình được tinh chỉnh bằng cách sử dụng các giá trị có nguồn gốc từ cộng đồng.

Cuối cùng, có vẻ như mô hình kết hợp dữ liệu thu được từ phản hồi thăm dò ý kiến ​​của người dùng đã thể hiện sự cải thiện “nhẹ” so với mô hình cơ sở trong việc giảm thiểu các kết quả đầu ra sai lệch. Anthropic bày tỏ sự phấn khích không chỉ về mô hình thành quả mà quan trọng hơn là về chính quá trình đột phá. Thí nghiệm này biểu thị một trong những trường hợp ban đầu trong đó công chúng, với tư cách là một tập thể, có chủ ý tác động đến hành vi của một mô hình ngôn ngữ lớn. Hy vọng rằng các cộng đồng trên toàn cầu sẽ dựa trên những kỹ thuật như vậy để phát triển các mô hình phù hợp với nhu cầu văn hóa và bối cảnh cụ thể của họ.

Tin mới nhất

Giao thức Ethereum cho DeFi Hope Lend đã cạn kiệt sau đó

Tin mới nhất

Khiếu nại từ các chủ nợ FTX vượt quá 50 xu

Tin mới nhất

Theo điều tra gần đây, nhà tiên phong Bitcoin Hal Finney

Tin mới nhất

Các luật sư ước tính rằng SEC có 3%–14%

Tin mới nhất

Thái Lan trì hoãn phát hành tiền kỹ thuật số; yêu cầu của các nhà phê bình

Dấu thời gian:

Thêm từ thế giới bitcoin