Các hệ thống AI nên hoạt động như thế nào và ai nên quyết định?

Các hệ thống AI nên hoạt động như thế nào và ai nên quyết định?

How should AI systems behave, and who should decide? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Để theo đuổi sứ mệnh của mình, chúng tôi cam kết đảm bảo rằng quyền truy cập, hưởng lợi và ảnh hưởng đối với AI và AGI được phổ biến rộng rãi. Chúng tôi tin rằng cần có ít nhất ba khối xây dựng để đạt được những mục tiêu này trong bối cảnh hành vi của hệ thống AI.[^phạm vi]

1. Cải thiện hành vi mặc định. Chúng tôi muốn càng nhiều người dùng càng tốt thấy hệ thống AI của chúng tôi hữu ích với họ “ngay từ đầu” và cảm thấy rằng công nghệ của chúng tôi hiểu và tôn trọng các giá trị của họ.

Để đạt được mục tiêu đó, chúng tôi đang đầu tư vào nghiên cứu và kỹ thuật để giảm cả những thành kiến ​​rõ ràng và tinh vi trong cách ChatGPT phản hồi với các thông tin đầu vào khác nhau. Trong một số trường hợp, ChatGPT hiện từ chối các đầu ra mà nó không nên và trong một số trường hợp, nó không từ chối khi cần. Chúng tôi tin rằng có thể cải thiện ở cả hai khía cạnh.

Ngoài ra, chúng tôi có chỗ để cải thiện các khía cạnh khác của hành vi hệ thống, chẳng hạn như hệ thống “tạo ra mọi thứ”. Phản hồi từ người dùng là vô giá để thực hiện những cải tiến này.

2. Xác định giá trị AI của bạn, trong phạm vi rộng. Chúng tôi tin rằng AI phải là một công cụ hữu ích cho từng cá nhân và do đó, mỗi người dùng có thể tùy chỉnh theo các giới hạn do xã hội xác định. Do đó, chúng tôi đang phát triển một bản nâng cấp cho ChatGPT để cho phép người dùng dễ dàng tùy chỉnh hành vi của nó.

Điều này có nghĩa là cho phép các kết quả đầu ra của hệ thống mà những người khác (bao gồm cả chúng tôi) có thể hoàn toàn không đồng ý. Đạt được sự cân bằng phù hợp ở đây sẽ là một thách thức–việc tùy chỉnh đến mức tối đa sẽ có nguy cơ kích hoạt sử dụng độc hại về công nghệ của chúng tôi và các AI nịnh bợ khuếch đại niềm tin hiện có của mọi người một cách vô thức.

Do đó, sẽ luôn có một số giới hạn đối với hành vi của hệ thống. Thách thức là xác định những giới hạn đó là gì. Nếu chúng ta cố gắng tự mình đưa ra tất cả các quyết định này hoặc nếu chúng ta cố gắng phát triển một hệ thống AI nguyên khối, duy nhất, thì chúng ta sẽ thất bại trong cam kết mà chúng ta đưa ra trong Hiến chương của mình là “tránh tập trung quyền lực quá mức”.

3. Đầu vào công khai về mặc định và giới hạn cứng. Một cách để tránh tập trung quyền lực quá mức là cung cấp cho những người sử dụng hoặc bị ảnh hưởng bởi các hệ thống như ChatGPT khả năng tác động đến các quy tắc của hệ thống đó.

Chúng tôi tin rằng nhiều quyết định về mặc định và giới hạn cứng của chúng tôi nên được đưa ra cùng nhau và mặc dù việc triển khai thực tế là một thách thức, nhưng chúng tôi mong muốn đưa vào càng nhiều quan điểm càng tốt. Như một điểm khởi đầu, chúng tôi đã tìm kiếm đầu vào bên ngoài về công nghệ của chúng tôi dưới dạng đội đỏ. Gần đây chúng tôi cũng đã bắt đầu trưng cầu ý kiến ​​công chúng về AI trong giáo dục (một bối cảnh đặc biệt quan trọng trong đó công nghệ của chúng tôi đang được triển khai).

Chúng tôi đang trong giai đoạn đầu thử nghiệm nỗ lực thu hút ý kiến ​​của công chúng về các chủ đề như hành vi của hệ thống, cơ chế tiết lộ (chẳng hạn như hình mờ) và các chính sách triển khai của chúng tôi ở phạm vi rộng hơn. Chúng tôi cũng đang khám phá quan hệ đối tác với các tổ chức bên ngoài để tiến hành kiểm toán bên thứ ba về các nỗ lực chính sách và an toàn của chúng tôi.

Dấu thời gian:

Thêm từ OpenAI