Cựu nhà nghiên cứu OpenAI: Có 50% khả năng AI kết thúc trong 'Thảm họa'

Cựu nhà nghiên cứu OpenAI: Có 50% khả năng AI kết thúc trong 'Thảm họa'

Cựu nhà nghiên cứu OpenAI: Có 50% khả năng AI sẽ kết thúc trong tình trạng thông minh dữ liệu PlatoBlockchain 'thảm họa'. Tìm kiếm dọc. Ái.

Một cựu nhà nghiên cứu chủ chốt tại OpenAI tin rằng rất có khả năng trí tuệ nhân tạo sẽ kiểm soát loài người và tiêu diệt nó.

“Tôi nghĩ có lẽ có khoảng 10-20% khả năng AI sẽ tiếp quản, [với] nhiều [hoặc] hầu hết con người đã chết,” Paul Christiano, người điều hành nhóm liên kết mô hình ngôn ngữ tại OpenAI, cho biết trên Podcast ngân hàng. “Tôi khá coi trọng vấn đề này.”

Christiano, người hiện đứng đầu Trung tâm nghiên cứu căn chỉnh, một tổ chức phi lợi nhuận nhằm mục đích sắp xếp AI và hệ thống máy học phù hợp với “lợi ích của con người”, cho biết ông đặc biệt lo lắng về điều gì sẽ xảy ra khi AI đạt đến khả năng logic và sáng tạo của con người. Ông nói: “Nhìn chung, có lẽ chúng ta đang nói về khả năng xảy ra thảm họa là 50/50 ngay sau khi chúng ta có hệ thống ở cấp độ con người”.

Christiano đang ở trong một công ty tốt. Gần đây nhiều nhà khoa học trên thế giới đã ký một bức thư trực tuyến thúc giục OpenAI và các công ty khác chạy đua để xây dựng AI nhanh hơn, thông minh hơn, hãy nhấn nút tạm dừng phát triển. Các ông lớn từ Bill Gates đến Elon Musk đều bày tỏ lo ngại rằng nếu không được kiểm soát, AI sẽ là mối nguy hiểm hiện hữu và hiển nhiên đối với con người.

Đừng ác

Tại sao AI lại trở thành ác quỷ? Về cơ bản, vì lý do tương tự như một người: đào tạo và kinh nghiệm sống.

Giống như một em bé, AI được đào tạo bằng cách nhận hàng núi dữ liệu mà không thực sự biết phải làm gì với nó. Nó học bằng cách cố gắng đạt được các mục tiêu nhất định bằng các hành động ngẫu nhiên và tập trung vào các kết quả “chính xác”, như được xác định trong quá trình đào tạo.

Cho đến nay, bằng cách đắm mình vào dữ liệu tích lũy trên internet, học máy đã cho phép AI đạt được những bước nhảy vọt trong việc xâu chuỗi các câu trả lời mạch lạc, có cấu trúc tốt cho các truy vấn của con người. Đồng thời, quá trình xử lý máy tính cơ bản hỗ trợ học máy ngày càng nhanh hơn, tốt hơn và chuyên biệt hơn. Một số nhà khoa học tin rằng trong vòng một thập kỷ, sức mạnh xử lý đó, kết hợp với trí tuệ nhân tạo, sẽ cho phép những cỗ máy này trở nên có tri giác, giống như con người và có ý thức về bản thân.

Đó là lúc mọi thứ trở nên rắc rối. Và đó là lý do tại sao nhiều nhà nghiên cứu cho rằng chúng ta cần tìm ra cách áp đặt các rào chắn ngay bây giờ, thay vì sau này. Miễn là hành vi của AI được theo dõi, nó có thể được kiểm soát.

Nhưng nếu đồng xu rơi sang phía bên kia, ngay cả người đồng sáng lập OpenAI cũng nói rằng mọi thứ có thể trở nên rất khó khăn, rất tệ.

Ngày lễ?

Chủ đề này đã được thảo luận trong nhiều năm. Một trong những cuộc tranh luận nổi tiếng nhất về chủ đề này đã diễn ra cách đây 11 năm giữa nhà nghiên cứu AI Eliezer Yudkowsky và nhà kinh tế Robin Hanson. Hai người đã thảo luận về khả năng đạt được “miếng bọt biển”—rõ ràng là viết tắt của “Sự khởi đầu nhanh chóng của khả năng làm chủ vượt trội” —điểm mà tại đó AI trở nên thông minh hơn con người theo cấp số nhân và có khả năng tự cải thiện. (Nguồn gốc của thuật ngữ “foom” là tranh luận.)

“Eliezer và những người đồng hành của anh ấy tin rằng không thể tránh khỏi việc AI sẽ 'chết' mà không báo trước, nghĩa là, một ngày nào đó bạn xây dựng một AGI [trí thông minh nhân tạo] và vài giờ hoặc vài ngày sau, thứ đó sẽ tự cải thiện đệ quy thành trí thông minh thần thánh và sau đó ăn thịt cả thế giới. . Điều này có thực tế không?” Perry Metzger, một nhà khoa học máy tính hoạt động trong cộng đồng AI, đã tweet gần đây.

Metzger lập luận rằng ngay cả khi hệ thống máy tính đạt đến mức độ thông minh như con người, vẫn còn nhiều thời gian để ngăn chặn mọi kết quả xấu. “Về mặt logic thì 'foom' có khả thi không? Có lẽ. Tôi không bị thuyết phục”, ông nói. “Thế giới thực có thể thực hiện được không? Tôi khá chắc chắn là không. AI siêu phàm sâu sắc về lâu dài có trở thành hiện thực không? Có, nhưng không phải là 'foom'”

Một nhân vật nổi bật khác là Yann Le Cun cũng lên tiếng cho rằng đó là “hoàn toàn không thể,” để nhân loại trải nghiệm sự tiếp quản của AI.” Hãy hi vọng như vậy.

Luôn cập nhật tin tức về tiền điện tử, cập nhật hàng ngày trong hộp thư đến của bạn.

Dấu thời gian:

Thêm từ Giải mã