Để điều chỉnh AI, hãy bắt đầu từ phần cứng, các nhà khoa học lập luận

Để điều chỉnh AI, hãy bắt đầu từ phần cứng, các nhà khoa học lập luận

Để điều chỉnh AI, hãy bắt đầu với phần cứng, các quan chức cho rằng PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

Trong nỗ lực hạn chế tiềm năng hủy diệt của trí tuệ nhân tạo, một bài báo mới của Đại học Cambridge đã đề xuất tích hợp các công tắc và khóa tiêu diệt từ xa, giống như những công cụ được phát triển để ngăn chặn việc phóng vũ khí hạt nhân trái phép, vào phần cứng cung cấp năng lượng cho nó.

Giấy [PDF], bao gồm tiếng nói của nhiều tổ chức học thuật và một số tổ chức từ OpenAI, khiến cho việc quản lý phần cứng mà các mô hình này dựa vào có thể là cách tốt nhất để ngăn chặn việc sử dụng sai mục đích.

Các nhà nghiên cứu lập luận: “Tính toán liên quan đến AI là một điểm can thiệp đặc biệt hiệu quả: Nó có thể phát hiện, loại trừ và định lượng và được sản xuất thông qua một chuỗi cung ứng cực kỳ tập trung”.

Việc đào tạo các mô hình hiệu quả nhất, được cho là vượt quá một nghìn tỷ tham số, đòi hỏi cơ sở hạ tầng vật lý khổng lồ: hàng chục nghìn GPU hoặc bộ tăng tốc và thời gian xử lý hàng tuần hoặc thậm chí hàng tháng. Các nhà nghiên cứu cho biết điều này khiến cho sự tồn tại và hiệu suất tương đối của các tài nguyên này khó có thể che giấu.

Hơn nữa, những con chip tiên tiến nhất được sử dụng để đào tạo các mô hình này được sản xuất bởi một số lượng tương đối nhỏ các công ty, như Nvidia, AMD và Intel, cho phép các nhà hoạch định chính sách hạn chế bán những hàng hóa này cho những cá nhân hoặc quốc gia có liên quan.

Bài báo cho rằng những yếu tố này, cùng với những yếu tố khác như hạn chế của chuỗi cung ứng đối với sản xuất chất bán dẫn, cung cấp cho các nhà hoạch định chính sách phương tiện để hiểu rõ hơn về cách thức và nơi triển khai cơ sở hạ tầng AI, ai được và không được phép truy cập và thực thi các hình phạt đối với việc sử dụng sai mục đích. .

Kiểm soát cơ sở hạ tầng

Bài viết nhấn mạnh nhiều cách mà các nhà hoạch định chính sách có thể tiếp cận với quy định về phần cứng AI. Nhiều đề xuất – bao gồm cả những đề xuất được thiết kế để cải thiện khả năng hiển thị và hạn chế việc bán máy gia tốc AI – đã được áp dụng ở cấp quốc gia.

Năm ngoái, tổng thống Mỹ Joe Biden đã đưa ra một lệnh điều hành nhằm xác định các công ty đang phát triển các mô hình AI công dụng kép lớn cũng như các nhà cung cấp cơ sở hạ tầng có khả năng đào tạo họ. Nếu bạn chưa biết, “sử dụng kép” đề cập đến các công nghệ có thể phục vụ nhiệm vụ kép trong các ứng dụng dân sự và quân sự.

Gần đây hơn, Bộ Thương mại Hoa Kỳ đề xuất quy định yêu cầu các nhà cung cấp dịch vụ đám mây của Mỹ thực hiện các chính sách “biết khách hàng của bạn” nghiêm ngặt hơn để ngăn chặn những cá nhân hoặc quốc gia có liên quan lách các hạn chế xuất khẩu.

Các nhà nghiên cứu lưu ý rằng loại khả năng hiển thị này rất có giá trị vì nó có thể giúp tránh một cuộc chạy đua vũ trang khác, giống như cuộc chạy đua gây ra bởi tranh cãi về khoảng cách tên lửa, trong đó các báo cáo sai lầm dẫn đến việc xây dựng ồ ạt tên lửa đạn đạo. Mặc dù có giá trị nhưng chúng cảnh báo rằng việc thực hiện các yêu cầu báo cáo này có nguy cơ xâm phạm quyền riêng tư của khách hàng và thậm chí dẫn đến rò rỉ dữ liệu nhạy cảm.

Trong khi đó, về mặt thương mại, Bộ Thương mại tiếp tục bước lên hạn chế, hạn chế hiệu suất của máy gia tốc bán cho Trung Quốc. Tuy nhiên, như chúng tôi đã đưa tin trước đây, mặc dù những nỗ lực này khiến các quốc gia như Trung Quốc khó có được chip của Mỹ hơn nhưng chúng vẫn chưa hoàn hảo.

Để giải quyết những hạn chế này, các nhà nghiên cứu đã đề xuất triển khai cơ chế đăng ký toàn cầu về doanh số bán chip AI để theo dõi chúng trong suốt vòng đời, ngay cả sau khi chúng rời khỏi quốc gia xuất xứ. Họ đề xuất rằng một cơ quan đăng ký như vậy có thể kết hợp một mã định danh duy nhất vào mỗi chip, điều này có thể giúp chống lại buôn lậu của các thành phần.

Ở mức cực đoan hơn, các nhà nghiên cứu đã gợi ý rằng các công tắc tiêu diệt có thể được tích hợp vào silicon để ngăn chặn việc sử dụng chúng trong các ứng dụng độc hại.

Về lý thuyết, điều này có thể cho phép các cơ quan quản lý phản ứng nhanh hơn trước việc lạm dụng các công nghệ nhạy cảm bằng cách cắt quyền truy cập vào chip từ xa, nhưng các tác giả cảnh báo rằng làm như vậy không phải là không có rủi ro. Điều này có nghĩa là, nếu được triển khai không chính xác, một kill switch như vậy có thể trở thành mục tiêu của tội phạm mạng.

Một đề xuất khác sẽ yêu cầu nhiều bên ký kết các nhiệm vụ đào tạo AI tiềm ẩn nhiều rủi ro trước khi chúng có thể được triển khai trên quy mô lớn. Họ viết: “Vũ khí hạt nhân sử dụng các cơ chế tương tự được gọi là liên kết hành động cho phép”.

Đối với vũ khí hạt nhân, những khóa bảo mật này được thiết kế để ngăn chặn một người lừa đảo và tung ra đòn tấn công đầu tiên. Tuy nhiên, đối với AI, ý tưởng là nếu một cá nhân hoặc công ty muốn đào tạo một mô hình vượt một ngưỡng nhất định trên đám mây, trước tiên họ cần phải được ủy quyền để làm điều đó.

Mặc dù là một công cụ mạnh mẽ nhưng các nhà nghiên cứu nhận thấy rằng điều này có thể gây tác dụng ngược bằng cách ngăn chặn sự phát triển của AI mong muốn. Lập luận dường như là trong khi việc sử dụng vũ khí hạt nhân có kết quả khá rõ ràng, AI không phải lúc nào cũng có hai màu đen trắng như vậy.

Nhưng nếu điều này khiến bạn cảm thấy hơi lạc hậu so với sở thích của bạn, thì bài báo sẽ dành toàn bộ phần để phân bổ lại các nguồn lực AI nhằm cải thiện xã hội nói chung. Ý tưởng là các nhà hoạch định chính sách có thể hợp tác với nhau để làm cho máy tính AI dễ tiếp cận hơn với các nhóm không có khả năng sử dụng nó vào mục đích xấu, một khái niệm được mô tả là “phân bổ”.

Có gì sai khi điều chỉnh sự phát triển AI?

Tại sao phải đi đến tất cả những rắc rối này? Chà, các tác giả của bài báo thừa nhận rằng phần cứng vật lý vốn đã dễ kiểm soát hơn.

So với phần cứng, “các đầu vào và đầu ra khác của quá trình phát triển AI – dữ liệu, thuật toán và mô hình được đào tạo – là những hàng hóa vô hình không có tính cạnh tranh, có thể chia sẻ dễ dàng, khiến chúng vốn khó kiểm soát”, bài báo viết.

Lập luận đưa ra là một khi một mô hình được xuất bản, dù ở dạng công khai hay bị rò rỉ, thì không thể đặt thần đèn trở lại chai và ngăn chặn sự lan truyền của nó trên mạng.

Các nhà nghiên cứu cũng nhấn mạnh rằng những nỗ lực ngăn chặn việc lạm dụng các mô hình đã được chứng minh là không đáng tin cậy. Trong một ví dụ, các tác giả nhấn mạnh sự dễ dàng mà các nhà nghiên cứu có thể loại bỏ các biện pháp bảo vệ trong Llama 2 của Meta nhằm ngăn mô hình tạo ra ngôn ngữ xúc phạm.

Ở mức độ cao nhất, người ta lo ngại rằng một mô hình sử dụng kép đủ tiên tiến có thể được sử dụng để đẩy nhanh quá trình phát triển của vũ khí hóa học hoặc sinh học.

Bài viết thừa nhận rằng quy định về phần cứng AI không phải là giải pháp bạc đạn và không loại bỏ nhu cầu quản lý trong các khía cạnh khác của ngành.

Tuy nhiên, khó có thể bỏ qua sự tham gia của một số nhà nghiên cứu OpenAI nếu xét đến ý kiến ​​của CEO Sam Altman. nỗ lực để kiểm soát câu chuyện xung quanh quy định AI. ®

Dấu thời gian:

Thêm từ Đăng ký