Đừng lo lắng, mọi người, đây là Chuck Schumer với một số ý tưởng về việc điều chỉnh AI

Đừng lo lắng, mọi người, đây là Chuck Schumer với một số ý tưởng về việc điều chỉnh AI

Các bạn đừng lo lắng, Chuck Schumer đã đưa ra một số ý tưởng về việc điều chỉnh AI PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

Thượng nghị sĩ Hoa Kỳ Chuck Schumer (D-NY) gần đây đang muốn thông qua luật lưỡng đảng cho phép kiểm toán công khai độc lập các sản phẩm AI thương mại trước khi chúng được tung ra thị trường thế giới.

Sau nhiều tháng tham vấn, lãnh đạo phe đa số tại Thượng viện cho biết ông đã soạn thảo một khuôn khổ để điều chỉnh việc phát triển, triển khai và sử dụng công nghệ máy học tiên tiến. Ông nói, sự bùng nổ về trí tuệ nhân tạo, tất cả sự cường điệu xung quanh nó và các bước hạn chế công nghệ của Trung Quốc đã khiến việc quản lý các mô hình và phần mềm này ở Mỹ trở nên cấp bách hơn.

Khuôn khổ đó, nếu kế hoạch của Schumer thành hiện thực, sẽ dẫn đến luật “toàn diện” ở Hoa Kỳ mà các tổ chức cần tuân theo khi triển khai trí tuệ nhân tạo.

“Thời đại của AI đã đến, và sẽ ở đây,” Schumer nói trong một tuyên bố ngắn gọn. “Bây giờ là lúc để phát triển, khai thác và nâng cao tiềm năng của nó để mang lại lợi ích cho đất nước chúng ta qua nhiều thế hệ.”

“Xét đến tác động nhanh chóng và nhanh chóng của ngành công nghiệp AI đối với xã hội, an ninh quốc gia và nền kinh tế toàn cầu,” anh ấy tiếp tục, “Tôi đã làm việc với một số nhà thực hành AI hàng đầu và các nhà lãnh đạo tư tưởng để tạo ra một khuôn khổ vạch ra một chế độ quản lý mới. điều đó sẽ ngăn chặn thiệt hại thảm khốc có thể xảy ra đối với đất nước chúng ta đồng thời đảm bảo Hoa Kỳ tiến bộ và dẫn đầu trong công nghệ biến đổi này.

“Nhưng còn nhiều việc phải làm và chúng ta phải hành động nhanh chóng. Tôi mong muốn được làm việc trên khắp các lối đi, trong toàn ngành, trên toàn quốc và hơn thế nữa, để định hình đề xuất này và hoàn thiện luật pháp nhằm đảm bảo AI thực hiện đúng lời hứa tạo ra một thế giới tốt đẹp hơn.”

Khung đề xuất của Schumer, đã được chia sẻ xung quanh Đồi Capitol và chưa được công khai, xoay quanh bốn lan can: ai, ở đâu, như thế nào và bảo vệ.

Cụ thể, theo các đề xuất này, cần phải rõ ràng ai đã đào tạo một mô hình và ai sẽ sử dụng nó, dữ liệu đào tạo đến từ đâu và phần mềm sẽ được sử dụng như thế nào. Điều quan trọng là phải cung cấp đủ thông tin để các chuyên gia bên ngoài có thể kiểm tra, thử nghiệm và đánh giá các sản phẩm và công nghệ máy học trước khi chúng được đưa ra thị trường và những phát hiện này được công khai.

Cuối cùng, về phần bảo vệ, các nhà phát triển sẽ phải chứng minh rằng hệ thống AI của họ phù hợp với các giá trị của Mỹ và rằng “các nhà phát triển AI thực hiện lời hứa tạo ra một thế giới tốt đẹp hơn”. 

Schumer có kế hoạch chia sẻ, nếu chưa chia sẻ, khuôn khổ của ông với các nhà lãnh đạo trong học viện, ngành công nghiệp và chính phủ, đồng thời dự định làm việc với các tổ chức tư vấn và tổ chức nghiên cứu để tinh chỉnh các đề xuất của ông trước khi trình bày dự luật. Đăng ký ép văn phòng thượng nghị sĩ để biết thêm chi tiết, và một đại diện không thể cung cấp gì hơn là một thông cáo báo chí.

Bản phát hành đó làm rõ khuôn khổ được đề xuất “sẽ yêu cầu các công ty cho phép các chuyên gia độc lập xem xét và thử nghiệm các công nghệ AI trước khi phát hành hoặc cập nhật công khai và cấp cho người dùng quyền truy cập vào những kết quả đó”.

Nói về quan liêu… Ủy ban bảo vệ dữ liệu châu Âu, giúp giữ cho các cơ quan giám sát quyền riêng tư quốc gia của châu Âu trên cùng một trang, đã tạo ra một lực lượng đặc nhiệm để đảm bảo những cơ quan quản lý đó chia sẻ thông tin và chi tiết về bất kỳ cuộc đàn áp nào đối với ChatGPT của OpenAI. Đây là sau khi Ý lấy một đường lối cứng rắn chống lại bot trò chuyện, lo ngại về quyền riêng tư và bảo vệ trẻ em, và các quốc gia khác đang xem xét hành động tương tự.

Về cơ bản, điều này cho thấy châu Âu đang tập trung vào một phản ứng thống nhất đối với hệ thống AI thế hệ tiếp theo đã được Microsoft bảo vệ và đưa vào mọi ngóc ngách của công nghệ ngày nay.

Tất cả điều này xảy ra khi cơ quan quản lý không gian mạng của Trung Quốc soạn thảo các quy tắc tương tự yêu cầu các công ty nộp bản đánh giá bảo mật để kiểm tra các rủi ro an toàn tiềm ẩn đối với các sản phẩm AI của họ. Các nhà phát triển phải đảm bảo rằng dữ liệu đào tạo được sử dụng để định hình mô hình của họ sẽ không dẫn đến phân biệt đối xử và phản ánh các giá trị xã hội chủ nghĩa của đất nước, Reuters báo cáo.

Cục Quản lý Thông tin và Viễn thông Quốc gia của Bộ Thương mại Hoa Kỳ đang lấy ý kiến ​​​​của công chúng để giúp xây dựng các chính sách tiềm năng nhằm cải thiện trách nhiệm giải trình của các sản phẩm và dịch vụ AI. Cơ quan ban hành AI chính thức của nó “Yêu cầu trách nhiệm giải trình cho nhận xét” trong tuần này. ®

Dấu thời gian:

Thêm từ Đăng ký