Dự thảo các quy định về Đạo luật AI của EU có thể có tác động đáng sợ đối với phần mềm nguồn mở PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

Dự thảo các quy định của Đạo luật AI của Liên minh Châu Âu có thể ảnh hưởng đến phần mềm nguồn mở

Tóm lại Các quy tắc mới do Liên minh châu Âu soạn thảo nhằm điều chỉnh AI có thể ngăn cản các nhà phát triển phát hành các mô hình mã nguồn mở, theo Brookings của tổ chức nghiên cứu người Mỹ.

Sản phẩm đề xuất Đạo luật AI của EU, chưa được ký thành luật, quy định rằng các nhà phát triển mã nguồn mở phải đảm bảo phần mềm AI của họ chính xác, an toàn và minh bạch về rủi ro và việc sử dụng dữ liệu trong tài liệu kỹ thuật rõ ràng. 

Brookings lập luận rằng nếu một công ty tư nhân triển khai mô hình công khai hoặc sử dụng nó trong một sản phẩm và bằng cách nào đó nó gặp rắc rối do một số tác động không lường trước hoặc không thể kiểm soát từ mô hình, thì công ty có thể sẽ cố gắng đổ lỗi cho các nhà phát triển mã nguồn mở và kiện họ . 

Nó có thể buộc cộng đồng nguồn mở phải suy nghĩ kỹ về việc phát hành mã của họ, và thật không may, có nghĩa là sự phát triển của AI sẽ do các công ty tư nhân thúc đẩy. Mã độc quyền rất khó phân tích và xây dựng, có nghĩa là sự đổi mới sẽ bị cản trở.

Oren Etzioni, Giám đốc điều hành sắp mãn nhiệm của Viện AI Allen, cho rằng các nhà phát triển mã nguồn mở không nên tuân theo các quy tắc nghiêm ngặt giống như các kỹ sư phần mềm tại các công ty tư nhân.

“Các nhà phát triển nguồn mở không nên chịu gánh nặng giống như những người phát triển phần mềm thương mại. Điều luôn luôn là trường hợp phần mềm miễn phí có thể được cung cấp 'nguyên trạng' - hãy xem xét trường hợp một sinh viên phát triển khả năng AI; họ không đủ khả năng tuân thủ các quy định của EU và có thể bị buộc phải không phân phối phần mềm của mình, do đó có tác động tiêu cực đến tiến độ học tập và khả năng tái tạo các kết quả khoa học,” ông nói. nói với TechCrunch.

Kết quả MLPerf mới để suy luận đã không còn nữa

Kết quả cho bài kiểm tra suy luận MLPerf hàng năm, đánh giá hiệu suất của các chip AI từ các nhà cung cấp khác nhau trong nhiều tác vụ trong các cấu hình khác nhau. công bố trong tuần này.

Gần 5,300 kết quả hiệu suất khổng lồ và 2,400 phép đo công suất đã được báo cáo trong năm nay để suy luận trong trung tâm dữ liệu và trong các thiết bị cạnh. Các bài kiểm tra xem xét tốc độ một hệ thống phần cứng có thể chạy một mô hình học máy cụ thể. Tốc độ xử lý dữ liệu được báo cáo trong bảng tính.

Không có gì ngạc nhiên khi Nvidia lại đứng đầu bảng xếp hạng trong năm nay. “Trong lần ra mắt đầu tiên trên tiêu chuẩn AI tiêu chuẩn ngành MLPerf, GPU Nvidia H100 Tensor Core đã lập kỷ lục thế giới về suy luận trên tất cả khối lượng công việc, mang lại hiệu suất cao hơn tới 4.5 lần so với GPU thế hệ trước,” Nvidia viết trong một bài đăng trên blog. “Kết quả chứng minh rằng Hopper là sự lựa chọn cao cấp cho những người dùng yêu cầu hiệu suất tối đa trên các mô hình AI tiên tiến.”

Mặc dù ngày càng có nhiều nhà cung cấp tham gia thử thách MLPerf nhưng rất khó để có được ý tưởng hay về cuộc thi. Chẳng hạn, không có kết quả nào được báo cáo về chip TPU của Google trong đường đua trung tâm dữ liệu trong năm nay. Tuy nhiên, Google dường như đã làm khu vực Cuộc thi huấn luyện của MLPerf vào đầu năm nay. 

Các nghệ sĩ AI phát hiện ra khuôn mặt khủng khiếp ẩn sau hình ảnh

Một chủ đề lan truyền trên Twitter được đăng bởi một nghệ sĩ kỹ thuật số tiết lộ cách các mô hình chuyển văn bản thành hình ảnh kỳ lạ có thể nằm bên dưới bề mặt.

Nhiều cư dân mạng đã tìm thấy niềm vui và nỗi thất vọng khi thử nghiệm các hệ thống này để tạo ra hình ảnh bằng cách gõ các dòng văn bản nhắc nhở. Có nhiều loại hack để điều chỉnh kết quả đầu ra của mô hình; một trong số chúng, được gọi là “dấu nhắc tiêu cực”, cho phép người dùng tìm thấy hình ảnh đối lập với hình ảnh được mô tả trong dấu nhắc. 

Khi một nghệ sĩ, có tên là Supercomposite trên Twitter, tìm thấy gợi ý tiêu cực cho những gì mô tả một bức ảnh trông có vẻ ngây thơ của một logo giả, họ đã tìm thấy một điều thực sự kinh hoàng: Khuôn mặt của một người phụ nữ trông giống như một người phụ nữ bị ma ám. Supercomposite đã đặt tên cho người phụ nữ do AI tạo ra này là “Loab” và khi họ ghép hình ảnh của cô ấy với những hình ảnh khác, chúng luôn trông giống như một cảnh trong một bộ phim kinh dị.

Supercomposite nói với El Reg hình ảnh ngẫu nhiên của những người do AI tạo thường có thể hiển thị trong lời nhắc tiêu cực. Hành vi kỳ lạ vẫn chưa một vi dụ khac của một số đặc tính kỳ lạ mà các mô hình này có thể có mà mọi người chỉ mới bắt đầu thăm dò. 

Không có chatbot có tri giác nào ở đây tại Google cho biết Giám đốc điều hành Sundar Pichai

Sundar Pichai đã mâu thuẫn với tuyên bố của cựu kỹ sư Blake Lemoine rằng Google đã xây dựng một chatbot có tri giác trong buổi nói chuyện của anh ấy tại hội nghị Code tuần này.

Lemoine đã gây chú ý vào tháng XNUMX khi anh ấy công bố anh ấy nghĩ chatbot LaMDA của Google có ý thức và có thể có linh hồn. Anh ấy sau này bị sa thải vì bị cáo buộc vi phạm chính sách quyền riêng tư của công ty sau khi anh ta thuê luật sư trò chuyện với LaMDA và đánh giá các quyền hợp pháp của công ty, đồng thời cho rằng máy đã yêu cầu anh ta làm như vậy.

Hầu hết mọi người – bao gồm cả CEO của Google – không đồng tình với Lemoine. “Tôi vẫn nghĩ chặng đường phía trước còn rất dài. Tôi cảm thấy như mình thường xuyên tham gia vào các cuộc nói chuyện triết học hoặc siêu hình về thế nào là tri giác và ý thức là gì,” Pichai nói, theo tới vận may. Ông nói thêm: “Chúng ta còn ở rất xa và có thể chúng ta sẽ không bao giờ đạt được điều đó”.

Để nhấn mạnh quan điểm của mình hơn nữa, ông thừa nhận rằng trợ lý giọng nói AI của Google đôi khi không hiểu và phản hồi thích hợp các yêu cầu. “Tin tốt là bất kỳ ai nói chuyện với Trợ lý Google — mặc dù tôi nghĩ đó là trợ lý tốt nhất hiện có cho AI đàm thoại — bạn vẫn thấy nó bị hỏng như thế nào trong một số trường hợp nhất định,” anh nói. ®

Dấu thời gian:

Thêm từ Đăng ký