Проект правил Закона ЕС об искусственном интеллекте может оказать сдерживающее воздействие на программное обеспечение с открытым исходным кодом PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Проект правил ЕС об искусственном интеллекте может оказать сдерживающее воздействие на программное обеспечение с открытым исходным кодом

Вкратце По мнению американского аналитического центра Brookings, новые правила, разработанные Европейским Союзом и направленные на регулирование ИИ, могут помешать разработчикам выпускать модели с открытым исходным кодом.

Ассоциация предложило Закон ЕС об искусственном интеллекте, который еще не подписан, гласит, что разработчики с открытым исходным кодом должны гарантировать, что их программное обеспечение искусственного интеллекта является точным, безопасным и прозрачным в отношении рисков и использования данных в четкой технической документации. 

Brookings утверждает, что если частная компания развернет общедоступную модель или использует ее в продукте и у нее каким-то образом возникнут проблемы из-за каких-то непредвиденных или неконтролируемых эффектов модели, тогда компания, вероятно, попытается обвинить разработчиков с открытым исходным кодом и подать на них в суд. . 

Это может заставить сообщество открытого исходного кода дважды подумать перед выпуском своего кода и, к сожалению, будет означать, что разработкой ИИ будут заниматься частные компании. Собственный код сложно анализировать и использовать, а это означает, что инновации будут затруднены.

Орен Эциони, уходящий в отставку генеральный директор Института искусственного интеллекта Аллена, считает, что разработчики открытого исходного кода не должны подчиняться тем же строгим правилам, что и инженеры-программисты в частных компаниях.

«Разработчики открытого исходного кода не должны нести такое же бремя, как те, кто разрабатывает коммерческое программное обеспечение. Всегда должно быть так, что бесплатное программное обеспечение может предоставляться «как есть» — рассмотрим случай, когда один студент разрабатывает возможности ИИ; они не могут позволить себе соблюдать правила ЕС и могут быть вынуждены не распространять свое программное обеспечение, тем самым оказывая сдерживающее воздействие на академический прогресс и воспроизводимость научных результатов», — сказал он. заявил TechCrunch.

Опубликованы новые результаты MLPerf для вывода

Результаты ежегодного теста вывода MLPerf, который оценивает производительность ИИ-чипов разных производителей при выполнении многочисленных задач в различных конфигурациях, были опубликованный на этой неделе.

В этом году было опубликовано около 5,300 результатов измерения производительности и 2,400 показателей мощности, предназначенных для вывода в центрах обработки данных и на периферийных устройствах. Тесты показывают, насколько быстро аппаратная система способна запускать конкретную модель машинного обучения. Скорость обработки данных указывается в электронных таблицах.

Неудивительно, что в этом году Nvidia снова возглавила рейтинг. «В своем дебюте в стандартных тестах искусственного интеллекта MLPerf графические процессоры Nvidia H100 с тензорными ядрами установили мировые рекорды по выводам при всех рабочих нагрузках, обеспечивая до 4.5 раз большую производительность, чем графические процессоры предыдущего поколения», — написала Nvidia в своем блоге. «Результаты показывают, что Hopper — это лучший выбор для пользователей, которым требуется максимальная производительность от передовых моделей искусственного интеллекта».

Хотя в конкурсе MLPerf принимает участие все больше поставщиков, получить представление о конкурентах может быть сложно. Например, в этом году не сообщалось о результатах использования чипов Google TPU в центрах обработки данных. Google, однако, похоже, ас Тренировочное соревнование MLPerf в начале этого года. 

Художники с искусственным интеллектом обнаружили ужасное лицо, скрывающееся за изображением

Вирусная ветка в Твиттере, опубликованная цифровым художником, показывает, насколько странными могут быть модели преобразования текста в изображение.

Многие пользователи сети находили радость и отчаяние, экспериментируя с этими системами для создания изображений путем ввода текстовых подсказок. Есть своего рода хаки для настройки выходных данных моделей; один из них, известный как «негативная подсказка», позволяет пользователям найти изображение, противоположное тому, которое описано в подсказке. 

Когда художник, известный в Твиттере под ником Supercomposite, нашел негативную подсказку к тому, что описывало невинно выглядящее изображение поддельного логотипа, он обнаружил нечто поистине ужасающее: лицо женщины, похожей на привидение. Компания Supercomposite назвала эту созданную искусственным интеллектом женщину «Лоаб», и когда они сравнивали ее изображения с другими, они всегда оказывались похожими на сцену из фильма ужасов.

Суперкомпозит рассказал Он рег случайные изображения людей, созданные ИИ, часто могут появляться в негативных подсказках. Странное поведение еще другой пример о некоторых странных свойствах, которыми могут обладать эти модели, и которые люди только начинают исследовать. 

В Google нет разумных чат-ботов, говорит генеральный директор Сундар Пичаи

Сундар Пичаи опроверг утверждения бывшего инженера Блейка Лемуана о том, что Google создал разумного чат-бота во время его выступления на конференции Code на этой неделе.

Лемуан попал в заголовки газет в июле, когда он объявило он думал, что чат-бот Google LaMDA обладает сознанием и может иметь душу. Он был позже уволили за якобы нарушение политики конфиденциальности компании после того, как он нанял адвоката, чтобы поговорить с LaMDA и оценить ее законные права, утверждая, что машина сказала ему сделать это.

Большинство людей, включая генерального директора Google, не согласны с Лемуаном. «Я все еще думаю, что нам еще предстоит пройти долгий путь. Мне кажется, что я часто вступаю в философские или метафизические беседы о том, что такое чувство и что такое сознание», — сказал Пичаи. согласно к Фортуне. «Мы далеки от этого и, возможно, никогда туда не доберемся», — добавил он.

Чтобы еще больше подчеркнуть свою точку зрения, он признал, что голосовой помощник Google с искусственным интеллектом иногда не понимает запросы и не реагирует на них должным образом. «Хорошая новость заключается в том, что любой, кто разговаривает с Google Assistant — хотя я считаю, что это лучший помощник для диалогового искусственного интеллекта — вы все равно видите, насколько он сломан в определенных случаях», — сказал он. ®

Отметка времени:

Больше от Регистр