Некоммерческая организация сертифицирует модели искусственного интеллекта, лицензирующие очищенные данные

Некоммерческая организация сертифицирует модели искусственного интеллекта, лицензирующие очищенные данные

Некоммерческая организация сертифицирует модели искусственного интеллекта, лицензирующие очищенные данные PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Бывший вице-президент по звуку в Stability AI, который ушел из бизнеса из-за очистки контента, основал некоммерческую организацию под названием Fairly Trained, которая сертифицирует генеративные модели ИИ, разработчики которых получили согласие на обучение своих моделей на данных, защищенных авторским правом.

Эд Ньютон-Рекс запустил организацию в среду и заявил, что выдаст первую сертификацию модели лицензии компаниям, занимающимся искусственным интеллектом, которые получили лицензию на сторонние данные, используемые для обучения их моделей.

Известные разработчики моделей искусственного интеллекта не получили лицензий, вместо этого сканируя Интернет, чтобы получить корпус, и заявляют, что практика справедлива. Создатели контента не согласны с такой интерпретацией авторских прав и запустили несколько исков добиваются компенсации за использование их работы сервисами генеративного искусственного интеллекта.

«Существует разрыв между двумя типами компаний, занимающихся генеративным ИИ: теми, кто получает согласие поставщиков обучающих данных, и теми, кто этого не делает, заявляя, что у них нет юридических обязательств делать это», — заявляет Fairly Trained после.

«Мы знаем, что есть много потребителей и компаний, которые предпочли бы работать с первыми, потому что они уважают права создателей. Но сейчас трудно сказать, какие компании, занимающиеся искусственным интеллектом, какой подход используют».

Сертификация показывает, что производители моделей ответственно подходят к сбору данных. Девять компаний, занимающихся генеративным искусственным интеллектом, которые создают изображения и аудиоконтент, уже получили сертификаты Fairly Trained, в том числе Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful и Tuney.

Компании, претендующие на сертификацию, должны раскрыть источник своих обучающих данных и лицензий на их использование, пояснил Newton-Rex. Регистр.

«Мы задаем им дополнительные вопросы, если что-то неясно, и подтверждаем их только тогда, когда уверены, что полностью понимаем их источники данных. Таким образом, он полагается на доверие. Мы считаем, что этого достаточно для нашего нынешнего этапа, но со временем мы можем обновить процесс сертификации», — сказал он.

Если компания без согласия переобучает свои модели или разрабатывает новые на основе новых данных, защищенных авторским правом, раскрытие информации Fairly Trained не является обязательным. Организация аннулирует свои сертификаты, если обнаружит, что модели нарушают ее требования.

Организация признала, что сертификация модели лицензирования не решает всех проблем с авторскими правами на ИИ. Компенсация и кредитование людей за их интеллектуальную собственность – это не то, чем Fairly Trained занимается в данный момент. Переговоры между компаниями, занимающимися генеративным искусственным интеллектом, и владельцами авторских прав решают эту проблему.

«Сертификация Fairly Trained AI ориентирована на согласие поставщиков обучающих данных, поскольку мы считаем, что соответствующие улучшения для правообладателей вытекают из согласия: справедливая компенсация, признание за включение в наборы данных и многое другое. Мы помним, что разные правообладатели, скорее всего, будут предъявлять разные требования к компаниям, занимающимся искусственным интеллектом. Если для правообладателей предусмотрен шаг согласия, у правообладателей есть возможность обеспечить любые другие требования, которые у них есть», — говорится в заявлении организации. FAQ.

Newton-Rex надеется, что опасения потребителей по поводу того, что машины копируют работу людей, могут привести к тому, что пользователи ИИ станут более разборчивыми в отношении используемых ими инструментов. Таким образом, пользователи могут оказывать достаточное давление, чтобы компании, занимающиеся искусственным интеллектом, захотели продемонстрировать, что они обучали свои модели на контенте, полученном из этических источников.

«Мы надеемся, что сертификация Fairly Trained станет знаком, который потребители и компании, заботящиеся о правах авторов, смогут использовать, чтобы помочь решить, с какими моделями генеративного ИИ работать», — заявили в некоммерческой организации.

В прошлом году Ньютон-Рекс выход его работа в Stability AI после внутреннего спора по поводу законности и этики сбора материалов, защищенных авторским правом, без согласия на обучение моделей ИИ. Он сказал, что не может изменить мнение других руководителей Stability по этому поводу, и подал в отставку по этому поводу. ®

Отметка времени:

Больше от Регистр