Organizacja non-profit certyfikuje modele sztucznej inteligencji, które udzielają licencji na zeskrobane dane

Organizacja non-profit certyfikuje modele sztucznej inteligencji, które udzielają licencji na zeskrobane dane

Organizacja non-profit certyfikuje modele sztucznej inteligencji, które licencjonują zeskrobane dane PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Były wiceprezes ds. dźwięku w Stability AI, który odszedł z firmy z powodu scrapingu treści, założył organizację non-profit o nazwie „Fairly Trained”, która certyfikuje generatywne modele sztucznej inteligencji, których programiści uzyskali zgodę na trenowanie swoich modeli na danych chronionych prawem autorskim.

Ed Newton-Rex uruchomił organizację w środę i powiedział, że przyzna swój pierwszy certyfikat modelu licencji operacjom AI, które uzyskały licencję na dane stron trzecich wykorzystywane do szkolenia swoich modeli.

Wybitni twórcy modeli sztucznej inteligencji nie zabezpieczyli licencji, zamiast tego przeszukują Internet, aby zdobyć korpus i twierdzić, że praktyka jest uczciwa. Twórcy treści nie zgadzają się z taką interpretacją praw autorskich i uruchomili kilka pozwów domagają się wynagrodzenia za wykorzystywanie ich pracy przez usługi generatywnej sztucznej inteligencji.

„Wyłania się podział między dwoma typami firm zajmujących się generatywną sztuczną inteligencją: tymi, które uzyskują zgodę dostawców danych szkoleniowych, oraz tymi, które tego nie robią, twierdząc, że nie mają do tego prawnego obowiązku” – stwierdza Fairly Trained pisać.

„Wiemy, że jest wielu konsumentów i firm, którzy woleliby współpracować z tymi pierwszymi, ponieważ szanują prawa twórców. Jednak w tej chwili trudno powiedzieć, które firmy zajmujące się sztuczną inteligencją przyjmują jakie podejście”.

Certyfikat pokazuje, że twórcy modeli zebrali dane w sposób odpowiedzialny. Dziewięć firm zajmujących się generatywną sztuczną inteligencją, które generują obrazy i treści audio, zdobyło już certyfikaty Fairly Trained, w tym Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful i Tuney.

Firmy ubiegające się o certyfikację muszą ujawnić źródło swoich danych szkoleniowych i licencje na ich wykorzystanie – wyjaśnił Newton-Rex Rejestr.

„Zadajemy im dodatkowe pytania, jeśli coś jest niejasne, i poświadczamy ich tylko wtedy, gdy mamy pewność, że w pełni rozumiemy ich źródła danych. Jako taki opiera się na zaufaniu. Uważamy, że jest to odpowiednie na naszym obecnym etapie, ale z czasem możemy zaktualizować proces certyfikacji” – powiedział.

Jeśli firma bez zgody przeszkoli swoje modele lub opracuje nowe na nowych danych chronionych prawem autorskim, ujawnienie ich firmie Fairly Trained nie jest obowiązkowe. Organizacja unieważni swoje certyfikaty, jeśli stwierdzi, że modele naruszają jej wymagania.

Organizacja przyznała, że ​​certyfikacja modelu licencji nie rozwiązuje wszystkich problemów związanych z prawami autorskimi AI. Wynagradzanie i uznawanie ludzi za ich własność intelektualną nie jest obecnie czymś, czym Fairly Trained ma do czynienia. Kwestię tę rozwiązują negocjacje między firmami zajmującymi się generatywną sztuczną inteligencją a właścicielami praw autorskich.

„Certyfikacja odpowiednio przeszkolonej sztucznej inteligencji koncentruje się na zgodzie dostawców danych szkoleniowych, ponieważ wierzymy, że z zgody wynikają powiązane ulepszenia dla posiadaczy praw: godziwe wynagrodzenie, uznanie za włączenie do zbiorów danych i nie tylko. Mamy świadomość, że różni posiadacze praw będą prawdopodobnie mieć różne wymagania wobec firm zajmujących się sztuczną inteligencją. Jeżeli posiadacze praw mają etap uzyskania zgody, posiadacze praw mają możliwość zabezpieczenia wszelkich innych swoich wymagań” – stwierdza kierownik organizacji FAQ .

Newton-Rex ma nadzieję, że obawy konsumentów dotyczące maszyn okradających pracę człowieka mogą sprawić, że użytkownicy sztucznej inteligencji staną się bardziej wybredni w wyborze narzędzi, z których korzystają. Użytkownicy mogliby zatem wywrzeć wystarczającą presję, aby firmy zajmujące się sztuczną inteligencją chciały pokazać, że wyszkoliły swoje modele w zakresie treści pochodzących z etycznych źródeł.

„Mamy nadzieję, że certyfikat Fairly Trained będzie odznaką, którą konsumenci i firmy dbające o prawa twórców będą mogli wykorzystać, aby pomóc w podjęciu decyzji, z którymi generatywnymi modelami sztucznej inteligencji warto współpracować” – stwierdziła organizacja non-profit.

W zeszłym roku Newton-Rex porzucić swoją pracę w Stability AI po wewnętrznym sporze dotyczącym legalności i etyki skrobania materiałów chronionych prawem autorskim bez zgody na szkolenie modeli AI. Stwierdził, że nie może zmienić zdania innych członków kierownictwa ds. stabilności na ten temat i złożył w tej sprawie rezygnację. ®

Znak czasu:

Więcej z Rejestr