Ideellt certifierat AI-modeller som licensierar skrapad data

Ideellt certifierat AI-modeller som licensierar skrapad data

Ideellt certifierat AI-modeller som licensierar skrapad data PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

En före detta VP för ljud på Stability AI som slutade med branschen på grund av innehållsskrapning har lanserat en ideell organisation som heter "Fairly Trained" som certifierar generativa AI-modeller vars utvecklare fått medgivande att träna sina modeller på upphovsrättsskyddad data.

Ed Newton-Rex lanserade organisationen på onsdagen och sa att den kommer att tilldela sin första licensmodellcertifiering till AI-verksamheter som har säkrat en licens för data från tredje part som används för att träna deras modeller.

Framstående AI-modelltillverkare har inte säkrat licenser, utan skrapar istället internet för att skaffa en korpus och hävdar att praxis är rättvis. Innehållsskapare håller inte med om den tolkningen av upphovsrätt och har lanserat flera stämningar begär ersättning för att deras arbete används av generativa AI-tjänster.

"Det finns en klyfta mellan två typer av generativa AI-företag: de som får medgivande från utbildningsdataleverantörer, och de som inte gör det, och hävdar att de inte har någon laglig skyldighet att göra det", säger en Fairly Trained inlägg.

"Vi vet att det finns många konsumenter och företag som skulle föredra att arbeta med de förstnämnda, eftersom de respekterar kreatörernas rättigheter. Men just nu är det svårt att säga vilka AI-företag som tar vilken strategi.”

Certifieringen visar att modelltillverkare har samlat in data på ett ansvarsfullt sätt. Nio generativa AI-företag som genererar bild- och ljudinnehåll har redan vunnit Fairly Trained-certifieringar, inklusive Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful och Tuney.

Företag som ansöker om certifiering måste avslöja källan till sina utbildningsdata och licenser för att använda den, förklarade Newton-Rex för Registret.

"Vi ställer uppföljningsfrågor till dem om något är oklart, och vi certifierar dem bara när vi har förtroende för att vi har en fullständig förståelse för deras datakällor. Som sådan förlitar den sig på förtroende. Vi anser att det är tillräckligt för vårt nuvarande skede, men vi kan uppdatera certifieringsprocessen med tiden, säger han.

Om ett företag tränar om sina modeller eller utvecklar nya på ny upphovsrättsskyddad data utan samtycke, är avslöjande till Fairly Trained inte obligatoriskt. Organisationen kommer att återkalla sina certifikat om den finner att modeller bryter mot dess krav.

Organisationen medgav att dess licensmodellcertifiering inte löser alla AI-upphovsrättsproblem. Att kompensera och kreditera människor för deras immateriella rättigheter är inget som Fairly Trained sysslar med för tillfället. Förhandlingar mellan generativa AI-företag och upphovsrättsägare tar upp problemet.

"Fairly Trained AI-certifiering är fokuserad på samtycke från utbildningsdataleverantörer eftersom vi tror att relaterade förbättringar för rättighetsinnehavare kommer från samtycke: skälig ersättning, kredit för inkludering i datauppsättningar och mer. Vi är medvetna om att olika rättighetsinnehavare sannolikt kommer att ha olika krav på AI-företag. Om det finns ett samtyckessteg för rättighetsinnehavare, finns det en möjlighet för rättighetsinnehavare att säkra eventuella andra krav de har”, säger organisationens FAQ.

Newton-Rex hoppas att konsumenternas oro för maskiner som sliter av människors arbete kan leda till att AI-användare blir mer kräsna om de verktyg de använder. Användare kan därför utöva tillräckligt med tryck för att AI-företag vill visa att de har tränat sina modeller på etiskt hämtat innehåll.

"Vi hoppas att Fairly Trained-certifieringen är ett märke som konsumenter och företag som bryr sig om kreatörers rättigheter kan använda för att hjälpa till att bestämma vilka generativa AI-modeller som ska arbeta med", sa den ideella organisationen.

Förra året, Newton-Rex sluta sitt jobb på Stability AI efter en intern tvist om lagligheten och etiken i att skrapa upphovsrättsskyddat material utan samtycke för att träna AI-modeller. Han sa att han inte kunde ändra andra Stabilitetschefers åsikter om detta ämne och avgick i ärendet. ®

Tidsstämpel:

Mer från Registret