CCC răspunde solicitării de informații a NTIA privind modelele IA de fundație cu dublă utilizare cu greutăți de model disponibile pe scară largă » Blogul CCC

CCC răspunde solicitării de informații a NTIA privind modelele IA de fundație cu dublă utilizare cu greutăți de model disponibile pe scară largă » Blogul CCC

Săptămâna trecută, CCC a răspuns la Administrația Națională de Telecomunicații și Informații Solicitare de informații despre modelele de inteligență artificială cu fundație cu dublă utilizare cu greutăți de model disponibile pe scară largă. Daniel Lopresti (Președintele CCC și Universitatea Lehigh) și David Danks (Comitetul executiv al CCC și Universitatea din California, San Diego) au ajutat la redactarea acestui răspuns împreună cu alți câțiva membri ai comunității de calcul. Markus Buehler (Massachusetts Institute of Technology) și Duncan Watson-Parris (Universitatea din California, San Diego), ambii au vorbit la panelul AAAS sponsorizat de CCC anul acesta, intitulat: AI generativă în știință: promisiuni și capcane, ambii au contribuit la răspunsul RFI, împreună cu Casey Fiesler (Universitatea din Colorado, Boulder), care a participat la CCC. Viitorul cercetării privind tehnologiile sociale atelier în noiembrie.

În răspunsul lor, autorii s-au concentrat pe câteva întrebări specifice din RFI, una dintre acestea a întrebat cum se compară riscurile asociate cu ponderea modelului pe scară largă cu cele asociate cu ponderile modelului non-public. Autorii au răspuns că majoritatea riscurilor asociate cu modelele generative sunt exacerbate minim prin punerea la scară largă a ponderilor modelului. Majoritatea riscurilor legate de modelele generative sunt inerente acestor modele, datorită capacității lor de a genera rapid cantități enorme de conținut credibil pe baza intrărilor utilizatorilor și a zonelor lor de aplicare aproape nelimitate. Punerea la dispoziție publică a ponderilor modelului nu afectează funcționalitatea modelelor generative și, prin urmare, în prezent, există puține dovezi că punerea la dispoziție a ponderilor pe scară largă creează un risc suplimentar semnificativ, dincolo de ceea ce s-ar putea face deja cu sistemele proprietare sau închise. Un risc care ar putea fi agravat dacă ponderile pentru modelele brevetate sunt disponibile pe scară largă este posibilitatea ca datele de antrenament să fie expuse. Este puțin probabil ca greutățile modelului să poată fi modificate pentru a expune datele de antrenament, dar nu s-a dovedit a fi imposibil din punct de vedere matematic. Cu toate acestea, în răspunsul nostru am subliniat că, deoarece modelele generative sunt susceptibile de a continua să fie utilizate intens de către publicul larg, cele mai mari riscuri, în opinia noastră, provin din faptul că nu punem la dispoziție modele reprezentative ale fundațiilor. Interzicerea accesului cercetătorilor și membrilor comunității interesați la unele ponderi ale modelelor pentru modele brevetate va împiedica societatea să înțeleagă mai bine modul în care funcționează aceste modele și cum să proiecteze modele mai incluzive și mai accesibile.

Continuarea practicii de lansare a modelelor închise va continua să perpetueze o lipsă de diversitate în tehnologie și va împiedica efectuarea anumitor tipuri de cercetări, cum ar fi audituri de părtinire ale acestor modele, pe care marile companii tehnologice nu sunt stimulate să le efectueze. Educația viitoarei forțe de muncă este un alt aspect incredibil de important. Statele Unite nu pot spera să-și mențină conducerea în domeniul IA generativă fără a instrui viitoarea generație de dezvoltatori pe aceste tipuri de modele în învățământul postuniversitar și postuniversitar. Este important ca studenții să poată explora aceste modele în timpul educației pentru a înțelege funcționalitatea lor de bază și pentru a învăța cum să încorporeze considerații etice în dezvoltarea de noi modele. Permiterea doar companiilor mari de tehnologie să dețină instrumentele pentru a instrui următoarea generație ar putea duce, de asemenea, la o gândire separată, iar aceste organizații pot trece cu vederea o educație holistică pe care accesul la aceste modele o poate oferi în favoarea unui cadru de învățare mai eficient, după cum este necesar. În răspunsul nostru, am subliniat, de asemenea, importanța stabilirii unei culturi a deschiderii în jurul dezvoltării acestor modele, subliniind că stabilirea unei astfel de culturi poate fi la fel de importantă ca și reglementarea acestor tehnologii. Dacă există o așteptare ca companiile de tehnologie să creeze modele generative într-un mod transparent, atunci reglementările viitoare devin mult mai ușor de realizat.

În cele din urmă, CCC a subliniat necesitatea unor cercetări suplimentare asupra modelelor fundamentale, invocând lipsa actuală de cunoștințe a publicului despre modul în care aceste modele funcționează de fapt și ajung la rezultatele pe care le produc. În răspunsul nostru, am enumerat o serie de întrebări de cercetare fără răspuns la care cercetătorii, oamenii de știință, savanții și experții în probleme sociale sunt gata să înceapă să răspundă, cu condiția să primească accesul deschis de care au nevoie la tipurile de modele de fundație mari pe care industria le exploatează acum. . Succesul nostru continuu ca societate depinde de asta.

Citiți răspunsul CCC complet aici.

Timestamp-ul:

Mai mult de la Blog CCC