CCC reageert op het verzoek van de NTIA om informatie over AI-modellen van de Dual Use Foundation met algemeen beschikbare modelgewichten »CCC Blog

CCC reageert op het verzoek van de NTIA om informatie over AI-modellen van de Dual Use Foundation met algemeen beschikbare modelgewichten »CCC Blog

Vorige week reageerde de CCC op de opmerkingen van de Nationale Telecommunicatie- en Informatieadministratie Verzoek om informatie over kunstmatige-intelligentiemodellen voor tweeërlei gebruik met algemeen beschikbare modelgewichten. Daniel Lopresti (CCC-voorzitter en Lehigh University) en David Danks (CCC Executive Committee en University of California, San Diego) van de CCC zelf hebben dit antwoord geschreven, samen met een aantal andere leden van de computergemeenschap. Markus Buehler (Massachusetts Institute of Technology) en Duncan Watson-Parris (Universiteit van Californië, San Diego), die beiden dit jaar spraken op het door de CCC gesponsorde AAAS-panel, getiteld: Generatieve AI in de wetenschap: beloften en valkuilen, beiden hebben bijgedragen aan de RFI-reactie, samen met Casey Fiesler (Universiteit van Colorado, Boulder), die de CCC-bijeenkomsten bijwoonde Toekomst van onderzoek naar sociale technologieën workshop in november.

In hun antwoord concentreerden de auteurs zich op een paar specifieke vragen van de RFI, waarvan er één vroeg hoe de risico's die gepaard gaan met het algemeen beschikbaar maken van modelgewichten zich verhouden tot de risico's die gepaard gaan met niet-openbare modelgewichten. De auteurs antwoordden dat het merendeel van de risico's die gepaard gaan met generatieve modellen minimaal wordt verergerd door het algemeen beschikbaar maken van modelgewichten. De meeste risico's die verband houden met generatieve modellen zijn inherent aan deze modellen, vanwege hun vermogen om snel enorme hoeveelheden geloofwaardige inhoud te genereren op basis van gebruikersinvoer en hun vrijwel onbeperkte toepassingsgebieden. Het openbaar beschikbaar maken van de modelgewichten heeft geen invloed op de functionaliteit van generatieve modellen, en daarom zijn er momenteel weinig aanwijzingen dat het breed beschikbaar maken van de gewichten aanzienlijke extra risico's met zich meebrengt die verder gaan dan wat al zou kunnen worden gedaan met bedrijfseigen of gesloten systemen. Een risico dat mogelijk nog groter zou kunnen worden als de gewichten voor bedrijfseigen modellen op grote schaal beschikbaar worden gemaakt, is de mogelijkheid dat trainingsgegevens openbaar worden gemaakt. Het is onwaarschijnlijk dat modelgewichten kunnen worden omgekeerd om trainingsgegevens bloot te leggen, maar er is niet aangetoond dat dit wiskundig onmogelijk is. In onze reactie hebben we echter benadrukt dat, omdat generatieve modellen waarschijnlijk intensief zullen worden gebruikt door het grote publiek, de grootste risico's naar onze mening voortkomen uit het niet openlijk beschikbaar stellen van gewichten aan representatieve funderingsmodellen. Door onderzoekers en geïnteresseerde leden van de gemeenschap de toegang te ontzeggen tot bepaalde modelgewichten voor bedrijfseigen modellen, zal de samenleving geen beter inzicht krijgen in hoe deze modellen functioneren en hoe meer inclusieve en toegankelijke modellen ontworpen kunnen worden.

Het voortzetten van de praktijk van het vrijgeven van gesloten modellen zal een gebrek aan diversiteit in technologie blijven bestendigen en zal voorkomen dat bepaalde soorten onderzoek worden uitgevoerd, zoals bias-audits van deze modellen, waartoe grote technologiebedrijven niet worden gestimuleerd. Opleiding van de toekomstige beroepsbevolking is een andere ongelooflijk belangrijke overweging. De Verenigde Staten kunnen niet hopen hun leiderschap op het gebied van generatieve AI te behouden zonder de toekomstige generatie ontwikkelaars op te leiden in dit soort modellen in het universitair en postdoctoraal onderwijs. Het is belangrijk dat studenten deze modellen tijdens hun opleiding kunnen verkennen om de basisfunctionaliteit ervan te begrijpen en te leren hoe ze ethische overwegingen kunnen meenemen bij het ontwikkelen van nieuwe modellen. Alleen grote technologiebedrijven de middelen laten bezitten om de volgende generatie op te leiden zou ook kunnen leiden tot silo-denken, en deze organisaties zouden een holistisch onderwijs dat toegang tot deze modellen kan bieden over het hoofd kunnen zien ten gunste van een efficiënter leer-naar-behoefte-framework. In onze reactie benadrukten we ook het belang van het creëren van een cultuur van openheid rond de ontwikkeling van deze modellen, waarbij we benadrukten dat het creëren van een dergelijke cultuur net zo belangrijk kan zijn als het reguleren van deze technologieën. Als er van technologiebedrijven wordt verwacht dat ze op een transparante manier generatieve modellen creëren, wordt toekomstige regelgeving veel gemakkelijker uit te voeren.

Ten slotte benadrukte de CCC de noodzaak van aanvullend onderzoek naar fundamentele modellen, daarbij verwijzend naar het huidige gebrek aan kennis bij het publiek over hoe deze modellen feitelijk functioneren en tot de resultaten komen die ze opleveren. In onze reactie hebben we een aantal onbeantwoorde onderzoeksvragen op een rij gezet die onderzoekers, wetenschappers, academici en experts op het gebied van sociale kwesties klaar staan ​​te beantwoorden, op voorwaarde dat ze de open toegang krijgen die ze nodig hebben tot het soort grote basismodellen dat de industrie nu exploiteert. . Ons voortdurende succes als samenleving hangt ervan af.

Lees hier het volledige CCC-antwoord.

Tijdstempel:

Meer van CCC-blog