Holly Elmore leidt protest tegen open source-veiligheid

Holly Elmore leidt protest tegen open source-veiligheid

Holly Elmore leidt protest tegen open source-veiligheid PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

In een gedurfde stap tegen Meta's recente standpunt over open-source kunstmatige intelligentie (AI) leidde Holly Elmore, een voorstander van AI-veiligheid, een demonstratie buiten Meta's basis in San Francisco.

De kern van het dispuut ligt in de potentiรซle gevaren van het vrijelijk vrijgeven van krachtige AI-modelgewichten, waarvan Elmore en haar aanhangers beweren dat dit tot โ€˜onomkeerbare proliferatierisicoโ€™sโ€™ zou kunnen leiden.

Meta bracht eerder dit jaar de technische wateren in beroering het vrijgeven van het gewicht van zijn LLaMA-modellenfamilie voor AI-onderzoekers, een beslissing die aanzienlijk afwijkt van het beleid van andere technologiegiganten. Deze gewichten, die essentieel zijn voor de werking van het model, kunnen worden gemanipuleerd en aangepast zodra ze in handen zijn van experts, wat aanleiding geeft tot bezorgdheid over misbruik. Het duurde inderdaad niet lang voordat deze gewichten er waren online gelekt, waardoor de kritiek op Meta's open-sourceaanpak toeneemt.

De risico's van het loslaten van gewichten

Elmore, ooit verbonden aan de denktank Rethink Priorities, uitte haar zorgen:

โ€œHet vrijgeven van gewichten is een gevaarlijk beleid omdat modellen door iedereen kunnen worden gewijzigd en niet kunnen worden teruggeroepen.โ€

Ze benadrukte de toenemende dreiging naarmate modellen geavanceerder en krachtiger worden. Wanneer modelgewichten openlijk beschikbaar zijn, kunnen ze mogelijk worden gebruikt voor kwaadwillige activiteiten, variรซrend van het opzetten van phishing-plannen tot het plannen van cyberaanvallen. Als de gewichten eenmaal in de hand zijn, waarschuwt Elmore, is het een verontrustend gemak om de veiligheidsleuningen te omzeilen.

Peter S. Park van MIT herhaalt deze gevoelens. Hij waarschuwt voor de gevaren als de huidige open-sourceaanpak wordt overgedragen naar meer geavanceerde AI, die met een grotere autonomie zou kunnen werken, waardoor misbruik op grotere en schadelijkere schaal mogelijk wordt.

Een tegenargument: de open source-verdediging

Stella Biderman van EleutherAI biedt echter een ander perspectief. Biderman trekt de directe veronderstelling in twijfel dat het vrijgeven van modelgewichten direct verband houdt met mogelijk misbruik. Zij is van mening dat de term โ€˜proliferatieโ€™ die verband houdt met massavernietigingswapens misleidend is in de AI-context. Biderman betoogt dat de basiselementen voor het bouwen van grote taalmodellen al openbaar zijn en gelooft dat geheimhouding misschien niet het wondermiddel is voor mogelijk misbruik.

Ze voegt eraan toe dat het aansporen van bedrijven om hun modellen geheim te houden โ€˜ernstige gevolgen zou kunnen hebben voor de transparantie, het publieke bewustzijn en de wetenschapโ€™. Een dergelijk beleid zou onafhankelijke onderzoekers en enthousiastelingen onbedoeld meer kunnen schaden dan dat het beschermt tegen mogelijke bedreigingen.

Navigeren door open-sourcewateren in AI

De voorwaarde 'open source' op het gebied van AI is warrig. Zoals Stefano Maffulli van het Open Source Initiative (OSI) opmerkt, hebben verschillende organisaties de term overgenomen, wat heeft geleid tot een dubbelzinnig begrip van wat het werkelijk betekent in AI. Wil software echt open source zijn, dan moeten alle componenten, van de broncode tot de trainingsgegevens, openbaar toegankelijk en herbruikbaar zijn.

De toekomst van open-source AI wordt nog steeds vormgegeven, waarbij OSI actief probeert de parameters ervan te definiรซren. Maffulli blijft onvermurwbaar over het belang van een open benadering en benadrukt dat AI alleen โ€œbetrouwbaar, verantwoordelijk en aansprakelijkโ€ kan zijn als het aansluit bij de principes van open source.

Hoewel het debat over open-source AI nog lang niet is beslecht, is รฉรฉn ding duidelijk: de snelle vooruitgang van de technologie vereist een zorgvuldig evenwicht tussen toegankelijkheid en veiligheid. Terwijl bedrijven als Meta vooruitgang boeken met hun beleid, zullen de technologiegemeenschap en het publiek blijven worstelen met de uitdagingen en implicaties van open source AI.

Tijdstempel:

Meer van MetaNieuws