Holly Elmore leder protest mot säkerhet med öppen källkod

Holly Elmore leder protest mot säkerhet med öppen källkod

Holly Elmore leder protest mot PlatoBlockchain-dataintelligens med öppen källkod. Vertikal sökning. Ai.

I ett djärvt drag mot Metas senaste hållning om artificiell intelligens med öppen källkod (AI) ledde Holly Elmore, en säkerhetsförespråkare för AI, en demonstration utanför Metas bas i San Francisco.

Kärnan i tvisten ligger i de potentiella farorna med att fritt släppa kraftfulla AI-modellvikter, som Elmore och hennes anhängare hävdar kan leda till "irreversibla spridningsrisker".

Meta rörde om teknikvattnet tidigare i år frisättande vikten av dess LLaMA-modellfamilj till AI-forskare, ett beslut som väsentligt avviker från andra teknikjättars policy. Dessa vikter, avgörande för modellens funktion, kan manipuleras och modifieras en gång i händerna på experter, vilket ger upphov till oro över missbruk. Det tog faktiskt inte lång tid för dessa vikter att vara läckte på nätet, intensifierad kritik av Metas öppen källkodsmetod.

Riskerna med att släppa vikter

Elmore, en gång förknippad med tankesmedjan Rethink Priorities, uttryckte sin oro:

"Att släppa vikter är en farlig policy eftersom modeller kan modifieras av vem som helst och inte kan återkallas."

Hon betonade det ökande hotet när modellerna blir mer avancerade och potenta. När modellvikter är öppet tillgängliga kan de potentiellt användas för skadliga aktiviteter, allt från att konstruera nätfiskesystem till planering cyberattack. När vikterna väl är i handen, varnar Elmore, finns det en oroande lätthet att kringgå skyddsräcken.

Peter S. Park från MIT ekar dessa känslor. Han varnar för farorna om det nuvarande tillvägagångssättet med öppen källkod överförs till mer avancerad AI, som skulle kunna fungera med högre autonomi och därmed möjliggöra missbruk i en större och mer skadlig skala.

Ett motargument: Försvaret med öppen källkod

Stella Biderman av EleutherAI erbjuder dock ett annat perspektiv. Biderman ifrågasätter det omedelbara antagandet att frisläppande av modellvikter direkt korrelerar med potentiellt missbruk. Hon anser att termen "spridning" förknippad med massförstörelsevapen är missvisande i AI-sammanhang. Biderman hävdar att de grundläggande elementen för att bygga stora språkmodeller redan är ute i det fria, menar Biderman att sekretess kanske inte är ett universalmedel för potentiellt missbruk.

Hon tillägger att att uppmana företag att upprätthålla sekretess kring sina modeller kan få "allvarliga nedströmskonsekvenser för transparens, allmänhetens medvetenhet och vetenskap." En sådan politik kan oavsiktligt skada oberoende forskare och entusiaster mer än den skyddar mot potentiella hot.

Navigera i vatten med öppen källkod i AI

Termen 'öppen källkod' i AI-sfären är rörig. Som Stefano Maffulli från Open Source Initiative (OSI) påpekar, har olika organisationer tagit till sig termen, vilket leder till en tvetydig förståelse av vad den verkligen betyder inom AI. För att programvara verkligen ska vara öppen källkod måste alla dess komponenter, från källkod till utbildningsdata, vara allmänt tillgängliga och återanvändbara.

Framtiden för öppen källkod AI formas fortfarande, med OSI som aktivt försöker definiera dess parametrar. Maffulli är fortfarande stenhård när det gäller vikten av ett öppet tillvägagångssätt och betonar att AI endast kan vara "pålitlig, ansvarsfull och ansvarig" om den är i linje med principerna om öppen källkod.

Även om debatten om AI med öppen källkod är långt ifrån avgjord, är en sak klar: teknikens snabba framsteg kräver en noggrann balans mellan tillgänglighet och säkerhet. När företag som Meta går vidare med sin policy kommer teknikgemenskapen och allmänheten att fortsätta brottas med AI:s utmaningar och konsekvenser med öppen källkod.

Tidsstämpel:

Mer från MetaNews