För att reglera AI, börja med hårdvara, hävdar boffins

För att reglera AI, börja med hårdvara, hävdar boffins

För att reglera AI, börja med hårdvara, hävdar boffins PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

I vår strävan att begränsa den destruktiva potentialen hos artificiell intelligens, har en ny tidning från University of Cambridge föreslagit att man bakar in fjärrstyrda avbrytare och lockouter, som de som utvecklats för att stoppa den obehöriga lanseringen av kärnvapen, i hårdvaran som driver den.

Pappret [PDF], som inkluderar röster från många akademiska institutioner och flera från OpenAI, hävdar att reglering av hårdvaran som dessa modeller förlitar sig på kan vara det bästa sättet att förhindra missbruk.

"AI-relevant beräkning är en särskilt effektiv punkt för intervention: den är detekterbar, exkluderbar och kvantifierbar och produceras via en extremt koncentrerad leveranskedja", hävdar forskarna.

Att träna de mest produktiva modellerna, som tros överstiga en biljon parametrar, kräver enorm fysisk infrastruktur: tiotusentals GPU:er eller acceleratorer och veckor eller till och med månader av bearbetningstid. Detta, säger forskarna, gör det svårt att dölja dessa resursers existens och relativa prestanda.

Dessutom produceras de mest avancerade chipsen som används för att träna dessa modeller av ett relativt litet antal företag, som Nvidia, AMD och Intel, vilket gör det möjligt för beslutsfattare att begränsa försäljningen av dessa varor till personer eller länder som är oroande.

Dessa faktorer, tillsammans med andra som begränsningar i försörjningskedjan för halvledartillverkning, erbjuder beslutsfattare möjligheten att bättre förstå hur och var AI-infrastrukturen distribueras, vem som får och inte får tillgång till den, och utöva straff för missbruk, hävdar tidningen. .

Kontrollerar infrastrukturen

Uppsatsen belyser många sätt som beslutsfattare kan närma sig AI-hårdvarureglering. Många av förslagen – inklusive de som är utformade för att förbättra synligheten och begränsa försäljningen av AI-acceleratorer – spelar redan ut på nationell nivå.

Förra året lade USA:s president Joe Biden fram en verkställande order syftar till att identifiera företag som utvecklar stora AI-modeller med dubbla användningsområden samt leverantörer av infrastruktur som kan träna dem. Om du inte är bekant, hänvisar "dual-use" till teknologier som kan tjäna dubbelt i civila och militära tillämpningar.

Mer nyligen, det amerikanska handelsdepartementet föreslagen förordning som skulle kräva att amerikanska molnleverantörer implementerar strängare "känn-din-kund"-policyer för att förhindra att personer eller länder som orsakar oro kommer runt exportrestriktioner.

Denna typ av synlighet är värdefull, noterar forskare, eftersom det kan hjälpa till att undvika en annan kapprustning, som den som utlöstes av kontroversen om missilgap, där felaktiga rapporter ledde till massiv uppbyggnad av ballistiska missiler. Även om det är värdefullt, varnar de för att genomförandet av dessa rapporteringskrav riskerar att invadera kundernas integritet och till och med leda till att känslig data läcker ut.

Samtidigt, på handelsfronten, har handelsdepartementet fortsatt att öka restriktioner, vilket begränsar prestandan hos acceleratorer som säljs till Kina. Men, som vi tidigare har rapporterat, även om dessa ansträngningar har gjort det svårare för länder som Kina att lägga vantarna på amerikanska marker, är de långt ifrån perfekta.

För att komma till rätta med dessa begränsningar har forskarna föreslagit att implementera ett globalt register för AI-chipförsäljning som skulle spåra dem under loppet av deras livscykel, även efter att de har lämnat sitt ursprungsland. Ett sådant register, föreslår de, skulle kunna införliva en unik identifierare i varje chip, vilket kan hjälpa till att bekämpa smuggling av komponenter.

I den mer extrema änden av spektrumet har forskare föreslagit att kill-switchar skulle kunna bakas in i kislet för att förhindra att de används i skadliga applikationer.

I teorin kan detta göra det möjligt för tillsynsmyndigheter att reagera snabbare på missbruk av känslig teknik genom att stänga av åtkomsten till chips på distans, men författarna varnar för att det inte är utan risk. Innebörden är, om den implementeras felaktigt, att en sådan kill switch kan bli ett mål för cyberkriminella.

Ett annat förslag skulle kräva att flera parter skriver under på potentiellt riskfyllda AI-utbildningsuppgifter innan de kan distribueras i stor skala. "Kärnvapen använder liknande mekanismer som kallas tillåtande åtgärder", skrev de.

För kärnvapen är dessa säkerhetslås utformade för att förhindra en person från att bli skurk och starta ett första anfall. För AI är tanken dock att om en individ eller ett företag vill träna en modell över en viss tröskel i molnet, måste de först få tillstånd för att göra det.

Även om det är ett kraftfullt verktyg, observerar forskarna att detta kan slå tillbaka genom att förhindra utvecklingen av önskvärd AI. Argumentet verkar vara att även om användningen av kärnvapen har ett ganska tydligt resultat, är AI inte alltid så svart och vitt.

Men om detta känns lite för dystopiskt för din smak, ägnar tidningen ett helt avsnitt åt att omfördela AI-resurser för att förbättra samhället som helhet. Tanken är att beslutsfattare skulle kunna gå samman för att göra AI-beräkning mer tillgänglig för grupper som sannolikt inte kommer att använda den för ondska, ett koncept som beskrivs som "allokering".

Vad är det för fel med att reglera AI-utveckling?

Varför gå till alla dessa problem? Tja, tidningens författare hävdar att fysisk hårdvara i sig är lättare att kontrollera.

Jämfört med hårdvara är "andra ingångar och utgångar av AI-utveckling - data, algoritmer och tränade modeller - lätt delbara, icke-konkurrenter immateriella varor, vilket gör dem i sig svåra att kontrollera", står det i tidningen.

Argumentet är att när en modell väl har publicerats, antingen i det fria eller läckt, går det inte att stoppa ande tillbaka i flaskan och stoppa dess spridning över nätet.

Forskare framhöll också att ansträngningar för att förhindra missbruk av modeller har visat sig otillförlitliga. I ett exempel lyfte författarna fram den lätthet med vilken forskare kunde demontera skyddsanordningar i Metas Llama 2 som syftar till att förhindra att modellen genererar stötande språk.

Till det yttersta befarar man att en tillräckligt avancerad modell med dubbla användningsområden skulle kunna användas för att påskynda utveckling av kemiska eller biologiska vapen.

Tidningen medger att AI-hårdvarureglering inte är en silverkula och eliminerar inte behovet av reglering i andra aspekter av branschen.

Deltagandet av flera OpenAI-forskare är dock svårt att ignorera med tanke på vd Sam Altmans försök för att styra berättelsen kring AI-reglering. ®

Tidsstämpel:

Mer från Registret