For at regulere AI, start med hardware, hævder boffins

For at regulere AI, start med hardware, hævder boffins

For at regulere AI, start med hardware, hævder boffins PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

I vores søgen efter at begrænse det destruktive potentiale af kunstig intelligens, har et nyt papir fra University of Cambridge foreslået, at man bager fjernstyrede dræberafbrydere og lockouts, som dem der er udviklet for at stoppe den uautoriserede affyring af atomvåben, i den hardware, der driver det.

Papiret [PDF], som inkluderer stemmer fra adskillige akademiske institutioner og adskillige fra OpenAI, gør det tilfældet, at regulering af den hardware, disse modeller er afhængige af, kan være den bedste måde at forhindre misbrug på.

"AI-relevant databehandling er et særligt effektivt interventionspunkt: Det kan detekteres, udelukkes og kvantificeres og produceres via en ekstremt koncentreret forsyningskæde," hævder forskerne.

Træning af de mest produktive modeller, der menes at overstige en billion parametre, kræver enorm fysisk infrastruktur: titusindvis af GPU'er eller acceleratorer og uger eller endda måneders behandlingstid. Dette, siger forskerne, gør eksistensen og den relative ydeevne af disse ressourcer svære at skjule.

Hvad mere er, er de mest avancerede chips, der bruges til at træne disse modeller, produceret af et relativt lille antal virksomheder, som Nvidia, AMD og Intel, hvilket gør det muligt for politikere at begrænse salget af disse varer til personer eller lande, der er bekymrede.

Disse faktorer, sammen med andre, såsom forsyningskædebegrænsninger på halvlederfremstilling, giver politiske beslutningstagere mulighed for bedre at forstå, hvordan og hvor AI-infrastruktur er implementeret, hvem der har og ikke må få adgang til den, og håndhæver sanktioner for misbrug, hævder avisen. .

Styring af infrastrukturen

Papiret fremhæver adskillige måder, politiske beslutningstagere kan nærme sig AI-hardwareregulering. Mange af forslagene – inklusive dem, der er designet til at forbedre synlighed og begrænse salget af AI-acceleratorer – udspiller sig allerede på nationalt plan.

Sidste år fremsatte den amerikanske præsident Joe Biden en udøvende ordre rettet mod at identificere virksomheder, der udvikler store dual-use AI-modeller samt infrastrukturleverandører, der er i stand til træne dem. Hvis du ikke er bekendt, refererer "dual-use" til teknologier, der kan tjene dobbelt pligt i civile og militære applikationer.

For nylig det amerikanske handelsministerium foreslog regulering, der ville kræve, at amerikanske cloud-udbydere implementerer strengere "kend-din-kunde"-politikker for at forhindre personer eller lande, der giver anledning til bekymring, i at komme uden om eksportrestriktioner.

Denne form for synlighed er værdifuld, bemærker forskerne, da det kunne hjælpe med at undgå endnu et våbenkapløb, som det, der blev udløst af kontroversen om missilgabet, hvor fejlagtige rapporter førte til massiv opbygning af ballistiske missiler. Selvom det er værdifuldt, advarer de om, at udførelsen af ​​disse rapporteringskrav risikerer at invadere kundernes privatliv og endda føre til, at følsomme data bliver lækket.

I mellemtiden, på handelsfronten, har handelsafdelingen fortsat blive bedre restriktioner, hvilket begrænser ydeevnen af ​​acceleratorer solgt til Kina. Men, som vi tidligere har rapporteret, mens disse bestræbelser har gjort det sværere for lande som Kina at få fingrene i amerikanske chips, er de langt fra perfekte.

For at imødegå disse begrænsninger har forskerne foreslået at implementere et globalt register for salg af AI-chips, der vil spore dem i løbet af deres livscyklus, selv efter at de har forladt deres oprindelsesland. Et sådant register, foreslår de, kunne inkorporere en unik identifikator i hver chip, hvilket kunne hjælpe med at bekæmpe smugling af komponenter.

I den mere ekstreme ende af spektret har forskere foreslået, at kill-switches kunne bages ind i siliciumet for at forhindre deres brug i ondsindede applikationer.

I teorien kunne dette tillade regulatorer at reagere hurtigere på misbrug af følsomme teknologier ved at afskære adgangen til chips eksternt, men forfatterne advarer om, at det ikke er uden risiko. Implikationen er, hvis den implementeres forkert, at en sådan kill-switch kan blive et mål for cyberkriminelle.

Et andet forslag ville kræve, at flere parter melder sig ud på potentielt risikable AI-træningsopgaver, før de kan implementeres i stor skala. "Atomvåben bruger lignende mekanismer kaldet permissive action links," skrev de.

Til atomvåben er disse sikkerhedslåse designet til at forhindre én person i at blive slyngel og igangsætte et første angreb. For AI er ideen imidlertid, at hvis en person eller virksomhed ønsker at træne en model over en bestemt tærskel i skyen, skal de først have tilladelse til at gøre det.

Selvom det er et potent værktøj, observerer forskerne, at dette kan give bagslag ved at forhindre udviklingen af ​​ønskværdig AI. Argumentet ser ud til at være, at selvom brugen af ​​atomvåben har et ret entydigt resultat, er kunstig intelligens ikke altid så sort/hvid.

Men hvis dette føles lidt for dystopisk til din smag, dedikerer papiret et helt afsnit til at omfordele AI-ressourcer til forbedring af samfundet som helhed. Ideen er, at politiske beslutningstagere kunne gå sammen for at gøre AI-beregning mere tilgængelig for grupper, der sandsynligvis ikke vil bruge det til det onde, et koncept, der beskrives som "allokering".

Hvad er der galt med at regulere AI-udvikling?

Hvorfor gøre alt dette besvær? Tja, avisens forfattere hævder, at fysisk hardware i sagens natur er nemmere at kontrollere.

Sammenlignet med hardware er "andre input og output af AI-udvikling - data, algoritmer og trænede modeller - let delbare, ikke-rivaliserende immaterielle varer, hvilket gør dem i sagens natur vanskelige at kontrollere," lyder avisen.

Argumentet er, at når først en model er offentliggjort, enten i det fri eller lækket, er der ingen mulighed for at putte ånden tilbage i flasken og stoppe dens spredning over nettet.

Forskere fremhævede også, at bestræbelserne på at forhindre misbrug af modeller har vist sig at være upålidelige. I et eksempel fremhævede forfatterne den lethed, hvormed forskere var i stand til at afmontere sikkerhedsforanstaltninger i Metas Llama 2, der skulle forhindre modellen i at generere stødende sprog.

Taget til det yderste frygtes det, at en tilstrækkeligt avanceret model med dobbelt anvendelse kunne bruges til at accelerere udvikling af kemiske eller biologiske våben.

Papiret indrømmer, at AI-hardwareregulering ikke er en sølvkugle og ikke eliminerer behovet for regulering i andre aspekter af industrien.

Deltagelsen af ​​flere OpenAI-forskere er dog svær at ignorere i betragtning af CEO Sam Altmans Forsøg på at styre fortællingen omkring AI-regulering. ®

Tidsstempel:

Mere fra Registret