Tehisintellekti reguleerimiseks alustage riistvarast, väidavad boffinid

Tehisintellekti reguleerimiseks alustage riistvarast, väidavad boffinid

To regulate AI, start with hardware, boffins argue PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Meie püüdlustes piirata tehisintellekti hävitavat potentsiaali, on Cambridge'i ülikooli uues artiklis soovitatud kasutada kaugjuhtimislüliteid ja lukustusi, nagu need, mis on välja töötatud tuumarelvade volitamata käivitamise peatamiseks, seda toitega riistvarasse.

Paber [pDF], mis sisaldab hääli paljudest akadeemilistest institutsioonidest ja mitmest OpenAI-st, näitab, et riistvara reguleerimine, millele need mudelid tuginevad, võib olla parim viis selle väärkasutamise vältimiseks.

"AI-ga seotud arvutus on eriti tõhus sekkumispunkt: see on tuvastatav, välistatav ja mõõdetav ning seda toodetakse äärmiselt kontsentreeritud tarneahela kaudu," väidavad teadlased.

Kõige viljakamate mudelite koolitamine, mis arvatavasti ületab triljonit parameetrit, nõuab tohutut füüsilist infrastruktuuri: kümneid tuhandeid GPU-sid või kiirendeid ja nädalate või isegi kuude pikkust töötlemisaega. See muudab teadlaste sõnul nende ressursside olemasolu ja suhtelise toimivuse raskeks varjata.

Veelgi enam, kõige arenenumaid kiipe, mida nende mudelite koolitamiseks kasutatakse, toodab suhteliselt väike arv ettevõtteid, nagu Nvidia, AMD ja Intel, mis võimaldab poliitikakujundajatel piirata nende kaupade müüki muret tekitavatele isikutele või riikidele.

Need tegurid, nagu ka tarneahela piirangud pooljuhtide tootmisel, pakuvad poliitikakujundajatele vahendeid, et paremini mõista, kuidas ja kus tehisintellekti taristut kasutatakse, kellel on ja kellel ei ole lubatud sellele juurde pääseda, ning jõustada karistusi selle väärkasutuse eest, väidab leht. .

Infrastruktuuri juhtimine

Dokumendis tuuakse esile mitmeid viise, kuidas poliitikakujundajad võivad läheneda tehisintellekti riistvara reguleerimisele. Paljud soovitused – sealhulgas need, mis on mõeldud nähtavuse parandamiseks ja tehisintellekti kiirendite müügi piiramiseks – on juba riiklikul tasandil välja töötatud.

Eelmisel aastal tegi USA president Joe Biden ettepaneku täitevvõimu mille eesmärk on tuvastada ettevõtteid, kes arendavad suuri kahesuguse kasutusega tehisintellekti mudeleid, ja infrastruktuuri tarnijaid, kes on selleks võimelised neid koolitada. Kui te pole tuttav, viitab "kahesuguse kasutusega" tehnoloogiatele, mis võivad tsiviil- ja sõjalistes rakendustes täita topeltülesandeid.

Hiljuti USA kaubandusministeerium pakutud määrus, mis nõuaks Ameerika pilveteenuse pakkujatelt rangemate „tunne oma klienti” poliitikat, et takistada isikutel või riikidel ekspordipiirangutest mööda hiilimast.

Teadlased märgivad, et selline nähtavus on väärtuslik, kuna see võib aidata vältida järjekordset võidurelvastumist, nagu rakettide lõhe tekitatud vaidlus, kus ekslikud teated tõid kaasa massilise ballistiliste rakettide kogunemise. Kuigi need on väärtuslikud, hoiatavad nad, et nende aruandlusnõuete täitmine võib kahjustada klientide privaatsust ja viia isegi tundlike andmete lekkimiseni.

Samal ajal on kaubandusministeerium jätkanud kaubanduse rindel astu üles piiranguid, mis piiravad Hiinasse müüdavate kiirendite jõudlust. Kuid nagu oleme varem teatanud, on need jõupingutused muutnud selliste riikide jaoks nagu Hiina Ameerika kiipide kättesaamise raskemaks, kuid need pole kaugeltki täiuslikud.

Nende piirangute kõrvaldamiseks on teadlased teinud ettepaneku luua AI-kiipide müügi ülemaailmne register, mis jälgiks neid kogu nende elutsükli jooksul isegi pärast seda, kui nad on oma päritoluriigist lahkunud. Selline register võiks nende arvates lisada igasse kiibi kordumatu identifikaatori, mis võib aidata võidelda salakaubandus komponentidest.

Spektri äärmuslikumas otsas on teadlased oletanud, et tapmislülitid võiks räni sisse panna, et vältida nende kasutamist pahatahtlikes rakendustes.

Teoreetiliselt võib see võimaldada reguleerivatel asutustel kiiremini reageerida tundlike tehnoloogiate kuritarvitamisele, katkestades kaugjuurdepääsu kiipidele, kuid autorid hoiatavad, et see ei ole riskivaba. Vale rakendamise korral võib selline tapmislüliti saada küberkurjategijate sihtmärgiks.

Teine ettepanek nõuaks, et mitu osapoolt allkirjastaks potentsiaalselt riskantsete tehisintellekti koolitusülesannete, enne kui neid saab ulatuslikult kasutusele võtta. "Tuumarelvad kasutavad sarnaseid mehhanisme, mida nimetatakse lubavateks tegevuslülideks," kirjutasid nad.

Tuumarelvade jaoks on need turvalukud mõeldud selleks, et takistada ühel inimesel võltsimist ja esimest rünnakut. Tehisintellekti puhul on aga idee selles, et kui üksikisik või ettevõte soovib pilves teatud künnist ületavat mudelit koolitada, peab ta esmalt saama selleks loa.

Kuigi see on võimas tööriist, märgivad teadlased, et see võib anda tagasilöögi, takistades soovitava AI arengut. Argumendiks näib olevat see, et kuigi tuumarelvade kasutamisel on üsna selge tulemus, ei ole AI alati nii must-valge.

Kuid kui see tundub teie maitse jaoks liiga düstoopiline, pühendab leht terve osa tehisintellekti ressursside ümberjagamisele ühiskonna kui terviku paremaks muutmiseks. Idee seisneb selles, et poliitikakujundajad võiksid kokku tulla, et muuta tehisintellekti arvutamine kättesaadavamaks rühmadele, kes tõenäoliselt seda kurja jaoks ei kasuta. Seda mõistet kirjeldatakse kui "eraldumist".

Mis on AI arengu reguleerimises valesti?

Milleks seda vaeva näha? Noh, paberi autorid väidavad, et füüsilist riistvara on oma olemuselt lihtsam juhtida.

Võrreldes riistvaraga, on AI arenduse muud sisendid ja väljundid – andmed, algoritmid ja koolitatud mudelid – kergesti jagatavad, mitterivaalitsevad immateriaalsed kaubad, mis muudab nende kontrollimise oma olemuselt keeruliseks.

Argument seisneb selles, et kui mudel on avalikult avaldatud või lekkinud, ei saa džinni pudelisse tagasi panna ega peatada selle levikut üle võrgu.

Teadlased rõhutasid ka, et mudelite väärkasutamise ennetamine on osutunud ebausaldusväärseks. Ühes näites tõid autorid esile, kui hõlpsalt suutsid teadlased Meta's Llama 2 kaitsemeetmeid lahti võtta, et takistada mudelil solvava keele tekitamist.

Äärmuslikult võttes võib kardetavasti kasutada piisavalt arenenud kahesuguse kasutusega mudelit, et kiirendada areng keemia- või bioloogiliste relvadega.

Dokumendis mööntakse, et tehisintellekti riistvara reguleerimine ei ole tühine täpp ega kõrvalda vajadust reguleerimise järele tööstuse muudes aspektides.

Mitme OpenAI teadlase osalust on aga tegevjuht Sam Altmani silmas pidades raske ignoreerida Püüab AI reguleerimise narratiivi kontrollimiseks. ®

Ajatempel:

Veel alates Register