Pentru a reglementa AI, începeți cu hardware-ul, susțin boffins

Pentru a reglementa AI, începeți cu hardware-ul, susțin boffins

Pentru a reglementa AI, începeți cu hardware-ul, susțin boffins PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

În încercarea noastră de a limita potențialul distructiv al inteligenței artificiale, o nouă lucrare de la Universitatea din Cambridge a sugerat introducerea întrerupătoarelor și blocajelor de la distanță, precum cele dezvoltate pentru a opri lansarea neautorizată a armelor nucleare, în hardware-ul care o alimentează.

Hârtia [PDF], care include voci de la numeroase instituții academice și mai multe de la OpenAI, susține că reglementarea hardware-ului pe care se bazează aceste modele poate fi cea mai bună modalitate de a preveni utilizarea greșită a acestuia.

„Calculul relevant pentru AI este un punct de intervenție deosebit de eficient: este detectabil, exclusibil și cuantificabil și este produs printr-un lanț de aprovizionare extrem de concentrat”, susțin cercetătorii.

Antrenarea celor mai prolifice modele, despre care se crede că depășesc un trilion de parametri, necesită o infrastructură fizică imensă: zeci de mii de GPU-uri sau acceleratoare și săptămâni sau chiar luni de timp de procesare. Acest lucru, spun cercetătorii, face ca existența și performanța relativă a acestor resurse să fie greu de ascuns.

În plus, cele mai avansate cipuri utilizate pentru antrenarea acestor modele sunt produse de un număr relativ mic de companii, precum Nvidia, AMD și Intel, permițând factorilor de decizie să restricționeze vânzarea acestor bunuri către persoane sau țări de interes.

Acești factori, împreună cu alții, cum ar fi constrângerile lanțului de aprovizionare asupra producției de semiconductori, oferă factorilor de decizie mijloacele de a înțelege mai bine cum și unde este implementată infrastructura AI, cine are și cine nu are voie să o acceseze și să impună sancțiuni pentru utilizarea greșită a acesteia, susține lucrarea. .

Controlul infrastructurii

Lucrarea evidențiază numeroase moduri în care factorii de decizie pot aborda reglementarea hardware-ului AI. Multe dintre sugestii – inclusiv cele menite să îmbunătățească vizibilitatea și să limiteze vânzarea acceleratoarelor AI – sunt deja difuzate la nivel național.

Anul trecut, președintele american Joe Biden a prezentat un ordin executiv care vizează identificarea companiilor care dezvoltă modele mari de inteligență artificială cu dublă utilizare, precum și a furnizorilor de infrastructură capabili antrenându-i. Dacă nu sunteți familiarizat, „utilizare dublă” se referă la tehnologiile care pot îndeplini sarcini duble în aplicații civile și militare.

Mai recent, Departamentul de Comerț al SUA propus reglementare care ar cere furnizorilor americani de cloud să implementeze politici mai stricte de „cunoaștere a clientului” pentru a preveni persoanele sau țările de interes să evite restricțiile la export.

Acest tip de vizibilitate este valoros, notează cercetătorii, deoarece ar putea ajuta la evitarea unei alte curse înarmărilor, cum ar fi cea declanșată de controversa decalajului rachetelor, unde rapoartele eronate au condus la acumularea masivă de rachete balistice. Deși sunt valoroase, ei avertizează că executarea acestor cerințe de raportare riscă să invadeze confidențialitatea clienților și chiar să conducă la scurgeri de date sensibile.

Între timp, pe frontul comercial, Departamentul de Comerț a continuat să o facă intensifică-te restricții, limitând performanța acceleratoarelor vândute Chinei. Dar, așa cum am raportat anterior, în timp ce aceste eforturi au îngreunat țări precum China să pună mâna pe jetoane americane, acestea sunt departe de a fi perfecte.

Pentru a aborda aceste limitări, cercetătorii au propus implementarea unui registru global pentru vânzările de cipuri AI care să le urmărească pe parcursul ciclului lor de viață, chiar și după ce au părăsit țara de origine. Un astfel de registru, sugerează ei, ar putea încorpora un identificator unic în fiecare cip, care ar putea ajuta la combatere contrabandă a componentelor.

La capătul mai extrem al spectrului, cercetătorii au sugerat că întrerupătoarele de oprire ar putea fi coapte în siliciu pentru a preveni utilizarea lor în aplicații rău intenționate.

În teorie, acest lucru ar putea permite autorităților de reglementare să răspundă mai rapid la abuzurile tehnologiilor sensibile prin întreruperea accesului la cipuri de la distanță, dar autorii avertizează că acest lucru nu este lipsit de riscuri. Implicația este, dacă este implementată incorect, că un astfel de kill switch ar putea deveni o țintă pentru infractorii cibernetici.

O altă propunere ar cere ca mai multe părți să aprobe sarcinile de instruire AI potențial riscante înainte de a putea fi implementate la scară. „Armele nucleare folosesc mecanisme similare numite legături de acțiune permisivă”, au scris ei.

Pentru armele nucleare, aceste încuietori de securitate sunt concepute pentru a împiedica o persoană să devină necinstită și să lanseze o primă lovitură. Cu toate acestea, pentru AI, ideea este că, dacă o persoană sau o companie ar dori să antreneze un model peste un anumit prag în cloud, ar trebui mai întâi să obțină autorizație pentru a face acest lucru.

Deși este un instrument puternic, cercetătorii observă că acest lucru s-ar putea inversa prin prevenirea dezvoltării IA de dorit. Argumentul pare să fie că, în timp ce utilizarea armelor nucleare are un rezultat destul de clar, AI nu este întotdeauna atât de alb-negru.

Dar dacă acest lucru vi se pare puțin prea distopic pentru gusturile dvs., lucrarea dedică o întreagă secțiune realocării resurselor AI pentru îmbunătățirea societății în ansamblu. Ideea este că factorii de decizie politică s-ar putea reuni pentru a face calcularea AI mai accesibilă pentru grupurile care este puțin probabil să o folosească pentru rău, un concept descris ca „alocare”.

Ce este în neregulă cu reglementarea dezvoltării AI?

De ce să mergi la toate aceste probleme? Ei bine, autorii lucrării presupun că hardware-ul fizic este în mod inerent mai ușor de controlat.

În comparație cu hardware, „alte intrări și ieșiri ale dezvoltării AI – date, algoritmi și modele antrenate – sunt bunuri intangibile care nu sunt rivale, ușor de partajat, ceea ce le face în mod inerent dificil de controlat”, se arată în lucrare.

Argumentul fiind că, odată ce un model este publicat, fie în aer liber, fie scurs, nu se mai pune geniu înapoi în sticlă și nu se oprește răspândirea lui pe net.

Cercetătorii au subliniat, de asemenea, că eforturile de prevenire a utilizării greșite a modelelor s-au dovedit nesigure. Într-un exemplu, autorii au evidențiat ușurința cu care cercetătorii au reușit să demonteze garanțiile din Llama 2 a lui Meta menite să împiedice modelul să genereze un limbaj ofensator.

Dus la extrem, se teme că ar putea fi folosit un model cu dublă utilizare suficient de avansat pentru a accelera dezvoltare a armelor chimice sau biologice.

Lucrarea admite că reglementarea hardware AI nu este un glonț de argint și nu elimină nevoia de reglementare în alte aspecte ale industriei.

Cu toate acestea, participarea mai multor cercetători OpenAI este greu de ignorat, având în vedere cea a CEO-ului Sam Altman Încercările pentru a controla narațiunea în jurul reglementării AI. ®

Timestamp-ul:

Mai mult de la Registrul