Tekoälyn säätelemiseksi aloita laitteistosta, boffins väittävät

Tekoälyn säätelemiseksi aloita laitteistosta, boffins väittävät

Jos haluat säädellä tekoälyä, aloita laitteistosta, Boffin väittää PlatoBlockchain Data Intelligencen. Pystysuuntainen haku. Ai.

Pyrkiessämme rajoittamaan tekoälyn tuhoisaa potentiaalia, uusi Cambridgen yliopiston paperi on ehdottanut etätappamiskytkimien ja -sulkujen käyttöä, kuten ne, jotka on kehitetty estämään luvaton ydinaseiden laukaisu, sitä käyttävään laitteistoon.

Paperi [PDF], joka sisältää ääniä lukuisista akateemisista instituutioista ja useista OpenAI:sta, osoittaa, että näiden mallien tukeman laitteiston säätely voi olla paras tapa estää sen väärinkäyttö.

"Tekoälyyn liittyvä laskenta on erityisen tehokas interventiopiste: se on havaittavissa, poissuljettavissa ja kvantifioitavissa, ja se tuotetaan erittäin keskittyneen toimitusketjun kautta", tutkijat väittävät.

Tuotteliaisimpien mallien, joiden uskotaan ylittävän biljoona parametria, kouluttaminen vaatii valtavaa fyysistä infrastruktuuria: kymmeniä tuhansia GPU:ita tai kiihdyttimiä ja viikkoja tai jopa kuukausia käsittelyaikaa. Tämän vuoksi näiden resurssien olemassaolo ja suhteellinen suorituskyky on tutkijoiden mukaan vaikea piilottaa.

Lisäksi edistyneimmät sirut, joita käytetään näiden mallien koulutukseen, on valmistanut suhteellisen pieni määrä yrityksiä, kuten Nvidia, AMD ja Intel, jolloin päätöksentekijät voivat rajoittaa näiden tavaroiden myyntiä henkilöille tai maille, joita asia koskee.

Nämä tekijät, kuten muut, kuten puolijohteiden valmistuksen toimitusketjun rajoitukset, tarjoavat päätöksentekijöille keinot ymmärtää paremmin, miten ja missä tekoälyinfrastruktuuria käytetään, kuka saa ja ei saa käyttää sitä, ja määräävät rangaistuksia sen väärinkäytöstä, paperi väittää. .

Infrastruktuurin hallinta

Paperi korostaa lukuisia tapoja, joilla päätöksentekijät voivat lähestyä tekoälylaitteiston sääntelyä. Monet ehdotuksista – mukaan lukien ne, jotka on suunniteltu parantamaan näkyvyyttä ja rajoittamaan tekoälykiihdyttimien myyntiä – ovat jo käytössä kansallisella tasolla.

Viime vuonna Yhdysvaltain presidentti Joe Biden esitti toimeenpaneva määräys Tavoitteena on tunnistaa suuria kaksikäyttöisiä tekoälymalleja kehittäviä yrityksiä sekä niihin kykenevät infrastruktuuritoimittajat kouluttaa niitä. Jos et ole perehtynyt, "kaksoiskäyttö" tarkoittaa teknologioita, jotka voivat palvella kaksinkertaisesti siviili- ja sotilassovelluksissa.

Viime aikoina Yhdysvaltain kauppaministeriö ehdotettu asetus, joka vaatisi amerikkalaisia ​​pilvipalveluntarjoajia ottamaan käyttöön tiukempia "tunte-asiakas" -käytäntöjä estääkseen huolta aiheuttavia henkilöitä tai maita kiertämästä vientirajoituksia.

Tällainen näkyvyys on arvokasta, tutkijat huomauttavat, koska se voisi auttaa välttämään toisen asevarustelun, kuten ohjusvälikiistan laukaiseman kilpailun, jossa virheelliset raportit johtivat massiiviseen ballististen ohjusten kertymiseen. Vaikka se on arvokasta, he varoittavat, että näiden raportointivaatimusten noudattaminen voi loukata asiakkaiden yksityisyyttä ja jopa johtaa arkaluonteisten tietojen vuotamiseen.

Samaan aikaan kaupan rintamalla kauppaministeriö on jatkanut astua rajoituksia, jotka rajoittavat Kiinaan myytävien kiihdyttimien suorituskykyä. Mutta kuten olemme aiemmin raportoineet, vaikka nämä ponnistelut ovat tehneet Kiinan kaltaisten maiden vaikeuksia saada käsiinsä amerikkalaisia ​​pelimerkkejä, ne ovat kaukana täydellisyydestä.

Näiden rajoitusten korjaamiseksi tutkijat ovat ehdottaneet maailmanlaajuisen AI-sirujen myyntirekisterin käyttöönottoa, joka jäljittäisi niitä heidän elinkaarensa aikana, jopa sen jälkeen, kun he ovat lähteneet kotimaastaan. He ehdottavat, että tällainen rekisteri voisi sisällyttää jokaiseen siruun yksilöllisen tunnisteen, mikä voisi auttaa torjumaan salakuljetus komponenteista.

Spektrin äärimmäisemmässä päässä tutkijat ovat ehdottaneet, että piikytkimet voitaisiin leipoa piin sisään niiden käytön estämiseksi haitallisissa sovelluksissa.

Teoriassa tämä voisi antaa sääntelijöille mahdollisuuden reagoida nopeammin herkkien tekniikoiden väärinkäyttöön katkaisemalla sirujen etäkäyttö, mutta kirjoittajat varoittavat, että tämä ei ole riskitöntä. Seurauksena on, että jos se toteutetaan väärin, tällaisesta tappamiskytkimestä voi tulla kyberrikollisten kohde.

Toinen ehdotus edellyttäisi, että useat osapuolet allekirjoittavat mahdollisesti riskialttiita tekoälyn koulutustehtäviä ennen kuin ne voidaan ottaa käyttöön laajassa mittakaavassa. "Ydinaseet käyttävät samanlaisia ​​mekanismeja, joita kutsutaan salliviksi toimintalinkeiksi", he kirjoittivat.

Ydinaseita varten nämä turvalukot on suunniteltu estämään yhtä henkilöä tekemästä roistoa ja käynnistämästä ensimmäistä iskua. Tekoälyn ajatuksena on kuitenkin se, että jos henkilö tai yritys haluaa kouluttaa mallin tietyn kynnyksen yli pilvessä, heidän on ensin hankittava siihen lupa.

Vaikka se onkin tehokas työkalu, tutkijat havaitsevat, että tämä voi kostautua estämällä halutun tekoälyn kehittymisen. Argumentti näyttää olevan se, että vaikka ydinaseiden käytöllä on melko selkeä lopputulos, tekoäly ei aina ole niin mustavalkoinen.

Mutta jos tämä tuntuu hieman liian dystopiselta makuusi, paperi omistaa kokonaisen osan tekoälyresurssien uudelleen jakamiseen koko yhteiskunnan parantamiseksi. Ajatuksena on, että poliittiset päättäjät voisivat kokoontua tekemään tekoälylaskennasta helpommin saatavilla ryhmille, jotka eivät todennäköisesti käytä sitä pahaan, käsitettä kutsutaan "allokaatioksi".

Mitä vikaa tekoälykehityksen säätelyssä on?

Miksi vaivautua tähän kaikkeen? No, paperin kirjoittajat väittävät, että fyysistä laitteistoa on luonnostaan ​​helpompi hallita.

Laitteisiin verrattuna "muut tekoälykehityksen syötteet ja lähdöt - data, algoritmit ja koulutetut mallit - ovat helposti jaettavia, ei-kilpailevia aineettomia hyödykkeitä, mikä tekee niistä luonnostaan ​​vaikeasti hallittavissa", lehdessä lukee.

Argumentti on se, että kun malli on julkaistu, joko avoimena tai vuotaneena, ei ole olemassa genien laittamista takaisin pulloon ja sen leviämisen estämistä verkossa.

Tutkijat korostivat myös, että pyrkimykset estää mallien väärinkäyttö ovat osoittautuneet epäluotettavaksi. Yhdessä esimerkissä kirjoittajat korostivat sitä, kuinka helposti tutkijat pystyivät purkamaan Meta's Llama 2:n suojalaitteet, joiden tarkoituksena oli estää mallia luomasta loukkaavaa kieltä.

Äärimmäisyyteen otettuna pelätään, että riittävän kehittynyttä kaksikäyttömallia voitaisiin käyttää nopeuttamaan kehitys kemiallisia tai biologisia aseita.

Paperi myöntää, että tekoälylaitteistosääntely ei ole hopealuoti eikä poista sääntelyn tarvetta alan muilla osa-alueilla.

Useiden OpenAI-tutkijoiden osallistumista on kuitenkin vaikea sivuuttaa, kun otetaan huomioon toimitusjohtaja Sam Altman yrityksiä ohjata tekoälyn säätelyä koskevaa narratiivia. ®

Aikaleima:

Lisää aiheesta Rekisteri