Om AI te reguleren, begin je met hardware, betogen techneuten

Om AI te reguleren, begin je met hardware, betogen techneuten

Om AI te reguleren, begin je met hardware, betogen techneuten PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

In onze zoektocht om het destructieve potentieel van kunstmatige intelligentie te beperken, heeft een nieuw artikel van de Universiteit van Cambridge voorgesteld om op afstand gelegen kill-schakelaars en lock-outs, zoals die zijn ontwikkeld om de ongeoorloofde lancering van kernwapens te stoppen, in te bouwen in de hardware die deze aandrijft.

De krant [PDF], met stemmen van talloze academische instellingen en verschillende van OpenAI, stelt dat het reguleren van de hardware waarop deze modellen vertrouwen de beste manier kan zijn om misbruik ervan te voorkomen.

“AI-relevante rekenkracht is een bijzonder effectief interventiepunt: het is detecteerbaar, uitsluitbaar en kwantificeerbaar, en wordt geproduceerd via een extreem geconcentreerde toeleveringsketen”, beweren de onderzoekers.

Het trainen van de meest productieve modellen, waarvan wordt aangenomen dat ze een biljoen parameters overschrijden, vereist een enorme fysieke infrastructuur: tienduizenden GPU's of versnellers en weken of zelfs maanden aan verwerkingstijd. Dit, zo zeggen de onderzoekers, maakt het bestaan ​​en de relatieve prestaties van deze hulpbronnen moeilijk te verbergen.

Bovendien worden de meest geavanceerde chips die worden gebruikt om deze modellen te trainen geproduceerd door een relatief klein aantal bedrijven, zoals Nvidia, AMD en Intel, waardoor beleidsmakers de verkoop van deze goederen aan personen of landen van zorg kunnen beperken.

Deze factoren, samen met andere factoren, zoals beperkingen in de toeleveringsketen van de productie van halfgeleiders, bieden beleidsmakers de middelen om beter te begrijpen hoe en waar AI-infrastructuur wordt ingezet, wie er wel en niet toegang toe heeft, en om straffen op te leggen voor misbruik ervan, stelt de krant. .

Het beheersen van de infrastructuur

Het artikel belicht talloze manieren waarop beleidsmakers de regulering van AI-hardware kunnen benaderen. Veel van de suggesties – inclusief de suggesties die bedoeld zijn om de zichtbaarheid te verbeteren en de verkoop van AI-versnellers te beperken – spelen al op nationaal niveau.

Vorig jaar kwam de Amerikaanse president Joe Biden met een voorstel uitvoerende orde gericht op het identificeren van bedrijven die grote AI-modellen voor tweeërlei gebruik ontwikkelen, evenals de leveranciers van infrastructuur die daartoe in staat zijn ze trainen. Als u niet bekend bent: 'dual-use' verwijst naar technologieën die een dubbele functie kunnen vervullen in civiele en militaire toepassingen.

Meer recentelijk het Amerikaanse ministerie van Handel voorgestelde regelgeving die Amerikaanse cloudproviders zou verplichten een strenger ‘ken-uw-klant’-beleid te implementeren om te voorkomen dat personen of landen van zorg de exportbeperkingen omzeilen.

Dit soort zichtbaarheid is waardevol, merken onderzoekers op, omdat het zou kunnen helpen een nieuwe wapenwedloop te voorkomen, zoals die veroorzaakt door de controverse over de raketkloof, waarbij foutieve rapporten leidden tot de massale opbouw van ballistische raketten. Hoewel waardevol, waarschuwen ze dat het uitvoeren van deze rapportagevereisten het risico inhoudt dat de privacy van klanten wordt geschonden en zelfs kan leiden tot het lekken van gevoelige gegevens.

Ondertussen is het ministerie van Handel op handelsgebied doorgegaan met dit beleid opvoeren beperkingen, waardoor de prestaties van versnellers die aan China worden verkocht, worden beperkt. Maar, zoals we eerder hebben gemeld, hoewel deze inspanningen het voor landen als China moeilijker hebben gemaakt om Amerikaanse chips in handen te krijgen, zijn ze verre van perfect.

Om deze beperkingen aan te pakken, hebben de onderzoekers voorgesteld een mondiaal register voor de verkoop van AI-chips te implementeren, waarmee ze gedurende hun hele levenscyclus kunnen worden gevolgd, zelfs nadat ze hun land van herkomst hebben verlaten. Zo'n register, zo suggereren zij, zou in elke chip een unieke identificatie kunnen inbouwen, wat zou kunnen helpen bij de bestrijding ervan smokkelen van componenten.

Aan de extremere kant van het spectrum hebben onderzoekers gesuggereerd dat kill-schakelaars in het silicium kunnen worden ingebouwd om het gebruik ervan in kwaadaardige toepassingen te voorkomen.

In theorie zou dit ervoor kunnen zorgen dat toezichthouders sneller kunnen reageren op misbruik van gevoelige technologieën door de toegang tot chips op afstand af te sluiten, maar de auteurs waarschuwen dat dit niet zonder risico is. De implicatie is dat, indien verkeerd geïmplementeerd, een dergelijke ‘kill switch’ een doelwit zou kunnen worden voor cybercriminelen.

Een ander voorstel zou vereisen dat meerdere partijen potentieel risicovolle AI-trainingstaken ondertekenen voordat deze op grote schaal kunnen worden ingezet. “Kernwapens maken gebruik van soortgelijke mechanismen die permissieve actiekoppelingen worden genoemd”, schreven ze.

Voor kernwapens zijn deze veiligheidssloten ontworpen om te voorkomen dat één persoon een schurkenstaat wordt en een eerste aanval uitvoert. Voor AI is het idee echter dat als een individu of bedrijf een model over een bepaalde drempel in de cloud wil trainen, zij daarvoor eerst toestemming moeten krijgen.

Hoewel dit een krachtig hulpmiddel is, constateren de onderzoekers dat dit averechts kan werken doordat het de ontwikkeling van gewenste AI kan belemmeren. Het argument lijkt te zijn dat hoewel het gebruik van kernwapens een vrij duidelijke uitkomst heeft, AI niet altijd zo zwart-wit is.

Maar als dit naar uw smaak een beetje te dystopisch aanvoelt, wijdt de krant een hele sectie aan het herverdelen van AI-middelen ten behoeve van de verbetering van de samenleving als geheel. Het idee is dat beleidsmakers samen zouden kunnen komen om AI-computing toegankelijker te maken voor groepen die het waarschijnlijk niet voor kwaad zullen gebruiken, een concept dat wordt beschreven als ‘allocatie’.

Wat is er mis met het reguleren van de ontwikkeling van AI?

Waarom al deze moeite doen? Welnu, de auteurs van het artikel stellen dat fysieke hardware inherent gemakkelijker te controleren is.

Vergeleken met hardware zijn “andere inputs en outputs van AI-ontwikkeling – data, algoritmen en getrainde modellen – gemakkelijk deelbare, niet-rivaliserende immateriële goederen, waardoor ze inherent moeilijk te controleren zijn”, aldus de krant.

Het argument is dat als een model eenmaal openbaar is gemaakt of is gelekt, er geen mogelijkheid meer is om de geest terug in de fles te stoppen en de verspreiding ervan over het net te stoppen.

Onderzoekers benadrukten ook dat pogingen om misbruik van modellen te voorkomen onbetrouwbaar zijn gebleken. In één voorbeeld benadrukten de auteurs het gemak waarmee onderzoekers beveiligingen in Meta's Llama 2 konden ontmantelen die bedoeld waren om te voorkomen dat het model aanstootgevend taalgebruik zou genereren.

Tot het uiterste doorgevoerd wordt gevreesd dat een voldoende geavanceerd model voor tweeërlei gebruik zou kunnen worden gebruikt om de ontwikkeling te versnellen ontwikkeling van chemische of biologische wapens.

Het artikel geeft toe dat regulering van AI-hardware geen wondermiddel is en de noodzaak van regulering in andere aspecten van de industrie niet wegneemt.

De deelname van verschillende OpenAI-onderzoekers is echter moeilijk te negeren, gezien die van CEO Sam Altman pogingen om het verhaal rond AI-regulering te beheersen. ®

Tijdstempel:

Meer van Het register