Pour réguler l’IA, commencez par le matériel, affirment les boffins

Pour réguler l’IA, commencez par le matériel, affirment les boffins

Pour réguler l’IA, commencez par le matériel, affirment les experts de PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Dans notre quête pour limiter le potentiel destructeur de l’intelligence artificielle, un nouvel article de l’Université de Cambridge suggère d’intégrer des interrupteurs d’arrêt et des verrouillages à distance, comme ceux développés pour arrêter le lancement non autorisé d’armes nucléaires, dans le matériel qui l’alimente.

Le papier [PDF], qui comprend les voix de nombreuses institutions universitaires et plusieurs d'OpenAI, fait valoir que la réglementation du matériel sur lequel reposent ces modèles peut être le meilleur moyen d'empêcher son utilisation abusive.

"Le calcul lié à l'IA est un point d'intervention particulièrement efficace : il est détectable, excluable et quantifiable, et est produit via une chaîne d'approvisionnement extrêmement concentrée", affirment les chercheurs.

La formation des modèles les plus prolifiques, censés dépasser un billion de paramètres, nécessite une immense infrastructure physique : des dizaines de milliers de GPU ou d'accélérateurs et des semaines, voire des mois, de temps de traitement. Selon les chercheurs, cela rend difficile la dissimulation de l’existence et des performances relatives de ces ressources.

De plus, les puces les plus avancées utilisées pour former ces modèles sont produites par un nombre relativement restreint d'entreprises, comme Nvidia, AMD et Intel, ce qui permet aux décideurs politiques de restreindre la vente de ces produits aux personnes ou aux pays concernés.

Ces facteurs, ainsi que d'autres comme les contraintes de la chaîne d'approvisionnement sur la fabrication de semi-conducteurs, offrent aux décideurs politiques les moyens de mieux comprendre comment et où l'infrastructure d'IA est déployée, qui est et n'est pas autorisé à y accéder, et d'imposer des sanctions en cas d'utilisation abusive, affirme le document. .

Contrôler les infrastructures

Le document met en évidence de nombreuses façons dont les décideurs politiques pourraient aborder la réglementation du matériel d’IA. De nombreuses suggestions – y compris celles visant à améliorer la visibilité et à limiter la vente des accélérateurs d’IA – sont déjà mises en œuvre au niveau national.

L’année dernière, le président américain Joe Biden a proposé une commande exécutive visant à identifier les entreprises développant de grands modèles d'IA à double usage ainsi que les fournisseurs d'infrastructures capables de les former. Si vous n'êtes pas familier, le terme « double usage » fait référence aux technologies qui peuvent remplir une double fonction dans des applications civiles et militaires.

Plus récemment, le Département américain du Commerce proposé une réglementation qui obligerait les fournisseurs de cloud américains à mettre en œuvre des politiques de « connaissance du client » plus strictes pour empêcher les personnes ou les pays préoccupants de contourner les restrictions à l’exportation.

Ce type de visibilité est précieux, notent les chercheurs, car il pourrait contribuer à éviter une nouvelle course aux armements, comme celle déclenchée par la controverse sur l’écartement des missiles, où des rapports erronés ont conduit à une accumulation massive de missiles balistiques. Bien que précieux, ils préviennent que le respect de ces exigences en matière de reporting risque de porter atteinte à la vie privée des clients et même de conduire à une fuite de données sensibles.

Pendant ce temps, sur le front commercial, le Département du Commerce a continué à intensifier restrictions, limitant les performances des accélérateurs vendus à la Chine. Mais, comme nous l’avons déjà signalé, même si ces efforts ont rendu plus difficile pour des pays comme la Chine de mettre la main sur des puces américaines, ils sont loin d’être parfaits.

Pour remédier à ces limitations, les chercheurs ont proposé de mettre en œuvre un registre mondial des ventes de puces IA qui permettrait de les suivre tout au long de leur cycle de vie, même après qu'elles aient quitté leur pays d'origine. Un tel registre, suggèrent-ils, pourrait incorporer un identifiant unique dans chaque puce, ce qui pourrait aider à lutter contre contrebande de composants.

À l’extrémité la plus extrême du spectre, les chercheurs ont suggéré que des coupe-circuit pourraient être intégrés au silicium pour empêcher leur utilisation dans des applications malveillantes.

En théorie, cela pourrait permettre aux régulateurs de réagir plus rapidement aux abus sur les technologies sensibles en coupant l'accès aux puces à distance, mais les auteurs préviennent que cela n'est pas sans risque. Cela implique que, s’il est mal mis en œuvre, un tel kill switch pourrait devenir une cible pour les cybercriminels.

Une autre proposition exigerait que plusieurs parties approuvent des tâches de formation à l'IA potentiellement risquées avant qu'elles puissent être déployées à grande échelle. « Les armes nucléaires utilisent des mécanismes similaires appelés liens d’action permissive », écrivent-ils.

Pour les armes nucléaires, ces verrous de sécurité sont conçus pour empêcher une seule personne de se tromper et de lancer une première frappe. Pour l’IA cependant, l’idée est que si un individu ou une entreprise souhaite entraîner un modèle au-delà d’un certain seuil dans le cloud, il lui faudra d’abord obtenir une autorisation pour le faire.

Bien qu’il s’agisse d’un outil puissant, les chercheurs observent que cela pourrait se retourner contre vous en empêchant le développement d’une IA souhaitable. L’argument semble être que même si l’utilisation d’armes nucléaires a des conséquences assez claires, l’IA n’est pas toujours aussi noire et blanche.

Mais si cela vous semble un peu trop dystopique, le journal consacre une section entière à la réaffectation des ressources de l’IA pour le bien de la société dans son ensemble. L’idée étant que les décideurs politiques pourraient s’unir pour rendre l’IA plus accessible à des groupes peu susceptibles de l’utiliser à des fins malveillantes, un concept décrit comme « l’allocation ».

Quel est le problème avec la réglementation du développement de l’IA ?

Pourquoi se donner tant de mal ? Eh bien, les auteurs de l'article affirment que le matériel physique est intrinsèquement plus facile à contrôler.

Par rapport au matériel, « les autres entrées et sorties du développement de l’IA – données, algorithmes et modèles entraînés – sont des biens immatériels facilement partageables et non rivaux, ce qui les rend intrinsèquement difficiles à contrôler », lit-on dans le document.

L’argument étant qu’une fois qu’un modèle est publié, que ce soit au grand jour ou suite à une fuite, il n’est pas possible de remettre le génie dans la bouteille et d’arrêter sa propagation sur le net.

Les chercheurs ont également souligné que les efforts visant à empêcher l’utilisation abusive des modèles se sont révélés peu fiables. Dans un exemple, les auteurs ont souligné la facilité avec laquelle les chercheurs ont pu démanteler les protections de Meta's Llama 2 destinées à empêcher le modèle de générer un langage offensant.

Poussé à l’extrême, il est à craindre qu’un modèle de double usage suffisamment avancé puisse être utilisé pour accélérer la développant d'armes chimiques ou biologiques.

Le document admet que la réglementation du matériel d’IA n’est pas une solution miracle et n’élimine pas le besoin de réglementation dans d’autres aspects de l’industrie.

Cependant, la participation de plusieurs chercheurs d'OpenAI est difficile à ignorer compte tenu de l'avis du PDG Sam Altman. tentatives pour contrôler le discours autour de la réglementation de l’IA. ®

Horodatage:

Plus de Le registre