Sam Altman et Satya Nadella rejoignent le comité de sécurité de l'IA pour la sécurité intérieure

Sam Altman et Satya Nadella rejoignent un comité de sécurité de l'IA de grande puissance pour la sécurité intérieure

Sam Altman et Satya Nadella rejoignent le comité de sécurité de l'IA de grande puissance pour la sécurité intérieure - Décryptez l'intelligence des données PlatoBlockchain. Recherche verticale. Aï.

Le Département américain de la Sécurité intérieure (DHS) a recruté un large éventail de leaders de l'industrie de l'IA pour créer le Conseil de sûreté et de sécurité de l'intelligence artificielle, l'agence annoncé le vendredi.

Le DHS affirme que le nouvel organisme jouera un rôle crucial dans l’exploitation de l’intelligence artificielle pour la protection des infrastructures vitales des États-Unis et pour atténuer les menaces alimentées par l’IA.

"L'intelligence artificielle est une technologie transformatrice qui peut faire progresser nos intérêts nationaux de manière sans précédent", a déclaré le secrétaire à la Sécurité intérieure, Alejandro Mayorkas, dans un communiqué préparé. « En même temps, cela présente des risques réels que nous pouvons atténuer en adoptant les meilleures pratiques et en prenant d’autres actions concrètes et étudiées. »

Le conseil d'administration sera dirigé par Mayorkas et comprend plusieurs dirigeants de haut niveau de l'IA, dont Sam Altman, PDG d'OpenAI, Satya Nadella, président-directeur général de Microsoft, Sundar Pichai, PDG d'Alphabet, Dario Amodei, co-fondateur et PDG d'Anthropic, et Jensen Huang, président-directeur général de NVIDIA. .

« Je suis reconnaissant que des dirigeants aussi accomplis consacrent leur temps et leur expertise au conseil d'administration pour aider à garantir que les infrastructures critiques de notre pays – les services vitaux sur lesquels les Américains comptent chaque jour – protègent efficacement contre les risques et réalisent l'énorme potentiel de cette technologie transformatrice. ", a déclaré Mayorkas.

"La technologie de l'IA est capable d'offrir d'immenses avantages à la société si elle est déployée de manière responsable, c'est pourquoi nous avons plaidé en faveur d'efforts visant à tester la sécurité des systèmes d'IA frontaliers afin d'atténuer les risques potentiels", a déclaré Amodei d'Anthropic dans un communiqué simultané. « Nous sommes fiers de contribuer à l'étude des implications de l'IA sur la protection des infrastructures critiques avec d'autres dirigeants des secteurs public et privé.

"Le déploiement sécurisé de l'IA est primordial pour sécuriser les infrastructures qui alimentent la société américaine, et nous pensons que la formation de ce conseil est une étape positive dans le renforcement de la sécurité nationale américaine", a-t-il poursuivi.

"L'intelligence artificielle est la technologie la plus transformatrice de notre époque, et nous devons garantir qu'elle est déployée de manière sûre et responsable", a ajouté Nadella de Microsoft. « Microsoft est honoré de participer à cet effort important et a hâte de partager à la fois nos apprentissages à ce jour et nos projets pour l'avenir. »

Parmi les autres membres du Conseil de sûreté et de sécurité de l'IA figurent Adam Selipsky, PDG d'Amazon Web Services, Arvind Krishna, président-directeur général d'IBM, Fei-Fei Li, codirecteur du Stanford Human-Centered AI Institute, et Maya Wiley, présidente-directrice générale de la Leadership Conference on Civil. et les droits de l'homme.

« Je suis honoré de rejoindre ce groupe de dirigeants interdisciplinaires pour gérer cette technologie qui change le monde de manière responsable et centrée sur l'humain », a déclaré Li. « En fin de compte, l’IA est un outil puissant, et elle doit être développée et appliquée en comprenant comment elle aura un impact sur l’individu, la communauté et la société dans son ensemble. »

Le conseil d'administration tiendra sa première réunion trimestrielle début mai, selon le DHS, et sera immédiatement chargé de fournir au secrétaire des recommandations pour garantir l'adoption en toute sécurité de la technologie de l'IA dans les services essentiels. L’objectif est de créer un forum pour le DHS, « la communauté des infrastructures critiques », et les leaders de l’IA pour échanger des informations sur les risques de sécurité liés à l’IA.

L’intrusion rapide de l’intelligence artificielle dans le courant dominant en 2023 a poussé les dirigeants mondiaux à se démener pour élaborer des réglementations adaptées à cette nouvelle technologie. En janvier, le World Economic Forum (WEF) a classé l’intelligence artificielle et l’informatique quantique parmi la liste des risques mondiaux les plus urgents.

Après avoir émis un commande exécutive en octobre 2023, l’administration Biden a annoncé le lancement du programme américain Consortium de l'Institut de sécurité de l'IA (AISIC), qui comprend de nombreux noms rejoignant l'initiative du DHS.

Outre les problèmes de sécurité nationale, les développeurs d'IA, notamment Google, Meta et OpenAI, se sont joints mardi aux organisations à but non lucratif Thorn et All Tech is Human, mise en gage pour appliquer des garde-fous autour de leurs modèles d'IA respectifs afin d'empêcher qu'ils soient utilisés pour créer du matériel pédopornographique (CSAM). CSAM a également fait l'objet d'une nouvelle lettre envoyée par le sénateur. Elizabeth Warren au DHS et au ministère de la Justice.

Édité par Ryan Ozawa.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

Horodatage:

Plus de Décrypter