Les capacités de cybersécurité de l'armée américaine vont bénéficier d'OpenAI

Les capacités de cybersécurité de l’armée américaine vont bénéficier d’un renforcement d’OpenAI

Les capacités de cybersécurité de l'armée américaine pour obtenir OpenAI renforcent PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

OpenAI développe des capacités de cybersécurité basées sur l'IA pour l'armée américaine et accélère son travail de sécurité électorale, ont déclaré les dirigeants du laboratoire au Forum économique mondial (WEF) à Davos cette semaine.

La volte-face du public quant à la collaboration avec les forces armées survient quelques jours après une changer Le langage politique d’OpenAI, qui interdisait auparavant l’utilisation de ses modèles d’IA génératifs pour des applications « militaires et de guerre », ainsi que « la génération de logiciels malveillants », avec sa technologie. Ces restrictions ont désormais disparu des petits caractères du créateur de ChatGPT. Cela dit, le super laboratoire a souligné que sa technologie n’est toujours pas censée être utilisée à des fins de violence, de destruction ou d’espionnage des communications.

"Notre politique n'autorise pas que nos outils soient utilisés pour nuire à des personnes, développer des armes, pour surveiller les communications, ou pour blesser autrui ou détruire des biens", a déclaré un porte-parole d'OpenAI. Le registre dès aujourd’hui.

« Il existe cependant des cas d’utilisation en matière de sécurité nationale qui correspondent à notre mission.

« Nous travaillons déjà avec la DARPA pour stimuler la création de nouveaux outils de cybersécurité afin de sécuriser les logiciels open source dont dépendent les infrastructures critiques et l'industrie. Il n’était pas clair si ces cas d’utilisation bénéfiques auraient été autorisés dans la catégorie « militaire » de nos politiques précédentes. L’objectif de notre mise à jour de politique est donc d’apporter de la clarté et de permettre d’avoir ces discussions. » 

Mardi, lors d'une interview Lors de la réunion du WEF pour les dirigeants du monde, Anna Makanju, vice-présidente des affaires mondiales d'OpenAI, a déclaré que son partenariat avec le Pentagone comprenait le développement de logiciels de cybersécurité open source. OpenAI entame également des discussions avec le gouvernement américain sur la manière dont sa technologie peut aider à prévenir les suicides d'anciens combattants, a-t-elle déclaré.

"Parce que nous avions auparavant ce qui était essentiellement une interdiction générale sur l'armée, beaucoup de gens pensaient que cela interdirait bon nombre de ces cas d'utilisation, qui, selon les gens, correspondent tout à fait à ce que nous voulons voir dans le monde", a déclaré Makanju. 

Cependant, malgré la suppression des « utilisations militaires et de guerre » ainsi que d'autres « utilisations interdites » pour ChatGPT, Makanju a déclaré qu'OpenAI maintenait son interdiction d'utiliser ses modèles pour développer des armes destinées à blesser des personnes. 

Également au cours de la même interview, Sam Altman, PDG d'OpenAI, a déclaré que l'entreprise prenait des mesures pour garantir que ses outils d'IA générative ne soient pas utilisés pour diffuser de la désinformation liée aux élections. 

Cela suit également un processus similaire poussé par Microsoft, le plus grand investisseur d’OpenAI, qui a annoncé en novembre une stratégie de protection électorale en cinq étapes pour « les États-Unis et d’autres pays où des élections critiques auront lieu en 2024 ». 

« Il y a beaucoup d’enjeux dans cette élection », a déclaré Altman mardi.

Cela survient un jour après la déclaration de l’ancien président américain Donald Trump. grande victoire au caucus de l'Iowa lundi.

Et tous ces sujets (IA, cybersécurité et désinformation) jouent un rôle important à l'ordre du jour. les dirigeants du monde se réunissent cette semaine à Davos.

Selon le WEF Rapport sur les risques mondiaux 2024, publié la semaine dernière, la « désinformation et la désinformation » constituent le principal risque mondial à court terme, la « cyberinsécurité » arrivant au quatrième rang.

L'essor de l'IA générative exacerbe ces défis, avec 56 % des cadres interrogés lors du WEF. Réunion annuelle de la cybersécurité en novembre 2023 en disant l'IA générative donnera aux attaquants un avantage sur les défenseurs au cours des deux prochaines années.

« L'utilisation des technologies d'IA pour renforcer les capacités de cyberguerre est particulièrement préoccupante, et avec raison », a déclaré Bernard Montel, directeur technique EMEA chez Tenable. Le registre

"Bien que l'IA ait réalisé des progrès technologiques astronomiques au cours des 12 à 24 derniers mois, permettre à un appareil autonome de prendre le jugement final est incompréhensible aujourd'hui", a-t-il ajouté.

"Bien que l'IA soit capable d'identifier et d'automatiser rapidement certaines actions qui doivent être prises, il est impératif que ce soient les humains qui prennent les décisions critiques sur où et quand agir à partir des renseignements fournis par l'IA." ®

Horodatage:

Plus de Le registre