Les pressions de sécurité montent autour des promesses et des périls de l'IA

Les pressions de sécurité montent autour des promesses et des périls de l'IA

Security Pressures Mount Around AI's Promises & Peril PlatoBlockchain Data Intelligence. Vertical Search. Ai.

BLACK HAT USA – Las Vegas – Vendredi 11 août – L'intelligence artificielle (IA) n'est pas une nouvelle venue dans le monde de la technologie, mais comme ChatGPT et des offres similaires la poussent au-delà des environnements de laboratoire et des cas d'utilisation comme Siri, Maria "Azeria" Markstedter, fondatrice et PDG d'Azeria Labs, a déclaré que les praticiens de la sécurité doivent être à l'affût de la façon dont son évolution affectera leurs réalités quotidiennes.

En plaisantant, elle a affirmé que l'IA est "maintenant entre de bonnes mains de grandes entreprises technologiques qui se battent contre la montre pour rivaliser pour être à l'abri de l'élimination", à la suite de OpenAI lance son modèle ChatGPT tandis que d'autres entreprises se sont retenues. "Avec la montée en puissance de ChatGPT, l'approche de Google en temps de paix était terminée et tout le monde a sauté dedans », a-t-elle déclaré, s'exprimant cette semaine depuis la scène liminaire de Black Hat USA.

Voir où va l'argent

Les entreprises investissent des millions de dollars de financement dans l'IA, mais chaque fois que le monde se tourne vers un nouveau type de technologie, "les courses aux armements des entreprises ne sont pas motivées par le souci de la sûreté ou de la sécurité, car la sécurité ralentit les progrès".

Elle a dit que les cas d'utilisation pour intégrer l'IA évoluent, et ça commence à faire beaucoup d'argent, surtout ceux qui dominent le marché. Cependant, il faut «créateurs pour le casser, et le réparer, et finalement empêcher la technologie dans ses prochains cas d'utilisation de nous exploser au visage.

Elle a ajouté que les entreprises connaissaient peut-être un peu d'exubérance irrationnelle. "Chaque entreprise veut être une machine d'échantillonnage d'entreprise d'IA en ce moment et la façon dont nos entreprises vont tirer parti de ces outils pour intégrer l'IA aura un impact significatif sur notre modèle de menace", a-t-elle déclaré. Cependant, l'adoption rapide de l'IA signifie que son effet sur l'ensemble du modèle de cybermenace reste une inconnue.

Montée des menaces ChatGPT

Reconnaissant que ChatGPT était "assez difficile d'y échapper au cours des neuf derniers mois", a déclaré Markstedter, l'augmentation fulgurante du nombre d'utilisateurs a conduit certaines entreprises à en limiter l'accès. Les entreprises étaient sceptiques, a-t-elle déclaré, car OpenAI est une boîte noire, et tout ce que vous fournissez à ChatGPT fera partie de l'ensemble de données OpenAI.

Elle a déclaré : "Les entreprises ne veulent pas divulguer leurs données sensibles à un fournisseur externe, alors elles ont commencé interdire les employés d'utiliser ChatGPT pour le travail, mais chaque entreprise veut toujours, et est même pressée de le faire, d'augmenter ses produits et services de main-d'œuvre avec l'IA ; ils ne font tout simplement pas confiance aux données sensibles à… des fournisseurs externes qui peuvent faire partie de l'ensemble de données.

Cependant, la concentration intense et le rythme rapide du développement et de l'intégration d'OpenAI obligeront les praticiens de la sécurité à évoluer rapidement.

"Ainsi, la façon dont nos organisations vont utiliser ces choses change assez rapidement : de quelque chose que vous vérifiez pour le navigateur, à quelque chose que les entreprises intègrent à leur propre infrastructure, à quelque chose qui sera bientôt natif de notre système d'exploitation et de notre appareil mobile. ," dit-elle.

L'opportunité pour l'industrie

Markstedter a déclaré que le plus gros problème pour l'IA et la cybersécurité est que nous n'avons pas assez de personnes avec le compétences et connaissances pour évaluer ces systèmes et créer les garde-fous dont nous avons besoin. "Donc, il y a déjà de nouvelles saveurs d'emploi qui émergent de ces petits défis", a-t-elle déclaré.

En conclusion, Markstedter a souligné quatre points à retenir : premièrement, les systèmes d'IA, leurs cas d'utilisation et leurs capacités évoluent ; deuxièmement, que nous devons prendre au sérieux la possibilité que des agents d'IA autonomes deviennent une réalité au sein de notre entreprise ; troisièmement, nous devons repenser nos concepts autour de l'identité et des applications ; et quatrièmement, nous devons repenser nos concepts autour de la sécurité des données.

«Nous devons donc en savoir plus sur la technologie même qui modifie nos systèmes et notre modèle de menace afin de résoudre ces problèmes émergents, et les changements technologiques ne sont pas nouveaux pour nous», a-t-elle déclaré. "Nous n'avons pas de manuels pour nous dire comment résoudre nos problèmes précédents. Nous sommes tous autodidactes d'une manière ou d'une autre, et maintenant notre industrie attire des esprits créatifs avec un état d'esprit complet. Nous savons donc comment étudier de nouveaux systèmes et trouver des moyens créatifs de les casser.

Elle a conclu en disant que c'est notre chance de nous réinventer, notre posture de sécurité et nos défenses. "Pour le prochain danger des défis de sécurité, nous devons nous rassembler en tant que communauté et encourager la recherche dans ces domaines", a-t-elle déclaré.

Horodatage:

Plus de Lecture sombre