Non, ChatGPT n'a pas encore gagné de concours de bugs de sécurité...

Non, ChatGPT n'a pas encore gagné de concours de bugs de sécurité...

Non, ChatGPT n'a pas encore gagné de concours de bugs de sécurité… PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Ça devait arriver tôt ou tard. Pour ce qui semble être la toute première fois, des chasseurs de bogues ont utilisé ChatGPT dans un exploit Pwn2Own réussi, aidant les chercheurs à détourner des logiciels utilisés dans des applications industrielles et à gagner 20,000 XNUMX $.

Pour être clair : l'IA n'a pas trouvé la vulnérabilité ni écrit et exécuté de code pour exploiter une faille spécifique. Mais son utilisation réussie dans le concours de rapports de bogues pourrait être un signe avant-coureur de hacks à venir.

"Il ne s'agit pas d'interpréter la pierre de Rosette", a déclaré Dustin Childs, responsable de la sensibilisation aux menaces chez Zero Day Initiative (ZDI) de Trend Micro. Le registre

« C'est un premier pas vers quelque chose de plus. Nous ne pensons pas que l'IA soit l'avenir du piratage, mais elle pourrait certainement devenir un excellent assistant lorsqu'un chercheur se heurte à un morceau de code qu'il ne connaît pas ou à une défense à laquelle il ne s'attendait pas. 

Lors du concours de la semaine dernière à Miami, en Floride, L'équipe de Claroty82 a demandé à ChatGPT de l'aider à développer une attaque d'exécution de code à distance contre Softing edgeAggregator Siemens, un logiciel qui fournit une connectivité à l'interface entre OT (technologie opérationnelle) et IT dans les applications industrielles.  

Les détails techniques sont limités en raison de la nature de Pwn2Own : les gens trouvent des failles de sécurité, les démontrent sur scène, divulguent en privé comment ils l'ont fait au développeur ou au fournisseur, réclament un prix, et nous attendons tous que les détails et les correctifs sortent. éventuellement quand vous êtes prêt.

En attendant, nous pouvons dire ceci : les humains impliqués dans l'exploit, les chercheurs en sécurité Noam Moshe et Uri Katz, ont identifié une vulnérabilité dans un client OPC Unified Architecture (OPC UA) vraisemblablement dans la suite logicielle industrielle edgeAggregator. OPC UA est un protocole de communication machine à machine utilisé dans l'automatisation industrielle.

Après avoir trouvé le bogue, les chercheurs ont demandé à ChatGPT de développer un module backend pour un serveur OPC UA afin de tester leur exploit d'exécution à distance. Il semblerait que ce module était nécessaire pour construire un serveur malveillant pour attaquer le client vulnérable via la vulnérabilité trouvée par le duo.

"Parce que nous avons dû apporter de nombreuses modifications pour que notre technique d'exploitation fonctionne, nous avons dû apporter de nombreux changements aux projets open source OPC UA existants", ont déclaré Moshe et Katz. Le registre.

"Comme nous n'étions pas familiers avec l'implémentation spécifique du SDK de serveur, nous avons utilisé ChatGPT pour accélérer le processus en nous aidant à utiliser et à modifier le serveur existant."

L'équipe a fourni des instructions à l'IA et a dû effectuer quelques séries de corrections et de modifications "mineures" jusqu'à ce qu'elle propose un module de serveur principal fonctionnel, ont-ils admis.

Mais dans l'ensemble, nous dit-on, le chatbot a fourni un outil utile qui leur a fait gagner du temps, en particulier pour combler les lacunes dans les connaissances, comme apprendre à écrire un module backend et permettre aux humains de se concentrer davantage sur la mise en œuvre de l'exploit.

"ChatGPT a la capacité d'être un excellent outil pour accélérer le processus de codage", a déclaré le duo, ajoutant que cela augmentait leur efficacité.  

"C'est comme faire de nombreuses séries de recherches Google pour un modèle de code spécifique, puis ajouter plusieurs séries de modifications au code en fonction de nos besoins spécifiques, uniquement en lui indiquant ce que nous voulions réaliser", ont déclaré Moshe et Katz.

Selon Childs, c'est probablement ainsi que nous verrons les cybercriminels utiliser ChatGPT dans des attaques réelles contre des systèmes industriels. 

"L'exploitation de systèmes complexes est difficile, et souvent, les acteurs de la menace ne connaissent pas tous les aspects d'une cible particulière", a-t-il déclaré. Childs a ajouté qu'il ne s'attendait pas à voir des outils générés par l'IA écrire des exploits, "mais fournir la dernière pièce du puzzle nécessaire au succès".

Et il ne craint pas que l'IA prenne le contrôle de Pwn2Own. Au moins pas encore.

"C'est encore assez loin", a déclaré Childs. "Cependant, l'utilisation de ChatGPT ici montre comment l'IA peut aider à transformer une vulnérabilité en exploit - à condition que le chercheur sache poser les bonnes questions et ignorer les mauvaises réponses. C'est un développement intéressant dans l'histoire de la compétition, et nous sommes impatients de voir où cela peut mener. ®

Horodatage:

Plus de Le registre