Oltre l'hype: ChatGPT e Smart Contract Auditing

Oltre l'hype: ChatGPT e Smart Contract Auditing

Oltre l'hype: ChatGPT e Smart Contract Auditing PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Tempo per leggere: 5 verbale

Esplorare l'efficacia di chatGPT nell'audit dei contratti intelligenti

Era il 30 novembre 2022 quando è stato lanciato ChatGPT. Non ci è voluto molto per prendere d'assalto il mondo. Non importa quale social media utilizzi, ci sono post, meme, articoli informativi e quant'altro su chatGPT. Non solo, il chatGPT è stato il discorso dei media mainstream. Non ci sono ripensamenti quando dico che tutti hanno parlato di chatGPT e del suo potere.

In questo blog, discutiamo di come chatGPT viene utilizzato o può essere utilizzato nel controllo dei contratti intelligenti o nella sicurezza informatica Web3. Iniziamo innanzitutto con cos'è esattamente chatGPT.

Che cos'è ChatGPT?

ChatGPT è un chatbot interattivo che accetta i prompt e restituisce le risposte in base ai suoi dati addestrati. Ha una notevole capacità di comunicare nel dialogo colloquiale e fornire risposte che possono sembrare sorprendentemente umane.

A parte questo, una delle cose che lo rendono più intelligente è la sua capacità unica di continuare ad apprendere dai dati di input dell'utente; questo è implementato in un livello di apprendimento per rinforzo con feedback umano (RLHF), che lo aiuta a restituire risposte soddisfacenti per gli umani. 

Dati di allenamento

Ogni modello di intelligenza artificiale non è altro che una macchina addestrata che fornisce risposte in base al suo apprendimento e ai risultati dei dati di addestramento. I dati di addestramento possono essere qualsiasi cosa, dai video al testo che viene inviato a un modello che apprende questi dati e quando viene proposto un problema a questo modello, in base al suo apprendimento dai dati di addestramento, fornisce risposte. 

Il chatGPT è stato addestrato sui dati raccolti da Internet, comprese fonti come le discussioni di Reddit, per aiutare ChatGPT ad apprendere il dialogo e ottenere uno stile di risposta simile a quello umano. chatGPT è anche addestrato sul feedback umano. Questa tecnica si chiama Reinforcement Learning with Human Feedback in modo che l'IA impari cosa si aspettano le persone quando fanno una domanda.

ChatGPT può trovare vulnerabilità

Molto tempo dopo il suo rilascio, le persone hanno iniziato a sperimentare le funzionalità di chatGPT in vari casi e scenari d'uso. Questa sperimentazione è stata fatta anche nella sicurezza dei contratti intelligenti.

E chatGPT sicuramente non ci ha deluso. Tuttavia, ha ancora margini di miglioramento, ma si è rivelato utile e di notevole aiuto per i revisori e le persone che si occupano di contratti intelligenti. Quando si tratta dei ben noti hack e di alcuni hack presenti nel sistema da un po' di tempo, è molto utile individuarli.

Alcune delle vulnerabilità comuni che chatGPT trova con un po' di precisione sono:-

  1. Attacco all'affitto: Questa è una vulnerabilità comune in cui un utente malintenzionato può chiamare ripetutamente una funzione all'interno di uno smart contract prima che l'esecuzione precedente sia stata completata, portando a comportamenti imprevisti o dannosi.
  1. Interi Overflow/Underflow: I contratti intelligenti spesso si basano su calcoli di numeri interi e, se questi calcoli non vengono controllati correttamente, possono provocare comportamenti imprevisti o errati.
  1. Valori restituiti non selezionati: un contratto potrebbe non gestire correttamente valori di ritorno imprevisti da chiamate esterne, il che potrebbe portare a una potenziale vulnerabilità e causare danni.
  1. Funzioni non protette: un contratto potrebbe non disporre di un adeguato controllo degli accessi, con conseguente accesso non autorizzato a funzioni sensibili. Il che può portare a gravi perdite.

Esistono altre vulnerabilità e problemi che chatGPT può identificare con contratti intelligenti e sarai sicuramente sorpreso di vederli. Tuttavia, attraverso i nostri test, abbiamo scoperto che spesso ricevi un falso allarme e c'è un'enorme possibilità che alcuni bug cruciali vengano persi.

ChatGPT può trovare tutte le vulnerabilità?

Sebbene chatGPT sia uno strumento utile e una svolta dell'intelligenza artificiale per le masse, è ancora tutt'altro che perfetto e non può essere lasciato a garantire contratti intelligenti completamente.

Il nostro test ha rilevato che il chatGPT ha generato un falso allarme per a attacco di rientro, che era già custodito e collaudato. A parte questo, ci sono stati altri falsi allarmi e, soprattutto, il bug critico riscontrato dal nostro team è stato completamente ignorato da chatGPT. Parliamo di alcune delle cose che probabilmente mancheranno a chatGPT.

  1. Logica specifica del progetto:- La spina dorsale del progetto è la sua logica e il modo in cui le cose sono interconnesse, ma chatGPT sembra mancare. Durante i test, è emerso che chatGPT spesso non era in grado di trovare il bug critico, che era specifico della logica. A causa della complessità dell'infrastruttura sottostante del protocollo, chatGPT perde le vulnerabilità critiche che sorgono a causa dell'interconnessione dei contratti per soddisfare il requisito logico del progetto.
  1. Calcolo matematico impreciso e modelli statistici:- Quando si tratta di progetti, che si tratti di un progetto di gioco, un progetto DeFi o qualsiasi altra cosa, si tratta principalmente di calcoli e relazioni matematiche. Queste formule sono spesso lasciate deselezionate e non monitorate dal chatGPT e si perdono potenziali bug.
  1. Irregolarità nella progettazione prevista e nell'implementazione:- Molte volte, l'implementazione da parte degli sviluppatori non è corretta come dovrebbe essere, portando a problemi di sicurezza. Questo è stato sfruttato in passato e continua ad essere uno dei settori essenziali che può essere migliorato, e chatGPT è un po' ignorante anche su questo fronte.

Conclusione

Quando si tratta di sicurezza e controllo web3, gli strumenti di intelligenza artificiale sono un aiuto, non c'è dubbio, ma la domanda è: è sufficiente? la risposta è un grande "NO". Come discusso, alcune delle vulnerabilità cruciali possono essere facilmente tralasciate e c'è un'enorme possibilità di falsi allarmi. Questi falsi allarmi creano la falsa sensazione che chatGPT possa identificare tutti i bug e indurre l'utente a crederci, ma la realtà è diversa e può essere dura se diventiamo dipendenti solo dagli strumenti di intelligenza artificiale.

L'intelligenza artificiale può diventare molto efficace, ma abbiamo ancora molta strada da fare. Il modo migliore per migliorare la sicurezza è utilizzare sia l'intelligenza artificiale che la copertura manuale degli aspetti di sicurezza dei contratti intelligenti.

Per quanto riguarda l’ sicurezza del contratto intelligente, non è possibile sostituire gli audit. È assolutamente necessario sottoporsi a un controllo e, senza controllo, non ci può mai essere fiducia tra gli utenti, poiché i rapporti di controllo significano molto. Molti utenti cercano il rapporto di audit prima di fidarsi dei progetti. Una delle aziende leader nei servizi di revisione contabile è QuillAudits. Con oltre 700 progetti garantiti e molti altri in arrivo, garantiamo la completa sicurezza dei protocolli. Dai un'occhiata al nostro sito web ora e fai controllare il tuo progetto.

20 Visualizzazioni

Timestamp:

Di più da quillhash