Jenseits des Hypes: ChatGPT und Smart Contract Auditing

Jenseits des Hypes: ChatGPT und Smart Contract Auditing

Jenseits des Hype: ChatGPT und Smart Contract Auditing PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Lesezeit: 5 Minuten

Erforschung der Effektivität von chatGPT bei Smart Contract Auditing

Es war der 30. November 2022, als ChatGPT gestartet wurde. Es dauerte nicht lange, um die Welt im Sturm zu erobern. Egal welche sozialen Medien Sie verwenden, es gibt Posts, Memes, informative Artikel und so weiter auf chatGPT. Nicht nur das, der ChatGPT war das Gesprächsthema der Mainstream-Medien. Es gibt keine Bedenken, wenn ich sage, dass alle über chatGPT und seine Leistungsfähigkeit gesprochen haben.

Lassen Sie uns in diesem Blog diskutieren, wie chatGPT in Smart Contract Auditing oder Web3-Cybersicherheit verwendet wird oder verwendet werden kann. Beginnen wir zunächst damit, was chatGPT genau ist.

Was ist ChatGPT?

ChatGPT ist ein interaktiver Chatbot, der auf der Grundlage seiner trainierten Daten Eingabeaufforderungen entgegennimmt und Antworten zurückgibt. Es hat eine bemerkenswerte Fähigkeit, im Gesprächsdialog zu kommunizieren und Antworten zu geben, die überraschend menschlich erscheinen können.

Abgesehen davon ist eines der Dinge, die es intelligenter machen, seine einzigartige Fähigkeit, ständig aus den Eingabedaten des Benutzers zu lernen; Dies wird in einer Ebene des Reinforcement Learning with Human Feedback (RLHF) implementiert, das dabei hilft, Antworten zurückzugeben, die für Menschen zufriedenstellend sind. 

Trainingsdaten

Jedes KI-Modell ist nichts anderes als eine trainierte Maschine, die Antworten basierend auf ihrem Lernen und Erkenntnissen aus den Trainingsdaten gibt. Die Trainingsdaten können alles sein, von Videos bis hin zu Text, der einem Modell zugeführt wird, das diese Daten lernt, und wenn diesem Modell ein Problem vorgeschlagen wird, gibt es auf der Grundlage seines Lernens aus den Trainingsdaten Antworten. 

Das chatGPT wurde mit den aus dem Internet gesammelten Daten trainiert, einschließlich Quellen wie Reddit-Diskussionen, um ChatGPT dabei zu helfen, den Dialog zu lernen und einen menschenähnlichen Antwortstil zu erreichen. chatGPT ist auch auf menschliches Feedback trainiert. Diese Technik nennt sich Reinforcement Learning with Human Feedback, damit die KI lernt, was Menschen erwarten, wenn sie eine Frage stellen.

ChatGPT kann Schwachstellen finden

Lange nach seiner Veröffentlichung begannen die Leute, mit den Fähigkeiten von chatGPT in verschiedenen Anwendungsfällen und Szenarien zu experimentieren. Dieses Experiment wurde auch im Bereich Smart Contract Security durchgeführt.

Und chatGPT hat uns sicher nicht im Stich gelassen. Es hat jedoch noch Raum für Verbesserungen, aber es hat sich als nützlich und als erhebliche Hilfe für Prüfer und Personen erwiesen, die sich mit intelligenten Verträgen befassen. Wenn es um die bekannten Hacks und einige Hacks geht, die schon seit geraumer Zeit im System sind, ist es sehr nützlich, sie zu fangen.

Einige der häufigsten Schwachstellen, die chatGPT mit einiger Genauigkeit findet, sind:-

  1. Mieterschaftsangriff: Dies ist eine häufige Schwachstelle, bei der ein Angreifer wiederholt eine Funktion innerhalb eines Smart Contracts aufrufen kann, bevor die vorherige Ausführung abgeschlossen ist, was zu unerwartetem oder böswilligem Verhalten führt.
  1. Integer-Überläufe/-Unterläufe: Smart Contracts basieren oft auf ganzzahligen Berechnungen, und wenn diese Berechnungen nicht ordnungsgemäß überprüft werden, können sie zu unerwartetem oder falschem Verhalten führen.
  1. Ungeprüfte Rückgabewerte: Ein Vertrag kann unerwartete Rückgabewerte von externen Aufrufen möglicherweise nicht richtig handhaben, was zu einer potenziellen Schwachstelle führen und Schaden anrichten kann.
  1. Ungeschützte Funktionen: Ein Vertrag verfügt möglicherweise nicht über eine ordnungsgemäße Zugriffskontrolle, was zu unbefugtem Zugriff auf sensible Funktionen führt. Was zu schweren Verlusten führen kann.

Es gibt einige andere Schwachstellen und Probleme, die chatGPT mit intelligenten Verträgen identifizieren kann, und Sie werden sicherlich überrascht sein, sie zu sehen. Dennoch haben wir durch unsere Tests festgestellt, dass Sie häufig einen Fehlalarm erhalten, und es besteht eine große Wahrscheinlichkeit, dass einige entscheidende Fehler übersehen werden.

Kann chatGPT alle Schwachstellen finden?

Während chatGPT ein nützliches Tool und ein Durchbruch der KI für die Massen ist, ist es noch lange nicht perfekt und kann nicht der vollständigen Sicherung von Smart Contracts überlassen werden.

Unser Test ergab, dass der ChatGPT einen Fehlalarm für a ausgelöst hat Re-Entry-Angriff, die bereits bewacht und getestet wurde. Abgesehen davon gab es einige weitere Fehlalarme, und vor allem wurde der von unserem Team gefundene kritische Fehler von chatGPT vollständig ignoriert. Lassen Sie uns einige der Dinge besprechen, die chatGPT wahrscheinlich vermissen wird.

  1. Projektspezifische Logik:- Das Rückgrat des Projekts ist seine Logik und wie die Dinge miteinander verbunden sind, aber chatGPT scheint es zu vermissen. Bei Tests wurde festgestellt, dass chatGPT den kritischen Fehler, der logikspezifisch war, häufig nicht finden konnte. Aufgrund der Komplexität der zugrunde liegenden Infrastruktur des Protokolls übersieht chatGPT die kritischen Schwachstellen, die sich aus der Verknüpfung von Verträgen ergeben, um die logische Anforderung des Projekts zu erfüllen.
  1. Ungenaue mathematische Berechnungen und statistische Modelle:- Wenn es um Projekte geht, egal ob es sich um ein Gaming-Projekt, ein DeFi-Projekt oder irgendetwas anderes handelt, handelt es sich meistens um mathematische Berechnungen und Beziehungen. Diese Formeln werden vom chatGPT oft ungeprüft und nicht überwacht, und potenzielle Fehler werden übersehen.
  1. Unregelmäßigkeiten in der beabsichtigten Gestaltung und Implementierung:- Oft ist die Implementierung durch die Entwickler nicht so korrekt, wie sie sein sollte, was zu Sicherheitsproblemen führt. Dies wurde in der Vergangenheit ausgenutzt und ist weiterhin einer der wesentlichen Bereiche, die verbessert werden können, und chatGPT ist auch an dieser Front etwas ignorant.

Zusammenfassung

Wenn es um Web3-Sicherheit und Auditing geht, sind KI-Tools eine Hilfe, daran besteht kein Zweifel, aber die Frage ist, reicht das aus? Die Antwort ist ein großes „NEIN“. Wie bereits erwähnt, können einige der entscheidenden Schwachstellen leicht ausgelassen werden, und es besteht eine große Wahrscheinlichkeit von Fehlalarmen. Diese Fehlalarme erzeugen den falschen Eindruck, dass chatGPT alle Fehler identifizieren und den Benutzer dazu bringen kann, daran zu glauben, aber die Realität sieht anders aus und kann hart sein, wenn wir uns nur auf KI-Tools verlassen.

KI kann sehr effektiv werden, aber wir haben noch einen langen Weg vor uns. Der beste Weg, die Sicherheit zu verbessern, besteht darin, sowohl KI als auch die manuelle Abdeckung der Sicherheitsaspekte von Smart Contracts zu verwenden.

Bezüglich Smart Contract Sicherheit, es gibt keinen Ersatz für Audits. Es ist absolut notwendig, sich einem Audit zu unterziehen, und ohne Auditing kann es unter den Benutzern niemals Vertrauen geben, da Auditberichte viel bedeuten. Viele Benutzer suchen nach dem Prüfbericht, bevor sie den Projekten vertrauen. Eines der führenden Unternehmen im Bereich Wirtschaftsprüfung ist QuillAudits. Mit über 700 gesicherten Projekten und vielen weiteren, die kommen, gewährleisten wir die vollständige Sicherheit der Protokolle. Schauen Sie sich jetzt unsere Website an und lassen Sie Ihr Projekt auditieren.

20 Views

Zeitstempel:

Mehr von Quillhash