Diese führende Web3-Bug-Bounty-Plattform knackt ChatGPT – zitiert mangelnde Gültigkeit

Diese führende Web3-Bug-Bounty-Plattform knackt ChatGPT – zitiert mangelnde Gültigkeit 

Diese führende Web3-Bug-Bounty-Plattform geht gegen ChatGPT vor – unter Berufung auf mangelnde Validität – PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

OpenAI stellte ChatGPT vor, eine KI zur Beantwortung langer Fragen, die komplexe Fragen im Gespräch beantwortet. Es handelt sich um eine bahnbrechende Technologie, da sie dazu dient, zu verstehen, was Menschen meinen, wenn sie Fragen stellen.

Viele Benutzer sind beeindruckt von seiner Fähigkeit, Antworten von menschlicher Qualität zu liefern, was zu der Idee führt, dass es bald in der Lage sein könnte, die Art und Weise, wie Menschen mit Computern interagieren, zu revolutionieren und die Art und Weise, wie Informationen abgerufen werden, zu verändern.

Diese Technologie hat jedoch in vielerlei Hinsicht zu Problemen geführt. Hier ist der Grund.

Immunefi hat 15 von ChatGPT generierte Fehlerberichte verboten

Immunefi ist eine Bug-Bounty-Plattform, die sich auf die Sicherheit von Web3 und Smart Contracts konzentriert, mit dem Ziel, Web3 für alle sicher zu machen. Blockchain- und Smart-Contract-Projekte können die Bug-Bounty-Hosting-, Beratungs- und Programmverwaltungsdienste von Immunefi nutzen. Es hat sich zur führenden Bug-Bounty-Plattform für Web3 entwickelt.

In einem aktuellen Tweet von Immunefi wurde erwähnt, dass bisher 15 Personen die Übermittlung von ChatGPT-Berichten verboten wurde.

Darüber hinaus betonten die Immunefi-Ingenieure, dass es Unterschiede zwischen ChatGPT und Diensten wie GitHub Copilot gibt. Bei Ersterem haben Sie die Kontrolle über den Prozess, und die Aufgabe von Copilot besteht darin, kontextrelevante Vorschläge zu machen, die Sie beim Schreiben Ihres Programms akzeptieren oder ablehnen können. Bei letzterem verwenden Sie eine einzige Eingabeaufforderung, um einen zunächst gut geschriebenen Fehlerbericht zu erstellen, der letztlich aber unverständlich ist.

Immunefi ging noch einen Schritt weiter und fragte ChatGPT, warum das Programm nicht zum Generieren von Fehlerberichten verwendet werden sollte, erhielt eine „zufriedenstellende Antwort“ und teilte diese auf Twitter mit. 

Immunefi erklärte, dass es die von ChatGPT generierten Berichte weiterhin beobachten werde, da diese immer ausgefeilter werden.

Werden sie das Verbot aufheben? 

In Zukunft könnte Immunefi darüber nachdenken, das Verbot der Übermittlung von KI-generierten Fehlerberichten aufzuheben. „Wir werden die Entwicklung von KI-Tools im Auge behalten und erwägen, deren Verwendung aufzuheben, wenn sie jemals in der Lage sind, echte Fehlerberichte zu generieren“, sagten sie kürzlich. Doch vorerst gilt das Verbot. 

Zusammenfassend lässt sich sagen, dass der Einsatz von KI für diese Art von Berichten seine Vor- und Nachteile hat. Zu den Vorteilen zählen Effizienz, Skalierbarkeit und Konsistenz. Aber gleichzeitig mit Nachteilen wie mangelndem Kontext und der Unfähigkeit, etwas zu verstehen oder zu begreifen. 

Zeitstempel:

Mehr von Coinpedia