Experimente zeigen, dass KI bei der Prüfung intelligenter Verträge helfen könnte, aber noch nicht

Während künstliche Intelligenz (KI) bereits eine Vielzahl von Branchen verändert hat, vom Gesundheitswesen und der Automobilindustrie bis hin zu Marketing und Finanzen, wird ihr Potenzial nun in einem der wichtigsten Bereiche der Blockchain-Branche auf die Probe gestellt – der Sicherheit intelligenter Verträge.

Zahlreiche Tests haben großes Potenzial für KI-basierte Blockchain-Audits gezeigt, aber dieser aufstrebenden Technologie fehlen noch einige wichtige Eigenschaften menschlicher Fachleute – Intuition, differenziertes Urteilsvermögen und Fachwissen.

Meine eigene Organisation, OpenZeppelin, hat kürzlich eine Reihe von Experimenten durchgeführt, die den Wert von KI bei der Erkennung von Schwachstellen hervorheben. Dies wurde mithilfe des neuesten GPT-4-Modells von OpenAI durchgeführt, um Sicherheitsprobleme in Solidity-Smart-Verträgen zu identifizieren. Der getestete Code stammt von Ethernaut Smart-Contract-Hacking-Webspiel – soll Prüfern dabei helfen, zu lernen, wie sie nach Exploits suchen. Während der Experimente identifizierte GPT-4 erfolgreich Schwachstellen in 20 von 28 Herausforderungen.

Verwandt: Schnall dich an, Reddit: Geschlossene APIs kosten mehr, als du erwarten würdest

In einigen Fällen würde die bloße Bereitstellung des Codes und die Frage, ob der Vertrag eine Schwachstelle enthielt, zu genauen Ergebnissen führen, beispielsweise bei dem folgenden Namensproblem mit der Konstruktorfunktion:

ChatGPT analysiert einen Smart Contract. Quelle: OpenZeppelin

Zu anderen Zeiten waren die Ergebnisse gemischter oder völlig schlecht. Manchmal musste die KI mit einer eher einleitenden Frage zur richtigen Antwort aufgefordert werden, z. B. „Können Sie die Bibliotheksadresse im vorherigen Vertrag ändern?“ Im schlimmsten Fall würde GPT-4 keine Schwachstelle finden, selbst wenn die Dinge ziemlich klar formuliert wären, wie zum Beispiel: „Gate eins und Gate zwei können übergeben werden, wenn man die Funktion aus einem Konstruktor heraus aufruft, wie kann man das?“ Jetzt den GatekeeperTwo-Smart-Vertrag abschließen?“ Irgendwann hat die KI sogar eine Schwachstelle erfunden, die eigentlich gar nicht vorhanden war.

Dies verdeutlicht die aktuellen Grenzen dieser Technologie. Dennoch hat GPT-4 bemerkenswerte Fortschritte gegenüber seinem Vorgänger GPT-3.5 gemacht, dem großen Sprachmodell (LLM), das bei der ersten Einführung von ChatGPT durch OpenAI verwendet wurde. Im Dezember 2022 zeigten Experimente mit ChatGPT, dass das Modell nur fünf von 26 Levels erfolgreich lösen konnte. Sowohl GPT-4 als auch GPT-3.5 wurden bis September 2021 anhand von Daten trainiert, wobei Verstärkungslernen aus menschlichem Feedback zum Einsatz kam, eine Technik, die eine menschliche Feedbackschleife beinhaltet, um ein Sprachmodell während des Trainings zu verbessern.

Coinbase ausgetragen Ähnliche Experimente führten zu einem Vergleichsergebnis. Dieses Experiment nutzte ChatGPT, um die Token-Sicherheit zu überprüfen. Während die KI in der Lage war, manuelle Überprüfungen für einen großen Teil der Smart Contracts nachzubilden, fiel es ihr schwer, für andere Ergebnisse zu liefern. Darüber hinaus zitierte Coinbase auch einige Fälle, in denen ChatGPT risikoreiche Vermögenswerte als risikoarme Vermögenswerte einstufte.

Verwandt: Seien Sie nicht naiv – der ETF von BlackRock wird für Bitcoin nicht optimistisch sein

Es ist wichtig zu beachten, dass ChatGPT und GPT-4 LLMs sind, die für die Verarbeitung natürlicher Sprache, menschenähnliche Konversationen und Textgenerierung und nicht für die Erkennung von Schwachstellen entwickelt wurden. Mit genügend Beispielen für Schwachstellen bei Smart Contracts ist es einem LLM möglich, sich das Wissen und die Muster anzueignen, die zum Erkennen von Schwachstellen erforderlich sind.

Wenn wir jedoch gezieltere und zuverlässigere Lösungen zur Schwachstellenerkennung wünschen, würde ein maschinelles Lernmodell, das ausschließlich auf qualitativ hochwertigen Schwachstellendatensätzen trainiert wird, höchstwahrscheinlich bessere Ergebnisse liefern. Auf spezifische Ziele zugeschnittene Trainingsdaten und Modelle führen zu schnelleren Verbesserungen und genaueren Ergebnissen.

Beispielsweise hat das KI-Team von OpenZeppelin kürzlich ein benutzerdefiniertes Modell für maschinelles Lernen entwickelt, um Wiedereintrittsangriffe zu erkennen – eine häufige Form von Exploit, die auftreten kann, wenn Smart Contracts externe Aufrufe an andere Verträge senden. Erste Evaluierungsergebnisse zeigen eine überlegene Leistung im Vergleich zu branchenführenden Sicherheitstools mit einer Falsch-Positiv-Rate von unter 1 %.

Eine Balance zwischen KI und menschlichem Fachwissen finden

Bisherige Experimente zeigen, dass aktuelle KI-Modelle zwar ein hilfreiches Werkzeug zur Identifizierung von Sicherheitslücken sein können, das differenzierte Urteilsvermögen und die Fachkompetenz menschlicher Sicherheitsexperten jedoch wahrscheinlich nicht ersetzen werden. GPT-4 greift hauptsächlich auf öffentlich verfügbare Daten bis 2021 zurück und kann daher keine komplexen oder einzigartigen Schwachstellen identifizieren, die über den Rahmen seiner Trainingsdaten hinausgehen. Angesichts der rasanten Entwicklung der Blockchain ist es für Entwickler von entscheidender Bedeutung, sich weiterhin über die neuesten Fortschritte und potenziellen Schwachstellen in der Branche zu informieren.

Mit Blick auf die Zukunft wird die Zukunft der intelligenten Vertragssicherheit wahrscheinlich die Zusammenarbeit zwischen menschlichem Fachwissen und sich ständig verbessernden KI-Tools erfordern. Die wirksamste Verteidigung gegen KI-bewaffnete Cyberkriminelle besteht darin, mithilfe von KI die häufigsten und bekanntesten Schwachstellen zu identifizieren, während menschliche Experten über die neuesten Fortschritte auf dem Laufenden bleiben und KI-Lösungen entsprechend aktualisieren. Über den Bereich der Cybersicherheit hinaus werden die gemeinsamen Anstrengungen von KI und Blockchain viele weitere positive und bahnbrechende Lösungen hervorbringen.

KI allein wird den Menschen nicht ersetzen. Menschliche Prüfer, die lernen, KI-Tools zu nutzen, werden jedoch viel effektiver sein als Prüfer, die bei dieser neuen Technologie die Augen verschließen.

Mariko Wakabayashi ist der Leiter für maschinelles Lernen bei OpenZeppelin. Sie ist verantwortlich für angewandte KI/ML und Dateninitiativen bei OpenZeppelin und dem Forta Network. Mariko erstellte die öffentliche API von Forta Network und leitete Datenaustausch- und Open-Source-Projekte. Ihr KI-System bei Forta hat Blockchain-Hacks im Wert von über 300 Millionen US-Dollar in Echtzeit erkannt, bevor sie stattfanden.

Dieser Artikel dient allgemeinen Informationszwecken und ist nicht als Rechts- oder Anlageberatung gedacht und sollte auch nicht als solche verstanden werden. Die hier geäußerten Ansichten, Gedanken und Meinungen stammen ausschließlich vom Autor und spiegeln nicht unbedingt die Ansichten und Meinungen von Cointelegraph wider.

source site-2

Leave a Reply