KI-codierte Smart Contracts können fehlerhaft sein und bei einem Angriff „kläglich scheitern“: CertiK

Künstliche Intelligenz-Tools wie ChatGPT von OpenAI werden mehr Probleme, Fehler und Angriffsvektoren verursachen, wenn sie zum Schreiben intelligenter Verträge und zum Aufbau von Kryptowährungsprojekten verwendet werden, sagt ein Manager des Blockchain-Sicherheitsunternehmens CertiK.

Kang Li, der Chief Security Officer von CertiK, erklärte gegenüber Cointelegraph auf der Korean Blockchain Week am 5. September, dass ChatGPT logische Codefehler nicht auf die gleiche Weise erkennen kann wie erfahrene Entwickler.

Li schlug vor, dass ChatGPT möglicherweise mehr Fehler verursacht als sie identifiziert, was für Programmierer, die zum ersten Mal oder für Amateure arbeiten und ihre eigenen Projekte erstellen möchten, katastrophal sein könnte.

„ChatGPT wird es einer Gruppe von Leuten ermöglichen, die noch nie so viel Schulung absolviert haben, einzusteigen. Sie können sofort damit beginnen, und ich mache mir langsam Sorgen über die darin verborgenen morphologischen Designprobleme.“

„Sie schreiben etwas und ChatGPT hilft Ihnen beim Aufbau, aber aufgrund all dieser Designfehler kann es kläglich scheitern, wenn Angreifer auftauchen“, fügte er hinzu.

Stattdessen glaubt Li, dass ChatGPT als Assistent eines Ingenieurs eingesetzt werden sollte, da es besser erklären kann, was eine Codezeile tatsächlich bedeutet.

„Ich denke, ChatGPT ist ein großartiges hilfreiches Tool für Leute, die Codeanalyse und Reverse Engineering durchführen. Es ist auf jeden Fall ein guter Assistent und wird unsere Effizienz enorm steigern.“

Das Publikum der koreanischen Blockchain-Woche versammelt sich zu einer Keynote. Quelle: Andrew Fenton/Cointelegraph

Er betonte, dass man sich beim Schreiben von Code nicht darauf verlassen sollte – vor allem nicht für unerfahrene Programmierer, die etwas Monetarisierbares bauen wollen.

Li sagte, er werde seine Behauptungen mindestens für die nächsten zwei bis drei Jahre unterstützen, da er anerkenne, dass die rasanten Entwicklungen in der KI die Fähigkeiten von ChatGPT erheblich verbessern könnten.

KI-Technologie wird bei Social-Engineering-Exploits immer besser

Unterdessen sagte Richard Ma, Mitbegründer und CEO des Web3-Sicherheitsunternehmens Quantstamp, am 4. September gegenüber Cointelegraph bei KBW, dass KI-Tools bei Social-Engineering-Angriffen immer erfolgreicher werden – von denen viele mit Versuchen von Menschen identisch sind.

Ma sagte, die Kunden von Quantstamp berichten von einer alarmierenden Menge immer ausgefeilterer Social-Engineering-Versuche.

„[With] In den jüngsten Versionen sieht es so aus, als hätten Menschen maschinelles Lernen genutzt, um E-Mails und Nachrichten zu schreiben. Es ist viel überzeugender als die Social-Engineering-Versuche von vor ein paar Jahren.“

Während der normale Internetnutzer seit Jahren mit KI-generierten Spam-E-Mails geplagt wird, glaubt Ma, dass wir uns einem Punkt nähern, an dem wir nicht mehr wissen werden, ob bösartige Nachrichten von KI oder von Menschen generiert werden.

Verwandt: Twitter-Hack: „Social-Engineering-Angriff“ auf Mitarbeiter-Admin-Panels

„Es wird schwieriger werden, zwischen Menschen zu unterscheiden, die dir Nachrichten senden [or] Ziemlich überzeugend, dass die KI Ihnen Nachrichten sendet und eine persönliche Nachricht schreibt“, sagte er.

Experten der Kryptoindustrie geraten bereits ins Visier, während andere von KI-Bots imitiert werden. Ma glaubt, dass es nur noch schlimmer werden wird.

„Im Kryptobereich gibt es viele Datenbanken mit allen Kontaktinformationen der Schlüsselpersonen jedes Projekts. Die Hacker haben also Zugriff darauf [and] Sie verfügen über eine KI, die im Grunde versuchen kann, Menschen auf unterschiedliche Weise zu benachrichtigen.“

„Es ist ziemlich schwierig, einem gesamten Unternehmen beizubringen, auf solche Dinge nicht zu reagieren“, fügte Ma hinzu.

Ma sagte, dass bessere Anti-Phishing-Software auf den Markt komme, die Unternehmen dabei helfen könne, potenzielle Angriffe abzuwehren.

Zeitschrift: AI Eye: Apple entwickelt Taschen-KI, Deep-Fake-Music-Deal und hypnotisiert GPT-4