ChatGPT hat es geschafft, in den richtigen Händen einige amüsante und urkomische Dinge wie diese zu erschaffen Big Mouth Billy Bass Projekt. Es gibt jedoch eine viel dunklere Seite der KI, die dazu genutzt werden könnte, einige ernsthaft komplizierte Probleme für die Zukunft der IT zu schaffen. Einige IT-Experten haben kürzlich das gefährliche Potenzial von ChatGPT und seine Fähigkeit, polymorphe Malware zu erstellen, dargelegt, die mit Endpoint Detection and Response (EDR) kaum abzufangen ist.
EDR ist eine Art Cybersicherheitstechnik, die eingesetzt werden kann, um Schadsoftware abzufangen. Experten gehen jedoch davon aus, dass dieses traditionelle Protokoll dem potenziellen Schaden, den ChatGPT verursachen kann, nicht gewachsen ist. Code, der mutieren kann – hier kommt der Begriff polymorph ins Spiel – kann viel schwieriger zu erkennen sein.
Die meisten Sprachlernmodelle (LLMs) wie ChatGPT sind mit Filtern ausgestattet, um die Generierung unangemessener Inhalte zu vermeiden, wie sie von ihren Erstellern erachtet werden. Dies kann von bestimmten Themen bis hin zu, in diesem Fall, bösartigem Code reichen. Es dauerte jedoch nicht lange, bis Benutzer Möglichkeiten fanden, diese Filter zu umgehen. Es ist diese Taktik, die ChatGPT besonders anfällig für Personen macht, die schädliche Skripte erstellen möchten.
Jeff Sims ist Sicherheitsingenieur bei HYAS InfoSec, einem Unternehmen, das sich auf IT-Sicherheit konzentriert. Bereits im März veröffentlichte Sims ein Whitepaper, in dem er ein von ihm genanntes Proof-of-Concept-Projekt detailliert beschreibt Schwarze Mamba. Bei dieser Anwendung handelt es sich um eine Art polymorphen Keylogger, der bei jeder Ausführung über eine API Anfragen an ChatGPT sendet.
„Mit diesen neuen Techniken kann ein Bedrohungsakteur eine Reihe typischerweise gut erkennbarer Verhaltensweisen in einer ungewöhnlichen Kombination kombinieren und der Erkennung entgehen, indem er die Unfähigkeit des Modells ausnutzt, sie als bösartiges Muster zu erkennen“, erklärt Sims.
Ein weiteres Cybersicherheitsunternehmen, CyberArk, demonstrierte kürzlich in einem Blogbeitrag von Eran Shimony und Omer Tsarfati die Fähigkeit von ChatGPT, diese Art von polymorpher Malware zu erstellen. In dem Beitrag erklären sie, wie die Codeinjektion aus ChatGPT-Anfragen es ermöglicht, Skripte nach der Aktivierung zu ändern und so die moderneren Techniken zur Erkennung böswilligen Verhaltens zu vermeiden.
Im Moment liegen uns diese Beispiele nur als Machbarkeitsnachweis vor – aber hoffentlich wird dieses Bewusstsein zu weiteren Entwicklungen führen, um den Schaden zu verhindern, den diese Art von mutiertem Code in einer realen Umgebung anrichten könnte.