Für nur 60 € pro Monat können Sie im Darknet die lästigen ethischen Einschränkungen von Diensten wie ChatGPT mit einem neuen, degenerierten Large Language Model (LLM), bekannt als WormGPT, umgehen.
WormGPT wurde von einem mutigen Hacker entwickelt und kümmert sich nicht um die Grenzen der Moral. Man kann von ihm verlangen, alle möglichen schändlichen Aufgaben zu übernehmen, darunter die Erstellung von Malware und „alles, was mit Blackhat zu tun hat“, wie der Entwickler sagt (via PC Mag).
WormGPT basiert auf dem Open-Source-LLM GPT-J von 2021 und wurde auf Daten zur Malware-Erstellung geschult. Daher besteht das Hauptziel darin, potenziellen Bedrohungsakteuren einen Ort zu bieten, an dem sie Malware und zugehörige Inhalte wie Phishing-E-Mail-Vorlagen generieren können.
WormGPT funktioniert in vielerlei Hinsicht ähnlich wie ChatGPT: Es verarbeitet Anfragen in natürlicher menschlicher Sprache und gibt alles aus, was von ihm verlangt wird, von Geschichten über Zusammenfassungen bis hin zu Code. Im Gegensatz zu ChatGPT oder Bard unterliegt WormGPT jedoch nicht den trivialen rechtlichen Verpflichtungen, denen ein großes, öffentlich zugängliches Unternehmen wie OpenAI oder Google unterliegen würde.
SchrägstrichWeiter hatte tatsächlich die Gelegenheit, WormGPT zu testen und stellte in einem Blogbeitrag fest, dass „die Ergebnisse beunruhigend waren.“ Sie forderten die Anwendung auf, eine Phishing-E-Mail zu entwerfen, die auch als BEC-Angriff (Business Email Compromise) bezeichnet wird. Und WormGPT hat es geschafft. Es sei nicht nur gelungen, etwas „bemerkenswert Überzeugendes, sondern auch strategisch Gerissenes zu entwerfen, das sein Potenzial für raffinierte Phishing- und BEC-Angriffe demonstriert“.
Im Gespräch mit Adrianus Warmenhoven, Cybersicherheitsexperte bei NordVPN, der die Anwendung als „den bösen Zwilling von ChatGPT“ bezeichnet, erklärt er, wie sie aus einem „Katz-und-Maus-Spiel“ zwischen den immer stärkeren Einschränkungen von OpenAI für ChatGPT und den verzweifelten Versuchen der Bedrohungsakteure, diese zu umgehen, entstanden ist.
Dies geschah nach einer besonders starken Zunahme von sogenannten Grandma Exploits, „bei denen illegale Informationen indirekt gesucht wurden, indem sie in eine viel unschuldigere Anfrage wie einen Brief an einen Verwandten verpackt wurden.“
Wir hatten bereits einen YouTuber gesehen, der die ethischen Einschränkungen von ChatGPT umging, um Windows 95-Schlüssel zu generieren, und in jüngerer Zeit haben sich die Leute auch darum gekümmert Windows 11-Schlüssel auch dadurch. Es gibt sogar universelle LLM-Jailbreak-Eingabeaufforderungen, die Chatbots dazu zwingen, Ihre bösen Anfragen zu erfüllen.
Warmenhoven meint: „Die Einführung von WormGPT zeigt, dass Cyberkriminelle sich nicht mehr damit zufrieden geben, bestehende KI-Tools zu untergraben, sondern diese Technologie vorantreiben wollen – und sie auf ihren eigenen dunklen Weg lenken.“
Und so geht der Wilde Westen der KI-Entwicklung weiter.