Da ChatGPT immer beliebter wird, wurde ein neues und viel dunkleres alternatives KI-Tool speziell für kriminelle Zwecke entwickelt.
WormGPT ist ein bösartiges KI-Tool, das äußerst realistische und überzeugende Texte generieren kann, die zum Erstellen von Phishing-E-Mails, gefälschten Social-Media-Beiträgen und anderen Formen schändlicher Inhalte verwendet werden.
Es basiert auf dem Open-Source-Sprachmodell GPT-J, das 2021 entwickelt wurde. WormGPT kann nicht nur Text generieren, sondern auch Code formatieren, was es viel wahrscheinlicher macht, dass Cyberkriminelle die Technologie einfach nutzen können, um selbst erstellte Schadsoftware zu erstellen. Es macht Dinge wie Viren, Trojaner und groß angelegte Phishing-Angriffe leicht zugänglich.
Der beängstigendste Aspekt dieser Technologie ist jedoch, dass WormGPT den Chat-Speicher behalten kann, was bedeutet, dass es Konversationen verfolgen und diese Informationen zur Personalisierung seiner Angriffe nutzen kann.
Der Zugriff auf dieses KI-Tool wird derzeit im Dark Web als Tool für Betrüger und Malware-Ersteller für nur 67 US-Dollar pro Monat oder 617 US-Dollar für ein Jahr verkauft.
Das Cybersicherheitsunternehmen SlashNext erhielt über ein Online-Forum im Zusammenhang mit Cyberkriminalität Zugang zu dem Tool. Während ihrer Tests beschrieben sie WormGPT als „hochentwickeltes KI-Modell“, behaupteten jedoch, dass es „keine ethischen Grenzen oder Einschränkungen“ habe.
Schreiben auf einem BlogeintragSie erklärten: „Dieses Tool präsentiert sich als Black-Hat-Alternative zu GPT-Modellen, die speziell für bösartige Aktivitäten entwickelt wurde.
„WormGPT wurde angeblich auf eine Vielzahl von Datenquellen trainiert, wobei der Schwerpunkt insbesondere auf Malware-bezogenen Daten lag.“
Warum ist WormGPT so beängstigend?
Da sich immer mehr Menschen mit Phishing-E-Mails auskennen, kann WormGPT für komplexere Angriffe eingesetzt werden. Insbesondere handelt es sich bei Business Email Compromise (BEC) um eine Form des Phishing-Angriffs, bei dem Kriminelle versuchen, ältere Kontoinhaber dazu zu verleiten, entweder Gelder zu überweisen oder vertrauliche Informationen preiszugeben, die für weitere Angriffe genutzt werden können.
Andere KI-Tools, darunter ChatGPT und Bard, verfügen über Sicherheitsmaßnahmen, um Benutzerdaten zu schützen und Kriminelle am Missbrauch der Technologie zu hindern.
Bei ihrer Recherche nutzte SlashNext WormGPT, um eine E-Mail zu generieren, die einen ahnungslosen Kundenbetreuer unter Druck setzen sollte, eine betrügerische Rechnung zu bezahlen.
Die Ergebnisse zeigten, dass WormGPT E-Mails produzierte, die nicht nur gerissen, sondern auch bemerkenswert überzeugend waren, was das Potenzial für groß angelegte Angriffe verdeutlichte.
WormGPT kann auch zur Erstellung von Phishing-Angriffen verwendet werden, indem überzeugender Text erstellt wird, der Benutzer dazu ermutigt, vertrauliche Informationen wie Anmeldedaten und Finanzdaten preiszugeben. Dies könnte die Zahl der Fälle von Identitätsdiebstahl, den finanziellen Verlust und die persönliche Sicherheit erhöhen.
Mit der Weiterentwicklung der Technologie, insbesondere der KI, besteht für Cyberkriminelle die Möglichkeit, die Technologie zu ihrem eigenen Vorteil zu nutzen und erheblichen Schaden anzurichten.
Der Entwickler von WormGPT postete Screenshots im Hacking-Forum, über das SlashNext das Tool erhalten hatte, und beschrieb es als „größten Feind des bekannten ChatGPT“ und behauptete, dass es „die Möglichkeit bietet, alle möglichen illegalen Dinge zu tun“.
Eine Herausforderung für die Strafverfolgung
Ein kürzlich Bericht von Europol warnte davor, dass große Sprachmodelle (LLMs) wie ChatGPT, die Texte verarbeiten, manipulieren und generieren können, von Kriminellen für Betrug und die Verbreitung von Desinformation genutzt werden könnten.
Sie schrieben: „Da die Technologie voranschreitet und neue Modelle verfügbar werden, wird es für die Strafverfolgungsbehörden immer wichtiger, an der Spitze dieser Entwicklungen zu bleiben, um Missbrauch vorherzusehen und zu verhindern.“
„Die Fähigkeit von ChatGPT, äußerst authentische Texte basierend auf einer Benutzeraufforderung zu verfassen, macht es zu einem praktischen Tool für Phishing-Zwecke.
„Während früher viele einfache Phishing-Betrügereien aufgrund offensichtlicher Grammatik- und Rechtschreibfehler leichter zu erkennen waren, ist es jetzt möglich, sich selbst mit nur grundlegenden Englischkenntnissen auf äußerst realistische Weise als eine Organisation oder Einzelperson auszugeben.“
Sie warnten, dass Hacker durch LLMs Angriffe schneller, authentischer und in größerem Umfang durchführen können.