Wie gefährlich ist KI in den Händen von Kriminellen?

San Francisco Der große Erfolg von Textrobotern wie ChatGPT ermuntert inzwischen Cyberkriminelle, neuartige digitale Einbruchswerkezeuge zu bauen. WormGPT und FraudGPT sind die Namen zweier Schadprogramme auf Basis Künstlicher Intelligenz (KI), mit denen Kriminelle Firmen und Privatleute angreifen wollen. Und die haben das Potenzial, das Betrugsmodell der Hacker zu skalieren.

Mirko Ross, CEO der Cybersecurity-Firma Asvin, sieht bereits einen Trend: Gefährliche Cyberwaffen werden zunehmend praktisch zur Miete angeboten. „Dadurch wird die Schwelle zur Ausführung von Cyberangriffen durch ,weniger Talentierte‘ gesenkt“, sagte Ross dem Handelsblatt.

Betrugsversuche, auch Phishing-Attacken, sind schon jetzt weit verbreitet. Oft versuchen Kriminelle, mit gefälschten E-Mails oder Webseiten an persönliche Informationen wie Passwörter oder Kreditkartendaten zu kommen. Hier könnten KI-Systeme besonders hilfreich sein.

KI sei in der Lage, den Umfang von Hackerangriffen massiv zu erweitern, warnt auch Steven Stone, der die Einheit für Gefahrenanalyse beim Cybersecurity-Spezialisten Rubrik leitet. Betrügerische E-Mails müssten nun nicht mehr händisch übersetzt werden oder an jeden Empfänger angepasst werden.

„Recherche von Inhalten und Sprachfähigkeiten schränkten bislang Angreifer ein“, sagte Stone. „KI kann diese Hürde in hohem Tempo überwinden.“ Dabei befinde sich das gesamte Einsatzfeld für Künstliche Intelligenz noch ganz am Anfang, sowohl für Angreifer als auch für Verteidiger.

Qualität der Phishing-Attacken hat mit KI-Boom zugenommen

Das Start-up OpenAI hat mit ChatGPT ein KI-Modell entwickelt, das menschliche Sprache interpretieren und produzieren kann. Die Technik dahinter sind die sogenannten großen Sprachmodelle.

Werden sie mit den richtigen Daten gefüttert, können sie fast alle Fragen beantworten und Auftragstexte schreiben. Im Büroalltag sind sie inzwischen in zahlreichen Unternehmen eine Hilfe, wenn es um E-Mail-Anschreiben oder Beschreibungstexte geht. Diese Fähigkeit wollen Cyberkriminelle nutzen und haben dafür eigene Systeme nach dem Vorbild von ChatGPT entwickelt.

Es gibt viele Vermutungen dazu, wie stark schon heute KI bei Cyberattacken eingesetzt wird. Konkrete Zahlen gibt es jedoch nicht. Denn es lässt sich kaum erkennen, ob eine Betrugs-E-Mail, von einer KI oder einem Menschen geschrieben wurde.

>> Lesen Sie auch: Wie neuartige Cyberattacken mit KI die Banken bedrohen

„Allerdings spüren unsere Mitarbeiter und ich, dass die Qualität von Phishing-Angriffen gestiegen ist“, bekräftigt Ross. E-Mails und Messenger-Nachrichten aus solchen Angriffskampagnen seien nun meist fehlerfrei geschrieben: „Es wird also zunehmend schwerer, schadhafte E-Mails alleine an Fehlern im Textaufbau und in der Grammatik zu erkennen.“

Was die KI-Modelle WormGPT und FraudGPT können sollen

Mehrere KI-Systeme für Cyberattacken werden bereits in einem verborgenen Teil des Internets angeboten, dem sogenannten Darknet und Deep Web. Die Entwickler von WormGPT behaupten etwa, dass ihr Werkzeug perfekt für die Attacke auf Firmen ausgelegt sei und eine ähnliche Qualität wie ChatGPT erreiche.

Der Sicherheitsforscher Daniel Kelley von der Cybersecurity-Firma Slashnext testete das System. „WormGPT erstellte eine E-Mail, die nicht nur bemerkenswert überzeugend, sondern auch strategisch klug war“, schrieb Kelley in seiner Analyse. In dem Test hatte das Tool eine E-Mail formuliert, die einen Angestellten dazu drängen sollte, eine gefälschte Rechnung zu bezahlen.

„Die Qualität ist ähnlich gut wie bei ChatGPT, aber WormGPT kennt keine ethischen Grenzen oder Einschränkungen“, resümierte Kelley (Analyse im Original). Betrugsmails gibt es zwar seit vielen Jahren, aber auch Kelley befürchtet eine merkliche Ausweitung. „Dieses Experiment unterstreicht die erhebliche Bedrohung, die von generativen KI-Technologien wie WormGPT ausgeht, selbst in den Händen von unerfahrenen Cyberkriminellen.“

Die Entwickler von FraudGPT behaupten, dass ihr Werkzeug noch deutlich mehr Funktionen biete. Sprachmodelle können nicht nur Texte schreiben, sondern auch Computercode. Diese Fähigkeit soll FraudGPT nutzen, um gezielt Schadsoftware zu entwickeln.

Virenscanner beruhen zum Teil darauf, dass sie bekannte Schadprogramme erkennen und unterbinden. FraudGPT behauptet, komplett neue Software auf Befehl schreiben zu können, die nicht mehr aufgespürt werden könne. Sicherheitsforscher Rakesh Krishnan von der Firma Nentenrich sprach von einer großen Gefahr durch das System.

Andere Cyberexperten warnen vor einer übertriebenen Darstellung der Werkzeuge. „Mein Team hat die Tools analysiert und sie werden dem Hype, der um sie gemacht wird, wirklich nicht gerecht“, sagte Michael Sikorski, der die Spezialeinheit Unit 42 beim Cybersecurity-Unternehmen Palo Alto Networks leitet. „Wir sehen keine Anzeichen dafür, dass Cyberkriminelle diese Tools erfolgreich einsetzen.“

WormGPT und FraudGPT: Wie bedrohlich sind die neuen KI-Tools?

Hinter beiden Modellen dürften öffentlich verfügbare Sprachmodelle stehen, vermuteten Cybersicherheitsexperten. Während OpenAI seine eigenen Modelle geheim hält, haben andere Firmen wie der Facebook-Mutterkonzern Meta oder das Londoner Start-up Stability AI ihre Sprachmodelle zur Verfügung gestellt. Und während ChatGPT Antworten auf Fragen verweigert, wie sich ein Computersystem einer Firma kapern oder Cyberwaffen bauen lassen, sind die offenen Modelle auskunftsfreudiger.

>> Lesen Sie auch: Wie die Chefin eines Mittelständlers eine Cyberattacke durchgestanden hat

Doch auch eigentlich gesicherte Modelle wie ChatGPT lassen sich für kriminelle Zwecke einsetzen. Hacker diskutieren im Darknet, mit welchen Tricks sich die Sicherheitsmechanismen aushebeln lassen.

Dabei müssen es gar nicht speziell trainierte Hackerwerkzeuge sein, die schon heute Kriminellen helfen, warnte Sikorski: „Ich bin der Meinung, dass diese Tools in ihrem jetzigen Zustand das gleiche Risikoniveau aufweisen wie alle anderen KI-Tools auf dem Markt.“ Hacker könnten auch einfach auf etablierte Modelle zurückgreifen und diese so austricksen, dass sie sich für kriminelle Zwecke einsetzen lassen.

Künstliche Intelligenz könnte auch sinnvoll für die Verteidigung gegen Hackerangriffe eingesetzt werden. „KI kann unerbittlich sein, sie ist ein bisschen wie der Terminator. Sie wird nicht aufhören“, sagt Sikorski. Dadurch könne KI aber genauso helfen, Computersysteme sicherer zu machen und Angriffe besser abzuwehren.

„Wir sind das Wettrüsten mit den Angreifern gewohnt“, sagte Gary Steele vom Cloudunternehmen Splunk aus San Francisco. Nicht nur Kriminelle werteten ihre Taktiken mit Künstlicher Intelligenz auf.

Mehr: Mithilfe von KI-Chatbots wie ChatGPT können Kriminelle ihre Betrugsmaschen für Millionen von Opfern personalisieren

source site-12