Kriminelle haben ihre eigenen ChatGPT-Klone erstellt


Krishnan sagt das Der Ersteller des Systems hat ein Video veröffentlicht Es sieht so aus, als ob der Chatbot funktioniert und eine betrügerische E-Mail generiert. Sie versuchten außerdem, den Zugang zum System für 200 US-Dollar pro Monat oder 1.700 US-Dollar pro Jahr zu verkaufen. Krishnan sagt, dass sie in Gesprächen mit dem Entwickler hinter FraudGPT behaupteten, ein paar hundert Abonnenten zu haben, und auf einen Verkauf gedrängt hätten, während der Erfinder von WormGPT offenbar Zahlungen an eine von ihnen geteilte Kryptowährungs-Wallet-Adresse erhalten habe. „Alle diese Projekte stecken noch in den Kinderschuhen“, sagt Krishnan. Er fügt hinzu: „Wir haben nicht viel Feedback dazu bekommen“, ob die Leute die Systeme kaufen oder nutzen.

Während diejenigen, die die Chatbots anpreisen, behaupten, dass sie existieren, ist es schwierig, den Aufbau und die Legitimität der Systeme zu überprüfen. Es ist bekannt, dass Cyberkriminelle andere Betrüger betrügen. Frühere Untersuchungen haben gezeigt, dass sie häufig versuchen, sich gegenseitig abzuzocken, nicht das liefern, was sie angeblich verkaufen, und einen schlechten Kundenservice bieten. Sergey Shykevich, Gruppenleiter für Bedrohungsaufklärung beim Sicherheitsunternehmen Check Point, sagt, es gebe Hinweise darauf, dass Menschen WormGTP verwenden. „Es scheint, dass es ein echtes Werkzeug gibt“, sagt Shykevich. Der Verkäufer hinter dem Tool sei „relativ zuverlässig“ und habe Erfahrung in Foren zur Cyberkriminalität, sagt er.

Auf einen Beitrag zum WormGPT gebe es mehr als 100 Antworten, sagt Shykevich, obwohl einige davon sagen, dass der Verkäufer nicht sehr auf ihre Anfragen reagiert habe und andere „nicht sehr begeistert“ von dem System seien. Shykevich ist von der Echtheit von FraudGPT weniger überzeugt – der Verkäufer hat dies auch behauptet Systeme namens DarkBard und DarkBert. Shykevich sagt, dass einige Beiträge des Verkäufers aus den Foren entfernt wurden. So oder so, sagt der Check Point-Forscher, gibt es keine Anzeichen dafür, dass eines der Systeme leistungsfähiger ist als ChatGPT, Bard oder andere kommerzielle LLMs.

Kelly sagt, er halte die Behauptungen über die bisher erstellten böswilligen LLMs für „etwas übertrieben“. Aber er fügt hinzu: „Dies unterscheidet sich nicht unbedingt von dem, was legitime Unternehmen in der realen Welt tun.“

Trotz Fragen zu den Systemen ist es keine Überraschung, dass Cyberkriminelle am LLM-Boom teilhaben wollen. Der Das FBI hat gewarnt dass Cyberkriminelle den Einsatz generativer KI bei ihrer Arbeit erwägen, und europäische Strafverfolgungsbehörden Europol hat eine ähnliche Warnung herausgegeben. Die Strafverfolgungsbehörden sagen, LLMs könnten Cyberkriminellen bei Betrug, Identitätsdiebstahl und anderem Social Engineering schneller als bisher helfen und auch ihr schriftliches Englisch verbessern.

Immer wenn ein neues Produkt, eine neue Dienstleistung oder eine neue Veranstaltung öffentliche Aufmerksamkeit erregt – von der Barbie Film zur Covid-19-Pandemie – Betrüger beeilen sich, es in ihre Hacking-Artillerie aufzunehmen. Bisher haben Betrüger Menschen dazu verleitet Herunterladen von Malware, die Passwörter stiehlt, über gefälschte Anzeigen für ChatGPT, Bard, Midjourney und andere generative KI-Systeme auf Facebook.

Forscher des Sicherheitsunternehmens Sophos haben die Betreiber von Schweineschlacht- und Liebesbetrugsmaschen zufällig entdeckt Einbinden von generiertem Text in ihre Nachrichten– „Als Sprachmodell von ‚mir‘ habe ich keine Gefühle oder Emotionen wie Menschen“, hieß es in einer Nachricht. Und Hacker haben auch Token gestohlen Gewähren Sie ihnen Zugriff auf die API von OpenAI und Zugriff auf den Chatbot in großem Maßstab.

In seinem WormGPT-Bericht stellt Kelly fest, dass Cyberkriminelle häufig Jailbreaks teilen, die es Menschen ermöglichen, die Sicherheitsbeschränkungen zu umgehen, die von den Herstellern beliebter LLMs eingeführt wurden. Aber selbst uneingeschränkte Versionen dieser Modelle sind in ihrer aktuellen Form zum Glück für Cyberkriminelle möglicherweise nicht so nützlich.

Shykevich, der Check-Point-Forscher, sagt, selbst wenn er gesehen habe, wie Cyberkriminelle versuchten, öffentliche Modelle zu nutzen, seien diese nicht effektiv gewesen. Sie können „Ransomware-Stämme und Datendiebstahler erstellen, aber nicht besser als ein durchschnittlicher Entwickler“, sagt er. Allerdings reden die Teilnehmer in den Cybercrime-Foren immer noch davon, ihre eigenen Klone zu erstellen, sagt Shykevich, und sie werden die Systeme nur noch besser nutzen können. Seien Sie also vorsichtig, was Sie anklicken.

source-114

Leave a Reply