Im Dark Web werden gefährliche ChatGPT- und Google Bard-Klone beworben, die von „bankenraubenden Cyberkriminellen“ erstellt wurden

CYBERKRIMINALE verstärken ihre Machenschaften mit ihren eigenen bösartigen Versionen des Tools für künstliche Intelligenz ChatGPT und nutzen das Dark Web für Werbung.

Die böswilligen Plattformen wurden als WormGPT und FraudGPT entlarvt und ermöglichen es Kriminellen, ihre Betrügereien mit KI zu verbessern.

1

Betrüger bitten böswillige KI-Bots, Phishing-E-Mails zu erstellen oder Hacking-Codes zu schreiben

WormGPT und FraudGPT unterscheiden sich von anderen KI-Bots von Google, Microsoft und OpenAI dadurch, dass sie über Sperren verfügen, die einen Missbrauch verhindern.

Echte KI-Bots weigern sich, Malware zu generieren oder Hassreden zu schreiben.

Betrüger bitten böswillige KI-Bots, Phishing-E-Mails zu erstellen oder Hacking-Codes zu schreiben. Verdrahtet gemeldet nach Entdeckungen von Forschern.

WormGPT und FraudGPT werden Betrügern im Dark Web beworben, fügte Wired hinzu.

KI ermöglicht weniger erfahrenen Hackern den Zugriff auf hochwertige und überzeugende Inhalte.

Die Entwickler von WormGPT haben behauptet, dass es eine unbegrenzte Zeichenanzahl und Codeformatierung bietet.

Der unabhängige Cybersicherheitsforscher Daniel Kelly entdeckte WormGPT und brachte es ans Licht, um die Menschen zu warnen.

„Die KI-Modelle sind besonders nützlich für Phishing, insbesondere weil sie die Eintrittsbarrieren für viele unerfahrene Cyberkriminelle senken“, sagte Kelly in einer E-Mail per Wired.

Kelly bemerkte, dass viele Betrüger auf Schwierigkeiten stoßen, weil sie nicht das richtige Englisch und die richtige Grammatik beherrschen.

„Viele Leute argumentieren, dass die meisten Cyberkriminellen eine E-Mail auf Englisch verfassen können, aber das gilt nicht unbedingt für viele Betrüger“, sagte Kelly.

WormGPT erwies sich als „beunruhigende Ergebnisse“.

Das WormGPT-System war in der Lage, „eine E-Mail zu erstellen, die nicht nur bemerkenswert überzeugend, sondern auch strategisch raffiniert war“, fügte Kelly hinzu.

Während FraudGPT laut Wired behauptet hat, in der Lage zu sein, „nicht erkennbare Malware zu erstellen“ und Lecks und Schwachstellen zu finden.

Zusammen mit der Erstellung von Texten, die für Online-Betrügereien verwendet werden könnten.

Es wurde von Rakesh Krishnan, dem leitenden Bedrohungsanalysten beim Sicherheitsunternehmen Netenrich, entdeckt.

Krishnan sagte, dass der FraudGPT-Entwickler ein Video im Dark Web gepostet habe, das zeigte, wie das System eine Betrugs-E-Mail generierte.

Die Finalisten von „Love Island“ brüskieren Molly Marsh brutal, als Ella Thomas das Geständnis macht
Towie-Star verrät, dass sie mit ihrem ersten Kind schwanger ist

Beide Plattformen können zur Erstellung von Betrügereien genutzt werden, die den Opfern Geld oder persönliche Daten stehlen können.

Daher ist es besonders wichtig, vor Betrügereien auf der Hut zu sein, da diese möglicherweise immer ausgefeilter werden.


source site-19

Leave a Reply