Machen Sie sich auf eine Flutwelle von ChatGPT-E-Mail-Betrug gefasst


Hier ist ein Experiment von Informatikstudenten betrieben werden: Bitten Sie ChatGPT, Phishing-E-Mails zu generieren, und testen Sie, ob diese besser geeignet sind, Opfer dazu zu bewegen, zu antworten oder auf den Link zu klicken, als der übliche Spam. Es ist ein interessantes Experiment, und die Ergebnisse werden wahrscheinlich stark variieren, basierend auf den Details des Experiments.

Aber obwohl es ein einfaches Experiment ist, verfehlt es das wirkliche Risiko, dass große Sprachmodelle (LLMs) betrügerische E-Mails schreiben. Die heutigen von Menschen ausgeführten Betrügereien sind nicht durch die Anzahl der Personen begrenzt, die auf den ersten E-Mail-Kontakt antworten. Sie sind durch den arbeitsintensiven Prozess eingeschränkt, diese Leute davon zu überzeugen, dem Betrüger Geld zu schicken. LLMs sind dabei, das zu ändern.

Vor einem Jahrzehnt war eine Art von Spam-E-Mail zu einer Pointe in jeder Late-Night-Show geworden: „Ich bin der Sohn des verstorbenen Königs von Nigeria, der Ihre Hilfe benötigt …“ Fast jeder hatte eine oder tausend dieser E-Mails erhalten. bis zu dem Punkt, dass es schien, dass jeder gewusst haben musste, dass es sich um Betrug handelte.

Warum also verschickten Betrüger immer noch so offensichtlich dubiose E-Mails? Im Jahr 2012 bot der Forscher Cormac Herley eine an antworten: Es hat alle bis auf die Leichtgläubigsten ausgesondert. Ein cleverer Betrüger möchte seine Zeit nicht mit Leuten verschwenden, die antworten und dann erkennen, dass es sich um einen Betrug handelt, wenn sie aufgefordert werden, Geld zu überweisen. Durch die Verwendung einer offensichtlichen Betrugs-E-Mail kann sich der Betrüger auf die potenziell profitabelsten Personen konzentrieren. Es erfordert Zeit und Mühe, sich an der Hin- und Her-Kommunikation zu beteiligen, die die Marken Schritt für Schritt vom Gesprächspartner über den vertrauenswürdigen Bekannten bis hin zum Armen anstupst.

Langanhaltende Finanzbetrügereien sind heute als Schweineschlachten bekannt und erhöhen die potenzielle Marke bis zu ihrem endgültigen und plötzlichen Ende. Solche Betrügereien, die es erfordern, Vertrauen zu gewinnen und die persönlichen Finanzen eines Ziels zu infiltrieren, nehmen Wochen oder sogar Monate persönlicher Zeit und wiederholter Interaktionen in Anspruch. Es ist ein Spiel mit hohen Einsätzen und geringer Wahrscheinlichkeit, das der Betrüger spielt.

Hier werden LLMs einen Unterschied machen. Es wurde viel über die Unzuverlässigkeit der GPT-Modelle von OpenAI und ihresgleichen geschrieben: Sie „halluzinieren“ häufig, erfinden Dinge über die Welt und verbreiten selbstbewusst Unsinn. Für die Unterhaltung ist das in Ordnung, aber für die meisten praktischen Zwecke ist es ein Problem. Es ist jedoch kein Fehler, sondern ein Merkmal, wenn es um Betrug geht: Die Fähigkeit von LLMs, selbstbewusst mit den Schlägen zu rollen, egal was ein Benutzer ihnen entgegenwirft, wird sich für Betrüger als nützlich erweisen, wenn sie feindselig, verwirrt und leichtgläubig navigieren Betrugsziele in Milliardenhöhe. KI-Chatbot-Betrug kann mehr Menschen in die Falle locken, weil der Pool von Opfern, die auf einen subtileren und flexibleren Betrüger hereinfallen werden – einer, der in allem, was jemals online geschrieben wurde, geschult wurde – viel größer ist als der Pool derjenigen, die glauben, dass der König von Nigeria es will ihnen eine Milliarde Dollar zu geben.

Personal Computer sind heute leistungsfähig genug, um kompakte LLMs auszuführen. Nach Facebooks neuem Modell, LLaMA, wurde online durchgesickert, haben die Entwickler es so abgestimmt, dass es auf leistungsstarken Laptops schnell und kostengünstig läuft. Zahlreiche andere Open-Source-LLMs befinden sich in der Entwicklung, mit einer Gemeinschaft von Tausenden von Ingenieuren und Wissenschaftlern.

Ein einziger Betrüger kann jetzt von seinem Laptop überall auf der Welt Hunderte oder Tausende von Betrügereien parallel ausführen, Tag und Nacht, mit Markierungen auf der ganzen Welt, in jeder Sprache unter der Sonne. Die KI-Chatbots werden niemals schlafen und sich auf ihrem Weg immer an ihre Ziele anpassen. Und neue Mechanismen von ChatGPT Plugins Zu LangChain, wird die Zusammenstellung von KI mit Tausenden von API-basierten Cloud-Diensten und Open-Source-Tools ermöglichen, sodass LLMs wie Menschen mit dem Internet interagieren können. Die Imitationen in solchen Betrügereien sind nicht mehr nur Prinzen, die die Reichtümer ihres Landes anbieten. Sie sind einsame Fremde auf der Suche nach Romantik, heißen neuen Kryptowährungen, deren Wert bald in die Höhe schnellen wird, und scheinbar soliden neuen Finanz-Websites, die erstaunliche Einzahlungsrenditen bieten. Und die Leute sind es schon fallen In Liebe mit LLM.

Dies ist eine Änderung sowohl im Umfang als auch im Umfang. LLMs werden die Betrugspipeline verändern und sie profitabler denn je machen. Wir wissen nicht, wie wir in einer Welt mit einer Milliarde oder 10 Milliarden Betrügern leben sollen, die niemals schlafen.

Es wird auch eine Änderung in der Raffinesse dieser Angriffe geben. Dies liegt nicht nur an den Fortschritten der KI, sondern auch am Geschäftsmodell des Internets – dem Überwachungskapitalismus – das Unmengen an Daten über uns alle produziert, die von Datenbrokern gekauft werden können. Gezielte Angriffe auf Einzelpersonen, sei es für Phishing oder Datensammlung oder Betrug, waren einst nur den Nationalstaaten vorbehalten. Kombinieren Sie die digitalen Dossiers, die Datenbroker über uns alle haben, mit LLMs, und Sie haben ein maßgeschneidertes Tool für personalisierte Betrügereien.

Unternehmen wie OpenAI versuchen, ihre Modelle daran zu hindern, schlechte Dinge zu tun. Aber mit der Veröffentlichung jedes neuen LLMs schwirren die Social-Media-Websites vor neuen KI-Jailbreaks, die die neuen Beschränkungen umgehen, die von den KI-Designern eingeführt wurden. ChatGPT, dann Bing Chat und dann GPT-4 wurden alle innerhalb von Minuten nach ihrer Veröffentlichung jailbreakt, und zwar auf Dutzende verschiedene Arten. Die meisten Schutzmaßnahmen gegen Missbrauch und schädlichen Output sind nur oberflächlich und werden von entschlossenen Benutzern leicht umgangen. Sobald ein Jailbreak entdeckt wird, kann er normalerweise verallgemeinert werden, und die Benutzergemeinschaft zieht das LLM durch die Ritzen in seiner Rüstung auf. Und die Technologie schreitet zu schnell voran, als dass irgendjemand vollständig verstehen könnte, wie sie funktioniert, selbst die Designer.

Dies ist jedoch alles eine alte Geschichte: Es erinnert uns daran, dass viele der schlechten Verwendungen von KI eher ein Spiegelbild der Menschheit als ein Spiegelbild der KI-Technologie selbst sind. Betrug ist nichts Neues – einfach die Absicht und dann die Handlung einer Person, die eine andere zum persönlichen Vorteil austrickst. Und der Einsatz anderer als Diener, um Betrug zu begehen, ist leider nichts Neues oder Ungewöhnliches: Zum Beispiel entführt oder verpflichtet die organisierte Kriminalität in Asien derzeit Tausende betrügerische Sweatshops. Ist es besser, dass die organisierte Kriminalität nicht länger die Notwendigkeit sieht, Menschen auszubeuten und körperlich zu misshandeln, um ihre Betrugsoperationen durchzuführen, oder schlimmer noch, dass sie und viele andere in der Lage sein werden, Betrug auf ein beispielloses Niveau auszuweiten?

Die Verteidigung kann und wird aufholen, aber vorher wird unser Signal-Rausch-Verhältnis dramatisch sinken.

source-114

Leave a Reply