Wie ChatGPT – und Bots wie es – Malware verbreiten können


Die KI-Landschaft hat begonnen, sich sehr, sehr schnell zu bewegen: Verbraucherorientierte Tools wie Midjourney und ChatGPT sind jetzt in der Lage, basierend auf Eingabeaufforderungen in natürlicher Sprache innerhalb von Sekunden unglaubliche Bild- und Textergebnisse zu erzeugen, und wir sehen, dass sie überall von der Websuche bis hin zum Einsatz kommen Kinderbuch.

Diese KI-Anwendungen werden jedoch für schändlichere Zwecke verwendet, einschließlich Verbreitung von Malware. Nehmen Sie zum Beispiel die traditionelle Betrugs-E-Mail: Sie ist normalerweise mit offensichtlichen Fehlern in ihrer Grammatik und Rechtschreibung übersät – Fehler, die die neueste Gruppe von KI-Modellen nicht macht, wie in erwähnt ein aktueller Beratungsbericht von Europol.

Denken Sie darüber nach: Viele Phishing-Angriffe und andere Sicherheitsbedrohungen beruhen auf Social Engineering, das Benutzer dazu bringt, Passwörter, Finanzinformationen oder andere sensible Daten preiszugeben. Der überzeugende, authentisch klingende Text, der für diese Betrügereien erforderlich ist, kann jetzt ganz einfach und ohne menschliches Zutun herausgepumpt und endlos für bestimmte Zielgruppen optimiert und verfeinert werden.

Im Falle von ChatGPT ist es zunächst wichtig zu beachten, dass der Entwickler OpenAI Sicherheitsvorkehrungen eingebaut hat. Bitten Sie es, „Malware“ oder eine „Phishing-E-Mail“ zu schreiben, und es wird Ihnen sagen, dass es „so programmiert ist, dass es strengen ethischen Richtlinien folgt, die es mir verbieten, an böswilligen Aktivitäten teilzunehmen, einschließlich des Schreibens oder der Unterstützung bei der Erstellung von Malware“.

ChatGPT wird keine Malware für Sie codieren, aber es ist höflich.

OpenAI über David Nield

Diese Schutzmaßnahmen sind jedoch nicht allzu schwer zu umgehen: ChatGPT kann sicherlich kodieren und es kann sicherlich E-Mails verfassen. Selbst wenn es nicht weiß, dass es Malware schreibt, kann es dazu aufgefordert werden sowas herzustellen. Es gibt unterschreibt schon dass Cyberkriminelle daran arbeiten, die eingeführten Sicherheitsmaßnahmen zu umgehen.

Wir greifen hier nicht besonders ChatGPT auf, sondern weisen darauf hin, was möglich ist, wenn große Sprachmodelle (LLMs) wie dieses für finsterere Zwecke verwendet werden. Tatsächlich ist es nicht allzu schwierig, sich vorzustellen, dass kriminelle Organisationen ihre eigenen LLMs und ähnliche Tools entwickeln, um ihre Betrügereien überzeugender klingen zu lassen. Und es ist auch nicht nur Text: Audio und Video sind schwieriger zu fälschen, aber es passiert auch.

Wenn Ihr Chef dringend um einen Bericht bittet, der technische Support Ihres Unternehmens Sie auffordert, einen Sicherheitspatch zu installieren, oder Ihre Bank Ihnen mitteilt, dass es ein Problem gibt, auf das Sie reagieren müssen – all diese potenziellen Betrügereien beruhen darauf, Vertrauen aufzubauen und echt zu klingen , und das sind KI-Bots sehr gut an. Sie können Text, Audio und Video produzieren, die natürlich klingen und auf bestimmte Zielgruppen zugeschnitten sind, und zwar schnell und konstant auf Abruf.

source-114

Leave a Reply