Bei einem Telefonat mit Journalisten diesen Freitaghat das FBI eine deutliche Erinnerung – und Warnung – an die Ausbreitung von Cyberangriffen herausgegeben, die durch KI-Programme unterstützt werden. Nach Angaben der Regierungsbehörde ist die Zahl der zu Abtrünnigen gewordenen Menschen, die KI-Technologie im Rahmen von Phishing-Angriffen oder der Entwicklung von Malware nutzen, in alarmierendem Tempo gestiegen – und die Auswirkungen ihrer Vorgänge nehmen weiter zu.
Wir haben über Berichte darüber berichtet, wie sogar gesperrte KI-Modelle wie ChatGPT verwendet wurden, um Malware zu entwickeln, die selbst die neuesten Sicherheitssysteme umgehen kann. Polymorphe Malware, wie sie genannt wird, ist eine Software, für deren Umsetzung früher ein hochqualifizierter Black-Hat-Programmierer (oder eine Gruppe von Programmierern) erforderlich war. Jetzt wurde es in Richtung eines Kontextfensters demokratisiert.
„Wir gehen davon aus, dass diese Trends im Laufe der Zeit zunehmen werden, wenn die Einführung und Demokratisierung von KI-Modellen voranschreitet.“ sagte ein hochrangiger FBI-Beamter.
Doch jenseits der Walled Gardens von ChatGPT von Open AI und Claude 2 von Anthropic steht die Welt der Open-Source-KI im Fokus der Strafverfolgungsbehörden. Das ist die Welt, in der Sie ein Basismodell Ihrer Wahl (das jüngste Beispiel hierfür ist Metas Open-Source-Llama 2) abrufen und es anhand der gewünschten Dokumentation trainieren können, um es an Ihre spezifischen Anforderungen anzupassen.
Diese Bedürfnisse können von einem selbstzerstörerisch-humorvollen ChatGPT-Klon reichen, der unbedingt die Weltherrschaft anstrebt (wie im Fall von BratGPT); einen Umweg durch das DarkWeb und seine sprachliche Subkultur machen (wie es Forscher mit DarkBert taten); und landete schließlich bei abonnementbasierten Angeboten wie WormGPT.
Letzteres scheint ein besonders heikles Thema zu sein: Möchtegern-Hacker können jetzt auf die Dienste eines abonnementbasierten, Black-Hat-fokussierten ChatGPT-Klons zugreifen. Es gibt keine bequemere Umgebung für jemanden, um einen Phishing-Angriff aus der Ferne zu starten.
Mit diesen Tools kann der Angreifer den Aufbau der gesamten Webseite, die Hin- und Her-E-Mail-Antwortkette und praktisch die gesamte mit dem Prozess verbundene Arbeit problemlos automatisieren. Oder wiederum programmieren Sie polymorphe Malware, die in der Lage ist, aktuelle Cybersicherheitsfunktionen zu umgehen – und die Verteidigung ist bereits im Nachteil. Es ist nicht nötig, zusätzlich KI hinzuzufügen. Vielleicht ist es klug, dass das FBI während des Anrufs nicht herausgefunden hat, welche spezifischen Open-Source-KI-Modelle ausgenutzt werden, aber die bloße Erkenntnis, dass es ein Problem gibt, ist aussagekräftig genug.
Das FBI betonte auch Sicherheitsbedenken im Zusammenhang mit der Verbreitung generativer KI-Technologie, die im Bereich Deepfakes verklagt werden kann – KI-generierte Inhalte, die in der Realität nie stattgefunden haben. Es ist schwer zu unterschätzen, wie gefährlich eine gefälschte, digital nicht überprüfbare Pressekonferenz in der Welt, in der wir leben, werden kann. Dieses Problem führt direkt zum Rätsel der Trennung synthetischer Daten (die von einem KI-Netzwerk generiert oder anderweitig verarbeitet werden). aus entstehenden Daten (die Daten, die auf natürliche Weise aus der Aufzeichnung menschlicher Aktivitäten hervorgehen).
Eine Reihe von KI-Giganten, darunter OpenAI, Microsoft, Google und Meta, haben kürzlich im Weißen Haus geschworen, eine solche Wasserzeichen-Technologie einzuführen, was ihnen auch im unvermeidlichen Wettlauf um niedrigere Schulungskosten (von denen der Spitzenkandidat das ist, was so genannt wird) von Nutzen ist rekursives Training). Doch erst diese Woche hat OpenAI sein AI-Classifier-Tool eingestellt, dessen Ziel es lediglich war, solche synthetischen Daten zu identifizieren. Aber aufgrund der Erfolgsquote von nur 26 % wäre es vielleicht das Beste gewesen, wenn OpenAI es geschlossen hätte.
Die Verbreitung privat maßgeschneiderter, Open-Source-generativer KI-Technologie ist eine Gewissheit, wie die auf dieser Seite verlinkten Beispiele nahelegen. Der Moment, sie einzudämmen, war seit dem Moment, als sie Open Source wurden, vorbei; Und im Laufe der Zeit werden bessere Hardware und Techniken es jedem mit einem privaten KI-Modell ermöglichen, dieses zu verbessern.
Wie alles wird auch die KI-Nutzung variieren und von den Dingen reichen, die dem FBI am Herzen liegen, über den Aufbau neuer Unternehmen aufgrund der einfachen Automatisierung bis hin zur Gestaltung ganzer Abenteuer in Spielen wie Cyberpunk 2077. Wir müssen es so sehen, wie es weitergeht.