Erinnern Sie sich noch, als Sam Altman, CEO von OpenAI, vor einiger Zeit sagte, dass der Missbrauch künstlicher Intelligenz „Licht aus für alle“ bedeuten könnte? (öffnet in neuem Tab) Nun, das war keine so unvernünftige Aussage, wenn man bedenkt, dass Hacker Tools verkaufen, um die Beschränkungen von ChatGPT zu umgehen und bösartige Inhalte zu erzeugen.
Kontrollpunkt (öffnet in neuem Tab) Berichte (über Ars Technica (öffnet in neuem Tab)), dass Cyberkriminelle einen ziemlich einfachen Weg gefunden haben, ChatGPT-Inhaltsmoderationsbarrieren zu umgehen und damit schnell Geld zu verdienen. Für weniger als 6 US-Dollar können Sie ChatGPT bösartigen Code oder eine Menge überzeugender Kopien für Phishing-E-Mails generieren lassen.
Diese Hacker taten dies, indem sie die API von OpenAI verwendeten, um spezielle Bots in der beliebten Messaging-App Telegram zu erstellen, die über die App auf eine uneingeschränkte Version von ChatGPT zugreifen können. Cyberkriminelle berechnen Kunden nur 5,50 US-Dollar pro 100 Abfragen und geben potenziellen Kunden Beispiele für schädliche Dinge, die damit angestellt werden können.
Andere Hacker fanden einen Weg, den Schutz von ChatGPT zu umgehen, indem sie ein spezielles Skript erstellten (wieder unter Verwendung der API von OpenAI), das auf GitHub veröffentlicht wurde. Diese dunkle Version von ChatGPT kann eine Vorlage für eine Phishing-E-Mail generieren, um sich als ein Unternehmen und Ihre Bank auszugeben, sogar mit Anweisungen, wo der Phishing-Link am besten in der E-Mail platziert werden kann.
Noch beängstigender ist, dass Sie den Chatbot verwenden können, um einen Malware-Code zu erstellen oder einen vorhandenen zu verbessern, indem Sie ihn einfach darum bitten. Checkpoint hatte vorher geschrieben (öffnet in neuem Tab) darüber, wie einfach es für diejenigen ohne Programmiererfahrung ist, einige ziemlich böse Malware zu generieren, insbesondere in frühen Versionen von ChatGPT, deren Beschränkungen nur in Bezug auf die Erstellung bösartiger Inhalte strenger wurden.
Die ChatGPT-Technologie von OpenAI wird im kommenden Microsoft Bing-Suchmaschinenupdate enthalten sein, das einen KI-Chat enthalten wird, um robustere und leicht verständliche Antworten auf offenere Fragen zu liefern. Auch dies bringt seine eigenen Probleme in Bezug auf die Verwendung von urheberrechtlich geschütztem Material mit sich (öffnet in neuem Tab).
Wir haben bereits geschrieben, wie einfach es war, KI-Tools wie das Klonen von Stimmen zu missbrauchen, um Promi-Soundalikes dazu zu bringen, schreckliche Dinge zu sagen (öffnet in neuem Tab). Es war also nur eine Frage der Zeit, bis einige schlechte Schauspieler einen Weg fanden, es einfacher zu machen, schlechte Dinge zu tun. Abgesehen davon, dass die KI ihre Hausaufgaben machen muss (öffnet in neuem Tab).