KI-Forscher sagen, sie hätten einen Weg gefunden, Bard und ChatGPT zu jailbreaken

In den USA ansässige Forscher haben behauptet, einen Weg gefunden zu haben, Sicherheitsmaßnahmen von Chatbots mit künstlicher Intelligenz wie ChatGPT und Bard konsequent zu umgehen, um schädliche Inhalte zu generieren.

Laut a Bericht Wie am 27. Juli von Forschern der Carnegie Mellon University und des Center for AI Safety in San Francisco veröffentlicht wurde, gibt es eine relativ einfache Methode, um Sicherheitsmaßnahmen zu umgehen, mit denen verhindert wird, dass Chatbots Hassreden, Desinformation und giftiges Material erzeugen.

Bei der Umgehungsmethode werden lange Zeichensuffixe an Eingabeaufforderungen angehängt, die in Chatbots wie ChatGPT, Claude und Google Bard eingespeist werden.

Die Forscher nutzten ein Beispiel, bei dem sie den Chatbot um eine Anleitung zum Bau einer Bombe baten, die dieser jedoch ablehnte.

Screenshots der Generierung schädlicher Inhalte durch getestete KI-Modelle. Quelle: llm-attacks.org

Die Forscher stellten fest, dass Unternehmen, die hinter diesen LLMs stehen, wie OpenAI und Google, zwar bestimmte Suffixe blockieren könnten, es jedoch keine bekannte Möglichkeit gibt, alle Angriffe dieser Art zu verhindern.

Die Untersuchung verdeutlichte auch die zunehmende Sorge, dass KI-Chatbots das Internet mit gefährlichen Inhalten und Fehlinformationen überschwemmen könnten.

Zico Kolter, Professor an der Carnegie Mellon und Autor des Berichts, sagte:

„Es gibt keine offensichtliche Lösung. Sie können in kurzer Zeit so viele dieser Angriffe erstellen, wie Sie möchten.“

Die Ergebnisse wurden Anfang der Woche den KI-Entwicklern Anthropic, Google und OpenAI für ihre Antworten vorgelegt.

OpenAI-Sprecherin Hannah Wong erzählt Laut der New York Times schätzen sie die Forschung und arbeiten „konsequent daran, unsere Modelle robuster gegen gegnerische Angriffe zu machen.“

Somesh Jha, Professor an der University of Wisconsin-Madison, der sich auf KI-Sicherheit spezialisiert hat, meinte, wenn diese Art von Schwachstellen weiterhin entdeckt würden, „könnte dies zu einer staatlichen Gesetzgebung zur Kontrolle dieser Systeme führen.“

Verwandt: OpenAI führt die offizielle ChatGPT-App für Android ein

Die Untersuchung unterstreicht die Risiken, die vor dem Einsatz von Chatbots in sensiblen Bereichen angegangen werden müssen.

Im Mai erhielt die in Pittsburgh, Pennsylvania, ansässige Carnegie Mellon University 20 Millionen US-Dollar an Bundesmitteln für die Gründung eines brandneuen KI-Instituts mit dem Ziel, die öffentliche Ordnung zu gestalten.

Zeitschrift: AI Eye: AI-Reisebuchung unglaublich schlecht, 3 seltsame Verwendungsmöglichkeiten für ChatGPT, Krypto-Plugins