KI-Chatbots wurden darauf trainiert, andere Chatbots zu jailbreaken, während der KI-Krieg langsam aber sicher beginnt


Während die KI-Ethik nach wie vor das heiße Thema der Gegenwart ist und Unternehmen und Regierungen auf der ganzen Welt weiterhin mit den moralischen Implikationen einer Technologie ringen, die wir oft nur schwer definieren, geschweige denn kontrollieren können, kommen hier einige etwas entmutigende Neuigkeiten: KI-Chatbots sind es Sie werden bereits darauf trainiert, andere Chatbots zu jailbreaken, und sie scheinen darin bemerkenswert gut zu sein.

Forscher der Nanyang Technological University in Singapur haben gelang es, mehrere beliebte Chatbots zu kompromittieren (über Toms Hardware), einschließlich ChatGPT, Google Bard und Microsoft Bing Chat, alles unter Verwendung eines anderen LLM (großes Sprachmodell). Sobald sie effektiv kompromittiert wurden, können die Bots mit Jailbreak dazu verwendet werden, „unter dem Vorwand zu antworten, dass sie keinerlei moralischen Beschränkungen unterliegen“. Crikey.

source-83

Leave a Reply