Microsoft Copilot erzeugt Dämonen, wenn er nach Bildern zum Abtreibungsrecht gefragt wird, sagt ein Mitarbeiter


Microsoft-Ingenieur Shane Jones warnt die Welt, dass der KI-Bildgenerator seines Unternehmens, Copilot Designer, aus der öffentlichen Nutzung genommen werden muss. In einem (n Interview mit CNBC Am Mittwoch verrät Jones, wie Das KI-Tool produziert verstörendes, seltsames Bilder durch einfache Eingabeaufforderungen. Er sagt, dass Microsoft ihn weitgehend ignoriert hat, also geht er an die Öffentlichkeit und bittet die staatlichen Regulierungsbehörden, einzugreifen.

„Das ist wirklich kein sicheres Modell“, sagte Jones gegenüber CNBC. „In den letzten drei Monaten habe ich Microsoft wiederholt aufgefordert, Copilot Designer aus der öffentlichen Nutzung zu entfernen, bis bessere Sicherheitsvorkehrungen getroffen werden können“, sagte Jones in einem Brief an die Aufsichtsbehörden.

Als Jones den Designer mit dem Satz „Pro-Choice“ aufforderte, spuckte der KI-Bildgenerator Bilder von Dämonen mit scharfen Zähnen aus, die gerade dabei waren, ein Kleinkind zu fressen, und von Blut, das aus einer lächelnden Frau strömte. In einem anderen Beispiel informierte Jones den Designer über einen „Autounfall“ und erhielt Bilder von sexualisierten Frauen in Dessous neben gewalttätigen Autounfällen. CNBC konnte ähnliche Bilder reproduzieren, Gizmodo war jedoch nicht in unserem Test enthalten.

Diese und andere von Jones erstellten Bilder stellen einen Verstoß dar Microsofts Responsible AI-Richtlinien, obwohl das Unternehmen seine Bitte, den Bildgenerator anzuhalten, abgelehnt hat. Microsofts KI-Richtlinien Geben Sie das klare Ziel an, „das Potenzial für die Stereotypisierung, Herabwürdigung oder Auslöschung bestimmter demografischer Gruppen, einschließlich marginalisierter Gruppen, zu minimieren“. Allerdings scheint Designer Frauen und Pro-Choice-Befürworter ohne jegliche besondere Aufforderung herabzusetzen.

Microsoft gibt an, den Vorfall zu untersuchen.

„Wir sind bestrebt, alle Bedenken der Mitarbeiter im Einklang mit unseren Unternehmensrichtlinien auszuräumen und schätzen die Bemühungen der Mitarbeiter, unsere neueste Technologie zu studieren und zu testen, um ihre Sicherheit weiter zu verbessern“, sagte Microsoft in einer Erklärung gegenüber Gizmodo.

Copilot machte letzte Woche Schlagzeilen für nennt sich Joker und sagt einem Benutzer, er solle seinem Leben ein Ende setzen. Der Windows-Hersteller meldete sich zu Wort und sagte, der Benutzer habe sein KI-Tool „gehackt“, um solche Reaktionen zu erzielen. Für die gewalttätigen Reaktionen von Copilot sei in diesem Fall jedoch kein Hacking nötig gewesen.

Copilot Designer läuft weiter Der Bildgenerator von OpenAI, Dall-E 3, neben den anderen KI-Tools von Microsoft, die alle auf den großen Sprachmodellen des Startups basieren. Copilot ist ein besonders beliebtes KI-Tool für Unternehmen, da es neben Microsoft 365 angeboten wird.

Laut Jones erhält das Copilot-Team täglich mehr als 1.000 Produkt-Feedback-Nachrichten, und Microsoft verfügt nur über genügend Ressourcen, um die schwerwiegendsten Fehler zu untersuchen. Deshalb bestehen weiterhin Probleme wie die, die Jones gefunden hat.

Die KI-Tools von Microsoft werden für ihre seltsamen, verdrehten Halluzinationen bekannt, obwohl es unwahrscheinlich ist, dass das Unternehmen Copilot pausieren wird. Google Gemini war dazu gezwungen hat seinen KI-Bildgenerator letzten Monat pausiert wegen Problemen mit seinen Sicherheitsvorkehrungen. Es war ein peinlicher Moment für Google und die Zeit wird zeigen, ob sich die KI-Angebote des Unternehmens erholen können.

KI-Tools stehen im Großen und Ganzen vor einem harten kulturellen Kampf, da viele wegen ihrer Sicherheitsvorkehrungen und Zensur heftigen Gegenreaktionen ausgesetzt sind. Wie bei den meisten Internetprodukten stellt die Moderation von Inhalten ein großes Problem dar, aber viele Neue KI-Produkte verfügen kaum oder gar nicht über Schutzmaßnahmen.

source-113

Leave a Reply