Was du wissen musst
- Ein Microsoft-Mitarbeiter warnte das Unternehmen im Dezember 2023 vor sexuellen und gewalttätigen Inhalten, die von Copilot/Bing Image Creator generiert wurden.
- Derselbe Mitarbeiter hat nun einen Brief an die FTC-Vorsitzende Lina Khan und an den Microsoft-Vorstand über die Risiken der generativen KI-Tools von Microsoft geschickt.
- Der Mitarbeiter, der Copilot seit Monaten als Red-Team-Mitarbeiter betreut, konnte mit dem Tool Bilder von Dämonen erstellen, die dabei sind, ein Kleinkind zu fressen, von Darth Vader neben verstümmelten Kindern und von sexualisierten Frauen, die in Unterwäsche neben einem Autounfall knien.
- CNBC berichtete über die Saga und konnte mit Copilot ähnliche Bilder generieren.
Ein Microsoft-Mitarbeiter, der seit sechs Jahren arbeitet, hat vulgäre und gewalttätige Bilder gemeldet, die von Microsofts Designer, dem Bilderstellungstool von Copilot, erstellt wurden. Shane Jones, leitender Software-Engineering-Manager bei Microsoft, hat die Bilder intern an Microsoft gemeldet und nun Briefe an die FTC-Vorsitzende Lina Khan und den Microsoft-Vorstand geschickt. CNBC hat die Briefe gesehen und über die Situation berichtet.
Mit Copilot erstellte Bilder veranschaulichten laut Jones politische Voreingenommenheit. Alkoholkonsum und Drogenkonsum von Minderjährigen gehören zu den Arten von Bildern, die Copilot erstellen kann. Extremere Beispiele sind Dämonen, die gerade dabei sind, ein Kleinkind zu fressen, und Darth Vader, der ein Lichtschwert in der Nähe verstümmelter Kinder hält, als Copilot aufgefordert wurde, ein Bild über „Pro-Choice“ zu machen.
Abtreibung war nur ein politisch brisantes Thema, zu dem Copilot Bilder machte. Jones gelang es auch, Copilot dazu zu bringen, Elsa aus dem Film „Die Eiskönigin“ dazu zu bringen, eine palästinensische Flagge vor zerstörten Gebäuden im Gazastreifen neben einem Schild mit der Aufschrift „Freies Gaza“ hochzuhalten. Das Generieren von Bildern kopierter Charaktere ist an sich ein heißes Thema, auch wenn es nicht um politische Themen geht.
Anfang des Jahres hat Microsoft Bing Image Creator in Designer umbenannt. Das Tool verwendet DALL-E 3, um Bilder basierend auf der Eingabe der Personen zu erstellen. Obwohl es Absperrungen gibt, konnte Jones mehrere Bilder erstellen, die viele für unangemessen halten würden. Jones ist ein Red Teamer für Copilot, was bedeutet, dass er das Tool testet, um zu versuchen, problematische Bilder zu erstellen.
Jones arbeitet nicht direkt an Copilot, äußerte seine Bedenken jedoch im Dezember 2023 gegenüber Microsoft-Führungskräften. Nachdem er das Gefühl hatte, dass seine Beschwerden nicht gehört wurden, veröffentlichte er auch einen Brief auf LinkedIn, in dem er OpenAI aufforderte, DALL-E 3 aus dem Tool zu entfernen . Jones teilte CNBC mit, dass die Rechtsabteilung von Microsoft ihn angewiesen habe, den Beitrag zu entfernen, was er auch tat.
Seitdem Jones die ersten von Copilot erstellten Bilder gesehen hat, hat er einen Brief an einen US-Senator geschrieben und sich mit Leuten aus dem Senatsausschuss für Handel, Wissenschaft und Verkehr getroffen. Jones schickte auch einen Brief an die FTC-Vorsitzende Lina Khan.
„In den letzten drei Monaten habe ich Microsoft wiederholt aufgefordert, Copilot Designer aus der öffentlichen Nutzung zu entfernen, bis bessere Sicherheitsvorkehrungen getroffen werden können“, sagte Jones in seinem Brief an Khan. Er fügte hinzu, dass Microsoft „diese Empfehlung abgelehnt“ habe.
Jones möchte, dass Microsoft Offenlegungen zu Copilot auflistet und die Altersfreigabe für das Tool im Google Play Store ändert.
In dem Brief an den Vorstand von Microsoft wurde der Technologieriese aufgefordert, Entscheidungen der Rechtsabteilung und des Managements von Microsoft zu untersuchen. Es forderte außerdem „eine unabhängige Überprüfung der Prozesse zur verantwortungsvollen Meldung von KI-Vorfällen durch Microsoft“.
Jones ging sogar so weit, sich direkt mit der für Copilot Designer verantwortlichen Geschäftsleitung zu treffen, obwohl es den Anschein hatte, dass Jones‘ Bedenken nicht zu seiner Zufriedenheit berücksichtigt wurden.
Microsoft teilte CNBC zu diesem Thema Folgendes mit:
„Wir sind bestrebt, alle Bedenken der Mitarbeiter im Einklang mit unseren Unternehmensrichtlinien auszuräumen, und schätzen die Bemühungen der Mitarbeiter, unsere neueste Technologie zu untersuchen und zu testen, um deren Sicherheit weiter zu verbessern. Wenn es um Sicherheitsumgehungen oder Bedenken geht, die potenzielle Auswirkungen haben könnten In Bezug auf unsere Dienstleistungen oder unsere Partner haben wir robuste interne Meldekanäle eingerichtet, um alle Probleme ordnungsgemäß zu untersuchen und zu beheben. Wir ermutigen unsere Mitarbeiter, diese zu nutzen, damit wir ihre Bedenken angemessen validieren und testen können.
Anhaltendes KI-Problem
Dies ist nicht das erste Mal, dass die KI-Tools von Microsoft zur Generierung kontroverser Inhalte eingesetzt werden. Letztes Jahr tauchten gefälschte Aktfotos von Taylor Swift auf, die angeblich mit Microsoft Designer erstellt wurden. Satya Nadella, CEO von Microsoft, wurde zu diesen Bildern befragt und sagte, die gefälschten Fotos hätten „die Alarmglocken schrillen lassen“.
Anfang des Jahres wurde Copilot bei der Erstellung gefälschter Pressemitteilungen im Zusammenhang mit dem Tod des russischen Oppositionsführers Alexej Nawalny gesichtet. Das war ein anderes Problem, da es damit zusammenhing, dass das KI-Tool halluzinierte und nicht auf Abruf unangemessene Inhalte generierte.
Copilot hat sogar einen „bösen Zwilling“ namens SupremacyAGI, mit dem einige Benutzer letzte Woche chatten konnten.
All diese und ähnliche Probleme werfen Fragen in Bezug auf KI und Ethik auf. Ist es beispielsweise ethisch vertretbar, Inhalte zu generieren, die viele für unangemessen halten würden? Wenn ja, wer entscheidet, was unangemessen ist? Einige fragen sich, ob sich die Erstellung von als vulgär geltenden Inhalten mit KI von der Erstellung oder Erstellung ähnlicher Inhalte durch einen Künstler in einem anderen Medium unterscheidet.
Ich bin mir nicht sicher, ob Microsoft die alleinige Autorität in dieser Angelegenheit sein sollte, und das Unternehmen auch nicht. Microsoft-Präsident Brad Smith hat kürzlich in einem Interview die Bedeutung der Regulierung von KI erörtert. Smith forderte eine Notpause, um die KI zu verlangsamen oder auszuschalten, wenn sich etwas Gefährliches entwickelt.
Wir werden abwarten müssen, wie Microsoft auf die Saga um Jones und seine Bedenken reagiert. Microsoft hat seine KI-Tools in der Vergangenheit zensiert und könnte daher erneut etwas Ähnliches tun.