OpenAI bietet Künstlern, die davor zurückschrecken, KI-Algorithmen zu füttern, einen Olivenzweig


OpenAI kämpft gegen Klagen von Künstlern, Autoren und Verlegern, die behaupten, es habe ihre Arbeit unangemessen genutzt, um die Algorithmen hinter ChatGPT und anderen KI-Systemen zu trainieren. Am Dienstag kündigte das Unternehmen ein Tool an, das offenbar darauf abzielt, Kreative und Rechteinhaber zu beruhigen, indem es ihnen eine gewisse Kontrolle darüber gibt, wie OpenAI ihre Arbeit nutzt.

Das Unternehmen kündigt an, im Jahr 2025 ein Tool namens Media Manager auf den Markt zu bringen, das es Content-Erstellern ermöglicht, ihre Arbeit von der KI-Entwicklung des Unternehmens auszuschließen. In ein BlogbeitragOpenAI beschrieb das Tool als eine Möglichkeit, „Erstellern und Inhaltseigentümern die Möglichkeit zu geben, uns mitzuteilen, was sie besitzen“ und anzugeben, „wie sie möchten, dass ihre Werke in die Forschung und Schulung zum maschinellen Lernen einbezogen oder davon ausgeschlossen werden“.

OpenAI sagte, es arbeite mit „Erstellern, Inhaltseigentümern und Regulierungsbehörden“ zusammen, um das Tool zu entwickeln, und beabsichtige, damit „einen Industriestandard zu setzen“. Das Unternehmen nannte keinen seiner Projektpartner und machte auch nicht klar, wie das Tool genau funktionieren wird.

Zu den offenen Fragen zum System gehört, ob Inhaltseigentümer eine einzige Anfrage stellen können, um alle ihre Werke abzudecken, und ob OpenAI Anfragen im Zusammenhang mit Modellen zulässt, die bereits trainiert und eingeführt wurden. Derzeit wird an maschinellem „Verlernen“ geforscht, einem Prozess, der ein KI-System so anpasst, dass nachträglich der Beitrag eines Teils seiner Trainingsdaten entfernt wird. Die Technik ist jedoch noch nicht perfektioniert.

Ed Newton-Rex, CEO des Startups Fairly Trained, das KI-Unternehmen zertifiziert, die Trainingsdaten aus ethischen Quellen verwenden, sagt, dass die offensichtliche Verlagerung von OpenAI in Bezug auf Trainingsdaten willkommen sei, die Umsetzung jedoch von entscheidender Bedeutung sein werde. „Ich freue mich, dass OpenAI sich mit diesem Thema beschäftigt. Ob es den Künstlern tatsächlich hilft oder nicht, hängt vom Detail ab, das noch nicht bekannt ist“, sagt er. Die erste große Frage, die ihm durch den Kopf geht: Ist dies einfach ein Opt-out-Tool, das es OpenAI ermöglicht, weiterhin Daten ohne Erlaubnis zu verwenden, es sei denn, ein Inhaltseigentümer beantragt den Ausschluss? Oder wird es eine größere Veränderung in der Art und Weise bedeuten, wie OpenAI Geschäfte macht? OpenAI antwortete nicht sofort auf eine Bitte um Stellungnahme.

Newton-Rex ist auch gespannt, ob OpenAI anderen Unternehmen die Nutzung seines Media Managers ermöglichen wird, damit Künstler ihre Vorlieben mehreren KI-Entwicklern gleichzeitig mitteilen können. „Wenn nicht, erhöht dies nur die Komplexität einer bereits komplexen Opt-out-Umgebung“, sagt Newton-Rex, der zuvor leitender Angestellter bei Stability AI war, dem Entwickler des Stable Diffusion-Bildgenerators.

OpenAI ist nicht der erste, der nach Möglichkeiten für Künstler und andere Ersteller von Inhalten sucht, ihre Präferenzen bezüglich der Verwendung ihrer Arbeit und persönlichen Daten für KI-Projekte zu signalisieren. Auch andere Technologieunternehmen, von Adobe bis Tumblr, bieten Opt-out-Tools für die Datenerfassung und maschinelles Lernen an. Das Startup Spawning hat eine Registrierung namens gestartet Trainiere nicht Vor fast zwei Jahren haben die Urheber bereits ihre Präferenzen für 1,5 Milliarden Werke hinzugefügt.

Jordan Meyer, CEO von Spawning, sagt, das Unternehmen arbeite bei seinem Media Manager-Projekt nicht mit OpenAI zusammen, sei aber offen dafür. „Wenn OpenAI in der Lage ist, die Registrierung oder Einhaltung universeller Opt-outs einfacher zu machen, werden wir ihre Arbeit gerne in unsere Suite integrieren“, sagt er.

source-114

Leave a Reply