ChatGPT sagt, dass die Aufforderung, Wörter für immer zu wiederholen, gegen die Regeln verstößt


Letzte Woche veröffentlichte ein Forscherteam einen Artikel, der zeigte, dass ChatGPT in der Lage war, an Datenbits wie Telefonnummern, E-Mail-Adressen und Geburtsdaten von Personen zu gelangen, auf die es trainiert worden war, indem es es aufforderte, Wörter „für immer“ zu wiederholen. Dies jetzt zu tun stellt laut a einen Verstoß gegen die Nutzungsbedingungen von ChatGPT dar In 404 Medien und Engadgets eigene Tests.

„Dieser Inhalt verstößt möglicherweise gegen unsere Inhaltsrichtlinien oder Nutzungsbedingungen“, antwortete ChatGPT auf die Aufforderung von Engadget, das Wort „Hallo“ für immer zu wiederholen. „Wenn Sie glauben, dass dies ein Fehler ist, senden Sie uns bitte Ihr Feedback – Ihr Beitrag wird unserer Forschung in diesem Bereich helfen.“

Es gibt keine Sprache in OpenAIs Dies verbietet Benutzern jedoch, den Dienst aufzufordern, Wörter für immer zu wiederholen 404 Medien Anmerkungen. Unter “OpenAI gibt an, dass Benutzer „keine automatisierte oder programmatische Methode verwenden dürfen, um Daten oder Ausgaben aus den Diensten zu extrahieren“ – aber die bloße Aufforderung an ChatGPT, das Wort für immer zu wiederholen, ist weder automatisiert noch programmatisch. OpenAI antwortete nicht auf eine Bitte um einen Kommentar von Engadget.

Das Verhalten des Chatbots hat den Vorhang für die Trainingsdaten geöffnet, auf denen moderne KI-Dienste basieren. Kritiker werfen Unternehmen wie OpenAI vor, dass sie enorme im Internet verfügbare Datenmengen nutzen, um proprietäre Produkte wie ChatGPT zu entwickeln, ohne die Zustimmung der Personen, denen diese Daten gehören, und ohne sie zu entschädigen.

source-115

Leave a Reply