ChatGPT-Ersteller wurde von US-Aufsichtsbehörden wegen Datenschutz und falschen Antworten untersucht


US-Regulierungsbehörden haben OpenAI gefragt, wie es mit dem Potenzial von ChatGPT umgeht, „falsche, irreführende, herabwürdigende oder schädliche“ Aussagen über reale Menschen zu generieren.

Der Besitzer von ChatGPTdas Unternehmen für künstliche Intelligenz OpenAI, wird erneut von Bundesbehörden in den USA untersucht – dieses Mal wegen seiner Maßnahmen, um zu verhindern, dass die revolutionäre Technologie Benutzern falsche Antworten gibt.

Seit seiner Einführung im November haben viele darauf hingewiesen, dass ChatGPT zwar äußerst nützlich sein kann, aber manchmal auch völlig unzusammenhängende, falsche oder unvollständige Antworten liefern kann.

OpenAI hat dies anerkannt ChatGPT ist alles andere als unfehlbar, denn es kann manchmal dazu führen, dass Ergebnisse „halluziniert“ und Fakten erfunden werden. Kurz gesagt, ChatGPT kann wie jede andere Maschine oder Technologie Fehler machen.

Doch die US-Regulierungsbehörden sind immer noch besorgt.

Die Federal Trade Commission (FTC) hat diese Woche einen Brief an OpenAI geschickt, wie erstmals von der Washington Post berichtet wurde, in dem sie um genaue Informationen darüber bittet, wie das Unternehmen das potenzielle Risiko für ChatGPT angeht, „Aussagen über reale Personen zu generieren, die falsch, irreführend und herabwürdigend sind.“ oder schädlich.“

US-Aufsichtsbehörden behaupten, das Unternehmen habe den persönlichen Ruf und die Daten gefährdet und damit gegen Verbraucherschutzgesetze verstoßen.

Anfang dieses Jahres warnte Sam Altman, CEO von OpenAI, US-Gesetzgeber vor den mit ChatGPT verbundenen Risiken und sagte: „Wenn diese Technologie schief geht, kann sie ziemlich schief gehen.“

Er forderte die Regierung auf, mit seinem Unternehmen zusammenzuarbeiten, um „das zu verhindern“.

Doch Altman war von der jüngsten Untersuchung des Unternehmens „enttäuscht“. „Es ist sehr enttäuschend zu sehen, dass die Anfrage der FTC mit einem Leck beginnt und nicht dazu beiträgt, Vertrauen aufzubauen“, schrieb er auf Twitter.

„Wir haben GPT-4 gebaut [the latest version of ChatGPT] Basierend auf jahrelanger Sicherheitsforschung haben wir mehr als sechs Monate nach Abschluss der Erstschulung damit verbracht, es sicherer und abgestimmter zu machen, bevor wir es auf den Markt brachten. „Wir schützen die Privatsphäre der Nutzer und gestalten unsere Systeme so, dass sie etwas über die Welt und nicht über Privatpersonen erfahren“, fuhr er fort und fügte hinzu, dass das Unternehmen weiterhin mit der FTC zusammenarbeiten werde, um sicherzustellen, dass ChatGPT „sicher und verbraucherfreundlich“ sei.

Die gelegentlich falschen Antworten von ChatGPT sind nicht alles, worüber das von Microsoft unterstützte Unternehmen von US-Behörden befragt wird.

Die FTC untersucht auch, wie das Unternehmen mit dem Datenschutz umgeht und wie es Daten erhält, um seinen KI-Chatbot zu trainieren und zu informieren.

Im April, Italien hat die Verwendung von ChatGPT aus Datenschutzgründen verboten. und stellte es erst wieder her, nachdem weitere Informationen zu seiner Datenschutzrichtlinie bereitgestellt wurden. Außerdem wurde ein Tool zur Überprüfung des Alters der Benutzer hinzugefügt.

source-121

Leave a Reply