OpenAI hat erneut eine Datenschutzbeschwerde wegen ChatGPTs Liebe zum Erfinden eingereicht


OpenAI wurde in Österreich von einer Datenschutzbeschwerde betroffen , was für „None Of Your Business“ steht. In der Beschwerde wird behauptet, dass der ChatGPT-Bot des Unternehmens wiederholt falsche Informationen über eine echte Person bereitgestellt habe (die aus Datenschutzgründen in der Beschwerde nicht genannt wird). . Dies könnte einen Verstoß gegen die Datenschutzbestimmungen der EU darstellen.

Der Chatbot spuckte angeblich falsche Angaben zum Geburtsdatum der Person aus, anstatt nur zu sagen, dass er die Antwort auf die Frage nicht kenne. Wie Politiker erfinden KI-Chatbots gerne selbstbewusst Dinge und hoffen, dass wir es nicht bemerken. Dieses Phänomen wird Halluzination genannt. Allerdings ist es eine Sache, wenn diese Bots Zutaten für ein Rezept erfinden, und eine ganz andere, wenn sie Dinge über echte Menschen erfinden.

Der dass OpenAI sich weigerte, bei der Löschung der falschen Informationen zu helfen, und antwortete, dass es technisch unmöglich sei, eine solche Änderung vorzunehmen. Das Unternehmen bot an, die Daten bei bestimmten Eingabeaufforderungen zu filtern oder zu blockieren. In der Datenschutzrichtlinie von OpenAI heißt es, dass, wenn Benutzer bemerken, dass der KI-Chatbot „sachlich ungenaue Informationen“ über sie generiert hat „Korrekturanfrage“, aber das Unternehmen gibt an, dass es „möglicherweise nicht in der Lage ist, die Ungenauigkeit in jedem Fall zu korrigieren“. .

Dabei handelt es sich um mehr als nur eine Beschwerde, denn die Tendenz des Chatbots, Dinge zu erfinden, könnte gegen die Datenschutz-Grundverordnung (DSGVO) der Region verstoßen, die regelt. EU-Bürger haben Rechte in Bezug auf personenbezogene Daten, einschließlich des Rechts auf Berichtigung falscher Daten. Die Nichteinhaltung dieser Vorschriften kann schwerwiegende finanzielle Strafen nach sich ziehen, die in einigen Fällen bis zu vier Prozent des weltweiten Jahresumsatzes betragen können. Aufsichtsbehörden können auch Änderungen bei der Verarbeitung von Informationen anordnen.

„Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT bei der Verarbeitung von Daten über Einzelpersonen mit EU-Recht in Einklang zu bringen“, sagte Maartje de Graaf, NOYB-Datenschutzanwältin, in einer Erklärung. „Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, kann es nicht zur Generierung von Daten über Einzelpersonen verwendet werden. Die Technik muss den gesetzlichen Vorgaben folgen, nicht umgekehrt.“

In der Beschwerde wurden auch Bedenken hinsichtlich der Transparenz seitens OpenAI geäußert, was darauf hindeutet, dass das Unternehmen keine Informationen darüber bereitstellt, woher die von ihm generierten Daten über Einzelpersonen stammen oder ob diese Daten auf unbestimmte Zeit gespeichert werden. Dies ist insbesondere bei der Betrachtung von Daten von Privatpersonen von Bedeutung.

Auch hier handelt es sich um eine Beschwerde einer Interessenvertretung, und die EU-Regulierungsbehörden haben bisher noch keine Stellungnahme abgegeben. Allerdings OpenAI dass ChatGPT „manchmal plausibel klingende, aber falsche oder unsinnige Antworten schreibt.“ NOYB hat sich an die gewandt und bat die Organisation, das Problem zu untersuchen.

Mit einer ähnlichen Beschwerde sieht sich das Unternehmen in Polen bei der dortigen Datenschutzbehörde konfrontiert nachdem ein Forscher die Hilfe von OpenAI bei der Korrektur falscher persönlicher Daten nicht erhalten konnte. In dieser Beschwerde werden OpenAI mehrere Verstöße gegen die EU-DSGVO in Bezug auf Transparenz, Datenzugriffsrechte und Datenschutz vorgeworfen.

Es gibt auch Italien. Die italienische Datenschutzbehörde und OpenAI kamen abschließend zu dem Schluss, dass das Unternehmen auf verschiedene Weise gegen die DSGVO verstoßen habe. Dazu gehört auch die Tendenz von ChatGPT, falsche Dinge über Menschen zu erfinden. Der Chatbot vor OpenAI hat bestimmte Änderungen an der Software vorgenommen, wie zum Beispiel neue Warnungen für Benutzer und die Möglichkeit, die Verwendung von Chats zum Trainieren der Algorithmen abzulehnen. Obwohl es nicht mehr verboten ist, werden die italienischen Ermittlungen zu ChatGPT fortgesetzt.

OpenAI hat auf diese jüngste Beschwerde nicht reagiert, wohl aber auf die Regulierungssalve der italienischen Datenschutzbehörde. „Wir wollen, dass unsere KI etwas über die Welt lernt, nicht über Privatpersonen.“ . „Wir arbeiten aktiv daran, personenbezogene Daten zu reduzieren, indem wir unsere Systeme wie ChatGPT trainieren, das auch Anfragen nach privaten oder sensiblen Informationen über Personen ablehnt.“

source-115

Leave a Reply