Wir alle wissen, dass ChatGPT Dinge falsch macht. Wie in sehr falsch, und die ganze Zeit. Während das amüsant sein kann, ist es weniger lustig, wenn ChatGPT Sie fälschlicherweise als Kriminellen identifiziert. Und es ist noch weniger lustig, wenn Sie tatsächlich die Person waren, die das fragliche Verbrechen ursprünglich aufgedeckt hat.
In der Tat könnten Sie es so unlustig finden, dass Sie beschließen, wegen Verleumdung zu klagen. Genau das tut Brian Hood, ein in Melbourne, Australien, ansässiger Politiker.
ChatGPT hat Hood anscheinend identifiziert (öffnet in neuem Tab)jetzt Bürgermeister einer lokalen Behörde im Nordwesten von Melbourne, als einer der zentralen Täter des sogenannten Skandal um Sicherheitsbestechung (öffnet in neuem Tab). Der Chatbot beschreibt, wie Hood sich 2012 zu den Anklagen schuldig bekannte und zu zwei zweieinhalb Jahren Gefängnis verurteilt wurde.
Und das tut es immer noch, wenn Sie ChatGPT heute nach dem Skandal fragen.
Tatsächlich war es Hood, der die Behörden auf die Bestechung in einer Banknotendruckerei namens Securency aufmerksam machte, die damals eine Tochtergesellschaft der Reserve Bank of Australia war. Zu dieser Zeit lobte die Richterin des Obersten Gerichtshofs von Victoria, Elizabeth Hollingworth, Hood für seinen „enormen Mut“, sich zu melden.
Hood verlor offenbar seinen Job, nachdem er die Pfeife geblasen hatte, und litt jahrelang unter Angst, als sich der Rechtsfall hinzog.
Als Hood von den falschen Informationen erfuhr, die von ChatGPT verbreitet wurden, sagte er, „fühlte er sich ein bisschen wie betäubt. Weil es so falsch war, so völlig falsch, das hat mich einfach verblüfft. Und dann wurde ich ziemlich wütend darüber.“
Berichten zufolge haben die Anwälte von Hood ein erstes Verfahren wegen Verleumdung gegen OpenAI wegen Verleumdung eingeleitet, aber noch keine Rückmeldung erhalten.
Angesichts der Routinefehler, die der Chatbot macht, ist es leicht zu verstehen, wie das passiert ist. Es ist richtig, dass Hoods Name mit dem Verbrechen in Verbindung gebracht wird. Aber ChatGPT hat alles von hinten nach vorne, wie jeder, der den Chatbot verwendet hat, weiß, dass es allzu leicht geht.
Das ist ein bisschen ärgerlich, wenn Sie es fragen, um den Unterschied zwischen USB 3.2 und USB 3.2×2 zu erklären, aber eher besorgniserregend, wenn es um die Verbreitung von durch und durch diffamierenden Unwahrheiten über echte, lebende Menschen geht.
Der Fall sieht so aus, als würde er zum ersten Mal das Grundprinzip testen, ob die Schöpfer eines KI-Chatbots für das, was er produziert, haftbar gemacht werden können.
Hoods Argument wird sich zweifellos auf die Tatsache konzentrieren, dass ChatGPT für eine breite öffentliche Nutzung eingeführt wurde und dass seine Entwickler bei OpenAI ausdrücklich erklärt haben, dass das Modell experimentell und fehleranfällig ist.
Open AI seinerseits wird wahrscheinlich auf den Haftungsausschluss auf der ChatGPT-Schnittstelle hinweisen, der besagt, dass der Bot „ungenaue Informationen über Personen, Orte oder Fakten produzieren kann“.
Fügen Sie dies in jedem Fall der langen und wachsenden Liste neuer, interessanter und unbeabsichtigter Probleme hinzu, die diese neuen Chatbots verursachen. Es ist so eine enorme Arbeitsbelastung, dass wir wahrscheinlich eine KI einsetzen müssen, um alles zu bereinigen.