Im April verklagte der australische Politiker Brian Hood das ChatGPT-Unternehmen OpenAI, nachdem der Chatbot ihn fälschlicherweise als Kriminellen identifiziert hatte. Jetzt wird das Unternehmen aus ähnlichen Gründen erneut verklagt, diesmal in den USA: ChatGPT identifizierte den Radiomoderator Mark Walters als beschuldigt, mehr als 5 Millionen US-Dollar von einer gemeinnützigen Organisation namens Second Amendment Foundation unterschlagen zu haben, eine Anschuldigung, die es eigentlich nie gegeben hat gemacht.
Entsprechend der Klage (über Der Rand), fragte ein Journalist namens Fred Riehl ChatGPT nach einer separaten Klage, über die er berichtete, The Second Amendment Foundation gegen Robert Ferguson. Als ChatGPT gebeten wurde, eine Zusammenfassung der Beschwerde vorzulegen, sagte er, sie sei gegen Walters eingereicht worden, nachdem er angeblich „Gelder für persönliche Ausgaben ohne Genehmigung oder Erstattung missbraucht, Finanzunterlagen und Kontoauszüge manipuliert hatte, um seine Aktivitäten zu verschleiern, und es versäumt hatte, genaue und rechtzeitige Angaben zu machen“. Finanzberichte und Offenlegungen an die SAF-Führung.“
Aber nichts davon ist wahr: Es gibt keinen solchen Vorwurf, und Walters wird in der Klage überhaupt nicht genannt. Als Riehl jedoch den spezifischen Teil der Klage in Bezug auf Walters anforderte, stellte ChatGPT einen zur Verfügung; Anschließend forderte er die gesamte Beschwerde an, und erneut lieferte der Chatbot. Das Problem besteht laut Walters’ Klage darin, dass alles „eine völlige Fälschung“ war und keinerlei Ähnlichkeit mit der eigentlichen Klage der Second Amendment Foundation hatte – selbst die Fallnummer ist falsch.
Die gute Nachricht für Walters ist, dass nichts von dem, was Riehl von ChatGPT zur Verfügung gestellt wurde, veröffentlicht wurde. Es ist nicht klar, ob es sich hierbei um eine Art Test handelte oder ob Riehl einfach das Gefühl hatte, dass etwas nicht stimmte, aber er kontaktierte einen der Kläger der Second Amendment Foundation, der bestätigte, dass Walters mit all dem nichts zu tun hatte. Aber auch wenn Riehl es nicht veröffentlichte (und es nicht klar ist, wie Walters später davon erfuhr), heißt es in der Klage von Walters, dass durch die Bereitstellung falscher Anschuldigungen an ihn „das OAI verleumderische Angelegenheiten in Bezug auf Walters veröffentlicht“ habe.
Wie The Verge erklärt, schützt Abschnitt 230 des Communications Decency Act Internetunternehmen im Allgemeinen davor, rechtlich für Inhalte Dritter haftbar gemacht zu werden, die auf ihren Plattformen gehostet werden. Vereinfacht gesagt kann man Reddit nicht für eine Nachricht verklagen, die jemand darauf gepostet hat. Es ist jedoch nicht klar, wie sich dies auf KI-Systeme auswirken wird, wenn überhaupt: Sie verlassen sich bei der Informationsgewinnung auf externe Links, nutzen aber auch ihre eigenen Systeme, um „neue“ Informationen zu generieren, die letztendlich den Benutzern bereitgestellt werden. Dadurch könnten ChatGPT und OpenAI vom Schutz gemäß Abschnitt 230 ausgenommen werden.
Aber es kann egal sein. UCLA-Rechtsprofessor Eugene Volokh schrieb weiter Reason.com dass er zwar der Meinung ist, dass Fälle von Verleumdung im Zusammenhang mit KI „grundsätzlich rechtlich durchführbar“ sind, dieser Fall jedoch möglicherweise nicht daran liegt, dass Walters OpenAI offenbar keine Chance gegeben hat, die Aufzeichnungen zu korrigieren und keine falschen Aussagen mehr über ihn zu machen, und weil dies nicht der Fall war tatsächlichen Schadensersatz. Auch wenn die Chancen gut stehen, dass eines Tages ein KI-Unternehmen im Gerichtssaal eine Prügelstrafe einstecken muss, weil sein Chatbot irgendeine Unsinnsgeschichte verbreitet hat, die eine echte Person in Schwierigkeiten gebracht hat, ist es in diesem Fall vielleicht nicht der Fall. Ich habe OpenAI um einen Kommentar gebeten und werde ihn aktualisieren, wenn ich eine Antwort erhalte.