Was du wissen musst
- Die FTC untersucht ChatGPT.
- Die Kommission möchte herausfinden, ob OpenAI gegen Verbraucherschutzgesetze verstoßen hat.
- OpenAI hat ein 20-seitiges Forderungsschreiben erhalten, in dem die Bedenken der Kommission hinsichtlich ihrer Datensicherheitspraktiken hervorgehoben werden.
- Microsoft dürfte betroffen sein, wenn OpenAI im Unrecht ist.
Die Federal Trade Commission (FTC) war aus mehreren Gründen eine heiße Minute lang in den Schlagzeilen. Wie Sie wissen, lieferte sich die Agentur einen Konflikt mit Microsoft, um die Übernahme von Activision Blizzard zu blockieren, mit der Begründung, dies würde ihre Konkurrenten benachteiligen.
Aber wie es scheint, könnte die Saga zwischen Microsoft Xbox und FTC bald zu Ende gehen. Die Kommission hat kürzlich ihr internes Verfahren gegen die bevorstehende Übernahme von Activision Blizzard durch Microsoft zurückgezogen.
Während wir abwarten, was als nächstes kommt, hat die FTC den Gang gewechselt und prüft nun ChatGPT von OpenAI. Die Kommission hat über The Motley Fool bereits eine Untersuchung eingeleitet, um festzustellen, ob der KI-gestützte Chatbot gegen Verbraucherschutzgesetze verstoßen hat.
Die Kommission hat ein 20-seitiges Forderungsschreiben herausgegeben, in dem sie ihre Bedenken hinsichtlich der Datensicherheitspraktiken von OpenAI zum Ausdruck bringt. Es gibt auch zunehmende Bedenken hinsichtlich der Auswirkungen von ChatGPT auf den Ruf seiner Benutzer.
OpenAI wird verpflichtet sein, der Kommission jedes Mal, wenn der Chatbot ihnen „falsche Informationen“ übermittelte und damit letztendlich ihren Ruf beeinträchtigte, einen detaillierten Bericht über die von Benutzern eingereichten Beschwerden vorzulegen. Eine von Standford durchgeführte Studie hat kürzlich gezeigt, dass ChatGPT mit der Zeit immer dümmer wird.
Anfang des Jahres verlängerte Microsoft seine Partnerschaft mit OpenAI durch eine milliardenschwere Investition und wurde damit zum größten Investor des Unternehmens. Seitdem hat Microsoft KI in die meisten seiner Produkte und Dienste integriert.
Wenn die Untersuchung der FTC zu OpenAI Unstimmigkeiten feststellt, wäre vor diesem Hintergrund auch Microsoft indirekt betroffen, da BingChat auf OpenAI und ChatGPT basiert.
Analyse
Der Auftrag der FTC besteht darin, die Interessen der Verbraucher vor böswilligen Praktiken zu schützen. In der Vergangenheit haben Organisationen wie Meta, Zoom, Twitter und andere hohe Geldstrafen gezahlt, nachdem festgestellt wurde, dass sie mit Datenschutzproblemen im Unrecht waren.
Die Unternehmen, die hinter diesen Tools stehen, verlassen sich in hohem Maße auf private und öffentliche Daten, um ihre KI-Modelle zu trainieren. Und während es möglich ist, sie mithilfe ihrer eigenen Daten zu trainieren, erfordern Chatbots wie ChatGPT und Bing Chat einen größeren Datensatz, da Menschen sie aus mehreren Gründen verwenden, darunter zum Lösen komplexer mathematischer Probleme, für Recherchen und mehr.
Bis vor kurzem verließ sich ChatGPT auf das GPT-3.5-Modell, was ein großer Rückschlag war, da das Tool nur bis September 2021 auf Informationen zugreifen konnte. OpenAI hat jedoch kürzlich eine neue Funktion, „Mit Bing durchsuchen“, für iOS-Benutzer ausgeliefert, um das Sucherlebnis zu verbessern, obwohl Sie für den Zugriff ein ChatGPT Plus-Abonnement benötigen.
Der Erfolg eines Chatbots wird durch seine Genauigkeit bestimmt, und wie Sie wissen, werden GPT-3.5 und GPT-4 anhand von Benutzerfeedback und -daten aktualisiert. Es ist unmöglich, genau zu bestimmen, wie dies geschieht, da die Chatbots nicht immer genau sind. In der Vergangenheit gab es mehrere Berichte darüber, dass Bing Chat halluzinierte und sogar falsche Antworten gab.
Daher haben viele Organisationen offen Bedenken hinsichtlich dieser Chatbots und ihrer Funktionsweise geäußert. Microsoft und OpenAI haben angegeben, dass sie ausgefeilte Sicherheitsmaßnahmen ergriffen haben, um sicherzustellen, dass ihre Einträge nicht außer Kontrolle geraten. Dennoch stehen Unternehmen der Technologie nur zögerlich gegenüber und haben kategorisch zum Ausdruck gebracht, dass sie gegen die Nutzung ihrer Daten durch Chatbots sind, insbesondere ohne deren Wissen.
Ihre Zurückhaltung beruht hauptsächlich auf Sicherheits- und Urheberrechtsbedenken. ChatGPT hat Zugriff auf riesige Ressourcen von Benutzern, und die Auswirkungen wären erheblich, wenn es von Angreifern kompromittiert würde. Im Juni enthüllte ein Bericht eines Cybersicherheitsunternehmens, dass über 100.000 ChatGPT-Anmeldeinformationen von Hackern abgerufen und im Dark Web verkauft wurden. Sie konnten mithilfe von Datendiebstahl-Malware auf die Anmeldedaten zugreifen.
Die Kommission wird auch untersuchen, wie OpenAI Verbraucherdaten speichert, Sicherheitsmaßnahmen, die das Unternehmen zum Schutz von Verbraucherdaten und Reputationsschäden einsetzt, und schließlich die Angriffe, die diesen Chatbot in der Vergangenheit betroffen haben.
Es besteht Bedarf an Regeln und Vorschriften, die regeln, wie KI-Entwicklungen durchgeführt werden. Anfang des Jahres unterzeichneten wichtige Akteure der Branche einen Brief, in dem sie eine sechsmonatige Aussetzung der Entwicklung neuer Einträge forderten. Dies soll dem Gesetzgeber genügend Zeit geben, sich über die jüngsten Entwicklungen in der Branche auf dem Laufenden zu halten. Der CEO von Microsoft, Satya Nadella, äußerte sich letzten Monat in einem Interview zu der Angelegenheit und gab an, dass:
„Dennoch würde ich an dieser Stelle sagen, dass wir nicht nur Stopp sagen sollten, sondern dass wir die Arbeit beschleunigen sollten, die zur Erstellung dieser Ausrichtungen erforderlich ist. Wir haben Sydney mit GPT-4 nicht am ersten Tag gestartet, als ich es gesehen habe, weil wir viel Arbeit leisten mussten, um einen Sicherheitsgurt zu bauen. Aber wir wussten auch, dass wir nicht die gesamte Ausrichtung im Labor durchführen konnten. Um ein KI-Modell an der Welt auszurichten, muss man es in der Welt ausrichten und nicht in irgendeiner Simulation.“
Wenn die Untersuchung der FTC rechtswidrige Handlungen von OpenAI aufdeckt. Dies könnte sich negativ auf Microsoft auswirken. Während die FTC keine neuen Gesetze erlassen kann, kann sie der US-Regierung Empfehlungen geben, die die Entwicklung von KI-Modellen moderieren. Und wenn weitere Einschränkungen eingeführt werden, um die Anzahl der Ressourcen zu begrenzen, auf die der Chatbot zugreifen kann, wird der Chatbot von Microsoft, Bing Chat, stark beeinträchtigt, da er seine Genauigkeit einschränkt.
Es wird interessant sein zu sehen, was die FTC während ihrer Untersuchung aufdeckt und welche nächsten Schritte sie in Zukunft unternehmen wird. Wir halten Sie auf dem Laufenden, wenn wir mehr über diese sich entwickelnde Geschichte erfahren.