3 Möglichkeiten, ChatGPT zu zähmen


Dieses Jahr haben wir die Einführung leistungsstarker generativer KI-Systeme gesehen, die in der Lage sind, Bilder und Text auf Abruf zu erstellen.

Gleichzeitig sind die Regulierungsbehörden in Bewegung. Europa befindet sich mitten in der Fertigstellung seiner KI-Verordnung (das KI-Gesetz), das darauf abzielt, strenge Regeln für KI-Systeme mit hohem Risiko festzulegen. Kanada, das Vereinigte Königreich, die USA, und China haben alle ihre eigenen Ansätze zur Regulierung von hochwirksamer KI eingeführt. Aber Allzweck-KI scheint eher ein nachträglicher Einfall als der Kernfokus zu sein. Als im April 2021 die neuen europäischen Regulierungsvorschriften vorgeschlagen wurden, gab es keine einzige Erwähnung von universellen, grundlegenden Modellen, einschließlich der generativen KI. Kaum anderthalb Jahre später hat sich unser Verständnis von der Zukunft der KI radikal verändert. Eine ungerechtfertigte Ausnahme der heutigen Grundmodelle von diesen Vorschlägen würde KI-Regulierungen zu Papiertigern machen, die mächtig erscheinen, aber Grundrechte nicht schützen können.

ChatGPT hat das gemacht KI-Paradigmenwechsel greifbar. Jetzt werden einige Modelle – wie GPT-3, DALL-E, Stable Diffusion und AlphaCode – zur Grundlage für fast alle KI-basierten Systeme. KI-Startups können die Parameter dieser grundlegenden Modelle an ihre spezifischen Aufgaben anpassen. Auf diese Weise können die grundlegenden Modelle eine große Anzahl nachgelagerter Anwendungen in verschiedenen Bereichen speisen, darunter Marketing, Vertrieb, Kundendienst, Softwareentwicklung, Design, Spiele, Bildung und Recht.

Während grundlegende Modelle verwendet werden können, um neuartige Anwendungen und Geschäftsmodelle zu erstellen, können sie auch ein wirksames Mittel sein, um Fehlinformationen zu verbreiten, hochwertigen Spam zu automatisieren, Malware zu schreiben und urheberrechtlich geschützte Inhalte und Erfindungen zu plagiieren. Grundlegende Modelle enthalten nachweislich Vorurteile und erzeugen stereotype oder voreingenommene Inhalte. Diese Modelle können extremistische Inhalte genau nachahmen und könnten verwendet werden, um Einzelpersonen zu extremistischen Ideologien zu radikalisieren. Sie haben die Fähigkeit dazu täuschen und falsche Informationen überzeugend darstellen. Besorgniserregend ist, dass die potenziellen Fehler in diesen Modellen an alle nachfolgenden Modelle weitergegeben werden und möglicherweise zu weit verbreiteten Problemen führen, wenn sie nicht bewusst geregelt werden.

Das Problem der „vielen Hände“ bezieht sich auf die Herausforderung, moralische Verantwortung für Ergebnisse zuzuweisen, die von mehreren Akteuren verursacht werden, und ist einer der Haupttreiber von Rechenschaftspflicht erodieren wenn es um algorithmische Gesellschaften geht. Die Rechenschaftspflicht für die neuen KI-Lieferketten, in denen grundlegende Modelle Hunderte von nachgelagerten Anwendungen speisen, muss auf durchgängiger Transparenz aufbauen. Konkret müssen wir die Transparenz der Lieferkette auf drei Ebenen stärken und eine Rückkopplungsschleife zwischen ihnen etablieren.

Transparenz in den Grundmodellen ist von entscheidender Bedeutung, damit Forscher und die gesamte nachgelagerte Lieferkette von Benutzern die Schwachstellen und Verzerrungen der Modelle untersuchen und verstehen können. Diese Notwendigkeit haben die Entwickler der Modelle selbst erkannt. Zum Beispiel DeepMinds Forscher vermuten dass die Schäden großer Sprachmodelle angegangen werden müssen, indem mit einer Vielzahl von Interessengruppen zusammengearbeitet wird, die auf einem ausreichenden Maß an Erklärbarkeit und Interpretierbarkeit aufbauen, um eine effiziente Erkennung, Bewertung und Minderung von Schäden zu ermöglichen. Methoden für standardisierte Messung und Benchmarking, wie z HELM der Standford University, wird gebraucht. Diese Modelle werden zu leistungsfähig, um ohne Bewertung durch Forscher und unabhängige Wirtschaftsprüfer betrieben zu werden. Aufsichtsbehörden sollten fragen: Verstehen wir genug, um beurteilen zu können, wo die Modelle angewendet werden sollten und wo sie verboten werden müssen? Können die hochriskanten Downstream-Anwendungen mit den vorliegenden Informationen richtig auf Sicherheit und Robustheit bewertet werden?

source-114

Leave a Reply