Ilya Sutskever von OpenAI hat einen Plan, um superintelligente KI unter Kontrolle zu halten


OpenAI wurde mit dem Versprechen gegründet, künstliche Intelligenz zu entwickeln, die der gesamten Menschheit zugute kommt – selbst wenn diese KI erheblich intelligenter wird als ihre Schöpfer. Seit dem Debüt von ChatGPT im letzten Jahr und während der jüngsten Governance-Krise des Unternehmens sind seine kommerziellen Ambitionen stärker in den Vordergrund gerückt. Nun sagt das Unternehmen, dass eine neue Forschungsgruppe, die sich mit der Entwicklung der superintelligenten KIs der Zukunft beschäftigt, erste Früchte trägt.

„AGI rückt sehr schnell näher“, sagt Leopold Aschenbrenner, ein Forscher bei OpenAI, der am im Juli gegründeten Superalignment-Forschungsteam beteiligt ist. „Wir werden übermenschliche Modelle sehen, sie werden enorme Fähigkeiten haben und sie könnten sehr, sehr gefährlich sein, und wir haben noch nicht die Methoden, sie zu kontrollieren.“ OpenAI hat angekündigt, ein Fünftel seiner verfügbaren Rechenleistung für das Superalignment-Projekt bereitzustellen.

Ein heute von OpenAI veröffentlichtes Forschungspapier wirbt mit Ergebnissen von Experimenten, mit denen eine Möglichkeit getestet werden soll, ein minderwertiges KI-Modell das Verhalten eines viel intelligenteren Modells steuern zu lassen, ohne es weniger intelligent zu machen. Obwohl die eingesetzte Technologie die Flexibilität des Menschen bei weitem nicht übertrifft, wurde das Szenario als Vorbild für eine zukünftige Zeit konzipiert, in der Menschen mit KI-Systemen arbeiten müssen, die intelligenter sind als sie selbst.

Die Forscher von OpenAI untersuchten den Prozess namens Supervision, mit dem Systeme wie GPT-4, das große Sprachmodell hinter ChatGPT, so optimiert werden, dass sie hilfreicher und weniger schädlich sind. Derzeit geht es darum, dass Menschen dem KI-System Feedback geben, welche Antworten gut und welche schlecht sind. Während die KI voranschreitet, erforschen Forscher, wie sich dieser Prozess automatisieren lässt, um Zeit zu sparen – aber auch, weil sie glauben, dass es für Menschen möglicherweise unmöglich wird, nützliches Feedback zu geben, wenn die KI immer leistungsfähiger wird.

In einem Kontrollexperiment mit dem 2019 erstmals veröffentlichten GPT-2-Textgenerator von OpenAI zum Unterrichten von GPT-4 wurde das neuere System weniger leistungsfähig und ähnelte dem minderwertigen System. Die Forscher testeten zwei Ideen, um dieses Problem zu beheben. Eine davon bestand darin, immer größere Modelle zu trainieren, um den Leistungsverlust bei jedem Schritt zu reduzieren. Zum anderen fügte das Team eine algorithmische Optimierung von GPT-4 hinzu, die es dem stärkeren Modell ermöglichte, der Führung des schwächeren Modells zu folgen, ohne seine Leistung so stark zu beeinträchtigen, wie es normalerweise der Fall wäre. Dies war effektiver, obwohl die Forscher zugeben, dass diese Methoden nicht garantieren, dass sich das stärkere Modell perfekt verhält, und sie beschreiben dies als Ausgangspunkt für weitere Forschung.

„Es ist großartig zu sehen, dass OpenAI proaktiv das Problem der Kontrolle übermenschlicher KIs angeht“, sagt Dan Hendryks, Direktor des Center for AI Safety, einer gemeinnützigen Organisation in San Francisco, die sich dem Management von KI-Risiken widmet. „Wir werden viele Jahre engagierter Anstrengungen benötigen, um diese Herausforderung zu meistern.“

source-114

Leave a Reply