OpenAI stellt Zuschüsse in Höhe von 10 Millionen US-Dollar zur Verfügung, um die technische Forschung darüber zu unterstützen, wie wir Systeme der künstlichen Intelligenz steuern können, die viel intelligenter sind als der durchschnittliche Mensch.
Das Unternehmen hofft, dass die Ergebnisse seiner Zuschüsse zur Ausrichtung zukünftiger übermenschlicher KI-Systeme bzw Superalignment Fast Grantswird dazu beitragen, Aufschluss darüber zu geben, wie starke Modelle aus schwacher Aufsicht verallgemeinern.
Das KI-Labor hofft auch zu verstehen, wie KI-Systeme zur Bewertung der Ergebnisse neuerer KI-Systeme verwendet werden können und wie man einen KI-Lügendetektor baut.
Es ist schwierig, Millionen von Codezeilen richtig auszuwerten
Zusammen mit @ericschmidt kündigen wir an: Superalignment Fast Grants. Zuschüsse in Höhe von 10 Millionen US-Dollar für technische Forschung zur Ausrichtung übermenschlicher KI-Systeme, einschließlich schwacher zu starker Verallgemeinerung, Interpretierbarkeit, skalierbarer Aufsicht und mehr. Bewerben Sie sich bis zum 18. Februar! https://t.co/eCKwZWLSZE14. Dezember 2023
OpenAI behauptet, dass übermenschliche KI-Systeme zu komplex sein werden, als dass Menschen sie vollständig verstehen könnten. Wenn ein Modell eine Million Zeilen komplizierten Codes generiert, können wir nicht zuverlässig beurteilen, ob die Ausführung des Codes sicher oder gefährlich ist.
In einem Beitrag auf -hängende Früchte, und neue Forscher können enorme Beiträge leisten!“
Während aktuelle Systeme auf menschliche Aufsicht angewiesen sind, reicht unsere Gehirnleistung in Zukunft möglicherweise nicht mehr aus. OpenAI möchte sich daher einen Vorsprung verschaffen, um Wege zu finden, wie Menschen dennoch effektiv die Kontrolle übernehmen können.
Wer kann die OpenAI-Zuschüsse beantragen?
Die Zuschüsse sind hauptsächlich für akademische Labore, gemeinnützige Organisationen und einzelne Forscher bestimmt. OpenAI sponsert außerdem ein einjähriges OpenAI Superalignment Fellowship im Wert von 150.000 US-Dollar für Doktoranden.
Die Forschung des Unternehmens identifizierte sieben Praktiken, um KI-Systeme sicher und rechenschaftspflichtig zu machen, und es möchte dazu beitragen, weitere Forschung zu finanzieren, die einige offene Fragen bearbeiten kann, die sich aus dieser Arbeit ergeben.
Im Rahmen der Superalignment-Stipendien sollen Zuschüsse vergeben werden Agentische KI-Forschungsstipendien 10.000 bis 100.000 US-Dollar in diesem Bereich, damit Forscher die Auswirkungen superintelligenter KI-Systeme und -Praktiken untersuchen können, um sie sicherer zu machen.
Was ist ein Agenten-KI-System?
OpenAI bezeichnet diese superintelligente KI als „agentische KI-Systeme“, die zu einer Vielzahl von Aktionen fähig und zuverlässig genug sind, dass ein Benutzer ihnen unter bestimmten Umständen vertrauen kann, dass sie in ihrem Namen autonom auf komplexe Ziele reagieren.
Sie können beispielsweise Ihren persönlichen Assistenten um Hilfe beim Backen eines Kuchens bitten. Dieser druckt dann ein Rezept für Sie aus und sorgt dafür, dass alle notwendigen Zutaten rechtzeitig bestellt und zu Ihnen nach Hause geliefert werden.
OpenAI-Forscher sagten, dass die Gesellschaft nur dann in der Lage sein wird, die vollen Vorteile von Agenten-KI-Systemen zu nutzen, wenn sie diese sicher machen kann, indem ihre Ausfälle, Schwachstellen und Missbräuche abgemildert werden.
Dabei interessiert das Unternehmen insbesondere, wie man beurteilen kann, ob ein agentenbasiertes KI-System für einen bestimmten Anwendungsfall geeignet ist, wann Aktionen eine explizite menschliche Zustimmung erfordern sollten und wie wir solche intelligenten Systeme so gestalten können, dass wir Einblick in ihr Inneres erhalten Argumentation.
Was es für die Zukunft bedeutet
Die derzeit der Öffentlichkeit zur Verfügung stehenden KI-Tools sind sicherlich beeindruckend, aber sie haben noch nicht das Niveau der Superintelligenz erreicht, auf das sich OpenAI bezieht – KI, die weitaus intelligenter ist als Menschen.
Dank seines CEO Sam Altman wissen wir jedoch, dass dies der Fall ist arbeiten bereits an ihrem neuen GPT-5-Modell von dem er sagt, dass er Hinweise auf Superintelligenz haben könnte.
OpenAI geht davon aus, dass Superintelligenz innerhalb der nächsten zehn Jahre entwickelt werden könnte. Die Antwort auf die Frage, wie besorgt wir sein sollten, hängt möglicherweise von den Ergebnissen der neuesten Forschungsstipendien von OpenAI ab.