OpenAI bildet ein Team, um die superintelligente KI einzudämmen


OpenAI ist ein engagiertes Team bilden um die Risiken superintelligenter künstlicher Intelligenz zu bewältigen. Eine Superintelligenz ist ein hypothetisches KI-Modell, das intelligenter ist als selbst der begabteste und intelligenteste Mensch und sich in mehreren Fachgebieten auszeichnet, statt nur in einem Bereich wie einige Modelle früherer Generationen. OpenAI geht davon aus, dass ein solches Modell noch vor Ende des Jahrzehnts verfügbar sein könnte. „Superintelligenz wird die einflussreichste Technologie sein, die die Menschheit je erfunden hat, und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen“, sagte die gemeinnützige Organisation. „Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zur Ausrottung der Menschheit führen.“

Das neue Team wird gemeinsam von OpenAI-Chefwissenschaftler Ilya Sutskever und Jan Leike, dem Leiter der Ausrichtung des Forschungslabors, geleitet. Darüber hinaus sagte OpenAI, dass es 20 Prozent seiner derzeit gesicherten Rechenleistung für die Initiative bereitstellen werde, mit dem Ziel, eine zu entwickeln . Ein solches System würde OpenAI theoretisch dabei unterstützen, sicherzustellen, dass eine Superintelligenz sicher zu verwenden ist und mit menschlichen Werten im Einklang steht. „Obwohl dies ein unglaublich ehrgeiziges Ziel ist und wir keine Erfolgsgarantie haben, sind wir optimistisch, dass eine gezielte, konzertierte Anstrengung dieses Problem lösen kann“, sagte OpenAI. „Es gibt viele Ideen, die sich in vorläufigen Experimenten als vielversprechend erwiesen haben, wir verfügen über zunehmend nützliche Messgrößen für den Fortschritt und wir können die heutigen Modelle verwenden, um viele dieser Probleme empirisch zu untersuchen.“ Das Labor fügte hinzu, dass es in Zukunft eine Roadmap veröffentlichen werde.

Die Ankündigung vom Mittwoch erfolgt zu einem Zeitpunkt, an dem Regierungen auf der ganzen Welt darüber nachdenken, wie sie die aufstrebende KI-Industrie regulieren können. In den USA hat Sam Altman, der CEO von OpenAI, dies getan in den letzten Monaten. Öffentlich sagte Altman, dass die KI-Regulierung „unerlässlich“ sei und dass OpenAI „eifrig“ sei, mit politischen Entscheidungsträgern zusammenzuarbeiten. Aber wir sollten solchen Ankündigungen und auch Bemühungen wie dem Superalignment-Team von OpenAI skeptisch gegenüberstehen. Indem Organisationen wie OpenAI die Aufmerksamkeit der Öffentlichkeit auf hypothetische Risiken lenken, die möglicherweise nie eintreten, verlagern sie die Last der Regulierung auf den Horizont statt auf das Hier und Jetzt. Es gibt viel unmittelbarere Probleme im Zusammenhang mit dem Zusammenspiel von KI und , und die politischen Entscheidungsträger müssen sich heute und nicht morgen damit befassen.

source-115

Leave a Reply