Elon Musk und technische Führungskräfte fordern eine „Pause“ bei der KI-Entwicklung

Mehr als 2.600 Technologieführer und Forscher haben einen offenen Brief unterzeichnet, in dem sie zu einer vorübergehenden „Pause“ bei der Weiterentwicklung der künstlichen Intelligenz (KI) drängen, da sie „tiefgreifende Risiken für die Gesellschaft und die Menschheit“ befürchten.

Elon Musk, CEO von Tesla, Steve Wozniak, Mitbegründer von Apple, und eine Vielzahl von KI-CEOs, CTOs und Forschern gehörten zu den Unterzeichnern des Schreibens verfasst vom US-amerikanischen Think Tank Future of Life Institute (FOLI) am 22. März.

Das Institut forderte alle KI-Unternehmen auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, „sofort für mindestens sechs Monate zu pausieren“, und teilte unter anderem Bedenken, dass „menschliche Wettbewerbsintelligenz ein tiefgreifendes Risiko für die Gesellschaft und die Menschheit darstellen kann“. :

„Fortgeschrittene KI könnte eine tiefgreifende Veränderung in der Geschichte des Lebens auf der Erde darstellen und sollte mit entsprechender Sorgfalt und Ressourcen geplant und verwaltet werden. Leider findet dieses Planungs- und Managementniveau nicht statt“, schrieb das Institut in seinem Schreiben.

GPT-4 ist die neueste Iteration des auf künstlicher Intelligenz basierenden Chatbots von OpenAI, der am 14. März veröffentlicht wurde. Bis heute hat er einige der strengsten US-Highschool- und Juraprüfungen innerhalb des 90. Perzentils bestanden. Es wird angenommen, dass es 10-mal fortschrittlicher ist als die ursprüngliche Version von ChatGPT.

Es gibt einen „außer Kontrolle geratenen Wettlauf“ zwischen KI-Firmen, um leistungsfähigere KI zu entwickeln, die „niemand – nicht einmal ihre Schöpfer – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, behauptete FOLI.

Zu den größten Bedenken gehörte, ob Maschinen Informationskanäle möglicherweise mit „Propaganda und Unwahrheit“ überfluten könnten und ob Maschinen alle Beschäftigungsmöglichkeiten „wegautomatisieren“ werden.

FOLI ging mit diesen Bedenken noch einen Schritt weiter und schlug vor, dass die unternehmerischen Bemühungen dieser KI-Unternehmen zu einer existenziellen Bedrohung führen könnten:

„Sollten wir nichtmenschliche Köpfe entwickeln, die uns schließlich zahlenmäßig übertreffen, überlisten, obsolet machen und ersetzen könnten? Sollten wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“

„Solche Entscheidungen dürfen nicht an nicht gewählte Technologieführer delegiert werden“, fügte der Brief hinzu.

Das Institut stimmte auch mit a überein jüngste Aussage von OpenAI-Gründer Sam Altman, der vorschlägt, dass eine unabhängige Überprüfung erforderlich sein könnte, bevor zukünftige KI-Systeme trainiert werden.

Altman betonte in seinem Blogbeitrag vom 24. Februar die Notwendigkeit, sich auf Roboter mit künstlicher allgemeiner Intelligenz (AGI) und künstlicher Superintelligenz (ASI) vorzubereiten.

Allerdings haben sich nicht alle KI-Experten beeilt, die Petition zu unterschreiben. Ben Goertzel, der CEO von SingularityNET, erklärte am 29. März in einer Twitter-Antwort an Gary Marcus, den Autor von Rebooting.AI, dass Sprachlernmodelle (LLMs) nicht zu AGIs werden, von denen es bisher nur wenige Entwicklungen gegeben hat.

Stattdessen sagte er, dass Forschung und Entwicklung für Dinge wie Biowaffen und Atomwaffen verlangsamt werden sollten:

Zusätzlich zu Sprachlernmodellen wie ChatGPT wurde KI-gestützte Deep-Fake-Technologie verwendet, um überzeugende Bilder, Audio- und Video-Hoaxes zu erstellen. Die Technologie wurde auch verwendet, um KI-generierte Kunstwerke zu erstellen, wobei einige Bedenken geäußert wurden, ob sie in bestimmten Fällen gegen Urheberrechtsgesetze verstoßen könnte.

Verwandt: ChatGPT kann jetzt mit neuen OpenAI-Plugins auf das Internet zugreifen

Mike Novogratz, CEO von Galaxy Digital, sagte kürzlich gegenüber Investoren, er sei schockiert über die Menge an regulatorischer Aufmerksamkeit, die Krypto geschenkt wurde, während der künstlichen Intelligenz wenig Aufmerksamkeit geschenkt wurde.

„Wenn ich an KI denke, schockiert es mich, dass wir so viel über Krypto-Regulierung sprechen und nichts über KI-Regulierung. Ich meine, ich denke, die Regierung hat alles komplett auf den Kopf gestellt“, meinte er während eines Aktionärsgesprächs am 28. März.

FOLI hat argumentiert, dass die Regierungen sich an einem Moratorium beteiligen sollten, falls die KI-Entwicklungspause nicht schnell erlassen wird.

„Diese Pause sollte öffentlich und überprüfbar sein und alle Schlüsselakteure umfassen. Wenn eine solche Pause nicht schnell erlassen werden kann, sollten die Regierungen eingreifen und ein Moratorium einführen“, schrieb sie.

Zeitschrift: Wie kann verhindert werden, dass KI mithilfe von Blockchain „die Menschheit vernichtet“.