Ein Brief löste eine Rede über den KI-Weltuntergang aus. Viele, die unterschrieben haben, waren nicht wirklich KI-Doomer


Fast diesen März 35.000 KI-Forscher, Technologen, Unternehmer und besorgte Bürger unterzeichneten einen offenen Brief des gemeinnützigen Future of Life Institute, in dem sie zu einer „Pause“ bei der KI-Entwicklung aufriefen, da die Fähigkeiten von Programmen wie ChatGPT Risiken für die Menschheit offenbaren.

„Zeitgenössische KI-Systeme werden jetzt bei allgemeinen Aufgaben dem Menschen wettbewerbsfähig, und wir müssen uns fragen … Sollten wir nichtmenschliche Köpfe entwickeln, die uns irgendwann zahlenmäßig übertreffen, überlisten, obsolet machen und ersetzen könnten?“

Mir könnte immer noch das Gegenteil bewiesen werden, aber fast sechs Monate später und mit einer schnelleren KI-Entwicklung als je zuvor ist die Zivilisation nicht zusammengebrochen. Verdammt, Bing Chat, Microsofts „revolutionäres“, ChatGPT-durchdrungenes Suchorakel, hat Google nicht einmal als Marktführer bei der Suche verdrängt. Was sollen wir also von dem Brief und ähnlichen Science-Fiction-Warnungen mit würdigen Namen über die von KI ausgehenden Risiken halten?

Zwei unternehmungslustige Studentinnen am MIT, Isabella Struckman und Sofie Kupiec, wandten sich an die ersten hundert Unterzeichner des Briefes und forderten eine Pause bei der KI-Entwicklung, um mehr über ihre Beweggründe und Anliegen zu erfahren. Das Duo Niederschrift ihrer Erkenntnisse offenbart ein breites Spektrum an Perspektiven derjenigen, die das Dokument mit ihrem Namen versehen haben. Trotz der öffentlichen Resonanz des Briefes machten sich relativ wenige tatsächlich Sorgen darüber, dass KI eine drohende Bedrohung für die Menschheit selbst darstellen könnte.

Viele der Menschen, mit denen Struckman und Kupiec sprachen, glaubten nicht, dass eine sechsmonatige Pause eintreten oder große Auswirkungen haben würde. Die meisten Unterzeichner hatten nicht damit gerechnet, dass „apokalyptisches Szenario” dass ein anonymer Befragter einige Teile des erwähnten Briefes anerkannte.

Eine beträchtliche Anzahl der Unterzeichner war offenbar in erster Linie besorgt über die Geschwindigkeit des Wettbewerbs zwischen Google, OpenAI, Microsoft und anderen, da der Hype um das Potenzial von KI-Tools wie ChatGPT schwindelerregende Höhen erreichte. Google war der ursprüngliche Entwickler mehrerer Algorithmen, die für die Entwicklung des Chatbots von entscheidender Bedeutung waren, aber es ging relativ langsam voran, bis die ChatGPT-Manie Einzug hielt. Für diese Menschen war die Aussicht, dass Unternehmen überstürzt experimentelle Algorithmen veröffentlichen, ohne die Risiken zu untersuchen, Anlass zur Sorge – nicht weil sie die Menschheit auslöschen könnten, sondern weil sie Desinformation verbreiten, schädliche oder voreingenommene Ratschläge geben oder den Einfluss und Reichtum der Menschen erhöhen könnten bereits sehr mächtige Technologieunternehmen.

Einige Unterzeichner machten sich auch Sorgen über die in weiter Ferne liegende Möglichkeit, dass KI Arbeitnehmer in bisher beispiellosem Tempo verdrängen könnte. Und einige waren auch der Meinung, dass die Erklärung dazu beitragen würde, die Aufmerksamkeit der Öffentlichkeit auf bedeutende und überraschende Sprünge in der Leistung von KI-Modellen zu lenken und die Regulierungsbehörden möglicherweise dazu zu bewegen, Maßnahmen zu ergreifen, um den kurzfristigen Risiken zu begegnen, die durch Fortschritte in der KI entstehen.

Bereits im Mai habe ich mit einigen der Unterzeichner des Briefes gesprochen, und es war klar, dass nicht alle mit allem, was darin stand, völlig einverstanden waren. Sie unterschrieben aus dem Gefühl heraus, dass die Dynamik hinter dem Brief die Aufmerksamkeit auf die verschiedenen Risiken lenken würde, die sie beunruhigten, und dass es sich daher lohnt, sie zu unterstützen.

source-114

Leave a Reply