Die AI Doomsday Bible ist ein Buch über die Atombombe


Forscher für künstliche Intelligenz fragen sich vielleicht, ob sie sich in einem modernen Wettrüsten um leistungsfähigere KI-Systeme befinden. Wenn ja, zwischen wem liegt es? China und die USA – oder die Handvoll überwiegend in den USA ansässiger Labore, die diese Systeme entwickeln?

Es könnte egal sein. Eine Lektion aus Die Entstehung des Atoms Bombe ist, dass imaginäre Rennen ein ebenso starker Motivator sind wie reale. Wenn in einem KI-Labor Stille herrscht, liegt das daran, dass es Schwierigkeiten hat, die Wissenschaft voranzutreiben, oder ist das ein Zeichen dafür, dass etwas Großes auf dem Weg ist?

Als OpenAI im November 2022 ChatGPT veröffentlichte, kündigte das Google-Management a Alarmstufe Rot Situation für seine KI-Strategie, und andere Labore verstärkten ihre Bemühungen, Produkte der Öffentlichkeit zugänglich zu machen. “Die Aufmerksamkeit [OpenAI] Es wurde eindeutig ein gewisses Maß an Rassendynamik geschaffen“, sagt David Manheim, Leiter Politik und Forschung bei der Association for Long Term Existence and Resilience in Israel.

Mehr Transparenz zwischen Unternehmen könnte helfen, einer solchen Dynamik entgegenzuwirken. Die USA hielten das Manhattan-Projekt vor der UdSSR geheim und informierten ihren Verbündeten erst eine Woche nach dem Trinity-Test über die verheerende neue Waffe. Auf der Potsdamer Konferenz am 24. Juli 1945 legte Präsident Truman seinen Übersetzer ab und schlich sich an den sowjetischen Ministerpräsidenten, um ihm die Neuigkeit zu überbringen. Joseph Stalin schien von der Enthüllung unbeeindruckt zu sein und sagte lediglich, er hoffe, dass die USA die Waffe gegen die Japaner einsetzen würden. In Vorlesungen, die er fast 20 Jahre später hielt, schlug Oppenheimer dies vor Das war der Moment Die Welt verlor die Chance, ein tödliches atomares Wettrüsten nach dem Krieg zu verhindern.

Im Juli 2023 wurde die Das Weiße Haus ist gesichert eine Handvoll freiwilliger Verpflichtungen von KI-Laboren, die zumindest auf ein gewisses Maß an Transparenz schließen ließen. Sieben KI-Unternehmen, darunter OpenAI, Google und Meta, haben zugestimmt, ihre Systeme vor ihrer Veröffentlichung von internen und externen Experten testen zu lassen und außerdem Informationen zum Management von KI-Risiken mit Regierungen, der Zivilgesellschaft und der Wissenschaft auszutauschen.

Aber wenn Transparenz von entscheidender Bedeutung ist, müssen Regierungen genau angeben, vor welchen Gefahren sie sich schützen. Obwohl die ersten Atombomben „von ungewöhnlicher Zerstörungskraft“ waren – um Trumans Ausdruck zu verwenden –, war die Art der Zerstörung, die sie in der ganzen Stadt anrichten konnten, während des Krieges nicht völlig unbekannt. In den Nächten vom 9. auf den 10. März 1945 warfen amerikanische Bomber bei einem Angriff mehr als 2.000 Tonnen Brandbomben auf Tokio ab, bei dem mehr als 100.000 Einwohner getötet wurden – eine ähnliche Zahl wie beim Bombenanschlag auf Hiroshima. Einer der Hauptgründe, warum Hiroshima und Nagasaki als Ziele der ersten Atombomben ausgewählt wurden, war, dass sie zwei der wenigen japanischen Städte waren, die durch Bombenangriffe nicht vollständig dezimiert worden waren. US-Generäle dachten, es sei unmöglich, die Zerstörungskraft dieser neuen Waffen einzuschätzen, wenn sie auf bereits zerstörte Städte abgeworfen würden.

Als US-Wissenschaftler nach dem Krieg Hiroshima und Nagasaki besuchten, stellten sie fest, dass diese beiden Städte sich kaum von anderen Städten unterschieden, die mit konventionelleren Waffen bombardiert worden waren. „Es herrschte allgemein die Meinung, dass man, wenn man einen Krieg mit Atomwaffen führen könnte, ob Abschreckung oder nicht, eine ganze Menge davon brauchte, um es richtig zu machen“, Rhodes sagte kürzlich im Podcast Die Mondgesellschaft. Aber die stärksten Fusions-Atomwaffen, die nach dem Krieg entwickelt wurden, waren tausendmal stärker als die auf Japan abgeworfenen Spaltwaffen. Es war schwierig, das Ausmaß der Zerstörung während des Kalten Krieges wirklich einzuschätzen, einfach weil frühere Atomwaffen im Vergleich dazu so klein waren.

Auch bei der KI gibt es ein Größenordnungsproblem. Voreingenommene Algorithmen und schlecht implementierte KI-Systeme bedrohen bereits heute den Lebensunterhalt und die Freiheit – insbesondere für Menschen in marginalisierten Gemeinschaften. Aber die schlimmsten Risiken der KI lauern irgendwo in der Zukunft. Wie groß ist das tatsächliche Risiko, auf das wir uns vorbereiten – und was können wir dagegen tun?

source-114

Leave a Reply