Experten warnen, dass außer Kontrolle geratene KI ein Aussterberisiko darstellt


Führende Persönlichkeiten in Die Entwickler künstlicher Intelligenzsysteme, darunter OpenAI-CEO Sam Altman und Google DeepMind-CEO Demis Hassabis, haben eine Erklärung unterzeichnet, in der sie warnen, dass die Technologie, die sie entwickeln, eines Tages eine existenzielle Bedrohung für die Menschheit darstellen könnte, vergleichbar mit der eines Atomkriegs und einer Pandemie.

„Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein“, heißt es in einer heute von der Organisation veröffentlichten Ein-Satz-Erklärung Zentrum für KI-Sicherheiteine gemeinnützige Organisation.

Die Idee, dass KI schwer zu kontrollieren sein und die Menschheit entweder versehentlich oder absichtlich zerstören könnte, wird von Philosophen seit langem diskutiert. Aber in den letzten sechs Monaten wurde das Thema nach einigen überraschenden und beunruhigenden Leistungssprüngen von KI-Algorithmen viel umfassender und ernsthafter diskutiert.

Neben Altman und Hassabis wurde die Erklärung von Dario Amodei, CEO von, unterzeichnet Anthropisch, ein Startup, das sich der Entwicklung von KI mit Schwerpunkt auf Sicherheit widmet. Zu den weiteren Unterzeichnern gehören Geoffrey Hinton und Yoshua Bengio – zwei von drei Akademikern, die den Turing Award für ihre Arbeit zu Deep Learning erhalten haben, der Technologie, die modernen Fortschritten im maschinellen Lernen und der KI zugrunde liegt – sowie Dutzende Unternehmer und Forscher, die an modernster KI arbeiten Probleme.

„Die Erklärung ist eine großartige Initiative“, sagt er Max TegmarkPhysikprofessor am Massachusetts Institute of Technology und Direktor des Institut für die Zukunft des Lebens, eine gemeinnützige Organisation, die sich auf die langfristigen Risiken von KI konzentriert. Im März veröffentlichte das Tegmark-Institut einen Brief, in dem es zu einer sechsmonatigen Pause bei der Entwicklung modernster KI-Algorithmen aufrief, damit die Risiken bewertet werden könnten. Der Brief wurde von Hunderten von KI-Forschern und Führungskräften unterzeichnet, darunter Elon Musk.

Tegmark hofft, dass die Erklärung Regierungen und die breite Öffentlichkeit dazu ermutigen wird, die existenziellen Risiken der KI ernster zu nehmen. „Das ideale Ergebnis besteht darin, dass die Bedrohung durch die KI-Ausrottung in die Öffentlichkeit getragen wird, sodass jeder darüber diskutieren kann, ohne Angst vor Spott haben zu müssen“, fügt er hinzu.

Dan Hendrycks, Direktor des Center for AI Safety, verglich den aktuellen Moment der Besorgnis über KI mit der Debatte unter Wissenschaftlern, die durch die Entwicklung von Atomwaffen ausgelöst wurde. „Wir müssen die Gespräche führen, die Nuklearwissenschaftler vor der Entwicklung der Atombombe führten“, sagte Hendrycks in einem Zitat, das zusammen mit der Erklärung seiner Organisation veröffentlicht wurde.

Der aktuelle Alarmton hängt mit mehreren Leistungssprüngen bei KI-Algorithmen zusammen, die als große Sprachmodelle bekannt sind. Diese Modelle bestehen aus einer speziellen Art von künstlichem neuronalem Netzwerk, das auf riesigen Mengen von Menschen geschriebenem Text trainiert wird, um die Wörter vorherzusagen, die einer bestimmten Zeichenfolge folgen sollten. Wenn diese Sprachmodelle mit genügend Daten gefüttert werden und mit zusätzlichem Training in Form von Rückmeldungen von Menschen zu guten und schlechten Antworten ausgestattet sind, sind sie in der Lage, Texte zu generieren und Fragen mit bemerkenswerter Eloquenz und offensichtlichem Wissen zu beantworten – selbst wenn ihre Antworten oft voller Fehler sind.

Diese Sprachmodelle haben sich als zunehmend kohärenter und leistungsfähiger erwiesen, je mehr Daten und Computerleistung in sie eingespeist wurden. Das bisher leistungsstärkste Modell, GPT-4 von OpenAI, ist in der Lage, komplexe Probleme zu lösen, darunter auch solche, die scheinbar bestimmte Formen der Abstraktion und gesunden Menschenverstandes erfordern.

source-114

Leave a Reply