Demis Hassabis, CEO von Google DeepMind, sagt, wir könnten AGI „in den nächsten Jahren“ haben

Demis Hassabis, der CEO von Google DeepMind, sagte kürzlich voraus, dass Systeme der künstlichen Intelligenz (KI) die Wahrnehmung auf menschlicher Ebene irgendwo zwischen „den nächsten Jahren“ und „vielleicht innerhalb eines Jahrzehnts“ erreichen würden.

Hassabis, der seinen Start in der Spielen Industrie, Mitbegründer von Google DeepMind (ehemals DeepMind Technologies), dem Unternehmen, das für die Entwicklung von bekannt ist AlphaGo KI-System, das dafür verantwortlich ist, die besten menschlichen Go-Spieler der Welt zu schlagen.

In einem kürzlich während des „Future of Everything“-Festivals des Wall Street Journal geführten Interview, Hassabis erzählt Interviewer Chris Mims glaubt er, dass die Ankunft von Maschinen mit menschlicher Wahrnehmung unmittelbar bevorsteht:

„Die Fortschritte in den letzten Jahren waren ziemlich unglaublich. Ich sehe keinen Grund, warum sich dieser Fortschritt verlangsamen wird. Ich denke, es kann sogar beschleunigen. Ich denke also, wir könnten nur noch ein paar Jahre, vielleicht innerhalb eines Jahrzehnts entfernt sein.“

Diese Kommentare kommen nur zwei Wochen, nachdem Google aufgrund interner Umstrukturierungen die Verschmelzung von „Google AI“ und „DeepMind“ zu dem treffend benannten „Google DeepMind“ ankündigte.

Auf die Frage, „AGI“ – künstliche allgemeine Intelligenz – zu definieren, antwortete Hassabis: „Kognition auf menschlicher Ebene“.

Derzeit gibt es keine standardisierte Definition, keinen Test oder Benchmark für AGI, die von der Wissenschaft, Technologie, Technik und Mathematik allgemein akzeptiert wird. Es gibt auch keinen einheitlichen wissenschaftlichen Konsens darüber, ob AGI überhaupt möglich ist.

Einige bemerkenswerte Persönlichkeiten wie Roger Penrose (langjähriger Forschungspartner von Stephen Hawking) glauben AGI kann nicht erreicht werden, während Andere denke, es könnte Jahrzehnte oder Jahrhunderte dauern, bis Wissenschaftler und Ingenieure es herausfinden.

Zu denen, die AGI oder einer ähnlichen Form von KI auf menschlicher Ebene kurzfristig optimistisch gegenüberstehen, gehören Elon Musk und Sam Altman, CEO von OpenAI.

AGIs sind nach der Einführung von ChatGPT und unzähligen ähnlichen KI-Produkten und -Diensten in den letzten Monaten zu einem heißen Thema geworden. Experten, die oft als Technologie des „heiligen Grals“ bezeichnet werden vorhersagen KI auf menschlicher Ebene wird jede Facette des Lebens auf der Erde stören.

Wenn jemals eine KI auf menschlicher Ebene erreicht wird, könnte dies verschiedene Aspekte der Kryptoindustrie stören. In der Welt der Kryptowährung könnten Benutzer völlig autonome Maschinen sehen, die in der Lage sind, als Unternehmer, C-Suite-Führungskräfte, Berater und Händler zu fungieren, mit der intellektuellen Denkfähigkeit eines Menschen und der Fähigkeit, Informationen zu speichern und Code wie ein Computersystem auszuführen.

Ob AGI-Agenten der Menschheit als KI-gestützte Werkzeuge dienen oder mit Menschen um Ressourcen konkurrieren, bleibt abzuwarten.

Hassabis seinerseits spekulierte nicht über irgendwelche Szenarien, aber er sagte dem Wall Street Journal, dass er „für die vorsichtige Entwicklung dieser Art von AGI-Technologien unter Verwendung der wissenschaftlichen Methode plädieren würde, bei der man versucht, sehr sorgfältig kontrollierte Experimente durchzuführen zu verstehen, was das zugrunde liegende System tut.“

Dies könnte im Gegensatz zur aktuellen Landschaft stehen, in der Produkte wie Google Bard seines eigenen Arbeitgebers und ChatGPT von OpenAI kürzlich für die öffentliche Nutzung verfügbar gemacht wurden.

Verwandt: „Godfather of AI“ tritt von Google zurück, warnt vor den Gefahren von KI

Industrie Insider wie Altman von OpenAI und Nando de Freitas von DeepMind haben erklärt, dass sie glauben, dass AGI von selbst entstehen könnte, wenn Entwickler weiterhin aktuelle Modelle skalieren. Und ein Google-Forscher trennte sich kürzlich von dem Unternehmen, nachdem er behauptet hatte, ein Modell namens LaMDA sei bereits empfindungsfähig geworden.

Aufgrund der Ungewissheit um die Entwicklung dieser Technologien und ihrer potenziellen Auswirkungen auf die Menschheit haben Tausende von Menschen, darunter Musk und Apple-Mitbegründer Steve Wozniak, kürzlich einen offenen Brief unterzeichnet, in dem Unternehmen und Einzelpersonen, die entsprechende Systeme bauen, aufgefordert werden, die Entwicklung für sechs Monate zu unterbrechen Wissenschaftler können das Schadenspotenzial abschätzen.