KI-Pionier Geoffrey Hinton ist nicht davon überzeugt, dass gute KI über schlechte KI siegen wird


Geoffrey Hinton, Professor an der University of Toronto, der wegen seiner bahnbrechenden Forschung zu neuronalen Netzen oft als „“ bezeichnet wird, ist seit Kurzem zum inoffiziellen Wachhund der Branche geworden. In diesem Frühjahr gab er seine Arbeit bei Google auf, um sich freier mit der Kritik auf dem Gebiet auseinanderzusetzen, an dessen Pionierarbeit er beteiligt war. Er betrachtete den jüngsten Anstieg generativer KIs wie und als Zeichen einer unkontrollierten und potenziell gefährlichen Beschleunigung der Entwicklung. Unterdessen schien Google seine frühere Zurückhaltung aufzugeben, da es mit Produkten wie Google die Konkurrenz hinter sich herjagte.

Auf der Collision-Konferenz diese Woche in Toronto äußerte Hinton seine Bedenken. Während Unternehmen KI als Lösung für alles anpriesen, vom Abschluss eines Mietvertrags bis zum Versand von Waren, schlug Hinton Alarm. Er ist nicht davon überzeugt, dass die gute KI über die schlechte Variante siegen wird, und er glaubt, dass die ethische Einführung der KI mit hohen Kosten verbunden sein könnte.

Eine Bedrohung für die Menschheit

Geoffrey Hinton bei Collision 2023
Professor Geoffrey Hinton (links) von der University of Toronto spricht bei Collision 2023.

Foto von Jon Fingas/Engadget

Hinton argumentierte, dass KI nur so gut sei wie die Menschen, die sie entwickelt hätten, und dass schlechte Technologie immer noch siegen könne. „Ich bin nicht davon überzeugt, dass eine gute KI, die versucht, das Böse aufzuhalten, die Kontrolle erlangen kann“, erklärte er. Es könnte beispielsweise schwierig sein, den militärisch-industriellen Komplex von der Produktion von Waffen abzuhalten, sagt er – Unternehmen und Armeen „lieben“ möglicherweise Kriege, bei denen es sich bei den Opfern um Maschinen handelt, die leicht ersetzt werden können. Und während Hinton davon überzeugt ist, dass große Sprachmodelle (trainierte KI, die menschenähnlichen Text erzeugt, wie z. B. ) zu enormen Produktivitätssteigerungen führen könnten, befürchtet er, dass die herrschende Klasse dies einfach ausnutzen könnte, um sich zu bereichern, was die ohnehin schon große Wohlstandslücke noch vergrößern könnte. Es würde „die Reichen reicher und die Armen ärmer machen“, sagte Hinton.

Hinton bekräftigte auch seine vielfach propagierte Ansicht, dass KI der Menschheit helfen könnte. Wenn künstliche Intelligenz intelligenter wird als der Mensch, gibt es keine Garantie dafür, dass die Menschen weiterhin die Kontrolle behalten. „Wir stecken in Schwierigkeiten“, wenn die KI entscheidet, dass die Übernahme der Kontrolle notwendig ist, um ihre Ziele zu erreichen, sagte Hinton. Für ihn sind die Drohungen „nicht nur Science-Fiction“; Sie müssen ernst genommen werden. Er befürchtet, dass die Gesellschaft Killerrobotern erst dann Einhalt gebieten wird, wenn sie die Chance hat zu erkennen, „wie schrecklich“ sie sind.

Es gebe viele bestehende Probleme, fügte Hinton hinzu. Er argumentiert, dass es weiterhin Probleme gebe, da verzerrte KI-Trainingsdaten zu unfairen Ergebnissen führen könnten. Es entstehen auch Algorithmen, die Fehlinformationen und psychische Probleme verstärken. Hinton befürchtet auch, dass KI Fehlinformationen über diese Kammern hinaus verbreiten könnte. Er ist sich nicht sicher, ob es möglich ist, jede falsche Behauptung zu erkennen, obwohl es „wichtig ist, alles, was gefälscht ist, als gefälscht zu markieren“.

Das soll nicht heißen, dass Hinton über die Auswirkungen der KI verzweifelt, obwohl er warnt, dass eine gesunde Nutzung der Technologie einen hohen Preis haben könnte. Der Mensch muss möglicherweise „empirische Arbeit“ leisten, um zu verstehen, wie die KI schiefgehen kann, und um zu verhindern, dass sie die Kontrolle übernimmt. Es sei bereits „machbar“, Vorurteile zu korrigieren, fügte er hinzu. Eine große Sprachmodell-KI könnte den Echokammern ein Ende bereiten, aber Hinton hält Änderungen in den Unternehmensrichtlinien für besonders wichtig.

Der Professor nahm kein Blatt vor den Mund, als er auf die Frage antwortete, dass Menschen durch Automatisierung ihren Arbeitsplatz verlieren. Er glaubt, dass „Sozialismus“ nötig ist, um Ungleichheit zu bekämpfen, und dass die Menschen sich gegen die Arbeitslosigkeit absichern könnten, indem sie Berufe ergreifen, die sich mit der Zeit ändern könnten, wie zum Beispiel Klempner (und nein, er macht keine Witze). Tatsächlich muss die Gesellschaft möglicherweise weitreichende Veränderungen vornehmen, um sich an die KI anzupassen.

Die Branche bleibt optimistisch

Colin Murdoch von Google DeepMind bei Collision 2023
Colin Murdoch, CBO von Google DeepMind, bei Collision 2023.

Foto von Jon Fingas/Engadget

Frühere Gespräche bei Collision waren hoffnungsvoller. Colin Murdoch, Business-Chef von Google DeepMind, sagte in einer anderen Diskussion, dass KI einige der größten Herausforderungen der Welt löse. An dieser Front gibt es keinen großen Streit – DeepMind katalogisiert, bekämpft antibiotikaresistente Bakterien und beschleunigt sogar die Arbeit daran. Er stellte sich eine „künstliche allgemeine Intelligenz“ vor, die mehrere Probleme lösen könnte, und verwies auf die Produkte von Google als Beispiel. ist nützlich für die Beschreibung von Fotos, aber die zugrunde liegende Technologie macht YouTube Shorts auch durchsuchbar. Murdoch ging sogar so weit, die letzten sechs bis zwölf Monate als einen „Aha-Moment“ für die KI zu bezeichnen, der ihr Potenzial freigesetzt habe.

Roblox-Chefwissenschaftler Morgan McGuire stimmt weitgehend zu. Er glaubt, dass die Spieleplattform „die Lücke“ zwischen neuen Entwicklern und Veteranen schließt und es einfacher macht, Code zu schreiben und In-Game-Materialien zu erstellen. Roblox veröffentlicht sogar ein Open-Source-KI-Modell, StarCoder, von dem es hofft, dass es anderen helfen wird, indem es große Sprachmodelle zugänglicher macht. Während McGuire in einer Diskussion die Herausforderungen bei der Skalierung und Moderation von Inhalten einräumte, glaubt er, dass die Inhalte dank ihres kreativen Pools „unbegrenzte“ Möglichkeiten bieten.

Sowohl Murdoch als auch McGuire äußerten teilweise die gleichen Bedenken wie Hinton, aber ihr Ton war deutlich weniger alarmierend. Murdoch betonte, dass DeepMind eine „sichere, ethische und integrative“ KI wolle, und verwies als Beweis auf Expertenkonsultationen und Bildungsinvestitionen. Die Exekutive besteht darauf, dass er offen für Regulierung sei, aber nur solange sie „erstaunliche Durchbrüche“ ermögliche. McGuire wiederum sagte, Roblox habe immer generative KI-Tools mit Inhaltsmoderation eingeführt, sich auf vielfältige Datensätze verlassen und Transparenz praktiziert.

Manche hoffen auf die Zukunft

Morgan McGuire von Roblox bei Collision 2023
Roblox-Chefwissenschaftler Morgan McGuire spricht bei Collision 2023.

Foto von Jon Fingas/Engadget

Trotz der Schlagzeilen, die seine jüngsten Kommentare zusammenfassen, hat Hintons allgemeine Begeisterung für KI nach seinem Ausscheiden aus Google nicht nachgelassen. Wenn er nicht aufgegeben hätte, würde er sicher an multimodalen KI-Modellen arbeiten, bei denen Vision, Sprache und andere Hinweise bei der Entscheidungsfindung helfen. „Kleine Kinder lernen nicht nur durch Sprache allein“, sagte er und deutete an, dass Maschinen das Gleiche tun könnten. So besorgt er auch über die Gefahren der KI ist, glaubt er, dass sie letztendlich alles tun könnte, was ein Mensch tun könnte, und demonstrierte bereits „einige kleine Argumente“. GPT-4 kann sich anpassen, um beispielsweise schwierigere Rätsel zu lösen.

Hinton räumt ein, dass sein Collision-Vortrag nicht viel über die guten Einsatzmöglichkeiten von KI, wie etwa die Bekämpfung des Klimawandels, aussagte. Der Fortschritt der KI-Technologie war wahrscheinlich gesund, auch wenn es immer noch wichtig war, sich über die Auswirkungen Gedanken zu machen. Und Hinton gab freimütig zu, dass seine Begeisterung trotz drohender ethischer und moralischer Probleme nicht nachgelassen hat. „Ich liebe dieses Zeug“, sagte er. „Wie kann man es nicht lieben, intelligente Dinge zu machen?“

source-115

Leave a Reply