Was Geoffrey Hinton wirklich zu einem KI-Doomer gemacht hat


„Viele Schlagzeilen haben gesagt, dass ich denke, dass es jetzt gestoppt werden sollte – und das habe ich nie gesagt“, sagt er. „Erstens glaube ich nicht, dass das möglich ist, und ich denke, wir sollten es weiter entwickeln, weil es wunderbare Dinge leisten könnte. Aber wir sollten uns genauso bemühen, die möglichen schlimmen Folgen zu mildern oder zu verhindern.“

Hinton sagt, er habe Google nicht verlassen, um gegen den Umgang mit dieser neuen Form der KI zu protestieren. Tatsächlich bewegte sich das Unternehmen relativ vorsichtig, obwohl es in diesem Bereich führend war. Forscher bei Google haben eine Art neuronales Netzwerk erfunden, das als Transformator bekannt ist und für die Entwicklung von Modellen wie PaLM und GPT-4 von entscheidender Bedeutung war.

In den 1980er Jahren versuchte Hinton, Professor an der University of Toronto, zusammen mit einer Handvoll anderer Forscher, Computern mehr Intelligenz zu verleihen, indem sie künstliche neuronale Netze mit Daten trainierten, anstatt sie auf herkömmliche Weise zu programmieren. Die Netzwerke konnten Pixel als Eingabe verarbeiten und, als sie mehr Beispiele sahen, die Werte anpassen, die ihre grob simulierten Neuronen verbinden, bis das System den Inhalt eines Bildes erkennen konnte. Der Ansatz hat sich im Laufe der Jahre als vielversprechend erwiesen, aber erst vor einem Jahrzehnt entfaltete er seine wahre Kraft und sein Potenzial wurde deutlich.

2018 wurde Hinton für seine Arbeit an neuronalen Netzen mit dem Turing Award, dem renommiertesten Preis in der Informatik, ausgezeichnet. Er erhielt den Preis zusammen mit zwei weiteren Pionierfiguren, Yann Le CunMetas leitender KI-Wissenschaftler, und Yoshua BengioProfessor an der Universität von Montreal.

Zu diesem Zeitpunkt war eine neue Generation vielschichtiger künstlicher neuronaler Netze – die mit riesigen Mengen an Trainingsdaten gespeist und auf leistungsstarken Computerchips betrieben wurden – plötzlich viel besser als jedes existierende Programm darin, den Inhalt von Fotos zu kennzeichnen.

Die als Deep Learning bekannte Technik löste eine Renaissance in der künstlichen Intelligenz aus, wobei Big-Tech-Unternehmen sich beeilten, KI-Experten zu rekrutieren, immer leistungsfähigere Deep-Learning-Algorithmen zu entwickeln und sie auf Produkte wie Gesichtserkennung, Übersetzung und Spracherkennung anzuwenden.

Google stellte Hinton 2013 ein, nachdem er sein Unternehmen DNNResearch übernommen hatte, das gegründet wurde, um die Deep-Learning-Ideen seines Universitätslabors zu kommerzialisieren. Zwei Jahre später verließ einer von Hintons Doktoranden, der ebenfalls zu Google gekommen war, Ilya Sutskever, das Suchunternehmen, um OpenAI als gemeinnütziges Gegengewicht zur Macht zu gründen, die von Big-Tech-Unternehmen in der KI angehäuft wurde.

Seit seiner Gründung hat sich OpenAI darauf konzentriert, die Größe neuronaler Netze, das Datenvolumen, das sie verschlingen, und die von ihnen verbrauchte Computerleistung zu vergrößern. Im Jahr 2019 organisierte sich das Unternehmen als gewinnorientiertes Unternehmen mit externen Investoren um und übernahm später 10 Milliarden US-Dollar von Microsoft. Es hat eine Reihe von auffallend fließenden Textgenerierungssystemen entwickelt, zuletzt GPT-4, das die Premium-Version von ChatGPT antreibt und Forscher mit seiner Fähigkeit verblüfft hat, Aufgaben auszuführen, die Vernunft und gesunden Menschenverstand erfordern.

Hinton glaubt, dass wir bereits eine Technologie haben, die störend und destabilisierend sein wird. Er weist auf das Risiko hin, dass fortgeschrittenere Sprachalgorithmen, wie andere es getan haben, in der Lage sein werden, raffiniertere Fehlinformationskampagnen durchzuführen und sich in Wahlen einzumischen.

source-114

Leave a Reply