Wissenschaftler warnen vor KI-Gefahren, einigen sich aber nicht auf Lösungen


CAMBRIDGE, Mass. (AP) – Informatiker, die beim Aufbau der Grundlagen der heutigen Technologie der künstlichen Intelligenz geholfen haben, warnen vor ihren Gefahren, aber das bedeutet nicht, dass sie sich einig sind, was diese Gefahren sind oder wie sie verhindert werden können.

Nachdem er sich von Google zurückgezogen hatte, konnte er freier sprechen, so genannter Pate von AI Geoffrey Hinton, plant, seine Bedenken am Mittwoch auf einer Konferenz am Massachusetts Institute of Technology darzulegen. Er hat bereits sein Bedauern über seine Arbeit geäußert und Zweifel am Überleben der Menschheit geäußert, wenn Maschinen klüger als Menschen werden.

KI-Pionierkollege Yoshua Bengio, Mitgewinner mit Hinton des höchsten Informatikpreisessagte am Mittwoch gegenüber The Associated Press, dass er Hintons Bedenken, die durch Chatbots wie ChatGPT und verwandte Technologien hervorgerufen werden, „ziemlich im Einklang steht“, aber befürchtet, dass es nicht helfen wird, einfach zu sagen „Wir sind dem Untergang geweiht“.

„Der Hauptunterschied, würde ich sagen, ist, dass er ein eher pessimistischer Mensch ist und ich eher optimistisch“, sagte Bengio, Professor an der Universität von Montreal. „Ich denke, dass die Gefahren – die kurzfristigen, die langfristigen – sehr ernst sind und nicht nur von einigen Forschern, sondern auch von Regierungen und der Bevölkerung ernst genommen werden müssen.“

Es gibt viele Anzeichen dafür, dass die Regierungen zuhören. Das Weiße Haus hat die CEOs von Google, Microsoft und dem ChatGPT-Hersteller OpenAI eingeladen, sich am Donnerstag mit Vizepräsidentin Kamala Harris zu treffen ihre Technologie. Der europäische Gesetzgeber beschleunigt auch die Verhandlungen, um umfassende neue KI-Regeln zu verabschieden.

Aber all das Gerede von den schlimmsten zukünftigen Gefahren hat sich einige Sorgen gemacht, dass der Hype um übermenschliche Maschinen – die es noch nicht gibt – von Versuchen ablenkt, praktische Sicherheitsvorkehrungen für aktuelle KI-Produkte zu treffen, die weitgehend unreguliert sind.

Margaret Mitchell, eine ehemalige Leiterin des KI-Ethikteams von Google, sagte, sie sei verärgert darüber, dass Hinton sich während seines Jahrzehnts in einer Machtposition bei Google nicht zu Wort gemeldet habe, insbesondere nach dem Sturz des prominenten schwarzen Wissenschaftlers Timnit Gebru im Jahr 2020, der die Schäden untersucht hatte von großen Sprachmodellen, bevor sie in großem Umfang in Produkten wie ChatGPT und Google’s Bard kommerzialisiert wurden.

„Es ist ein Privileg, dass er jetzt aus der Realität der Verbreitung von Diskriminierung, der Verbreitung von Hasssprache, der Toxizität und der nicht einvernehmlichen Pornografie von Frauen herausspringen kann, all diese Probleme, die aktiv Menschen schaden, die in der Technologie an den Rand gedrängt werden“, sagte Mitchell, der nach Gebrus Abgang ebenfalls aus Google gedrängt wurde. „Er überspringt all diese Dinge, um sich um etwas weiter Entferntes zu kümmern.“

Bengio, Hinton und ein dritter Forscher, Yann LeCun, der beim Facebook-Mutterunternehmen Meta arbeitet, wurden 2019 alle mit dem Turing-Preis für ihre Durchbrüche auf dem Gebiet der künstlichen neuronalen Netze ausgezeichnet, die maßgeblich zur Entwicklung heutiger KI-Anwendungen wie ChatGPT beigetragen haben.

Bengio, der einzige der drei, der keinen Job bei einem Technologieriesen angenommen hat, äußert seit Jahren Bedenken hinsichtlich kurzfristiger KI-Risiken, darunter die Destabilisierung des Arbeitsmarktes, automatisierte Waffen und die Gefahren voreingenommener Datensätze.

Aber diese Bedenken sind in letzter Zeit gewachsen und haben Bengio dazu veranlasst, sich anderen Informatikern und Technologieführern wie Elon Musk und Apple-Mitbegründer Steve Wozniak anzuschließen und eine sechsmonatige Pause bei der Entwicklung von KI-Systemen zu fordern, die leistungsfähiger sind als das neueste Modell von OpenAI, GPT-4 .

Bengio sagte am Mittwoch, er glaube, dass die neuesten KI-Sprachmodelle bereits den „Turing-Test“ bestehen, der nach der Methode des britischen Codebrechers und KI-Pioniers Alan Turing benannt ist 1950 eingeführt, um zu messen, wann KI nicht mehr von einem Menschen zu unterscheiden ist – zumindest an der Oberfläche.

„Das ist ein Meilenstein, der drastische Folgen haben kann, wenn wir nicht aufpassen“, sagte Bengio. „Meine Hauptsorge ist, wie sie für schändliche Zwecke zur Destabilisierung von Demokratien, für Cyberangriffe und Desinformation missbraucht werden können. Sie können sich mit diesen Systemen unterhalten und denken, dass Sie mit einem Menschen interagieren. Sie sind schwer zu erkennen.“

Wo sich die Forscher weniger einig sind, ist, wie aktuelle KI-Sprachsysteme – die viele Einschränkungen aufweisen, einschließlich der Tendenz, Informationen zu fabrizieren – tatsächlich intelligenter als Menschen werden.

Aidan Gomez war einer der Co-Autoren des wegweisenden Papiers aus dem Jahr 2017, in dem eine sogenannte Transformer-Technik – das „T“ am Ende von ChatGPT – zur Verbesserung der Leistung von maschinellen Lernsystemen eingeführt wurde, insbesondere in Bezug darauf, wie sie aus Passagen lernen von Text. Damals nur 20 Jahre alt, Praktikant bei Google, erinnert sich Gomez, wie er auf einer Couch in der kalifornischen Firmenzentrale lag, als sein Team gegen 3 Uhr morgens die fällige Zeitung verschickte.

„Aidan, das wird so gewaltig“, erinnert er sich an einen Kollegen, der ihm von der Arbeit erzählte, die seither dazu beigetragen hat, zu neuen Systemen zu führen, die menschenähnliche Prosa und Bilder erzeugen können.

Sechs Jahre später und jetzt CEO seines eigenen KI-Unternehmens Cohere, ist Gomez begeistert von den potenziellen Anwendungen dieser Systeme, aber beunruhigt von der Angstmacherei, sagt er, dass er „von der Realität losgelöst“ ihrer wahren Fähigkeiten ist und „sich auf außergewöhnliche Sprünge der Vorstellungskraft verlässt und Argumentation.”

„Die Vorstellung, dass diese Modelle irgendwie Zugang zu unseren Atomwaffen erhalten und eine Art Ereignis auf Extinktionsebene starten werden, ist kein produktiver Diskurs“, sagte Gomez. „Es ist schädlich für diese wirklich pragmatischen politischen Bemühungen, die versuchen, etwas Gutes zu tun.“

source-123

Leave a Reply