Technologieführer und KI-Experten fordern eine sechsmonatige Pause bei „außer Kontrolle geratenen“ KI-Experimenten


Ein offener Brief Unterzeichnet von Technologieführern und prominenten KI-Forschern, hat KI-Labore und Unternehmen aufgefordert, ihre Arbeit „sofort zu unterbrechen“. Unterzeichner wie Steve Wozniak und Elon Musk sind sich einig, dass Risiken eine mindestens sechsmonatige Pause von der Produktion von Technologie jenseits von GPT-4 rechtfertigen, um bestehende KI-Systeme zu nutzen, Menschen Anpassungen zu ermöglichen und sicherzustellen, dass sie allen zugute kommen. Der Brief fügt hinzu, dass Sorgfalt und Voraussicht notwendig sind, um die Sicherheit von KI-Systemen zu gewährleisten – aber ignoriert werden.

Der Verweis auf GPT-4, ein Modell von OpenAI, das mit Text auf geschriebene oder visuelle Nachrichten antworten kann, kommt, da Unternehmen um den Aufbau komplexer Chat-Systeme kämpfen, die diese Technologie nutzen. Microsoft hat beispielsweise kürzlich bestätigt, dass seine überarbeitete Bing-Suchmaschine seit über sieben Wochen auf dem GPT-4-Modell basiert, während Google kürzlich Bard vorstellte, sein eigenes generatives KI-System, das von LaMDA unterstützt wird. Das Unbehagen in Bezug auf KI ist seit langem im Umlauf, aber der offensichtliche Wettlauf, zuerst die fortschrittlichste KI-Technologie einzusetzen, hat dringendere Bedenken geweckt.

„Leider findet dieses Planungs- und Managementniveau nicht statt, obwohl KI-Labore in den letzten Monaten in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer mächtigerer digitaler Köpfe gefangen waren, die niemand – nicht einmal ihre Schöpfer – verstehen kann , vorhersagen oder zuverlässig kontrollieren”, heißt es in dem Schreiben.

Der betreffende Brief wurde von der veröffentlicht Institut Zukunft des Lebens (FLI), eine Organisation, die sich der Minimierung der Risiken und des Missbrauchs neuer Technologien verschrieben hat. Musk hatte dem FLI zuvor 10 Millionen US-Dollar für Studien zur KI-Sicherheit gespendet. Neben ihm und Wozniak gehören eine Reihe von globalen KI-Führungskräften zu den Unterzeichnern, darunter der Präsident des Center for AI and Digital Policy, Marc Rotenberg, der MIT-Physiker und Präsident des Future of Life Institute, Max Tegmark, und der Autor Yuval Noah Harari. Harari war auch Co-Autor eines op-ed in der New York Times letzte Woche warnte er zusammen mit den Gründern des Center for Humane Technology und den Mitunterzeichnern Tristan Harris und Aza Raskin vor KI-Risiken.

Dieser Aufruf fühlt sich an wie der nächste Schritt von a Umfrage 2022 von über 700 Forschern für maschinelles Lernen, in denen fast die Hälfte der Teilnehmer angab, dass die Wahrscheinlichkeit eines „extrem schlechten Ergebnisses“ von KI bei 10 Prozent liegt, einschließlich des Aussterbens des Menschen. Auf die Frage nach der Sicherheit in der KI-Forschung gaben 68 Prozent der Forscher an, dass mehr oder viel mehr getan werden sollte.

Jeder, der Bedenken hinsichtlich der Geschwindigkeit und Sicherheit der KI-Produktion teilt, kann dem Schreiben gerne seinen Namen hinzufügen. Neue Namen werden jedoch nicht unbedingt verifiziert, sodass alle bemerkenswerten Ergänzungen nach der Erstveröffentlichung möglicherweise gefälscht sind.

Alle von Engadget empfohlenen Produkte werden von unserem Redaktionsteam unabhängig von unserer Muttergesellschaft ausgewählt. Einige unserer Geschichten enthalten Affiliate-Links. Wenn Sie etwas über einen dieser Links kaufen, erhalten wir möglicherweise eine Affiliate-Provision. Alle Preise sind zum Zeitpunkt der Veröffentlichung korrekt.

source-115

Leave a Reply