Musk und andere Tech-Experten drängen auf einen Stopp weiterer KI-Entwicklungen


Mehr als 1.000 Technologieführer unterzeichnen eine Petition, in der sie als Reaktion auf die Veröffentlichung von GPT-4 die Unterbrechung von „riesigen KI-Experimenten“ fordern.

Der milliardenschwere Geschäftsmann Elon Musk und eine Reihe von Technologieführern forderten am Mittwoch eine Pause bei der Entwicklung leistungsstarker Systeme der künstlichen Intelligenz (KI), um Zeit zu haben, um sicherzustellen, dass sie sicher sind.

Ein offener Brief, der bisher von mehr als 1.000 Menschen unterzeichnet wurde, darunter Musk und Apple-Mitbegründer Steve Wozniak, war eine Reaktion auf die jüngste Veröffentlichung von GPT-4, einem fortschrittlicheren Nachfolger seines weit verbreiteten KI-Chatbots ChatGPT that hat dazu beigetragen, einen Wettlauf zwischen den Technologiegiganten Microsoft und Google auszulösen, um ähnliche Anwendungen vorzustellen.

Das Unternehmen sagt, dass sein neuestes Modell viel leistungsfähiger ist als die vorherige Version, die verwendet wurde, um ChatGPT zu betreiben, einen Bot, der in der Lage ist, Textabschnitte aus den kürzesten Eingabeaufforderungen zu generieren.

„KI-Systeme mit menschlicher Wettbewerbsintelligenz können tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen“, heißt es in dem offenen Brief mit dem Titel „Pause Giant AI Experiments“.

„Leistungsstarke KI-Systeme sollten erst entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, hieß es.

Musk war ein erster Investor in OpenAI und verbrachte Jahre im Vorstand. Seine Autofirma Tesla entwickelt KI-Systeme, um unter anderem die Selbstfahrtechnologie anzutreiben.

Der Brief, der vom Musk-finanzierten Future of Life Institute veranstaltet wird, wurde von prominenten Kritikern sowie Konkurrenten von OpenAI wie Stability AI-Chef Emad Mostaque unterzeichnet.

Eine Reihe von Regierungen arbeitet bereits daran, risikoreiche KI-Tools zu regulieren. Das Vereinigte Königreich hat am Mittwoch ein Papier veröffentlicht, in dem es seinen Ansatz umreißt, in dem es sagte, dass „hartnäckige Gesetze vermieden werden, die Innovationen ersticken könnten“. Gesetzgeber in der Europäischen Union mit 27 Nationen haben über die Verabschiedung weitreichender KI-Regeln verhandelt.

„Zuverlässig und loyal“

Der Brief zitiert aus einem Blog des OpenAI-Gründers Sam Altman, der vorschlug, dass „es irgendwann wichtig sein könnte, eine unabhängige Überprüfung zu erhalten, bevor man mit dem Training zukünftiger Systeme beginnt“.

“Sind wir uns einig. Dieser Punkt ist jetzt“, schrieben die Autoren des offenen Briefes.

„Deshalb fordern wir alle KI-Labore auf, das Training von KI-Systemen, die leistungsstärker als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen.“

Sie forderten die Regierungen auf, einzugreifen und ein Moratorium zu verhängen, falls die Unternehmen sich nicht einigen sollten.

Die sechs Monate sollten genutzt werden, um Sicherheitsprotokolle und KI-Governance-Systeme zu entwickeln und die Forschung neu auszurichten, um sicherzustellen, dass KI-Systeme genauer, sicherer, „vertrauenswürdiger und loyaler“ sind.

Der Brief ging nicht detailliert auf die Gefahren ein, die von GPT-4 aufgedeckt wurden.

Aber Forscher, darunter Gary Marcus von der New York University, der den Brief unterzeichnet hat, argumentieren seit langem, dass Chatbots große Lügner sind und das Potenzial haben, Superverbreiter von Desinformationen zu sein.

Der Autor Cory Doctorow hat die KI-Industrie jedoch mit einem „Pump and Dump“-Schema verglichen und argumentiert, dass sowohl das Potenzial als auch die Bedrohung von KI-Systemen massiv überbewertet wurden.

source-120

Leave a Reply