Die wilde Behauptung im Zentrum der OpenAI-Klage von Elon Musk


Elon Musk begann die Woche mit einem gereizten Beitrag auf X über ihn hat Schwierigkeiten, einen neuen Laptop mit Windows einzurichten. Er beendete die Sache, indem er eine Klage einreichte, in der er OpenAI beschuldigte, rücksichtslos KI auf menschlicher Ebene zu entwickeln und diese an Microsoft zu übergeben.

Musks Klage richtet sich gegen OpenAI und zwei seiner Führungskräfte, CEO Sam Altman und Präsident Greg Brockman, die beide mit dem Raketen- und Autounternehmer zusammengearbeitet haben, um das Unternehmen im Jahr 2015 zu gründen. Ein großer Teil des Falles dreht sich um eine gewagte und fragwürdige Technik Behauptung: Dass OpenAI die sogenannte künstliche allgemeine Intelligenz (AGI) entwickelt hat, ein Begriff, der im Allgemeinen für Maschinen verwendet wird, die es mit Menschen aufnehmen oder sie überlisten können.

In dem Fall wird behauptet, Altman und Brockman hätten gegen die ursprüngliche „Gründungsvereinbarung“ für OpenAI verstoßen, die mit Musk ausgehandelt wurde und in der sich das Unternehmen verpflichtet habe, AGI offen und „zum Wohle der Menschheit“ zu entwickeln. In Musks Klage wird behauptet, dass der gewinnorientierte Zweig des Unternehmens, der 2019 nach seiner Trennung von OpenAI gegründet wurde, stattdessen AGI ohne angemessene Transparenz erstellt und an Microsoft lizenziert hat, das Milliarden in das Unternehmen investiert hat. Sie fordert, dass OpenAI gezwungen wird, seine Technologie offen zu veröffentlichen, und dass es ihm untersagt wird, sie zum finanziellen Nutzen von Microsoft, Altman oder Brockman zu nutzen.

„Nach unserer Überzeugung handelt es sich bei GPT-4 um einen AGI-Algorithmus“, heißt es in der Klageschrift und bezieht sich dabei auf das große Sprachmodell, das hinter ChatGPT von OpenAI steht. Als Beweis dafür, dass das System einige grundlegende menschliche Fähigkeiten übertrifft, werden Studien zitiert, die ergeben haben, dass das System die einheitliche Anwaltsprüfung und andere Standardtests bestehen kann. „GPT-4 ist nicht nur in der Lage zu argumentieren. Es kann besser denken als der Durchschnittsmensch“, heißt es in der Klage.

Obwohl GPT-4 bei seiner Einführung im März 2023 als großer Durchbruch gefeiert wurde, sehen die meisten KI-Experten darin keinen Beweis dafür, dass AGI erreicht wurde. „GPT-4 ist allgemein gehalten, aber es ist offensichtlich nicht AGI in der Art und Weise, wie die Leute den Begriff normalerweise verwenden“, sagt er Oren Etzioniemeritierter Professor an der University of Washington und Experte für KI.

„Es wird als wilde Behauptung angesehen werden“, sagt Christopher Manning, ein Professor an der Stanford University, der sich auf KI und Sprache spezialisiert hat, über die AGI-Behauptung in Musks Klage. Manning sagt, dass es innerhalb der KI-Community unterschiedliche Ansichten darüber gibt, was AGI ausmacht. Einige Experten legen die Messlatte möglicherweise niedriger und argumentieren, dass die Fähigkeit von GPT-4, ein breites Spektrum an Funktionen auszuführen, die Bezeichnung AGI rechtfertigen würde, während andere den Begriff lieber für Algorithmen reservieren, die die meisten oder alle Menschen in allem überlisten können. „Nach dieser Definition haben wir meiner Meinung nach ganz klar keine AGI und sind tatsächlich noch ziemlich weit davon entfernt“, sagt er.

Begrenzter Durchbruch

GPT-4 erlangte Aufmerksamkeit – und neue Kunden für OpenAI –, weil es ein breites Spektrum an Fragen beantworten kann, während ältere KI-Programme im Allgemeinen auf bestimmte Aufgaben wie Schachspielen oder das Markieren von Bildern spezialisiert waren. Musks Klage bezieht sich auf Behauptungen von Microsoft-Forschern ein Papier vom März 2023: „Angesichts der Breite und Tiefe der Fähigkeiten von GPT-4 glauben wir, dass es vernünftigerweise als eine frühe (aber noch unvollständige) Version eines Systems der künstlichen allgemeinen Intelligenz (AGI) angesehen werden kann.“ Trotz seiner beeindruckenden Fähigkeiten macht GPT-4 immer noch Fehler und weist erhebliche Einschränkungen bei der korrekten Analyse komplexer Fragen auf.

„Ich habe den Eindruck, dass die meisten von uns Forschern vor Ort denken, dass große Sprachmodelle funktionieren.“ [like GPT-4] sind ein sehr wichtiges Werkzeug, das es dem Menschen ermöglicht, viel mehr zu tun, aber sie sind in einer Weise eingeschränkt, die sie weit von eigenständigen Intelligenzen entfernt macht“, fügt er hinzu Michael JordanProfessor an der UC Berkeley und eine einflussreiche Persönlichkeit auf dem Gebiet des maschinellen Lernens.

Jordan fügt hinzu, dass er den Begriff AGI lieber ganz meidet, weil er so vage ist. „Ich habe nie erlebt, dass Elon Musk etwas zu KI zu sagen hat, das sehr kalibriert war oder auf der Realität der Forschung basierte“, fügt er hinzu.



source-114

Leave a Reply