KI wird immer leistungsfähiger – aber auch geheimnisvoller


Nathan Strauss, ein Sprecher von Amazon, sagte, das Unternehmen prüfe den Index genau. „Titan Text befindet sich noch in der privaten Vorschau und es wäre verfrüht, die Transparenz eines Basismodells zu beurteilen, bevor es für die allgemeine Verfügbarkeit bereit ist“, sagt er. Meta lehnte eine Stellungnahme zum Stanford-Bericht ab und OpenAI reagierte nicht auf eine Bitte um Stellungnahme.

Rishi Bommasani, ein Doktorand in Stanford, der an der Studie mitgearbeitet hat, sagt, dass dies die Tatsache widerspiegelt, dass KI immer undurchsichtiger wird, obwohl sie immer einflussreicher wird. Dies steht in starkem Kontrast zum letzten großen KI-Boom, als Offenheit dazu beitrug, große Fortschritte bei Fähigkeiten wie Sprach- und Bilderkennung zu ermöglichen. „Ende der 2010er Jahre waren die Unternehmen transparenter in Bezug auf ihre Forschung und veröffentlichten viel mehr“, sagt Bommasani. „Das ist der Grund, warum wir den Erfolg von Deep Learning hatten.“

Der Stanford-Bericht legt außerdem nahe, dass Modelle aus Wettbewerbsgründen nicht so geheim gehalten werden müssen. Kevin Klyman, ein Politikforscher an der Stanford University, sagt, dass die Tatsache, dass eine Reihe führender Modelle bei unterschiedlichen Maßstäben der Transparenz relativ gut abschneiden, darauf hindeutet, dass sie alle offener werden könnten, ohne gegenüber Konkurrenten zu verlieren.

Während KI-Experten versuchen herauszufinden, wohin die jüngste Blüte bestimmter KI-Ansätze führen wird, sagen einige, dass die Geheimhaltung das Fachgebiet weniger zu einer wissenschaftlichen Disziplin als vielmehr zu einer gewinnorientierten Disziplin machen könnte.

„Dies ist eine entscheidende Zeit in der Geschichte der KI“, sagt er Jesse Dodge, ein Forschungswissenschaftler am Allen Institute for AI, oder AI2. „Die einflussreichsten Akteure, die heute generative KI-Systeme entwickeln, sind zunehmend verschlossen und geben wichtige Details ihrer Daten und Prozesse nicht weiter.“

AI2 versucht, ein viel transparenteres KI-Sprachmodell namens zu entwickeln OLMo. Das Training erfolgt mithilfe einer Sammlung von Daten aus dem Internet, wissenschaftlichen Veröffentlichungen, Code, Büchern und Enzyklopädien. Dieser Datensatz heißt Dolmawurde unter AI2 veröffentlicht ImpACT-Lizenz. Wenn OLMo fertig ist, plant AI2, das funktionierende KI-System und auch den Code dahinter zu veröffentlichen, damit andere auf dem Projekt aufbauen können.

Laut Dodge ist es besonders wichtig, den Zugriff auf die Daten hinter leistungsstarken KI-Modellen zu erweitern. Ohne direkten Zugriff ist es im Allgemeinen unmöglich zu wissen, warum oder wie ein Modell das tun kann, was es tut. „Um die Wissenschaft voranzubringen, ist Reproduzierbarkeit erforderlich“, sagt er. „Ohne den offenen Zugang zu diesen entscheidenden Bausteinen der Modellerstellung bleiben wir in einer ‚geschlossenen‘, stagnierenden und proprietären Situation.“

Wenn man bedenkt, wie weit verbreitet KI-Modelle eingesetzt werden – und wie gefährlich einige Experten warnen, dass sie sein könnten –, könnte etwas mehr Offenheit viel bewirken.

source-114

Leave a Reply