Generative KI-Systeme sind nicht nur offene oder geschlossene Quellen


Kürzlich ist eine durchgesickert dokumentieren, angeblich von Google, behauptete, dass Open-Source-KI Google und OpenAI übertreffen werde. Das Leck brachte laufende Diskussionen in der KI-Community darüber in den Vordergrund, wie ein KI-System und seine vielen Komponenten mit Forschern und der Öffentlichkeit geteilt werden sollten. Trotz der Vielzahl der jüngsten Veröffentlichungen generativer KI-Systeme bleibt dieses Problem ungelöst.

Viele Menschen betrachten dies als eine binäre Frage: Systeme können entweder Open Source oder Closed Source sein. Offene Entwicklung dezentralisiert die Macht, so dass viele Menschen gemeinsam an KI-Systemen arbeiten können, um sicherzustellen, dass sie ihre Bedürfnisse und Werte widerspiegeln, wie bei gezeigt BLOOM von BigScience. Während Offenheit es mehr Menschen ermöglicht, zur KI-Forschung und -Entwicklung beizutragen, steigt mit zunehmendem Zugang das Potenzial für Schaden und Missbrauch – insbesondere durch böswillige Akteure. Closed-Source-Systeme, wie Googles ursprüngliche LaMDA-Versionsind vor Akteuren außerhalb der Entwicklerorganisation geschützt, können jedoch nicht von externen Forschern geprüft oder bewertet werden.

Ich habe die Veröffentlichung generativer KI-Systeme geleitet und erforscht, darunter GPT-2 von OpenAIseit diese Systeme zum ersten Mal für eine breite Nutzung verfügbar wurden, und ich konzentriere mich jetzt darauf ethische Offenheit Überlegungen bei Hugging Face. Bei dieser Arbeit bin ich zu dem Schluss gekommen, dass Open Source und Closed Source die beiden Enden einer Sache sind Gradient der Möglichkeiten zur Freigabe generativer KI-Systemestatt einer einfachen Entweder/Oder-Frage.

Illustration: Irene Solaiman

Am äußersten Ende des Gefälles befinden sich Systeme, die so geschlossen sind, dass sie der Öffentlichkeit nicht bekannt sind. Aus offensichtlichen Gründen ist es schwierig, hierfür konkrete Beispiele zu nennen. Aber nur einen Schritt weiter auf dem Gefälle: Öffentlich angekündigte geschlossene Systeme werden für neue Modalitäten wie die Videogenerierung immer häufiger. Da es sich bei der Videogenerierung um eine relativ junge Entwicklung handelt, gibt es weniger Forschung und Informationen über die damit verbundenen Risiken und darüber, wie diese am besten gemindert werden können. Als Meta es ankündigte Mach ein Video Modell im September 2022, es zitierte Bedenken wie die Leichtigkeit, mit der jeder realistische, irreführende Inhalte als Gründe dafür angeben kann, das Modell nicht zu teilen. Stattdessen erklärte Meta, dass es Forschern schrittweise den Zugang ermöglichen werde.

In der Mitte des Farbverlaufs befinden sich die Systeme, mit denen Gelegenheitsbenutzer am besten vertraut sind. Sowohl ChatGPT als auch Midjourney sind beispielsweise öffentlich zugängliche gehostete Systeme, bei denen die Entwicklerorganisation OpenAI bzw. Midjourney das Modell über eine Plattform teilt, damit die Öffentlichkeit Eingaben anregen und Ausgaben generieren kann. Mit ihrer großen Reichweite und einer No-Code-Schnittstelle haben sich diese Systeme als nützlich und nützlich erwiesen riskant. Sie ermöglichen zwar mehr Feedback als ein geschlossenes System, da Personen außerhalb der Host-Organisation mit dem Modell interagieren können, diese Außenstehenden verfügen jedoch nur über begrenzte Informationen und können das System nicht fundiert untersuchen, indem sie beispielsweise die Trainingsdaten oder das Modell selbst auswerten.

Am anderen Ende des Gradienten ist ein System vollständig offen, wenn alle Komponenten, von den Trainingsdaten über den Code bis zum Modell selbst, vollständig offen und für jedermann zugänglich sind. Generative KI basiert auf offener Forschung und Lehren aus frühen Systemen wie Googles BERT, das vollständig geöffnet war. Heutzutage werden die am häufigsten verwendeten vollständig offenen Systeme von Organisationen entwickelt, die sich auf Demokratisierung und Transparenz konzentrieren. Von Hugging Face veranstaltete Initiativen (zu denen ich beitrage) – wie BigScience Und BigCodegemeinsam mit ServiceNow geleitet – und von dezentralen Kollektiven wie EleutherAI sind mittlerweile beliebt Fallstudien zum Bauen offene Systeme Zu enthalten viele Sprachen und Völker weltweit.

Es gibt keine definitiv sichere Freisetzungsmethode oder einen standardisierten Satz davon Freigabenormen. Es gibt auch kein etabliertes Gremium zur Festlegung von Standards. Frühe generative KI-Systeme wie ELMo und BERT waren bis zur stufenweisen Veröffentlichung von GPT-2 im Jahr 2019 weitgehend offen, was neue Impulse gab Diskussionen über verantwortungsvollen Einsatz Immer leistungsfähigere Systeme, z. B. was die Veröffentlichung oder Veröffentlichungspflichten sollte sein. Seitdem haben sich Systeme aller Modalitäten, insbesondere bei großen Organisationen, in Richtung Geschlossenheit verlagert, was Anlass zur Sorge gibt Konzentration der Macht in den ressourcenintensiven Organisationen, die in der Lage sind, diese Systeme zu entwickeln und einzusetzen.

source-114

Leave a Reply