Meta veröffentlicht sein neues KI-Modell Llama 2 als Open Source: Wird es Missbrauch anheizen?


Anstatt die KI-Chatbot-Technologie privat zu halten, hat Meta beschlossen, die Schleusen zu öffnen und im Wesentlichen den Computercode für ein neues großes Sprachmodell preiszugeben.

Meta wird ein neues KI-Modell, Llama 2, als Open Source veröffentlichen und es für Forschungs- und kommerzielle Zwecke kostenlos zur Verfügung stellen. Meta möchte, dass Unternehmer, Start-ups und Entwickler ein Ökosystem rund um seine KI-Technologie schaffen, und zwar zu einer Zeit, in der sich die Branche zu ChatGPT von OpenAI hingezogen hat.

„Open Source treibt Innovationen voran, weil es viel mehr Entwicklern ermöglicht, mit neuer Technologie zu bauen“, sagte Mark Zuckerberg, CEO von Meta schrieb(Öffnet in einem neuen Fenster) in einem Facebook-Beitrag und fügte später hinzu: „Ich freue mich darauf zu sehen, was ihr alle baut!“

„Dies wird die Landschaft des LLM-Marktes (großes Sprachmodell) verändern“, hinzugefügt(Öffnet in einem neuen Fenster) Metas Chef-KI-Wissenschaftler Yann LeCun.

Es ist unklar, wie die Technologie im Vergleich zu ChatGPT abschneidet. Aber Meta sagt, dass Llama 2 mit 40 % mehr Daten trainiert wurde als das erste Llama-Modell, einschließlich über 1 Million neuer menschlicher Anmerkungen. Infolgedessen kann Llama 2 bei verschiedenen Benchmarks in den Bereichen Argumentation, Codierung, Kompetenz und Wissen etwas besser abschneiden.

Der Open-Source-Ansatz könnte Druck auf OpenAI ausüben, das Unternehmen die Nutzung ihrer eigenen generativen KI-Technologie über eine API in Rechnung stellt. Im Gegensatz dazu plant Zuckerberg, Benutzern den Download des Llama 2-Quellcodes von einem Unternehmen zu ermöglichen Webseite(Öffnet in einem neuen Fenster), obwohl Benutzer ein Formular ausfüllen müssen, das dann überprüft wird. „Es gibt auch eine optimierte Version, die Sie lokal unter Windows ausführen können“, fügte er hinzu. Unternehmen können auf das KI-Modell auf der Cloud-Computing-Plattform Azure von Microsoft zugreifen.

Dennoch wirft die Nachricht die Frage auf, ob Llama 2 in die falschen Hände geraten und am Ende Betrügereien und andere böswillige Handlungen befeuern wird. Als beispielsweise das ursprüngliche Llama-Modell im Februar den Forschern zur Verfügung gestellt wurde, wurden Kopien des Codes durchgesickert und schnell ausgenutzt erstellen(Öffnet in einem neuen Fenster) ein unzensierter Chatbot, der zu verstörenden Antworten fähig ist.

Meta argumentiert jedoch, dass das Open-Source-Angebot von Llama 2 die Technologie sicherer machen kann.

„Die Öffnung des Zugangs zu den heutigen KI-Modellen bedeutet, dass eine Generation von Entwicklern und Forschern sie als Gemeinschaft einem Stresstest unterziehen und Probleme schnell erkennen und lösen kann“, so das Unternehmen schrieb(Öffnet in einem neuen Fenster) in einem separaten Blogbeitrag. „Indem wir sehen, wie diese Tools von anderen verwendet werden, können unsere eigenen Teams daraus lernen, diese Tools verbessern und Schwachstellen beheben.“

Von unseren Redakteuren empfohlen

Auch Meta-Führungskräfte erzählt(Öffnet in einem neuen Fenster) Die New York Times dass Menschen ohne den Einsatz von KI-Programmen bereits große Mengen an Fehlinformationen und Hassreden erzeugen können. Stattdessen könnte die Veröffentlichung von Llama 2 für die Community dem sozialen Netzwerk dabei helfen, Online-Toxizität zu bekämpfen, da das Unternehmen bereits versucht, KI zu nutzen, um gegen regelverstoßende Inhalte vorzugehen.

Darüber hinaus sagt Meta, dass man Llama 2 „red-teaming“ gemacht habe, um zu verstehen, wie Menschen das große Sprachmodell missbrauchen und als Reaktion darauf Leitplanken installieren könnten. „Diese Sicherheits-Feinabstimmungsprozesse sind iterativ. Wir werden weiterhin durch Feinabstimmung und Benchmarking in die Sicherheit investieren und planen, auf der Grundlage dieser Bemühungen aktualisierte, feinabgestimmte Modelle zu veröffentlichen“, sagte das Unternehmen.

Da Llama 2 Open Source ist, können Benutzer den Code ändern. Meta teilt PCMag jedoch mit, dass es in Llamas Richtlinie zur akzeptablen Nutzung eine Formulierung enthält, die besagt, dass das Unternehmen gegen Personen vorgehen kann, die das KI-Modell missbrauchen. Dies kann die Einleitung eines Gerichtsverfahrens oder die Kündigung von Vereinbarungen zwischen Meta und einem Softwareentwickler umfassen.

Was ist jetzt neu?<\/strong> damit unsere Top-Storys jeden Morgen in Ihren Posteingang geliefert werden _at”:null,”updated_at”:”2022-08-31T18:35:24.000000Z”)” x-show=”showEmailSignUp()” class=”rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs”>

Holen Sie sich unsere besten Geschichten!

Melden Sie sich an für Was ist jetzt neu? um jeden Morgen unsere Top-Storys in Ihren Posteingang zu bekommen.

Dieser Newsletter kann Werbung, Angebote oder Affiliate-Links enthalten. Wenn Sie einen Newsletter abonnieren, erklären Sie sich damit einverstanden Nutzungsbedingungen Und Datenschutz-Bestimmungen. Sie können den Newsletter jederzeit abbestellen.



source-106

Leave a Reply