Facebooks Muttergesellschaft Meta hat mit der ersten Veröffentlichung ihres eigenen KI-Tools, das speziell für die Forschung entwickelt wurde, seinen Hut in den KI-Ring geworfen.
In einem Blogeintrag (öffnet in neuem Tab), erklärte Meta mehr über sein Large Language Model Meta AI (LLaMA), das darauf abzielt, „Forschern dabei zu helfen, ihre Arbeit in diesem Teilbereich der KI voranzutreiben“. LLaMA wird Bing mit ChatGPT nicht für den täglichen Gebrauch herausfordern, sondern unter einer nicht-kommerziellen Lizenz verwendet werden.
Anstatt verwendet zu werden, um neue Jahreszeiten zu erstellen abgesagte Netflix-Shows, LLaMA richtet sich an Universitäten, Regierungen und Labors für Forschungszwecke. Sogar Mark Zuckerberg auf Facebook gepostet (öffnet in neuem Tab) Verweis auf das Potenzial von LLaMA, mathematische Theoreme zu lösen und Proteinstrukturen vorherzusagen.
Mit dem Forschungsschwerpunkt von LLaMA ist Meta entschlossen, die Fehler von Googles Bard AI und Bing mit ChatGPT nicht zu wiederholen, die einige hochkarätige Pannen verursacht haben. Meta bietet Zugriff auf LLaMA in mehreren verschiedenen Größen, wobei die kleinste 7 Milliarden Parameter beim Generieren von Antworten verwendet, während die größte 65 Milliarden Parameter hat. Die größte Version wurde außerdem mit 1,4 Billionen „Tokens“ (beschrieben als Teile eines Wortes) trainiert und verfügt daher über ein beeindruckendes Vokabular.
Meta hat sich mit der Veröffentlichung von BlenderBot im August 2022, einem Chatbot eher im Stil von ChatGPT, bereits in der Welt der KI versucht. Es schuf auch die Galactica, die zum Verfassen wissenschaftlicher Arbeiten konzipiert war, aber nur von kurzer Dauer war und nur drei Tage dauerte, bevor sie wegen Ungenauigkeit außer Dienst gestellt wurde.
Einer der gefährlichsten Aspekte der KI-gesteuerten Suche ist das Potenzial, falsche Informationen zu generieren, die plausibel klingen und die Benutzer dann für unangebracht halten. Meta ist darüber besorgt und hat sich schriftlich dazu verpflichtet, die richtigen Methoden anzuwenden Verantwortungsvolle KI-Praktiken (öffnet in neuem Tab). Sicherlich könnte LLaMA durch einen Walled Garden, der nur auf Genehmigung basiert, einen Großteil der Korruption vermeiden, mit der andere Tools konfrontiert waren.
In Anbetracht des Forschungsschwerpunkts von LLaMA ist es wichtig, dass die Informationen korrekt sind. Dieses Engagement für zuverlässige Informationen ist lobenswert, wir haben nur nicht erwartet, dass es von den Machern von FaceBook kommt.