Reka taucht aus dem Verborgenen auf und erstellt benutzerdefinierte KI-Modelle für das Unternehmen


Große Sprachmodelle (LLMs) wie GPT-4 von OpenAI liegen heutzutage aufgrund ihrer beispiellosen Fähigkeit, Text zu analysieren und zu generieren, voll im Trend. Aber für Unternehmen, die LLMs für bestimmte Aufgaben nutzen möchten – beispielsweise das Verfassen von Anzeigentexten im Stil einer Marke – kann ihr generalistischer Charakter zu einer Belastung werden.

Wenn die Anweisungen zu präzise werden, haben selbst die besten LLMs Probleme mit der Konsistenz. Eine Lösung besteht darin, den Umfang eines LLM zu verfeinern oder einzuschränken. Aus technischer Sicht ist es jedoch oft eine Herausforderung, ganz zu schweigen von den Kosten.

Motiviert, einen einfacheren Weg zu finden, gründete sich ein Team aus Forschern von DeepMind, Google, Baidu und Meta Reka, das heute mit 58 Millionen US-Dollar aus der Tarnung hervorkam. DST Global Partners und Radical Ventures leiteten die Tranche unter Beteiligung des strategischen Partners Snowflake Ventures sowie einer Kohorte von Angel-Investoren, zu denen der ehemalige GitHub-CEO Nat Friedman gehörte.

Reka mit Sitz in San Francisco ist die Idee von Dani Yogatama, Cyprien de Masson d’Autume, Qi Liu Head und Yi Tay. Bei der Arbeit an KI-Systemen, darunter AlphaCode und Bard von DeepMind, sagten die vier Mitbegründer, dass sie erkannten, dass es unpraktisch sei, zu erwarten, dass ein großes LLM für alle möglichen Anwendungsfälle eingesetzt werde.

„Wir verstehen die transformative Kraft der KI und möchten die Vorteile dieser Technologie auf verantwortungsvolle Weise in die Welt bringen“, sagte Yogatama gegenüber TechCrunch in einem E-Mail-Interview. „Reka ist ein Forschungs- und Produktunternehmen, das Modelle zum Nutzen der Menschheit, Organisationen und Unternehmen entwickelt.“

Rekas erstes kommerzielles Produkt, Yasa, wird diesen hohen Ansprüchen nicht ganz gerecht. Aber es ist ein Beispiel für den frühen Ansatz des Startups. Yasa geht über Text hinaus und ist ein multimodaler KI-„Assistent“, der darauf trainiert ist, neben Wörtern und Phrasen auch Bilder, Videos und Tabellendaten zu verstehen. Laut Yogatama können damit Ideen generiert und grundlegende Fragen beantwortet sowie Erkenntnisse aus den internen Daten eines Unternehmens abgeleitet werden.

Damit unterscheidet sich Yasa, das sich in der Closed Beta befindet, nicht unähnlich zu Modellen wie GPT-4, die auch Texte und Bilder verstehen können. Der Clou ist jedoch, dass Yasa problemlos an proprietäre Daten und Anwendungen angepasst werden kann.

„Unsere Technologie ermöglicht es Unternehmen, von den Fortschritten bei LLMs auf eine Weise zu profitieren, die ihre Bereitstellungsbeschränkungen erfüllt, ohne dass ein Team interner KI-Experten erforderlich ist“, sagte Yogatama.

Yasa ist nur der Anfang. Als nächstes will Reka sein Augenmerk auf KI richten, die noch mehr Arten von Daten akzeptieren und generieren kann, sich kontinuierlich selbst verbessert und ohne Umschulung auf dem neuesten Stand bleibt.

Zu diesem Zweck bietet Reka, der vorerst nur ausgewählten Kunden zur Verfügung steht, auch einen Service zur Anpassung der von ihr entwickelten LLMs an kundenspezifische oder proprietäre Unternehmensdatensätze an. Kunden können die „destillierten“ Modelle je nach Anwendungs- und Projektbeschränkungen auf ihrer eigenen Infrastruktur oder über die API von Reka ausführen.

Es sollte angemerkt werden, dass Reka nicht das einzige Startup ist, das nach Modellen sucht, die besser für Unternehmensanwendungsfälle geeignet sind. Writer ermöglicht Kunden die Feinabstimmung von LLMs anhand ihrer eigenen Inhalte und Styleguides. Kontextuelle KI und LlamaIndex, die kürzlich aus dem Verborgenen hervorgegangen sind, entwickeln Tools, die es Unternehmen ermöglichen, ihre eigenen Daten zu bestehenden LLMs hinzuzufügen. Und Cohere schult LLMs nach Kundenspezifikationen.

Um nicht zu übertreffen, bieten etablierte Unternehmen wie OpenAI jetzt Tools zur Feinabstimmung von Modellen und deren Verbindung mit dem Internet und anderen Quellen an, um sicherzustellen, dass sie auf dem neuesten Stand bleiben.

Aber das Verkaufsargument von Reka überzeugte einen frühen Kunden (und Investor), Snowflake, der mit dem Startup zusammenarbeitete, um Snowflake-Kunden die Bereitstellung von Yasa über ihre Konten zu ermöglichen. Appen, das Unternehmen für Big-Data-Analysen, gab kürzlich ebenfalls bekannt, dass es mit Reka zusammenarbeitet, um maßgeschneiderte, multimodale, modellbasierte Apps für Unternehmen zu entwickeln.

Rob Toews, Partner bei Radical Ventures, sagte Folgendes, als wir fragten, warum er in Reka investiert habe:

Das Besondere an Reka ist, dass sie jedem Unternehmen die Leistungsfähigkeit und das Potenzial eines LLM bietet, ohne viele Kompromisse in Kauf nehmen zu müssen. Die destillierten Yasa-Modelle von Reka behalten die Daten im Unternehmen, sind hinsichtlich Kosten und Energie unglaublich effizient und erfordern keine kostspieligen Forschungsteams, die Modelle von Grund auf neu erstellen. Wenn jedes Unternehmen zu einem „KI“-Unternehmen werden soll, ist es das Ziel von Reka, jedem dieser Unternehmen ein eigenes Basismodell in Produktionsqualität zu geben.

Laut Yogatama wird Reka, das derzeit keine Einnahmen erwirtschaftet, seine bisherigen Mittel nutzen, um Rechenleistung von Nvidia zu erwerben und ein Geschäftsteam aufzubauen.

source-116

Leave a Reply