Gradient sammelt 10 Millionen US-Dollar, um Unternehmen die Bereitstellung und Feinabstimmung mehrerer LLMs zu ermöglichen


Gradientein Startup, das es Entwicklern ermöglicht, KI-Apps in der Cloud mithilfe großer Sprachmodelle (LLMs) zu erstellen und anzupassen, ist heute mit einer Finanzierung in Höhe von 10 Millionen US-Dollar unter der Leitung von Wing VC unter Beteiligung von Mango Capital, Tokyo Black, The New Normal Fund aus dem Verborgenen hervorgekommen. Sichern Sie sich Octane und Global Founders Capital.

Chris Chang, CEO von Gradient, gründete das Unternehmen vor einigen Monaten zusammen mit Mark Huang und Forrest Moret, während er bei großen Technologieunternehmen wie Netflix, Splunk und Google an KI-Produkten arbeitete. Das Trio kam zu der Erkenntnis, dass LLMs wie GPT-4 von OpenAI für das Unternehmen transformativ sein könnten, glaubte jedoch, dass die optimale Nutzung von LLMs die Schaffung einer zuverlässigen Möglichkeit zum Hinzufügen privater, proprietärer Daten erfordern würde.

„Traditionell haben sich Teams auf die Verbesserung eines einzelnen, generalistischen Modells konzentriert – und bestehende Lösungen unterstützen dieses Modell“, sagte Chang per E-Mail gegenüber TechCrunch. „Das liegt vor allem daran, dass es zu komplex war, Systeme mit mehreren Modellen zu verwalten. Allerdings ist es nicht optimal, sich auf ein einzelnes Modell zu verlassen, da es zwangsläufig einen Kompromiss bei der aufgabenspezifischen Leistung gibt.“

Chang, Huang und Moret haben Gradient daher entwickelt, um es Teams zu erleichtern, „spezialisierte“ und fein abgestimmte LLMs in großem Maßstab bereitzustellen. Die Plattform läuft in der Cloud und ermöglicht es einer Organisation, bis zu „Tausende“ LLMs in einem einzigen System zu entwickeln und zu integrieren, sagt Chang.

Gradient-Kunden müssen LLMs nicht von Grund auf trainieren. Die Plattform hostet eine Reihe von Open-Source-LLMs, darunter Metas Llama 2, die Benutzer genau an ihre Bedürfnisse anpassen können. Gradient bietet auch Modelle an, die auf bestimmte Anwendungsfälle (wie Datenabgleich, Kontexterfassung und Dokumentenverarbeitung) und Branchen (wie Finanzen und Recht) ausgerichtet sind.

Gradient kann Modelle über eine API à la Hugging Face, CoreWeave und andere KI-Infrastrukturanbieter hosten und bereitstellen. Oder es kann KI-Systeme in der öffentlichen Cloud-Umgebung einer Organisation bereitstellen, sei es Google Cloud Platform, Azure oder AWS.

In beiden Fällen behalten die Kunden „das volle Eigentum“ und die Kontrolle über ihre Daten und trainierten Modelle, sagt Chang.

„Die Hürden für die Entwicklung von KI sind heute viel zu hoch“, fügte er hinzu. „Aufgrund der hohen Komplexität und der hohen Kosten für den Aufbau der erforderlichen Infrastruktur und die Entwicklung neuer Modelle ist der Aufbau leistungsstarker, individueller KI nicht möglich. Wir haben gesehen, dass die überwiegende Mehrheit der Unternehmen den Wert von KI für ihr Unternehmen versteht, aber aufgrund der Komplexität der Einführung Schwierigkeiten hat, den Wert zu erkennen. Unsere Plattform vereinfacht die Nutzung von KI für ein Unternehmen radikal, was einen enormen Mehrwert darstellt.“

Nun fragen Sie sich vielleicht – wie dieser Reporter –, was Gradient von den anderen Startup-Engineering-Tools zur Verknüpfung von LLMs mit internen Daten unterscheidet? Und was ist mit den vielen anderen Unternehmen, die LLMs bereits als Service für Unternehmenskunden anpassen? Das ist eine berechtigte Frage.

Schauen Sie sich zum Beispiel Reka an, das kürzlich aus dem Verborgenen hervorgegangen ist, um mit Unternehmen zusammenzuarbeiten, um maßgeschneiderte LLM-basierte Apps zu entwickeln. Writer ermöglicht Kunden die Feinabstimmung von LLMs anhand ihrer eigenen Inhalte und Styleguides. Kontextuelle KI, Fixie und LlamaIndex, die kürzlich aus dem Verborgenen hervorgegangen sind, entwickeln Tools, die es Unternehmen ermöglichen, ihre eigenen Daten zu bestehenden LLMs hinzuzufügen. Und Cohere schult LLMs nach Kundenspezifikationen.

Sie sind nicht die Einzigen. OpenAI bietet eine Reihe von Tools zur Modellfeinabstimmung, ebenso wie etablierte Unternehmen wie Google (über Vertex AI), Amazon (über Bedrock) und Microsoft (über den Azure OpenAI Service).

Chang argumentiert, dass Gradient eine der wenigen Plattformen ist, die es Unternehmen ermöglicht, mehrere Modelle gleichzeitig zu „produzieren“. Und er behauptet, es sei erschwinglich – die Plattform wird auf Abruf bepreist, sodass Benutzer nur für die Infrastruktur bezahlen, die sie nutzen. (Größere Kunden haben die Möglichkeit, für dedizierte Kapazität zu bezahlen.)

Aber auch wenn sich Gradient nicht wesentlich von seinen Konkurrenten im LLM-Entwicklungsbereich unterscheidet, wird es von dem massiven Zustrom an Interesse an generativer KI, einschließlich LLMs, profitieren – und profitiert davon. Fast ein Fünftel der gesamten weltweiten VC-Finanzierung kam in diesem Jahr allein aus dem KI-Sektor. nach zu Crunchbase. Und PitchBook erwartet Der Markt für generative KI soll im Jahr 2023 42,6 Milliarden US-Dollar erreichen.

„Gradient macht es viel einfacher, komplexe KI-Systeme zu entwickeln, die viele ‚Experten-LLMs‘ nutzen“, sagte er. „Dieser Ansatz stellt sicher, dass das KI-System bei jeder Aufgabe stets die höchste Leistung erzielt, und das alles auf einer einzigen Plattform … Unsere Plattform ist darauf ausgelegt, es Teams extrem einfach zu machen, spezialisierte LLMs, die speziell für ihre spezifischen Probleme entwickelt wurden, effektiver einzusetzen.“

Gradient gibt an, derzeit mit etwa 20 Unternehmenskunden zusammenzuarbeiten, wobei es sich insgesamt um „Tausende“ Benutzer handelt. Das kurzfristige Ziel besteht darin, das Cloud-Backend zu skalieren und das Team bis Ende des Jahres von 17 Vollzeitmitarbeitern auf 25 zu vergrößern.

source-116

Leave a Reply