Kontextuelle KI startet heimlich, um unternehmensorientierte Sprachmodelle zu erstellen


Große Sprachmodelle (LLMs) wie GPT-4 von OpenAI sind leistungsstarke, paradigmenwechselnde Werkzeuge, die Branchen auf den Kopf stellen werden. Allerdings weisen sie Einschränkungen auf, die sie für Unternehmen mit strengen Compliance- und Governance-Anforderungen weniger attraktiv machen. LLMs neigen beispielsweise dazu, Informationen mit hoher Zuverlässigkeit zusammenzustellen, und sie sind so aufgebaut, dass es schwierig ist, ihre Wissensbasis zu entfernen oder sogar zu überarbeiten.

Um diese und andere Hindernisse zu beseitigen, war Douwe Kiela Mitbegründer von Kontextuelle KI, das heute aus dem Verborgenen mit einer Startfinanzierung in Höhe von 20 Millionen US-Dollar gestartet ist. Mit der Unterstützung von Investoren wie Bain Capital Ventures (die den Startschuss gegeben haben), Lightspeed, Greycroft und SV Angel hat sich Contextual AI das ehrgeizige Ziel gesetzt, die „nächste Generation“ von LLMs für das Unternehmen aufzubauen.

„Wir haben das Unternehmen gegründet, um den Bedürfnissen von Unternehmen im aufstrebenden Bereich der generativen KI gerecht zu werden, der sich bisher hauptsächlich auf Verbraucher konzentriert hat“, sagte Kiela per E-Mail gegenüber TechCrunch. „Kontextuelle KI löst mehrere Hindernisse, die heute bestehen, wenn es darum geht, Unternehmen zur Einführung generativer KI zu bewegen.“

Kiela und der andere Mitbegründer von Contextual AI, Amanpreet Singh, arbeiteten beim KI-Startup Hugging Face and Meta zusammen, bevor sie Anfang Februar beschlossen, ihr eigenes Unternehmen zu gründen. Während ihrer Zeit bei Meta leitete Kiela die Forschung zu einer Technik namens Retrieval Augmented Generation (RAG), die die Grundlage der textgenerierenden KI-Technologie von Contextual AI bildet.

Was ist also RAG? Kurz gesagt, RAG – über das auch Googles Forschungs- und Entwicklungsabteilung DeepMInd verfügt erforscht – Erweitert LLMs mit externen Quellen wie Dateien und Webseiten, um ihre Leistung zu verbessern. Auf Anfrage (z. B. „Wer ist der Präsident der USA?“) sucht die RAG in den Quellen nach Daten, die für sie relevant sein könnten. Anschließend werden die Ergebnisse mit der ursprünglichen Eingabeaufforderung verpackt und an ein LLM weitergeleitet, wodurch eine „kontextbewusste“ Antwort generiert wird (z. B. „Der derzeitige Präsident ist Joe Biden, laut der offiziellen Website des Weißen Hauses“).

Im Gegensatz dazu gibt ein typisches LLM (z. B. ChatGPT) als Antwort auf eine Frage wie „Wie hoch ist Nepals BIP pro Jahr?“ möglicherweise nur das BIP bis zu einem bestimmten Datum zurück und nennt die Informationsquelle nicht.

Kiela behauptet, dass RAG die anderen offenen Probleme mit den heutigen LLMs lösen kann, beispielsweise die Probleme im Zusammenhang mit Attribution und Individualisierung. Bei herkömmlichen LLMs kann es schwierig sein zu wissen, warum die Modelle so reagieren, wie sie es tun, und das Hinzufügen von Datenquellen zu LLMs erfordert häufig eine Umschulung oder Feinabstimmung – Schritte, die bei RAG (normalerweise) vermieden werden.

„RAG-Sprachmodelle können kleiner als gleichwertige Sprachmodelle sein und dennoch die gleiche Leistung erzielen. Dadurch sind sie viel schneller, was eine geringere Latenz und geringere Kosten bedeutet“, sagte Kiela. „Unsere Lösung geht auf die Mängel und bestehenden Probleme bestehender Ansätze ein. Wir glauben, dass die Integration und gemeinsame Optimierung verschiedener Module für Datenintegration, Argumentation, Sprache und sogar Sehen und Zuhören das wahre Potenzial von Sprachmodellen für Unternehmensanwendungsfälle freisetzen wird.“

Mein Kollege Ron Miller hat darüber nachgedacht, wie die Zukunft der generativen KI im Unternehmen in kleineren, fokussierteren Sprachmodellen liegen könnte. Das bestreite ich nicht. Aber vielleicht wird es statt ausschließlich fein abgestimmter, unternehmensorientierter LLMs eine Kombination aus „kleineren“ Modellen und bestehenden LLMs sein, die durch eine Fülle unternehmensspezifischer Dokumente ergänzt werden.

Kontextuelle KI ist nicht die erste, die diese Idee untersucht. OpenAI und sein enger Partner Microsoft haben kürzlich ein Plug-in-Framework auf den Markt gebracht, das es Dritten ermöglicht, Informationsquellen zu LLMs wie GPT-4 hinzuzufügen. Andere Startups wie LlamaIndex experimentieren mit Möglichkeiten, persönliche oder private Daten, einschließlich Unternehmensdaten, in LLMs einzuschleusen.

Aber kontextuelle KI behauptet, in Unternehmen Einzug gehalten zu haben. Obwohl das Unternehmen derzeit noch keine Einnahmen erzielt, behauptet Kiela, dass sich Contextual AI in Gesprächen mit Fortune-500-Unternehmen befindet, um seine Technologie zu testen.

„Unternehmen müssen sicher sein, dass die Antworten, die sie von der generativen KI erhalten, genau, zuverlässig und nachvollziehbar sind“, sagte Kiela. „Kontextuelle KI wird es Arbeitgebern und ihren wertvollen Wissensarbeitern erleichtern, die Effizienzvorteile zu nutzen, die generative KI bieten kann, und zwar sicher und genau … Mehrere generative KI-Unternehmen haben erklärt, dass sie den Unternehmensmarkt verfolgen werden, aber kontextuelle KI wird den Vorzug geben.“ einen anderen Ansatz, indem wir eine viel stärker integrierte Lösung entwickeln, die speziell auf Unternehmensanwendungsfälle ausgerichtet ist.“

Contextual AI, das rund acht Mitarbeiter beschäftigt, plant, den Großteil seiner Startfinanzierung für die Produktentwicklung auszugeben, wozu auch die Investition in einen Rechencluster zur Schulung von LLMs gehört. Das Unternehmen plant, seine Belegschaft bis Ende 2023 auf knapp 20 Personen zu vergrößern.

source-116

Leave a Reply