Die Open-Source-API Fireworks.ai macht generative KI für jeden Entwickler zugänglich


Fast jeder versucht heutzutage, einen Teil der generativen KI-Action zu bekommen. Während der Großteil des Fokus weiterhin auf Modellanbietern wie OpenAI, Anthropic und Cohere oder den größeren Unternehmen wie Microsoft, Meta, Google und Amazon liegt, gibt es tatsächlich viele Startups, die versuchen, das Problem der generativen KI auf vielfältige Weise anzugehen Von Wegen.

Feuerwerk.ai ist ein solches Startup. Es fehlt zwar der Markenbekanntheitsgrad einiger dieser anderen Anbieter, es verfügt jedoch nach Angaben des Unternehmens über die größte Open-Source-Modell-API mit über 12.000 Benutzern. Diese Art der Open-Source-Aktion zieht tendenziell die Aufmerksamkeit der Anleger auf sich, und das Unternehmen hat bisher 25 Millionen US-Dollar eingesammelt.

Lin Qiao, Mitbegründerin und CEO von Fireworks, weist darauf hin, dass ihr Unternehmen nicht Grundmodelle von Grund auf trainiert, sondern dabei hilft, andere Modelle genau auf die besonderen Bedürfnisse eines Unternehmens abzustimmen. „Es kann sich entweder um Standardmodelle, Open-Source-Modelle oder um Modelle handeln, die wir optimieren, oder um Modelle, die unsere Kunden selbst optimieren können. Alle drei Varianten können über unsere Inferenz-Engine-API bereitgestellt werden“, sagte Qiao gegenüber TechCrunch.

Da es sich um eine API handelt, können Entwickler sie in ihre Anwendung integrieren, das Modell ihrer Wahl auf ihre Daten trainieren und generative KI-Funktionen hinzufügen, z. B. sehr schnell Fragen stellen. Laut Qiao ist es schnell, effizient und liefert qualitativ hochwertige Ergebnisse.

Ein weiterer Vorteil des Firework-Ansatzes besteht darin, dass Unternehmen mit mehreren Modellen experimentieren können, was in einem sich schnell verändernden Markt wichtig ist. „Unsere Philosophie hier besteht darin, dass wir Benutzern die Möglichkeit geben möchten, mit mehreren Modellen zu iterieren und zu experimentieren und über effektive Tools zu verfügen, mit denen sie ihre Daten in mehrere Modelle einfließen und mit einem Produkt testen können“, sagte sie.

Vielleicht noch wichtiger ist, dass sie die Kosten niedrig halten, indem sie die Modellgröße auf 7 bis 13 Milliarden Parameter begrenzen, verglichen mit über 1 Billion Parametern in ChatGPT4. Dies schränkt zwar den Umfang der Wörter ein, die das große Sprachmodell verstehen kann, ermöglicht es Entwicklern jedoch, sich auf viel kleinere, fokussierte Datensätze zu konzentrieren, die für die Arbeit mit begrenzteren Geschäftsanwendungsfällen konzipiert sind.

Qiao verfügt über die einzigartige Qualifikation, ein solches System aufzubauen, da er zuvor bei Meta gearbeitet hat und dort das KI-Plattform-Entwicklungsteam mit dem Ziel geleitet hat, eine schnelle, skalierbare Entwicklungs-Engine aufzubauen, um die KI in allen Produkten und Dienstleistungen von Meta voranzutreiben. Sie war in der Lage, dieses Wissen aus ihrer Arbeit bei Meta zu nutzen und ein API-basiertes Tool zu entwickeln, das diese Leistungsfähigkeit jedem Unternehmen zugänglich macht, ohne dass dafür die technischen Ressourcen eines Unternehmens der Größe von Meta erforderlich wären.

Das Unternehmen sammelte im Jahr 2022 unter der Führung von Benchmark unter Beteiligung von Sequoia Capital und namentlich nicht genannten Angel-Investoren 25 Millionen US-Dollar ein.

source-116

Leave a Reply