Enfabrica, das Netzwerkhardware zur Steuerung von KI-Workloads herstellt, sammelt 125 Millionen US-Dollar ein


Enfabricaein Unternehmen, das Netzwerkchips für die Bewältigung von KI- und maschinellem Lernen entwickelt, gab heute bekannt, dass es in einer Serie-B-Finanzierungsrunde 125 Millionen US-Dollar eingesammelt hat, die das Unternehmen nach Angaben des Mitbegründers mit dem „Fünffachen“ seiner Post-Money-Bewertung der Serie A bewertet und CEO Rochan Sankar.

Unter der Leitung von Atreides Management mit Beteiligung von Sutter Hill Ventures, Nvidia, IAG Capital Partners, Liberty Global Ventures, Valor Equity Partners, Infinitum Partners und Alumni Ventures erhöht die neue Tranche die Gesamteinnahmen von Enfabrica auf 148 Millionen US-Dollar. Sankar sagt, dass das Geld für die Unterstützung der Forschung und Entwicklung und des Betriebs von Enfabrica sowie für den Ausbau seiner Technik-, Vertriebs- und Marketingteams verwendet wird.

„Es ist bemerkenswert, dass Enfabrica in einem äußerst schwierigen Finanzierungsumfeld für Chip-Startups – und risikokapitalfinanzierte Deep-Tech-Unternehmen im Allgemeinen – eine Finanzierungsrunde dieser Größenordnung aufgelegt hat und sich dadurch von vielen seiner Chip-Startup-Mitbewerber in der Branche abhebt “, sagte Sankar. „Da generative KI und große Sprachmodelle weiterhin den größten Infrastrukturschub im Cloud Computing in einer Vielzahl von Branchen vorantreiben, haben Lösungen wie die von Enfabrica das Potenzial, eine sehr hohe Nachfrage nach Netzwerktechnologien zu befriedigen.“

Enfabrica mag im Jahr 2023 aus dem Verborgenen hervorgegangen sein, aber die Reise begann im Jahr 2020. Sankar, ehemals technischer Leiter bei Broadcom, tat sich mit Shrijeet Mukherjee zusammen, der zuvor bei Google für Netzwerkplattformen und Architektur verantwortlich war, um ein Startup zu gründen – Enfabrica – um dem ihrer Meinung nach wachsenden Verlangen der KI-Branche nach „paralleler, beschleunigter und heterogener“ Infrastruktur – mit anderen Worten GPUs – gerecht zu werden.

„Wir kamen zu dem Schluss, dass die Vernetzung von Silizium und Systemen einem ähnlichen Paradigmenwechsel folgen muss, um diese Art von Recheninfrastruktur in großem Maßstab zu ermöglichen“, sagte Sankar. „Die größte Herausforderung der aktuellen KI-Revolution ist die Skalierung der KI-Infrastruktur – sowohl im Hinblick auf die Rechenkosten als auch auf die Nachhaltigkeit der Rechenleistung.“

Mit Sankar als CEO und Mukherjee als Chief Development Officer sowie einigen Gründungsingenieuren von Unternehmen wie Cisco, Meta und Intel begann Enfabrica mit der Entwicklung einer Architektur für Netzwerkchips, die die I/O- und „Speicherbewegungs“-Anforderungen von erfüllen konnte parallele Workloads, einschließlich KI.

Sankar behauptet, dass herkömmliche Netzwerkchips wie Switches Schwierigkeiten haben, mit den Datenbewegungsanforderungen moderner KI-Workloads Schritt zu halten. Einige der KI-Modelle, die heute trainiert werden, wie Metas Llama 2 und GPT-4, nehmen während des Trainingsprozesses riesige Datensätze auf – und Netzwerkwechsel können am Ende zu einem Engpass werden, sagt Sankar.

„Ein erheblicher Teil des Skalierungsproblems und Engpasses für die KI-Branche liegt in den I/O-Subsystemen, Speicherbewegungen und Netzwerken, die mit der GPU-Berechnung verbunden sind“, sagte er. „Es besteht ein enormer Bedarf, den wachsenden Bedarf an KI-Workloads mit den Gesamtkosten, der Effizienz, der Nachhaltigkeit und der einfachen Skalierung der Rechencluster, auf denen sie laufen, zu verbinden.“

Bei seinem Bestreben, überlegene Netzwerkhardware zu entwickeln, konzentrierte sich Enfabrica auf Parallelisierbarkeit.

Die Hardware von Enfabrica – die das Unternehmen Accelerated Compute Fabric Switch oder kurz ACF-S nennt – kann neben Speicher und Netzwerkgeräten auch Datenbewegungen von bis zu „Multi-Terabit pro Sekunde“ zwischen GPUs, CPUs und KI-Beschleunigerchips ermöglichen. Durch den Einsatz „standardbasierter“ Schnittstellen kann die Hardware auf Zehntausende von Knoten skaliert werden und die GPU-Rechenleistung für ein großes Sprachmodell (nach dem Vorbild von Llama 2) bei gleichem Leistungspunkt um etwa 50 % reduzieren, behauptet Enfabric.

„Die ACF-S-Geräte von Enfabrica ergänzen GPUs, CPUs und Beschleuniger, indem sie effiziente, leistungsstarke Netzwerk-, I/O- und Speicheranschlüsse innerhalb eines Rechenzentrums-Server-Racks bereitstellen“, erklärte Sankar. „Zu diesem Zweck ist der ACF-S eine konvergierte Lösung, die den Bedarf an unterschiedlichen, herkömmlichen Server-I/O- und Netzwerkchips wie Netzwerk-Switches auf Rack-Ebene, Server-Netzwerkschnittstellen-Controllern und PCIe-Switches überflüssig macht.“

Enfabrica ACF-S

Eine Darstellung der ACF-S-Netzwerkhardware von Enfabrica. Bildnachweis: Enfabrica

Sankar argumentierte außerdem, dass ACF-S-Geräte Unternehmen, die sich mit Inferencing befassen – also mit der Ausführung trainierter KI-Modelle – helfen können, indem sie es ihnen ermöglichen, die geringstmögliche Anzahl an GPUs, CPUs und anderen KI-Beschleunigern zu verwenden. Das liegt daran, dass laut Sankar ACF-S die vorhandene Hardware effizienter nutzen kann, indem es große Datenmengen sehr schnell überträgt.

„Das ACF-S ist unabhängig von der Art und Marke des KI-Prozessors, der für die KI-Berechnung verwendet wird, sowie von den genauen eingesetzten Modellen. Dadurch kann eine KI-Infrastruktur für viele verschiedene Anwendungsfälle aufgebaut werden und mehrere Prozessoranbieter ohne proprietäre Sperre unterstützt werden.“ -in“, fügte er hinzu.

Enfabrica könnte gut finanziert sein. Es ist jedoch erwähnenswert, dass es nicht das einzige Netzwerk-Chip-Startup ist, das dem KI-Trend nachjagt.

Diesen Sommer kündigte Cisco eine Reihe von Hardware an – Silicon One G200 und G202 – zur Unterstützung von KI-Netzwerk-Workloads. Sowohl Broadcom als auch Marvell – etablierte Unternehmen im Bereich Unternehmensnetzwerke – bieten ihrerseits Switches an, die eine Bandbreite von bis zu 51,2 Terabit pro Sekunde liefern können; Broadcom hat kürzlich die Hochleistungsstruktur Jericho3-AI auf den Markt gebracht, die eine Verbindung zu bis zu 32.000 GPUs herstellen kann.

Sankar war nicht bereit, über die Kunden von Enfabrica zu sprechen, da es noch relativ am Anfang steht – ein Teil der neuesten Finanzierungstranche wird die Produktions- und Markteinführungsbemühungen von Enfabrica unterstützen, sagt er. Dennoch behauptet Sankar, dass sich Enfabrica angesichts der Aufmerksamkeit und der enormen Investitionen in die KI-Infrastruktur in einer starken Position befinde.

Nach Angaben der Dell’Oro Group Investitionen in die KI-Infrastruktur Wille Die Investitionsausgaben für Rechenzentren werden bis 2027 auf über 500 Milliarden US-Dollar erhöht. Investitionen in auf KI zugeschnittene Hardware sind es hingegen im Großen und Ganzen erwartet Laut IDC wird in den nächsten fünf Jahren eine durchschnittliche jährliche Wachstumsrate von 20,5 % zu verzeichnen sein.

„Der aktuelle Kosten- und Stromverbrauch von KI-Computing, ob vor Ort oder in der Cloud, hat – oder sollte dies nicht der Fall sein – oberste Priorität für jeden CIO, C-Suite-Manager und jede IT-Organisation, die KI-Dienste bereitstellt.“ er sagte. „Trotz des wirtschaftlichen Gegenwinds, der die Tech-Startup-Welt seit Ende 2022 beeinträchtigt, hat Enfabrica seine Finanzierung, seinen Produktfortschritt und sein Marktpotenzial durch eine im Wesentlichen innovative und bahnbrechende Technologie zu bestehenden Netzwerk- und Server-I/O-Chiplösungen vorangetrieben.“ [and] das Ausmaß der Marktchancen und des technologischen Paradigmenwechsels, die generative KI und beschleunigtes Computing in den letzten 18 Monaten hervorgebracht haben.“

Enfabrica mit Sitz in Mountain View beschäftigt knapp über 100 Mitarbeiter in Nordamerika, Europa und Indien.

source-116

Leave a Reply