Von AMD unterstützter LLM-Entwickler macht sich über NVIDIAs KI-GPU-Mangel lustig


Ein AMD-basierter LLM-Entwickler hat sich in einem ziemlich interessanten kurzen Video über die Knappheit der KI-GPUs von NVIDIA lustig gemacht. Der Mangel an KI-GPUs von NVIDIA wird zu einem großen Problem für den KI-Sektor, einschließlich KI-Startups, die beginnen, in andere Lager auszuweichen, um ihren Bedarf zu decken.

Der CEO von Lamini stellt ein interessantes kurzes Video bereit, das den Mangel an NVIDIA AI-GPUs genau darstellt und AMD Instinct-GPUs auf den Prüfstand stellt

Lamini ist ein LLM-fokussiertes Unternehmen für Unternehmen und Entwickler, das sich auf die KI-Entwicklung konzentriert. Ihr CEO Sharon Zhou kam auf X, um in einem kurzen und lustigen Video die Frustration verschiedener KI-Startups, darunter auch sie selbst, über die mangelnde Verfügbarkeit von NVIDIA-KI-GPUs zum Ausdruck zu bringen.

Sharon geht auf der Suche nach einem LLM-KI-Beschleuniger in eine Küche (eine ziemlich ikonische Kulisse für den CEO von NVIDIA) und öffnet einen Ofen, um zu sehen, was gerade „kocht“. Die Vorlaufzeit im Ofen betrug jedoch bis zu 52 Wochen, doch dann überprüfte sie ihren Grill und sah, dass AMDs Instinct-Beschleuniger einsatzbereit waren.

Sharons Darstellung der aktuellen Situation ist zutreffend, da die KI-GPUs von NVIDIA, insbesondere die H100, derzeit mit riesigen Auftragsrückständen konfrontiert sind und die Liefertermine die Sechs-Monats-Marke überschreiten. AMD hat hier einen Vorteil, da das Volumen der Instinct AI-Beschleunigerbestellungen, die das Unternehmen derzeit hat, nichts im Vergleich zu dem ist, was NVIDIA erfüllt. Lamini betreibt AMDs Instinct-GPUs bereits seit einiger Zeit in LLMs und das Unternehmen hat sich einer umfassenden Zusammenarbeit mit AMD verschrieben.

Darüber hinaus müssen Sie sich bei Lamini keine Sorgen mehr über die 52-wöchige Vorlaufzeit für NVIDIA H100s machen. Wenn Sie ausschließlich Lamini verwenden, können Sie Ihre eigenen Unternehmens-LLMs erstellen und diese auf AMD Instinct-GPUs in die Produktion überführen. Und pssst… Lamini lief das ganze Jahr über heimlich auf über hundert AMD-GPUs in der Produktion, noch bevor ChatGPT auf den Markt kam. Wenn Sie also Lamini ausprobiert haben, dann haben Sie AMD ausprobiert.

Jetzt freuen wir uns, LLM-fähige GPUs für mehr Leute zugänglich zu machen. Unsere LLM Superstation ist sowohl in der Cloud als auch vor Ort verfügbar. Es kombiniert die benutzerfreundliche Enterprise-LLM-Infrastruktur von Lamini mit AMD Instinct MI210- und MI250-Beschleunigern. Es ist für LLMs privater Unternehmen optimiert und auf eine starke Differenzierung mit proprietären Daten ausgelegt.

Lamini ist die einzige LLM-Plattform, die ausschließlich auf AMD Instinct-GPUs läuft – in der Produktion. Versenden Sie Ihre eigenen proprietären LLMs! Geben Sie einfach eine LLM Superstation-Bestellung auf, um Ihr eigenes Llama 2-70B sofort zu betreiben – ab sofort und zu einem attraktiven Preis (10x günstiger als AWS).

über Lamini

Lisa Su, CEO von AMD, glaubt, dass KI die Chip-Design-Branche dominieren wird 1

Die Industrie hat noch keine groß angelegte Einführung der Instinct-GPUs von AMD erlebt, und sie haben vorerst nicht den „Beliebtheitsgrad“ der H100 von NVIDIA erreicht. Apropos Leistung: Wir alle wissen, dass die H100 die Nase vorn haben; Allerdings schließt AMD hier die Lücke durch schnelle Verbesserungen innerhalb seines ROCm-Software-Stacks, was zu einer insgesamt höheren Rechenleistung beiträgt. Team Red hat den Instinct MI400 und MI300X als zukünftige Veröffentlichungen geplant, aber sie sind noch nicht auf den Markt gekommen; Daher können wir dazu keinen Kommentar abgeben.

Der einzige Vorteil, den AMD nutzen kann, ist die Fähigkeit des Unternehmens, Großaufträge zu bedienen, da NVIDIA in dieser Abteilung im Rückstand ist. Mit Wartezeiten von einem Jahr für NVIDIA H100s werden LLM-Startups und -Unternehmen irgendwann AMD und Intel im Auge behalten, weshalb jedes Technologieunternehmen seine KI-Entwicklungen bis zum Jahr 2024 enorm beschleunigt.

Nachrichtenquelle: Toms Hardware

Teilen Sie diese Geschichte

Facebook

Twitter



source-99

Leave a Reply