Google stellt den KI-Hypercomputer vor


Zweifellos war 2023 das Jahr der generativen KI, und Google markiert sein Ende mit noch mehr KI-Entwicklungen. Das hat das Unternehmen angekündigt die Entwicklung seines leistungsstärksten TPU (früher bekannt als Tensor Processing Units), Cloud TPU v5p und ein KI-Hypercomputer von Google Cloud. „Das Wachstum in [generative] „KI-Modelle – mit einem jährlichen Anstieg der Parameter um das Zehnfache in den letzten fünf Jahren – bringen erhöhte Anforderungen an Training, Abstimmung und Inferenz mit sich“, sagte Amin Vahdat, Googles Engineering Fellow und Vizepräsident für das Team für maschinelles Lernen, Systeme und Cloud-KI in einer Veröffentlichung.

Das Cloud TPU v5p ist ein KI-Beschleuniger, der Modelle trainiert und bereitstellt. Google hat Cloud-TPUs für die Arbeit mit großen Modellen entwickelt, die lange Trainingszeiten haben, größtenteils aus Matrixberechnungen bestehen und in der Haupttrainingsschleife keine benutzerdefinierten Vorgänge wie TensorFlow oder JAX enthalten. Jeder TPU v5p-Pod verfügt über 8.960 Chips, wenn Googles Inter-Chip-Verbindung mit der höchsten Bandbreite verwendet wird.

Das Cloud TPU v5p folgt früheren Iterationen wie v5e und v4. Laut Google verfügt die TPU v5p über doppelt so hohe FLOPs und ist bei Berücksichtigung der FLOPS pro Pod viermal besser skalierbar als die TPU v4. Außerdem kann es LLM-Modelle 2,8-mal schneller trainieren und dichte Modelle 1,9-mal schneller einbetten als die TPU v4.

Dann gibt es noch den neuen KI-Hypercomputer, der ein integriertes System mit offener Software, leistungsoptimierter Hardware, Frameworks für maschinelles Lernen und flexiblen Verbrauchsmodellen umfasst. Die Idee ist, dass diese Zusammenlegung die Produktivität und Effizienz verbessert, verglichen mit der Betrachtung jedes Teils einzeln. Die leistungsoptimierte Hardware des KI-Hypercomputers nutzt die von Google Jupiter-Rechenzentrumsnetzwerktechnologie.

Als Abwechslung stellt Google Entwicklern offene Software mit „umfassender Unterstützung“ für Machine-Learning-Frameworks wie JAX, PyTorch und TensorFlow zur Verfügung. Diese Ankündigung folgt auf den Start der AI Alliance durch Meta und IBM, die Open Sourcing priorisiert (an der Google insbesondere nicht beteiligt ist). Der KI-Hypercomputer führt außerdem zwei Modelle ein: den Flex-Startmodus und den Kalendermodus.

Google teilte die Neuigkeiten mit der Einführung von Gemini, einem neuen KI-Modell, das das Unternehmen als sein „größtes und leistungsfähigstes“ bezeichnet, und seiner Einführung bei Bard und dem Pixel 8 Pro. Es wird in drei Größen erhältlich sein: Gemini Pro, Gemini Ultra und Gemini Nano.

Dieser Artikel enthält Affiliate-Links; Wenn Sie auf einen solchen Link klicken und einen Kauf tätigen, erhalten wir möglicherweise eine Provision.

source-115

Leave a Reply