AWS verwendet Intels Habana Gaudi für große Sprachmodelle


Während Intels Habana Gaudi eine einigermaßen konkurrenzfähige Leistung bietet und mit dem Habana SynapseAI-Softwarepaket geliefert wird, bleibt sie im Vergleich zu Nvidias CUDA-fähigen Rechen-GPUs hinterher. Dies, gepaart mit der begrenzten Verfügbarkeit, ist der Grund, warum Gaudi bei großen Sprachmodellen (LLMs) wie ChatGPT nicht so beliebt war.

Jetzt, da der KI-Ansturm groß ist, wird Intels Habana in breiterem Umfang eingesetzt. Amazon Web Services entschied sich, Intels Gaudi der 1. Generation mit PyTorch und DeepSpeed ​​auszuprobieren, um LLMs zu trainieren, und die Ergebnisse waren vielversprechend genug, um DL1-EC2-Instanzen kommerziell anzubieten.

source-109

Leave a Reply