Google kündigt Axion an, seine erste Arm-basierte CPU für Rechenzentren


Google Cloud Next 2024 hat begonnen und das Unternehmen startet die Veranstaltung mit einigen großen Ankündigungen, darunter seinem neuen Axion-Prozessor. Es ist Googles erste Arm-basierte CPU, die speziell für Rechenzentren entwickelt wurde und auf der Neoverse V2-CPU von Arm basiert.

Laut GoogleAxion schneidet 30 Prozent besser ab als seine schnellsten Allzweck-Arm-basierten Tools in der Cloud und 50 Prozent besser als die neuesten, vergleichbaren x86-basierten VMs. Sie behaupten außerdem, dass es 60 Prozent energieeffizienter sei als dieselben x86-basierten VMs. Google nutzt Axion bereits in Diensten wie BigTable und Google Earth Engine und wird in Zukunft auf weitere Dienste ausgeweitet.

Die Veröffentlichung von Axion könnte Google in Konkurrenz zu Amazon bringen, das im Bereich Arm-basierter CPUs für Rechenzentren führend ist. Das Cloud-Unternehmen des Unternehmens, Amazon Web Services (AWS), brachte den Graviton-Prozessor bereits 2018 auf den Markt und veröffentlichte die zweite und dritte Iteration in den folgenden zwei Jahren. Der befreundete Chipentwickler NVIDIA veröffentlichte 2021 seine erste Arm-basierte CPU für Rechenzentren mit dem Namen Grace, und auch Unternehmen wie Ampere haben in diesem Bereich Zuwächse erzielt.

Google entwickelt bereits seit mehreren Jahren eigene Prozessoren, die sich jedoch hauptsächlich auf Verbraucherprodukte konzentrieren. Das ursprüngliche Arm-basierte Tensor-Schiff wurde erstmals in den Smartphones Pixel 6 und 6 Pro ausgeliefert, die Ende 2021 auf den Markt kamen. Nachfolgende Pixel-Telefone wurden alle mit aktualisierten Versionen des Tensors betrieben. Zuvor entwickelte Google für seine Rechenzentren die „Tensor Processing Unit“ (TPU). Das Unternehmen begann 2015 mit der internen Nutzung in Rechenzentren, gab sie 2016 öffentlich bekannt und stellte sie 2018 Dritten zur Verfügung.

Armbasierte Prozessoren sind oft eine kostengünstigere und energieeffizientere Option. Die Ankündigung von Google erfolgte unmittelbar nachdem Arms-CEO Rene Haas eine Warnung zum Energieverbrauch von KI-Modellen herausgegeben hatte. entsprechend Das Wall Street Journal. Er bezeichnete Modelle wie ChatGPT hinsichtlich ihres Strombedarfs als „unersättlich“. „Je mehr Informationen sie sammeln, desto intelligenter sind sie, aber je mehr Informationen sie sammeln, um intelligenter zu werden, desto mehr Energie wird benötigt“, erklärte Haas. Bis zum Ende des Jahrzehnts könnten KI-Rechenzentren bis zu 20 bis 25 Prozent verbrauchen Heute sind das wahrscheinlich vier Prozent oder weniger, um ehrlich zu sein. Er betonte die Notwendigkeit einer größeren Effizienz, um das Tempo der Durchbrüche aufrechtzuerhalten.

Dieser Artikel enthält Affiliate-Links; Wenn Sie auf einen solchen Link klicken und einen Kauf tätigen, erhalten wir möglicherweise eine Provision.

source-115

Leave a Reply