Nvidia übermittelt erste Grace Hopper-CPU-Superchip-Benchmarks an MLPerf


Nvidia gab heute bekannt, dass es seine ersten Benchmark-Ergebnisse für seinen Grace Hopper CPU+GPU-Superchip und seine L4-GPU-Beschleuniger an die neueste Version von MLPerf übermittelt hat, einem branchenüblichen KI-Benchmark, der gleiche Wettbewerbsbedingungen für die Messung der KI-Leistung bieten soll unterschiedliche Arbeitsbelastungen. Die heutige Runde der Benchmark-Ergebnisse markiert zwei bemerkenswerte Neuerungen für den MLPerf-Benchmark: Die Hinzufügung eines neuen GPT-J-Inferenz-Benchmarks für das Large Language Model (LLM) und eines überarbeiteten Empfehlungsmodells. Nvidia behauptet, dass der Grace Hopper Superchip im GPT-J-Benchmark bis zu 17 % mehr Inferenzleistung liefert als eine seiner marktführenden H100-GPUs und dass seine L4-GPUs bis zu 6-mal so viel Leistung liefern wie die Xeon-CPUs von Intel.

Die Branche schreitet mit rasender Geschwindigkeit voran und entwickelt sich rasant zu neueren KI-Modellen und leistungsfähigeren Implementierungen. Ebenso wird der MLPerf-Benchmark, der vom MLCommons-Gremium verwaltet wird, mit seiner neuen Version 3.1 ständig weiterentwickelt, um die sich verändernde Natur der KI-Landschaft besser widerzuspiegeln.

GPT-J 6B, ein Zusammenfassungsmodell für Text, das seit 2021 in realen Workloads verwendet wird, wird jetzt in der MLPerf-Suite als Benchmark für die Messung der Inferenzleistung verwendet. Das 6-Milliarden-Parameter-LLM von GPT-J ist im Vergleich zu einigen der fortschrittlicheren KI-Modelle, wie dem 175-Milliarden-Parameter-GPT-3, eher leichtgewichtig, eignet sich aber gut für die Rolle eines Inferenz-Benchmarks. Dieses Modell fasst Textblöcke zusammen und arbeitet sowohl im Online-Modus, der latenzempfindlich ist, als auch im Offline-Modus, der durchsatzintensiv ist. Die MLPerf-Suite verwendet jetzt auch ein größeres DLRM-DCNv2-Empfehlungsmodell mit der doppelten Parameteranzahl, einen größeren Multi-Hot-Datensatz und einen schichtübergreifenden Algorithmus, der reale Umgebungen besser abbildet.

Vor diesem Hintergrund können wir hier einige der Leistungsansprüche von Nvidia sehen. Beachten Sie, dass Nvidia diese Benchmarks selbst an MLCommons übermittelt, sodass es sich wahrscheinlich um hochgradig abgestimmte Best-Case-Szenarien handelt. Nvidia weist außerdem gerne darauf hin, dass es das einzige Unternehmen ist, das Benchmarks für jedes in der MLPerf-Suite verwendete KI-Modell vorlegt, was eine objektiv wahre Aussage ist. Einige Unternehmen fehlen ganz, wie AMD, oder reichen nur einige ausgewählte Benchmarks ein, wie Intel mit Habana und Google mit seiner TPU. Die Gründe für den Mangel an Einsendungen variieren je nach Unternehmen, aber es wäre schön, wenn mehr Konkurrenten in den MLPerf-Ring eintreten würden.

source-109

Leave a Reply