Google Cloud und NVIDIA bündeln ihre Kräfte, um KI-Computing voranzutreiben


NVIDIA hat vereinte Kräfte mit Google Cloud, um die neueste Infrastruktur für KI-Computing-Workloads der nächsten Generation anzubieten, einschließlich generativer KI und Datenwissenschaften.

NVIDIA bietet Google Cloud seine beste KI-Infrastruktur für die generative KI- und Data-Science-Entwicklung an

Pressemitteilung: Google Cloud und NVIDIA haben heute eine neue KI-Infrastruktur und Software angekündigt, mit der Kunden umfangreiche Modelle für generative KI und schnelle Data-Science-Workloads erstellen und bereitstellen können.

In einem Kamingespräch bei Google Cloud Next diskutierten Thomas Kurian, CEO von Google Cloud, und Jensen Huang, Gründer und CEO von NVIDIA, wie die Partnerschaft einigen der größten KI-Kunden der Welt End-to-End-Dienste für maschinelles Lernen bietet – auch indem sie diese selbst herstellen Einfach zu betreibende KI-Supercomputer mit Google Cloud-Angeboten, die auf NVIDIA-Technologien basieren. Die neuen Hardware- und Software-Integrationen nutzen dieselben NVIDIA-Technologien, die in den letzten zwei Jahren von Google DeepMind und Google-Forschungsteams eingesetzt wurden.

„Wir befinden uns an einem Wendepunkt, an dem beschleunigtes Rechnen und generative KI zusammenkommen, um Innovationen in einem beispiellosen Tempo voranzutreiben“, sagte Huang. „Unsere erweiterte Zusammenarbeit mit Google Cloud wird Entwicklern dabei helfen, ihre Arbeit mit Infrastruktur, Software und Diensten zu beschleunigen, die die Energieeffizienz steigern und Kosten senken.“

„Google Cloud hat eine lange Geschichte der Innovation im Bereich KI, um Innovationen für unsere Kunden zu fördern und zu beschleunigen“, sagte Kurian. „Viele Produkte von Google werden auf NVIDIA-GPUs entwickelt und bereitgestellt, und viele unserer Kunden suchen nach beschleunigtem NVIDIA-Computing, um die effiziente Entwicklung von LLMs zu ermöglichen und so die generative KI voranzutreiben.“

NVIDIA-Integrationen zur Beschleunigung der KI- und Data-Science-Entwicklung

PaxML, Googles Framework zum Erstellen massiver großer Sprachmodelle (LLMs), ist jetzt für NVIDIA Accelerated Computing optimiert.

PaxML wurde ursprünglich entwickelt, um mehrere Google TPU-Beschleuniger-Slices zu umfassen, und ermöglicht jetzt Entwicklern die Nutzung H100 Und A100 Tensor-Core-GPUs für erweitertes und vollständig konfigurierbares Experimentieren und Skalieren. Ein GPU-optimierter PaxML-Container ist ab sofort im verfügbar NVIDIA NGC Softwarekatalog. Darüber hinaus läuft PaxML auf JAX, das für GPUs optimiert wurde, die den OpenXLA-Compiler nutzen.

Der von NVIDIA optimierte Container für PaxML wird ab sofort im NGC-Containerregister für Forscher, Start-ups und Unternehmen weltweit verfügbar sein, die die nächste Generation KI-gestützter Anwendungen entwickeln. Diese neuen Integrationen sind die neuesten in der langen Geschichte der Zusammenarbeit zwischen NVIDIA und Google. Sie umfassen Hardware- und Software-Ankündigungen, darunter:

  • Google Cloud auf virtuellen A3-Maschinen mit NVIDIA H100 – Google Cloud gab heute bekannt, dass es speziell entwickelt wurde Google Cloud A3-VMs mit H100-GPUs wird nächsten Monat allgemein verfügbar sein und die KI-Plattform von NVIDIA für eine breite Palette von Arbeitslasten zugänglicher machen. Im Vergleich zur vorherigen Generation bieten A3-VMs ein dreimal schnelleres Training und eine deutlich verbesserte Netzwerkbandbreite.
  • H100-GPUs als Antrieb für die Vertex AI-Plattform von Google Cloud – H100-GPUs werden voraussichtlich in den kommenden Wochen allgemein auf VertexAI verfügbar sein, sodass Kunden schnell generative KI-LLMs entwickeln können.
  • Google Cloud, um Zugriff auf DGX GH200 zu erhalten – Google Cloud wird eines der ersten Unternehmen weltweit sein, das Zugriff darauf hat NVIDIA DGX GH200 KI-Supercomputer – angetrieben von der NVIDIA Grace Hopper Superchip – um seine Fähigkeiten für generative KI-Workloads zu erkunden.
  • DGX Cloud kommt zu Google CloudDGX-Cloud KI-Supercomputing und Software werden den Kunden direkt über ihren Webbrowser zur Verfügung stehen, um Geschwindigkeit und Skalierbarkeit für fortgeschrittene Schulungsarbeitslasten bereitzustellen.
  • NVIDIA AI Enterprise auf dem Google Cloud Marketplace — Benutzer können darauf zugreifen KI-Unternehmeneine sichere, cloudnative Softwareplattform, die die Entwicklung und Bereitstellung unternehmenstauglicher Anwendungen einschließlich generativer KI, Sprach-KI, Computer Vision und mehr vereinfacht.
  • Google Cloud bietet als erster Anbieter NVIDIA L4 an GPUs – Anfang des Jahres war Google Cloud mit der Einführung der G2-VM der erste Cloud-Anbieter, der L4-Tensor-Core-GPUs anbot. NVIDIA-Kunden, die für KI-Video-Workloads von CPUs auf L4-GPUs umsteigen, können eine bis zu 120-mal höhere Leistung bei 99 % besserer Effizienz erzielen. L4-GPUs werden häufig zur Bild- und Textgenerierung sowie zur VDI- und KI-beschleunigten Audio-/Video-Transkodierung verwendet.

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply