Kündigt RTX AI Toolkit, AIM SDK, ACE mit NIMs und Copilot Runtime mit RTX GPU-Unterstützung an


Mit der heute angekündigten neuesten RTX-Technologie erweitert NVIDIA die Möglichkeiten der AI-PC-Plattform noch weiter.

NVIDIA treibt die AI-PC-Plattform mit mehreren Schlüsseltechnologien voran: RTX AI Toolkit, RTX-Beschleunigung für CoPilot, AI Inference Manager SDK und mehr

Der Unterschied zwischen NVIDIA und anderen, die gerade erst ihre Reise in den AI-PC-Bereich begonnen haben, ist von Anfang an deutlich. Während andere hauptsächlich darüber sprechen, wie ihre Hardware, NPUs, schneller als die der Konkurrenz sind, ist NVIDIA derjenige, der der AI-PC-Plattform durch die Einführung mehrerer neuer Funktionen Leben einhaucht. Das Unternehmen verfügt bereits über eine Liste von Technologien, die für AI-PC-Verbraucher, die seine RTX-Plattform betreiben, verfügbar sind, darunter die bekannteste DLSS-Funktion (Deep Learning Super Sampling), die unzählige Updates erfahren hat, die ihr neuronales Netzwerk erweitern, damit Spiele besser laufen und besser aussehen.

Das Unternehmen bietet außerdem mehrere Assistenten in Form seines RTX Chat an, eines Chatbots, der lokal auf Ihrem PC ausgeführt wird und als Ihr Assistent fungiert. Außerdem wurde Windows um TensorRT- und TensorRT-LLM-Unterstützung erweitert, die GenAI- und LLM-Modelle auf Clientplattformen beschleunigt, ohne dass ein Wechsel in die Cloud erforderlich ist. Außerdem sind in Zukunft mehrere Gaming-Technologien geplant, die KI-Erweiterungen wie ACE (Avatar Cloud Engine) nutzen werden, das heute ebenfalls ein neues Update erhält.

NVIDIA stellt auch die aktuelle Landschaft der KI-Rechenleistung dar und zeigt, wie seine GeForce RTX 40 Desktop-CPUs von 242 TOPS auf der Einstiegsebene bis hin zu 1321 TOPS im oberen Bereich skalieren. Das ist eine 4,84-fache Steigerung am unteren Ende und eine 26,42-fache Steigerung am oberen Ende im Vergleich zu den neuesten 45-50 TOPS KI-NPUs, die wir dieses Jahr auf SOCs sehen werden.

RTX 4070 Ti SUPER (Desktop)

AMD Strix (NPU – erwartet)

Intel Lunar Lake (NPU – erwartet)

Sogar Laptop-Optionen mit NVIDIA GeForce RTX 40 wie die RTX 4050 beginnen bei 194 TOPS, was einer 3,88-fachen Steigerung gegenüber der am schnellsten kommenden NPU entspricht, während der RTX 4090-Laptop-Chip mit seinen 686 TOPS eine 13,72-fache Beschleunigung bietet.

nvidia-geforce-rtx-ai-tops-perf_chart_desktop
nvidia-geforce-rtx-ai-tops-perf_chart_laptop

Microsoft Copilot Runtime fügt RTX-Beschleunigung hinzu

Beginnen wir also mit den heutigen Ankündigungen. Zunächst haben wir die Windows Copilot Runtime, die RTX-Beschleunigung für lokale PC-SLMs (Small Language Models) erhält. Copilot wird als der nächste große Wurf von Microsoft in der KI-PC-Landschaft angesehen und praktisch jeder versucht, auf den Zug aufzuspringen. Microsoft und NVIDIA arbeiten zusammen, um Entwicklern zu ermöglichen, neue GenAI-Funktionen in das Windows-Betriebssystem und Webanwendungen zu integrieren, indem sie einfachen API-Zugriff auf GPU-beschleunigte SLMs und RAG bereitstellen.

NVIDIA gibt an, dass RTX-GPUs diese neuen KI-Funktionen beschleunigen und schnelle und reaktionsschnelle KI-Erlebnisse auf Windows-Geräten ermöglichen werden.

NVIDIA RTX AI Toolkit und NVIDIA AIM SDK helfen Entwicklern dabei, KI-Erlebnisse schneller und besser zu gestalten

Das zweite Update ist die Ankündigung des NVIDIA RTX AI Toolkits, das Entwicklern ebenfalls dabei hilft, anwendungsspezifische KI-Modelle zu erstellen, die auf dem PC ausgeführt werden können. Das RTX AI Toolkit wird eine Reihe von Tools und SDKs für die Modellanpassung (QLoRa), Optimierung (TensorRT Model Optimizer) und Bereitstellung (TensorRT Cloud) auf RTX AI-PCs enthalten und im Juni verfügbar sein.

Mit dem neuen RTX AI Toolkit können Entwickler ihre Modelle 4x schneller und in 3x kleineren Paketen bereitstellen, was den Rollout-Prozess beschleunigt und Benutzern schneller neue Erfahrungen bietet. Außerdem wird ein Vergleich zwischen einem standardmäßigen „General-Purpose“-Modell und einem RTX AI Toollit Optimized-Modell gezeigt. Das GP-Modell läuft auf einer RTX 4090 und gibt 48 Token/Sekunde aus, wobei es 17 GB VRAM benötigt. Ein für das RTX AI Toolkit optimiertes Modell, das auf einer RTX 4050 GPU läuft, gibt 187 Token/Sekunde aus, eine Steigerung von fast dem Vierfachen, wobei es nur 5 GB VRAM benötigt.

Das RTX AI Toolkit wird auch von Softwarepartnern wie Adobe, Blackmagic Design und Topaz genutzt, die seine Komponenten in einige der beliebtesten Kreativ-Apps integrieren.

Außerdem wird das neue NVIDIA AI Inference Manager (AIM) SDK eingeführt, ein optimiertes KI-Bereitstellungstool für PC-Entwickler. AIM bietet Entwicklern:

  • Einheitliche Inferenz-APU für alle Backends (NIM, DML, TRT usw.) und Hardware (Cloud, lokale GPU usw.)
  • Hybride Orchestrierung über PC- und Cloud-Inferenz mit PC-Fähigkeitsprüfung
  • Modelle und Laufzeitumgebung herunterladen und auf dem PC konfigurieren
  • Integration mit geringer Latenz in die Spiel-Pipeline
  • Gleichzeitige CUDA- und Grafikausführung

Das NVIDIA AIM SDK ist jetzt im Early Access verfügbar und unterstützt alle wichtigen Inferenz-Backends wie TensorRT, DirectML, Llama.cpp und PyTorch CUDA über GPUs, CPUs und NPUs.

NVIDIA ACE NIMs werden auf der Computex umfassend präsentiert, GenAI Digital Avatar Microservices jetzt für RTX AI-PCs verfügbar

Und schließlich haben wir NVIDIAs ACE NIMs, die heute ihr Debüt feiern. Diese neuen ACE Inference-Mikrodienste verkürzen die Bereitstellungszeit für ACE-Modelle von Wochen auf Minuten und laufen lokal auf PC-Geräten für natürliche Spracherkennung, Sprachsynthese, Gesichtsanimation und mehr.

NVIDIA wird auf der Computex die von Inworld AI entwickelte Covert Protocol Tech Demo vorführen. Darüber hinaus werden die Entwickler auf der Veranstaltung auch ihre eigenen ACE-Modelle präsentieren, wie etwa den Digital Brand Ambassador von Aww Inc. (Audio2Face), Code Z von OutPalm (Audio2Face), die mehrsprachige Demo von Perfect World (Audio2Face), die Social Engineering Demo von Soulshell (Audio2Face) und Sophie von UneeQ (Audio2Face).

2024-06-02_10-12-22
2024-06-02_10-12-23

Und damit ist es noch nicht getan. NVIDIA hat außerdem angekündigt, dass ACE (Avatar Cloud Engine) jetzt allgemein für die Cloud verfügbar ist, was den Weg für die Zukunft der GenAI-Avatare ebnet. Mit diesen digitalen menschlichen Mikrodiensten erhalten Sie die folgenden Technologien:

  • NVIDIA Riva ASR, TTS und NMT – zur automatischen Spracherkennung,
    Text-to-Speech-Konvertierung und Übersetzung
  • NVIDIA Nemotron LLM — für Sprachverständnis und Kontext
    Antwortgenerierung
  • NVIDIA Audio2Face — für realistische Gesichtsanimation basierend auf Audiospuren
  • NVIDIA Omniverse RTX – für realistische Haut und Haare mit Echtzeit-Pfadverfolgung
  • NVIDIA Audio2Gesture — zur Generierung von Körpergesten auf Basis von Audio
    Tracks, bald verfügbar
  • NVIDIA Nemotron-3 4.5B — ein neues kleines Sprachmodell (SLM)
    speziell entwickelt für RTX AI PC-Inferenz mit geringer Latenz auf dem Gerät

Wie Sie sehen, hat NVIDIA viele interessante Technologien und Innovationen im KI-PC-Segment auf den Markt gebracht, die von seiner RTX-GPU und RTX-Plattform angetrieben werden. Dies zeigt NVIDIAs Führungsstatus in der KI-Branche und warum das Unternehmen weiterhin konkurrenzlos ist.

Diesen Artikel teilen

Facebook

Þjórsárden

source-99

Leave a Reply