Nvidia hat Form, wenn es darum geht, ältere GPUs von neuen Technologien und Funktionen auszuschließen. Als man also die DLSS-Upscaling-Technologie einführte und sie auf die damals neueste GPU-Architektur beschränkte, stellte sich immer die Frage, ob das unbedingt notwendig war. Wenn DLSS vielleicht auf älteren GPUs laufen könnte, dann hat Nvidia es doch vorgezogen, den Upsell der Generation zu unterstützen, indem es die Technologie auf neuere Hardware beschränkte.
Dieser Verdacht wird nur durch die Tatsache verstärkt, dass sowohl AMDs FSR-Upscaling als auch Intels Arc-GPUs). Worauf es dabei ankommt, ist die Frage, ob sich die DLSS-Skalierung tatsächlich stark auf diese KI-beschleunigenden Tensor-Kerne stützt, wie Nvidia behauptet.
Nun, jetzt haben wir scheinbar eine Art Antwort. Und es stellt sich heraus, dass DLSS diese Tensorkerne tatsächlich benötigt.
Ein unerschrockenes Reddit-Poster mit dem Namen Bluedot55, nutzte die Nsight Systems GPU-Metrik-Tools von Nvidia um einen detaillierten Einblick in die Arbeitslasten zu erhalten, die auf verschiedenen Teilen einer Nvidia RTX 4090-GPU ausgeführt werden.
Bluedot55 führte sowohl DLSS als auch Drittanbieter-Skalierer auf einer Nvidia RTX 4090 aus und maß die Tensor-Kernauslastung. Betrachtet man die durchschnittliche Tensor-Kernnutzung, waren die Zahlen unter DLSS mit weniger als 1 % extrem niedrig.
Erste Untersuchungen deuteten darauf hin, dass sogar die Spitzenauslastung im Bereich von 4–9 % lag, was darauf hindeutet, dass die Tensor-Kerne zwar verwendet wurden, diese aber wahrscheinlich nicht unbedingt erforderlich waren. Die Erhöhung der Abfragerate ergab jedoch, dass die Spitzenauslastung tatsächlich über 90 % liegt, allerdings nur für kurze Zeiträume, die im Mikrosekundenbereich gemessen werden.
Wenn man darüber nachdenkt, macht das Sinn. Der Hochskalierungsvorgang muss extrem schnell erfolgen, um die Gesamtbildrate nicht zu verlangsamen. Es muss einen gerenderten Frame nehmen, ihn verarbeiten, alle für die Hochskalierung erforderlichen Berechnungen durchführen und den vollständigen hochskalierten Frame ausgeben, bevor die 3D-Pipeline Zeit hatte, einen neuen Frame zu generieren.
Was Sie also erwarten würden, ist genau das, was Bluedot55 beobachtet hat. Ein unglaublich kurzer, aber intensiver Aktivitätsschub in den Tensor-Kernen, wenn die DLSS-Hochskalierung aktiviert ist.
Natürlich bieten Nvidias GPUs seit drei Generationen Tensor-Kerne und man muss zur GTX-10-Serie zurückkehren, um eine Nvidia-GPU zu finden, die DLSS überhaupt nicht unterstützt. Da Nvidia jedoch neue Funktionen zum DLSS-Gesamt-Superset hinzufügt, wie etwa die Frame-Generierung, bleibt neuere Hardware zurück.
Was diese Untersuchung zeigt, ist, dass es zwar verlockend ist, an den Beweggründen von Nvidia zu zweifeln, wenn es den Anschein hat, dass ältere GPUs von einer neuen Funktion ausgeschlossen werden, die Realität aber möglicherweise einfach so aussieht, dass die neuen GPUs Dinge können, die alte nicht können. Das ist ein Fortschritt für Sie.