Was du wissen musst
- Laut einem Bericht des Forschungsunternehmens TrendForce werden für den Betrieb von ChatGPT bis zu 30.000 NVIDIA-GPUs benötigt.
- Diese Berechnungen basieren auf der Rechenleistung von NVIDIAs A100, die zwischen 10.000 und 15.000 US-Dollar kostet.
- Es ist unklar, ob Spieler von so vielen GPUs betroffen sein werden, die für die Ausführung von ChatGPT vorgesehen sind.
ChatGPT stürmte Ende 2022 in die Tech-Szene. Bis Januar dieses Jahres hatte das Tool angeblich 100 Millionen monatliche Nutzer. Es würde erst im folgenden Monat mehr Benutzer bekommen, da Microsoft eine neue Version von Bing powered by ChatGPT ankündigte. Angesichts der Tatsache, dass die Technologie auf so viel Interesse und praktische Anwendung stößt, ist es nicht verwunderlich, dass Unternehmen von der Popularität von ChatGPT profitieren werden.
Laut Forschungsunternehmen TrendForceNVIDIA könnte dank ChatGPT (via Toms Hardware). Diese Zahl basiert auf der Analyse von TrendForce, dass ChatGPT 30.000 NVIDIA A100 GPUs benötigt, um zu funktionieren. Die genaue Zahl, die NVIDIA machen wird, hängt davon ab, wie viele Grafikkarten OpenAI benötigt und ob NVIDIA dem KI-Unternehmen einen Rabatt für eine so große Bestellung gewährt.
Wenn NVIDIA die Platzierung von Komponenten innerhalb der Grafikkarte priorisiert, die ChatGPT ausführen sollen, könnte dies die Verfügbarkeit anderer GPUs beeinträchtigen.
ChatGPT verwendet eine andere Art von GPU als die, die die Leute in ihre Gaming-PCs stecken. Ein NVIDIA A100 kostet zwischen 10.000 und 15.000 US-Dollar und soll die Anforderungen von ChatGPT an Systeme erfüllen. Es mag also so aussehen, als würden Gamer von einer so großen Anzahl von A100-GPUs, die an den Betrieb von ChatGPT gewöhnt sind, nicht betroffen sein, aber das ist nicht ganz der Fall.
Die weltweite Chipknappheit wurde durch eine Knappheit an Chips verursacht, nicht an ganzen Grafikkarten. Aus diesem Grund sahen wir seltsame Situationen wie Autofirmen und Hersteller von Computergrafikkarten, die um dieselben Komponenten konkurrierten. Natürlich haben die meisten Autos keine Gaming-GPUs, Tesla ist die Ausnahme, aber Chips werden in der Fertigung, im Computer und in vielen anderen Branchen verwendet.
Wenn NVIDIA die Platzierung von Komponenten innerhalb der Grafikkarte priorisiert, die ChatGPT ausführen sollen, könnte dies die Verfügbarkeit anderer GPUs beeinträchtigen.
Ein weiterer Faktor bei all dem ist die kürzlich verlängerte Partnerschaft zwischen Microsoft und OpenAI (öffnet in neuem Tab). Während ChatGPT möglicherweise eine Rechenleistung benötigt, die 30.000 NVIDIA A100-GPUs entspricht, könnte diese Leistung in Form von Microsofts eigenen Azure-Systemen bereitgestellt werden. Wenn dies der Fall ist, wäre die Anzahl der physischen GPUs, die zum Ausführen von ChatGPT benötigt werden, drastisch anders.