ChatGPT benötigt möglicherweise 30.000 NVIDIA-GPUs. Sollten sich PC-Gamer Sorgen machen?


Was du wissen musst

  • Laut einem Bericht des Forschungsunternehmens TrendForce werden für den Betrieb von ChatGPT bis zu 30.000 NVIDIA-GPUs benötigt.
  • Diese Berechnungen basieren auf der Rechenleistung von NVIDIAs A100, die zwischen 10.000 und 15.000 US-Dollar kostet.
  • Es ist unklar, ob Spieler von so vielen GPUs betroffen sein werden, die für die Ausführung von ChatGPT vorgesehen sind.

ChatGPT stürmte Ende 2022 in die Tech-Szene. Bis Januar dieses Jahres hatte das Tool angeblich 100 Millionen monatliche Nutzer. Es würde erst im folgenden Monat mehr Benutzer bekommen, da Microsoft eine neue Version von Bing powered by ChatGPT ankündigte. Angesichts der Tatsache, dass die Technologie auf so viel Interesse und praktische Anwendung stößt, ist es nicht verwunderlich, dass Unternehmen von der Popularität von ChatGPT profitieren werden.

Laut Forschungsunternehmen TrendForceNVIDIA könnte dank ChatGPT (via Toms Hardware). Diese Zahl basiert auf der Analyse von TrendForce, dass ChatGPT 30.000 NVIDIA A100 GPUs benötigt, um zu funktionieren. Die genaue Zahl, die NVIDIA machen wird, hängt davon ab, wie viele Grafikkarten OpenAI benötigt und ob NVIDIA dem KI-Unternehmen einen Rabatt für eine so große Bestellung gewährt.

Wenn NVIDIA die Platzierung von Komponenten innerhalb der Grafikkarte priorisiert, die ChatGPT ausführen sollen, könnte dies die Verfügbarkeit anderer GPUs beeinträchtigen.



source-108

Leave a Reply