Aus diesem Grund wird OpenAI dieses Jahr mit größerer Wahrscheinlichkeit GPT-4.5 anstelle von GPT-5 veröffentlichen


Dies ist keine Anlageberatung. Der Autor hält keine Position in einer der genannten Aktien. Wccftech.com verfügt über eine Offenlegungs- und Ethikrichtlinie.

Obwohl GPT-4 derzeit an der Spitze der immer komplexer werdenden Welt der generativen künstlichen Intelligenz steht, werden seine Konkurrenten, darunter Claude von Anthropic und das Open-Source-Llama von Meta, immer besser, was eine weitere Iteration von OpenAIs Flaggschiff Large Language Model (LLM) erforderlich macht. Während viele erwarten Obwohl Sam Altmans gemeinnützige Organisation GPT-5 im Jahr 2024 veröffentlichen will, behaupten einige Analysten nun, dass diese Erwartungen weiterhin weit hergeholt bleiben, insbesondere angesichts des Umfangs der erforderlichen Ressourcen.

GPT-5 würde etwa das 100-fache der Rechenressourcen von GPT-4 benötigen, oder 3 Monate mit etwa 1 Million H100s

Laut Dan Hendrycks, dem Direktor des Center for AI Safety, erforderte jede inkrementelle Iteration des GPT LLM von OpenAI eine zehnfache Steigerung der Rechenressourcen. Wenn OpenAI also GPT-4.5 überspringen und direkt zu GPT-5 wechseln würde, würde dies zu einem etwa 100-fachen Anstieg der Rechenanforderungen im Vergleich zu GPT-4 führen, was etwa 1 Million H100-Chips entspricht, die drei Monate lang in Folge laufen.

Diese These wird durch die Kommentare von Dario Amodei, CEO von Anthropic, gestützt, der kürzlich feststellte, dass die Ausbildung eines hochmodernen LLM derzeit etwa 1 Milliarde US-Dollar kostet, wobei diese Kosten voraussichtlich auf 5 bis 10 Milliarden US-Dollar ansteigen werden 2025/26. Entscheidend ist, dass die Schulungskosten in Höhe von 1 Milliarde US-Dollar mit dem 10-fachen Anstieg der Rechenressourcen einhergehen, der vernünftigerweise für GPT-4.5 abgeleitet werden kann.

Wir haben kürzlich festgestellt, dass die in diesem Jahr eingesetzten H100-Einheiten von NVIDIA voraussichtlich jährlich etwa 13.000 GWh Strom verbrauchen werden, was dem jährlichen Stromverbrauch von Ländern wie Litauen und Guatemala entspricht. Bis 2027 wird der weltweite Stromverbrauch von Rechenzentren voraussichtlich auf 85 bis 134 TWh (Terawattstunden) ansteigen!

Natürlich holt die Konkurrenz von GPT-4 schnell auf. Suchen Sie nicht weiter als nach Metas Llama 3 LLM (70 Milliarden Parameter), das jetzt den fünften Platz in der Arena-Führungsliste belegt. Entscheidend ist, dass Llama 3 jetzt alle anderen Open-Source-LLMs übertrifft, und das ohne das kommende 405-Milliarden-Parametermodell.

Darüber hinaus glauben einige Experten mittlerweile, dass OpenAI für GPT-5 den „ursprünglichen Lehrplan“ ändern muss, der derzeit die Nutzung „schlecht kuratierter menschlicher Gespräche“ und einen insgesamt „naiven“ Trainingsprozess beinhaltet. Dies hängt mit unserer ursprünglichen These zusammen, dass OpenAI dieses Jahr wahrscheinlich ein iteratives GPT-4.5-Modell veröffentlichen wird, anstatt mit GPT-5 den Einsatz völlig auf den Kopf zu stellen.

Teilen Sie diese Geschichte

Facebook

Twitter



source-99

Leave a Reply