OpenAI, der Entwickler der äußerst beliebten ChatGPT-Server für künstliche Intelligenz, erwägt die Entwicklung seiner benutzerdefinierten KI-Chips aufgrund der hohen Kosten und der knappen Verfügbarkeit von Nvidias Rechen-GPUs und anderen Prozessoren für KI-Inferenz und -Training. Die Organisation erwäge sogar mögliche Übernahmen, um das nötige geistige Eigentum zu erhalten und den Prozess zu beschleunigen, heißt es Reuters.
Die Entwicklung eines benutzerdefinierten Chips wäre für OpenAI ein großer strategischer Wandel und mit erheblichen Investitionen verbunden. Darüber hinaus könnte sich OpenAIs kundenspezifisches Silizium-Bemühen, eigene KI-Prozessoren zu entwickeln, über mehrere Jahre erstrecken, was eine anhaltende Abhängigkeit von großen Chip-Designern wie Nvidia, Intel und AMD bedeutet. Obwohl die Übernahme eines bestehenden Chipunternehmens erheblich einfacher ist und den Prozess beschleunigen könnte, gibt es angesichts der Tatsache, dass es viele KI-Hardware-Startups gibt, keine Erfolgsgarantie.
Der Einstieg in die Chip-Entwicklung würde OpenAI neben Unternehmen wie Amazon Web Services (AWS), Google und Tesla positionieren, die beide Initiativen ergriffen haben, um kritische Chips für ihre Dienste zu entwickeln, darunter maßgeschneiderte CPUs, maßgeschneiderte KI-Prozessoren für Training und Inferenz. und Videotranskodierung. Es ist erwähnenswert, dass einige Technologiegiganten bei der Entwicklung kundenspezifischer Prozessoren auf Hindernisse gestoßen sind. Meta musste beispielsweise bestimmte KI-Chip-Projekte aufgrund der Herausforderungen aufgeben.
Der Hauptgrund dafür, dass OpenAI einen benutzerdefinierten Silizium-Weg einschlägt, ist die Herausforderung, die sich aus dem begrenzten Angebot an KI-GPUs ergibt, die das Unternehmen zum Trainieren und Ausführen seines großen Sprachmodells verwendet. Die Abhängigkeit von OpenAI von GPUs wird durch die Verwendung eines riesigen Supercomputers von Microsoft deutlich, der 10.000 der A100-Einheiten von Nvidia verwendet. Mittlerweile hält Nvidia laut Reuters mehr als 80 % des weltweiten Marktanteils bei KI-Prozessoren.
Der CEO von OpenAI, Sam Altman, hat seine Besorgnis über den Mangel an GPUs und die enormen Kosten geäußert, die mit dem Betrieb von KI-Software auf solchen Plattformen verbunden sind. Allein die Betriebskosten für ChatGPT sind immens; Wenn es sogar auf ein Zehntel der Größe der Google-Suche ansteigt, würden die finanziellen Auswirkungen zunächst etwa 48,1 Milliarden US-Dollar für GPUs und dann fortlaufend 16 Milliarden US-Dollar pro Jahr betragen.
Interessanterweise entwickelt Microsoft, ein OpenAI-Unterstützer, Berichten zufolge seinen maßgeschneiderten KI-Prozessor. Dieser Schritt könnte auf eine mögliche Verschiebung der Beziehung zwischen den beiden Unternehmen hinweisen. In der Zwischenzeit könnte OpenAI die Hardware von Microsoft übernehmen und umgekehrt.