Das generative KI-Rennen hat ein schmutziges Geheimnis


Anfang Februar, zuerst Google, dann Microsoft, kündigte umfassende Überarbeitungen ihrer Suchmaschinen an. Beide Technologiegiganten haben viel Geld für die Entwicklung oder den Kauf generativer KI-Tools ausgegeben, die große Sprachmodelle verwenden, um komplexe Fragen zu verstehen und darauf zu antworten. Jetzt versuchen sie, sie in die Suche zu integrieren, in der Hoffnung, dass sie den Benutzern eine reichhaltigere und genauere Erfahrung bieten. Das chinesische Suchunternehmen Baidu hat angekündigt es wird folgen.

Aber die Begeisterung über diese neuen Tools könnte ein schmutziges Geheimnis verbergen. Der Wettlauf um den Aufbau leistungsstarker, KI-gestützter Suchmaschinen erfordert wahrscheinlich einen dramatischen Anstieg der Rechenleistung und damit einen massiven Anstieg des Energiebedarfs von Technologieunternehmen und der Menge an CO2, die sie emittieren.

„Für die Indexierung und Suche von Internetinhalten sind bereits enorme Ressourcen erforderlich, aber die Integration von KI erfordert eine andere Art von Feuerkraft“, sagt Alan Woodward, Professor für Cybersicherheit an der Universität von Surrey im Vereinigten Königreich. „Es erfordert Rechenleistung sowie Speicherplatz und eine effiziente Suche. Jedes Mal, wenn wir einen Schritt in der Online-Verarbeitung sehen, sehen wir eine deutliche Zunahme der Energie- und Kühlressourcen, die von großen Verarbeitungszentren benötigt werden. Ich denke, das könnte ein solcher Schritt sein.“

Das Training von großen Sprachmodellen (LLMs), wie denen, die ChatGPT von OpenAI untermauern, das Microsofts aufgemotzte Bing-Suchmaschine antreiben wird, und Googles Äquivalent Bard, bedeutet das Analysieren und Berechnen von Verknüpfungen innerhalb riesiger Datenmengen, weshalb sie dazu tendiert haben von Unternehmen mit beträchtlichen Ressourcen entwickelt werden.

„Das Training dieser Modelle erfordert eine enorme Rechenleistung“, sagt Carlos Gómez-Rodríguez, Informatiker an der Universität von Coruña in Spanien. „Im Moment können nur die Big Tech-Unternehmen sie trainieren.“

Während weder OpenAI noch Google die Rechenkosten ihrer Produkte angegeben haben, Analyse durch Dritte von Forschern schätzt, dass das Training von GPT-3, auf dem ChatGPT teilweise basiert, 1.287 MWh verbrauchte und zu Emissionen von mehr als 550 Tonnen Kohlendioxidäquivalent führte – die gleiche Menge wie eine einzelne Person, die 550 Hin- und Rückfahrten zwischen New York und New York unternimmt San Francisco.

„Es ist nicht so schlimm, aber das muss man berücksichtigen [the fact that] Sie müssen es nicht nur trainieren, sondern auch ausführen und Millionen von Benutzern bedienen“, sagt Gómez-Rodríguez.

Es gibt auch einen großen Unterschied zwischen der Verwendung von ChatGPT – was die Investmentbank UBS schätzt 13 Millionen Nutzer pro Tag– als eigenständiges Produkt und Integration in Bing, das behandelt eine halbe Milliarde Suchanfragen pro Tag.

Martin Bouchard, Mitbegründer des kanadischen Rechenzentrumsunternehmens QScale, glaubt, dass, basierend auf seiner Lektüre der Suchpläne von Microsoft und Google, das Hinzufügen von generativer KI zum Prozess mindestens „mindestens vier- oder fünfmal mehr Rechenleistung pro Suche“ erfordern wird. Er weist darauf hin, dass ChatGPT derzeit sein Verständnis der Welt Ende 2021 einstellt, als Teil des Versuchs, die Rechenanforderungen zu senken.

Um den Anforderungen der Suchmaschinennutzer gerecht zu werden, muss sich das ändern. „Wenn sie das Modell oft neu trainieren und weitere Parameter und andere Dinge hinzufügen, ist das eine völlig andere Größenordnung“, sagt er.

source-114

Leave a Reply