In einem neuen Blogbeitrag schwärmte Microsoft von seiner massiven Azure-Cloud, die skaliert wurde, um die spezifischen Anforderungen von OpenAI zu erfüllen.
Vor einigen Jahren ging Microsoft eine massive Partnerschaft mit OpenAI ein, einem Team an der Spitze der Forschung im Bereich der künstlichen Intelligenz. Das Unternehmen, das jetzt vielleicht ironisch heißt, ging mit dem Tech-Giganten eine Art geschlossene Partnerschaft ein. Die Zusammenarbeit hat zu einem KI-Wettrüsten geführt, bei dem Googles eigene übereilte Bemühungen in den letzten Wochen zum Gegenstand einiger Lächerlichkeiten wurden. Die Bedrohung der Suchdominanz von Google ist anders als alles, was das Unternehmen seit Jahrzehnten erlebt hat, und Microsoft nutzt diese Gelegenheit nicht im Liegen.
Zu diesem Zweck behauptete Microsoft heute (öffnet in neuem Tab) dass ChatGPT und andere OpenAI-Modelle nur mit einer eigenen Azure-Cloud möglich sind, die schnell und massiv skaliert wurde, um die Anforderungen von OpenAI zu erfüllen.
„Nur Microsoft Azure stellt die GPUs, das InfiniBand-Netzwerk und die einzigartige KI-Infrastruktur bereit, die erforderlich sind, um diese Art von transformativen KI-Modellen in großem Maßstab zu erstellen, weshalb sich OpenAI für eine Partnerschaft mit Microsoft entschieden hat“, sagte Scott Guthrie, EVP of AI and Cloud bei Microsoft: „Azure ist jetzt wirklich der richtige Ort, um große transformative KI-Workloads zu entwickeln und auszuführen.
Microsoft diskutierte die Herausforderungen der Industrialisierung von KI, die sich in den letzten Monaten von der Laborarbeit und Nischenanwendungsfällen bis hin zur Kommerzialisierung in großem Maßstab entwickelt hat. Zu diesem Zweck beschrieb Nidhi Chappell von Microsoft, Produktleiterin für Azure High Performance Computing, die Notwendigkeit, etwas zu bauen, das KI-Modelle schneller trainieren kann. „Es gab definitiv einen starken Druck, größere Modelle über einen längeren Zeitraum zu trainieren, was bedeutet, dass Sie nicht nur die größte Infrastruktur benötigen, sondern auch in der Lage sein müssen, sie über einen langen Zeitraum zuverlässig zu betreiben.“
Zu diesem Zweck hat sich Microsoft mit NVIDIA zusammengetan und Tausende von NVIDIA A100-GPUs miteinander verbunden, die die unternehmenseigene Quantum-2 Infiniband-Netzwerktechnologie mit 400 GB/s nutzen. Durch die Zusammenarbeit können diese GPUs Ableitungen und Kontexte für absolut riesige Datenmengen verarbeiten und erstellen – die Art von Daten, die benötigt werden, um die dummen Chatbots von gestern zu den unheimlich natürlich klingenden Antworten zu bringen, die wir heute auf Bing Chat und ChatGPT sehen.
Microsoft beschleunigt seine Transformation zu einem AI-First-Unternehmen und integriert OpenAI-Technologie in praktisch alle seine Produkte. Word, Github, Visual Studio und viele weitere vom Unternehmen angebotene Tools erhalten zumindest eine Form der KI-Integration, um Arbeitsabläufe zu beschleunigen und das Leben einfacher zu machen.
Die Aufregung um KI und ihr Potenzial zur Verbesserung der Zivilisation wurde von Bedenken flankiert, wie sie zu Arbeitsplatzverlusten führen, die Qualität und Verbreitung falscher Nachrichten beschleunigen und schändlichen Akteuren helfen könnte, alle Arten von Cyberkriminalität zu begehen. Wie bei jeder neuen technologischen Revolution wird es Gewinner und Verlierer geben, aber es bleibt abzuwarten, wie viele Gewinner und wie viele Verlierer die KI-Technologie von Microsoft schaffen wird. Wird KI das Leben gewöhnlicher Menschen verbessern oder einfach die Ungleichheit verstärken? So oder so geht das neueste Experiment in der Industrietechnologie unvermindert weiter.