Amazon gibt an, dass seine Chips der nächsten Generation für das KI-Training viermal schneller sind


Amazon Web Services (AWS) hat gerade seine in Las Vegas stattfindende re:Invent-Konferenz eröffnet Die meisten davon betreffen die beliebteste Technologie des Jahres, KI. Insgesamt geben uns diese Nachrichten einen ersten Einblick in die langfristigen Ziele des Unternehmens für Plattformen für künstliche Intelligenz.

Zunächst stellte AWS vor Für das Modelltraining und den Betrieb trainierter Modelle gedacht. Trainium2, das offensichtlich für das Modelltraining gedacht ist, wurde entwickelt, um im Vergleich zu seinem Vorgänger eine bis zu viermal bessere Leistung und eine doppelt so hohe Energieeffizienz zu bieten. Amazon verspricht, dass diese Chips es Programmierern ermöglichen werden, Modelle aufgrund eines geringeren Energieverbrauchs schnell und zu geringeren Kosten zu trainieren. Anthropic hat bereits Pläne angekündigt, Modelle mit Trainium2-Chips zu bauen.

Graviton4 hingegen ist eher für den allgemeinen Gebrauch gedacht. Diese Prozessoren basieren auf der Arm-Architektur, verbrauchen jedoch weniger Energie als Intel- oder AMD-Chips. Amazon verspricht eine Steigerung der allgemeinen Leistung um 30 Prozent bei Verwendung eines trainierten KI-Modells, das in einen Graviton4-Prozessor eingebettet ist. Dies sollte die Cloud-Computing-Kosten für Organisationen senken, die regelmäßig KI-Modelle einsetzen, und eine leichte Geschwindigkeitssteigerung für normale Benutzer bieten, die nur ein paar gefälschte Fotos von Harry Potter bei einem Rave oder was auch immer machen möchten.

Alles in allem sollte Graviton4 es AWS-Kunden ermöglichen, „größere Datenmengen zu verarbeiten, ihre Arbeitslasten zu skalieren, die Zeit bis zum Ergebnis zu verbessern und ihre Gesamtbetriebskosten zu senken“. Es ist heute als Vorschau verfügbar, eine umfassendere Veröffentlichung ist für die kommenden Monate geplant.

Wenn ein Unternehmen neue hauseigene Chips ankündigt, bedeutet das normalerweise Ärger für aktuelle Drittanbieter wie NVIDIA. Das Unternehmen ist ein wichtiger Akteur im Bereich der Unternehmens-KI, dank der Unternehmen, die seine GPUs für Schulungen nutzen, und seiner Arm-basierten Rechenzentrums-CPU Grace. Anstatt die Partnerschaft zugunsten proprietärer Chips aufzugeben, festigt Amazon die Beziehung weiter, indem es Unternehmenskunden Cloud-Zugriff auf die neuesten H200-KI-GPUs von NVIDIA bietet. Darüber hinaus werden mehr als 16.000 Nvidia GH200 Grace Hopper Superchips speziell für das Forschungs- und Entwicklungsteam von NVIDIA betrieben. Dies ist ein ähnlicher Ansatz wie sein größter KI-Konkurrent Microsoft, der gleichzeitig auch eine erweiterte Partnerschaft mit NVIDIA ankündigte

Amazon kündigte außerdem a an ein Name, der wahrscheinlich vom Star-Trek-Halbgott und nicht vom Trump-nahen Verschwörungshändler inspiriert wurde. Es wird als „neue Art generativer, KI-gestützter persönlicher Assistenten“ beschrieben und ist speziell darauf ausgelegt, Arbeitsprojekte und Kundendienstaufgaben zu rationalisieren. Es kann auf jedes Unternehmen zugeschnitten werden und bietet relevante Antworten auf häufig gestellte Fragen. Amazon Q kann auch selbst Inhalte generieren und auf Kundenanfragen basierende Maßnahmen ergreifen. Es können sogar Interaktionen basierend auf der Rolle eines Benutzers innerhalb eines Unternehmens angepasst werden.

Es wird in Kommunikations-Apps wie Slack und in Textbearbeitungsanwendungen vorhanden sein, die häufig von Softwareentwicklern verwendet werden. Zu diesem Zweck kann Q den Quellcode tatsächlich ändern und eine Verbindung zu mehr als 40 Unternehmenssystemen herstellen, darunter unter anderem Microsoft 365, Dropbox, Salesforce und Zendesk. Amazon Q ist derzeit in der Vorschau verfügbar, eine umfassendere Veröffentlichung folgt in Kürze. Abhängig von den verfügbaren Funktionen kostet es zwischen 20 und 30 US-Dollar pro Benutzer und Monat.

Was haben wir hier gelernt? Amazon setzt wie alle anderen stark auf KI. Genauer gesagt kämpft das Unternehmen mit dem alten Cloud-Konkurrenten Microsoft darum, das Unternehmen der Wahl für unternehmensbasierte KI zu werden. Das Unternehmen nutzt KI auch, um seine Dominanz im Cloud-Computing-Bereich aufrechtzuerhalten, in der Hoffnung, einen Anstieg des Marktanteils für Microsoft und andere Player wie Google und Alibaba zu minimieren.

source-115

Leave a Reply