Apple erforscht die Speicherung großer Sprachmodelle (LLMs) auf Flash-Speicher, um die Technologie nahtlos auf Telefone und Laptops zu übertragen


Large Language Models (LLMs) sind außerordentlich ressourcenintensiv für CPU und Speicher, aber Apple experimentiert angeblich damit, diese Technologie auf Flash-Speicher zu speichern, um sie wahrscheinlich auf mehreren Geräten leicht zugänglich zu machen. Allerdings möchte der Technologieriese LLMs auch in seiner iPhone- und Mac-Reihe allgegenwärtig machen und sucht nach Möglichkeiten, dies zu ermöglichen.

Das Speichern von LLMs im Flash-Speicher war bisher schwierig; Apple möchte dieses Problem auf Maschinen mit begrenzter Kapazität beheben

Unter typischen Bedingungen erfordern große Sprachmodelle die Speicherung von KI-Beschleunigern und einer hohen DRAM-Kapazität. Wie berichtet von TechPowerUpApple arbeitet daran, die gleiche Technologie bereitzustellen, jedoch auf Geräten mit begrenzter Speicherkapazität. In einem neu veröffentlichtes PapierApple hat ein Papier veröffentlicht, das darauf abzielt, LLMs auf Geräte mit begrenzter Speicherkapazität zu bringen. Auch iPhones haben nur begrenzten Speicher, daher haben Apple-Forscher eine Technik entwickelt, die Flash-Chips verwendet, um die Daten des KI-Modells zu speichern.

Da auf den iPhones und Mac-Computern von Apple reichlich Flash-Speicher verfügbar ist, gibt es eine Möglichkeit, diese Einschränkung mit einer Technik namens zu umgehen Fensterbau. Bei dieser Methode verwendet das KI-Modell einige der bereits verarbeiteten Daten wieder, wodurch der Bedarf an kontinuierlichem Speicherabruf reduziert und der gesamte Prozess beschleunigt wird. Die zweite Technik ist Zeilen-Spalten-Bündelung; Daten können effizienter gruppiert werden, wodurch das KI-Modell Daten schneller aus dem Flash-Speicher lesen und seine Verständnisfähigkeit verbessern kann.

Durch beide Techniken und andere Methoden können die KI-Modelle bis zur doppelten Größe des verfügbaren RAM des iPhones laufen, was zu einer bis zu fünffachen Geschwindigkeitssteigerung bei Standardprozessoren und einer bis zu 25-fachen Geschwindigkeitssteigerung bei Grafikprozessoren führt. Es gibt zahlreiche Hinweise darauf, dass Apple es mit KI ernst meint, angefangen mit seinem eigenen Chatbot, der intern Apple GPT heißt. Gerüchten zufolge soll das iPhone 16 im nächsten Jahr auch über verbesserte Mikrofone verfügen, was für das Unternehmen kostspielig sein wird, aber eine verbesserte Spracheingabe ermöglichen wird, die notwendig sein wird, damit Siri eine Vielzahl von Aufgaben ausführen kann.

Es gibt auch Gerüchte, dass eine Form der generativen KI in iOS 18 integriert sein wird, wenn es nächstes Jahr offiziell erscheint. Apple liegt zwar hinter Unternehmen wie OpenAI, Google, Amazon und anderen zurück, dieser Abstand könnte sich jedoch im Jahr 2024 erheblich verringern , diese Technologie auf iPhones, iPads und Macs mit begrenztem Speicher zu bringen, könnte diesen Geräten ein Alleinstellungsmerkmal verschaffen, aber wir müssen zuerst sehen, wie LLMs, die auf Flash-Speicher gespeichert sind, funktionieren.

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply