Apple schafft einen weiteren Durchbruch und stellt neues KI-Modell vor, das Bilder mit Befehlen in natürlicher Sprache manipulieren kann


Apple hinkt in vielerlei Hinsicht hinter Unternehmen wie ChatGPT und Googles Gemini hinterher. Allerdings hat das Unternehmen stark in KI investiert, da es sich zum Ziel gesetzt hat, die Technologie später in diesem Jahr mit der Veröffentlichung von iOS 18 in die iPhone 16-Reihe zu integrieren. Nun wird berichtet, dass Apple-Forscher ein neues KI-Modell veröffentlicht haben, das Bilder basierend bearbeiten kann Befehle in natürlicher Sprache durch den Benutzer. Die Technologie wird möglicherweise auf der WWDC 2024-Veranstaltung des Unternehmens im Juni vorgestellt.

Das neue KI-Modell von Apple kann Eingaben in natürlicher Sprache interpretieren und Bilder manipulieren

Apples neues KI-Modell mit dem Namen „MGIE,” oder MLLM-gesteuerte Bildbearbeitungist ein multimodales großes Sprachmodell, das Benutzerbefehle auf Pixelebene interpretieren und ausführen kann (via). VentureBeat). Das Tool kann eine Vielzahl von Bildbereichen manipulieren und bearbeiten, darunter Helligkeit, Schärfe, Kontrast und vieles mehr. Es kann auch ein Bild manipulieren, um künstlerische Effekte hinzuzufügen.

Darüber hinaus kann die lokale Bearbeitung die Form, Farbe, Größe und Textur des Motivs in einem Foto verändern. Die Photoshop-ähnliche Bearbeitung umfasst das Ändern der Bildgröße oder das Zuschneiden, Drehen und Hinzufügen von Filtern. Benutzer können auch den Hintergrund des Bildes ändern. Das neue KI-Modell von Apple versteht Kontext und allgemeine Argumentation. Sie können beispielsweise ein Bild einer Pizza und eine Aufforderung hinzufügen, sie gesünder zu machen. Das KI-Modell fügt dem Bild automatisch Gemüse hinzu, da es versteht, dass Gesundheit mit Gemüse in der Nahrung zusammenhängt.

Das Apple AI Model kann Bilder mit natürlicher Spracheingabe manipulieren

Mithilfe der globalen Optimierungsanforderungen kann das Tool die Beleuchtung und den Kontrast eines Bildes manipulieren. Darüber hinaus können durch die Photoshop-ähnliche Bearbeitung auf Wunsch des Benutzers auch Objekte aus dem Hintergrund entfernt werden. Im unten hinzugefügten Bild können Sie Apples KI-Modell in Aktion sehen. Das Unternehmen hat sich mit den Forschern der University of California zusammengetan, um MGIE zu entwickeln. Sobald die Technologie bereit ist, wird das Unternehmen verschiedene Anwendungen für seine Geräte erstellen. Der Papier wurde auf der International Conference on Learning Representations (ICLR) 2024 vorgestellt.

Das Apple AI Model kann Bilder mit natürlicher Spracheingabe manipulieren

Wenn Sie daran interessiert sind, das KI-Modell auszuprobieren, sind der Code und die Daten mit vorab trainierten Modellen auf GitHub verfügbar. Apple arbeitet schon seit geraumer Zeit an KI, und auch wenn die Implementierung spät ist, könnten sich die Funktionen von denen der Branche unterscheiden. Letztes Jahr im Dezember erfand das Unternehmen die Flash-Speicher-Nutzungstechnik, mit der große Sprachmodelle auf dem iPhone und anderen Apple-Produkten funktionieren können.

Apple wird später in diesem Jahr einige KI-Funktionen ankündigen, möglicherweise auf der WWDC 2024 zusammen mit iOS 18 und anderen Software-Updates. In früheren Berichten wurde erwähnt, dass Apple mit der Einführung der neuen iPhone-Modelle später in diesem Jahr generative KI-Funktionen einsetzen wird. iOS 18 wird KI verwenden, um Siri auf Steroide zu setzen, da es derzeit hinter Google Assistant und Amazons Alexa zurückbleibt.

Teilen Sie diese Geschichte

Facebook

Twitter

source-99

Leave a Reply