Adobes neuestes KI-Experiment generiert Musik aus Text


Diese Woche hat Adobe ein experimentelles Audio-KI-Tool vorgestellt, das die bildbasierten Tools in Photoshop ergänzt. Adobes Project Music GenAI Control wird vom Unternehmen als „ein generatives AI-Musikgenerierungs- und Bearbeitungstool im Frühstadium“ beschrieben und kann Musik (und andere Audiodaten) aus Textansagen erstellen, die dann in derselben Benutzeroberfläche verfeinert werden können.

Adobe stellt die Firefly-basierte Technologie als kreativen Verbündeten dar, der – im Gegensatz zu generativen Audioexperimenten wie Googles MusicLM – noch einen Schritt weiter geht und den Aufwand überspringt, die Ausgabe zur Bearbeitung in externe Apps wie Pro Tools, Logic Pro oder GarageBand zu verschieben. „Anstatt vorhandene Musik manuell zu schneiden, um Intros, Outros und Hintergrundaudio zu erstellen, könnte Project Music GenAI Control Benutzern dabei helfen, genau die Stücke zu erstellen, die sie benötigen – und so Workflow-Schwierigkeiten durchgängig zu lösen“, so Adobe schrieb in einem Ankündigungs-Blogbeitrag.

Das Unternehmen schlägt vor, mit Texteingaben wie „Powerful Rock“, „Happy Dance“ oder „Sad Jazz“ als Grundlage zu beginnen. Von dort aus können Sie weitere Eingabeaufforderungen eingeben, um Tempo, Struktur und Wiederholung anzupassen, die Intensität zu erhöhen, die Länge zu verlängern, ganze Abschnitte neu zu mischen oder Loops zu erstellen. Das Unternehmen gibt an, dass es sogar Audio basierend auf einer Referenzmelodie umwandeln kann.

Laut Adobe ist die resultierende Musik für die kommerzielle Nutzung sicher. Es integriert auch seine Content Credentials („Nährwertkennzeichnungen“ für generierte Inhalte), ein Versuch, die KI-gestützte Natur Ihres Meisterwerks transparent zu machen.

„Eines der aufregenden Dinge an diesen neuen Tools ist, dass es ihnen nicht nur um die Generierung von Audio geht – sie bringen es auf das Niveau von Photoshop, indem sie Kreativen die gleiche umfassende Kontrolle über die Formung, Optimierung und Bearbeitung ihrer Audiodaten geben. Es handelt sich um eine Art Steuerung auf Pixelebene für Musik“, schrieb Nicholas Bryan, Wissenschaftler bei Adobe Research.

Das Projekt ist eine Zusammenarbeit mit der University of California, San Diego und der School of Computer Science, Carnegie Mellon University. Die Ankündigung von Adobe betonte den experimentellen Charakter von Project Music GenAI Control. (Im Video oben wurde nicht viel von der Benutzeroberfläche enthüllt, was darauf hindeutet, dass es möglicherweise noch keine Benutzeroberfläche für Verbraucher gibt.) Daher müssen Sie möglicherweise eine Weile warten, bis die Funktion (vermutlich) ihren Weg in die Creative Cloud-Suite von Adobe findet .

source-115

Leave a Reply