YouTube führt eine neue Funktion ein, mit der Nutzer ihren eigenen Charlie Puth-, Demi Lovato- oder T-Pain-Track erstellen und ihn zur Hintergrundmusik für einen Kurzfilm machen können. Es ist eines von mehreren neuen KI-gestützten Tools, an denen Google für seine soziale Videoplattform arbeitet.
Die neuen Musikfunktionen werden von Googles KI-Labor DeepMind entwickelt und werden von einem neuen Musikgenerationsmodell namens Lyria angetrieben, das sich nach Angaben des Unternehmens „durch die Erzeugung hochwertiger Musik mit Instrumentalstücken und Gesang auszeichnet“.
Um zu sehen, wie gut das in der realen Welt funktioniert, hat YouTube Partnerschaftsverträge mit Alec Benjamin, Charlie Puth, Charli XCX, John Legend und anderen unterzeichnet, um deren Stil und Sound für neue, vollständig KI-generierte Kreationen von Text zu Musik zu lizenzieren .
Wie funktioniert es?
Beim Erstellen eines neuen Kurzfilms kann ein Ersteller einen Künstler aus einem Karussell auswählen, eine Eingabeaufforderung eingeben und Lyria einen 30-sekündigen Soundtrack im Stil des ausgewählten Künstlers generieren lassen. Dazu gehören Liedtexte, ein Backingtrack und eine KI-generierte Stimme im Stil des Künstlers.
Um zu zeigen, wie gut es funktioniert, hat Google einen 21 Sekunden langen, generierten Track von Charlie Puth mit dem Text „Baby, wir haben nichts gemeinsam, aber ich weiß, ich wünschte, du hättest es schon so lange gewollt“ geteilt.
Die Stimme ist wie bei Charlie Puth, allerdings mit übermäßigem Autotune und einer mehr als nötigen Menge an Verzerrung. Ich bin mir sicher, dass es sich mit der Zeit verbessern wird und es perfekt für Shorts ist, aber es gibt ein unheimliches Problem bei der Arbeit.
Wann wird es verfügbar sein?
YouTube hat keinen Zeitplan für den Start genannt, daher ist derzeit nicht genau klar, wann es für Premium-Nutzer verfügbar sein wird. Wenn es jedoch live geschaltet wird, wird es voraussichtlich über den Experimentbildschirm in den iOS- und Android-Apps gefunden.
Vorausgesetzt, sie folgen dem Muster früherer KI-Experimente mit Zusammenfassungen und der Organisation von Kommentaren zu hochkarätigen Videos.
Dies war nur eine von zwei neuen KI-Musikfunktionen, die Google DeepMind in einem enthüllte Blogeintrag. Das andere, das ebenfalls Lyria nutzt, ist eine neue Suite von Musik-KI-Tools, die Künstlern, Songwritern und Produzenten im Music AI Incubator-Programm von YouTube zur Verfügung stehen. Zum Beispiel in der Lage zu sein, eine Melodie zu singen, um eine Hornlinie zu erzeugen oder MIDI-Akkorde in einen Gesangschor umzuwandeln.
Wie schützen sie Künstler?
Die andere große Frage ist: Wie schützt man Künstler dieses Projekts davor, dass KI-generierte Versionen ihrer Musik erstellt werden? Für Dream Track hat Google Lizenzverträge mit den beteiligten Künstlern abgeschlossen.
Dieser Schritt ist eine Folge der gestern angekündigten Einführung der YouTube-Richtlinie für verantwortungsvolle KI. Dazu gehört auch die Einführung von Flags auf YouTube-Videos, die mit KI erstellt wurden.
DeepMind hat auch an Möglichkeiten gearbeitet, mit KI erstellte Inhalte mithilfe eines neuen Tools namens SynthID mit einem Wasserzeichen zu versehen. Dabei handelt es sich um einen im Audioton ablaufenden Ton, der für Menschen nicht hörbar ist, aber von Playern und Computern aufgenommen werden kann, um Labels oder Warnhinweise hinzuzufügen, wenn Lyria zum Generieren eines Songs verwendet wurde.