„Hollywood 2.0“: Wie der Aufstieg von KI-Tools wie Runway das Filmemachen verändert Am beliebtesten Muss gelesen werden Melden Sie sich für Variety-Newsletter an Mehr von unseren Marken


Als der Visual-Effects-Künstler von „Everything Everywhere All At Once“ Evan Halleck an der Rock-Universum-Szene arbeitete, brachte er hochmoderne Tools für künstliche Intelligenz von Runway mit – wie das Greenscreen-Tool, das den Hintergrund von Bildern entfernt. „Es schnitt Dinge besser aus als mein menschliches Auge, und es gab mir eine saubere Matte, die ich für andere Dinge verwenden konnte.“

Vom Aufstieg der Deepfake-Technologie bis hin zur Verwendung von KI zur Generierung von Skripten ist KI auf dem Vormarsch. Es ist schneller, billiger und Halleck sagt über einen Film wie den Oscar-nominierten A24-Film: „Meiner Meinung nach war Rotoskopie ein sehr langsamer und schmerzhafter Prozess. Es war also schön, Dinge zu automatisieren.“

Für die Rockszene des Films sagt Halleck: „Wir haben ein Greenscreen-Tool verwendet. Flaschenzüge schoben die Felsen, den Kies und den Sand vorwärts. Aber als ich diese Dinger aus der Aufnahme herausgeschnitten habe, waren die Dinge nicht klar.“ Er hatte nicht nur eine enge Deadline, sondern das VFX-Team für den Film war klein – es bestand aus acht Personen –, also suchte er nach Alternativen, die die Dinge beschleunigen würden, und wandte sich an Cris Valenzuela, CEO von Runway, der bei der Entwicklung der Tools half.

Zeit war von entscheidender Bedeutung. Runway AI-Tools optimierten seine Arbeit, sagt Halleck: „Ich habe die Charaktere ausgeschnitten und sie sauber auf einer Platte platziert, die in Minuten aufgenommen wurde, anstatt einen halben Tag zu dauern.“

Zugegeben, Halleck wünschte, er hätte ein Tool wie Runway früher entdeckt. In der Szene, in der Michelle Yeohs Evelyn in Sekundenschnelle durch Multiversen blättert, wurden alle 300 Aufnahmen von Hand gemacht. „Ich blicke zurück und wünschte, ich hätte das für die Zeit gehabt, als wir daran gearbeitet haben, anstatt wochenlang daran zu arbeiten und Aliens zu photoshoppen“, sagt Halleck.

Valenzuela hat das Wachstum von Runway miterlebt und an Projekten für New Balance, Alicia Keys und sogar „The Late Show with Stephen Colbert“ gearbeitet. Immer mehr Filmemacher und Visual-Effects-Künstler setzen auf KI, sagt er. Er sagt: „Sie nutzen es nicht nur wegen seiner Geschwindigkeit, sondern es automatisiert die mühsamen und zeitaufwändigen Aspekte des Erstellens von Videos und Filmen.“ Er fügt hinzu: „Es ist transformativ, weil es Ihre Zeit und Kosten freisetzt, damit Sie sich auf die kreativen Iterationen und Ideen konzentrieren können. Es übersetzt Arbeitstage in Minuten.“

Das Wachstum der KI, insbesondere bei VFX, muss nicht einen Schwarz-Weiß-Prozess bedeuten, bei dem die Adoptanten der Technologie alles automatisieren. Valenzuela sagt, im Fall von „Everything Everywhere All At Once“ und der Zusammenarbeit mit Halleck, um diese sauberen Aufnahmen zu liefern, „arbeitet man sehr kooperativ, um den Prozess zu verbessern.“

Während KI in letzter Zeit ins Gespräch gekommen ist, gibt es die Technologie schon eine Weile. Die „South Park“-Schöpfer Matt Stone und Trey Parker haben letztes Jahr einen ganzen Film mit einem Deepfake-Donald Trump gedreht. „Sie ebnen den Weg. Die Leute werden vielleicht ausflippen, aber es wird eine Menge unglaublicher Anwendungsfälle geben und es werden wahrscheinlich einige schlimme Dinge kommen, aber das kommt mit jeder neuen Technologie.“

Valenzuela hat unzählige Beispiele von Organisationen, die es übernehmen. „The Late Show…“ nutzt KI fast täglich. „Sie verwenden es fast täglich, um stundenlange Arbeit zu übersetzen. Das Team ist in der Lage, seine Ideen schneller zu iterieren, und es hilft ihm, seinen kreativen Workflow zu erweitern.“ Er fügt hinzu: „Ich nenne es Hollywood 2.0, wo jeder in der Lage sein wird, Filme und Blockbuster zu machen, zu denen zuvor nur eine Handvoll Leute in der Lage waren.“



source-96

Leave a Reply