AI w produkcji filmowej – jak sztuczna inteligencja zmienia Hollywood od środka
Cyfrowe niemowlęta, zmodyfikowane głosy, zmarli aktorzy przywróceni do życia na ekranie. Sztuczna inteligencja w przemyśle filmowym nie jest już wizją przyszłości – to codzienność, która kształtuje filmy, jakie oglądamy w kinach od co najmniej kilku lat. Jednocześnie mało który temat budzi w branży tyle emocji, kontrowersji i obaw co właśnie AI. Z jednej strony twórcy efektów wizualnych mówią o rewolucji, z drugiej – Akademia Filmowa rozważa obowiązek ujawniania użycia sztucznej inteligencji przy zgłaszaniu filmów do Oscara.
Jak wygląda rzeczywista mapa zastosowań AI w kinematografii? Które filmy korzystały z tych narzędzi, w jaki sposób i z jakimi konsekwencjami? Poniżej przedstawiamy kompleksowy przegląd tego zjawiska – od pierwszych eksperymentów po głośne skandale, które mogły kosztować twórców najważniejsze nagrody w branży.
Machine learning kontra generatywne AI – kluczowe rozróżnienie
Zanim przejdziemy do konkretnych przykładów, warto zrozumieć fundamentalną różnicę między dwoma rodzajami sztucznej inteligencji, które pojawiają się w kontekście produkcji filmowej. To rozróżnienie jest kluczowe, ponieważ determinuje zarówno sposób wykorzystania technologii, jak i skalę kontrowersji, jakie ona wywołuje.
Machine learning (uczenie maszynowe) to technologia, która analizuje ogromne ilości danych – zdjęć, nagrań wideo, próbek dźwiękowych – i na ich podstawie uczy się rozpoznawać wzorce oraz generować wyniki dopasowane do konkretnego zadania. W filmie służy przede wszystkim do:
- cyfrowego odmładzania aktorów (de-aging),
- zastępowania twarzy kaskaderów twarzami aktorów (face replacement),
- korekcji kosmetycznej – usuwania niedoskonałości skóry, zmiany linii włosów,
- automatycznego wykrywania i modyfikowania elementów obrazu (np. koloru oczu),
- klonowania i modulacji głosu.
Generatywne AI (takie jak ChatGPT, DALL-E czy Midjourney) działa inaczej – syntetyzuje pracę artystów i twórców, tworząc od podstaw nowe obrazy, teksty czy dźwięki. I to właśnie ta kategoria budzi największy opór. Co istotne, do dziś nie znamy głośnego przypadku filmu, w którym ChatGPT napisałby scenariusz. Generatywne AI w produkcjach kinowych pojawia się marginalnie – głównie w materiałach promocyjnych lub, jak w przypadku filmu Late Night with the Devil, w kilku statycznych obrazkach.
To rozróżnienie jest kluczowe dla zrozumienia całej debaty. Większość zastosowań AI w filmach to zaawansowane narzędzia machine learning, które wspierają pracę artystów VFX – a nie zastępują ludzką kreatywność od zera.
Chronologia: od niezauważonych początków do globalnych kontrowersji
2019–2022: Cicha rewolucja
Historia AI w dużych produkcjach filmowych zaczyna się od Irlandczyka Martina Scorsese (2019). Studio ILM użyło programu FaceSwap – narzędzia opartego na uczeniu maszynowym – aby odmłodzić Roberta De Niro, Al Pacino i Joe Pesciego. System przeanalizował setki tytułów z filmografii aktorów, w tym Casino, Chłopców z ferajny czy Ojca chrzestnego II, szukając ujęć z podobnymi kątami i warunkami oświetleniowymi.
Jak opisał to artysta VFX Pablo Helman: „Po wyrenderowaniu ich występów jako młodszych aktorów przepuszczaliśmy te obrazy przez naszą bazę danych, przez program sztucznej inteligencji, który szukał podobnych kątów i warunków oświetleniowych. Program komputerowy wyrzucał klatki podobne do tych, które wyrenderowaliśmy.”
Dwa lata później australijskie studio Rising Sun Pictures (RSP) zastosowało machine learning w Shang-Chi i legendzie dziesięciu pierścieni (2021). W sześciu sekwencjach twarze kaskaderów zostały zastąpione twarzami aktorów – proces wymagał 30 000 zdjęć twarzy pięciu postaci i ponad 4 milionów iteracji treningowych. Był to jeden z najwcześniejszych przykładów technologii deepfake w filmie fabularnym, a mimo to przeszedł praktycznie bez echa.
W Thor: Miłość i grom (2022) to samo studio RSP wykorzystało uczenie maszynowe do stworzenia cyfrowego niemowlęcia – Baby Thora. Prawdziwe dziecko (podobno syn ówczesnego szefa Disneya Boba Chapeka) posłużyło jako materiał referencyjny, na podstawie którego stworzono w pełni cyfrową postać. I znów – nikt nie zwrócił na to uwagi.
Dyrektor zarządzający RSP, Tony Clark, podsumował to trafnie: „To byłoby nie do pomyślenia kilka lat temu. To, co było kosztownym, pracochłonnym procesem, teraz jest w rękach machine learningu, bez specjalnego sprzętu.”
2023: Przyspieszenie i pierwsze sygnały ostrzegawcze
Rok 2023 przyniósł wyraźne przyspieszenie. Kanadyjskie studio MARZ ujawniło, że jego narzędzie Vanity AI – program do cyfrowego odmładzania, korekcji linii włosów i usuwania niedoskonałości skóry – zostało użyte w Ant-Man i Osa: Kwantumania w ujęciach z Kathryn Newton. To samo oprogramowanie pracowało wcześniej przy Spider-Man: Bez drogi do domu, Stranger Things 4 i First Ladies.
Współzałożyciel MARZ, Lon Molnar, opisał działanie narzędzia: „Artysta siada, na jednej klatce maskuje obszary, które chcemy poprawić – powiedzmy, worki pod oczami. Poprawiasz ten jeden kadr, a Vanity AI ekstrapoluje to nie tylko na całe ujęcie, ale na sekwencje ujęć.” To technologia, która prawdopodobnie jest stosowana w dziesiątkach filmów, o czym widzowie nigdy się nie dowiedzą – bo dotyczy kwestii, o których gwiazdy Hollywood wolałyby nie czytać w branżowej prasie.
W tym samym roku Indiana Jones i artefakt przeznaczenia otworzył się rozbudowaną sekwencją akcji z wyraźnie odmłodzonym Harrisonem Fordem. ILM ponownie użyło FaceSwap, przeszukując niezliczone materiały referencyjne z młodszych lat aktora. Jak przyznał supervisor VFX Andrew Whitehurst, FaceSwap to nie jedno narzędzie, lecz „autorski zestaw narzędzi obejmujący śledzenie twarzy 3D, animację klatkową, rozwiązania oparte na machine learningu, wykorzystanie materiału źródłowego lub pełne CGI tam, gdzie to stosowne”.
Jednocześnie w 2023 roku Marvel wywołał kontrowersje, używając generatywnego AI do stworzenia czołówki serialu Secret Invasion. To był inny rodzaj zastosowania – i spotkał się z zupełnie inną reakcją niż machine learning w efektach wizualnych.
2024: Rok przełomu – i backlashu
Rok 2024 okazał się punktem zwrotnym. Liczba filmów korzystających z AI gwałtownie wzrosła, ale równocześnie eksplodowała publiczna świadomość i sprzeciw wobec tej technologii. To paradoks, który definiuje obecny moment w branży: im więcej AI w filmach, tym głośniejszy protest.
Diuna: Część druga stanowi przykład eleganckiego, pragmatycznego zastosowania. W pierwszej części lodowoniebieskie oczy Fremenów musiały być ręcznie dodawane przez artystów VFX klatka po klatce. Przy sequelu studio DNEG wytrenowało algorytm na setkach ujęć z pierwszego filmu, tworząc model machine learning, który automatycznie wykrywał oczy aktorów i zmieniał ich kolor. Jak wyjaśnił supervisor VFX Paul Lambert: „Stworzyliśmy model uczenia maszynowego, algorytm wytrenowany na ujęciach z Diuny, aby znajdować ludzkie oczy w obrazie, a następnie dawać nam matę dla różnych części oka.”
Z kolei Furiosa: Saga Mad Max George’a Millera wykorzystała technologię na dwóch poziomach. Po pierwsze, narzędzie Revize studia Rising Sun Pictures posłużyło do stopniowego łączenia rysów dziecięcej aktorki Alyi Browne z twarzą dorosłej Anyi Taylor-Joy – tak, by twarz Furiosy ewoluowała wraz z narracją. Po drugie, oprogramowanie Metaphysic pozwoliło przywrócić na ekran postać Bullet Farmera, łącząc grę aktora Lee Perry’ego z wizerunkiem Richarda Cartera, który zagrał tę rolę w Mad Max: Na drodze gniewu, ale zmarł w 2019 roku.
Alien: Romulus poszedł jeszcze dalej w kwestii przywracania zmarłych aktorów. Postać androida Rooka oparto na głosie i wizerunku nieżyjącego Iana Holma, wykorzystując kombinację animatroniki i technologii deepfake Metaphysic. Reakcje widzów były mieszane, a efekty zostały po cichu poprawione na wydanie domowe. Supervisor VFX Eric Barba przyznał wprost: „Nie jest doskonały. Narzędzia są pisane i udoskonalane na bieżąco, i każdego dnia stają się lepsze.”
Film Here Roberta Zemeckisa zastosował Metaphysic do odmładzania i postarzania Toma Hanksa i Robin Wright przez całą narrację obejmującą wiele dekad. Technologia działała jak „cyfrowy makijaż” nakładany na fizyczne występy aktorów, bez potrzeby umieszczania markerów na twarzach czy stosowania dodatkowych kamer. Supervisor VFX Kevin Baillie podkreślał: „Staje się częścią procesu produkcyjnego, zamiast mu przeszkadzać.”
The Fall Guy Davida Leitcha – film będący hołdem dla kaskaderów Hollywood – również skorzystał z Revize do zamiany twarzy, a nawet do zmiany jednej linii dialogowej aktorki Hannah Waddingham, zamiast organizować kosztowną dodatkową sesję zdjęciową. Fakt ten przeszedł bez komentarza w momencie premiery.
Oscary i AI: przypadki The Brutalist i Emilia Pérez
Jeśli zastosowania AI w blockbusterach VFX przechodzą stosunkowo bezboleśnie, to w filmach pretendujących do Oscara sytuacja wygląda diametralnie inaczej. Dwa przypadki z 2024 roku pokazują to z brutalną wyrazistością.
The Brutalist Brady’ego Corbeta – ambitny, trwający ponad trzy godziny dramat o architekcie – wywołał burzę, gdy montażysta Dávid Jancsó ujawnił w styczniu 2024 roku, że użył narzędzia firmy Respeecher do poprawienia węgierskiej wymowy Adriena Brody’ego i Felicity Jones. Nie chodziło o zmianę dialogów w języku angielskim ani o zastąpienie aktorskich występów – jedynie o doprecyzowanie samogłosek i liter w węgierskich kwestiach. Mimo to reakcja była gwałtowna.
Reżyser bronił się: „Występy Adriena i Felicity są całkowicie ich własne. Pracowali miesiącami z trenerką dialektu Tanerą Marshall, aby udoskonalić akcenty. Technologia Respeecher została użyta wyłącznie w montażu dialogów węgierskich, aby doprecyzować pewne samogłoski i litery.” Ale szkoda wizerunkowa mogła już być nieodwracalna w kontekście oscarowego wyścigu.
Emilia Pérez Jacques’a Audiarda – transowy gangsterski musical – również korzystała z Respeecher, tym razem do modulacji wokalnego występu Karli Sofíi Gascón w sekwencjach muzycznych. Informacja wyszła na jaw już na festiwalu w Cannes, gdzie mikser dźwięku Cyril Holtz otwarcie mówił o użyciu „technologii klonowania głosu opartej na uczeniu maszynowym”. Początkowo rozważano tradycyjnego dublera wokalnego, ale ostatecznie zdecydowano się na AI, które dostosowywało występ aktorki w nutach wykraczających poza jej naturalny rejestr. Holtz opisał cały proces jako „żmudny”.
Dlaczego te dwa filmy spotkał tak ostry backlash, podczas gdy użycie AI w Diunie czy The Fall Guy przeszło bez echa? Prawdopodobnie dlatego, że filmy oscarowe noszą na sztandarze artystyczną autentyczność. Widzowie i krytycy oczekują, że w takim filmie każdy element – od gry aktorskiej po wymowę – jest wynikiem ludzkiego wysiłku. AI, nawet użyte w minimalnym zakresie, podważa tę narrację.
Kluczowi gracze: studia VFX i ich narzędzia
Analiza filmów korzystających z AI ujawnia powtarzające się nazwy – kilka studiów i narzędzi dominuje ten krajobraz:
- ILM (Industrial Light & Magic) – FaceSwap: autorski zestaw narzędzi do de-agingu i face replacement, używany od Irlandczyka po Indianę Jonesa.
- Rising Sun Pictures (RSP) – Revize: oprogramowanie łączące machine learning z artystycznym podejściem, stosowane w Shang-Chi, Thor: Miłość i grom, The Fall Guy, Furiosie, A Complete Unknown, The Flash i Elvisie.
- Metaphysic.ai – neural performance toolset: technologia deepfake używana do przywracania wizerunków zmarłych aktorów (Alien: Romulus, Furiosa) i dynamicznego de-agingu (Here).
- MARZ – Vanity AI: narzędzie do cyfrowej „kosmetyki” – odmładzania, korekcji skóry, zmiany linii włosów. Używane w Ant-Man 3, Spider-Man: No Way Home, Stranger Things 4.
- Respeecher – klonowanie i korekcja głosu, zastosowane w The Brutalist i Emilia Pérez.
- DNEG – automatyzacja powtarzalnych zadań VFX za pomocą machine learning (Diuna: Część druga).
- Flawless AI – technologia synchronizacji ust z dubbingiem, zastosowana w nadchodzącym filmie Watch The Skies.
Szczególnie warto zwrócić uwagę na Rising Sun Pictures – to studio pojawia się przy zaskakująco dużej liczbie produkcji i wydaje się jednym z pionierów stosowania machine learning w mainstreamowym kinie.
Przywracanie zmarłych aktorów – granica etyczna
Jednym z najbardziej kontrowersyjnych zastosowań AI w filmie jest rekonstrukcja wizerunków i głosów zmarłych aktorów. Trzy przypadki z 2024 roku pokazują różne podejścia do tego problemu:
- Alien: Romulus – Ian Holm (zmarły w 2020): użyto Metaphysic do odtworzenia jego wizerunku i głosu za zgodą rodziny. Efekt spotkał się z mieszanymi reakcjami i został poprawiony na wydanie domowe.
- Furiosa – Richard Carter (zmarły w 2019): Metaphysic połączył grę aktora Lee Perry’ego z wizerunkiem Cartera, trenując model na materiale z Mad Max: Na drodze gniewu.
- Irlandczyk – choć aktorzy żyli, technologia de-agingu postawiła pytanie o granicę między „poprawieniem” a „zastąpieniem” występu.
Te przypadki otwierają fundamentalne pytania: Czy zgoda rodziny wystarczy? Gdzie kończy się hołd, a zaczyna eksploatacja? I czy widzowie powinni być informowani, że postać na ekranie to cyfrowa rekonstrukcja zmarłego człowieka?
AI w marketingu filmowym – osobny front
Oprócz samej produkcji, sztuczna inteligencja wkrada się również do promocji filmów. Studio A24 użyło wygenerowanych przez AI krajobrazów w materiałach promocyjnych thrillera wojennego Civil War Alexa Garlanda. Marvel został oskarżony o zastosowanie AI w materiałach do Fantastic Four: Pierwsze kroki, choć studio zaprzeczyło. W kontekście coraz powszechniejszego stosowania AI w reklamie – wystarczy przypomnieć koszmarnie wyglądające świąteczne reklamy Coca-Coli – ten trend będzie się nasilał.
Nadchodzące zastosowania: dubbing z synchronizacją ust
Jednym z najbardziej obiecujących – i potencjalnie rewolucyjnych – zastosowań AI jest technologia firmy Flawless AI, która zostanie użyta w szwedzkim filmie science fiction Watch The Skies. Zamiast tradycyjnego dubbingu, oprogramowanie cyfrowo zmienia obraz i dźwięk tak, aby ruchy ust postaci były idealnie zsynchronizowane z angielską wersją dialogów. Oryginalna obsada nagrała również angielskojęzyczną wersję.
Współzałożyciel Flawless, Scott Mann, widzi w tym ogromny potencjał: „Filmowcy zdają sobie sprawę z możliwości przejścia z lokalnej sceny na globalną. To ogromna szansa, żeby pokazać swoją pracę szerszej publiczności.”
Jeśli ta technologia okaże się skuteczna w praktyce, może zrewolucjonizować dystrybucję filmów nieanglojęzycznych – eliminując barierę napisów i sztucznego dubbingu, która od zawsze ograniczała zasięg kina europejskiego czy azjatyckiego.
Problem PR, nie problem technologiczny
Artysta VFX David Stripinis trafnie podsumował obecną sytuację w rozmowie z The Hollywood Reporter: „Mnóstwo ludzi używa AI, ale nie mogą się do tego przyznać publicznie, bo wciąż potrzebują artystów do wielu prac, a ci zwrócą się przeciwko nim. W tej chwili to bardziej problem PR-owy niż technologiczny.”
Ta obserwacja wyjaśnia, dlaczego twórcy The Fall Guy nie reklamowali użycia AI, dlaczego jego obecność w Sonic the Hedgehog 3 czy Deadpool & Wolverine wyszła na jaw dopiero po czasie, i dlaczego prawdopodobnie znamy jedynie wierzchołek znacznie większej góry lodowej.
Joe Russo, reżyser The Electric State, który otwarcie przyznał się do użycia AI do modulacji głosu, skomentował to szerzej: „Jest dużo wskazywania palcem i hiperboli, bo ludzie się boją. Nie rozumieją. Ale ostatecznie zobaczycie AI używane coraz bardziej znacząco. Nie można powierzyć krytycznych zadań czemuś, co halucynuje – dlatego samochody autonomiczne nie przejęły rynku, a chirurgia AI nie jest powszechna. Ale w stanie generatywnym AI najlepiej nadaje się do kreatywności.”
Wnioski: co to oznacza dla przyszłości kina
Analiza zastosowań AI w filmach od 2019 do 2025 roku prowadzi do kilku kluczowych wniosków:
- Normalizacja jest nieunikniona. Machine learning w efektach wizualnych staje się standardem branżowym – tak jak kiedyś green screen czy CGI. Narzędzia takie jak Revize, Vanity AI czy FaceSwap są już używane w dziesiątkach produkcji, często bez wiedzy widzów.
- Granica akceptacji przebiega między machine learning a generatywnym AI. Branża i publiczność wydają się tolerować AI jako narzędzie wspierające artystów (zmiana koloru oczu, face replacement kaskaderów), ale reagują alergicznie na generatywne AI, które tworzy treści od zera.
- Kontekst decyduje o reakcji. Ten sam rodzaj technologii wywołuje zupełnie inne reakcje w blockbusterze VFX i w filmie pretendującym do Oscara. Artystyczne ambicje podnoszą stawkę.
- Transparentność stanie się obowiązkowa. Plany Akademii Filmowej dotyczące obowiązkowego ujawniania użycia AI to dopiero początek. Branża będzie musiała wypracować standardy informowania widzów.
- Etyka cyfrowej rekonstrukcji zmarłych aktorów wymaga regulacji. Zgoda rodziny to minimum, ale pytania o godność, pamięć i artystyczną integralność pozostają otwarte.
- AI nie zastępuje (jeszcze) ludzkiej kreatywności w kinie. Żaden z opisanych przypadków nie dotyczy scenariusza napisanego przez ChatGPT ani filmu wyreżyserowanego przez algorytm. AI pozostaje narzędziem – potężnym, ale wciąż zależnym od decyzji ludzkich twórców.
Filmy wymienione w tym artykule to prawdopodobnie jedynie fragment pełnego obrazu. Wiele zastosowań AI istnieje tylko jako krótka wzmianka na stronie studia VFX, a wiele innych nigdy nie zostanie ujawnionych. Jedno jest pewne: sztuczna inteligencja w produkcji filmowej to nie chwilowa moda, lecz trwała zmiana technologicznego krajobrazu – zmiana, z którą branża, regulatorzy i widzowie dopiero uczą się żyć.