AI w Hollywood – jak sztuczna inteligencja zmienia produkcję filmów

AI w produkcji filmowej – jak sztuczna inteligencja zmienia Hollywood od środka

Cyfrowe niemowlęta, zmienione głosy aktorów, zmarli artyści przywróceni do życia na ekranie. To nie scenariusz filmu science fiction, lecz rzeczywistość współczesnej produkcji filmowej. Sztuczna inteligencja wkroczyła do Hollywood znacznie wcześniej, niż większość widzów zdaje sobie z tego sprawę – a tempo jej adaptacji rośnie z roku na rok, wywołując jednocześnie coraz większe kontrowersje.

Niniejszy artykuł stanowi kompleksowy przegląd zastosowań AI w głośnych produkcjach filmowych – od pionierskiego The Irishman z 2019 roku po najnowsze tytuły z 2025 roku. Analizujemy konkretne technologie, studia VFX stojące za przełomowymi rozwiązaniami oraz rosnące napięcie między innowacją a etyką w branży filmowej.

Od niezauważonego narzędzia do oscarowego skandalu – krótka historia AI w kinie

Publiczna dyskusja o sztucznej inteligencji w filmie eksplodowała dopiero w latach 2023–2024, ale samo zjawisko sięga co najmniej początku dekady. W 2021 roku Marvel wykorzystał machine learning do podmiany twarzy kaskaderów w Shang-Chi – i niemal nikt nie zwrócił na to uwagi. W 2022 roku cyfrowe niemowlę stworzone przy pomocy AI pojawiło się w Thor: Love And Thunder, ponownie bez większego echa.

Tymczasem w 2024 roku użycie AI do korekty węgierskiej wymowy w The Brutalist – filmie pretendującym do Oscara – wywołało burzę na tyle silną, że mogło zaszkodzić szansom produkcji na statuetkę. Podobny los spotkał Emilia Pérez, w której AI posłużyło do modyfikacji wokalu aktorki w scenach muzycznych.

Ta ewolucja – od cichego narzędzia postprodukcyjnego do tematu gorącej debaty publicznej – doskonale ilustruje, jak szybko zmienia się percepcja technologii w branży kreatywnej. Akademia Filmowa rozważa obecnie obowiązek ujawniania użycia AI przy zgłaszaniu filmów do nagród, co byłoby precedensem w historii Oscarów.

Jakie formy AI faktycznie stosuje się w filmach?

Zanim przejdziemy do konkretnych produkcji, warto uporządkować terminologię. W kontekście filmowym mamy do czynienia przede wszystkim z dwoma kategoriami sztucznej inteligencji:

  • Machine learning (uczenie maszynowe) – dominująca forma AI w produkcji filmowej. Obejmuje de-aging (odmładzanie cyfrowe), face swap (podmianę twarzy), modyfikację głosu czy automatyczną detekcję elementów obrazu. Modele są trenowane na konkretnych danych – zdjęciach aktorów, nagraniach z poprzednich filmów – i generują wyniki na bazie wyuczonych wzorców.
  • Generatywne AI – technologia syntetyzująca nowe treści (obrazy, tekst) na bazie ogromnych zbiorów danych. W filmach pojawia się znacznie rzadziej. Do dziś nie znamy głośnej produkcji, która użyłaby ChatGPT do napisania scenariusza.

To rozróżnienie jest kluczowe, ponieważ publiczny gniew często nie uwzględnia tej różnicy. Podmiana twarzy kaskaderów metodami machine learning to w gruncie rzeczy ewolucja technik stosowanych od dekad – tyle że szybsza i tańsza. Generatywne AI, tworzące treści „z niczego”, budzi znacznie poważniejsze wątpliwości etyczne.

Mapa zastosowań – kto, co i jak wykorzystuje AI w kinie

Analiza konkretnych produkcji pozwala wyodrębnić kilka głównych obszarów zastosowań sztucznej inteligencji w procesie filmowym:

De-aging i cyfrowe odmładzanie aktorów

To zdecydowanie najczęstsze i najdłużej stosowane zastosowanie AI w filmie. Pionierem był The Irishman Martina Scorsese (2019), w którym studio ILM użyło autorskiego programu FaceSwap do odmłodzenia Roberta De Niro, Al Pacino i Joe Pesciego. System oparty na machine learningu przeszukiwał setki starszych filmów – Casino, Goodfellas, Home Alone, Ojciec Chrzestny II i III – aby znaleźć referencyjne ujęcia aktorów w młodszym wieku.

Jak opisał to artysta VFX Pablo Helman: „Po wyrenderowaniu ich występów jako młodszych aktorów przepuszczaliśmy te obrazy przez naszą bazę danych, przez program sztucznej inteligencji, który szukał podobnych kątów i warunków oświetleniowych. Program komputerowy wyrzucał klatki podobne do tych, które wyrenderowaliśmy.”

Tę samą technologię ILM zastosował cztery lata później w Indiana Jones And The Dial Of Destiny (2023), gdzie 78-letni Harrison Ford musiał wyglądać jak czterdziestolatek w rozbudowanej sekwencji otwierającej. Supervizor VFX Andrew Whitehurst podkreślał, że FaceSwap to nie jedno narzędzie, lecz cały zestaw technologii – od śledzenia 3D twarzy, przez animację kluczową, po rozwiązania oparte na machine learningu. Umiejętność artysty polega na dobraniu odpowiedniej kombinacji dla każdego ujęcia.

Osobną kategorię stanowi film Here (2024) Roberta Zemeckisa, w którym firma Metaphysic odmłodziła i postarzyła Toma Hanksa oraz Robin Wright na potrzeby narracji obejmującej wiele dekad. Technologia nie wymagała kropek na twarzach ani dodatkowych kamer – działała jak „cyfrowy makijaż” nakładany na fizyczne występy aktorów. Jak stwierdził supervisor VFX Kevin Baillie: „Staje się częścią procesu produkcyjnego, zamiast mu przeszkadzać.”

Face swap – podmiana twarzy kaskaderów

To zastosowanie, które budzi najmniej kontrowersji, a jednocześnie jest niezwykle powszechne. Podmiana twarzy kaskaderów twarzami aktorów to praktyka stosowana od dekad – AI po prostu ją przyspieszyła i potaniła.

Australijskie studio Rising Sun Pictures (RSP) stało się w tej dziedzinie absolutnym liderem. Ich oprogramowanie Revize pojawiło się w imponującej liczbie produkcji:

  • Shang-Chi And The Legend Of The Ten Rings (2021) – 300 ujęć, 6 sekwencji face swap, 30 000 obrazów twarzy dla 5 postaci, ponad 4 miliony iteracji treningu modeli. Studio opisało wynik jako „nowy standard wiarygodności”.
  • The Fall Guy (2024) – podmiana twarzy w scenach kaskaderskich, a także zmiana kwestii dialogowej aktorki Hannah Waddingham bez konieczności ponownego kręcenia sceny.
  • A Complete Unknown (2024) – zaledwie 3 szerokie ujęcia na motocyklu, w których twarz kaskadera zastąpiono twarzą Timothée Chalameta. Rzecznik Searchlight Pictures podkreślił: „Ta technologia jest powszechna przy zastępowaniu kaskaderów aktorami. Tego typu ujęcia VFX stosuje się od dekad.”
  • Furiosa: A Mad Max Saga (2024) – Revize posłużył do stopniowego łączenia rysów dziecięcej aktorki Alyi Browne z twarzą dorosłej Anyi Taylor-Joy, tworząc płynne przejście między postaciami w miarę postępu narracji.

Warto zauważyć, jak szybko technologia dojrzewała. Dyrektor zarządzający RSP Tony Clark stwierdził przy okazji Shang-Chi: „To byłoby nie do pomyślenia jeszcze kilka lat temu. To, co było kosztownym, pracochłonnym procesem, jest teraz w rękach machine learningu, bez specjalistycznego sprzętu.”

Modyfikacja głosu i wymowy

To obszar, który w 2024 roku stał się epicentrum kontrowersji. Firma Respeecher, specjalizująca się w klonowaniu głosu za pomocą AI, znalazła się w centrum dwóch głośnych skandali oscarowych.

W The Brutalist (2024) technologia Respeechera posłużyła do korekty węgierskiej wymowy Adriena Brody’ego i Felicity Jones. Montażysta Dávid Jancsó ujawnił ten fakt w styczniu 2024, wywołując burzę. Reżyser Brady Corbet bronił się: „Występy Adriena i Felicity są całkowicie ich własne. Pracowali miesiącami z trenerką dialektów. Technologia Respeecher została użyta wyłącznie w edycji dialogów węgierskich – konkretnie do doprecyzowania pewnych samogłosek i liter.”

W Emilia Pérez (2024) ta sama technologia posłużyła do modyfikacji wokalu Karli Sofíi Gascón w scenach muzycznych. Mikser dźwięku Cyril Holtz otwarcie mówił o tym na festiwalu w Cannes, opisując proces jako „żmudne łączenie dwóch wykonań wokalnych w jedno” – AI korygowało nuty wykraczające poza naturalny rejestr aktorki.

Bracia Russo poszli podobną drogą w The Electric State (2025), używając AI do modulacji głosu, choć nie ujawnili szczegółów. Joe Russo bagatelizował sprawę: „To coś, co każdy dziesięciolatek mógłby zrobić po obejrzeniu filmu na TikToku.” Jednocześnie dodał znacznie poważniejszą refleksję: „Jest dużo wskazywania palcem i hiperboli, bo ludzie się boją. Nie rozumieją. Ale ostatecznie AI będzie używane coraz szerzej.”

Automatyzacja powtarzalnych zadań VFX

Mniej spektakularne, ale niezwykle praktyczne zastosowanie AI dotyczy automatyzacji żmudnych, powtarzalnych procesów. Doskonałym przykładem jest Dune: Part Two (2024). W pierwszym filmie Denisa Villeneuve’a lodowoniebieskie oczy Fremenów musiały być dodawane ręcznie przez artystów VFX w każdym ujęciu. Dla sequela studio DNEG wytrenowało model AI na setkach ujęć z pierwszego filmu, tworząc algorytm automatycznie wykrywający oczy aktorów i zmieniający ich kolor.

Supervisor VFX Paul Lambert wyjaśnił: „Stworzyliśmy model machine learning, algorytm wytrenowany na ujęciach z Dune, aby znajdował ludzkie oczy w obrazie i dawał nam maskę dla różnych części oka. Następnie użyliśmy tej wieloczęściowej maski do zabarwienia oczu na niebiesko.”

Innym przykładem jest Vanity AI – oprogramowanie studia MARZ, użyte m.in. w Ant-Man And The Wasp: Quantumania (2023). Narzędzie to cyfrowo odmładza, koryguje linię włosów lub usuwa niedoskonałości skóry – dokładnie te rzeczy, o których wielkie gwiazdy wolałyby nie czytać w branżowych mediach. Współzałożyciel MARZ Lon Molnar opisał proces: „Artysta siada, maskuje obszary do poprawki na jednej klatce, a Vanity AI ekstrapoluje to nie tylko na całe ujęcie, ale na sekwencje ujęć.” Technologia ta była również stosowana w Spider-Man: No Way Home i Stranger Things 4.

Cyfrowa „rezurekcja” zmarłych aktorów

To zastosowanie budzi chyba największe wątpliwości etyczne. W Alien: Romulus (2024) reżyser Fede Alvarez odtworzył postać Rooka na bazie głosu i wyglądu zmarłego Iana Holma, łącząc animatronikę z technologią deepfake firmy Metaphysic. Reakcje były mieszane – efekty zostały po cichu poprawione na potrzeby wydania domowego. Twórcy podkreślali, że wizerunek Holma został użyty za zgodą jego spadkobierców.

Supervisor VFX Eric Barba przyznał otwarcie: „Sposób, w jaki Rook został zrobiony – nie jest doskonały. Narzędzia są pisane i dopracowywane na bieżąco, i każdego dnia stają się lepsze. Jest znacznie szybciej, lepsze wyniki i zdecydowanie bardziej przystępne cenowo dla produkcji ze skromnymi budżetami.”

Podobny mechanizm zastosowano w Furiosa (2024), gdzie firma Metaphysic odtworzyła postać Bullet Farmera – łącząc występ aktora Lee Perry’ego z wizerunkiem Richarda Cartera, który zagrał tę rolę w Mad Max: Fury Road, ale zmarł w 2019 roku. Model był trenowany na materiałach z oryginalnego filmu.

Przypadek generatywnego AI – dlaczego budzi największy opór

Wśród wszystkich omawianych produkcji tylko jedna otwarcie przyznała się do użycia generatywnego AI – tego samego typu technologii, który stoi za narzędziami takimi jak DALL-E czy Midjourney. Niskobudżetowy horror Late Night With The Devil (2024) wykorzystał generatywne AI do stworzenia trzech statycznych obrazów pojawiających się jako krótkie przejścia między scenami.

Reakcja była nieproporcjonalnie silna w stosunku do skali użycia. Reżyserzy Cameron i Colin Cairnes wydali oświadczenie: „We współpracy z naszym wspaniałym zespołem graficznym i scenograficznym eksperymentowaliśmy z AI przy trzech nieruchomych obrazach, które dalej edytowaliśmy i które pojawiają się jako bardzo krótkie przejścia w filmie.”

Ten przypadek dobrze ilustruje, dlaczego generatywne AI jest postrzegane inaczej niż machine learning w VFX. Podmiana twarzy kaskaderów to narzędzie wspomagające istniejący proces. Generatywne AI tworzy coś nowego – potencjalnie zastępując pracę artystów, ilustratorów, grafików. Stąd znacznie silniejszy opór.

Przyszłość – AI jako narzędzie lokalizacji i dystrybucji

Jednym z najciekawszych kierunków rozwoju jest wykorzystanie AI do lokalizacji filmów na rynki zagraniczne. Szwedzki film science fiction Watch The Skies (2025) jako jeden z pierwszych zastosuje technologię firmy Flawless, która cyfrowo zmienia obraz i dźwięk tak, aby ruchy ust postaci były idealnie zsynchronizowane z angielskim dubbingiem – przy zachowaniu oryginalnych głosów aktorów.

Współzałożyciel Flawless Scott Mann widzi w tym ogromną szansę: „Filmowcy zdają sobie sprawę z potencjału przejścia z lokalnej sceny na globalną. To ogromna okazja, żeby dotrzeć ze swoją pracą do szerszej publiczności, zwłaszcza w Ameryce.”

Jeśli technologia sprawdzi się w praktyce, może zrewolucjonizować dystrybucję kina niezależnego i europejskiego – eliminując barierę językową bez utraty autentyczności występów aktorskich.

AI w marketingu filmowym – osobny front

Warto odnotować, że sztuczna inteligencja przenika również do promocji filmów. Generatywne AI posłużyło do stworzenia krajobrazów w materiałach promocyjnych thrillera wojennego Civil War studia A24. Marvel był oskarżany o użycie AI w kampanii Fantastic Four: First Steps, choć studio zaprzeczyło. W kontekście coraz powszechniejszego stosowania AI w reklamie (pamiętne, kontrowersyjne świąteczne reklamy Coca-Coli z 2024 roku), trend ten będzie narastał.

Jak trafnie ujął to artysta VFX David Stripinis: „Jest mnóstwo ludzi, którzy używają AI, ale nie mogą się do tego publicznie przyznać, bo wciąż potrzebują artystów do wielu prac i ci artyści obrócą się przeciwko nim. W tej chwili to bardziej problem PR-owy niż technologiczny.”

Kluczowe studia VFX kształtujące przyszłość AI w filmie

Analiza konkretnych produkcji ujawnia kilku dominujących graczy:

  • Rising Sun Pictures (RSP) – australijskie studio, którego oprogramowanie Revize pojawiło się w co najmniej sześciu głośnych produkcjach (Shang-Chi, Thor: Love And Thunder, The Fall Guy, A Complete Unknown, Furiosa, a także The Flash i Elvis). Specjalizacja: face swap i cyfrowe podwójniki.
  • Metaphysic – firma odpowiedzialna za de-aging w Here, cyfrową rezurekcję w Alien: Romulus i Furiosa. Ich technologia „neuralnego transferu występu” pozwala przenosić ekspresję jednego aktora na wizerunek innego.
  • ILM (Industrial Light & Magic) – legendarne studio Lucasfilm z autorskim FaceSwap, zastosowanym w The Irishman i Indiana Jones.
  • Respeecher – ukraińska firma specjalizująca się w klonowaniu głosu, odpowiedzialna za kontrowersyjne korekty wokalne w The Brutalist i Emilia Pérez.
  • MARZ – kanadyjskie studio tworzące Vanity AI, narzędzie do „cyfrowej kosmetyki” stosowane dyskretnie w dziesiątkach produkcji.

Wnioski praktyczne – co wynika z tej analizy

Przegląd zastosowań AI w filmach od 2019 do 2025 roku pozwala sformułować kilka kluczowych obserwacji:

  • AI w filmie to przede wszystkim machine learning, nie generatywne AI. Zdecydowana większość zastosowań dotyczy usprawnienia istniejących procesów VFX – nie tworzenia treści od zera. To ważne rozróżnienie, które często ginie w publicznej debacie.
  • Skala użycia jest znacznie większa, niż wiemy. Filmy wymienione w tego typu raportach to – jak sami autorzy przyznają – jedynie wierzchołek góry lodowej. Wiele zastosowań jest celowo nieujawnianych, a informacje o nich wychodzą na jaw przypadkowo, np. z wpisów na stronach studiów VFX.
  • Kontrowersje rosną szybciej niż sama technologia. W 2022 roku cyfrowe niemowlę AI przeszło niezauważone. W 2024 roku korekta samogłosek w węgierskim dialogu może kosztować Oscara. Branża nie wypracowała jeszcze spójnych standardów transparentności.
  • Koszty i czas produkcji spadają dramatycznie. To, co jeszcze kilka lat temu wymagało specjalistycznego sprzętu i miesięcy pracy, dziś realizowane jest szybciej, taniej i z lepszymi wynikami. Dla produkcji ze skromnymi budżetami to przełom.
  • Dolina niesamowitości (Uncanny Valley) pozostaje wyzwaniem. Mimo postępów technologicznych cyfrowe odmładzanie i rezurekcja nadal nie zawsze przekonują – czego dowodzą mieszane reakcje na Rooka w Alien: Romulus czy de-aging w Here.
  • Kwestia zgody i etyki staje się coraz bardziej paląca. Użycie wizerunku zmarłych aktorów, nawet za zgodą spadkobierców, otwiera poważne pytania o granice technologii w sztuce.

Co dalej? Perspektywy na najbliższe lata

Wszystko wskazuje na to, że AI będzie w kinie obecne coraz szerzej – niezależnie od kontrowersji. Kluczowe kierunki rozwoju to lokalizacja filmów (technologia Flawless), coraz doskonalsze cyfrowe podwójniki, automatyzacja powtarzalnych zadań VFX oraz – potencjalnie – głębsza ingerencja w postprodukcję dźwięku.

Jednocześnie branża stoi przed koniecznością wypracowania jasnych zasad. Czy Akademia Filmowa wprowadzi obowiązek deklarowania użycia AI? Czy studia będą transparentne, czy raczej będą ukrywać zastosowania, ryzykując znacznie większy skandal w razie ich ujawnienia? Czy widzowie ostatecznie zaakceptują cyfrowe manipulacje, jeśli będą wystarczająco przekonujące?

Jedno jest pewne: lista filmów wykorzystujących sztuczną inteligencję będzie się tylko wydłużać. A granica między tym, co „autentyczne”, a tym, co „wspomagane przez AI”, będzie coraz trudniejsza do wytyczenia – zarówno dla twórców, jak i dla publiczności.