AI w produkcji filmowej – jak sztuczna inteligencja zmienia Hollywood od środka
Cyfrowe niemowlęta, modyfikowane głosy aktorów, zmarli artyści przywróceni do życia na ekranie. To nie scenariusz filmu science fiction, lecz rzeczywistość współczesnej produkcji filmowej. Sztuczna inteligencja w kinie nie jest już ciekawostką technologiczną – stała się narzędziem, które redefiniuje sposób powstawania filmów na każdym etapie produkcji. Od blockbusterów Marvela po oscarowe dramaty, AI pojawia się w coraz większej liczbie tytułów, a wraz z jej rozprzestrzenianiem rośnie też skala kontrowersji.
W tym artykule przeglądamy konkretne, udokumentowane przypadki wykorzystania AI w głośnych produkcjach filmowych – od 2019 roku po dziś. Analizujemy, jakie technologie są stosowane, kto za nimi stoi i dlaczego branża filmowa wciąż nie potrafi się zdecydować, czy AI to zbawienie, czy zagrożenie.
Machine learning kontra generative AI – kluczowe rozróżnienie
Zanim przejdziemy do konkretnych filmów, warto wyjaśnić fundamentalną różnicę, która w publicznej dyskusji jest często pomijana. Zdecydowana większość zastosowań AI w filmach opiera się na machine learningu – uczeniu maszynowym, które analizuje istniejące dane (zdjęcia twarzy, nagrania głosu, materiał referencyjny) i na ich podstawie generuje wynik. To technologia używana do odmładzania aktorów, podmiany twarzy kaskaderów czy korekty wymowy.
Czym innym jest generative AI – sztuczna inteligencja generatywna, która tworzy zupełnie nowe treści (tekst, obrazy, wideo) na podstawie wyuczonych wzorców. To właśnie ta kategoria budzi największe obawy wśród twórców. Co ciekawe, przypadki użycia generative AI w głośnych filmach są wciąż wyjątkowo rzadkie. Nie znamy dotąd żadnego wysokoprofilowego filmu, którego scenariusz napisałby ChatGPT. Jednym z nielicznych potwierdzonych przypadków użycia AI generatywnej jest horror Late Night With The Devil, w którym technologia posłużyła do stworzenia zaledwie trzech statycznych obrazów.
Ta różnica ma ogromne znaczenie. Kiedy słyszymy, że „film X używał AI”, warto zapytać: jakiej dokładnie AI? Odpowiedź zwykle okazuje się znacznie mniej sensacyjna, niż sugerują nagłówki.
Pionierzy: AI w filmie przed erą kontrowersji (2019–2023)
The Irishman (2019) – ILM i FaceSwap
Film Martina Scorsese, rozgrywający się na przestrzeni dekad, wymagał odmłodzenia trzech głównych gwiazd: Roberta De Niro, Ala Pacino i Joe Pesciego. Studio ILM wykorzystało w tym celu autorski program FaceSwap, oparty na machine learningu. System przeanalizował setki filmów referencyjnych – od Casino i Chłopców z ferajny po Kevina samego w domu i trylogię Ojca chrzestnego.
Jak wyjaśnił artysta VFX Pablo Helman: „Po wyrenderowaniu ich występów jako młodszych aktorów przepuszczaliśmy te obrazy przez naszą bazę danych, przez program sztucznej inteligencji, który szukał zbliżonych kątów i warunków oświetleniowych. Program komputerowy generował klatki podobne do tych, które wyrenderowaliśmy.”
To jeden z najwcześniejszych udokumentowanych przypadków użycia AI w dużej produkcji filmowej – i co znamienne, w 2019 roku nie wywołał praktycznie żadnych kontrowersji.
Shang-Chi and the Legend of the Ten Rings (2021) – Rising Sun Pictures
Australijskie studio Rising Sun Pictures (RSP) – nazwa, którą warto zapamiętać, bo pojawia się w tym artykule wielokrotnie – wykorzystało machine learning do podmiany twarzy kaskaderów na twarze aktorów w scenach walk. Skala przedsięwzięcia robi wrażenie: 30 000 zdjęć twarzy, 5 modeli głównych aktorów, ponad 4 miliony iteracji treningowych, zastosowanych w sześciu sekwencjach spośród 300 ujęć, nad którymi pracowało studio.
„Użyliśmy narzędzi uczenia maszynowego do wytrenowania modeli sieci neuronowych aktorów i nałożenia ich na twarze kaskaderów walczących w scenach sztuk walki” – opisuje studio na swojej stronie. „Rezultat jest niesamowicie realistyczny i wyznacza nowy standard wiarygodności.”
Co istotne, szef RSP Tony Clark podkreślił, że jeszcze kilka lat wcześniej taki proces byłby „nie do pomyślenia” – a w momencie realizacji Shang-Chi nie wymagał już nawet specjalistycznego sprzętu.
Thor: Love and Thunder (2022) – cyfrowe niemowlę
W filmie Taiki Waititiego machine learning posłużył do stworzenia w pełni cyfrowego Baby Thora. Jako materiał referencyjny wykorzystano nagrania prawdziwego niemowlęcia – podobno syna ówczesnego szefa Disneya, Boba Chapeka. Ponownie za realizację odpowiadało Rising Sun Pictures.
Producent VFX Ian Cope wyjaśnił: „Przewaga tej techniki nad standardowymi metodami deepfake polega na tym, że performance wywodzi się z animacji wzbogaconej o wyuczoną bibliotekę materiałów referencyjnych.” W 2022 roku nikt nie zwrócił na to szczególnej uwagi. Dzisiaj – jak zobaczymy dalej – sytuacja wyglądałaby zupełnie inaczej.
Ant-Man and the Wasp: Quantumania (2023) – Vanity AI
Kanadyjskie studio MARZ stworzyło narzędzie o nazwie Vanity AI, zaprojektowane do cyfrowego odmładzania aktorów, korekty linii włosów i usuwania niedoskonałości skóry. Innymi słowy – do rzeczy, o których gwiazdy Hollywood wolałyby nie czytać w branżowych mediach. Narzędzie to wykorzystano w ujęciach z Kathryn Newton (Cassie Lang), a jak ujawnił The Hollywood Reporter, Vanity AI pojawiło się wcześniej także w Spider-Man: No Way Home, Stranger Things 4 i First Ladies.
Współzałożyciel MARZ, Lon Molnar, opisał działanie systemu: „Artysta może usiąść, na jednej klatce zamaskować obszary do poprawy – powiedzmy worki pod oczami – naprawić to na jednej klatce, a Vanity AI ekstrapoluje wynik nie tylko na całe ujęcie, ale na sekwencje ujęć.”
Indiana Jones and the Dial of Destiny (2023) – ILM FaceSwap
Film Jamesa Mangolda otwiera rozbudowana sekwencja akcji z wyraźnie odmłodzonym Harrisonem Fordem. ILM ponownie sięgnęło po FaceSwap, przeszukując niezliczone materiały referencyjne z młodszych lat aktora. Supervisor VFX Andrew Whitehurst podkreślił, że FaceSwap to nie jedno narzędzie, lecz cały zestaw technologii: 3D facial tracking, animacja keyframe, machine learning, elementy CG. „Częścią umiejętności artystów jest ustalenie, jak połączyć te narzędzia, by stworzyć właściwy przepis dla każdego ujęcia” – wyjaśnił.
Efekt, choć technicznie imponujący, nadal nie pokonał w pełni problemu doliny niesamowitości (uncanny valley) – twarze wyglądają niemal realistycznie, ale „niemal” wciąż robi różnicę.
Rok 2024 – przełom i kontrowersje
Rok 2024 okazał się punktem zwrotnym. Liczba filmów wykorzystujących AI gwałtownie wzrosła, ale jednocześnie eksplodowała publiczna świadomość i krytyka tych praktyk. To, co w 2022 roku przechodziło niezauważone, nagle stało się tematem debat o przyszłości kina.
The Fall Guy – podmiana dialogu bez dogrywki
Film Davida Leitcha, będący hołdem dla kaskaderów Hollywood, sam skorzystał z cyfrowych sztuczek. Rising Sun Pictures użyło swojego oprogramowania Revize nie tylko do podmiany twarzy (jak w Shang-Chi), ale także do zmiany linii dialogowej – postać Gail Meyer (Hannah Waddingham) mówi na ekranie kwestię, której nigdy nie wypowiedziała na planie. Zamiast kosztownej dogrywki reżyser zdecydował się na cyfrową modyfikację. Przy premierze filmu nikt tego nie zauważył.
Dune: Part Two – automatyczne oczy Fremenów
W pierwszej części Diuny (2021) lodowoniebieskie oczy mieszkańców Arrakis musiały być ręcznie dodawane przez artystów VFX w każdym ujęciu. Przy sequelu studio DNEG wykorzystało model machine learning wytrenowany na setkach ujęć z pierwszego filmu, który automatycznie wykrywał oczy aktorów i zmieniał ich kolor. To doskonały przykład AI jako narzędzia optymalizacji – zamiast zastępować artystów, technologia eliminuje żmudną, powtarzalną pracę.
Late Night With The Devil – generative AI i backlash
Niskobudżetowy horror braci Cairnes to jeden z nielicznych filmów, w których potwierdzono użycie generatywnej AI. Technologia posłużyła do stworzenia trzech statycznych obrazów pojawiających się jako krótkie przerywniki. Mimo minimalnej skali użycia kontrowersja była znacząca. Reżyserzy wydali oświadczenie, podkreślając, że obrazy były dalej edytowane ręcznie i stanowiły element eksperymentu w ramach pracy nad estetyką lat 70.
Ten przypadek dobitnie pokazuje, jak wrażliwa stała się kwestia AI – nawet marginalne zastosowanie generatywnej sztucznej inteligencji wystarczyło, by zdominować dyskusję o filmie.
Furiosa: A Mad Max Saga – blending twarzy i zmarły aktor
Film George’a Millera wykorzystał AI na dwa fascynujące sposoby. Po pierwsze, Revize posłużyło do stopniowego blendingu twarzy dziecięcej aktorki Alyi Browne z twarzą dorosłej Any Taylor-Joy – tak by postać Furiosy wyglądała coraz bardziej jak jej starsza wersja w miarę rozwoju fabuły.
Po drugie, oprogramowanie Metaphysic zostało użyte do odtworzenia postaci Bullet Farmera. Aktor Richard Carter, który grał tę rolę w Mad Max: Fury Road, zmarł w 2019 roku. W Furiosie jego wizerunek został nałożony na performance aktora Lee Perry’ego. Modele trenowano na materiałach z poprzedniego filmu. Jak opisał supervisor VFX Jo Plaete: „Skrupulatnie wytrenowaliśmy nasze modele na materiale z Mad Max: Fury Road, zapewniając idealną fuzję performancu Perry’ego i tożsamości Cartera.”
Alien: Romulus – deepfake i dolina niesamowitości
Reżyser Fede Alvarez postawił na tradycyjne techniki filmowe – kukiełki, miniatury, fizyczne dekoracje. Jednak postać androida Rooka oparto na głosie i wizerunku zmarłego Iana Holma, wykorzystując technologię Metaphysic w połączeniu z animatroniką. Reakcje widzów były mieszane, a efekty wizualne zostały po cichu poprawione na wydanie domowe. Supervisor VFX Eric Barba przyznał wprost: „Nie jest to idealne. Narzędzia są pisane i rozwijane na bieżąco, każdego dnia stają się lepsze.”
Przypadek Alien: Romulus otwiera istotną dyskusję etyczną – czy wizerunek zmarłego aktora powinien być wykorzystywany cyfrowo, nawet za zgodą spadkobierców?
Here – cyfrowy makijaż Metaphysic
Film Roberta Zemeckisa wykorzystał Metaphysic do odmładzania i postarzania Toma Hanksa oraz Robin Wright na przestrzeni całego filmu. System wytrenowany na dziesiątkach zdjęć i nagrań z młodszych lat aktorów działał jako rodzaj „cyfrowego makijażu” nakładanego na fizyczne performance. Kluczowa zaleta: technologia nie wymagała kropek na twarzach ani dodatkowych kamer. „Staje się częścią procesu produkcyjnego, zamiast mu przeszkadzać” – wyjaśnił supervisor VFX Kevin Baillie.
A Complete Unknown – trzy ujęcia na motocyklu
Biograficzny film o Bobie Dylanie, ponownie w reżyserii Jamesa Mangolda, wykorzystał Revize (Rising Sun Pictures) do podmiany twarzy kaskadera na twarz Timothée Chalameta w zaledwie trzech szerokich ujęciach na motocyklu. Rzecznik Searchlight Pictures podkreślił, że „tego typu podmiana twarzy kaskaderów jest powszechną praktyką stosowaną od dekad”. RSP informuje również, że Revize pojawiło się w filmach The Flash (2023) i Elvis Baza Luhrmanna.
The Brutalist – backlash, który mógł kosztować Oscara
Biorąc pod uwagę skalę użycia AI w innych filmach z 2024 roku, reakcja na The Brutalist Brady’ego Corbeta jest wyjątkowo symptomatyczna. AI posłużyło tu jedynie do korekty wymowy węgierskiej w dialogach Adriena Brody’ego i Felicity Jones – narzędzie Respeecher dopracowało wybrane samogłoski i litery. Żaden angielski dialog nie został zmieniony.
Mimo to kontrowersja była na tyle silna, że mogła zaszkodzić szansom filmu na Oscara. Dlaczego? Prawdopodobnie dlatego, że The Brutalist to film, który eksponuje swoje rzemiosło artystyczne – i właśnie w takim kontekście nawet minimalne użycie AI wydaje się widzom i krytykom szczególnie problematyczne.
Montażysta Dávid Jancsó ujawnił użycie Respecchera w styczniu 2024, a reżyser szybko wydał oświadczenie: „Występy Adriena i Felicity są całkowicie ich własne. Pracowali miesiącami z trenerką dialektów Tanerą Marshall, by dopracować akcenty.”
Emilia Pérez – klonowanie głosu w musicalu
Drugi oscarowy pretendent z kontrowersją AI na koncie. Film Jacquesa Audiarda wykorzystał Respeecher do modulacji wokalnego performancu Karli Sofíi Gascón w sekwencjach muzycznych. Początkowo rozważano użycie tradycyjnego dubbingu wokalnego, ale mikser dźwięku Cyril Holtz zaproponował AI do korekty nut wykraczających poza naturalny rejestr aktorki. W efekcie film łączy dwa wokalne performance w jeden – proces, który Holtz określił jako „żmudny”.
Informacja wyszła na jaw już podczas festiwalu w Cannes w maju 2024 roku, gdzie Holtz otwarcie mówił o „technologii klonowania głosu opartej na machine learningu”.
2025 i dalej – nowe zastosowania na horyzoncie
The Electric State – modulacja głosu braci Russo
Bracia Russo przyznali, że w ich sci-fi przygodówce użyto AI do modulacji głosu, choć nie sprecyzowali, w których scenach. Joe Russo bagatelizował sprawę, mówiąc, że to „coś, co każdy 10-latek mógłby zrobić po obejrzeniu filmiku na TikToku”. Jednocześnie dodał szerszą refleksję: „Jest dużo wskazywania palcem i hiperboli, bo ludzie się boją. Nie rozumieją. Ale ostatecznie zobaczysz AI używane znacznie szerzej.”
Watch The Skies – AI w lokalizacji filmów
Szwedzki film sci-fi Watch The Skies zapowiada potencjalnie przełomowe zastosowanie AI. Dystrybutor XYZ Films współpracuje z firmą Flawless AI, której technologia cyfrowo modyfikuje obraz i dźwięk tak, aby ruchy ust postaci były zsynchronizowane z angielskim dubbingiem. Oryginalny cast nagrał angielską wersję głosową.
Jeśli technologia sprawdzi się w praktyce, może zrewolucjonizować dystrybucję filmów nieanglojęzycznych. Współzałożyciel Flawless, Scott Mann, mówi: „Twórcy zdają sobie sprawę z potencjału przejścia z lokalnej sceny na globalną. To ogromna szansa.”
AI w marketingu filmowym
Osobnym polem zastosowań jest promocja filmów. Generatywna AI pojawiła się w materiałach marketingowych thrillera wojennego Civil War (krajobrazowe ujęcia wygenerowane przez AI). Marvel został oskarżony o użycie AI w materiałach promocyjnych Fantastic Four: First Steps, choć studio zaprzeczyło. Biorąc pod uwagę rosnące zastosowanie AI w reklamie (wystarczy wspomnieć kontrowersyjne reklamy Coca-Coli z 2024 roku), trend ten będzie się nasilał.
Kluczowe studia i narzędzia AI w filmie
Z analizy konkretnych przypadków wyłania się mapa głównych graczy technologicznych:
- Rising Sun Pictures (RSP) / Revize – australijskie studio dominujące w podmianach twarzy i modyfikacjach dialogu. Obecne w: Shang-Chi, Thor: Love and Thunder, The Fall Guy, A Complete Unknown, Furiosa, Elvis, The Flash.
- ILM / FaceSwap – pionierski zestaw narzędzi do de-agingu, wykorzystany w The Irishman i Indiana Jones 5.
- Metaphysic – specjaliści od deepfake i de-agingu. Kluczowe filmy: Furiosa (Bullet Farmer), Alien: Romulus (Rook), Here (Hanks/Wright).
- Respeecher – technologia modyfikacji głosu. Zastosowana w The Brutalist i Emilia Pérez.
- MARZ / Vanity AI – „cyfrowa kosmetyka” dla gwiazd. Ant-Man 3, Spider-Man: No Way Home, Stranger Things 4.
- DNEG – automatyzacja VFX (oczy Fremenów w Dune: Part Two).
- Flawless AI – lokalizacja i synchronizacja ust (Watch The Skies).
Wzorzec: od niewidzialności do kontrowersji
Analiza chronologiczna ujawnia wyraźny wzorzec. W latach 2019–2022 AI w filmach pozostawała praktycznie niezauważona. Cyfrowy Baby Thor nie wzbudził emocji. FaceSwap w The Irishman był traktowany jako ciekawostka technologiczna. Shang-Chi przeszedł bez echa.
Od 2023 roku, wraz z eksplozją publicznej świadomości na temat AI (ChatGPT, Midjourney, DALL-E), każde zastosowanie sztucznej inteligencji w filmie stało się potencjalnym źródłem skandalu. Paradoks polega na tym, że backlash jest często nieproporcjonalny do skali użycia. Korekta kilku samogłosek w The Brutalist wywołała większą burzę niż pełne cyfrowe odtworzenie zmarłego aktora w Furiosie.
To tłumaczy, dlaczego twórcy The Fall Guy nie reklamowali użycia AI, a informacje o jego obecności w Sonic the Hedgehog 3 czy Deadpool & Wolverine wyszły na jaw dopiero po premierze. Jak ujął to artysta VFX David Stripinis: „Mnóstwo ludzi używa AI, ale nie mogą się do tego publicznie przyznać, bo wciąż potrzebują artystów do wielu prac, a ci zwrócą się przeciwko nim. To w tej chwili bardziej problem PR-owy niż technologiczny.”
Praktyczne wnioski i perspektywy
Filmy wymienione w tym artykule to prawdopodobnie jedynie wierzchołek góry lodowej. Wiele przypadków znamy tylko dzięki krótkim wzmiankom na stronach studiów VFX. Oto kluczowe wnioski:
- AI nie zastępuje artystów – jeszcze. W zdecydowanej większości przypadków machine learning służy jako narzędzie wspomagające: przyspiesza żmudne procesy, eliminuje konieczność dogrywek, obniża koszty. Finalna decyzja artystyczna nadal należy do ludzi.
- Generative AI w filmach jest wciąż marginalny. Nie znamy przypadku, by ChatGPT napisał scenariusz głośnego filmu. Generatywna AI pojawiła się w zaledwie kilku produkcjach i za każdym razem wywołała kontrowersje.
- Etyka użycia wizerunków zmarłych aktorów to temat, który będzie narastał. Przypadki Iana Holma (Alien: Romulus) i Richarda Cartera (Furiosa) pokazują, że technologia już na to pozwala – pytanie, czy powinna.
- Academy rozważa obowiązkowe ujawnianie AI przy zgłoszeniach do Oscarów. To sygnał, że branża próbuje nadążyć za technologią regulacyjnie.
- Lokalizacja filmów przez AI (Flawless) może być przełomem dla globalnej dystrybucji kina nieanglojęzycznego.
- Kontekst ma znaczenie. Ta sama technologia w blockbusterze Marvela przechodzi bez echa, ale w oscarowym dramacie wywołuje burzę. Publiczność oczekuje „autentyczności” od filmów artystycznych w sposób, jakiego nie wymaga od kina rozrywkowego.
Jedno jest pewne: lista filmów wykorzystujących AI będzie się tylko wydłużać. Pytanie nie brzmi już „czy AI wejdzie do kina” – bo już tam jest. Pytanie brzmi: gdzie przebiega granica między narzędziem a oszustwem, między wsparciem a zastąpieniem. I to pytanie branża filmowa będzie sobie zadawać przez najbliższe lata – prawdopodobnie coraz głośniej.