Rozhovor s Davidem Havranem Spáčilem: tvorba genAI videí nerozeznatelných od reality je čím dál jednodušší. Zahýbá to i se světem reklamy

29. 10. 2025 | Petr Michl


David Havran Spáčil (s mikrofonem) s šéfredaktorem Marketing Journalu, Petrem Michlem, během panelové diskuze v rámci předminulého ročníku konference Pravidla se změnila.

David Spáčil je muž mnoha příběhů, kterému nikdo neřekne jinak než Havran. Od etologie velbloudů přes džungle, hory a pouště pěti kontinentů až po vývoj počítačových her, tvorbu virálů nebo propojování kreativity a inovací ve světě startupů.

Po dokončení Fakulty výtvarných umění a práci na několika herních projektech pro Altar Interactive spoluzaložil kreativní studio Cabinet, nastartoval komunitní portál Videodrom, globální videoprodukční platformu Videoflot.com či neziskovou organizaci in.dust, která se už od roku 2008 zabývá novými cestami vizuality ve filmu a videu.

Poslední tři roky je zcela ponořen do průzkumu nových obzorů, které se tvůrcům díky propojení kreativních oborů s umělou inteligencí otevírají. V současnosti patří mezi nejvyhledávanější lektory tvorby videa s pomocí AI nástrojů a věnuje se platformě pravidlasezmenila.cz, která pořádá mimo jiné konferenci o využití umělé inteligence pro kreativce. Další ročník, na kterém vystoupí mimo jiné i Michal Pastier nebo Jindřich Fáborský, se koná už 6. listopadu. Necelá dva týdny předtím jsem si s Havranem popovídal o tom, kam se AI video za poslední rok posunulo. 

 

Jaký je podle tebe největší posun schopností genAI videa oproti loňsku?

Obrovský. Hlavně kvalita obrazu – dynamika, fyzika, pohyb objektů. Tam se to za 12 měsíců posunulo výrazně dopředu. A teď už to není jen obraz – nové generátory umí i zvuk, dialogy, mluvící postavy. To je zásadní zlom. Přišel s tím Google u Veo 3 a krátce po něm OpenAI se Sorou 2 a Wan 2.2.

To nejlepší, co jsem viděl zhruba před rokem, byl dvouminutový genAI kraťas Dead Sea z pirátského prostředí. Pouštěl ho na tebou pořádané konferenci Pravidla se změnila genAI video guru Tim Simmons jako testament toho, „kam jsme se dostali“. Ač je video dokonce z července 2024, vyniká tím, že je z jednoho prostředí, postavy v něm mluví a má i nějaký příběh.

Naprostá většina genAI videí z roku 2024 a dříve je totiž silná spíše jen, když jde o jakýsi showreel – rychlý sled vizuálně zajímavých záběrů bez dialogů. To bylo dáno složitostí tvorby dialogů i udržením konzistence záběrů na úrovni charakterů i dalších aspektů. Mají to nyní videotvůrci v tomto ohledu lehčí?



Ano, Veo 3 a nyní zejména Sora 2 znamenají velký průlom v dialozích. Charaktery ve Veo 3.1 jsou pak mnohem lepší v mimice tváře, ve vyjadřování emocí. Připomíná to už herectví.

Velký rozdíl je i v ovladatelnosti. Kdo chce jít víc do hloubky, může používat JSON prompting – AI pak čte zadání strukturovaně, ne jako volný text. U modelů, které mají pod kapotou i jazykový model, to pomáhá popsat scénu přesně (čas, typ záběru, co se má stát) v podobě, která je pro něj pochopitelnější. To je třeba případ Googlu a OpenAI, u těch dalších – třeba u Midjourney – rozdíl oproti klasickému psanému promptu bez JSON struktury nevidím.


A nyní něco pro porovnání. Podívejte se na ukázku dosud nejlepšího AI traileru dle Tima Simmonse. Zveřejnil ho na svém kanálu Theoretically Media 22. října 2025.

 

Jsou i další pokročilé techniky pro instrukci geAI video nástrojům, které jsou nové?

Baví mě spatial prompting, který jsem poprvé viděl u Veo 3. Do prvního referenčního obrázku vložíš psané či kreslené instrukce, třeba do bublin: „auto zahne, kamera přejede zleva, pak close-up“. Text během pár obrázků zmizí, ale model si to pamatuje. Dává to úplně jinou míru řízení než čistý text.

Před dvěma týdny jsem byl na tvém AI video kurzu. To je ten příklad sporťáku u 180stupňové zatáčky v horách, kde šipka dokreslená na obrázek ukazuje, jak má auto zatáčku projet?

Ano, to je ono. Zadáš instrukce třeba šipkou dokreslenou ve Windows malování, model to přetaví do kamerového pohybu. Funguje to ale podobně i na komiksových storyboardech – Sora si přečte bubliny postav, chápe sled událostí a z toho udělá desetisekundové video. V „pro“ režimu zvládne i dvanáct sekund, což už je dost na několik střihů. Krátká reklama se dnes běžně stříhá po jedné až třech sekundách, takže do 12 s se vejde čtyři až pět střihů. Na jeden prompt tak zvládneš třeba celé „user-generated“ video (UGC) pro sociální média.

Takže už si to video „stříhá“ samo?

Částečně ano. Můžeš to řídit, nebo to nechat na AI. Když chci přesný timing, nechám si prompt převést do JSONu a dopíšu si tam časování: co se má dít v 0–2 s, 2–4 s, 4–6 s. Ale často to nechávám na modelu – třeba Sora 2 umí v některých případech pochopit i střihovou logiku, zvládne celky, detaily, přejezdy kamer. Z komiksu pozná, co se má stát dřív a co později. Obvykle ne napoprvé, ale už je vidět, že v sobě tento potenciál má.

Zajímavé je, že i v bezplatné verzi, která je zatím oficiálně jen v USA a Kanadě, uživatelé píšou úplně jednoduché prompty typu „policajt zastaví auto“, a AI z toho udělá video jak z policejní kamery s rybím okem, blikajícími světly, typickým pohybem. Uživatel to ani nemusí vědět popsat – model to pochopí z dat, která už viděl tisíckrát. 

Vím, že dosud bylo i s pomocí generativní umělé inteligence poměrně obtížné vytvořit smysluplné video. Z toho, co popisuješ, se už tyto požadavky ztrácí. Devalvuje se znalost řemesla videotvorby?

Řemeslo se neztratilo, ale mění se. Když přišla AI, zažili jsme dvě vlny: nejdřív strach, že „vezme práci“, pak uklidnění, že „je to jen nástroj“. Pravda je někde mezi. Spoustě profesí to už částečně podkoplo nohy – překladatelé, copywriteři, ilustrátoři – některým z mých známých z těchto oborů spadly za poslední rok zakázky o 40 %. U videa jsme teď ve fázi „nástroje“, ale rychlost vývoje je brutální.

U reklamního videa čekám explozi UGC obsahu. Největší kus práce dnes není střih, ale promyšlení sdělení: kdo je cílovka, co chci říct, co má člověk udělat po zhlédnutí. Produkce se zjednodušuje na minimum. Kdo má nápady, může si dělat obsah sám – a často líp než agentura, protože zná vlastní publikum.


Ukázka automatizace tvorby „UGC" videí s využitím Sory 2.

V dnešní době existují agentury se zaměřením na sociální média, které tvrdí, že vyrobí nejlepší reels, protože vědí, jak udělat úvodní hook a který pohyb kamery je zrovna v daný týden na TikToku nebo Instagramu trendy. Jsou nyní v ohrožení i tyto subjekty?

Je to dost možné už v nedaleké budoucnosti. AI bude vědět, co jsou ty správné „hooky“ — má data. Už dnes algoritmy reklam (Facebook) často nastaví cílení lépe než člověk. Platformy doporučují titulky, časy publikování… Generátory udělají obsah i voiceover podle cílové skupiny.

Míříme ke stavu, kdy malá firma zadá cíl typu „prodat X kusů produktu Y měsíčně“ a systém jí sám nastaví kampaň, vyrobí kreativy a pustí to. Jednotlivé komponenty už existují. Problémem může být nivelizace sdělení. Když všichni budou mít „dokonalé“ reklamy, co si uživatel vybere? Přesycení pozornosti. Možná i proto to platformy zatím nezabalí do jednoho tlačítka.

Když se bavíme o nadprodukci produkčně skvělých videí, vzpomenu si na Davida Grudla. Generuje se Sorou 2 videa téměř každý den a jsou pořád zábavná.

Prodává své AI schopnosti tím, že se de facto stalo jeho AI já influencerem, který je vystavován každý den novým situacím. Člověk z masa a kostí by jich tolik rozhodně nezažil. Říkám si ale, jestli takovýto příval produkčně kvalitního obsahu vlastně lidi nezačne brzy nudit. Vnímáš také klesající „trvanlivost“ AI obsahu?




Pokles „trvanlivosti“ asi nemá spojitost jen s AI obsahem. Když byl před 10 lety nějaký virál, tak to pěkně běželo týden a ještě měsíc to doznívalo. Teď to na sociálních médiích zazáří v rámci hodin, maximálně pár dnů.

U AI videí se extrémně zrychlila míra adopce trendů. S příchodem Veo 3 s možností vytvářet dialogy se začaly celosvětově tvořit videa se zvířaty nebo historickými postavami zasazenými do jiného prostředí. A to zejména z důvodu, že konzistence charakterů není u tohoto modelu ještě stoprocentní. Když máte ale fousatého Ježíše v rouchu, tak na každém záběru ho divák může vnímat jako Ježíše, i když má třeba jiné rysy. Podobně bobr je pořád bobr.

Například trend historických vlogů začal v USA. PJ Ace vytvořil příběh křesťana, kterého pro jeho víru Římané uvrhli mezi lvy. 
 

Ondrovi Svobodovi se podařilo tento princip zajímavě uchopit v Česku a z jeho Přemysla Oráče se stal skutečný virál.

Brzy následoval druhý díl a další nápodoby. Své video si udělalo třeba i Muzeum města Brna.

Do pár týdnů se ale téma historických vlogů ohrálo. Když vidíte x-té video se stejným motivem, přestává to fungovat. Trend se narodí třeba v USA, za týden se replikuje v Česku, a za další týden umře. V komunitách zaměřených na AI video i dřív – během hodin.

 

To zní, jako by nás čekala devalvace všeho, co fungovalo. Když jako značka přijdete se svým fórem jako pětistá v řadě, tak si vysloužíte zákonitě menší pozornost...

Určitě ano. Nákladnost produkce padá – mám Higgsfield za 50 dolarů měsíčně a můžu generovat Soru 2 a další modely od rána do večera. Kvalita ještě není dokonale stabilní, ale to přijde. Bavíme se o měsících, ne letech. S tímto pokrokem se objem produkčně dobrých AI videí znásobí.

A určitě tomu pomůže snaha OpenAI vytvořit i sociální síť Sora.

Ano, sociální síť Sora je postavená na některých aspektech podobných TikToku. Můžeš videa vyrábět se svým avatarem přes Apple ID, takže GDPR a souhlasy jsou vyřešené předem. Tohoto avatara pak máš možnost nabídnout k využití dalším tvůrcům. Proto má třeba Alex Bruna v několika svých videích Apple influencera Petra Máru s Davidem Grudlem. Když se ale podíváte dnes, tak už Petr Mára dostupnost svého avatara zrušil. Tipuji, že s ním někdo tvořil videa, kde pomlouval produkty od Apple nebo chválil ty od konkurence.

Každopádně to vytváří silnou motivaci uživatelů hrát si s avatary hvězd a zároveň sledovat, do jakých prostředí jejich osobní avatary někdo zasadí. Kldině si můžete dát páku se CEO OpenAI, Samem Altmanem, a polechtat své ego na tisíc způsobů. Chápu, proč se to může stát návykové.

Jaké jsou podle tebe limity? Kam se může video ještě posunout?

U obrázků už jsme prakticky v bodu, kdy 99 % lidí nepozná rozdíl mezi reálným a AI obrazem, pokud je dobře promptovaný. Video je o krok pozadu, ale dohání to rychle. Co se týče vzhledu a animace, jsme už blízko „topu“. Nad ním už není moc kam jít – jako když máš 8K kameru, ale většina lidí stejně kouká na mobilu ve Full HD. Reálný posun teď bude spíš v rozlišení a v jemnosti pohybu a emocí postav.

Už teď lidé často nepochopí, že výstupy ze Sora 2 jsou AI video, i když má její vodoznak.

AI nám mění samotný koncept produkce. Přichází projekty jako Google Flow nebo LTX Studio, kde vygeneruješ základní kostru filmu – obraz, zvuk, střih – během minut. Co dřív dělal tým lidí týden, teď uděláš za den. Co se týče ovládání, přibývají „ovladače“ – klíčové snímky, časové značky, vizuální hinty. Ovládání je jiné než v Premiere nebo After Effects, ale rychle se k nim přibližuje. Za pár měsíců bude AI sama stříhat velice přesně třeba dle rytmu hudby, a budeme tak v reálném čase upravovat záběry bez klasické timeline.

Co může toto nové ovládání přinést mimo větší demokratizace produkce zajímavých videí?

Nové způsoby ovládání videotvorby „flow“ a node-based systémy typu ComfyUI můžou svou rychlostí přinést nové formáty. Vzniknou úplně nové formy mezi filmem a hrou. Třeba Genie 3 od DeepMind už v reálném čase generuje světy a pamatuje si změny. Jsme v bodě, kdy je možné „tvořit slovem“ – a kreativita to dožene.

Mimo reklamu je tu entertainment (seriály, filmy). Míří to k obsahu generovanému individuálně pro každého. Teoreticky můžeš „vystupovat“ ve vlastním seriálu. Někdo říká, že když budeš umět zadávat dobrá témata, budeš generovat obsah, na který se budou dívat ostatní. Ale podle mě bude mít nejlepší data a bude umět navrhovat nejlepší scénáře přímo umělá inteligence.

Mnoho lidí mluví o „AI slop“ – AI hlenu bez obsahu. Když si každý udělá svůj „Hollywood“, nebude to brzy nuda? 

Bude a je to možná dobře. Dnes nás třeba přirozeně přitahují reálná videa zachycených náhod, které jsou vzácné či nevídané – typu „velryba, co spolkla a pak vyplivla kajakáře“. Ale až toho bude plný feed a hranice reality a AI video budou úplně setřené, mozek si na to zvykne a přestane to vnímat. Paradoxně to může lidstvu prospět. Budeme méně scrollovat podobné blbiny a vrátíme se k věcem, které mají smysl.


Tip redakce



Brno není pouze „hlavním městem marketingu“ minimálně v době konání Marketing Festivalu. Je epicentrem i pro kreativce zajímající se o generativní umělou inteligenci. Potvrdí se to i 6. listopadu na konferenci Pravidla se změnila.

V prostorách hvězdárny na Kraví hoře se na jednom místě potkají lidé, kteří s AI opravdu tvoří – zkoušejí nové cesty a sdílí, jak díky ní zrychlují produkci a snižují náklady.

Co si z konference odnesete?

Konkrétní nástroje: Seznam AI aplikací a platforem, které můžete použít hned
Praktické techniky: Step-by-step postupy od expertů z praxe
Strategické poznatky: Jak AI ovlivní vaše odvětví v následujících letech
Kontakty: Networking s 160+ profesionály z kreativního a marketingového průmyslu
Inspirace: Příklady úspěšných AI projektů a jejich realizace

 

Konference Pravidla se změnila

Kdy: 6. listopadu 

Kde: Hvězdárna a planetárium, Brno

Podívejte se na kompletní program a kupte si vstupenky. 

Štítky dokumentu: AI

To nejlepší z moderního marketingu každý pátek do vašeho inboxu.

Ochrana proti spamovacím robotům. Odpovězte prosím na následující otázku: Jaký je letos rok?