Nová DeepFake videa jsou k nerozeznání od reality

11. 6. 2018 | Milada Zemanová
Technologie záměny tváří překročila hranice pornoprůmyslu. Má pomáhat například při synchronizaci hlasu a tváře během dabingu, ale je tu i riziko zneužití pro šíření falešných zpráv. U DeepFake videí totiž téměř nedokážete rozpoznat, že nejsou pravá.

Technologie jdou rychlým krokem kupředu a novinka, která prvotně vznikla pro pornoprůmysl se nyní používá už pro politická videa.

Co je DeepFake video

DeepFake video je výsledek nové technologie, která byla uveřejněna před několika měsíci. Ta vychází ze zpracování dat neuronovými sítěmi a lze ji využít pro záměnu tváří. Nejprve samozřejmě našla uplatnění v pornoprůmyslu. Nicméně brzy mediální společnost Buzzfeed ukázala i nebezpečnější stránku této technologie. Konkrétně, když vytvořila video o prezidentu Obamovi, ve němž říká věci, které ve skutečnosti nikdy nevypustil z úst. A toto video je přitom neuveřitelně důvěryhodné.

Samotný nástroj je známý jako FakeApp, ale videa se obvykle nazývají DeepFakes, protože tak ji označil původní vývojář na Redditu.

Deepvidea se rozšiřují

Mnoho lidí výměnu tváří pomoci DeepFake považuje za neetickou, pro některé ovšem tato technologie nenapodobuje realitu dostatečně přesvědčivě. Nicméně nyní se objevily vylepšené video portréty (tzv. deep video portraits), které působí velmi reálně a zdokonalují a zlepšují samotnou techniku.

Na téma deep video portraits byla vytvořena studie, která byla předána ke zvážení v SIGGRAPH (Mezinárodní asociace specializovaných zájmových skupin pro počítačové grafiky a interaktivní techniky založená v New Yorku) . Tato studie popisuje zdokonalenou techniku ​​reprodukce pohybů, výrazů obličeje a řeči jedné osoby za pomoci tváře osoby druhé. Pro lepší představu, jak celý proces probíhá, se podívejte na ukázku:

Zvláštností této techniky je její komplexnost. Využívá video požadované osoby (v tomto případě prezidenta Obamy), aby pochopila, co tvoří obličej, obočí, koutky úst, pozadí, apod.

Pak pečlivým sledováním orientačních bodů na zdrojovém videu dokáže provést potřebná zkreslení tváře prezidenta, a to pomocí vlastních pohybů a výrazů, které se stávají zdrojem pro zmíněné vizuální informace.

Ve výsledku se tedy tělo a tvář pohybují jako ve zdrojovém videu a navíc každá malá výrazová odchylka je zachycena a reprodukována pomocí vlastních výrazů cílové osoby. Když se podíváte pozorně, jsou i stíny za osobou (pokud jsou přítomny) přesné.

Lidé, kteří prováděli výzkum zmíněné technologie, poukázali na skutečnost, že dosažené výsledky jsou téměř k nerozeznání od původního videa. Což můžete posoudit sami.

Díky této technologii tak můžete zajistit, že kdokoliv, kdo se někdy objevil na kameře, bude promlouvat vaším hlasem . Toto může být užitečné například při dabingu, kdy je potřeba zcela synchronizovat tvář a hlas dvou osob.

Aplikace není všemocná

I když deepvidea nabízí široké možnosti, přeci jen nejsou všemocná. Pokud se například na videu někdo tváří smutně, nevykouzlíte mu široký úsměv na tváři. Aplikace také obsahuje různé nedodělky a bugy, i přesto však jde její vývoj rapidně kupředu.

Justus Theis, spoluautor tohoto projektu, uvedl pro The Register:

Jsem si vědom etických důsledků těchto projektů rekonstrukce, což je také důvod, proč jsme zveřejnili naše výsledky. Myslím, že je důležité, aby se lidé seznámili s možnostmi manipulačních technik.”

Pokud se chcete o technologii DeepFake přečíst více, doporučujeme tuto obsáhlou studii.

Již nyní je společnost zahrnuta falešnými zprávami a mnohdy bývá problém oddělit pravdu od fikce. Uvidíme, jak ou roli v tomto ohledu bude hrát zmíněná technologie deep video portraits.

Zdroje: TechCrunch, Extreme Tech, Buzfeed, The Register

Štítky dokumentu: Kreativní inspirace

To nejlepší z moderního marketingu každý pátek do vašeho inboxu.

Ochrana proti spamovacím robotům. Odpovězte prosím na následující otázku: Jaký je letos rok?
Podobné články: