Nejen Taylor Swiftová. Deepfake pornografie s celebritami je stále větší problém

Na pěti nejnavštěvovanějších webech s deepfake pornografií lze najít videa s téměř čtyřmi tisíci celebritami, především ženami, zjistila britská veřejnoprávní stanice Channel 4. Falešná videa vytvořená pomocí umělé inteligence nabízí herečky, zpěvačky i televizní a internetové osobnosti. Jde o rapidně narůstající trend. K nejviditelnějším obětem patří momentálně jedna z nejvlivnějších žen šoubyznysu Taylor Swiftová.

Termín deepfake v případě pornografie označuje upravená videa, která relativně věrohodně napodobují hlas i vzhled libovolné osoby za pomocí umělé inteligence. Metoda deepfakes využívá postupů takzvaného hlubokého učení (deep learning). S dostatkem podkladových souborů ve formě obrázků a zvuků lze vyrobit video s vyobrazením osob říkajících a dělajících prakticky cokoliv.

V relativně snadném vytváření falešného multimediálního obsahu tvářícího se jako skutečnost spatřují mnozí jedno z největších nebezpečí nástrojů AI. Od dezinformací v politice přes zbraň hybridní války až po zneužití identity v pornu.  

Deepfake porno je trend

Channel 4 upozorňuje, že markýrování skutečného pornografického obsahu se ukazuje jako rychle rostoucí trend.

Za první tři čtvrtiny loňského roku vzniklo více deepfake pornografie než za všechny předchozí roky dohromady. Videa na pěti nejnavštěvovanějších webech s deepfake pornografií (Channel 4 je konkrétně nejmenoval) dosáhla za tři měsíce na sto milionů zhlédnutí. Na čtyřiceti nejnavštěvovanějších webech podle jiné studie, kterou měla stanice Channel 4 k dispozici, vykazují deepfake pornovidea za celou dobu jejich existence 4,2 miliardy zhlédnutí.

Channel 4 oslovil čtyřicítku slavných osobností, které se staly oběťmi takové manipulace. Žádná z nich věc nechtěla veřejně komentovat. „Jak to jednou vidíte, nedostanete to z hlavy. Už jen tu představu, že takhle manipulované byly tisíce žen. Je znepokojivé, že kliknutím tlačítka můžete tohle najít a že lidé vytvářejí groteskní parodie reality s naprosto minimálním úsilím,“ uvedla novinářka Channel 4 Cathy Newmanová, která na reportáži pracovala a zhlédla své vlastní falešné erotické video.

Pravice versus Taylor Swiftová

Pozornost letos vzbudily explicitní deepfake fotografie zpěvačky Taylor Swiftové, které na síti X měly kolem 45 milionů zhlédnutí, než je platforma odstranila. Podle americké feministky, novinářky a právničky Jill Filipovicové není náhoda, že nejviditelnější obětí tohoto druhu obtěžování se stala zrovna momentálně nejúspěšnější popová hvězda.

„Současnou diskusi o deepfake pornu oživuje rostoucí a upřímně řečeno bizarní pravicové nepřátelství vůči Taylor Swiftové. Na pravici se to hemží konspiračními teoriemi o Swiftové, včetně té, že je agentkou Pentagonu, že je součástí psychologické operace (…) rozsáhlého plánu, jehož cílem je znovu dosadit Joea Bidena do úřadu,“ píše Filipovicová v komentáři pro deník The Guardian.

Dodává, že Swiftová pravici dráždí o to víc, že nese řadu znaků „její“, tedy pravicové kultury: atraktivní modrooká blondýna z Tennessee, která začínala u country, chodí s hráčem amerického fotbalu, jenž „na první pohled působí jako zlatý hoch z republikánské rodiny“. Jenže zároveň je bezdětnou, úspěšnou a finančně zajištěnou třicátnicí z velkého města, a proto ztělesněním obav souvisejících se sílou žen, sexualitou a genderovou politikou.

Celebrity jsou jen špičkou ledovce

Za většinou z deepfake pornovideí se známými tvářemi, ovšem „namontovanými“ na cizí nahá těla, by ale bylo nesmyslné hledat nějakou sofistikovanější motivaci. Čtyři tisíce celebrit objevených stanicí Channel 4 ve falešných nahrávkách má prostě zvýšit dosah a přidat sexuálně explicitním scénám na pikantnosti.

Různě zdařilé pokusy „obsadit“ celebritu bez jejího vědomí do porna se objevují už několik let. Ostatně vůbec první deepfake video, které se objevilo v roce 2017 na sociální síti Reddit, byla podle informací na Wikipedii falešná pornografie s celebritami. Ovšem stále se zlepšující nástroje umělé inteligence usnadňují tvorbu i distribuci takových fotek či videí.

Deepfake porno vyvolává celou řadu morálních, etických, filozofických a právních otázek. Tím spíš, že nejde o – více či méně povedenou – parodii nebo fake, ale o lživý multimediální obsah, u něhož je stále těžší pro běžného konzumenta poznat pravost. Pokud se o skutečný zdroj vůbec zajímá.

Celebrity jsou navíc jen špičkou ledovce deepfake pornobyznysu. Podle nezávislého výzkumu, jenž měl Channel 4 k dispozici, se na deseti takto zaměřených webech v loňském roce šířily stovky tisíc falešných fotografií a videí vyobrazující lidi, kteří nijak slavní nejsou.

The New York Times s odvoláním na výzkum společnosti Home Security Heroes zabývající se kybernetickou bezpečností tvrdí, 98 procent deepfake videí na internetu je pornografických a že cílem 99 procent z nich jsou ženy nebo dívky.

Bráníme falešné pornografii, říkají Meta i Google

Společnosti provozující vyhledávače a sociální sítě se od umělého obsahu distancují, ale (poznamenává Channel 4) na jeho šíření zároveň vydělávají. Podle šetření stanice se za poslední čtvrtrok dostalo na pět největších deepfake pornografických webů více než sedmdesát procent návštěvníků přes vyhledávače.

„Platformy profitují z tohoto druhu obsahu. Nejen pornografické společnosti. Sociální média také. Přivádí to návštěvnost na jejich stránky, zvyšuje reklamu,“ upozorňuje Elena Michaelová z hnutí #NotYourPorn.

„Meta přísně zakazuje vyobrazování dětské nahoty, obsahu, který děti sexualizuje, i služby, které za pomoci umělé inteligence vytvářejí nekonsenzuální erotický obsah,“ řekl stanici Channel 4 zástupce společnosti, pod niž spadá Facebook či Instagram.

„Chápeme, jak pobuřující takový obsah může být. Jsme odhodlaní rozšířit naši ochranu vůči němu tak, abychom pomohli zasaženým osobám,“ ujistila společnost Google. Přes nápovědu nabízí formulář „odstranění nedobrovolně sdílené falešné pornografie“, o což může dotčená osoba požádat buď sama, nebo prostřednictvím právního zástupce. Nicméně Google zdůrazňuje, že prověřit může jen zaslané URL adresy webů či přímo obrázků. To se může stát bojem s větrnými mlýny.

Pro loňský článek NBC News o nekonsenzuálních deepfake pornovideích se Google vyjádřil, že „kromě toho naše systémy řazení zásadně navrhujeme tak, aby se v nich objevovaly vysoce kvalitní informace a aby lidé nebyli šokováni nečekaným škodlivým nebo explicitním obsahem, když ho nehledají“.

Pomůže regulace EU?

Společnost OpenAI podle agentury AP už loni uvedla, že odstranila explicitní obsah z dat používaných k trénování nástroje pro generování obrázků DALL-E, což omezuje možnost uživatelů vytvářet tyto typy multimédií. Společnost také filtruje požadavky a tvrdí, že uživatelům blokuje vytváření obrázků celebrit a významných politiků pomocí AI. Obrazový generátor Midjourney blokuje používání určitých klíčových slov a vyzývá uživatele, aby problematické obrázky označili.

Pokud jde o právní regulaci, Evropská unie letos schválila nová pravidla pro fungování umělé inteligence, kromě jiného nastavují omezení technologií podle míry rizik. V platnost by mohla vstoupit ještě do konce jara, od unijní regulace se pak bude odvíjet legislativa na úrovni států. Nová pravidla pro fungování umělé inteligence zahrnuje mimo jiné povinnost, že deepfakes, ať už foto, audio, nebo video, musejí být jasně označeny. 

Například ve Velké Británii je už šíření falešných videí a snímků bez souhlasu vyobrazované osoby nelegální. Jejich tvorba však nikoliv.