Deepfake AI: Náš dystopický dárek

Pin
Send
Share
Send

Ze všech strašidelných sil internetu je jeho schopnost oklamat nic netušícího nejstrašidelnější. Clickbait, fotografie z photoshopu a falešné zprávy jsou jedny z nejhorších pachatelů, ale v posledních letech došlo také k nárůstu nového potenciálně nebezpečného nástroje známého jako umělá inteligence deepfake (AI).

Termín deepfake označuje padělky, počítačem generované video a audio, které je těžké odlišit od pravého, nezměněného obsahu. Je to film, co je Photoshop pro obrázky.

Jak funguje umělá umělá inteligence?

Tento nástroj se opírá o to, co se nazývá generativní protivníkové sítě (GAN), což je technika, kterou v roce 2014 vymyslel Ian Goodfellow, Ph.D. student, který nyní pracuje v Apple, hlásil Popular Mechanics.

Algoritmus GAN zahrnuje dva samostatné AI, jeden, který generuje obsah - řekněme, fotografie lidí - a protivník, který se snaží podle Voxe uhodnout, zda jsou obrazy skutečné nebo falešné. Generující AI začíná téměř bez představy, jak lidé vypadají, což znamená, že jeho partner může snadno rozlišit skutečné fotografie od falešných. Postupem času se však každý typ umělé inteligence postupně zlepšuje a generování umělé umělé inteligence nakonec začne produkovat obsah, který vypadá naprosto životně.

Příklady deepfake

GAN jsou působivé nástroje a nejsou vždy používány pro škodlivé účely. V roce 2018 prodal GAN ​​generovaný obraz napodobující nizozemský styl „Old Master“ umělců, jako je Rembrandt van Rijn ze 17. století, v Christieho aukčním domě za neuvěřitelných 432 500 $.

Ve stejném roce se hluboce rozvíjející šíření rozšířilo na přední místo, hlavně díky uživateli Reddit, který se jmenoval „deepfakes“, uvedl viceprezident. Technika GAN byla často používána k umístění tváří slavných osobností - včetně Gal Gadota, Maisie Williamsové a Taylora Swifta - na těla pornografických filmových hereček.

Ostatní GAN se naučili pořídit jediný obrázek osoby a vytvořit poměrně realistické alternativní fotografie nebo videa této osoby. V roce 2019 mohla deepfake vytvořit strašidelný, ale realistický film Mona Lisy, který mluvil, pohyboval se a usmíval se na různých pozicích.

Deepfakes může také změnit zvukový obsah. Jak uvádí The Verge počátkem tohoto roku, tato technika dokáže spojit nová slova do videa mluvící osoby, takže se zdá, že řekli něco, co nikdy neměli v úmyslu.

Snadnost nasazení nového nástroje má potenciálně děsivé důsledky. Pokud může kdokoli a kdekoli vytvořit realistické filmy zobrazující celebritu nebo politika mluvícího, pohybující se a říkající slova, která nikdy neřekla, diváci jsou nuceni být na internetu opatrnější. Jako příklad poslouchejte varování prezidenta Obamy proti „efed-up“ dystopické budoucnosti v tomto videu z Buzzfeedu, které vytvořil filmař Jordan Peele za použití deepfake.

Pin
Send
Share
Send