Co je Deepfake? Jak se v aplikaci Revenge Porn používá výměna tváří

  • Sep 05, 2021
instagram viewer

Možná jste ještě neslyšeli termín „deepfake“, ale technologie má děsivé důsledky.

Ve dne a věku, kdy nemůžete strávit 10 minut online, aniž byste se setkali nebo slyšeli o „falešné zprávy"Může se zdát, že konverzace kolem dezinformací a zlomyslné propagandy už nemůže být matoucí." Ale to umět.

Vítejte ve světě technologie deepfakekde jednoduchý algoritmus může vytvářet falešný obsah, který vypadá neuvěřitelně reálně. Ve skutečnosti se vytvářejí falešné obrázky a videa, aby vytvořily realistické porno pomsty, politickou propagandu a šířit další nepravdivé informace, a dokonce i odborníci mohou jen těžko rozeznat hluboké padělky od skutečných věc.

I přesto stojí za to vědět, co jsou zač, pojďme se tedy ponořit a dozvědět se vše o technologii deepfake a jejích důsledcích pro porno, politiku a další.

Deepfake Videos 101

Slovo „deepfake“ je složeninou výrazů „hluboké učení“ a „falešný“. Podle ForbesHluboké učení je „podmnožinou strojového učení, kde umělé neuronové sítě, algoritmy inspirované lidský mozek, učte se z velkého množství dat. „Z této technologie získáváme hluboce falešné obrázky a videa, která jsou

vymyšlené a neautentické ale vzhled a zvuk velmi reálný.

Algoritmy Deepfake se začaly množit online koncem roku 2017 a obrázky jsou v tuto chvíli na sociálních médiích docela běžné. Deepfake je populární pro tvůrce obrazových memů, zejména těch, ve kterých jsou celebrity vyměněny tváří s jinou osobou, často také celebritou (herec Nicolas cage je oblíbeným cílem těchto hijinků).

Ale opravdu dobrá deepfake videa se příliš nepoužívají, takže je většina lidí možná ještě neviděla. Na začátku letošního roku se však mnoho lidí dostalo na technologii deepfake videa BuzzFeed vytvořil video PSA představovat herec a režisér Jordan Peele. V PSA, které bylo o úskalích pokročilé technologie AI (a zejména deepfakes), obrázků a zvuku z Peele byly použity k vytvoření velmi přesvědčivého a hluboce zfalšovaného videa, na kterém se objevil bývalý prezident Barack Obama.

Natáčení videa

Martin Lindstrom, autor knihy Malé údaje: Drobné stopy, které odhalují obrovské trendy, vypráví Lákat prostřednictvím e -mailu: „Deepfake je mimořádně podrobná analýza více fotografií nebo videonahrávek s osobou, kterou byste chtěli rád napodobuji. " Čím více obrazů se podílí na tvorbě deepfake, vysvětluje, tím reálnější to bude vypadat, až produkt bude kompletní.

Algoritmy Deepfake analyzují obrázky podle toho, čemu Lindstrom říká „mimické nuance“ - tedy všech pohybů a výrazů, které člověk dělá. Přesné znovuvytvoření mikroexpresí člověka kromě jiných charakteristických pohybů obličeje a těla je tím, co dělá deepfake vypadají tak realisticky.

Getty Images

Jakmile vše obrázky jsou analyzoványLindstrom říká: „Systém je namapuje a převede na snadno použitelný nástroj.“ Tento nástroj umožňuje uživatelé jednoduše napíšou zprávu, podle které chce osoba uvedená ve videu říci, podle Lindstrom. Ve spojení s AI to dokáže „klonovat“ lidské hlasy nebo jinak napodobovat hlas někoho jiného, ​​výsledky technologie deepfake videa mohou vypadat pozoruhodně realisticky. Imitace hlasu AI může použít záznam hlasu člověka k vytvoření dalších slov a frází, které zní, jako by mluvil on.

Kdo je za obrazovkou

Lindstrom říká, že hlavní postavy hrající si s technologií deepfake jsou „všichni obvyklí podezřelí“. včetně Google, Facebook a Amazon. Každá z těchto společností má co získat, pokud dokáže zpeněžit technologii deepfake. Například Lindstrom říká, že Google používá deepfake k „porozumění budoucnosti hledání a odezvy; Facebook zkoumá, jak může technologie deepfake pomoci společnosti porozumět falešnému obsahu obecněji; a Amazon by mohl přizpůsobit „přizpůsobené zážitky Alexa“ pomocí technologie deepfake. “Videa Deepfake samy by mohly být pro Google obracečem zisku ve formě videí z YouTube, která obsahují zesnulé celebrity.

"Všechny tyto značky dnes tvrdí, že technologii používají nebo zkoumají, aby pomohly najít nové a přitažlivější způsoby." sloužit jejich výsledkům, “říká Lindstrom, ale varuje, že zájem technologických gigantů o hluboké fake může být příčinou znepokojení. Lindstrom vysvětluje, že pro technologické společnosti je snadné podporovat to, co se jeví jako užitečné nebo zábavné technologické pokroky, ale také je snadné, aby se technologie AI stala „pochybnou“.

Neetické používání nových technologií bylo v průběhu let problémem nejvýše (ne -li každé) velké technologické společnosti. Vedení společnosti Google bylo nedávno tlačeno na revizi principů kolem technologie AI, kterou vytváří poté, co zaměstnanci na protest proti společnosti přestali vojenská smlouva na projekt Maven, který zahrnoval použití technologie Google pro identifikaci cílů smrtících raket. V červnu společnost oznámila své aktualizované zásady a prohlásila, že neobnoví smlouvu na Project Maven.

Použití Deepfake k vytvoření porna

Kromě velkých hráčů v technologickém světě převzal porno průmysl také technologii deepfake. Lindstrom říká, že porno průmysl si klade za cíl vydávat „personalizované filmy“, ve kterých se člověk může dívat na video, na kterém bude vypadat osoba, kterou si vybere. Videa by pak mohla zahrnovat vzhled jakékoli jiné osoby, od osobností po samotné diváky.

Využití deepfake pro pornografické účely bohužel také představuje hrozbu falešné porno pomsty. Tato technologie umožňuje snadno vložit tvář nebo tělo kohokoli do téměř jakéhokoli představitelného scénáře a vypadat velmi reálně, což znamená zneužívající bývalí a další mají prakticky nekonečné možnosti vytvářet a šířit falešné obrázky, které by mohly poškodit pověst oběť.

Ve skutečnosti podle a kousek ze základní desky z minulého roku vytvořil Redditor výstižně pojmenovaný „deepfakes“ několik deepfake porno videí tváře slavných hereček (včetně Gal Gadot, Maisie Williams, Taylor Swift a dalších) dříve Reddit zakázán tomu, čemu se říká „nedobrovolná pornografie“ minulý únor.

Nebinární umělec Courtney Trouble vypráví Lákat protože technologie deepfake shromažďuje všechny známé digitální obrazy obličeje člověka do sítě, mnoho z těchto obrazů a videa mohou obsahovat kompozity z doby, kdy byla osoba nezletilá - a proto by měla být označena jako dětské porno, i když ano falešný.

Problém pokračuje a říká: „Deepfakes by se dalo použít i k vydírání lidí.“ Navíc s potenciálním využitím AI v pornu Trouble komentuje: „Je to dost neetické. Mohlo by to vzít práci skutečným umělcům; přináší problémy automatizace. “

Je to pravda - deepfake je hrozbou pro živobytí skutečných umělců“a některé pornografické společnosti se dokonce pokoušejí dostat se dopředu pomocí podobné technologie k přilákání zákazníků. Tak jako ohlásil server The Verge„Naughty America má nyní službu, která zákazníkům umožňuje přizpůsobit si klipy pomocí AI. Ačkoli se tento druh deepfake provádí se souhlasem „umělců“, stále má potenciál odebrat práci skutečným umělcům.

Politická propaganda

Jordan Peele ve hře BuzzFeed PSA radí divákům, aby byli opatrní ohledně toho, co vidí online, vzhledem k existenci technologie, díky níž by se mohlo zdát, že kdokoli cokoli říká. Lze si snadno představit strašlivé důsledky hluboce padělaných videí, která političkám vkládají slova do úst, jako např Prezident Trump. V politickém klimatu, ve kterém technologické společnosti včetně Facebooku, Twitteru, Google a YouTube profitují ze zpeněžení dezinformace a další propaganda, politicky motivovaná hluboce padělaná videa mají potenciál mít výrazně škodlivé dopad.

"Nejhorší scénář je vytvořit strach odesláním falešných video zpráv, které předstírají, že jsou od důvěryhodných úřadů, a varovat veřejnost před určitými hrozivými problémy," říká Lindstrom. Falešné mimořádné události mají potenciál vyvolat velkou paniku. Lindstrom připomíná, že panika byla vyvolána, když nouzová vojenská zpráva byl v lednu poslán všem na Havaji s mobilním telefonem, varující před přicházející raketou. Varování se ukázalo jako falešné, ale strach a zmatek, které to způsobilo, byly skutečné.

Technologie Deepfake může být také snadno vyzbrojena politickými kandidáty na funkci proti jejich oponentům. Špatní herci například mohli vytvářet hluboce zfalšovaná videa svých politických oponentů, takže to vypadalo, že udělali nebo řekli diskutabilní věci, které nikdy nutně neudělali nebo neřekli. Samotný PSA společnosti BuzzFeed je důkazem toho, jak snadné je vyvolat zdání, že politik říká, co chce člověk, ať už z jakéhokoli důvodu.

Deepfake je stále docela nový, ale má potenciál způsobit hodně škody, pokud je ve špatných rukou. Techničtí giganti v posledních letech důkladně prokázali, že nejsou ochotni odstranit nebezpečné dezinformace a „Falešné zprávy“ v zárodku, což znamená, že nikdo se nemůže spolehnout na to, že Google a Facebook budou jednat správně věc. Jak Trouble říká: „Zajímají mě způsoby, jak by tato technologie mohla být použita pro umění nebo vzdělávání, ale nemyslím si, že by to lidi, kteří ji dělají, příliš zajímali že. “V konečném důsledku bude spotřebitelům umožněno bojovat s důsledky deepfake, pokud (nebo kdy) falešná politická videa převyšují počet Nick Cage memy.


Přečtěte si více o technologii na Lákat:

  • Insane Clown Privacy: Juggalo Makeup Thararts Facial Recognition Technology
  • Jak trend Smart Mirror mění kosmetický průmysl
  • CVS chce do roku 2020 v obchodech postupně vyřazovat snímky Photoshopped Beauty

Podívejte se na 100 let plastické chirurgie:

Nezapomeňte sledovat Allure dál Instagram a Cvrlikání.

insta stories