Mi az a Deepfake? Hogyan használják az arccserét a bosszúálló pornóban

  • Sep 05, 2021
instagram viewer

Lehet, hogy még nem hallotta a "deepfake" kifejezést, de a technológia ijesztő következményekkel jár.

Egy olyan napon és korban, amikor úgy tűnik, nem tölthet 10 percet az interneten anélkül, hogy találkozott vagy hallott volna róla "álhírek, ”Úgy tűnhet, hogy a félretájékoztatás és a rosszindulatú propaganda körüli beszélgetés ennél zavarosabb nem lehet. Ó, de az tud.

Üdvözöljük a deepfake technológia, ahol egy egyszerű algoritmus hamis tartalmat hozhat létre, amely hihetetlenül valóságosnak tűnik. Valójában hamis képeket és videókat készítenek, hogy reális bosszúpornót, politikai propagandát és más hamis információkat terjeszthet, és még a szakértők is nehezen tudják megkülönböztetni a mélyreható tényeket a valótól dolog.

Ennek ellenére érdemes tudni, hogy mik ezek, ezért merüljünk el és tanuljunk meg mindent a mélyhamis technológiáról és annak a pornóra, a politikára és egyebekre gyakorolt ​​hatásairól.

101

A "deepfake" szó a "mély tanulás" és a "hamis" kifejezések összessége. Alapján Forbes

, a mély tanulás "a gépi tanulás részhalmaza, ahol a mesterséges neurális hálózatok, az algoritmusok ihlette emberi agy, tanuljon nagy mennyiségű adatból. "Ebből a technológiából mélyreható képeket és videókat kapunk, amelyek vannak koholt és nem hiteles de nagyon valóságosnak tűnik.

A Deepfake algoritmusok 2017 végén kezdtek el terjedni az interneten, és a képek jelenleg meglehetősen gyakoriak a közösségi médiában. A Deepfake népszerű a képalapú mémek készítői körében, különösen azokban, amelyekben a hírességek arcát felcserélik más személyekkel, gyakran egy hírességgel (színész Nicolas Cage népszerű célpontja ezeknek a linkeknek).

De az igazán jó mélyfake videókat nem használják széles körben, így előfordulhat, hogy a legtöbb ember még nem látott ilyet. Sokan azonban az év elején megnézték a mélyfake videotechnikát A BuzzFeed létrehozott egy PSA videót Jordan Peele színész és rendező közreműködésével. A PSA -ban, amely a fejlett AI technológia (és különösen a mélyhamisítások) buktatóiról szólt, képek és hang Peele -ből egy nagyon meggyőző mélyfake videót készítettek, amelyben Barack Obama volt elnök szerepel.

Videó készítése

Martin Lindstrom, a szerző Kis adatok: Az apró nyomok, amelyek hatalmas trendeket tárnak fel, meséli Allure e -mailben: „A Deepfake rendkívül sokoldalú elemzése több fényképnek vagy videofelvételnek, amelyeken szerepel az a személy, akit szeret utánozni. ” Minél több kép vesz részt a mélyhamisítás elkészítésében, magyarázza, annál valósághűbbnek tűnik, amikor a termék megjelenik teljes.

A Deepfake algoritmusok elemzik a képeket, amit Lindstrom „mimikai árnyalatoknak” nevez - vagyis minden olyan mozdulatot és kifejezést, amelyet az ember végez. A személy mikrokifejezéseinek pontos újraalkotása az egyéb jellegzetes arc- és testmozgások mellett az, ami mélyrehatóvá teszi olyan reálisnak tűnnek.

Getty Images

Egyszer az összes képeket elemzik-mondja Lindstrom: „A rendszer ezeket leképezi és könnyen használható eszközzé alakítja.” Ez az eszköz lehetővé teszi A felhasználók egyszerűen írják be azt az üzenetet, amelyet a videóban szereplő személy szerint szeretnének mondani Lindström. AI -val párosítva képes „klónozni” emberi hangokat vagy más módon utánozzák valaki más hangját, a mélyfake videotechnika eredményei rendkívül reálisnak tűnhetnek. A hangutánzás A mesterséges intelligencia felhasználhatja egy személy hangfelvételét, hogy olyan szavakat és kifejezéseket hozzon létre, amelyek úgy hangzanak, mintha ők beszélnének.

Ki van a képernyő mögött

Lindstrom szerint a mélyfake technológiával játszó főszereplők „a szokásos gyanúsítottak”, beleértve a Google -t is, A Facebook és az Amazon. E vállalatok mindegyike sokat nyerhet, ha bevételt tud szerezni a mélyhamis technológiával. Például Lindstrom szerint a Google a deepfake segítségével „megérti a keresés és válasz jövőjét; A Facebook azt vizsgálja, hogy a deepfake technológia hogyan segítheti a vállalatot a hamis tartalom általánosabb megértésében; és az Amazon a „személyre szabott Alexa -élményeket” személyre szabhatja a deepfake technológia segítségével. "Deepfake videók maguk is profitnövelők lehetnek a Google számára elhunytat tartalmazó YouTube-videók formájában hírességek.

„Ezek a márkák ma azt állítják, hogy csak a technológiát használják és/vagy fedezik fel, hogy új és vonzóbb módokat találjanak hogy szolgálja az eredményeiket ” - mondja Lindstrom, de arra figyelmeztet, hogy a technológiai óriások érdeklődése a mélyhamisítások iránt vonatkozik. Lindstrom elmagyarázza, hogy a technológiai vállalatoknak könnyű előmozdítaniuk a hasznosnak vagy szórakoztatónak tűnő technológiai fejlesztéseket, de az AI -technológia is „kétes” lehet.

Az új technológia etikátlan használata az évek során legfeljebb (ha nem minden) nagy techcégnél jelentett problémát. A Google vezetését a közelmúltban arra kényszerítették, hogy vizsgálja felül az általa létrehozott AI -technológia körüli elveket, miután az alkalmazottak kiléptek a vállalat ellen tiltakozva katonai szerződés a Maven projektre, amely magában foglalta a Google technológia használatát a halálos rakéták célpontjainak azonosítására. Júniusban a vállalat bejelentette frissített elveit, és kijelentette, hogy nem hosszabbítja meg a Project Maven szerződést.

A Deepfake használata pornó létrehozásához

A technológiai világ nagy szereplőin túl a pornóipar is átvette a mélyhamis technológiát. Lindstrom szerint a pornóipar célja „személyre szabott filmek” kiadása, amelyekben egy személy megnézhet egy olyan videót, amelyen úgy tűnik, hogy egy választott személy szerepel benne. A videók ezután bármilyen más személy megjelenését is tartalmazhatják, a hírességektől a nézőkig.

Sajnos a mélyhamisítás pornográf célokra történő felhasználása is fenyegetést jelent hamis bosszú pornó. Ez a technológia megkönnyíti, hogy bárki arcát vagy testét szinte bármilyen elképzelhető forgatókönyvbe tegye, és nagyon valósághűvé tegye, ami azt jelenti, hogy a bántalmazó exeknek és másoknak gyakorlatilag végtelen lehetőségeik vannak hamis képek létrehozására és terjesztésére, amelyek károsíthatják a áldozat.

Valójában a szerint darab az alaplapról tavaly, a Redditor találóan "deepfakes" néven több deepfake pornó videót készített híres színésznők (köztük Gal Gadot, Maisie Williams, Taylor Swift és mások) arca A Reddit betiltva amit "akaratlan pornográfiának" neveznek tavaly februárban.

Nem bináris művész Courtney baj meséli Allure hogy mivel a deepfake technológia az ember arcának összes ismert digitális képét hálóba gyűjti össze, sok ilyen kép és a videók tartalmazhatnak kompozitokat, amikor egy személy kiskorú volt - ezért gyermekpornóként kell megjelölni, még akkor is, ha az hamisítvány.

A baj továbbra is fennáll, mondván: "A Deepfakes az emberek zsarolására is használható." Ezenkívül, az AI potenciális felhasználásával a pornóban, Trouble megjegyzi: "Ez elég etikátlan. Elveheti a munkahelyeket a valódi előadóktól; felveti az automatizálás kérdéseit. "

Igaz - a deepfake fenyegetést jelent a valódi előadók megélhetése, és egyes pornó cégek még arra is törekednek, hogy hasonló technológiával előzzék meg az ügyfeleket. Mint számolt be a The Verge, A Naughty America most már rendelkezik olyan szolgáltatással, amely lehetővé teszi az ügyfelek számára, hogy személyre szabják klipjeiket AI segítségével. Bár ez a fajta hamisítás az "előadók" beleegyezésével történik, még mindig megvan a lehetősége, hogy elvegye a munkákat a tényleges előadóktól.

Politikai propaganda

A BuzzFeed PSA -ban Jordan Peele azt tanácsolja a nézőknek, hogy legyenek óvatosak az online látottakkal kapcsolatban, tekintettel arra, hogy létezik olyan technológia, amely azt a látszatot keltheti, hogy bárki bármit mond. Könnyen elképzelhető, hogy súlyos következményekkel járnak a mélyreható videók, amelyek szavakat adnak a politikusok szájába, mint pl Trump elnök. Olyan politikai légkörben, amelyben a technológiai vállalatok, köztük a Facebook, a Twitter, a Google és a YouTube profitálnak a a dezinformáció és más propaganda, politikai indíttatású mélyfake videók jelentős kárt okozhatnak hatás.

"A legrosszabb eset az, ha félelmet keltünk, ha hamis videoüzeneteket küldünk, amelyek megbízható hatóságoktól származnak, és figyelmeztetik a nyilvánosságot bizonyos fenyegető problémákra"-mondja Lindstrom. A hamis vészhelyzetek nagy pánikot okozhatnak. Lindstrom emlékeztet arra, hogy pánik tört ki, amikor egy katonai sürgősségi üzenet januárban mobiltelefonnal küldték mindenkinek Hawaii -n, figyelmeztetve a beérkező rakétát. A figyelmeztetés hamisnak bizonyult, de az általa okozott félelem és zavartság valós volt.

A Deepfake technológiát a politikai jelöltek is könnyen felfegyverezhetik ellenfeleikkel szemben. Például a rossz színészek mélyreható videókat készíthetnek politikai ellenfeleikről, és úgy tűnik, hogy megkérdőjelezhető dolgokat tettek vagy mondtak, amelyeket soha nem feltétlenül tettek vagy mondtak. A BuzzFeed PSA önmagában bizonyítja, hogy milyen könnyű azt a látszatot kelteni, hogy egy politikus azt mondja, amit az ember akar, bármilyen okból.

A Deepfake még meglehetősen új, de sok kárt okozhat, ha rossz kezekben van. A technikai óriások az elmúlt években alaposan bebizonyították, hogy nem hajlandóak veszélyes dezinformációt csípni és „Álhírek” a bimbóban, ami azt jelenti, hogy senki sem bízhat biztonságosan a Google és a Facebook kedvelőiben, hogy helyesen cselekedjenek dolog. Ahogy Trouble mondja: "Érdekel a technológia felhasználásának módja a művészetben vagy az oktatásban, de nem hiszem, hogy a gyártók sokat törődnek ezzel "Végül a fogyasztóknak meg kell küzdeniük a mélyhamisítás következményeivel, ha (vagy amikor) hamis politikai videók meghaladják Nick Cage számát mémek.


Olvasson többet a technológiáról Allure:

  • Őrült bohóc adatvédelem: A Juggalo smink láthatóan meggátolja az arcfelismerő technológiát
  • Hogyan változtatja meg az intelligens tükör trend a szépségipart
  • A CVS 2020 -ig szeretné megszüntetni a boltokban a Photoshopolt szépségképeket

Most nézze meg a plasztikai sebészet 100 évét:

Ne felejtse el követni az Allure -t Instagram és Twitter.

insta stories