Wat is deepfake? Hoe face-swapping wordt gebruikt in wraakporno

  • Sep 05, 2021
instagram viewer

Je hebt misschien nog niet van de term 'deepfake' gehoord, maar de technologie heeft angstaanjagende implicaties.

In een tijd waarin het niet lijkt alsof je 10 minuten online kunt doorbrengen zonder iets tegen te komen of te horen over "nep nieuws”, kan het lijken alsof het gesprek over desinformatie en kwaadaardige propaganda niet meer verwarrend kan worden. Oh, maar het is kan.

Welkom in de wereld van deepfake-technologie, waar een eenvoudig algoritme nep-inhoud kan creëren die er ongelooflijk echt uitziet. Er worden zelfs nepfoto's en -video's gemaakt om realistische wraakporno, politieke propaganda en andere valse informatie verspreiden, en zelfs experts kunnen moeite hebben om de deepfakes van de echte te onderscheiden ding.

Toch is het de moeite waard om te weten wat ze zijn, dus laten we erin duiken en alles leren over deepfake-technologie en de implicaties die het heeft op porno, politiek en meer.

Deepfake-video's 101

Het woord 'deepfake' is een samenstelling van de termen 'deep learning' en 'nep'.

Volgens Forbes, is deep learning "een subset van machine learning waarbij kunstmatige neurale netwerken, algoritmen geïnspireerd door de menselijk brein, leer van grote hoeveelheden gegevens." Van deze technologie krijgen we deepfake-afbeeldingen en -video's, die zijn verzonnen en niet authentiek maar kijk en klinkt heel echt.

Deepfake-algoritmen begonnen zich eind 2017 online te verspreiden en de afbeeldingen zijn op dit moment eigenlijk vrij gewoon op sociale media. Deepfake is populair bij makers van op afbeeldingen gebaseerde memes, met name die waarin beroemdheden worden gewisseld met een andere persoon, vaak ook een beroemdheid (acteur Nicolas Cage is een populair doelwit van deze hijinks).

Maar echt goede deepfake-video's worden niet veel gebruikt, dus de meeste mensen hebben er misschien nog geen gezien. Veel mensen hebben eerder dit jaar echter naar deepfake-videotechnologie gekeken toen BuzzFeed heeft een video gemaakt PSA met acteur en regisseur Jordan Peele. In de PSA, die ging over de valkuilen van geavanceerde AI-technologie (en deepfakes in het bijzonder), beeld en audio van Peele werden gebruikt om een ​​zeer overtuigende deepfake-video te maken waarin de voormalige president Barack Obama te zien was.

Het maken van een video

Martin Lindstrom, de auteur van Kleine gegevens: de kleine aanwijzingen die enorme trends blootleggen, vertelt Verleiden via e-mail: "Deepfake is een buitengewoon gedetailleerde analyse van meerdere foto's of video-opnamen van de persoon die je graag imiteren.” Hoe meer afbeeldingen betrokken zijn bij het maken van de deepfake, legt hij uit, hoe reëler het eruit zal zien wanneer het product is compleet.

Deepfake-algoritmen analyseren afbeeldingen voor wat Lindstrom 'nabootsende nuances' noemt - dat wil zeggen, alle bewegingen en uitdrukkingen die een persoon maakt. De precieze re-creatie van de micro-expressies van een persoon naast andere karakteristieke gezichts- en lichaamsbewegingen is wat deepfakes maakt zo realistisch lijken.

Getty Images

eens alle afbeeldingen worden geanalyseerd, zegt Lindstrom: "Het systeem zal deze in kaart brengen en omzetten in een gebruiksvriendelijke tool." Deze tool maakt het mogelijk gebruikers om gewoon een bericht in te typen dat ze willen dat de persoon in de video zegt, volgens Lindström. In combinatie met AI dat kan menselijke stemmen "klonen" of anderszins de stem van iemand anders imiteert, kunnen de resultaten van deepfake-videotechnologie opmerkelijk realistisch lijken. Stemimitatie AI kan een opname van iemands stem gebruiken om andere woorden en zinsdelen te creëren die klinken alsof zij het zijn die aan het praten zijn.

Wie zit er achter het scherm?

Lindstrom zegt dat de belangrijkste figuren die spelen met deepfake-technologie "alle gebruikelijke verdachten" zijn. inclusief Google, Facebook en Amazon. Elk van deze bedrijven heeft veel te winnen als het geld kan verdienen met deepfake-technologie. Lindstrom zegt bijvoorbeeld dat Google deepfake gebruikt om “de toekomst van zoeken en reageren te begrijpen; Facebook onderzoekt hoe deepfake-technologie het bedrijf kan helpen om nep-inhoud meer in het algemeen te begrijpen; en Amazon zou 'gepersonaliseerde Alexa-ervaringen' kunnen aanpassen met behulp van deepfake-technologie." Deepfake-video's zelf zou een winst-turner voor Google kunnen zijn in de vorm van YouTube-video's met overledenen beroemdheden.

"Al die merken beweren tegenwoordig dat ze de technologie alleen gebruiken en/of verkennen om nieuwe en aantrekkelijkere manieren te vinden om hun resultaten te dienen”, zegt Lindstrom, maar waarschuwt dat de interesse van techgiganten in deepfakes een reden kan zijn voor zorg. Lindstrom legt uit dat het voor technologiebedrijven gemakkelijk is om wat lijkt op nuttige of leuke technologische vooruitgang te bevorderen, maar het is ook gemakkelijk voor AI-technologie om 'dubieus' te worden.

Het onethische gebruik van nieuwe technologie is door de jaren heen een probleem geweest bij de meeste (zo niet elk) grote technologiebedrijf. Het leiderschap van Google werd onlangs onder druk gezet om de principes rond AI-technologie die het creëert te herzien nadat werknemers zijn gestopt uit protest tegen de militair contract voor Project Maven, waarbij Google-technologie werd gebruikt voor het identificeren van doelen van dodelijke raketten. In juni kondigde het bedrijf zijn bijgewerkte principes aan en verklaarde het het Project Maven-contract niet te verlengen.

Deepfake gebruiken om porno te maken

Naast de grote spelers in de technische wereld, heeft de porno-industrie ook deepfake-technologie opgepakt. Lindstrom zegt dat de porno-industrie ernaar streeft om 'gepersonaliseerde films' uit te brengen, waarin een persoon een video kan bekijken waarin een persoon naar keuze lijkt te staan. De video's kunnen dan het uiterlijk van een andere persoon bevatten, van beroemdheden tot de kijkers zelf.

Helaas vormt het gebruik van deepfake voor pornografische doeleinden ook de dreiging van nep wraak porno. Deze technologie maakt het gemakkelijk om iemands gezicht of lichaam in zowat elk denkbaar scenario te plaatsen en het er heel echt uit te laten zien, wat betekent beledigende exen en anderen hebben vrijwel oneindige mogelijkheden om valse beelden te creëren en te verspreiden die de reputatie van de slachtoffer.

In feite, volgens een stuk van moederbord van vorig jaar heeft een Redditor met de toepasselijke naam "deepfakes" meerdere deepfake-pornovideo's gemaakt met de gezichten van beroemde actrices (waaronder Gal Gadot, Maisie Williams, Taylor Swift en anderen) eerder Reddit verbannen wat het afgelopen februari "onvrijwillige pornografie" noemt.

niet-binaire artiest Courtney Trouble vertelt Verleiden dat omdat deepfake-technologie alle bekende digitale afbeeldingen van iemands gezicht in een mesh samenvoegt, veel van deze afbeeldingen en video's kunnen composieten bevatten van toen een persoon minderjarig was - en moeten daarom worden gemarkeerd als kinderporno, zelfs als het nep.

Het probleem gaat verder en zegt: "Deepfakes kunnen ook worden gebruikt om mensen te chanteren." Bovendien, met het mogelijke gebruik van AI in porno, merkt Trouble op: "Het is behoorlijk onethisch. Het kan banen wegnemen van echte artiesten; het brengt problemen met automatisering met zich mee."

Het is waar - deepfake is een bedreiging voor de levensonderhoud van echte artiesten, en sommige pornobedrijven proberen zelfs een voorsprong te nemen door vergelijkbare technologie te gebruiken om klanten aan te trekken. Als gerapporteerd door The Verge, heeft Naughty America nu een service waarmee klanten hun clips kunnen aanpassen met behulp van AI. Hoewel dit soort deepfake wordt gedaan met de toestemming van de 'artiesten', heeft het nog steeds het potentieel om banen weg te nemen van echte artiesten.

Politieke propaganda

In de BuzzFeed PSA adviseert Jordan Peele kijkers om voorzichtig te zijn met wat ze online zien, gezien het bestaan ​​van technologie waardoor het lijkt alsof iemand iets zegt. Men kan zich gemakkelijk de ernstige gevolgen voorstellen van deepfake-video's die politici woorden in de mond leggen, zoals: president Trump. In een politiek klimaat waarin technologiebedrijven als Facebook, Twitter, Google en YouTube profiteren van het te gelde maken van desinformatie en andere propaganda, politiek gemotiveerde deepfake-video's kunnen aanzienlijke schadelijke gevolg.

"Het ergste scenario is om angst te zaaien door valse videoberichten te sturen die doen alsof ze van vertrouwde autoriteiten zijn en het publiek te waarschuwen voor bepaalde bedreigende problemen", zegt Lindstrom. Valse noodsituaties kunnen veel paniek veroorzaken. Lindstrom herinnert eraan dat er paniek ontstond toen een militair noodbericht werd in januari met een mobiele telefoon naar iedereen op Hawaï gestuurd om te waarschuwen voor een inkomende raket. De waarschuwing bleek een valse te zijn, maar de angst en verwarring die het veroorzaakte waren echt.

Deepfake-technologie kan ook gemakkelijk worden bewapend door politieke kandidaten voor het ambt tegen hun tegenstanders. Slechte acteurs kunnen bijvoorbeeld deepfake-video's maken van hun politieke tegenstanders, waardoor het lijkt alsof ze dubieuze dingen hebben gedaan of gezegd die ze nooit per se hebben gedaan of gezegd. De PSA van BuzzFeed alleen al is het bewijs van hoe gemakkelijk het is om de schijn te wekken dat een politicus zegt wat iemand maar wil, om welke reden dan ook.

Deepfake is nog vrij nieuw, maar het kan veel schade aanrichten als het in verkeerde handen is. Techreuzen hebben de afgelopen jaren grondig aangetoond dat ze niet bereid zijn om gevaarlijke desinformatie te omzeilen en "nepnieuws" in de kiem, wat betekent dat niemand veilig kan vertrouwen op Google en Facebook om het juiste te doen ding. Zoals Trouble zegt: "Ik ben geïnteresseerd in manieren waarop de technologie kan worden gebruikt voor kunst of onderwijs, maar ik denk niet dat de mensen die het maken veel om dat." Uiteindelijk zullen consumenten worden overgelaten aan de gevolgen van deepfake als (of wanneer) nep-politieke video's de Nick Cage overtreffen memen.


Lees meer over technologie op Verleiden:

  • Insane Clown Privacy: Juggalo-make-up dwarsboomt blijkbaar gezichtsherkenningstechnologie
  • Hoe de Smart Mirror-trend de schoonheidsindustrie verandert
  • CVS wil gephotoshopte schoonheidsbeelden in winkels tegen 2020 uitfaseren

Kijk nu naar 100 jaar plastische chirurgie:

Vergeet Allure niet te volgen op Instagram en Twitter.

insta stories