O que é Deepfake? Como a troca de rostos é usada na pornografia de vingança

  • Sep 05, 2021
instagram viewer

Você pode não ter ouvido o termo "deepfake" ainda, mas a tecnologia tem implicações assustadoras.

Em uma época em que você não consegue passar 10 minutos online sem encontrar ou ouvir sobre “notícias falsas, ”Pode parecer que a conversa sobre desinformação e propaganda maliciosa não poderia ficar mais confusa. Ah, mas isso posso.

Bem vindo ao mundo de tecnologia deepfake, onde um algoritmo simples pode criar conteúdo falso que parece incrivelmente real. Na verdade, imagens e vídeos falsos estão sendo feitos para criar pornografia de vingança realista, propaganda política e espalhar outras informações falsas, e até mesmo os especialistas podem ter dificuldade em distinguir os deepfakes do real coisa.

Mesmo assim, vale a pena saber o que são, então vamos mergulhar e aprender tudo sobre a tecnologia deepfake e as implicações que ela tem sobre pornografia, política e muito mais.

Deepfake Videos 101

A palavra "deepfake" é uma combinação dos termos "deep learning" e "fake". De acordo com Forbes, o aprendizado profundo é "um subconjunto do aprendizado de máquina em que redes neurais artificiais, algoritmos inspirados pelo cérebro humano, aprenda com grandes quantidades de dados. "Com essa tecnologia, obtemos imagens e vídeos falsos, que estão

fabricado e não autêntico mas parece e soa muito real.

Os algoritmos Deepfake começaram a proliferar online no final de 2017, e as imagens são muito comuns nas redes sociais neste momento. Deepfake é popular para criadores de memes baseados em imagens, particularmente aqueles em que celebridades trocam de rosto por alguma outra pessoa, muitas vezes também uma celebridade (ator Nicolas Cage é um alvo popular desses hijinks).

Mas vídeos deepfake realmente bons não são amplamente usados, então a maioria das pessoas pode não ter visto um ainda. No entanto, muitas pessoas deram uma olhada na tecnologia de vídeo deepfake no início deste ano, quando BuzzFeed criou um PSA de vídeo apresentando o ator e diretor Jordan Peele. No PSA, que tratava das armadilhas da tecnologia avançada de IA (e deepfakes em particular), imagens e áudio de Peele foram usados ​​para criar um vídeo deepfake altamente convincente que parece apresentar o ex-presidente Barack Obama.

A produção de um vídeo

Martin Lindstrom, o autor de Pequenos dados: as pequenas pistas que revelam grandes tendências, conta Fascinação por e-mail, “Deepfake é uma análise extraordinariamente detalhada de várias fotos ou gravações de vídeo com a pessoa que você gosto de imitar. ” Quanto mais imagens estiverem envolvidas na confecção do deepfake, ele explica, mais real parecerá quando o produto for completo.

Os algoritmos Deepfake analisam imagens pelo que Lindstrom chama de “nuances mímicas” - ou seja, todos os movimentos e expressões que uma pessoa faz. A recriação precisa das microexpressões de uma pessoa, além de outros movimentos faciais e corporais característicos, é o que torna as imagens profundas parece tão realista.

Getty Images

Depois de todo o as imagens são analisadas, Lindstrom diz, “O sistema irá mapear e converter isso em uma ferramenta fácil de usar”. Esta ferramenta permite os usuários simplesmente digitam uma mensagem que desejam que a pessoa em destaque no vídeo diga, de acordo com Lindstrom. Juntamente com IA que pode “clonar” vozes humanas ou imitar a voz de outra pessoa, os resultados da tecnologia de vídeo deepfake podem parecer extremamente realistas. A IA de imitação de voz pode usar uma gravação da voz de uma pessoa para criar outras palavras e frases que soam como se fossem ela falando.

Quem está por trás da tela

Lindstrom diz que as principais figuras que jogam com a tecnologia deepfake são "todos os suspeitos do costume", incluindo Google, Facebook e Amazon. Cada uma dessas empresas tem muito a ganhar se puder monetizar a tecnologia deepfake. Por exemplo, Lindstrom diz que o Google está usando deepfake para “entender o futuro da pesquisa e resposta; O Facebook está investigando como a tecnologia deepfake pode ajudar a empresa a entender o conteúdo falso de forma mais geral; e a Amazon poderia adaptar 'experiências Alexa personalizadas' usando tecnologia deepfake. "Vídeos Deepfake eles próprios poderiam gerar lucros para o Google na forma de vídeos do YouTube que apresentam falecidos celebridades.

“Todas essas marcas afirmam hoje que estão apenas usando e / ou explorando a tecnologia para ajudar a encontrar maneiras novas e mais atraentes para servir aos seus resultados ”, diz Lindstrom, mas avisa que o interesse que os gigantes da tecnologia têm em deepfakes pode ser motivo para interesse. Lindstrom explica que é fácil para as empresas de tecnologia promover o que parecem avanços tecnológicos úteis ou divertidos, mas também é fácil para a tecnologia de IA se tornar "duvidosa".

O uso antiético de nova tecnologia tem sido um problema na maioria (se não em todas) as grandes empresas de tecnologia ao longo dos anos. A liderança do Google foi recentemente pressionada a revisar os princípios em torno da tecnologia de IA criada depois que os funcionários pediram demissão em protesto contra a contrato militar para o Projeto Maven, que envolveu o uso de tecnologia do Google para identificar alvos de mísseis letais. Em junho, a empresa anunciou seus princípios atualizados e declarou que não renovaria o contrato do Projeto Maven.

Usando Deepfake para criar pornografia

Além das grandes empresas do mundo da tecnologia, a indústria pornográfica também adotou a tecnologia deepfake. Lindstrom diz que a indústria pornográfica pretende lançar “filmes personalizados”, nos quais uma pessoa pode assistir a um vídeo que parecerá ter uma pessoa de sua escolha. Os vídeos podem incluir a aparência de qualquer outra pessoa, desde celebridades até os próprios espectadores.

Infelizmente, o uso de deepfake para fins pornográficos também representa a ameaça de pornografia falsa de vingança. Esta tecnologia torna mais fácil colocar o rosto ou corpo de qualquer pessoa em praticamente qualquer cenário imaginável e faz com que pareça muito real, o que significa exes abusivos e outros têm oportunidades virtualmente infinitas de criar e espalhar imagens falsas que podem prejudicar a reputação do vítima.

Na verdade, de acordo com um peça da placa-mãe desde o ano passado, um Redditor apropriadamente chamado "deepfakes" criou vários vídeos pornôs deepfake apresentando os rostos de atrizes famosas (incluindo Gal Gadot, Maisie Williams, Taylor Swift e outros) antes Reddit banido o que está chamando de "pornografia involuntária" em fevereiro passado.

Artista não binário Courtney Trouble conta Fascinação porque a tecnologia deepfake compila todas as imagens digitais conhecidas do rosto de uma pessoa em uma malha, muitas dessas imagens e os vídeos podem incluir composições de quando uma pessoa era menor de idade - e, portanto, devem ser sinalizados como pornografia infantil, mesmo que seja falso.

O problema continua, dizendo: "Deepfakes também podem ser usados ​​para chantagear as pessoas." Além disso, com o uso potencial de IA na pornografia, Trouble comenta: "É muito antiético. Isso poderia tirar empregos de executantes reais; traz à tona questões de automação. "

É verdade - deepfake é uma ameaça para o sustento de artistas reais, e algumas empresas pornográficas estão até tentando se antecipar usando uma tecnologia semelhante para atrair os clientes. Como relatado por The Verge, Naughty America agora tem um serviço que permite aos clientes personalizar seus clipes usando IA. Embora esse tipo de deepfake seja feito com o consentimento dos "performers", ele ainda tem o potencial de tirar empregos dos performers reais.

Propaganda Política

No BuzzFeed PSA, Jordan Peele aconselha os telespectadores a serem cautelosos com o que veem online, dada a existência de tecnologia que pode fazer parecer que alguém está dizendo alguma coisa. É fácil imaginar consequências terríveis de vídeos falsos que colocam palavras na boca de políticos, como Presidente Trump. Em um clima político em que empresas de tecnologia, incluindo Facebook, Twitter, Google e YouTube lucram com a monetização de desinformação e outra propaganda, vídeos falsos com motivação política têm o potencial de causar danos significativos impacto.

“O pior cenário é criar medo, enviando mensagens de vídeo falsas fingindo ser de autoridades confiáveis, alertando o público sobre certas questões ameaçadoras”, diz Lindstrom. Falsas emergências têm o potencial de criar muito pânico. Lindstrom lembra que houve pânico quando um mensagem militar de emergência foi enviado a todos no Havaí com um telefone celular em janeiro, avisando sobre a chegada de um míssil. O aviso acabou sendo falso, mas o medo e a confusão que causou eram reais.

A tecnologia Deepfake também pode ser facilmente transformada em arma por candidatos políticos a cargos públicos contra seus oponentes. Por exemplo, maus atores podem criar vídeos falsos de seus oponentes políticos, fazendo parecer que eles fizeram ou disseram coisas questionáveis ​​que nunca necessariamente fizeram ou disseram. O PSA do BuzzFeed por si só é prova de como é fácil dar a impressão de que um político está dizendo o que uma pessoa quer, por qualquer motivo.

Deepfake ainda é muito novo, mas tem o potencial de causar muitos danos se estiver nas mãos erradas. Os gigantes da tecnologia demonstraram exaustivamente nos últimos anos que não estão dispostos a cortar a desinformação perigosa e “Notícias falsas” pela raiz, o que significa que ninguém pode confiar com segurança em empresas como Google e Facebook para fazer o que é certo coisa. Como Trouble diz: "Estou interessado em como a tecnologia pode ser usada para arte ou educação, mas não acho que as pessoas que a fazem se importam muito com que. "Em última análise, os consumidores terão que enfrentar as consequências do deepfake se (ou quando) os vídeos políticos falsos ultrapassarem o número de Nick Cage memes.


Leia mais sobre tecnologia em Fascinação:

  • Privacidade do palhaço insano: a maquiagem Juggalo aparentemente impede a tecnologia de reconhecimento facial
  • Como a tendência do espelho inteligente está mudando a indústria da beleza
  • CVS quer eliminar as imagens de beleza com Photoshop nas lojas até 2020

Agora, assista aos 100 anos de cirurgia plástica:

Não se esqueça de seguir o Allure no Instagram e Twitter.

insta stories