15/10/2020

Você sabe o que são deepfakes?

Vou começar explicando a origem da palavra, o que certamente vai trazer mais perguntas que respostas. O termo “deepfake” vem da união dos termos “deep learning” (aprendizagem profunda ou aprendizado hierárquico) e “fake” (falso). Ok, fake todo mundo está cansado de saber, mas o que é deep learning? É, basicamente, um ramo do aprendizado de máquina (machine learning) que, de forma bem rasa, consiste na coleta e uso de dados, por meio de algoritmos, para que a “máquina” possa aprender com esses dados e fazer previsões sobre o assunto para o qual está sendo “treinada”. Qualquer hora dessas eu aprofundo esses temas, mas, hoje, a pauta é outra. E vamos a ela. 

O uso de deepfakes na corrida eleitoral americana tem causado um certo estardalhaço. O curioso é que o barulho tem sido maior em razão da utilização “assumida” dessa tecnologia do que do uso clandestino. Explico.

Três propagandas chamaram bastante atenção nos últimos dias. Duas delas usam as imagens do presidente russo, Vladimir Putin, e do ditador norte-coreano, Kim Jong-un, em vídeos falsos em que dizem que a ameaça à democracia dos Estados Unidos não vem deles, mas dos próprios americanos. A terceira tem como protagonista o jovem Joaquin Oliver, morto em 2018.



Quanto ao primeiro caso, acho importante fazer uma ressalva: trata-se de uso indevido da imagem dos envolvidos. Duvido que os líderes da Rússia e da Coreia do Norte tenham consentido com o uso de suas imagens. Pois é, ainda que visando a alertar sobre os problemas dos deepfakes, os criadores acabaram incorrendo, eles próprios, no uso inadequado dessa tecnologia.



Mas vamos ao caso Joaquin, que é muito mais interessante. O jovem venezuelano foi assassinado em um massacre, na Flórida, que vitimou 17 alunos da escola de Parkland. Dois anos após sua morte, uma ONG teve a ideia de usar sua imagem em uma propaganda incentivando os americanos a irem às urnas. Como lá o voto não é obrigatório, um dos maiores desafios dos candidatos é convencer as pessoas a saírem de casa para votar.

Com a autorização dos pais de Joaquin, uma agência de publicidade de Nova Iorque, em parceria com um estúdio do Rio de Janeiro, criou um vídeo em que o próprio jovem dá o recado. Isso foi possível justamente com o uso da técnica do deepfake – e com isso chega a hora de explicarmos, simplificadamente, como essa encrenca funciona.

Basicamente, a técnica consiste em sobrepor a imagem e/ou voz de uma pessoa no rosto ou corpo de outra. Com isso, parece que quem está na foto, no vídeo ou no áudio (pode-se usar a voz de uma pessoa para construir discursos que ela nunca fez, por exemplo) é, na verdade, a outra pessoa, e não o ator original.

Vamos ao caso concreto para tentar facilitar a explicação. Quem aparece “de verdade” no vídeo é um ator, mas, para quem assiste, é o Joaquin. Isso é possível com o uso de ferramentas avançadas de inteligência artificial usadas para “construir” uma imagem de Joaquin, a partir de vídeos e fotografias, e colocá-la sobre a imagem do ator que gravou o vídeo. A impressão que fica é que é o próprio Joaquin na propaganda. 

É importante notar que, como toda tecnologia, os deepfakes começaram como algo complicado de usar, mas, com o passar do tempo, estão ficando cada vez mais acessíveis a qualquer pessoa. Na China, o aplicativo Zao já permite usar o rosto do usuário em cenas de filmes com o upload de uma única foto. Ano passado, o DeepNude permitia a criação de imagens da falsa nudez de mulheres a partir do envio de uma foto qualquer. Nesse caso, não era a imagem do rosto que era sobreposta, mas do corpo: as roupas se “transformavam” em um corpo nu. O app foi descontinuado depois de muita polêmica, mas certamente essa tecnologia continua disponível em alguma esquina da dark web. 

Com o acesso facilitado à tecnologia, é muito provável que nos deparemos, cada vez mais frequentemente, com vídeos falsos ultrarrealistas, nos quais será quase impossível perceber que se trata de deepfake. Isso dá margem a uma série de problemas com repercussões jurídicas graves, como o uso indevido de imagem para a produção de pornografia, a manipulação de eleitores ou até mesmo a prática de fraudes. Já imaginou se o CFO da empresa recebe um vídeo falso do CEO mandando transferir 5 milhas para uma conta secreta “da empresa”? Pois isso é só o começo.


Gostou do assunto? Fique de olho e assine nossa newsletter, pois esse é o tema do nosso próximo podcast, com a participação do advogado e pesquisador Christian Perrone. 
Por Raphael Di Tommaso

Publicado em 15/10/2020 às 23:40

Topo