Home > Colunas

O Deep Fake está cada vez mais comum e assusta com o poder da tecnologia

Recurso, disponibilizado inclusive de forma gratuita, é muito utilizado para colocar digitalmente o rosto de qualquer pessoa em outra

Armando Kolbe Júnior*

30/06/2019 às 10h24

Foto: Shutterstock

Uma nova tecnologia no mundo da internet tem tirado o sono de muita gente: o Deep Fake. O recurso — disponibilizado inclusive de forma gratuita — é muito utilizado para colocar digitalmente o rosto de qualquer pessoa em outra. A tecnologia é utilizada principalmente em vídeos.

Criada por um usuário do Reddit (uma rede social em que os participantes podem votar no conteúdo que julgam mais relevante), trata-se de uma tecnologia que faz uso da inteligência artificial para proporcionar essa troca do rosto das pessoas, e até proporcionando uma certa realidade à nova face, com sincronização de movimentos dos lábios e outras expressões. São resultados impressionantes — tanto que ninguém pode se considerar livre da possibilidade de ter seu rosto incluído em um vídeo editado.

Tudo começou no ano de 2017, mais precisamente em dezembro, quando um usuário do Reddit chamado “deepfakes” utilizou inteligência artificial e aprendizado de máquina para criar algoritmos com o objetivo de “treinar” uma rede neural. Essa rede mapeia o rosto de uma pessoa no corpo de outra. Isso seria feito quadro a quadro.

No início, era necessário ter conhecimentos avançados para utilizar o Deep Fake. Entretanto, após a criação de diversos apps, os processos foram automatizados, tornando-se mais acessíveis e aumentando a utilização criminosa da ferramenta. Começaram a surgir diversos vídeos pornográficos estrelados por personalidades diversas. Uma das falhas que pode ser observada nesses vídeos é que os coadjuvantes quase não piscam.

Além dos filmes pornográficos, algumas personalidades estão sendo colocadas em locais e situações em que nunca estiveram, trazendo inúmeros constrangimentos. Infelizmente é possível, inclusive, criar um álibi, forjar um momento e colocar, por exemplo, um CEO ou mesmo um político em situações de difícil reparação — principalmente frente ao imediatismo das pessoas em não entender que determinado vídeo pode ser falso e que a manipulação depende da criatividade do editor e de quantos vídeos da celebridade (ou mesmo seus) estejam disponíveis facilmente na internet.

Um caso recente envolveu o partido político da Bélgica Socialistische Partij, anders (Partido Socialista, Mas Diferente) que criou e divulgou o Deep Fake. Nesse Helmuth Hofstatter desenvolveu sua carreira profissional sempre ligado a empresas que atuam no segmento do Comércio Exterior, especificamente ligadas à logística internacional. Foi contratado pelo TCP Terminal de Contêineres de Paranaguá como Coordenador de Projetos TI em que liderou diversas iniciativas que resultaram em melhoria e também de automação de rotinas e processos de um dos mais importantes portos de entrada e saída do país. Em paralelo a essa atividade, o especialista começou a criar a tecnologia que serviu de base para a LogComex, hoje uma das startups que mais cresce e revoluciona o Comércio Exterior Brasileiro.

Uma das maneiras de nos protegermos dessas ferramentas de manipulação é evitar o compartilhamento de vídeos com desconhecidos, ou mesmo não postá-los em redes sociais, dificultando assim o trabalho do editor em pegar seu rosto e colocá-lo em outro vídeo comprometedor.

Além dos vídeos, vemos constantemente nas notícias questões sobre assuntos que viralizaram nas redes sociais, como áudios e textos atribuídos a famosos, mas que na verdade são #FAKE.

O maior problema é o discernimento do que é verdadeiro e falso. Portanto, recomenda-se evitar a distribuição de textos, áudios e vídeos sem o conhecimento da fonte original. Fazendo isso, pode-se facilmente cometer o erro de distribuir notícias falsas e atender aos interesses de criminosos.

*Armando Kolbe Júnior é professor do curso de Investigação Profissional do Centro Universitário Internacional Uninter

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail