Home > Notícias

Deepfake: vídeos falsos vão desde pornografia, política até O Rei Leão

Técnica utiliza inteligência artificial para recriar vídeos ou criar novos, mas pode ser identificada com a mesma tecnologia.

Wellington Arruda

13/08/2019 às 10h45

Foto: YouTube/Reprodução

O termo "deepfake" surgiu em meados de 2017 quando um usuário do Reddit começou a compartilhar vídeos pornográficos de celebridades.

Os vídeos são falsos, mas a tecnologia, em si, totalmente real. O deepfake se apropria da inteligência artificial para substituir, por exemplo, rostos de pessoas. Ele age com uma forte combinação de tecnologia, e se há anos era algo impraticável pela dificuldade, hoje já é automatizado.

Para que seja possível, o deepfake precisa, basicamente: 1) de uma fonte de entrada; 2) de um personagem para ser manipulado/o alvo; 3) métodos de rastreamento; 4) um canal de disseminação.

Vídeos eram vistos como algo para provar a realidade, mas agora já podem ser facilmente alterados. E isso pode ter sérias consequências, já tem que tem efeito direto na relação do que encontramos na internet.

Um ótimo exemplo é o vídeo de Barack Obama "xingando" o presidente dos EUA Donald Trump. Na verdade, o vídeo foi produzido com base no deepfake e a fonte da voz é o diretor Jordan Peele. Neste caso, os lábios de Obama se movem de acordo com a fala de Peele, e não o seu rosto é substituído.

Eles podem ser identificados?

Mas detectar um vídeo manipulado por redes neurais pode ser possível a olho nu. O movimento dos lábios pode ser esquisito, a posição da cabeça e rosto podem não coincidir, os olhos podem não piscar de maneira regular.

Mas, também, os pesquisadores e desenvolvedores estão ficando visualmente melhores a cada dia. E os chamados vídeos com base em deepfake, por si só, mais convincentes.

Quando ela não parte de um vídeo manipulado, também pode surgir de imagens estáticas. Até a Mona Lisa ganhou vida graças a cientistas da Samsung AI junto do Skolkovo Institute of Science and Technology, na Rússia.

Vale lembrar que vozes também podem ser manipuladas por IA, tipo o Adobe VoCo, o que nos acrescenta mais um item de preocupação em relação ao uso destas ferramentas.

Na Universidade Drexel, Filadélfia, pesquisadores criaram uma ferramenta de rede neural para distinguir vídeos reais dos deepfake. Também baseada em inteligência artificial, a ferramenta analisa pixel a pixel procurando elementos alterados.

A IA pode, entre outros, identificar a parte específica da imagem que foi manipulada e identificar o modelo de câmera utilizado nas gravações.

Os riscos

O deepfake seria o Photoshop dos vídeos – ou a evolução dele. No entanto, já existem relatos bem bizarros, a maioria sobre pornografia de vingança e afins, em plataformas como o Reddit. Aí entra a questão: até quando conseguiremos identificá-los?

Por exemplo, Mark Zuckerberg teve um vídeo (deepfake, claro) publicado no Instagram com afirmações fortes sobre manipulação no Facebook. Ele foi desmentido rapidamente, mas se considerarmos casos de linchamento virtual, o cenário poderia ser diferente.

Materiais manipulados, desta forma, apenas colaboram com as notícias falsas/fake news. O impacto político ainda não pode ser mensurado, embora seja visível, já que ocorre em outras esferas com diferentes publicações.

É aí que entra um velho debate: a educação. Manipulação de notícias pode ser debatido em salas de aula, o que pode gerar novas habilidades de pensamento crítico. Mas isto também não ocorre de uma hora para outra, embora seja uma solução.

Na mesma linha, o debate sobre notícias falsas, manipulação nas redes e disseminação também precisa estar ativo. O mais básico disso tudo, é: nem tudo o que você lê na internet é verdade, e agora, nem tudo o que assiste também.

E também é válido citar que "cair" em vídeos manipulados não é uma particularidade de pessoas mais velhas.

Pornografia, política e... O Rei Leão

Nós poderíamos dizer que vídeos com base em deepfake são versáteis, mas eles ainda estão em um estágio inicial. E, como tecnologia, já avançou rapidamente a ponto de conseguir enganar quem os assiste. Mas não totalmente, como já vimos.

Existem casos preocupantes até demais que envolvem o uso de técnicas de IA para recriar vídeos e falas de pessoas. Em casos de figuras públicas, é mais fácil desmentir versão; mas e se fosse com pessoas comuns, como você e eu?

Bem, por hora, a seguir vão alguns exemplos de vídeos baseados em deepfake para você ter uma noção de como a tecnologia tem sido aplicada.

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter Newsletter por e-mail