Thursday, 21 de November de 2024 ISSN 1519-7670 - Ano 24 - nº 1315

Deepfake: o fim das evidências como as conhecemos?

(Foto: Ismagilov/Getty Images)

São Tomé, uns dos 12 apóstolos de Jesus, precisou tocar nas chagas de Cristo – ele precisa ‘‘tocar para crer’’ que Jesus tinha ressuscitado. Assim é a conduta humana média: de modo geral, precisamos “ver para crer”: confiamos, sem questionar, no que vemos e ouvimos. Fotos e vídeos são evidências, objetivas e genuínas. Problema: o artifício das deepfakes mostra que, de fato, não são não.

Deepfakes são imagens, vídeos e áudios adulterados, com ferramentas de inteligência artificial, para parecer verídicos. O termo deepfake vem de ‘‘deep learning’’ (‘‘aprendizagem profunda’’) que é um campo do aprendizado de máquina baseado em redes neurais artificais que aprendem sozinhas a reconhecer a fala, identificar padrões de comportamentos visuais fazendo formas híbridas ou gerando corpos humanos e faces. Com essas ferramentas é possível fazer com que uma pessoa que nunca falou ou cometeu um ato pareça estar fazendo exatamente isso num vídeo.

Para um deepfake com um bom resultado, ou seja, com uma aparência mais crível, é necessário um grande banco de imagens e vídeos, com as mais diversas expressões faciais, poses, características da voz e exposição a diferentes graus de iluminação. Tudo para que o sistema possa aprender o comportamento do ser humano em questão. Quanto mais dados, mais fidedigno o resultado vai parecer. Pessoas famosas e políticos são os que mais sofrem com esses tipos de vídeo, já que é possível ter acesso a uma grande quantidade de material na internet.

Um exemplo famoso é o vídeo feito em 2018 para o BuzzFeed, onde o ex-presidente Barack Obama diz frases como ‘‘o presidente Trump é um grande e total merda’’. Obama nunca disse isso: as palavras do ex-presidente foram substituídas pelas do diretor e ator Jordan Peele.  Desde lá, o artifício de manipulação foi muito aprimorado, como podemos ver no videoclipe recente de Kendrick Lamar, o clipe da música ‘‘The Heart Part 5’’, onde o rapper assume o rosto de algumas celebridades, dentre elas Will Smith.

Esse aprimoramento da manipulação se deve ao aperfeiçoamento das linhas de código e da evolução e fácil acesso aos equipamentos necessários.  O bom resultado da deepfake depende mais de uma placa gráfica que dê conta de treinar o modelo com todos os dados, do que da habilidade de quem faz o vídeo. Além disso, as tecnologias de reconhecimento facial e os dados disponibilizados gratuitamente pelas pessoas ao usar aplicativos, como os que simulam a pessoa na velhice ou mesmo nas próprias redes sociais, já fornecem um grande acervo de imagens para a confecção de um vídeo.

Alguns aplicativos conseguem criar deepfake em tempo real, sendo possível assim usar o tipo de artifício em vídeo-chamadas. Um dos aplicativos é o DeepFakelive, que promete fazer com que qualquer um possa se passar por alguém famoso, como por exemplo no vídeo que mostra como simular o rosto da atriz Margot Robbie.  Programas como esse podem viabilizar ainda mais a atividade de Catfishing –se passar por uma persona fictícia em redes sociais e enganar usuários para dar algum golpe amoroso, praticar bullying ou apenas usar o outro por qualquer razão. Mas para ludibriar o alvo, não é necessário ir tão longe: existem muitos tipos de maneiras de edição audiovisual eficazes. Deepfake é apenas uma das delas. É possível editar os vídeos com técnicas simples como cortar, acelerar, desacelerar, reencenar ou re-contextualizar a filmagem. Essas técnicas que não dependem de inteligência artificial são chamadas de ‘‘cheap fakes’’ (falsificações baratas), termo usado em 2019 pelas pesquisadoras Britt Paris e Joan Donovan, em um relatório sobre o tema.  Mesmo sendo ‘‘mais simples e mais rápidos’’ de fazer, muito dano pode ser causado aos envolvidos até que se prove que os vídeos são falsos.

A grande questão é como desenvolver ferramentas que identifiquem vídeos falsos, e o façam de forma rápida. O aprimoramento das deepfakes torna cada vez mais difícil checar a sua veracidade; mesmo que fosse possível fazê-lo, os métodos de verificação recentes não são rápidos o bastante para desmascarar antes de ter causado estrago.

Além dos vídeos com pessoas influentes, também é possível fazer o mesmo com rostos de pessoas que não existem, no site This Person Does not Exist. Desta forma, torna-se impossível fazer uma busca reversa por imagens e descobrir se o conteúdo é legítimo ou não. Essas imagens são amplamente utilizadas para fazerem perfis falsos nas redes sociais. 

Agora, um político ou influenciador público importante pode alegar algo racista, por exemplo, e depois dizer que foi vítima de um conteúdo manipulado digitalmente. Será que iríamos acreditar nessa pessoa? Uma deepfake de alguma cientista com credibilidade apoiando o movimento antivacina no vídeo pode influenciar significativamente a sociedade, ou como aconteceu no caso da deepfake do Volodymyr Zelensky, onde o presidente fazia um apelo às tropas ucranianas para que largassem as armas. O canal de televisão que transmitia o vídeo do presidente tinha sido hackeado e o vídeo era mal-feito, mas mesmo assim poderia ter efeitos maliciosos consideráveis.

A erosão de confiança causada pelas deepfakes pode enfraquecer a democracia. Com um simples computador de mesa em mãos, o sistema eleitoral, o governo, a Justiça e as instituições podem perder a credibilidade. No caso do vídeo de Zelensky poderia ter comprometido a segurança nacional e, dependendo da mensagem, ter difundido a violência. 

Em anos eleitorais, esse tipo de vídeos tende a ser mais corriqueiros; neste ano será necessário um ceticismo maior quanto aos conteúdos recebidos, mesmo que estes tenham sido compartilhados por pessoas de confiança. As deepfakes parecem ter posto em xeque a confiabilidade em vídeos e imagens, com aquilo que consideramos uma prova cabal da verdade, mas Paris e Donovan nos lembram: ‘‘a ‘verdade’ do conteúdo audiovisual nunca foi estável – a verdade é social, política e culturalmente determinada.’’

***

Nicole De March é mestre e doutora em Física (UFRGS). Pós-doutoranda do LABTTS (DPCT-IG/Unicamp) e membro do Grupo de Estudos de Desinformação em Redes Sociais (EDReS).