Se te mostrassem que a missão Apollo 11 falhou e os astronautas não conseguiram retornar à Terra em 1969, você acreditaria? É esse cenário histórico alternativo que o vídeo ‘‘Event of Moon Disaster’’ produzido pelo Centro de Tecnologia Avançada do MIT pretende simular com o artifício do uso de deepfake em áudio e vídeo, mostrando como é possível reescrever eventos históricos, ou melhor, como é possível simular acontecimentos e realidades que nunca aconteceram e assim disseminar desinformação.
Deepfake é um artifício que produz vídeos e imagens falsas através de inteligência artificial, que são difíceis de distinguir da realidade.
Magaly Prado, pós-doutoranda na USP e autora do livro ‘‘Fake News e Inteligência Artificial – O poder dos algoritmos na guerra da desinformação’’ comenta como a deepfake eleva a desinformação a outro patamar, mais enganoso e que causa mais danos. ‘‘Não temos mais só desinformação em texto e imagens. A deepfake de áudio e vídeo faz com que as ‘fake news’ tomem outra proporção, já que atingem mais gente, já que muitos preferem ouvir do que ler. Além disso, você crê mais vendo/ouvindo alguém falando’’.
Através da deepfake de áudio é possível sintetizar a voz de qualquer pessoa. Em alguns sites gratuitos é possível digitar qualquer texto e com um click você pode ter o texto falado com a voz de políticos, pessoas e personagens famosos. A sintetização da voz é chamada text-to-speech (“texto-para-fala”), que transforma texto em áudio. Edições de áudio sempre existiram, mas o uso da inteligência artificial torna tudo mais rápido e menos trabalhoso, devido à automatização do processo.
Em 2021, uma pesquisa apontou que 81% dos brasileiros com mais de 16 anos utilizam áudios nas mensagens do whatsApp. Esse dado revela como a deepfake em áudio pode ter um efeito danoso. Bruno Sartori, famoso pela produção de deepfake com fins humorísticos, mostra como os áudios são críveis ao mandar áudios com a voz da ex-presidente Dilma Rousseff para uma parente.
Em entrevista à Agência Pública, o pesquisador e tecnólogo Aviv Ovadya argumenta que devido à falta de neutralização das deepfakes por outras mídias, provavelmente as sociedades mais impactadas serão as menos alfabetizadas digitalmente e também aquelas com culturas com instituições midiáticas mais fracas.
Frederico de Oliveira, doutorando em ciência da computação pela Universidade Federal de Goiás (UFG) é um dos pioneiros na pesquisa e desenvolvimento de clonagem e produção de voz na língua portuguesa, e um dos desenvolvedores do projeto Mr. Falante, que tem como principal intuito sintetizar vozes para narração e dublagem.
No site de divulgação do projeto, é possível encontrar amostras do presidente Jair Bolsonaro e Lula recitando um pedaço da Canção do Exílio.
O doutorando relata como o aperfeiçoamento do projeto reduziu o tempo de voz necessário para o treinamento. ‘‘Em 2019 precisávamos de 10 horas de amostra de voz que seria clonada; hoje, 15 minutos são suficientes’’. O pesquisador explica que a qualidade da sintetização está atrelada à qualidade da amostra da voz original.
‘‘Uma amostra com maior variação linguística referente à pronúncia dos fonemas faz com que o modelo aprenda sobre as exceções de pronúncia da língua portuguesa, como por exemplo, na palavra Pasárgada, onde a letra ‘s’ é pronunciada com som de ‘s’ e não com som de ‘z’.’’
Segundo Oliveira, a clonagem de áudio na língua portuguesa não é tão difundida quanto na língua inglesa, uma vez que seu conjunto de dados é mais extenso, e os modelos pré-treinados são para o inglês. Porém, empresas estrangeiras profissionais, que prestam serviço como o de dublagem, fornecem também para o português.
Eleições 2022
As deepfakes impactam diretamente a democracia, uma vez que tiram a credibilidade de candidatos e influenciam as escolhas políticas.
‘‘A crescente facilidade do uso de softwares para a manipulação de voz representa uma ameaça às eleições, já que assim é possível manipular a voz de qualquer candidato para atacá-lo. Desta forma, essa manipulação acaba moldando o pensamento e o comportamento das pessoas que acabam votando num outro candidato, baseadas em falsidades. Essas falsidades no contexto de eleição são malignas, acabam atravancando a democracia’’, diz Prado.
Oliveira comenta sobre a responsabilidade em disponibilizar o conjunto de dados e os modelos pré-treinados no período eleitoral, e alerta para a facilidade com que as pessoas podem aprender a fazer deepfake por conta própria.
‘‘Seria muito inconsequente disponibilizarmos isso, ainda mais nesse momento de eleição; ia acabar resultando em fake news, e eu penso que isso acontecerá em algum momento. Já tem pessoas fazendo; às vezes a pessoa é curiosa e acaba aprendendo o método. A tecnologia já avançou muito. Antes precisávamos de um mês para treinar esses modelos usando hardware de ponta; hoje em dia, você já consegue usando o computador de casa’’.
Em 2018, foi introduzido nos Estados Unidos o primeiro projeto de lei voltado para deepfakes, o Projeto de Proibição de Deepfakes Maliciosas , que criminaliza a criação e distribuição de deepfakes de forma ilegal. Em 2019, foi adotado pelo país a Ação de Responsabilidade sobre Deepfakes, que exige que os produtores de deepfakes cumpram certos requisitos, como a inserção de marca d’água digital e a divulgação de declarações verbais e escritas em conteúdos que tenham deepfake.
Em entrevista para o portal UOL, a cientista de computação e colunista da MIT Technology Review, Nina da Hora, afirmou que a melhor forma de se prevenir do risco de desinformação por meio da tecnologia é adotando uma legislação específica sobre o assunto.
Para ela, “as deepfakes atingem diretamente um dos direitos fundamentais que é a privacidade, deslegitimando pessoas e discursos em prol de algum ganho financeiro ou com o objetivo de manipular narrativas, tudo isso a partir do uso de dados sensíveis e sem autorização”.
No Brasil, a LGPD (Lei Geral de Proteção de Dados Pessoais), de 2018, não traz nenhuma instrução a respeito das deepfakes.
***
Nicole De March é mestre e doutora em Física (UFRGS). Pós-doutoranda do LABTTS (DPCT-IG/Unicamp) e membro do Grupo de Estudos de Desinformação em Redes Sociais (EDReS).