Para entender melhor o uso dos algoritmos de inteligência artificial (IA) na disseminação de desinformação e a ameaça que isso representa à democracia, o Observatório da Imprensa entrevistou Magaly Prado, a autora de ‘‘Fake news e inteligência artificial: o poder dos algoritmos na guerra da desinformação’’, livro que mostra a lógica por trás do processo da indústria da desinformação. Trata sobre os diferentes recursos, tecnologias e ferramentas utilizadas na proliferação dessas mensagens fraudulentas e propõe possíveis maneiras de mitigar seu efeito.
A jornalista Magaly Prado é bolsista de estágio pós-doutoral no Instituto de Estudos Avançados, na Cátedra Oscar Sala, e na Escola de Comunicações e Artes da Universidade de São Paulo, no departamento de Informação e Cultura e é doutora em Comunicação e Semiótica e mestre em Tecnologias da Inteligência e Design Digital.
Nicole De March – No seu livro você discorre sobre os mecanismos que os algoritmos utilizam para disseminar desinformação. Você poderia falar mais sobre esse funcionamento?
Magaly Prado – O funcionamento começa com a análise dos usuários e existe um monitoramento deles, com quem eles conversam, quanto tempo eles ficam falando com as pessoas, quanto tempo eles ficam em cada matéria, onde eles acessam, o que eles pesquisam, com quem eles compartilham conteúdo. É todo um rastreamento da vida destes usuários, da navegabilidade deles, ou seja, uma análise da vida digital destas pessoas.
A partir deste ponto eles vão agrupar os usuários que têm algo em comum em “bolhas”. Estas “bolhas” que direcionam para fake news específicas são formadas por pessoas que têm dúvidas, que são descontentes, vulneráveis, indecisas. Formam-se bolhas para depois direcionar um conteúdo específico. Vamos supor que eu estou trabalhando para um candidato e quero falar mal do outro: eu vou mirar naquele perfil de usuário que é indeciso. Então eu vou direcionar todo tipo de desinformação, conforme o perfil das pessoas, construído a partir de seus dados. É possível pegar esses dados, não só porque estão disponíveis nas redes, mas porque as próprias pessoas clicam nos termos de aceitação e vão dando os dados. Você não precisa pegar dados do IBGE. E isto tudo com qual objetivo? Para modular o pensamento das pessoas, no sentido também de modular o comportamento delas, se elas vão acreditar ou não no desmatamento, numa questão ambiental ou votar num candidato X ou Y.
N.D.M – No livro você fala da semelhança entre as agências de propaganda e os algoritmos usados para a desinformação. Poderia falar mais sobre isso?
M.P. – A semelhança está na lógica que está por trás. Da mesma forma que a desinformação, a propaganda vai atrás de um público-alvo. Mas a diferença é que na propaganda existe uma agência por trás que pode ser responsabilizada, que é quem está fazendo aquela propaganda. Em uma fake news nem sempre se sabe quem está por trás, quem está comandando essa super indústria da desinformação e tem esses interesses, digamos, escusos.
N.D.M – O que podemos fazer para se defender na guerra de desinformação?
M.P. – Eu alinho algumas frentes. Uma delas seria a educação midiática, uma medida em longo prazo: fazer com que as crianças, pré-adolescentes e adolescentes tivessem o desenvolvimento de espírito crítico para não acreditarem em qualquer coisa que aparece. Principalmente os adolescentes, já que acontece muita desinformação pelos games. Todas as escolas deveriam explicar o funcionamento da informação, de como uma notícia é feita, como é o trabalho do jornalista, a apuração, como o jornalista checa tudo e vai atrás de especialistas no assunto, vai atrás dos personagens, de outras vozes para confirmar aquilo que está fazendo. Enfim: explicar melhor como funciona o jornalismo. Explicar também quais são os jornais que são tradicionais, aqueles nos quais se pode confiar, aqueles que a gente sabe que são sérios, para que eles não fiquem só recebendo notícias pelas redes sociais, pelo WhatsApp. Explicar que existem outros lugares para ter informação.
Uma segunda frente seria as regulamentações, as leis; isso é muito complicado de ser feito também, porque esbarra na censura, em quem vai controlar o que é mentira e o que é verdade e não existe uma caracterização ainda muito fidedigna. Então as leis deveriam acontecer na linha do marco civil da internet, com muita discussão, com todo mundo participando e muitos adendos para poder chegar em uma lei robusta. Por exemplo, agora, o candidato que fala mal do outro sem provas, usando uma fake news, ele pode ser punido.
Outra frente estaria no reforço dos agentes de checagem, já que as agências de checagem não dão conta de verificar tudo, devido a própria velocidade com que as fake news viralizam. Quanto mais gente checando, melhor, mas não pode ficar tudo só nas costas dos checadores ou nas costas dos jornalistas; essa responsabilidade precisa ser distribuída entre todo mundo; quem tem bom senso ajuda a desmascarar uma fake news por dia, por exemplo.
Outra forma que eu coloco no livro são esses experimentos com blockchain, já que o blockchain é seguro e inviolável. Você coloca um material ali e pelo menos ninguém vai pegar o seu material e adulterar fazendo uma fake news com ele; vamos lembrar que quem faz fake news não tem conteúdo próprio, eles pegam conteúdos alheios e os modificam.
Pelo menos assim você dificulta o trabalho desses violadores, desses ‘‘fakers’’, tanto os humanos, quanto as máquinas também. Existem aquelas máquinas que procuram textos de lugares onde elas conseguem captar e montar textos.
N.D.M – Você acha que o Brasil está mais preparado que em 2018 para enfrentar as tentativas de manipular as eleições com desinformação?
M.P. – A gente tem a experiência por conta do passado recente, então dá para a gente trabalhar melhor essa questão. Aconteceu tanta coisa chocante que as pessoas estão: ‘‘Poxa, isso aí não pode ser verdade’’. Teve também a CPI das fake news, houve vários movimentos contra esse tipo de coisa; acho que podemos dizer que estamos um pouco mais preparados.
Mas, vamos nos lembrar que fake news é um tipo de negócio, as pessoas recebem para fazer isso. De 2018 para cá tivemos uma pandemia, muita gente ficou desempregada e é ruim dizer isso, mas muita gente acaba trabalhando nisso porque ganha para ficar clicando, numa fábrica de cliques, ou para fazer a própria fake news. Então, tem gente trabalhando nisso, como aconteceu com aqueles meninos lá da Macedônia que começaram com as fake news da Hillary e do Trump; eles começaram com fake news a favor dos dois candidatos e viram qual viralizou mais, qual tinha mais engajamento; o que interessava para eles nem era a questão política por trás. Eles não estavam fazendo isso por ideologia política, era para ganhar dinheiro.
Além disso, as fake news se sofisticaram, não existe tanto erro de português e as deepfakes são melhores, mais bem feitas. O uso dos bots conseguiu driblar as leis que não permitem tantas visualizações e outras redes surgiram também, entre elas o próprio Tik Tok, que viralizou muito. Muita gente inclusive está virando meio ‘‘tik toker’’ para ganhar audiência nessas redes mais novas. Elas também são um outro lugar onde as fakes podem ser alavancadas. Fica mais complicado controlar todos esses meios. O WhatsApp já é difícil de controlar, porque tem aquela criptografia de ponta a ponta. Você tem o Telegram, que também surgiu por conta dessas proibições. Surgiram vários sites de extrema direita, dos quais se fala: ‘‘Lá eu escrevo o que eu quero, eu posso fazer o que eu quero e meu perfil não vai ser banido’’.
Também houve a melhora da eficácia das fake news, por conta da própria experiência com o que dava certo e o que não dava, e do crescimento de outras redes. Já a confiança na mídia foi decrescente, até por causa da confusão das pessoas, achando que as fake news são feitas pelos jornalistas.
De 2016 para cá também afloraram sentimentos de ódio nas pessoas e aumentou muito a polarização. Não estou me referindo só ao Brasil: no mundo inteiro tem cada vez mais governos de extrema direita que chancelam alguns atos, como foi com a cloroquina, por exemplo.
Com tudo isso, é difícil imaginar que vamos ter bons resultados, é difícil de fazer essa comparação.
***
Nicole De March é mestre e doutora em Física (UFRGS). Pós-doutoranda do LABTTS (DPCT-IG/Unicamp) e membro do Grupo de Estudos de Desinformação em Redes Sociais (EDReS).