Em entrevista ao Observatório da Imprensa, Rafael Evangelista, pesquisador da Unicamp, e conselheiro do Comitê Gestor da Internet no Brasil (CGI.br), fala sobre a economia da desinformação e sobre os avanços e retrocessos em torno do PL 2630, o PL das Fake News
Passado um ano dos ataques à Praça dos Três Poderes, o debate sobre desinformação e acordo democrático parece ganhar novo fôlego. No primeiro aniversário do 08 de janeiro de 2023, o tensionamento entre governo e oposição em torno da data reacendeu a discussão sobre o Projeto de Lei 2630/2020, conhecido como PL das Fake News. A iniciativa, do Senador Alessandro Vieira (CIDADANIA/SE), e de relatoria do deputado Orlando Silva (PCdoB-SP), prevê a criação da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.
Apesar de sinais emitidos pelo Congresso, que apontam a pauta econômica como prioridade para o ano, o monitoramento legal da comunicação política nas redes é um tema que ganha força, especialmente diante das eleições municipais de 2024. A discussão sobre os limites do debate público, bem como a relação entre empresas de tecnologia, regulamentação, e liberdade de expressão, são temas a se impor num momento em que a imprensa, e a economia da informação, vivem uma profunda transformação.
E de que modo uma iniciativa como o PL 2630 poderia conciliar o combate à desinformação com proteção da privacidade e liberdade de expressão? Como seria possível uma colaboração entre as plataformas digitais e os órgãos reguladores? E como o PL 2630 poderá impactar o universo político e eleitoral no Brasil?
Para tratar do assunto, o Observatório da Imprensa entrevistou o Rafael Evangelista, doutor em Antropologia, pesquisador e professor do Laboratório de Estudos Avançados em Jornalismo, da Unicamp. Foi pesquisador visitante junto ao Surveillance Studies Centre, da Queen’s University, no Canadá, e é, atualmente, Conselheiro do CGI.br (Comitê Gestor da Internet no Brasil). É, também, autor do livro digital Para Além das Máquinas de Adorável Graça: cultura hacker, cibernética e democracia (Edições Sesc SP).
Professor, gostaria de iniciar nossa entrevista com uma questão sobre o grande cenário. Como o senhor vê, hoje, o cenário da desinformação? Seus desafios, seus riscos?
Examinando um pouco as causas, acho que dá para falar que existem motivações políticas, atores políticos que se utilizam das novas plataformas de comunicação para produzir desinformação em seu favor. Mas não dá pra gente olhar para isso sem perceber os estímulos econômicos à produção da desinformação. Acho que isso é uma característica que pauta muito a própria atuação das plataformas das redes sociais, que se colocam como se fossem intermediários neutros dessa troca. Mas, na verdade, esses intermediários procuram um fluxo máximo de informações e de engajamento, não só de atenção, mas engajamento ativo de usuários – quer dizer, comentários, curtidas, retransmitir e produzir mais informação.
Quanto mais esses usuários interagem com a plataforma, mais ela lucra vendendo publicidade, ou dados, o que quer que seja. Então, precisamos pensar no quanto há de desinformação sendo produzida porque gera lucro para as plataformas, e no quanto elas se omitem, por questões econômicas, na hora de tomar atitudes um pouco mais eficazes. Porque o combate à desinformação, eventualmente, pode levar a uma perda de audiência, e de engajamento de usuários. Não é apenas um problema do sistema (técnico), é também um problema das orientações econômicas dessa estrutura.
A respeito do que você disse, como poderíamos entender episódios como o da plataforma Kwai? Recentemente, a revista Piauí revelou que o Kwai, uma plataforma chinesa, teria impulsionado ilegalmente, durante as eleições, vídeos do então candidato Jair Bolsonaro. Uma prática que, na verdade, iria contra a legislação eleitoral brasileira. Além disso, segundo a reportagem, a plataforma teria permitido a circulação de fake news para manter o engajamento de usuários. Você acompanhou esse caso?
Sim. Acredito que isso é algo que vem se juntar a outras evidências reveladas anteriormente, como é o caso envolvendo a Cambridge Analytica e o Facebook. Ali, existiu, de fato, um conluio de uma plataforma com uma agência de publicidade para a produção de desinformação. No caso do Kwai, acho que é uma documentação ainda mais grave, em que é relatada a relação próxima de algumas agências que estariam a cargo de produzir conteúdo para a plataforma, enquanto essa mesma plataforma receberia esses conteúdos sem se preocupar se seria desinformação ou não. A plataforma, mesmo sabendo, muitas vezes, tratar-se de desinformação política, atuaria entendendo que isso produziria engajamento. Então, ela se omitia, deixando aquilo circular.
Não é o caso de uma inclinação política A ou B: a plataforma está inclinada ao lucro. E essa é uma atividade econômica que é “não supervisionada”, digamos assim. É quase como se fosse uma indústria que produz muita poluição, se ela agir para a poluição diminuir, ela também diminui sua produtividade. Então, como essa plataforma não tem regulação, ela continua poluindo ao máximo, porque isso aumenta o engajamento – que é a lucratividade dela.
Pelo que você diz, essa parece ser uma questão, também, de regulamentação de um mercado novo. Porque estamos diante de algo que se assenta sobre uma dinâmica econômica nova, sobre tecnologias novas. E sobre relações entre legislação e empresas que, em muitos casos, são transnacionais. Na prática, são grupos econômicos que estão em muitos países ao mesmo tempo, submetidos a muitas legislações – e, nisso, pode dar a impressão que são submetidos a nenhuma. Nesse sentido, quais são suas perspectivas sobre o PL 2630?
O PL 2630, na verdade, incide sobre parte desse problema que é a falta de regulamentação das plataformas. É um projeto muito voltado para moderação de conteúdo e transparência. Não é um projeto que incide sobre a característica econômica das plataformas, embora isso acabe, é claro, tendo um efeito (econômico). Eu vejo o PL 2630 como parte de um esforço que deveria ser muito mais amplo, o de enfrentar o problema da regulação das plataformas em diversos campos. Para as redes sociais, o projeto vai ter algum efeito se for aprovado com o atual texto. Mas não será algo que vai resolver tudo. Porque ele não trata da questão das motivações econômicas. E talvez essa seja uma estratégia que faça sentido, a gente examinar as características do problema de uma maneira fatiada. Agora, é preciso pensar nisso de uma maneira ampla, e não me parece que o atual governo esteja pensando nisso como uma política mais estruturada.
Vamos lembrar da história do PL2630: ele surge como o tal “PL das Fake News”, com um texto inicial ruim, que basicamente procura resolver o problema de deputados que não gostam que falem mal deles nas redes. Então, o objetivo seria identificar e punir quem fala. Essa é uma visão do problema bastante simplista. Para resolver esse problema, a Câmara dos Deputados acaba propondo um texto muito mais interessante, que vai nessa linha da transparência e da moderação de conteúdo. Ela se inspira em coisas de algumas legislações internacionais, e chegamos nesse texto atual. Porém, isso é apenas uma parte do problema. Seria muito interessante se o governo tivesse uma visão estruturada, mesmo que isso não aparecesse em um projeto apenas. E, sim, que aparecesse em vários projetos que pudessem se conversar, digamos assim, para formar uma uma estrutura de regulação das plataformas. Outra coisa que seria bastante importante: o governo hoje tem uma Secretaria de Políticas Digitais. Essa secretaria poderia dar base a uma visão um pouco mais estratégica, porque esse é um tema que vai precisar de um acompanhamento constante.
Quando fez a pergunta, você estava falando sobre o quanto há de mudança tecnológica, não é? E, de fato, essa mudança embaralha o que a gente tinha de regulamentação para comunicação. Porque já existia alguma regulamentação, só que ela, a plataforma, aparece dizendo “não, isso não se aplica a mim, porque eu sou só um intermediário”. Aí, ao longo do tempo, a gente vai entendendo que as plataformas não são meros intermediários, porque elas atuam diretamente na produção de informação – ou, mesmo, indiretamente, com os algoritmos que produzem incentivos a certas produções. Elas atuam ao sugerir coisas para os usuários, aquilo que ela entende que está engajando mais. Então, elas não são neutras.
Poderia citar algumas dessas legislações que considere interessantes? Existiria alguma que abarque, também, essa questão do mercado?
Não acho que um modelo internacional deveria ser incorporado, trazido para o Brasil, com uma lógica simplista no sentido de “funcionou lá fora, então vai funcionar aqui”. Isso porque, aqui, temos características muito específicas quanto ao modo como esse mercado é estruturado. Por exemplo, nossa moeda é menos valiosa, vale cinco vezes menos do que o dólar. Não é a moeda que essas plataformas utilizam para fazer pagamentos. Quando o sujeito, que vive no Brasil, produz informação para as plataformas, ele ganha em Dólar. Para algumas pessoas, ganhar numa moeda mais valorizada que o Real torna esse trabalho muito atrativo. E é um investimento que é relativamente baixo por parte das plataformas. Além disso, temos uma condição, no Brasil, de miséria bastante acentuada. Então, tem muita gente para quem ganhar US$100 por semana é um baita dinheiro. A pessoa vai estar disposta a produzir.
Uma legislação que busca tratar da moderação de conteúdo articulando, também, uma regulação econômica, é a europeia. Que aparece nessas duas siglas: o DSA (Digital Services Act) e o DMA (Digital Market Act). Não sou um conhecedor profundo dessas leis, não sou jurista, mas uma tenta tratar da questão da moderação de conteúdo, e outra trata um pouco da questão econômica. Porque os europeus estão preocupados com as plataformas americanas e chinesas que estão ocupando o mercado da Europa. Então, existe uma preocupação econômica, com relação à soberania digital e tudo mais. E há também preocupação em relação à vitalidade e à saúde do sistema de informação daqueles países, e com os efeitos disso para a democracia.
Eu acho que o DSA, que é a parte que trata mais de moderação, já é uma grande fonte de inspiração pro PL 2630. Mas existem alguns projetos de lei no Congresso Nacional que buscam se inspirar no DMA. Acho que essa é uma das questões que precisam ser olhadas com esse olhar da especificidade.
Não adianta a gente trazer a legislação europeia – que eu acho que, no exemplo global, talvez seja melhor acabada – porque a gente tem problemas específicos. Citei, por exemplo, as assimetrias econômicas no Brasil. Mas temos, também, a questão da concentração do nosso sistema de informação, que é maior que a europeia. Se examinarmos o contexto brasileiro, veremos que muitas das informações que circulam pelos canais de desinformação são, na verdade, peças produzidas pela imprensa tradicional. Aquilo é reempacotado, distorcido (ou nem sempre), é amplificado e circulado num outro contexto. Então, também não temos um sistema de comunicação muito saudável no Brasil. Antes das plataformas, já existiam problemas. Precisamos de uma lei que entenda o nosso contexto.
No caso da lei chinesa, é uma situação muito diferente. Ela praticamente expulsou todas as empresas de tecnologia [estrangeiras] da China, e está trabalhando só com as empresas do próprio país. Então, nesse sentido, a regulação econômica que estão fazendo ali pode parecer mais efetiva, mas tem outros problemas, que são de outros contextos. E, nesse sentido, é até possível que algumas coisas dê para a gente trazer da lei chinesa. Mas não acho que dê pra trazer por inteiro.
***
Tiago C. Soares é mestre em Divulgação Científica e Cultural (Unicamp), e doutor em História Econômica (USP). É pesquisador bolsista do Programa José Reis de Incentivo ao Jornalismo Científico (Mídia Ciência), pela Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)”