Sunday, 17 de November de 2024 ISSN 1519-7670 - Ano 24 - nº 1314

Usuários transformam seus perfis em ‘bolhas’ ideológicas

Embora ainda muita gente não saiba, o Facebook seleciona o que os usuários veem em seu mural. Um algoritmo filtra o que é mostrado para, em princípio, dar ao usuário apenas o que mais lhe agrada ver e não enchê-lo com informações que não lhe interessem tanto. A dúvida é se esse algoritmo que nos conhece tão bem está nos alimentando apenas com o que gostamos, criando uma bolha a nosso redor na qual não entra nada que desafie nosso modo de pensar. Para dissipar dúvidas, os cientistas sociais do Facebook publicaram na quinta-feira na revista Science o primeiro estudo que analisa a influência dessa fórmula que manipula os murais: a bolha ideológica existe, mas é mais culpa dos próprios usuários do que da programação de Mark Zuckerberg.

Depois de estudar mais de 10 milhões de usuários e sua interação com os links de notícias políticas, os cientistas do Facebook descobriram que a rede social é uma caixa de ressonância para nossas próprias ideias, com poucas janelas para o exterior. Assim, de todos os links vistos pelas pessoas que se consideram progressistas, apenas 22% desafiam sua forma de pensar. Os conservadores veem cerca de 33% de notícias que não correspondem com sua ideologia.

Sem a intervenção do algoritmo, os progressistas teriam visto 24% de notícias incômodas e, os conservadores, 35%. Ou seja, essa fórmula idealizada nos computadores do Facebook ajuda a reduzir a diversidade ideológica do mural dos usuários, mas não é a principal culpada. De acordo com o estudo, os usuários são os responsáveis por se fechar em suas próprias ideias: se não escolhessem suas amizades como o fazem, mas de forma aleatória, os progressistas veriam cerca de 45% de notícias contrárias às suas ideias, em comparação a 40% pelos conservadores.

Logicamente, o ambiente off line, as pessoas com as quais os usuários se relacionam fisicamente, tampouco é aleatório. Mas é muito mais difícil medir essa bolha ideológica na ruas do que nas redes sociais. A vasta quantidade de informação que uma empresa como o Facebook pode compilar sobre seus usuários (e os que não são) lhe permite medir a tendência dos que se fecham em grupos de pensamento mais ou menos isolados. Por exemplo, a probabilidade de clicar no mural em uma notícia favorável às próprias ideias —um eleitor do conservador Partido Republicano dos Estados Unidos ler uma notícia da Fox News— em relação a uma contrária é esmagadora.

Um dos pontos fracos do estudo é que são analisados apenas os usuários dos EUA que definiram sua posição ideológica em uma seção do Facebook —mais fácil de ser mostrada em lados opostos—, o que gera um viés significativo e deixa dúvidas sobre o comportamento dos usuários que têm ideologia, mas não a selecionaram em seu perfil. ParaPablo Barberá, que estuda a polarização das redes na Universidade de Nova York, os usuários estudados provavelmente têm uma rede de contatos mais homogênea no Facebook: “Se o estudo tivesse incluído todos os usuários, certamente observaríamos níveis ainda mais altos de exposição à diversidade de opiniões e um efeito maior dos algoritmos”.

A era dos algoritmos

“É um estudo na defensiva”, explica Esteban Moro, especialista em redes sociais da Universidade Carlos III. “O Facebook tem um problema de imagem, por causa dos algoritmos que filtram a informação que vemos e queria demonstrar que o filtro algorítmico não tem tanta influência como o filtro social”, resume o pesquisador.

Vivemos na era dos algoritmos. O que nos é mostrado nos resultados do Google, no mural do Facebook ou em outras plataformas é decido por uma fórmula cada vez mais complexa que seleciona o melhor para satisfazer os interesses do usuário e da empresa. No entanto, ainda há muitos os que pensam que veem o que existe e não o que o algoritmo acredita que devem ver. Mas não é assim: em função da interação dos usuários com os amigos e atividade, o Facebook define seus interesses e mostra o que provocará mais interação, para que permaneçam mais tempo na rede e, deste modo, gerem mais receita para a empresa.

Este ciclo de retroalimentação despertou o interesse do ativista Eli Pariser, que publicou em 2012 um livro chamado Filter Bubble (A Bolha dos Filtros), referindo-se ao efeito do algoritmo em nossas vidas: ao buscar “Egito” no Google, alguns usuários recebem informações sobre revoltas e, outros, apenas sobre férias nas pirâmides, tudo em função de seu comportamento prévio.

Em meados de 2014, o Facebook divulgou outro de seus estudos —publicados regularmente sobre o comportamento na rede— que gerou uma polêmica inusitada, porque revelou que manipulava emocionalmente seus usuários, mostrando-lhes mais mensagens negativas ou positivas de seus contatos, para verificar se havia certo contágio na forma de expressão. Em grande parte, a polêmica surgiu porque o público descobriu que o Facebook manipula os murais e, portanto, o comportamento das pessoas.

Não é algo que faça questão de esconder, muito pelo contrário: o Facebook gaba-se de influenciar de forma notável a participação eleitoral em todo mundo, depois de arrastar às urnas cerca de 340.000 pessoas que não tinham intenção de votar nas legislativas dos EUA.

Nesse cenário, os cientistas da empresa comandada por Zuckerberg mostram que o contágio social ou abolha ideológica que se forma em sua rede social é semelhante ou mais moderada à que se produz off line. De fato, já em 2012, havia publicado um estudo que negava que a bolha fosse tão grave, mas naquela ocasião o importante era diminuir a culpa do algoritmo.

A pesquisa preliminar de Barberá e este estudo destacam que as redes sociais poderiam ser um mecanismo para receber informação diferente da habitual. “Por exemplo, um eleitor de direita que apenas vê Antena 3 e lê La Razón [jornal ultraconservador da Espanha] poderia ser exposto pela primeira vez a um conteúdo com um viés de esquerda compartilhado por seus contatos no Facebook”, explica Barberá.

No entanto, esse é outro ponto fraco deste último estudo da equipe do Facebook, como lamenta Moro, da Carlos III. “O problema é que não compara com nada. Não podemos saber se o que ocorre é pior ou melhor fora do Facebook.”

Dados do estudo

O estudo foi realizado com usuários que informaram sua posição ideológica nos EUA. Estudaram 10,1 milhões dos quase um bilhão de usuários ativos diários registrados atualmente.

Apenas 13% dos links de notícias estudadas correspondiam a informações factuais, notícias políticas válidas para o estudo.

Dos 903 milhões de notícias vistas pelos usuários estudados, foram clicadas apenas 59 milhões de vezes.

Apenas 20% das notícias que os progressistas clicaram eram contrarias às suas ideias, comparadas aos 29% dos conservadores.

Os pesquisadores explicam que essa diferença entre progressistas e conservadores é devido ao fato de que os usuários de esquerda são mais propensos a compartilhar links com notícias de sua ideologia.

***

Javier Salas, do El País