Domingo, 18 de Agosto de 2019
ISSN 1519-7670 - Ano 19 - nº1050
Menu

E-NOTíCIAS >

Quando a internet acha que nos conhece

Por Eli Pariser em 30/05/2011 na edição 644

Era uma vez, reza a história, uma época em que vivíamos numa sociedade radiodifundida. Naqueles tempos ancestrais pré-internet, as ferramentas para compartilhar informação não eram amplamente disponíveis. Quem quisesse partilhar seus pensamentos com as massas, tinha de possuir uma impressora ou um naco das ondas aéreas, ou ter acesso a alguém que o tivesse. No controle do fluxo de informação estava uma classe de elite de editores, produtores e magnatas da mídia que decidia o que as pessoas veriam e ouviriam sobre o mundo. Eles eram os “guardiães”.

Aí veio a internet, que tornou possível a comunicação com milhões de pessoas a pouco ou nenhum custo. De repente, alguém com uma conexão de internet podia partilhar ideias com o mundo inteiro. Uma nova era de mídia noticiosa democratizada despontou. O leitor pode ter ouvido essa história antes – talvez do blogueiro conservador Glenn Reynolds (blogar é “tecnologia solapando os `guardiães´”) ou o blogueiro progressista Markos Moulitsas (seu livro se intitula Crashing the Gate, “Esmagando o portal”, em tradução livre).

É uma bela história sobre o poder revolucionário do meio e, na qualidade de um antigo praticante da política online, eu a contei para descrever o que fizemos na MoveOn.org. Mas estou cada vez mais convencido de que escolhemos a conclusão errada – talvez perigosamente errada. Há um novo grupo de “guardiães” por aí e, desta vez, não são pessoas, mas códigos.

Múltiplos pontos de vista

Os gigantes de internet de hoje – Google, Facebook, Yahoo e Microsoft – veem o crescimento notável de informações disponíveis como uma oportunidade. Se puderem oferecer serviços que vasculhem esses dados e nos forneçam os resultados pessoalmente mais relevantes e atraentes, eles conseguirão a maioria dos usuários e a maioria das visitas a anúncios. Por conseguinte, eles estão correndo para oferecer filtros especializados que nos mostram a internet que acham que devemos ver. Esses filtros, aliás, controlam e limitam a informação que chega a nossas telas.

Por enquanto, estamos familiarizados com anúncios que nos perseguem online com base em nossas conexões recentes em sites comerciais. Mas, cada vez mais e de maneira quase invisível, nossa busca por informação está sendo personalizada também. Duas pessoas que fazem uma busca com a palavra “Egypt” no Google podem receber resultados significativamente diferentes, com base em suas conexões passadas. Mas o Yahoo News e o Google News fizeram ajustes em suas home pages para cada visitante individual. E, no mês passado, essa tecnologia começou a fazer incursões nos sites de jornais como The Washington Post e The New York Times.

Tudo isso é bastante inofensivo quando a informação sobre produtos de consumo é filtrada para dentro e para fora de seu universo pessoal. Mas quando a personalização afeta não só o que se compra, mas como se pensa, surgem questões diferentes. A democracia depende da capacidade do cidadão se deparar com múltiplos pontos de vista; a internet limita essa possibilidade quando oferece somente informações que refletem seu ponto de vista já estabelecido. Embora, às vezes, seja conveniente ver-se apenas o que se quer ver, é decisivo que em outros momentos se vejam coisas que não se costumam ver.

Mundos online personalizados

Como os velhos “guardiães”, os engenheiros que escrevem o novo código do portal têm o enorme poder de determinar o que sabemos sobre o mundo. Mas, diferentemente, dos velhos “guardiães”, eles não se veem como “guardiães” da confiança pública. Não há algoritmo equivalente à ética jornalística. Mark Zuckerberg, o presidente-executivo do Facebook, certa vez disse a colegas que “um esquilo morrendo no seu jardim pode ser mais relevante para seus interesses agora do que pessoas morrendo na África”. No Facebook, “relevância” é virtualmente o único critério que determina o que os usuários veem. Fechar o foco nas notícias pessoalmente mais relevantes – o esquilo –, é uma grande estratégia de negócios. Mas nos deixa olhando para o jardim em vez de nos informar sobre sofrimento, genocídio e revolução.

Não há volta atrás ao velho sistema dos “guardiães”, nem deveria haver. Mas se os algoritmos estão assumindo a função de editar e determinar o que vemos, precisamos ter certeza de que eles pesam variáveis além de uma “relevância” estreita. Eles precisam nos mostrar Afeganistão e Líbia, além de Apple e Kanye West.

As companhias que fazem uso desses algoritmos precisam assumir essa responsabilidade salutar com muito mais seriedade do que fizeram até agora. Precisam nos dar o controle sobre o que vemos – deixando claro quando estão personalizando e nos permitindo moldar e ajustar nossos próprios filtros. Nós, cidadãos, também precisamos preservar nosso fim – desenvolvendo a “literatura de filtro” necessária para usar bem essas ferramentas e cobrando conteúdo que amplie nossos horizontes, mesmo quando isso for desconfortável.

É do nosso interesse coletivo assegurar que a internet se coloque à altura de seu potencial como um meio de conexão revolucionário. Isso não ocorrerá se formos confinados em nossos próprios mundos online personalizados.

Todos os comentários

x

Indique a um amigo

Este é um espaço para você indicar conteúdo do site aos seus amigos.

O Campos com * são obrigatórios.

Seus dados

Dados do amigo (1)

Dados do amigo (2)

Mensagem