Thursday, 28 de March de 2024 ISSN 1519-7670 - Ano 24 - nº 1281

A rebelião contra os algoritmos nas redes sociais

Redes sociais como Facebook, Twitter, Instagram e Reddit começam a pagar um preço alto pelo seu próprio sucesso, na medida em que os usuários passam a cobrar uma customização noticiosa muito maior do que a realizada pelos algoritmos de seleção automática de informações.

É o que ficou evidente quando a rede Facebook acionou o seu sistema Safety Check para os franceses após os atentados de Paris, mas não fez o mesmo para os libaneses, também vitimas de um ataque terrorista dois dias antes, quando morreram 43 pessoas em Beirute.  O Safety check é um aplicativo acionado pela direção mundial do Facebook apenas em situações de emergência e que permite às pessoas informar , rapidamente por meio de uma mensagem brevíssima, que estão bem e em segurança.

O sistema foi acionado em Paris mas não no Líbano, o que levou um grupo de internautas libaneses a queixar-se diretamente com Mark Zuckerberg, o fundador e presidente do Facebook que foi pediu desculpas mas o incidente teve outras repercussões.  A principal delas foi mencionada por Luke Kingma, um jornalista norte-americano especializado em tecnologias de comunicação, para quem os usuários das redes sociais já não se satisfazem mais com as opções feitas por algoritmos que selecionam automaticamente os conteúdos disponibilizados em redes sociais.

Zuckerberg reconheceu que há necessidade de uma maior intervenção humana nos processos decisórios quando se trata de conjunturas políticas. O uso do Safety Check em Paris foi uma escolha imediata porque os atentados tiveram repercussão mundial imediata, mas um incidente similar num país do chamado Terceiro Mundo, não chegou a chamar a atenção dos executivos do Facebook.  Agora a rede terá que criar uma espécie de comitê de crise para tomar decisões sobre crises em países na Africa, Asia, América Latina e Oriente Médio, porque estas regiões já fornecem uma parte consideravel dos quase um bilhão e meio de usuários do Facebook.

Reproduzimos a seguir, um trecho no artigo de Luke Kingma, publicado no site Thoughts on Media, integrado à plataforma Medium:

for many years these platforms relied on algorithms to decide what users would and wouldn’t see in-feed. The result was a (mostly) democratic system that shielded the social networks from accusations of bias, or worse. That’s all changed in the past year and a half. As the platforms doubled down on news — Facebook with Trending Stories, Twitter with Moments, and Reddit with RedditLive — their impartial algorithms have given way to human curation.

So what? Big deal. How much really changes when you supplement data-driven objectivity with a subjective human touch? A lot, as it turns out. In an instant, Facebook and Twitter were no longer passive forums of conversation, but active reporters of global news. Their communities of billions suddenly became a hypercritical audience of billions. Just like that, they were media companies. And the transition hasn’t been easy.

Since their inception, platforms like Facebook, Twitter, and Reddit have continually changed the way we tell and share stories. As their communities and revenues continue to grow, so too does their influence, and with it their responsibility to be good stewards of the web. When you have the power to help decide what is and isn’t news for billions of people, that’s not an easy burden to bear. Time will tell how they carry it.