No texto The New Gatekeepers, que escrevi recentemente, destaquei como os algoritmos estão desempenhando um papel cada vez mais importante na determinação de qual informação é apresentada ao público online. Isso é particularmente verdadeiro numa época em que, segundo um recente relatório do Centro de Pesquisas Pew, 60% dos usuários do Facebook e do Twitter dizem que usam os sites como fontes de notícias.
Levando em consideração essa nova realidade, Jeffrey Herbst, presidente do site Newseum, afirmou que em nosso mundo digital o algoritmo é um editor porque muitas vezes determina, num plano personalizado, quais as matérias jornalísticas os usuários devem ver. Para Herbst, esta revolução levanta questões sobre como os sites da mídia social negociam sua condição essencial de buscar o lucro com seus novos papéis de fornecedores de informação e a responsabilidade social que isso acarreta em sociedades democráticas. Enquanto as empresas jornalísticas tradicionais enfrentaram questões semelhantes tentando separar o conteúdo jornalístico da publicidade, essa tarefa pode ser mais difícil quando algoritmos são encarregados de fazê-lo.
Uma preocupação central com a ascensão dos algoritmos é que essas complexas equações são, essencialmente, “caixas pretas” na medida em que muito poucas pessoas compreendem como elas funcionam ou o que são programadas para fazer. Na realidade, os algoritmos são segredos comerciais nos quais as empresas de mídia social investem profundamente porque eles são a resposta para melhorar a experiência dos usuários e, dessa forma, gerar lucros. Muitas vezes, a única maneira pela qual podemos descobrir como eles funcionam é através de um excelente jornalismo de dados.
O papel de um ombudsman
Num artigo recente, Investigating the Algorithms that Govern our Lives, Chava Gouerie examina algumas reportagens recentes e chama a atenção para o fato de que os algoritmos frequentemente podem codificar, e mesmo ampliar formas de discriminação, como o racismo e o preconceito de gênero. Embora pouca pesquisa tenha avaliado o impacto desses algoritmos imperfeitos no tipo de matérias jornalísticas procuradas pelos usuários, pode-se supor, com segurança, que o preconceito persiste, muitas vezes de maneiras difíceis de detectar.
Considerando o poder dos algoritmos em dar forma ao nosso ecossistema de informação, talvez também suas imperfeições, pode ser um momento oportuno para as empresas de mídias social pensarem em criar a posição do “algoritmo ombudsman” – um desconhecido a quem se daria o privilégio de ter acesso ao algoritmo de uma empresa de maneira a garantir que aquilo que o público quer está sendo levado em conta. Contar com um advogado público na equipe poderia ajudar a construir confiança, entre os usuários, de que as empresas estão se esforçando por tornar a experiência do usuário razoável e justa.
Um algoritmo ombudsman seria o equivalente digital a um ombudsman de um jornal. O papel do ombudsman é supervisionar a execução de uma ética de jornalismo adequada e examinar erros e omissões críticos. Eles também servem como um importante vínculo com os leitores quando surgem conflitos sobre um artigo ou um editorial. Do ponto de vista ideal, eles gozam de autonomia suficiente para questionar o editor e o dono do jornal sem medo de perder o emprego. Seu papel não é o de micro-administrar toda a organização, e sim garantir que as práticas do jornal sejam éticas e consistentes.
Do ponto de vista ideal, um algoritmo ombudsman seria um indivíduo já respeitado que ganhou um acesso privilegiado aos trabalhos internos dos algoritmos de maneira a avaliar se estão funcionando de forma ética. Então, por exemplo, quando ocorrem casos de discriminação por um algoritmo, um indivíduo respeitado ganha a autonomia para investigar. Isso não significa que o ombudsman vá necessariamente mudar a política da empresa, e sim que a empresa pelo menos vá ter condições de compreender realmente o problema em questão a partir de todos os ângulos e conseguirá emitir uma opinião.
O que poderia fazer um algoritmo ombudsman?
Estarão os diferentes grupos demográficos sendo expostos em conteúdo relevante? Estarão importantes matérias sendo obscurecidas por não serem agradáveis ou \acessáveis por um clique? Existirá uma ênfase cada vez maior no compartilhamento de vídeos que privilegiam determinados tipos de conteúdo em detrimento de outros? Estas são algumas das perguntas que um algoritmo ombudsman poderia analisar, se lhe fosse perguntado. São perguntas que muitos de nós fizemos a nós próprios, mas para as quais temos pouca capacidade de investigar.
Em 2014, o Facebook fez pequenas mudanças em seu algoritmo para que artigos indicados pelo website Upworthy não aparecessem aos usuários com tanta frequência. Muitos usuários gostaram dessa mudança porque estavam cansados daquilo que é chamado click bait [conteúdo que encaminha o usuário para um site de receita publicitária]. No entanto, a mudança também significou que o conteúdo político progressista, que antes era muito destacado, desapareceu. Isso demonstrou o poder dos algoritmos para dar forma a nosso ecossistema de informação. No e ntanto, o Facebook não comunicou essas mudanças, embora elas tenham, sem dúvida alguma, tido um impacto sobre o discurso político e a troca de ideias. Neste caso, o algoritmo ombudsman que eu imagino poderia ter avaliado potencialmente a mudança e emitido uma opinião sobre como a mudança foi executada e se era ou não, em termos gerais, boa para os usuários do Facebook.
Como as linhas que distinguem as empresas jornalísticas das de mídias sociais estão cada vez mais emaranhadas, as empresas de mídias sociais terão que chegar a um acordo sobre a responsabilidade social maior que adquirem enquanto alguns dos principais provedores de informação em nossas sociedades. Portanto, precisamos de novos sistemas que possam ajudar a criar confiança nessas plataformas e garantir que elas estão contribuindo para o bem comum. Abrir apenas um pouquinho a “caixa preta” dos algoritmos contribuiria muito no sentido de tornar as plataformas de mídias sociais responsáveis em nosso ecossistema de informação.
***
Daniel O’Maley é editor assistente do Center for International Media Assistance