O estudo sobre contágio emocional realizado pelo Facebook há dois anos, envolvendo 689.003 usuários, é gravíssimo. Publicado na revista acadêmica Proceedings of the National Academy of Sciences of America no início de junho, ele demonstra que a empresa por trás da maior rede social da internet não tem qualquer sensibilidade social. Não tem tato, pudor ou a necessária cautela necessária para lidar com gente.
Em janeiro de 2012, os cientistas sociais Adam Kramer, Jamie Guillory e Jeffrey Hancock manipularam aquilo que quase 700 mil pessoas viram em suas páginas por uma semana. Para parte do conjunto, tiraram tudo o que seus amigos escreveram de positivo; para outra, dispensaram o que havia de negativo. Ou seja: um grupo só recebeu notícias neutras ou positivas, o outro, só neutras ou negativas. Os pesquisadores queriam saber como os humanos de laboratório reagiriam. Descobriram que quem só lia notícia ruim ficava mais abatido e tendia a publicar mensagens mais tristes. E vice-versa.
Nenhum usuário foi alertado sobre o fato de que havia sido transformado em ratinho num estudo psicológico. Ao ler em primeira mão o trabalho, a professora Susan Fiske, da Universidade de Princeton, se incomodou. “Fiquei preocupada”, ela disse ao site da revista Atlantic Monthly. “Compreendo que as pessoas fiquem preocupadas, mas o problema delas é com o Facebook, não com o paper.”
A Universidade de Cornell, uma das instituições que puseram o selo de aprovação no estudo, também fez perguntas. Ouviu do Facebook que o site “aparentemente manipula os posts que as pessoas leem a toda hora”. As palavras são da professora Fiske, que editou a versão final do trabalho.
Trata-se de uma rede na qual um bilhão de pessoas se encontra diariamente. Mais ou menos na mesma época em que cientistas do Facebook manipulavam as emoções de alguns leitores, egípcios usavam a ferramenta para combinar uma revolução. Eles, tunisianos, sírios, gregos, espanhóis, indianos. Brasileiros.
Falta de sensibilidade
A maior parte das pessoas que usam o Facebook o faz de forma ingênua. Acredita que lê não aquilo que a rede seleciona, mas tudo o que seus amigos escrevem. Acredita que não há filtros. Os menos ingênuos sabem que um software decide o que aparecerá. O que quase ninguém acreditava é que alguém teria a coragem de aprovar a manipulação das emoções de um grupo.
Ingenuidade não é mérito dos usuários. É também da empresa. O fato de que o paper foi publicado revela que, no Facebook, ninguém achou nada demais. Era, afinal, só um estudo para entender melhor como seres humanos reagem ao interagir em redes sociais. Por que parar em emoções? Política, por exemplo. Exposição maior aos problemas – ou às qualidades – de um governo muda a percepção do público? Revoluções podem ser atiçadas?
Por ser opaca, em nada transparente nos seus critérios, a empresa Facebook se torna uma possível ameaça. Por uma questão ética, quem estuda reações humanas sempre se compromete a avisar a quem está sendo estudado. É uma questão de respeito à dignidade. Ciência não é um processo perfeito. Mas, mesmo quando a natureza da manipulação não pode ser revelada para não interferir no estudo, as pessoas sabem que há um estudo ocorrendo e, ao fim, descobrem tudo. Nenhum dos quase 700 mil soube até agora que foi manipulado. Este aviso é o mínimo a que têm direito.
Nós, usuários do Facebook, temos igualmente o direito de saber se fomos feitos de cobaia. Em que circunstâncias. Para descobrir o quê. Como tais resultados são utilizados. Dificilmente ocorrerá. Para uma empresa que vive de explorar as relações entre seres humanos, sua falta de sensibilidade às sutilezas de como se dão tais relações é inacreditável.
******
Pedro Doria, do Globo