Num julgamento histórico de 1964 que deliberou sobre obscenidade, o juiz Potter Stewart recusou-se a definir pornografia com uma frase famosa: “Mas reconheço-a, quando a vejo”. Cinquenta anos depois, as redes sociais são a nova referência para julgar o que é ofensivo e o que é liberdade de expressão.
Facilitar a livre expressão ao mesmo tempo em que se controla o conteúdo ofensivo tornou-se um teste controvertido e um desafio tecnológico para redes sociais como Pinterest, Facebook, Twitter e Tumblr, principalmente por elas criarem um ambiente que é atraente para anunciantes e parceiros comerciais.
Outras empresas de internet, como Google e Yahoo, conseguiram criar algoritmos para controlar o tipo de conteúdo que aparece ao lado de determinado tipo de anúncios. O Google, por exemplo, pode garantir que anúncios de imobiliárias não apareçam ao lado de resultados de buscas de incêndios nas matas que destroem residências. Essa prática, que tem raízes na publicidade tradicional de jornais e televisão, evita que anúncios de empresas aéreas sejam mostrados no contexto de matérias jornalísticas ou filmes de televisão sobre acidentes com aviões.
Porém, nas redes sociais o conteúdo é criado pelos usuários e muda constantemente. Se as redes censurarem demais o conteúdo, perdem a confiança e as prodigiosas mensagens de seus usuários. Se não policiarem o suficiente, ofendem outros usuários e afastam anunciantes.
Algoritmos para textos e imagens ofensivos
Isso é um desafio para o Facebook, que na semana passada (28/5) concordou em reavaliar e melhorar seus procedimentos de moderação online depois que vários anunciantes retiraram sua publicidade da rede. Isso ocorreu na esteira de protestos por parte de uma coalizão de grupos de mulheres insatisfeitas com o fato de várias marcas terem os anúncios de seus produtos colocados ao lado de imagens que toleravam a violência contra as mulheres.
O Facebook, cuja principal característica e mais procurada pelos anunciantes de imobiliárias é uma corrente contínua de atualizações e fotos de amigos de usuários, monitora e censura conteúdo ofensivo, mas sua política nem sempre satisfaz a todos.
Outras redes sociais adotaram abordagens diferentes. O Pinterest flexibilizou suas políticas de conteúdo para permitir mais imagens de nus por solicitação de artistas e fotógrafos, enquanto o Yahoo prometeu, após comprar o Tumblr, manter a política de não remover conteúdo adulto explícito. O Twitter tem uma política semelhante. “Enquanto empresa de mídia, você não quer proibir os usuários de criar o conteúdo que quiserem produzir”, diz Brian Wieser, analista da Pivotal Research. “Ao mesmo tempo, você não quer deixar dinheiro em cima da mesa ou permitir que o conteúdo provoque a implosão de uma marca.”
O grande número de pessoas necessárias à equipe que monitora o conteúdo produzido pelos usuários complica ainda mais o problema. Empresas como o Google e o Yahoo desenvolveram algoritmos que funcionam para textos e mesmo imagens ofensivos – que usam, principalmente, para evitar colocar anúncios ao lado desse conteúdo. Mas o Facebook e o Pinterest ainda confiam no ser humano para filtrar a maior parte do conteúdo questionável.
Mais procurados, mais bem pagos
Cerca de 2,5 bilhões de itens de conteúdo são compartilhados diariamente no Facebook. Várias centenas de pessoas, em quatro cidades – Menlo Park, Austin, Dublin e Hyderabad – analisam cada trecho do conteúdo denunciado por usuários e, em alguns casos, como pornografia infantil e violência explícita, os repassam à polícia.
Muitas vezes, o conteúdo nas redes sociais é muito enfeitado, envolto numa sátira e sarcasmo que as máquinas e os algoritmos têm grande dificuldade em compreender. Várias imagens que perturbaram anunciantes no Facebook não eram ofensivas por si, mas as legendas introduzidas pelos usuários as tornavam ofensivas, como a foto de um jovem segurando uma mulher desmaiada em seus braços com uma legenda que sugeria uma droga para estupro. O problema com este tipo de mensagem é que inúmeros usuários do Facebook as “curtem”. A única maneira para o Facebook tomar conhecimento da mensagem é se outros usuários a denunciarem como ofensiva.
O Facebook tem algoritmos que ajudam a priorizar imagens e posts que precisem urgentemente de uma revisão humana. No entanto, esses algoritmos rastreiam conexões de rede, tais como de que maneira a pessoa que está divulgando o conteúdo conheceu a pessoa que o está postando, ou se a mesma pessoa divulga conteúdo muitas vezes e se o Facebook decide, em geral, aceitá-lo – em outras palavras, se essa pessoa, em geral, age corretamente.
Normalmente, a decisão de remover conteúdo cabe, em última instância, a um moderador, que deve determinar se um conteúdo é altamente subjetivo, examinando caso por caso. O desafio para novas empresas de mídia social é que esses processos, que se desenvolvem com base humana, são muito difíceis de ampliar acompanhando o crescimento da rede social.
A automação exige examinar cuidadosamente uma enorme porção de informações, assim como cientistas de dados, para fazer a análise. Os engenheiros que redigem programas para limitar o conteúdo ofensivo na internet estão entre os profissionais mais procurados e mais bem pagos do Vale do Silício, segundo Shuman Ghosemajumder, estrategista da empresa de segurança digital Shape Security e ex-chefe de segurança do sistema de anúncios do Google. “Quem conseguir construir um sistema como este, que torna milhares de empregados cem vezes mais eficientes, contribuirá com um valor excepcional para a organização”, diz ele.
******
April Dembosky, repórter do FT, cobre tecnologia e o Vale do Silício; Robert Cookson é correspondente de mídia digital do jornal