A frase clichê “errar é humano” é muitas vezes evocada para cobrir nossas fraquezas, erros e dúvidas como seres humanos, para nos trazer consolo após um erro. E os jornalistas humanos certamente cometem muitos. No entanto, os bots também não são perfeitos. Todo repórter-robô precisa de um editor, e, provavelmente, do equivalente binário em ética jornalística.
Veja este caso: em 24/3, às 14h36, o New York Post informou que o corpo de Quinton Ross, ex-jogador de basquete do Brooklyn Nets, havia sido encontrado em uma cova rasa em Long Island. Poucos minutos depois, o jornal corrigiu a história para indicar que a vítima era homônima ao esportista. Mas já era tarde demais. Outras fontes haviam replicado a notícia – incluindo um jornalista-robô, o chamado bot. (Um bot – diminutivo de robot – é um software que simula ações humanas repetidamente, de maneira padronizada.)
O bot que chupou a notícia sobre Ross foi criado pelo engenheiro do Google Thomas Steiner. Foi batizado de Wikipedia Live Monitor e é projetado para detectar furos de reportagem. Ele faz isso acompanhando simultaneamente as edições de todas as versões da Wikipedia, em 287 idiomas. E se baseia na seguinte premissa: se muitas pessoas estão editando as páginas da Wikipedia sobre o mesmo acontecimento ao mesmo tempo, porém em idiomas diferentes, então são grandes as chances de o fato ser importante.
Às 15h09, o bot reconheceu a suposta morte do jogador de basquete Quinton Ross como um furo após captar oito edições realizada por cinco editores em três idiomas. A partir disso, o bot publicou um tweet. Doze minutos depois, a informação foi corrigida pela fonte original. No entanto, o bot permaneceu em silêncio. Sem correção. Ele havia compartilhado o que “pensava” ser um furo, e pronto. Como qualquer jornalista, bots podem cometer erros.
Jornalismo responsável
Os bots de notícias, bem como os algoritmos e dados que os executam, têm se tornado cada vez mais comuns no ecossistema de mídia online. Mas será que são 100% confiáveis? Tradicionalmente, os jornalistas (humanos) ganharam o respeito de seu público através do empenho, da transparência, da tomada de decisão ética. Já algoritmos de computador podem ser totalmente sombrios na forma como trabalham, necessitando de novos métodos para se tornarem respeitáveis.
No entanto, qual é o nível de qualidade dos dados que alimentam o bot? No Quake Bot, por exemplo, que informa sobre os terremotos em Los Angeles, os dados são relativamente limpos, uma vez que são entregues por uma agência governamental, a United States Geological Service. Já o Wikipedia Live Monitor se baseia em sinais sociais totalmente repletos de ruídos (e potencialmente manipuláveis??) na atividade de edição online.
Imagine um hacker que conheça a forma como determinado bot capta os dados para produzir notícias. Este hacker poderia se infiltrar na fonte de dados do bot, poluí-la e, possivelmente, espalhar desinformação quando os dados fossem convertidos em meios de consumo.
Felizmente, já há alguns excelentes exemplos de bots responsáveis ??por aí. Um deles é o 4thDownBot, do New York Times. Este bot utiliza um modelo construído por dados coletados a partir de jogos da NFL (liga de futebol americano). Para cada quarto de tempo em um jogo, ele usa o modelo para opinar sobre os passos do treinador na partida. Os criadores do bot, Brian Burke e Kevin Quealy, fizeram um programa ousado e cheio de tiradas espirituosas, por isso é divertido quando os tweets expõem o que o treinador deve fazer.