E não é só a enciclopédia virtual que está na berlinda em matéria de credibilidade em produtos informativos na internet. Quase todos os projetos baseados na produção coletiva de informações também são questionados fortemente, alimentando uma polêmica que em alguns momentos chega a ser passional.
É que os novos sistemas digitais mexem com valores e com atitudes relacionadas à forma como as pessoas decidem no que vão acreditar. As pessoas sentem-se incomodadas na discussão sobre credibilidade da Wikipédia porque a veracidade, confiança e exatidão das informações publicadas pela enciclopédia virtual obedecem ao que os especialistas chamam de lógica probabilística, baseada em cálculos estatísticos.
Esta lógica não estabelece o que é certo ou errado, mas o que pode estar mais próximo ou mais longe da verdade, sem nunca chegar até ela. A probabilidade é apenas um cálculo que nos permite identificar possibilidades dentro da avalancha informativa gerada pela internet.
A massa de dados disponíveis hoje na Web ultrapassou em muito a capacidade processadora dos cérebros humanos. O progresso impôs o uso do cálculo eletrônico como única alternativa, provocando uma mudança radical de paradigmas.
Por gerações e gerações nossa sociedade foi educada para acreditar numa certificação de credibilidade conferida por pessoas de notório saber ou por instituições como a Igreja, as bibliotecas, os intelectuais e as universidades, tidas como guardiãs do conhecimento universal.
Esta mudança de modelo de certificação trouxe como conseqüência uma situação em que as leis da probabilidade sacrificam a exatidão em escala micro para otimizar os macro-resultados. Trocando em miúdos e pensando na Wikipédia, isto significa que hoje sabemos muito mais sobre muitas coisas, mas quando examinamos com lupa cada informação, é possível que muitas apresentem erros.
É o preço que pagamos para ter a nossa disposição quase 1 milhão de textos na Wikipédia enquanto a Enciclopédia Britânica mal chega aos 100 mil. O mesmo processo acontece nos weblogs. No seu conjunto eles publicam um volume de notícias e informações superior ao da imprensa convencional.
Vistos globalmente, eles apresentam um índice de exatidão, atualidade, diversidade e contextualização muito maior do que o dos jornais e a televisão, por exemplo. Mas se formos examinar individualmente os blogs, as frustrações e desilusões informativas podem ser grandes.
Até agora, a Britânica e as publicações acadêmicas eram a parada final na busca por informações confiáveis. Hoje, os hábitos informativos estão mudando rapidamente, pois tanto a Wikipédia e como os blogs são considerados apenas o primeiro passo. Cada vez mais se consolida a procura da diversificação de fontes como a melhor receita para evitar o erro.
Os sistemas baseados em probabilidade estatística não são novos. A economia capitalista os utiliza intensivamente, desde que Adam Smith escreveu sobre o comportamento dos mercados consumidores. Charles Darwin também usou a probabilidade para estudar a evolução das espécies.
As bolsas de valores e a indústria cinematográfica de Hollywood adotam a lógica probabilística dos chamados mercados de previsão para antecipar tendências. Todos os sistemas de loterias apóiam-se na estatística e os advogados usam a fórmula probabilística do Teorema de Condorcet para prever o comportamento dos membros do júri em tribunais.
A informação está entrando também na era da probabilidade.
Conversa com os leitores
Alguns leitores comentaram e vou acrescentar uma coisa que esqueci na hora de redigir o post. Na verdade o que mais perturba as pessoas é o fato de que estamos saindo de uma era onde acreditávamos ter certezas absolutas para outra onde predominam as verdades relativas. Isto nos transmite uma sensação de insegurança, que é bastante incômoda e exige um esforço de adaptação. É desconfortável acostumar-se a saber que sempre existe margem para dúvida, até mesmo em questões físicas, como o ponto de ebulição da água. Quanto mais quando se trata de informação jornalística.