Thursday, 18 de April de 2024 ISSN 1519-7670 - Ano 24 - nº 1284

Os paradoxos de uma nova forma de produzir informação

Publicar primeiro, corrigir depois. Para muita gente uma afirmação como esta ainda soa como um anátema. É quase uma afronta aos princípios do jornalismo convencional e um absurdo lógico. Mas é justamente isto que está acontecendo na chamada blogosfera, o espaço onde circulam as informações produzidas por aproximadamente 180 milhões de weblogs, em todo o mundo.


 


O jornalismo convencional tem escorregado várias vezes para a regra do publicar primeiro, corrigir depois, como acontece na maior parte dos escândalos de corrupção originados em Brasília, durante o governo Lula. Mas enquanto neste último caso trata-se de um desvio de conduta, o que está acontecendo na internet é uma espécie de antevisão de um novo modo de produzir informação.


 


Publicar primeiro e filtrar depois é um processo derivado do uso crescente do sistema de código aberto, por meio do qual produtos e serviços com base no conhecimento são gerados a partir das contribuições de milhares de pessoas, 90% das quais não têm conhecimento técnico sobre o tema em questão.


 


O grande argumento contra este sistema de produção de conhecimentos e informações é o de que ele implica uma altíssima taxa de erro ou de irrelevância. A lei de Sturgeon Ted Sturgeonsegundo a qual só 10% do que se pública sobre um determinado assunto na Web  pode ser considerado relevante, é um corolário do Princípio de Pareto[1], aplicado à internet.


 


Na economia física, o alto custo de produção determina que qualquer projeto só pode ser iniciado depois da eliminação do máximo possível de dúvidas e incertezas, porque o preço material e humano do fracasso é muito alto. Esta é a regra básica na indústria de jornais na hora de decidir que temas cobrir e como.


 


Os jornalistas, em tese, deveriam certificar-se de que todas as informações publicadas são verdadeiras e confiáveis, porque o preço de imprimir uma inverdade é alto não apenas em termos de perda de credibilidade como também no desperdício de recursos como papel, por exemplo.


 


Acontece que a internet reduziu a quase zero o custo com a produção de bens e serviços baseados na informação e no conhecimento. A distribuição de uma notícia na Web custa tanto quanto pressionar a tecla enter, no computador. Você pode mandar uma mensagem de correio eletrônico ou um milhão de mensagens com o mesmo dispêndio de energia.


 


O desenvolvimento de um software pode ser feito com custos mínimos porque o trabalho é feito pelo sistema da colaboração voluntária, que elimina os custos de contratação de pessoal e gastos sociais. O produto final não tem dono e todos podem usá-lo, sem pagar nada, o que contribui para um efeito dominó na redução geral dos custos necessários para iniciativas na Web.


 


O sistema de código aberto transformou as pessoas de empregados em free lancers gratuitos. De assalariados em colaboradores voluntários, como provam os exemplos do sistema operacional Linux e da enciclopédia virtual Wikipédia, para citar apenas os casos mais famosos.


 


O modelo código aberto não acaba com os erros, mas praticamente elimina o custo de um insucesso. Isto significa que a experimentação, a tentativa, a aventura e a exploração no terreno virtual deixaram de ter uma pesada punição, na forma de prejuízo financeiro.


 


Milhares de iniciativas que foram descartadas pelo temor de perdas financeiras, num sistema de código aberto poderiam ser levadas adiante num ambiente virtual porque o preço do fracasso seria quase desprezível.  Isto equivale a um dos mais poderosos incentivos à criatividade humana já surgidos em nossa sociedade.


 


Parece um paradoxo, mas na Web já é mais barato tentar para ver no que dá, do que tomar uma decisão destinada a eliminar o máximo possível de incertezas. É este baixo custo que está mudando as regras na produção de conhecimentos e que ajuda a entender porque os 90% de fracassos previstos na lei de Sturgeon não são necessariamente uma coisa ruim. 


 


Como publicar notícias tem um custo material quase nulo num blog, a multiplicação de informações que chegam à uma redação jornalística passou a superar a capacidade de filtragem dos repórteres e redatores. A antiga norma da filtragem a priori tornou-se antieconômica e a única solução passou a ser a seleção a posteriori.


 


Por enquanto este processo ainda é anárquico e pouco confiável, mas na medida em que o tempo passar e que os pouco mais de 1 bilhão de internautas ganharem um pouco mais de experiência, eles serão o grande filtro da informação. Já existem dezenas de experiências parciais de produção colaborativa de notícias  na Web. Não vai demorar muito para que o sistema do publicar primeiro e filtrar depois deixará de ser algo demonizado.


 






[1] O Princípio de Pareto estabelece que 20% da clientela é responsável por 80% do faturamento de uma loja. A regra criada pelo economista italiano Vilfredo Pareto  também é conhecida como proporção 80/20 e é aplicada em várias áreas fora da economia.