Wednesday, 18 de December de 2024 ISSN 1519-7670 - Ano 24 - nº 1318

Arqueologia da era da informação a partir do bit

Uma coincidência temporal e geográfica marca o início da era da informação. Em 1948, cientistas do Bell Labs, centro de pesquisas da AT&T, inventaram o transistor, que permitiria a miniaturização dos computadores e renderia um Nobel. “Mas esse foi apenas o segundo avanço mais importante daquele ano” a surgir no Bell Labs, escreve James Gleick em “A informação: uma história, uma teoria, uma enxurrada” (Cia. das Letras), que chega hoje ao Brasil. Meses depois, um matemático de 32 anos publica na revista do laboratório artigo propondo um método para mensurar a informação, grandeza conhecida de todos mas que ninguém era capaz de definir. À unidade básica dessa grandeza Claude Shannon deu o nome de “bit”, que carrega a menor informação possível, escolha binária entre um ou zero.

– É a capacidade de medir grandezas que as torna adequadas à ciência – diz Gleick, por telefone.

Shannon morreu em 2001 sem ter ganho um Nobel, mas é a ascendência de sua teoria sobre o transistor que guia “A informação”. Best-seller do “New York Times”, o livro concentra esforços em esmiuçar as ideias que impulsionaram a revolução digital, não os incrementos de hardware. Em vez de Steve Jobs, os heróis da história são figuras como o próprio Shannon, Alan Turing e o físico John Archibald Wheeler.

Um paradoxo

A narrativa percorre vasto período histórico. Depois de prólogo sobre Shannon, a obra vai ao Congo mostrar como nativos recorriam à redundância para transmitir mensagens por meio de tambores. Os capítulos seguintes falam da origem da escrita, do nascimento de dicionários, do conceito de meme e do desenvolvimento do telégrafo – tanto o que conhecemos quanto a versão óptica surgida na França à época da Revolução.

Gleick está acostumado a temas áridos. Em 1987, publicou “Caos”, sobre fractais e afins. É dele também uma biografia de Richard Feynman, precursor da nanotecnologia. Em “A informação”, um dos capítulos explica as propriedades físicas da informação a partir da entropia, conceito da termodinâmica que, como o matemático John von Neumann teria aconselhado a Shannon, poderia ser usado “para ganhar qualquer debate porque ninguém o compreenderia”.

Mas Gleick é famoso pela forma humana como retrata cientistas. É saboroso o relato sobre Charles Babbage, que, no século XIX, projetou computadores feitos com peças mecânicas. Perseguindo seu sonho, cruzou com Ada Lovelace, filha do poeta Lorde Byron que usou seu gênio matemático escrevendo algoritmos para as máquina de Babbage. Tornou-se a primeira programadora da história.

A obra trata ainda da necessidade de recuperar o sentido da enxurrada de informação. Isso porque, para mensurá-la, Shannon precisou sacrificar seu significado – decisão que custou a ser compreendida por um mundo que tomava o termo por sinônimo de conhecimento. Para a ciência, os bits de uma biblioteca de filosofia pesam tanto quanto os de um filme erótico. Mas, embora não tenha uma solução, Gleick não acha que serão supercomputadores e Big Data que promoverão o retorno ao sentido.

– Meu livro leva a um paradoxo. Por um lado, nunca tivemos tanta informação. Por outro, não nos sentimos mais inteligentes mas, sim, esmagados – afirma Gleick, que prepara livro sobre o sonho de viagem no tempo – Já lidamos com o problema quando a imprensa escrita surgiu. Não acho que possamos resolvê-lo, apenas aceitamos o fato.

******

Rennan Setti, do Globo