Thursday, 25 de April de 2024 ISSN 1519-7670 - Ano 24 - nº 1284

O ecossistema

A única razão para falarmos de algo tão abstrato quanto um ecossistema jornalístico é como meio de entender o que mudou. A mais recente e importante transformação foi, obviamente, a disseminação da internet, que conecta computadores e telefones a uma rede global, social, onipresente e barata. Em se tratando de novos recursos, a capacidade de qualquer cidadão conectado de produzir, copiar, modificar, compartilhar e discutir conteúdo digital é um assombro, e derruba muitas das velhas verdades sobre a imprensa e a mídia em geral.

A atividade jornalística no século 20 foi um processo bastante linear. Nele, repórteres e editores colhiam fatos e observações e transformavam tudo em notícia, que era então registrada em papel ou transmitida por ondas de rádio para ser consumida pelo público situado na outra ponta desses distintos meios de transporte.

A figura do pipeline é a metáfora mais simples para representar esse processo, seja a distribuição de notícias organizada em torno de rotativas ou de torres de transmissão. Parte da simplicidade conceitual de meios de comunicação tradicionais vinha da clareza garantida pela divisão quase total de papéis entre profissionais e amadores. Repórteres e editores (ou produtores e engenheiros) trabalhavam upstream: ou seja, como fonte da notícia. Criavam e burilavam o produto, decidiam quando estava pronto para consumo e, nessa hora, o difundiam.

Já a audiência ficava downstream. Éramos receptores do produto, que víamos apenas em seu formato final, processado. Podíamos consumi-lo, é claro (aliás, era nossa grande função). Podíamos discuti-lo à mesa do jantar ou em meio ao cafezinho – mas não muito mais. A notícia era algo que recebíamos, não algo que usávamos. Se quiséssemos tornar pública nossa própria opinião, precisávamos pedir permissão a profissionais, que tinham de ser convencidos a imprimi-la na seção de cartas ao editor ou a nos ceder um breve espaço no ar em algum programa aberto à participação do público.

Esse modelo do conduto ainda é central para a imagem que muitas instituições no meio jornalístico fazem de si, mas o vão entre tal modelo e a realidade atual é grande. E só faz crescer, pois os universos previamente isolados de profissionais e amadores se entrecruzam de modo mais dramático, e mais imprevisível, a cada dia.

O principal efeito da mídia digital é que não há nenhum efeito principal. As mudanças trazidas pela internet e pelo celular, e por aplicativos erguidos sobre cada plataforma dessas, são diversas e disseminadas o bastante para frustrar qualquer tentativa de pensar a atual transição como uma força ou um fator únicos. Para entender a situação como uma mudança no ecossistema, é útil ter uma noção de onde as mudanças estão aparecendo, e de como interagem.

Eis um punhado de surpresas em nosso pedacinho do mundo nesse século 21:

>> Em 2002, quando o senador americano Trent Lott louvou a campanha de segregação racial de Strom Thurmond em 1948, um dos indivíduos que selaram a queda do líder da minoria republicana no Senado foi Ed Sebesta, historiador que vinha reunindo declarações racistas feitas por políticos americanos a grupos segregacionistas. Pouco depois de Lott ter dito que o comentário fora um raro deslize, Sebesta procurou Josh Marshall, que mantinha o blog Talking Points Memo (TPM), para mostrar uma lista de comentários similares (e igualmente racistas) que Lott fizera desde a década de 1980.

Essa evidência impediu que Lott caracterizasse a declaração como mero deslize e fez com que perdesse a liderança da bancada republicana. Sebesta montara o arquivo de declarações racistas por conta própria, sem nenhum apoio institucional; no mundo dos blogs, Marshall era um amador (a empreitada ainda não virara uma empresa); e a fonte procurou o veículo (a quase 2.500 quilômetros de distância), não o contrário. Aliás, como dito na segunda seção do presente dossiê, o TPM virou a instituição que é hoje devido ao que Marshall foi capaz de fazer como amador (em outro exemplo de estabilização institucional).

>> Em 2005, o sistema de transportes londrino foi alvo de um atentado a bomba. Ian Blair, chefe da polícia metropolitana de Londres, declarou a emissoras de rádio e TV que o problema era uma pane elétrica no metrô. Minutos depois de veiculadas as declarações de Blair, cidadãos começaram a postar e a analisar imagens dos destroços de um ônibus de dois andares na Tavistock Square. Em menos de duas horas, centenas de posts em blogs analisavam essa evidência. Cada post desses chegou a milhares e milhares de leitores e contradizia abertamente as declarações de Ian Blair.

Diante disso (e ignorando o conselho de sua própria equipe de comunicação), Blair voltou novamente ao ar em menos de duas horas para declarar que o episódio fora de fato um atentado, que a polícia ainda não tinha mais informações e que voltaria a se pronunciar à medida que surgissem mais dados. Quando se dirigiu ao público, Blair tinha a seu favor o poder de todo meio de comunicação tradicional. Ficou patente, no entanto, que transmitir uma mensagem única por todo canal de radiodifusão existente já não significava ter o controle da situação.

>> Em 2010, em uma série de reportagens sob o título “Dollars for Docs”, o site americano ProPublica expôs o fluxo de fundos que escoa da indústria farmacêutica para médicos que receitam seus fármacos. Embora essa realidade tivesse sido coberta previamente de forma fragmentada, a investigação do ProPublica trazia várias novidades, incluindo um banco de dados montado a partir de informações que companhias farmacêuticas são obrigadas a divulgar – além da capacidade e da vontade jornalística de esmiuçar essa montanha de dados.

O “Dollars for Docs” não foi só uma notícia nova. Era um novo formato de apuração de fatos. Embora boa parte dos dados utilizados fosse de caráter público, essa informação não fora centralizada nem padronizada a ponto de se tornar útil; munido desse banco de dados, o ProPublica foi capaz de expor uma realidade nacional e, ao mesmo tempo, dar ferramentas para que outras organizações cobrissem o fenômeno no plano local; hoje, outras 125 publicações já lançaram reportagens sobre o tema devido à série original do site (por não ter fins lucrativos, o ProPublica pode atuar tanto no varejo como no atacado da notícia). Além disso, o site conseguiu aproximar de forma inédita seu banco de dados da realidade local: um usuário pode digitar o nome de um médico no sistema e receber um informe individualizado. A coleta e organização de dados de caráter público virou, assim, uma plataforma para a cobertura de fatos nos planos nacional, local e individual.

Três fatores – maior acesso ao cidadão comum, como no caso de Ed Sebesta; “multidões”, como no caso de internautas em Londres; e máquinas, como no caso do “Dollars for Docs” – estão viabilizando esquemas de trabalho que, dez anos atrás, seriam tanto impensáveis como inviáveis. O projeto “Off the Bus” do Huffington Post, que em 2008, durante a campanha presidencial americana, cobriu todas as convenções de eleitores (caucuses) no Estado do Iowa com a ajuda de jornalistas cidadãos, teria levado a organização à bancarrota se tocado com correspondentes próprios. Para monitorar despesas de membros do parlamento do Reino Unido, o jornal britânico The Guardian optou pelo crowdsourcing – pois, se entregue à redação, a tarefa não só teria custado muito como levado tempo demais.

O jornalismo sempre teve meios para receber denúncias e sempre foi ouvir o cidadão nas ruas. Membros do público sempre recortaram e passaram adiante matérias de seu interesse. A novidade aqui não é a possibilidade de participação ocasional do cidadão. É, antes, a velocidade, a escala e a força dessa participação – a possibilidade de participação reiterada, e em vasta escala, de gente anteriormente relegada a um consumo basicamente invisível. A novidade é que tornar pública sua opinião já não requer a existência de um veículo de comunicação ou de editores profissionais.

Enquanto um mecanismo de denúncias só funcionava em áreas bem circunscritas, o site NY Velocity chegou ao outro lado do mundo para conseguir uma entrevista crucial no caso de doping do ciclista Lance Armstrong. Entrevistas de rua são aleatórias, pois o profissional controla o modo e o ritmo das declarações do cidadão. Já com o Flickr e weblogs, internautas britânicos puderam discutir os atentados em Londres em público, a seu bel-prazer, sem nenhum profissional à vista. O “Dollars for Docs” pegou uma barafunda de informações e, com isso, montou um banco de dados que garantiu ao site um recurso permanente reutilizado por ele, por outras organizações e por milhões de usuários ao longo de mais de dois anos.

Em outras palavras, a mudança de grau aqui é tão grande que acaba sendo uma mudança de gênero. É como disse Steven Levy ao escrever sobre o iPod: quando melhora algo em 10%, a pessoa fez um aprimoramento; já quando faz algo dez vezes melhor, está criando algo novo. Novas ferramentas digitais podem acelerar padrões atuais de apuração, edição e publicação de notícias de forma tão radical que isso tudo passa a ser algo novo.

Vivemos hoje um choque de inclusão – choque no qual o antigo público se envolve cada vez mais em todo aspecto da notícia, como fonte capaz de expressar sua opinião publicamente, sem nenhuma ajuda, como grupo capaz tanto de criar como de vasculhar dados de um jeito inviável para profissionais, como divulgador, distribuidor e usuário de notícias.

Esse choque de inclusão se dá de fora para dentro. Não está sendo promovido pelos profissionais até então no comando, mas pelo velho público. É fomentado, ainda, por novos empreendedores da comunicação, por homens e mulheres interessados em criar sites e serviços que abracem, em vez de ignorar, o tempo livre e o talento do público.

A importância do jornalismo não vai acabar. A importância de profissionais dedicados ao ofício não vai acabar. O que está chegando ao fim é a linearidade do processo e a passividade do público. O que está chegando ao fim é um mundo no qual a notícia era produzida só por profissionais e consumida só por amadores – amadores que, por conta própria, eram basicamente incapazes de produzir notícias, distribuí-las ou interagir em massa com essa informação.

Tão robusta e multifacetada é tal transformação que devíamos considerar o total abandono do termo “consumidor” e simplesmente tratar o consumo como uma de várias condutas que o cidadão hoje pode exibir. As mudanças que estão por vir superarão as que já vimos, pois o envolvimento do cidadão deixará de ser um caso especial e virará o núcleo de nossa concepção de como o ecossistema jornalístico poderia e deveria funcionar.

 

Ecossistemas e controle

Falar de um “ecossistema jornalístico” é admitir que nenhuma organização de imprensa, hoje ou no passado, foi senhora absoluta do próprio destino. Relações em outras partes do ecossistema definem o contexto de toda e qualquer organização; mudanças no ecossistema alteram esse contexto.

Este ensaio começou com um foco no jornalista e nos distintos métodos usados pelo profissional para apurar, processar e interpretar informações e fatos de caráter vital para a vida pública. A maioria dos jornalistas exerce o ofício dentro de instituições; várias coisas moldam uma instituição dessas – o porte e a composição da redação, a imagem que tem de si mesma, fontes de receita. Essas instituições, por sua vez, determinam o trabalho do jornalista: que fatos o profissional pode ou não cobrir, o que é considerado um trabalho bom ou ruim, com quem pode colaborar, que recursos tem a seu dispor.

As instituições em si estão em situação análoga, operando no âmbito da mídia que cobre notícias (e, às vezes, até na parte que não cobre). Esse ecossistema jornalístico (doravante chamado apenas de “ecossistema”) inclui ainda outras instituições – concorrentes, colaboradores, fornecedores –, mas abarca também o modo como os demais atores afetam essas instituições. A preferência do público por notícias sobre Hollywood a Washington, a presença da concorrência a um clicar do mouse, a atual interpretação da Primeira Emenda da Constituição norte-americana pela Suprema Corte do país, a proliferação de câmeras de alta qualidade em celulares: tudo isso é parte do ecossistema jornalístico nessa alvorada do século 21, com efeitos do velho e do novo totalmente embaralhados.

O ecossistema também afeta a capacidade institucional: o tipo de história que é ou não coberta é determinado por vários fatores – pela audiência, pela vontade de anunciantes, por estruturas narrativas. Todo mundo sabe contar a história de um atleta trapaceiro ou de uma empresa insolvente, mas não há estrutura narrativa óbvia para a tensão entre a união monetária e fiscal na União Europeia, ainda que esta última seja de longe a mais importante. Na mesma linha, fatos e suposições ligados a coisas como o acesso a dados, a validade de fontes, a natureza e os limites de parcerias aceitáveis, entre outros, afetam o que instituições creem que podem ou não fazer, que devem ou não fazer.

No modelo jornalístico do pipeline, instituições estabelecidas poderiam ser vistas como uma série de gargalos de produção controlados e operados por empresas de comunicação que, com isso, tiravam receita tanto de anunciantes como do público. Esses gargalos eram subproduto do custo e da dificuldade incrível de reproduzir e distribuir a informação, por rotativas ou torres de transmissão. Como observado na seção anterior, nesse ecossistema instituições tinham alto grau de controle sobre a própria sorte.

Para imprimir e distribuir um jornal diário, era preciso uma equipe grande e qualificada – e maior ainda para produzir e transmitir um telejornal. A concorrência era limitada por esses custos e dificuldades, bem como pelo alcance geográfico de caminhões de entrega e sinais de transmissão. No pequeno número de organizações com meios para criar e distribuir notícias, estruturas profissionais completas foram erigidas.

Essa institucionalização se deu primeiro em jornais e revistas; a máquina impressora precedeu não só o rádio e o cinema, mas também o motor a vapor e o telégrafo. A estrutura profissional de repórteres, editores, publishers e, mais tarde, ilustradores, diagramadores, checadores e todo o resto do aparato utilizado na produção de um jornal foram erguidos em torno de – ou literalmente “sobre” as – gigantescas máquinas que aplicavam a tinta ao papel. Departamentos de jornalismo de emissoras de rádio e TV seguiram o mesmo padrão, inventando categorias e práticas profissionais para subdividir e sistematizar tanto o trabalho como distintas categorias de profissionais envolvidos na produção de notícias para a radiodifusão.

Foi então que chegou a internet, cuja lógica básica – a reprodução digital, disponível universalmente, sem divisão de participantes em produtores e consumidores – bate de frente com princípios organizadores da produção jornalística vigentes desde o século 17. A abundância cria mais ruptura do que a escassez; quando todo mundo de repente passa a ter muito mais liberdade, toda relação no velho modelo – no qual o meio de comunicação cobrava para “operar o gargalo” – pode ser questionada.

A chegada da internet não trouxe um novo ator para o ecossistema jornalístico. Trouxe um novo ecossistema – nem mais, nem menos. Com ele, o anunciante pode chegar ao consumidor diretamente, sem pagar nenhum pedágio – algo que muito consumidor até prefere. O amador pode ser um repórter “na acepção do termo” (“reportador”): a notícia do terremoto em Sichuan, na China, do pouso de emergência de um avião no Rio Hudson, em Nova York, e de massacres na Síria partiu, sempre, de relatos de gente na cena dos fatos. A doutrina do “uso justo”, até então uma válvula de escape para a reutilização disciplinada de pequenos blocos de conteúdo por um pequeno grupo de meios virou, de repente, uma oportunidade para a construção de operações ineditíssimas de agregação e reblogging. E por aí vai.

Quando a mudança é pequena ou localizada e instituições estabelecidas estão bem adaptadas a essas condições, não faz muito sentido pensar no entorno como um “ecossistema”, pois a simples resposta a pressões competitivas e a adaptação a mudanças pequenas e óbvias já bastam. Para instituições jornalísticas, no entanto, as mudanças da última década não foram nem pequenas, nem localizadas.

Um tópico comum na discussão da reação de meios de comunicação tradicionais a essas mudanças é a incapacidade de executivos de jornais de reconhecer os problemas que enfrentariam. A nosso ver, esse diagnóstico é equivocado: a transição para a produção e a distribuição digital de informação alterou de forma tão drástica a relação entre meios de comunicação e cidadãos que “seguir como sempre” nunca foi uma opção – e, para a maioria da imprensa bancada por publicidade, nunca houve saída que não envolvesse uma dolorosa reestruturação.

Um tema parecido é a imprevisibilidade e a surpresa. Aqui, a explicação para a crise atual é que mudanças recentes foram tão imprevisíveis e vieram de forma tão rápida que organizações tradicionais foram incapazes de se adaptar. É outra visão equivocada: ainda no fim da década de 1980 já havia projeções plausíveis do problema que a internet causaria para a indústria jornalística e, apesar de muito se falar da “velocidade da internet”, o ritmo dessa mudança foi glacial; se partirmos de 1994 (ano em que a internet comercial se difundiu para valer), executivos tiveram 75 trimestres consecutivos para se adaptar.

Relatos isolados de adaptação (ainda que triunfal) ao atual ecossistema deixam claro quão difícil é essa adaptação. Em agosto de 2011, por exemplo, o New York Daily News fez uma inovação na cobertura ao vivo do furacão Irene, substituindo a página principal do site do jornal por um blog em tempo real, o Storm Tracker.

Isso feito, o jornal despachou repórteres para as ruas. Munidos de câmeras e celulares (em geral, o mesmo aparelho), foram registrar de tudo: o processo de evacuação, a luta de moradores para se proteger da tormenta, os efeitos do vento e da água em si. Essa cobertura ao vivo foi intercalada com informações de serviços de meteorologia, de serviços de emergência e da prefeitura, tudo ocorrendo paralelamente à tempestade.

A cobertura ao vivo da catástrofe no blog do Daily News foi um êxito e rendeu grandes elogios ao jornal. Só que por pouco não ocorreu. O que precipitou o projeto Storm Tracker não foi uma estratégia nova para o meio digital, mas o colapso de uma velha. Já que a sede do Daily News fica em uma região de Manhattan sujeita a alagamentos, a polícia limitou severamente o número de trabalhadores que podiam chegar ao lugar no fim de semana em que o Irene passou pela ilha. A princípio, isso não impediria que se subisse conteúdo digital no site – salvo pelo fato de que o sistema de gestão de conteúdo do jornal fora projetado para dificultar o acesso de quem não se encontrava no prédio.

Como dito anteriormente por Anjali Mullany, pioneira no uso ao vivo de blogs no Daily News e responsável pela operação Storm Tracker, a necessidade de erguer um processo de produção em torno do CMS é um grande obstáculo (não raro invisível) a tentativas de inovação. Nesse caso específico, o Daily News tinha pegado uma ferramenta que podia ter permitido o acesso de qualquer funcionário do jornal, em qualquer lugar do mundo, e acrescentado mecanismos de segurança que, na prática, faziam o recurso agir como uma velha rotativa a vapor: o trabalhador tinha de estar perto da máquina para operá-la – ainda que no caso a máquina fosse um computador ligado a uma rede mundial.

A necessidade por trás do lançamento de Storm Tracker, em outras palavras, não foi achar um jeito novo de levar informação à população de Nova York durante uma tempestade das grandes, mas simplesmente descobrir uma maneira de manter o site no ar quando péssimas decisões de engenharia colidiram com uma tragédia climática.

Esse foi um fator essencial no lançamento do Storm Tracker. Havia outro. Em entrevistas com Mullany sobre o sucesso do projeto, a jornalista observou que por sorte o Irene chegara no final de agosto e não no início de setembro. É que no final de agosto o grosso da alta chefia estava de férias. Não podia, portanto, reverter a decisão do pessoal de escalão inferior, que entende mais de internet, de testar algo novo.

Conforme observado na segunda seção, instituições são feitas para resistir a mudanças – é sua core competence, no jargão de consultores de gestão. O risco, obviamente, é que o sucesso excessivo nessa área possa preservar a lógica interna de uma instituição até o momento em que entra em colapso. Se para inovar à moda do Storm Tracker for preciso uma tecnologia cheia de entraves, o medo de que a redação seja varrida para o mar e uma chefia em férias, as perspectivas de inovação ordenada em organizações tradicionais são péssimas (um triste epílogo: durante o furacão Sandy o prédio do Daily News foi alagado e os usuários do CMS tiveram o mesmo problema que durante o Irene; passado um ano da primeira crise, ninguém tinha adaptado o sistema para permitir a ação de uma força de trabalho distribuída).

Diante disso, a fabulação coletiva da velha imprensa no sentido de restituir o statu quo ante é, em si, nociva. Organizações jornalísticas devem, obviamente, fazer o possível para elevar sua renda, mas a receita garantida, o lucro alto e as normas culturais do setor no século 20 se foram, e o ecossistema que produzia tais efeitos, também. Para o jornalista, e para instituições que o servem, a redução de custo, além de uma reestruturação para garantir mais impacto por hora ou dólar investido, é a nova norma de organizações jornalísticas eficazes – padrão que hoje chamamos de jornalismo pós-industrial.

 

Ecossistema pós-industrial

Como descrever o jornalismo pós-industrial? O ponto de partida é uma premissa apresentada na segunda seção. A saber, que organizações jornalísticas já não possuem o controle da notícia, como se supunha que possuíam, e que o grau maior de defesa do interesse público por cidadãos, governos, empresas e até redes com elos fracos é uma mudança permanente, à qual organizações jornalísticas devem se adaptar.

Um exemplo dessa mudança veio durante a retirada de manifestantes do movimento Occupy Wall Street de uma praça em Nova York, em novembro de 2011. A notícia não foi veiculada primeiro pela imprensa tradicional, mas pelos próprios acampados, que avisaram sobre a ação da polícia por SMS, Twitter e Facebook. Participantes do protesto geraram mais fotos e vídeos do episódio do que meios tradicionais, em parte porque a esmagadora maioria das câmeras estava nas mãos de manifestantes e, em parte, porque a polícia barrou helicópteros da imprensa do espaço aéreo sobre a praça. Repórteres no local escondiam crachás de meios de comunicação, pois o cidadão comum tinha mais acesso à cena dos fatos do que gente credenciada da imprensa.

Um outro caso: organizações jornalísticas que publicaram documentos sigilosos obtidos via WikiLeaks em geral tratavam o WikiLeaks como fonte, não veículo de informações. A lógica era que o WikiLeaks fornecia o material de base para seu trabalho. Isso faz sentido quando detentores de informações importantes não podem difundi-las por conta própria e quando um meio de comunicação não divide com outros o material obtido de uma certa fonte. Já não há, contudo, resposta certa para a pergunta: “Quem publica e quem é fonte?”. O WikiLeaks é uma fonte capaz de publicar no mundo todo. E é um meio que colabora com outros no repasse de informações em estado bruto.

A cobertura de eventos como #Occupy e Cablegate (bem como levantes na Tunísia, massacres na Síria, tsunamis na Indonésia, acidentes de trem na China e protestos no Chile) simplesmente não pode ser descrita ou explicada com a velha linguagem do conduto. A melhor justificativa para pensarmos no jornalismo como ecossistema é ajudar a rever o papel que instituições podem exercer em dito ecossistema.

Imagine dividir cada novo ente do ecossistema em três grandes categorias – indivíduos, massas e máquinas (ou seja, tanto novas fontes de dados como novas maneiras de processá-los). Indivíduos adquiriram novos poderes porque, hoje, todo mundo tem acesso a um botãozinho onde se lê “publicar”; qualquer informação pode aparecer e se alastrar, levada nas asas de redes sociais hoje densas. As massas têm poder porque a mídia agora é social, criando um substrato não só para o consumo individual, mas também para a conversa em grupo. A norte-americana Kate Hanni soube usar a seção de cartas de jornais para lutar pelos direitos de passageiros de companhias aéreas porque entendia, melhor do que os próprios meios, que aquele era um espaço de congregação de leitores. E máquinas hoje ganharam poder porque a explosão de dados e métodos de análise abre perspectivas inéditas nesse campo, como exemplificado pela análise léxica e de rede sociais na esteira da divulgação de telegramas do Departamento de Estado americano.

Assim como não dá para confinar o WikiLeaks exclusivamente à categoria de fonte ou à de meio de difusão, um veículo de imprensa não tem como adotar uma postura inflexível diante do novo poder do indivíduo, da disseminação de grupos absurdamente fáceis de formar ou do maior volume de dados brutos e do novo poder de ferramentas analíticas. Como a experiência imprevista do Daily News com a cobertura de tragédias via blog demonstra, não são recursos que podem ser agregados ao velho sistema para aprimorá-lo. São recursos que mudam qualquer instituição que os adote.

Imaginemos, agora, dividir a atividade básica de uma organização jornalística em três fases sobrepostas: apuração de informações sobre um fato, transformação desse material em algo digno de ser publicado e posterior publicação. Essa divisão do processo jornalístico em apuração, produção e publicação é, naturalmente, simplista, mas sintetiza a lógica básica da produção na imprensa: buscar material no mundo lá fora, colocar essa informação no formato que a organização deseja (um artigo, uma série, um post) e, isso feito, difundir ao mundo o material em seu novo formato.

Munidos dessas duas tríades, lançamos a pergunta: “Qual o impacto de indivíduos, massas e máquinas no trabalho de apuração, produção e difusão da informação?”

>> Um exemplo dessa fase de “apuração” dos fatos veio do blog de ciclismo NY Velocity, fundado em 2004 por três fãs do esporte, Andy Shen, Alex Ostroy e Dan Schmalz. Embora o propósito básico do site fosse cobrir o ciclismo em Nova York, seus criadores foram ficando cada vez mais perturbados com o silêncio público e consciente diante da possibilidade de que Lance Armstrong, sete vezes vencedor do Tour de France, tivesse apelado para a eritropoietina (EPO), um hormônio que aumenta a resistência do atleta. O site entrevistou Michael Ashenden, o médico australiano que criara um teste para detectar a presença do hormônio; na entrevista, Ashenden afirmou que, tendo testado uma amostra de sangue de Armstrong colhida no Tour de France de 1999 (que ele venceu), sua opinião era que o atleta usara, sim, a substância. Foi uma reportagem exclusiva, no velho formato jornalístico. A entrevista, de 13 mil palavras, serviu para galvanizar a opinião de ciclistas que achavam não só que Armstrong conquistara essas vitórias injustamente, mas que o jornalismo desportivo profissional estava disposto a fechar os olhos para o fato. Já os fundadores do NY Velocity estavam dispostos a buscar a verdade de forma tenaz e pública; além de terem suas suspeitas confirmadas, no final também mostraram que profissionais da imprensa simplesmente não estavam cobrindo o fato como deviam – e que gente da área em questão, com empenho e conhecimento dos fatos, podia muito bem preencher essa lacuna.

>> Em outro cruzamento do método tradicional com novas possibilidades, vejamos como a capacidade de formar grupos mudou a cobertura dos fatos. O projeto de 2008 do Huffington Post citado lá atrás conseguiu cobrir todos os caucuses no Iowa porque despachou um voluntário para cada lugar para um trabalho de uma ou duas horas, algo que teria custado demais com a contratação de freelancers e exigido um vaivém excessivo da equipe da redação. Os voluntários do projeto “Off the Bus” não redigiram o texto sobre cada caucus; o projeto foi um híbrido de reportagem distribuída e redação centralizada; foi, de certa forma, a volta à velha separação de repórteres nas ruas e redatores em redações próximas do maquinário.

>> Outro exemplo do cruzamento de atividades atuais e novos recursos é a maneira como o relato de certos fatos pode ser feito por máquinas. Vários projetos que empregaram o Ushahidi, uma ferramenta de “mapeamento de crises”, passaram de “recurso para a superação de crises” para “recurso para compreensão de crises em tempo real”. O Ushahidi já foi usado para criar mapas em tempo real da intimidação de eleitores, da violência nas ruas, de níveis de radiação e de remoção de neve das ruas. Cada aplicação do Ushahidi para eventos de interesse jornalístico é um exemplo da máquina alterando a forma como dados são coletados, compilados e apresentados.

Cada atividade básica dessas – apurar, produzir e distribuir notícias – está sendo modificada por novas formas de participação de indivíduos, grupos e máquinas. Como observado na segunda seção, o significado e o alcance dessas mudanças devem frustrar o desejo de instituições de incorporar aos poucos as ditas transformações. Muitas das recomendações dessa seção são, portanto, ecos das apresentadas na seção sobre instituições; quando são repetidas aqui, é com maior ênfase no fato de que o emprego desses novos recursos e capacidades significa a adaptação a um novo ecossistema.

 

A notícia como produto de importação e exportação

Uma maneira de analisar um ecossistema é perguntar o que troca de mãos entre seus participantes. Como dito anteriormente, no século 20 esse fluxo era relativamente linear e previsível; fluxos de informação envoltos em considerável complexidade em geral eram parte de contratos comerciais altamente detalhados, como a reprodução comercializada de conteúdo de outros meios (syndication) ou o uso de material de agências de notícias.

O valor de uma matéria da Associated Press (AP) para um jornal estava refletido no interesse do público local; assinar o serviço da AP valia a pena quando o valor desse interesse ajudava o jornal a gerar mais receita publicitária do que o custo do serviço.

Era um sistema no qual o valor gerado para as duas partes era definido em acordos bilaterais e calculado em termos monetários – um jornal firma um acordo com a AP em troca do acesso a seu conteúdo. A título de comparação, peguemos o modelo original do Huffington Post: parte do material publicado no site poderia trazer trechos de outros artigos, agregar comentários e produzir um produto novo, economicamente viável.

Essa forma de “uso justo” existe há décadas. O que mudou foram as condições do ecossistema. A chefia do Huffington Post percebeu que, no meio digital, o uso justo significava, na prática, que todo o material de uma agência de notícias, e que a citação de trechos e comentários de conteúdo exclusivo do Washington Post ou do New York Times, tinham muito mais valor para o leitor do que a contratação dos serviços de uma AP ou Thomson Reuters.

O Huffington Post já foi muito criticado por essa atitude, mas isso é como atirar no mensageiro. O que o site fez foi entender onde a legislação atual e novas tecnologias se cruzam. A própria AP vem testando algo novo: deixar de repassar grandes notícias a assinantes na tentativa de obter um tráfego mais direto. Na mesma linha, a briga da AP com Shepard Fairey, o artista que criou uma popularíssima imagem de Barack Obama inspirado em uma foto da AP, repousa na tese de que a AP tinha o direito de fotografar Obama sem sua permissão, mas que Fairey não podia usar aquela imagem para criar algo semelhante. No caso Fairey, não havia realidade objetiva sobre a qual fundar o caso – tudo o que havia era um conjunto de doutrinas jurídicas.

A velha ética foi descrita por Terry Heaton num post intitulado “Por que não confiamos na imprensa?”:

Ninguém nunca cita outros no universo da cobertura jornalística a menos que obrigado a tal por uma questão de direito autoral. Antes da internet, até dava para entender, pois até onde sabíamos nossos repórteres sabiam tudo o que era preciso saber sobre um fato. A tese de que alguém, em outro lugar, tivesse essa informação primeiro era tão irrelevante que nem valia a pena mencioná-la. Para nossos leitores ou telespectadores, éramos a fonte de todo conhecimento. Além disso, tínhamos tempo para levantar toda informação de que precisávamos. Era o mundo do produto jornalístico “acabado”.

Mas agora, com a informação em tempo real, qualquer um pode ver claramente o papel de cada fonte na informação. Sabemos quem a tinha primeiro. Sabemos quando algo é exclusivo. Nossa propaganda de nós mesmos perdeu totalmente o sentido.

No novo ecossistema jornalístico, hoje é óbvio que a ideia de todo mundo produzir do zero um artigo acabado simplesmente não é o normal. Somos externalidades uns dos outros. Em certa medida, sempre foi assim – jornais ajudavam a definir a pauta de veículos de radiodifusão no século 20 –, embora em geral fosse algo oculto, como Heaton conta. A explosão de fontes e a queda do custo de acesso tornaram mais saliente o aspecto interligado do jornalismo. O site Slashdot era nitidamente fonte de ideias de pauta para o caderno de tecnologia do New York Times; outro, o Boing Boing, gera tráfego para sites desconhecidos, porém interessantes, que volta e meia servem de subsídio para reportagens em outros lugares, e assim sucessivamente.

De certo modo, a agregação, a inspiração, a citação e até a “cópia” deslavada de conteúdo jornalístico que ocorre no ecossistema é um retorno a eras anteriores da atividade jornalística, na qual jornalecos do interior às vezes não passavam de um apanhado de notícias requentadas de grandes diários. A capacidade de agregar notícias, à la século 18, se devia em parte à falta de normas institucionais (reproduzir matérias era “ilegal”? Poucos editores deviam encarar a coisa nesses termos) e em parte à tecnologia (pouca gente em Nova York um dia veria um jornal do interior do Kentucky). A ideia de que daria para cobrar pela reprodução de conteúdo – o syndication – é um conceito relativamente novo na história jornalística.

O modelo de syndication (ou distribuição comercializada) que existia sob o regime de produção de notícias do século 20 não está, portanto, sob pressão devido à má conduta de certos atores, mas porque a configuração básica do meio jornalístico mudou drasticamente. No modelo antigo, a reutilização de material era contratual (freelancers, agências de notícias) ou oculta. No novo modelo (velhos modelos, na verdade), há muitas formas de reaproveitamento; algumas são contratuais, mas a maioria não o é. Embora a AP seja um caso particularmente visível, toda instituição jornalística vai ter de se posicionar ou de se reposicionar em relação a novas externalidades no ecossistema.

O espectro da troca de valor entre indivíduos e organizações é enorme e altamente graduado. Hoje, é imperativo que a instituição tenha a capacidade de estabelecer parcerias (formais e informais) possibilitadas pelo novo ecossistema. Para darmos um exemplo recente, importante por si só e por aquilo que revela sobre esse novo mundo, traduzir material escrito e falado hoje é muitíssimo mais fácil e barato do que já foi.

Ferramentas de tradução automática são muito melhores hoje do que há coisa de cinco anos, como ilustrado pelo uso do tradutor do Google por falantes de língua inglesa para ler tweets em árabe; pelo crowdsourcing da tradução para verter volumes incríveis de material em pouquíssimo tempo (como no caso do dotSUB e da tradução das TEDTalks); e pelo surgimento de instituições dedicadas a transpor abismos linguísticos e culturais como Meedan ou ChinaSmack. Hoje, toda instituição no mundo está diante de duas opções estratégicas: quando, e de que idiomas, começar a traduzir material didático ou conteúdo já produzido para apresentar a nosso público e quando, e para que idiomas, traduzir nosso próprio material para tentar chegar a um novo público.

Imaginar a notícia como um produto linguístico de importação e exportação, investir na importação do árabe para o inglês, possivelmente em todos os níveis da curva de custo-qualidade, poderia ser utilíssimo para qualquer redação americana que queira cobrir assuntos geopolíticos. Já o investimento na exportação do inglês para o espanhol, dada a tendência demográfica nos Estados Unidos, poderia contribuir muitíssimo para a aquisição e a retenção de público.

 

Recomendação: aprender a trabalhar com parceiros

Numa foto famosa tirada nos Jogos Olímpicos de 2008, uma falange de fotógrafos se acotovela numa plataforma para bater o que seria, basicamente, uma foto idêntica do nadador Michael Phelps. A redundância retratada é impressionante. Algo como meio milhão de dólares em equipamento foi comprometido para o registro de um mesmo momento, de um mesmo ângulo. Pior ainda é o custo humano de dezenas de fotógrafos talentosos competindo por um valor incremental mínimo.

Essa forma de competição, na qual cada instituição tem de cobrir a mesma coisa de modo ligeiramente distinto, era absurda até quando essas organizações nadavam em dinheiro. Hoje, com a perda incessante de recursos, é também nociva.

Instituições jornalísticas precisam aprender a atuar em parceria com indivíduos, organizações e até redes pouco coesas tanto para ampliar seu alcance como para reduzir custos. Há vários exemplos de sucesso: uma parceria do New York Times com a rádio WNYC (a SchoolBook) para melhorar a cobertura dos dois meios na área de educação; WikiLeaks e Dollars for Docs, já citados; o uso sem compromissos de dados digitais colhidos pela Sunlight Foundation ou pelo Data.gov. Buscar maneiras de usar e reconhecer o trabalho desses parceiros sem a necessidade de classificar tudo por categorias como “fonte” ou “fornecedor” ajudaria a ampliar o leque de possíveis colaborações.

 

Recomendação: descobrir como usar o trabalho sistematizado por outros

Esse é um subconjunto da recomendação anterior. Vemos, hoje, o enorme crescimento de dados estruturados (dados que já se encontram em formato altamente ordenado e bem descrito, como um banco de dados) e o aumento correlato de APIs (interfaces de programação de aplicativos, uma forma sistemática de máquinas dialogarem). Ao juntarmos as duas coisas, temos um aumento potencial na colaboração sem cooperação: quando um meio de comunicação aproveita dados ou interfaces disponíveis sem a necessidade de solicitar ajuda ou permissão à instituição que abriga os dados.

É, naturalmente, algo importante, pois garante o acesso a baixo custo e alta qualidade a um material até então indisponível. Tal como ocorre com tantos recursos novos no cenário atual, no entanto, dados estruturados e APIs não são ferramentas novas para fazer coisas à moda antiga. São ferramentas cuja adoção altera a organização que as emprega.

Na hora de tirar proveito do trabalho sistematizado por outros, os obstáculos mais óbvios são a falta de capacitação técnica e visão para usá-lo. Por sorte, a situação está melhorando um pouco, já que ferramentas como Many Eyes e Fusion Tables estão facilitando a vida de quem não tem muito traquejo técnico e quer explorar grandes bancos de dados para desvendar padrões. Até com esses avanços, no entanto, jornalistas carecem de desenvoltura básica com números. É um problema que chamamos de “Final Cut versus Excel”: faculdades de jornalismo estão mais aparelhadas para ensinar técnicas básicas de produção de vídeo do que de exploração básica de dados.

Embora a ênfase em ferramentas de apresentação em detrimento da investigação seja um problema mais grave em faculdades de jornalismo dos Estados Unidos, o problema assola o setor inteiro (é como disse Bethany McLean, da revista Vanity Fair: “Qualquer pessoa capaz de entender um balanço de empresas provavelmente vai estar trabalhando no mercado financeiro, e não cobrindo esse setor”).

Os obstáculos mais sutis são culturais: para usar o trabalho sistematizado por outros é preciso superar a chamada síndrome do “não foi inventado aqui” e aceitar que será preciso um grau maior de integração com organizações externas para tirar proveito de novas fontes de dados. Há outro obstáculo cultural: embora o uso de dados e APIs em geral não tenha um custo, organizações que abrigam essa informação querem crédito por ajudar a criar algo de valor. Essa necessidade bate de frente com a tendência acima citada de não dar crédito a terceiros em público.

Essa lógica, naturalmente, não vale só para o uso do trabalho alheio. Organizações jornalísticas devem melhorar a própria capacidade de disponibilizar seu trabalho de forma sistemática para reutilização por outras organizações, seja pela partilha de dados, seja pela partilha de ferramentas e técnicas. Sempre haverá tensão entre a lógica competitiva e a cooperativa no ecossistema jornalístico. Na atual conjuntura, no entanto, o custo de não empreender um esforço conjunto subiu, o custo de colaborar sem muito ônus caiu consideravelmente e o valor de trabalhar sozinho despencou.

Como observado na seção 2, a presença de processos costuma ser um obstáculo maior à mudança do que a falta de recursos. Tirar proveito do trabalho sistematizado por outros e descobrir maneiras de tornar seu trabalho sistematicamente útil para outros são saídas para a produção de um trabalho de maior qualidade a um custo menor. Para isso, no entanto, a organização precisa começar a tratar a redação como uma operação de importação e exportação, não como um chão de fábrica.

 

Autodefinição como vantagem competitiva

Não há solução para a presente crise. Um corolário é que a prática do jornalismo não chegará, num futuro próximo, a nenhuma condição de estabilidade. Não estamos vivendo uma transição de A para B (de Walter Cronkite para Baratunde Thurston, por assim dizer), mas uma transição de um para muitos, de um mundo no qual Cronkite era capaz de representar um ponto focal para outro com uma cacofonia de vozes: Thurston, Rachel Maddow, Juan Cole, Andy Carvin, Solana Larsen – para citar só alguns dos personagens de um elenco de milhões.

Já vimos isso em microcosmos: na transição da TV aberta para a TV a cabo ou, num exemplo menos popular, da radiodifusão terrestre para a rádio via satélite, quando passamos de emissoras voltadas a uma ampla faixa do público para nichos altamente específicos (Comedy Central, Food e, na rádio via satélite, não só blues, mas “Delta blues” ou “Chicago blues”).

 

Recomendação: incluir links para o material-fonte

O link é a affordance tecnológica básica da internet, o recurso que a distingue de outras formas de publicação. É como se dissesse ao usuário: “Se quiser saber mais sobre o tema aqui discutido, é possível achar mais material aqui”. É uma forma de respeitar o interesse do usuário e sua capacidade de seguir os acontecimentos por conta própria.

Na prática jornalística, a forma mais básica de link é para o material-fonte. Uma matéria sobre um indiciamento recente deve ter um link para o texto do indiciamento. Uma discussão de um artigo científico deve ter um link para o artigo. Um textinho sobre um vídeo engraçado deve ter um link para o vídeo (ou, melhor ainda, incorporar o vídeo ao texto).

Não se trata de uma estratégia digital sofisticada, mas sim de pura ética comunicativa. E o que espanta é que tantos veículos de comunicação não passem nesse teste básico. A culpa é de velhos obstáculos culturais (como na observação de Terry Heaton sobre não dar o crédito), de hábitos arraigados (antigamente, a redação tinha pouco tempo e espaço para ficar citando fontes de informação) e do receio comercial de encaminhar o leitor para outro lugar.

Nenhum desses entraves, porém, merece muita simpatia. O hábito de não dar crédito, embora disseminadíssimo, é claramente antiético. A internet deixou de ser novidade para o público; já passou da hora de suas práticas básicas serem interiorizadas por jornalistas. E evitar links por razões comerciais pode fazer sentido para o departamento de venda de publicidade, mas devia horrorizar qualquer pessoa cujo trabalho envolva a prestação de um serviço público.

Para o público, o link para o material de origem tem valor tão óbvio, e é tão fácil, que a organização que se recusa a fazê-lo está expressando pouco mais do que desprezo pela audiência e por normas éticas da comunicação pública.

Já que a internet oferece o potencial de variedade infinita, o argumento em favor da audiência de nicho (e da lealdade de nicho) também é forte aqui. Além disso, a velha lógica da segmentação geográfica da cobertura local permitia a veículos de comunicação contratar uma agência de notícias ou comprar pacotes de conteúdo distribuído nacionalmente sabendo que o público não veria o mesmo conteúdo publicado ou exibido em uma cidade vizinha. Com a chegada da busca como forma básica de localização de conteúdo, no entanto, o usuário típico hoje tem acesso a milhares de fontes para matérias sobre os piratas somalis, digamos – a vasta maioria delas derivada de um mesmo texto de agência de notícias.

Isso cria um novo imperativo para organizações jornalísticas – imperativo para o qual a estratégia de “ser tudo para todos em um raio de 50 quilômetros” já não funciona. Há serviços úteis a serem prestados por organizações hiperlocais (St. Louis Beacon, Broward Bulldog), outros por organizações hiperglobais (New York Times, BBC), outros ainda por sites de nicho voltados a análises altamente especializadas (Naked Capitalism, ScienceBlogs) e por aí vai.

Aqui, a escolha é entre abrangência e profundidade. A internet produz um salto imenso em diversidade num mundo dominado pela imprensa escrita e falada. Ultimamente, um volume crescente de notícias vem circulando por mídias sociais, sobretudo Twitter e Facebook; o crescente domínio da difusão social de notícias e comentários reduz ainda mais a capacidade de qualquer site de produzir um pacote exaustivo de notícias.

Há espaço para textos rápidos, redigidos às pressas, sobre notícias que acabam de chegar. Há espaço para análises relativamente rápidas, de extensão relativamente curta (o primeiro esboço da história). Há espaço para a análise refletida e minuciosa por gente que entende da coisa para um público que entende da coisa. Há espaço para relatos impressionistas, de fôlego, sobre o mundo alheio à balbúrdia do noticiário diário. E assim sucessivamente. Não são muitas, no entanto, as organizações capazes de agir satisfatoriamente em várias dessas frentes – e não há nenhuma que dê conta de tudo isso para todos os temas que interessam seu público.

Qualquer veículo de comunicação sempre viveu o dilema da abrangência e da profundidade. Só que a internet piorou as coisas: as massas são maiores, como exemplificado pela propagação da notícia da morte de Michael Jackson. Nichos são cada vez mais especializados (o Lenderama cobre problemas com hipotecas, o Borderzine a questão de jovens latinos nos Estados Unidos). A notícia que já chegava rápido pode chegar ainda mais depressa: antes de anunciada pela Casa Branca, a morte de Osama bin Laden já vazara mais de uma vez no Twitter por fontes independentes.

 

Recomendação: não tentar aplicar peso da marca a produto menos nobre

Aqui estamos, basicamente, recomendando o que não fazer.

Na última década, duas coisas mudaram radicalmente: o valor da reputação (maior) e o custo de produção (menor). Hoje em dia, há tantas fontes de notícias no mercado que qualquer publicação conhecida pela exatidão, pelo rigor e pela probidade tem vantagem sobre o mar de concorrentes indistintas. Só que ferramentas digitais também derrubaram drasticamente o custo de localizar e publicar informações, levando a uma profusão de veículos que as publicam às toneladas.

É tentador, para publicações com boa reputação, combinar essas duas mudanças: achar um jeito de aplicar seu selo de alta qualidade a iniciativas novas, de baixo custo e alto volume. Foi a lógica que levou à criação de um recurso de agregação e comentário do Washington Post: o blogPost, que ficou famoso pela renúncia de Elizabeth Flock depois de levar uma bronca por não ter dado crédito a parte do material que vinha agregando.

Vale a pena reproduzir parte da coluna do ombudsman do Post, Patrick B. Pexton, na esteira da renúncia de Flock:

Flock renunciou voluntariamente. Segundo ela, os [dois] erros foram seus. E disse que era só questão de tempo para que cometesse um terceiro; a pressão era simplesmente grande demais.

Mas a culpa foi tanto do Washington Post quando dela. Falei com vários dos jovens a cargo de blogs do Post esta semana, e com alguns que deixaram o jornal nos últimos meses. Sua crítica era sempre a mesma.

Segundo disseram, a impressão é que estavam sozinhos no mundo digital, sob alta pressão para emplacar coisas na internet, sem treinamento, com pouca orientação, pouco apoio e pouquíssima edição. Quase não há diretrizes para agregar histórias, disseram.

Flock e outros agregadores ficaram encurralados entre a lógica da notícia comoditizada de um site agregador e a marca do Washington Post, o mesmo dilema observado quando a revista The New Yorker cedeu uma plataforma para o conteúdo reciclado de Jonah Lehrer; como observou Julie Bosman no New York Times, o célebre “departamento de checagem de informações [da revista] foi projetado para o produto impresso, não para o digital”. A tensão também ficou visível no escândalo do site agregador Journatic, que tascava créditos falsos a matérias redigidas por freelancers no exterior.

Em todos esses casos, a tentação é colocar um processo de baixo custo sob uma marca de alto valor. É óbvio que a rápida comoditização de notícias corriqueiras não é só inevitável como também desejável, pois liberaria recursos para o trabalho mais complexo em outras áreas. Também é óbvio que a tentação a imprimir à notícia comoditizada a aura de sua contrapartida não comoditizada é considerável, até para instituições augustas como The Washington Post e The New Yorker.

O respeito básico pelo esforço jornalístico exige que indivíduos a cargo do trabalho comoditizado recebam diretrizes claras sobre o que é ou não permitido. O respeito básico pelo público exige que receba diretrizes claras sobre a fonte e o processo da cobertura jornalística.

Um recurso do gênero “últimas notícias de toda a internet” pode ser valioso, bem como pedir a gente nas Filipinas que redija o que é, basicamente, um texto padrão, a partir de certo conjunto de fatos. Ambas são estratégias úteis. Mas apresentar esse conteúdo como se fosse idêntico a reportagens apuradas, redigidas e verificadas com mais afinco cria riscos tanto a curto como a longo prazos – riscos que não compensam a efêmera oportunidade de arbitragem da união de uma boa marca com um conteúdo barato.

Aqui, a mudança no ecossistema é que funções antigamente exercidas por organizações jornalísticas rivais, e sobretudo furos e últimas notícias, hoje foram encampadas por plataformas. Qualquer veículo de comunicação pode se organizar para dar notícias sobre esportes antes do Deadspin, por exemplo, ou dar notícias de tecnologia antes do Scobleizer. Mas nenhuma organização no momento pode superar garantidamente o Facebook ou o Twitter em velocidade ou penetração.

Uma observação final: a tese central deste ensaio é que organizações jornalísticas nos Estados Unidos já não estão aptas a garantir a cobertura dos fatos sozinhas. Isso coloca instituições estabelecidas na incômoda posição de ter de defender ou até melhorar instâncias do ecossistema atual das quais talvez nem se beneficiem, e que podem beneficiar suas concorrentes.

Se organizações jornalísticas fossem meras entidades comerciais, isso seria impossível: a rede varejista Best Buy tem pouco interesse em melhorar o ecossistema no mercado de eletrônicos, pois no processo acabaria ajudando as rivais Amazon e Walmart. Só que organizações jornalísticas não são meras entidades comerciais. São constituídas para proteger o pessoal da redação da maioria das questões comerciais que um jornal enfrenta (por mais imperfeita que essa “muralha da China” possa ser na prática). Aliás, se organizações jornalísticas não fossem fonte desse tremendo valor cívico e separadas da lógica do mercado, sua senescência comercial não seria mais relevante do que o fechamento da agência de turismo da esquina.

Diante disso, e da necessidade de um jornalismo pós-industrial que faça uso consideravelmente melhor de cada hora do tempo de um jornalista ou de cada dólar da verba de uma instituição, instituições jornalísticas de grande e pequeno porte, comerciais e com fins lucrativos, executivas e educativas devem se comprometer com duas mudanças no atual ecossistema.

 

Recomendação: exigir que empresas e governos soltem dados inteligíveis

O dinheiro mais valioso que uma organização jornalística pode ganhar é o dinheiro que não tem de gastar. No século 21, o dinheiro mais fácil de não gastar é o dinheiro gasto colhendo informações. Em consonância com nossa recomendação de que organizações jornalísticas devem dar mais prioridade a cobrir mistérios do que a cobrir segredos, qualquer pessoa que lide com governos ou empresas deve exigir que dados de relevância pública sejam liberados de modo oportuno, interpretável e acessível.

Por oportuno queremos dizer que os dados devem ser disponibilizados logo depois de serem criados. Há muito menos valor em se inteirar das recomendações de um certo comitê sobre um projeto de lei quando a matéria já está sendo votada. Dados interpretáveis vêm em formato estruturado e utilizável. É preciso disponibilizar os dados num formato flexível como o XML, e não inflexível como o PDF (aliás, usar um formato como o PDF para divulgar dados costuma ser um indício de que a organização tem algo a ocultar). Acessível significa que os dados são prontamente lançados em canais públicos na internet, e não mantidos em papel ou liberados somente mediante solicitação. Nos Estados Unidos, a decisão da FCC de exigir que emissoras abertas de TV divulguem na internet dados sobre publicidade eleitoral veiculada em seus canais (em vez de disponibilizar o material para “inspeção” na emissora) foi um grande avanço nesse sentido.

Todo meio de comunicação devia investir, por menor que seja o montante, para assumir uma postura ativista nessa questão. Um acesso melhor a dados melhores é uma das poucas coisas que constituiriam um óbvio avanço para o ecossistema jornalístico – algo cujo principal obstáculo não é custo, mas inércia, e em que a vantagem obtida pela organização jornalística ao melhorar a situação não configura gasto de recursos, mas persuasão moral.

 

Recomendação: reconhecer e premiar a colaboração

Organizações que oferecem subsídios e recompensas ajudam a balizar o modo como profissionais de jornalismo encaram a si mesmos e seus pares.

Uma organização dessas devia partir oferecendo subsídios ou criando critérios ou categorias de premiação que de algum modo recompensem a colaboração – de forma explícita, como no caso do SchoolBook, ou implícita, como no caso de organizações que permitem que seus dados sejam reutilizados por outras organizações, como a Dollars for Docs.

Na mesma linha, premiar o reaproveitamento de formatos de cobertura investigativa – a exposição de casos de corrupção como o de Bell, na Califórnia, por outras organizações, por exemplo – ajudaria a combater a atual valorização do trabalho artesanal que tende a ser irreproduzível, ainda que a reportagem revele um problema possivelmente generalizado. Foi uma grande perda para a nação norte-americana que nenhuma organização tenha feito um exame sistemático de conselhos de enfermagem de outros estados após um escândalo na Califórnia ou de fraudes financeiras e contábeis da Enron após denúncias de Bethany McLean.

Em entrevista aos autores do presente dossiê, McLean observou que, para analisar o caso Enron, foi muito importante ter cultivado fontes que suspeitavam da empresa – seu interesse foi despertado quando um operador do mercado classificou de incompreensíveis os demonstrativos financeiros da empresa. Pode parecer uma estratégia óbvia, mas pouca gente na imprensa de negócios a adotou, antes da queda da Enron ou, pior ainda, depois do colapso.

Organizações que ditam normas tácitas da comunidade de jornalistas e editores devem dar destaque a iniciativas que partam da base lançada por algum trabalho anterior. Tal como ocorre com subsídios e prêmios, essas mudanças atingirão diretamente só um punhado de instituições, mas chegarão a muitas outras de forma indireta, ao expor o tipo de trabalho que pode colher tanto fundos comercialmente ilimitados quanto a admiração dos pares – ou ambos.

[Continua]

******

C.W. Anderson, Emily Bell e Clay Shirky, do Tow Center for Digital Journalism da Universidade Columbia