Thursday, 21 de November de 2024 ISSN 1519-7670 - Ano 24 - nº 1315

O desafio da autorregulação no jornalismo em tempos de inteligência artificial

(Imagem: Gerd Altmann por Pixabay)

Definir parâmetros éticos para o uso de ferramentas baseadas em inteligência artificial (IA) tem ascendido consideravelmente na escala dos trending topics das empresas jornalísticas em todo o mundo, embora a implementação de conjuntos de diretrizes específicas ainda se encontre em um estágio inicial nas redações brasileiras. Até o fechamento deste artigo, apenas dois veículos – o nativo digital Núcleo e o tradicional Estadão – estabeleceram e publicaram normas internas para a aplicação desses recursos tecnológicos, notadamente os que foram desenvolvidos a partir dos chamados “grandes modelos de linguagem” (ou LLMs, na sigla em inglês), a exemplo do ChatGPT (OpenAI/Microsoft) e do Bard (Google).

O Reuters Institute, da Universidade de Oxford (UK), é um dos principais centros de estudos sobre jornalismo no mundo. Anualmente, publica relatórios com indicadores que norteiam o entendimento das profundas mudanças que têm impactado severamente a lógica da produção de notícias, o consumo de conteúdos informativos e os modelos de negócio do setor de mídia. No dia 9 de janeiro, lançou a mais recente edição de seu levantamento de tendências futuras, o Journalism, media, and technology trends and predictions 2024, sob a liderança do pesquisador Nic Newman e com o apoio da Google News Initiative.

O sumário executivo da publicação traz uma série de constatações provenientes dos resultados obtidos pelo Reuters Institute junto a 314 gestores de redações de 56 países. O ponto de partida é o “poder disruptivo da inteligência artificial”, o qual deverá gerar implicações tanto sobre a confiabilidade das informações quanto acerca da sustentabilidade dos empreendimentos jornalísticos ao longo de 2024. Ao citar uma previsão de especialistas divulgada pelo Europol Innovation Lab – de que mais de 90% do conteúdo online deverá ser produzido sinteticamente (gerado ou manipulado por meio de IA) até 2026 –, o relatório do Reuters Institute acende o sinal de alerta: “os jornalistas e as organizações noticiosas terão de repensar o seu papel e propósito com alguma urgência”.

Embora a automação de rotinas produtivas não seja exatamente uma novidade para o jornalismo – a agência The Associated Press já utiliza IA em tarefas de apuração, produção e distribuição de notícias há uma década, apenas para ficar em um exemplo –, o impulso gerado pelo lançamento do ChatGPT em novembro de 2022 foi decisivo para que essa nova fronteira tecnológica fosse cruzada por uma gama muito mais ampla de veículos em nível global. As redações se abriram de vez para a experimentação de diversas ferramentas, como geradores de textos, imagens e vídeos, mas não sem algum receio em muitos casos, pois é justamente na esfera da produção que reside uma das questões mais relevantes a serem enfrentadas pelos gestores: para a maioria (56%) dos respondentes da pesquisa, o uso de IA na criação de conteúdo é um risco potencial à reputação dos empreendimentos jornalísticos.

No entanto, algumas medidas têm sido tomadas para mitigar essa ameaça. Em um relatório anterior, o Changing Newsrooms 2023, o Reuters Institute apurou que 16% dos veículos já haviam designado um líder para coordenar a implementação da IA nos fluxos de trabalho, enquanto outros 24% cogitavam fazer o mesmo. Além disso, 16% dos respondentes já contava com as próprias diretrizes de uso, sendo que o índice apurado de veículos com políticas em desenvolvimento foi de 35%.

Um dos sinais mais claros desse movimento do mercado ocorreu em dezembro de 2023 no seu principal expoente: o New York Times contratou Zach Seward para ocupar um novo cargo, o de diretor editorial de iniciativas de IA, já com as principais missões definidas: encontrar formas de utilização da IA generativa que possam gerar benefícios ao jornal, com destaque para a melhoria da produtividade, e definir uma autorregulação, traçando as chamadas “linhas vermelhas” com o objetivo de estabelecer diretrizes para a utilização dessas ferramentas pela redação.

E é sobre essas “linhas vermelhas” já traçadas por Núcleo e Estadão que podemos nos debruçar para entender como esses guias internos podem ser verdadeiras salvaguardas éticas para uma utilização, no mínimo, menos arriscada de chatbots e outros recursos, tão úteis quanto perigosos, visto que podem infringir direitos autorais e gerar uma indesejável judicialização do fazer jornalístico, potencializando o já citado risco reputacional.

Os respectivos formatos escolhidos para as diretrizes tiveram como fator determinante o perfil organizacional de cada empresa. No caso do nativo digital, que se posiciona como um empreendimento do tipo media tech – conciliando o jornalismo com a produção de soluções tecnológicas – foi divulgada em maio de 2023 uma declaração sucinta de princípios para ambas as atividades, sob uma estrutura de tópicos dividida em possíveis usos (“Poderemos:”) e restrições (“Nunca:”), sendo que eventuais revisões na política de uso poderão ser feitas a qualquer tempo, sem uma periodicidade fixa.

Quanto ao âmbito editorial, a política do site expressa que “o uso de inteligência artificial deve ser aplicado para facilitar o trabalho do jornalismo, não produzi-lo. Para o Núcleo, produtos de inteligência artificial são ferramentas – tais como nossos laptops ou canetas – e devem ser utilizadas como tal, não como substitutos a nossos profissionais”.

Em novembro do mesmo ano, o Estadão foi o primeiro representante da mídia brasileira de legado a se posicionar oficialmente sobre o tema. Alinhado com sua tendência histórica, o jornal paulistano optou por um formato de política institucional (com acesso permitido mesmo a não assinantes) nos moldes tradicionais, subdividida em Apresentação, Diretrizes Gerais, Diretrizes Específicas e Comitê de IA, o qual será responsável por revisar as diretrizes anualmente. Dos princípios gerais, cabe ressaltar o cerne de qualquer posicionamento dessa natureza, expresso no item intitulado “Transparência com os Leitores”.

Ao utilizar ferramentas de IA na criação ou edição de Conteúdos, tal fato deverá ser obrigatoriamente indicado ao leitor (verificar item 3.1. – Criação de Conteúdos). Dessa forma, garantimos que os leitores estejam cientes sobre o processo de criação de nossos Conteúdos, reforçando nosso compromisso com a transparência e a integridade da produção jornalística.

A referida indicação aos leitores é feita por meio de uma menção ao final de cada matéria produzida com o auxílio de IA, como a que consta no rodapé desta matéria sobre o processo movido pelo New York Times contra a OpenAI e a Microsoft por uso não autorizado de conteúdo, publicada em 27 de dezembro de 2023: “Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA”.

Em ambos os códigos de conduta, é possível constatar algumas lacunas, a exemplo do fato de que nenhuma delas revela quais ferramentas têm sido utilizadas nas diferentes etapas do processo jornalístico. Em que pese haver o entendimento das gestões de que nem tudo precisa ser exposto publicamente, até mesmo para não revelar aos concorrentes as particularidades de seus sistemas de trabalho, a demanda por transparência em prol da reputação tende a pressionar os veículos jornalísticos de forma crescente como em nenhuma outra época. A publicação de diretrizes se configura como uma iniciativa salutar, mas um processo contínuo de revisão, expansão e aprimoramento, alinhado com as tendências e a evolução acelerada dessas novas tecnologias, é decisivo para o êxito de qualquer política institucional.

***
Jonas Gonçalves é jornalista, mestre em Produção Jornalística e Mercado e doutorando bolsista da Capes em Mídia e Tecnologia na Unesp.