No início do ano, por recomendação de um professor, li o texto “2024: o ano em que faremos manuais de redação para uso de IA”, da jornalista Cristina Tardaguila, disponível no site Newsletter Farol Jornalismo. A autora apresentou uma lista, elaborada pelo Nieman Lab, da Universidade de Harvard, com os primeiros manuais de uso de IA mundo afora. Quando a lista, que é organizada por continente, foi divulgada, o único manual da América do Sul era o do Núcleo Jornalismo; e impressionando um total de zero pessoas, a Europa é o continente com mais manuais.
O ingressante de jornalismo que sonha em trabalhar no impresso geralmente tem no imaginário a redação do The Washington Post no filme Todos os Homens do Presidente. Máquinas de escrever, telefonemas e a adrenalina da investigação. E até alguns anos atrás, nenhum calouro estava particularmente preocupado com a substituição das funções jornalísticas por softwares de inteligência artificial com machine learning. Mas em novembro de 2022, o ChatGPT chegou no Brasil e muita gente se perguntou “E agora? Será que a profissão vai sumir?”. Para nossa sorte, o Chat não é um bom escritor.
O jornal O Estado de S. Paulo já utiliza IA nas redações, e vem escrito no canto da página que o texto foi redigido ou traduzido com auxílio da inteligência artificial, com supervisão da redação. Que susto levei quando vi essa notinha pela primeira vez. Será que no futuro próximo meu trabalho pode ser desvalorizado porque um software faz o que eu estudei pra fazer?
Apesar do drama de ficção científica, veículos mundo afora já possuem diretrizes e regras para usar IA nas redações. Mas vamos prestar atenção nos manuais brasileiros que estão por aí: Núcleo Jornalismo, Estadão, G1, Agência Pública, AzMina e Agência Tatu.
Para o Núcleo Jornalismo, o primeiro site de jornalismo a criar parâmetros de uso de IA no país, a inteligência artificial deve facilitar, e não produzir, o trabalho do jornalismo, uma afirmação tranquilizadora. A política estabelece o que pode e o que não pode ser feito em duas áreas, “editorial” e “produtos e bots”. É permitido usar IA para pesquisar assuntos e temas, transcrever áudios e vídeos e para criar conteúdo a partir de raspagens de dados. E não é permitido usar IA para “edição e produção final de uma publicação”, para criar conteúdos completos ou substituir o trabalho humano.
Já o Estadão criou, em novembro de 2023, uma Política Institucional de Uso de Inteligência Artificial que determina regras de uso na “criação integral ou parcial de notícias, conteúdos, produtos e serviços”. Há condições para o emprego de IA que exigem a manutenção da qualidade jornalística e do respeito aos direitos autorais próprios ou de terceiros. Salvo exceções, toda criação de IA deve passar por revisão humana antes de ser publicada e veiculada. Dados empresariais, segredos de negócios e furos jornalísticos não podem ser inseridos em ferramentas de IA, assim como dados pessoais de funcionários, clientes e colaboradores. Além disso, a criação de imagens, vídeos e áudios com IA é proibida.
É permitido usar IA para edição de texto, com supervisão do editor, e para transcrição de áudio e traduções pontuais, desde que o responsável tenha domínio do idioma original. É possível também gerar títulos e aprimorar materiais escritos em língua inglesa. Mas não é recomendável elaborar perguntas de entrevistas nem usar IA como ferramenta de busca.
As diretrizes de uso de IA do G1 se encontram na Seção III dos Princípios Editoriais do Grupo Globo, e seguem a mesma linha da política do Estadão. O grupo afirma que a busca por inovação de ferramentas tecnológicas para o jornalismo são uma prioridade, e como o desenvolvimento da IA é uma tecnologia que amplia “a capacidade de processamento e geração de informação”, o grupo aborda seu uso como uma inovação que não deve alterar os valores norteadores do jornalismo profissional. Nesse sentido, me parece que esses princípios são mais amigáveis à inteligência artificial do que os dois anteriores.
Assim como o Núcleo e o Estadão, o uso será supervisionada por um humano, mas “isso não significa que cada conteúdo gerado de forma automatizada passará por uma revisão humana antes de ser veiculado”, pois “essa obrigação tornaria inócua boa parte da eficiência e abrangência permitidas pelo uso da ferramenta”. Apesar dessa ressalva, os jornalistas ainda são responsáveis pela supervisão, publicação e pelos resultados da veiculação dos conteúdos criados parcial ou integralmente com IA.
Outro ponto interessante desses princípios editoriais é a proibição de usar a ferramenta para escrever textos opinativos e editoriais, pois o grupo acredita que somente os jornalistas podem “fornecer o contexto e a perspectiva necessários”, evitando, assim, vieses e distorções causados pela inteligência artificial.
Outros três sites que merecem destaque pela criação de políticas de uso de IA são a organização de jornalismo investigativo Agência Pública, a revista online AzMina e a Agência Tatu. Na Agência Pública, a IA serve como ferramenta de uso interno e pode ser utilizada para elaborar textos e resumos de grandes reportagens que serão postados nas redes sociais. A AP ressaltou que explica como a ferramenta foi usada na “metodologia” das reportagens, e que IA generativa, como o ChatGPT, não é considerada nem utilizada como fonte primária de informação.
Já a revista AzMina se compromete a fazer uso ético e transparente de ferramentas de IA, e reforça que “elas não tornam nenhuma pessoa da nossa equipe dispensável”. Dentre os usos permitidos estão correção ortográfica, sugestão de títulos, tarefas de SEO, transcrição de entrevistas e correção de códigos. E a Agência Tatu, primeiro veículo de jornalismo de dados do Nordeste, estabelece que todo conteúdo deve ter validação humana, seja uma reportagem, um código ou uma imagem. Além disso, a agência procura incentivar e realizar treinamentos de uso de IA e de automação para a equipe, “tanto para os aspectos tecnológicos quanto em discussões éticas”.
Superado o primeiro susto do lançamento das ferramentas de inteligência artificial, os jornalistas podem comemorar suas facilidades e praticidades. Os manuais, políticas e diretrizes, além de regras, são agora material de estudo para nós; é bom saber como nosso jornal preferido enxerga essa nova era tecnológica e sobre quais tópicos devemos nos atualizar para continuar praticando um jornalismo mais ético e transparente. Talvez o imaginário estudantil não deva mais ser a redação de Todos os Homens do Presidente; talvez seja o escritório do Tony Stark, do filme Homem de Ferro, com hologramas, assistentes virtuais, robôs e uma quantidade absurda de informações.
Referências
- https://nucleo.jor.br/politica-ia/
- https://www.estadao.com.br/link/estadao-define-politica-de-uso-de-ferramentas-de-inteligencia-artificial-por-seus-jornalistas-veja/
- https://docs.google.com/document/d/1-jm9BB9WYZe570tn2VgDH-hrgk-_ab4EJLGCegz-RTQ/edit#heading=h.p3gxl2w4llpa Guidelines on Generative AI
- https://faroljornalismo.substack.com/p/2024-o-ano-em-que-faremos-manuais
- https://g1.globo.com/economia/midia-e-marketing/noticia/2024/06/27/grupo-globo-atualiza-principios-editoriais-para-incluir-orientacoes-sobre-inteligencia-artificial.ghtml
- https://g1.globo.com/principios-editoriais-do-grupo-globo.html
- https://apublica.org/politica-de-uso-de-inteligencia-artificial-ia/
- https://azmina.com.br/colunas/azmina-publica-politica-de-uso-de-inteligencia-artificial/
- https://azmina.com.br/revista-azmina/#uso-de-inteligencia-artificial
- https://www.agenciatatu.com.br/politica-de-uso-da-inteligencia-artificial-ia/
***
Stella Gomes é graduanda em Jornalismo na Universidade Estadual Paulista “Júlio de Mesquita Filho”. Realizou estágio em checagem de notícias na AletheiaFact.org. Tem interesse em jornalismo internacional e checagem de fatos.