Friday, 29 de March de 2024 ISSN 1519-7670 - Ano 24 - nº 1281

José Queirós

‘Uma lista de iniciativas inovadoras e úteis à sociedade em que o PÚBLICO tenha tido um papel destacado ou pioneiro incluirá com certeza a publicação anual do ranking das escolas portuguesas. Foi graças à pressão continuada deste jornal, à época dirigido por José Manuel Fernandes, que o Ministério da Educação (ME) passou a divulgar, há dez anos, os dados relativos às classificações obtidas pelos alunos do ensino secundário em todas as escolas do país e nos exames do 12ºano, tornando possível aos diferentes órgãos de comunicação elaborar os rankings, entretanto alargados ao ensino básico. Colocando à disposição de todos, e em especial de pais e encarregados de educação, um retrato do sistema educativo que não pode deixar de ser visto como integrando o seu direito à informação.

Esta iniciativa provocou desde o início uma intensa polémica. O argumento central dos seus críticos é o de que a divulgação de uma lista dos estabelecimentos educativos portugueses, públicos e privados, ordenada do melhor ao pior com base apenas nas notas obtidas pelos seus alunos, ignora factores — sociais, territoriais, de recursos e métodos utilizados — que condicionarão a qualidade do seu desempenho, conduzindo a apreciações injustas e a efeitos perversos para a própria qualificação do sistema. É um argumento que obriga a imprensa e os responsáveis políticos do sector educativo a uma reflexão sobre o eventual alargamento dos indicadores usados. Mas que não deve voltar-se contra a utilidade dos rankings que têm sido publicados, como prova o crescente interesse despertado pela sua divulgação.

Mesmo no actual quadro de utilização dos resultados dos alunos como únicos dados para classificar as escolas, não são pacíficas as metodologias usadas na elaboração das listas, que aliás variam de jornal para jornal, o que explica as diferenças de posicionamento entre os rankings que surgem na imprensa. O número das disciplinas consideradas para a média final, o tratamento igual ou não dos estabelecimentos em função do número de alunos levados a exame, o ordenamento das escolas pela média das notas obtidas pelos seus alunos nos exames nacionais ou por uma composição entre esta e a média interna de cada escola são alguns dos itens a que os jornais têm dado respostas diferenciadas, levando a classificações diferentes (embora não demasiado diferentes).

A última questão tem especial significado. O PÚBLICO tem optado pela regra de ordenar as escolas pelos valores médios alcançados nas provas nacionais. Penso que é a escolha mais acertada. Os que defendem que a classificação deve ser feita pela conjugação ponderada de médias internas e médias de exame, argumentando que é o valor dela resultante que determina a ordem de acesso ao ensino superior, esquecem que este é um ranking dos resultados das escolas, que devem ser aferidos por um critério claro e uniforme, que só pode ser o das notas de exame. A diferença entre notas internas e externas é aliás um indicador de certas patologias do nosso sistema educativo, e não é por acaso que as mais notórias discrepâncias entre umas e outras se encontram nas escolas com piores resultados nos exames. Faz bem este jornal, por isso, em elaborar também uma lista das maiores diferenças entre as notas internas e externas (por regra generosas as primeiras e péssimas as segundas).

O PÚBLICO tem vindo a afinar o modo como trabalha e apresenta os dados fornecidos pelo ME, aprofundando e abordando de diversos ângulos a informação oficial. Uma das decisões editoriais tomadas nesta matéria terá sido, no entanto, menos acertada: a que se prende com o universo das provas de exame a considerar.

Alerta para o facto o leitor Francisco Queirós: ‘O PÚBLICO persiste num erro grave (…). Até ao ano de 2004, os exames estavam organizados em duas fases: uma decorria em Junho e Julho e a outra em Setembro. A primeira fase estava dividida em duas chamadas, não havendo qualquer diferença substancial entre elas. Ou seja, dispondo do calendário oficial das duas chamadas da 1.ª fase, os alunos construíam o seu próprio calendário, sem prejuízos no regime de acesso ao ensino superior. Às duas fases de exames estavam associadas as duas partes em que estava dividido (e ainda está) o acesso ao ensino superior. Apenas as vagas sobejantes da primeira parte eram (são) libertadas para a segunda parte, o que significa (…) que os exames da 2.ª fase eram realizados apenas pelos alunos que não tinham conseguido ficar aprovados na 1ª fase e que, por conseguinte, estavam a repeti-los. Assim, fazia sentido, ao construir os rankings, pôr de lado os resultados da 2.ª fase dos exames nacionais, quer por serem residuais quer por serem segundas tentativas de alunos cujos resultados já tinham entrado nas contas da 1.ª fase’.

Porém, ‘a partir de 2004’, prossegue o leitor, ‘as regras mudaram. Os exames da época de Setembro foram suprimidos e as duas chamadas que se realizavam em Junho e Julho mantiveram-se, mudando apenas o nome de chamada para fase. Os alunos, conhecendo antecipadamente os calendários das duas fases (como acontecia com as duas chamadas antes de 2004) mantiveram o privilégio de construírem o seu próprio calendário, sendo indiferente, no processo de candidatura ao ensino superior, realizarem os exames na 1.ª fase ou na 2.ª fase’. (…) Pode um aluno que realize um exame da 1.ª fase repeti-lo para melhoria na 2.ª fase. Contudo, esse novo resultado apenas conta para a segunda vaga de acesso ao ensino superior ‘.

‘Fizeram-se este ano’, recorda Francisco Queirós, ‘398.211 provas, assim divididas: 264.577 na 1.ª fase e 133.634 na 2.ª fase’, mas ‘o ranking do Público ignora todas as provas realizadas na 2.ª fase’. O que o leva a presumir que ficaram provavelmente de fora ‘mais de 100.000 provas’ tão relevantes como as outras, já sem considerar ‘o número de tentativas de melhoria na 2.ª fase’.

Coloquei esta questão à direcção do jornal. Responderam-me os responsáveis pela coordenação do suplemento dos rankings, o director adjunto Nuno Pacheco e as jornalistas Andreia Sanches e Bárbara Wong: ‘Quando há dez anos os rankings começaram a ser feitos, o PÚBLICO decidiu quais os critérios a adoptar para fazer a seriação das escolas: exames da 1.ª fase e às oito disciplinas com mais alunos inscritos. Na altura optou-se apenas pelos exames da 1.ª fase porque os alunos que iam à 1.ª fase eram apenas os estudantes do 12.º ano e que à partida queriam prosseguir os estudos para o ensino superior’. Concordando que, desde a alteração introduzida pelo ME em 2004, ‘as fases em que se fazem os exames deixaram de ter peso na admissão ao ensino superior’, os responsáveis pelo suplemento explicam que, apesar disso, ‘continuam a usar apenas os exames da 1.ª fase’ porque isso ‘permite fazer o exercício de comparação com os anos anteriores – só se pode comparar o que é comparável’. ‘Só assim’, acrescentam, ‘ nos foi possível fazer um balanço de dez anos de rankings’.

Por muito que nos jornais se valorizem os números redondos (uma década, neste caso), esta é uma explicação que me parece frágil. A verdade é que nos últimos anos o PÚBLICO não considerou, nos seus rankings, uma fatia importante do universo de provas realizadas. Introduzindo, possivelmente, disfunções relevantes na classificação das escolas. Se o critério tivesse sido alterado para se adaptar à realidade posterior a 2004, já seria hoje possível fazer um balanço de meia dúzia de anos ‘comparando o que é comparável’, mas com a vantagem óbvia de se estar a comparar tudo o que de facto aconteceu.

Considero que a reclamação do leitor é justificada. Mas não terá, felizmente, de a repetir em 2011, como resulta da resposta que recebi dos coordenadores do suplemento. ‘Porque temos consciência da mudança da situação e também porque gostaríamos que os rankings fossem um instrumento de análise o mais completo possível’, o jornal irá, ‘passada esta primeira década’, alterar no próximo ano ‘a regra até aqui vigente (juntando as 1ª e 2ª fases para análise)’.

A concluir, os responsáveis pelos rankings do PÚBLICO dão uma notícia importante a todos os leitores que se interessam por este tema. Anunciam que irão ‘fazer todos os esforços’ para que, também a partir de 2011, ‘sejam integrados na análise outros indicadores das escolas além dos exames (o que depende em primeiro lugar da disponibilidade do ME), indicadores que, como foi escrito no editorial do suplemento dos rankings deste ano, ‘permitam resultados mais justos e próximos do real empenhamento que em muitas escolas se verifica e nas listas actuais não encontra qualquer reflexo’ ‘.

Se cumprir esse objectivo, o PÚBLICO poderá voltar a inovar, bem, neste domínio. A classificação directamente resultante das notas nos exames nacionais continuará a ser uma peça de informação indispensável. Mas a construção de novos rankings, que incluam outros indicadores relevantes para espelhar o real desempenho das escolas, como têm sugerido vários especialistas (leia-se, por exemplo, a entrevista a Joaquim Azevedo, do Conselho Nacional de Educação, no suplemento dedicado ao tema na edição de 15 de Outubro), representará um serviço acrescido aos leitores. Como escrevia Nuno Pacheco no editorial do mesmo suplemento, ‘a solução, longe de acabar com os rankings, pode ser aperfeiçoá-los e fazer deles um instrumento cada vez mais útil ao conhecimento das escolas portuguesas’.

O que me leva a uma observação final. É verdade que a obtenção desses outros indicadores — que poderão incluir as taxas de abandono no secundário ou a medição dos progressos que cada escola consegue proporcionar aos seus alunos — dependerá da disponibilidade do ME. Mas é um direito dos cidadãos terem acesso a esses dados, e um dever dos jornalistas lutar pela sua divulgação. O que não me parece aconselhável é esperar do poder político a resposta mais fiável à escolha e ponderação — que será complexa e sempre polémica — das variáveis que devam integrar um ranking aperfeiçoado. Não poderá o PÚBLICO encontrar, no meio académico e na sociedade civil, os parceiros adequados para conceber um instrumento de análise que possa assumir como decisão editorial?’