Os indicadores usados pelo governo não refletem a qualidade do ensino no país. Além de apresentarem resultados conflitantes, cálculos como o Índice de Desenvolvimento da Educação do Estado de São Paulo (IDESP) e o Índice de Desenvolvimento da Educação Básica (IDEB) se limitam a avaliar o rendimento isolado das turmas e não conseguem apontar às escolas quais são as causas dos seus problemas.
Em 2007, o Exame Nacional do Ensino Médio (ENEM) mostrou a Escola de Aplicação da USP como a melhor entre as estaduais de São Paulo. Já no IDESP, esta posição caiu para a 42ª, também no ensino médio. Em 2008, o IDESP já aponta uma diferença no mínimo curiosa: de um ano para o outro, a escola chegou ao 10º lugar neste nível, além de ser a 1ª na oitava série do ensino fundamental e 2ª na quarta série. No IDEB, baseado na Prova Brasil, a escola também aparece entre as primeiras. Com tantas diferenças, fica difícil saber como anda, de fato, a qualidade do ensino no país.
José Sérgio de Carvalho, professor da Faculdade de Educação da USP e atual presidente do conselho gestor da Escola de Aplicação desta Universidade, explica que os índices reúnem informações muito distintas num único número, dando um resultado aproximado do rendimento escolar naquele ano, o que é superficial e não indica a qualidade do ensino como um todo. “É como uma mãe que mede a temperatura do filho com as costas da mão: não é preciso. Além disso, a escola é responsável por apenas 30% do aprendizado do aluno. Os outros 70% estão ligados à família, à localização geográfica e a outros fatores externos”. Por esse motivo, o professor não acredita que os tradicionais rankings, que comparam as diferentes escolas baseando-se nesses índices, sejam válidos. “É leviano rotular uma escola com base em um único número”.
A avaliação por índices também desagrada ao diretor da Escola de Aplicação da FEUSP, Vanderlei Pinheiro. Ele afirma que a escola prefere avaliar seu trabalho internamente, levando pouco em conta as notas apontadas pelos exames nacionais e estaduais. Dessa forma, é feito um planejamento para melhorar questões como a participação da comunidade e o diálogo entre os professores, considerados tão relevantes para a instituição quanto o desempenho final dos alunos. “O problema é transformar os índices em rankings, colocando duas escolas com realidades extremamente diferentes num mesmo patamar e afirmando que o ensino em uma é melhor do que na outra. Isso não é verdade: uma escola que recebeu alunos menos preparados e os colocou num nível mediano pode ter mais qualidade do que outra que já recebeu a ‘nata’ e evoluiu muito pouco”.
Isso não significa que o IDESP, o IDEB ou o ENEM devam ser desconsiderados. Para o professor José Sérgio, é importante mostrar às escolas que existe um problema e que algo deve ser mudado. “Um índice muito baixo serve para alertar, mas não aponta o que está errado. É preciso uma análise mais aprofundada para melhorar realmente o ensino”. Sua maior contribuição, contudo, é para as políticas públicas, e não para as escolas individualmente. É para denunciar deficiências comuns a todo um Estado ou todo o país que existem os indicadores de qualidade. “Assim, não há razão para que se continuem disputando colocações, conquistadas por alguns décimos de diferença numa nota essencialmente imprecisa”.
Entenda como são calculados os principais índices:
I = N x A
N: média das notas de Português e Matemática dos alunos
A: taxa média de aprovação daquele ano segundo o Censo Escolar
O que muda?
Enquanto o IDEB, que é nacional, utiliza os resultados da Prova Brasil, o IDESP, estadual, se baseia nas notas do Saresp. A taxa de aprovação também varia muito, porque engloba desistências e trocas de escola, que podem ocorrer por conta de fatores como falta de transporte, moradia ou emprego, por exemplo.