Leitura interessantes esta que se pode encontrar no Blasfémias: “Alunos dos 2º ciclo fazem em 2008 prova igual à do 1º ciclo de 2007?“.
Quando se dá ao governo de cada momento a possibilidade de formar estatísticas positivas como seja reduzindo chumbos e apresentando-os como prova da boa governação, as tentações podem revelar-se avassaladoras.
Eu diria que a queda abrupta de chumbos em algumas disciplinas é boa demais para ser verdade. E muito má se representarem o que o se denuncia no Blasfémias / Toniblair.
É caso para dizer que melhor é possível e absolutamente indispensável.
Mas esqueçamos isto: Portugal! Portugal! Portugal!
Pois.
ADENDA: o João Caetano em Simple Minds I e de certa forma também em Simple Minds II refuta a crítica feita pelo Toniblair e sublinha que é preciso observar a semântica entre avaliação e aferição.
Concedo que as perguntas não têm o mesmo grau de dificuldade ainda que a semelhança pictórica (com mais ou menos smileys) remeta para o choque referido pelos críticos. Mas mais relevante que tudo isto, mesmo que a questão a semântica é constatar que os alunos de 6º ano do ano passado reprovaram/tiveram apreciação negativa numa percentagem de 40% na prova de matemática enquanto os deste ano registaram uma percentagem de 20%.
Para mim isto leva-me a ser permeável às críticas de que algo de estranho se passa. Não acreditando em milagres pedagógico-educativos com efeitos no espaço de um ano, sobram-me apenas as razões conjunturais para explicar o fenómeno. Alguém me diz o que se passou, então?
E já agora alguém tem uma série cronológica com as percentagens de negas nesta prova de aferição?
ADENDA II: Via Blasfémias:
“Parecer da Sociedade Portuguesa de Matemática sobre as provas de aferição de matemática (PDF):
[…] Em segundo lugar, estes testes não têm sido construídos de forma comparável de ano para ano, pelo que não se sabe o que de facto representam os resultados globais em termos evolutivos. Não se sabe sequer o que representam as classificações obtidas pelos alunos. O ministério estabelece uma grelha de classificação, mas depois a transformação dos resultados de aplicação da grelha em classificações finais dos alunos tem sido feita com critérios que o ministério não divulga. Significa tudo isto que não se sabe de facto o que representam os resultados das provas. […]”
Vale a pena ler o resto do parecer.
5 replies on “Os problemas com a matemática desapareceram? – actualizado II”
Rui, sobre algumas das tuas perguntas na Adenda:
Não são negas. São resultados não satisfatórios.
A questão está em saber o que significa “Não Satisfaz”.
Há duas formas possíveis de o definir, a “Absoluta” (1) e a “Relativa” (2).
(1) “Não Satisfaz” é uma categoria que agrega todos os resultados inferiores a uma nota pré-definida.
(2) “Não Satisfaz” é uma categoria que agrega todos os resultados que se encontram estatisticamente afastados do comportamento global.
Como o ME o fez, não sei. Só um conhecimento da distribuição de notas quantitativas te permitiria esclarecer melhor o que se passou. Mas será isso relevante? Isto é um intrumento de calibração, de melhoramento, do sistema.
O importante é que ainda há muitos alunos “Não Satisfaz”. É isso que nos deveria preocupar.
Eu sou fã da conjugação das perspectivas relativa e absoluta na análise deste tipo de resultados, seja para estudar a pobreza ou os resultados num exame/prova de aferição.
Assim acrescentaria à tua premissa um limiar qualquer, arbitrário mas fixo, permitido pela classificação atribuída a cada prova corrigida. Seria o tal limiar da “nega” caso esta prova fosse de avaliação.
Com a distribuição quantitativa em cada ano E com a contagem dos abaixo de limiar teríamos melhores condições para analisar o que se passa.
Admitir que o limiar seja definido pela perspectiva 2 parece-me muito pouco honesto, pois julgo que ninguém está à espera de tal “tecnologia” nos media e não vi referência alguma a essa hipótese.
Se os currículos não se alteraram, as provas devem ter a preocupação de aferir de igual modo (em termos de dificuldade e de programa) em todos os anos logo, a simples constatação/comparação da percentagem de frequência em cada patamar, seja o A, o B, o C ou o “não satisfaz” é relevante e particularmente significativa se registar elevadas variações como é o caso.
O estudo da distribuição dir-nos-ia adicionalmente se há mais alguma aberração em causa além da variação face aos limiares.
Enfim, em ambos os casos a variação dos 40% para os 40% no espaço de um ano é muito estranha.
E naturalmente concordo contigo, mesmo 20% ainda é muita gente com resultados fracos, mas a discussão em torno do sucesso, insucesso do sistema de ensino passo por termos info compreensível, independente, credível e comparável. Será o caso?
Já te tinha dito que partilho de algum cepticismo sobre a variação, qualquer que seja a metodologia aplicada. No entanto, sabemos muito pouco sobre o que de facto se passou em termos quantitativos.
Covém, no entanto, não nos deixarmos contaminar pelas doses de desinformação, de que o post do Blasfémias é um exemplo evidente.
Se estas fossem provas de avaliação, partilharia do espírito inquisitório. Como não são, prefiro olhar para outros detalhes. E um deles diz-me que ainda há muitas crianças a obter resultados não satisfatórios.
Vocês sabem que as provas tiveram mesmo miúdos a fazê-las, certo? Que há miúdos, como um dos meus, em casa eufórico porque tirou A, sem saber sequer a diferença entre avaliação e aferição? Meus caros, esta vigarice já tem vítimas, não é apenas apanhar uma mulher numa mentira. Há centenas de milhar de vossos concidadãos, um deles em minha casa, que mal se sabem defender e que pensam que foram avaliados e que passaram com distinta nota.
Situação curiosa: para falar do que teria corrido bem (melhores resultados) faz-se uma grande festa; quando alguém pergunta o real significado dos resultados, explica-se que são apenas para aferição interna.
Se o Ministério não está em condições de divulgar tudo o que está por detrás do resultado desta aferição então não deve usar os resultados para promover a sua política.