Se e Só Se por José Carlos Pereira - Da Surpresa e do Espanto

Eixos de Opinião de julho de 2018

Título: Da Surpresa e do Espanto

No momento em que escrevo estas linhas já passou quase uma semana sobre o dia em que várias dezenas de milhares de alunos realizaram a prova da 1.ª fase do Exame Nacional de Matemática A. Esta será, portanto, uma boa altura para reflectir friamente sobre essa prova. 

Uns dias antes, o professor João Carlos Terroso escreveu um artigo no seu espaço Corpus Mathematicum intitulado “O Acinzentado Exame Nacional”, onde partilha as suas legítimas preocupações sobre a falta de informações específicas e claras sobre este importante exame. Quando li o artigo pensei que talvez estivesse a exagerar. Afinal o IAVE tinha disponibilizado informações onde se podia ler, claramente, que além da alteração para dois cadernos, o restante seria similar às provas de anos anteriores, em termos de tipologia dos itens e estrutura. Este argumento serviu para justificar a não produção de uma Prova Modelo. Depois de ter visto e resolvido a prova devo dizer que o João até foi simpático no título que deu ao seu artigo. Possivelmente algo do género “O Cinzento Escuro Exame Nacional” seria mais apropriado, tendo em conta a prova com que nos deparámos. 

Começo por citar um parágrafo de um dos dois documentos disponibilizados pelo IAVE que podem ser lidos aqui

“No que se refere à pretensão, manifestada por diversos interlocutores, em dispor de uma «prova modelo», é necessário referir que, num quadro de provas públicas, como é o caso dos exames e das provas finais nacionais em Portugal, a ausência de provas modelo é colmatada com a existência de um vasto histórico de itens, disponíveis para consulta em http://bi.iave.pt/exames/. Com efeito, independentemente da organização que os exames ou as provas assumem, o que justificaria a apresentação da designada «prova modelo» seria a concepção de uma prova com novas tipologias ou formatos de itens, ou a disponibilização de uma prova num ambiente novo (como, por exemplo poderá ser o caso de uma prova em ambiente digital ou, como no ano transacto, a aplicação de provas de aferição nas chamadas áreas de «Expressões»). Não é um novo enquadramento curricular que justifica uma prova modelo, quando sabemos que as provas de exame de Matemática A de 2018 irão apresentar os mesmos tipos e formatos de itens de anos anteriores, sobejamente conhecidos e divulgados na página electrónica do IAVE.”

Na verdade esta informação não foi fielmente respeitada. A prova apresentou várias alterações em relação às provas de anos anteriores: os itens de escolha múltipla surgem espalhados pela prova e passaram a valer oito pontos, ao contrário dos habituais cinco; quase todos os itens de resposta aberta tinham a mesma cotação; o item de sucessões passou a ser de resposta aberta quando sempre foi de escolha múltipla; para justificar a divisão em dois cadernos foram introduzidos vários itens em que a utilização da calculadora é forçada, por exemplo, o 2.2. e o 5.. O Nuno Guerreiro, no artigo que escreveu para a UNIAREA, descreve muito bem estas alterações;     

É claro que o ensino da Matemática não deve ter como objectivo o exame. Mas um ensino sólido dos vários conceitos matemáticos não deveria ser o suficiente para o aluno ultrapassar qualquer tipo de exame? Não é bem assim. O Exame de Matemática é um momento muito importante e é, por exemplo, o principal exame de acesso a um vasto número de cursos do Ensino Superior, valendo em muitos casos 50% da nota de acesso. Como tal, as regras devem ser claras e, sobretudo, não devem ser alteradas sem que os alunos sejam devidamente informados. Imagine que o leitor vai fazer um exame de condução. Sabe que os exames de condução são feitos em automóveis a gasóleo com caixa manual de seis velocidades. As suas aulas de condução são então ministradas num automóvel desse tipo. O instrutor, como quer que tenha sucesso, alerta-o para todas as particularidades deste tipo de automóveis. No final, sente-se preparado, e vai fazer o seu exame de condução. Ao chegar ao centro de exames repara que vai fazer o exame num carro a gasolina com uma caixa automática de oito velocidades, sem que alguma vez o tivessem informado desta alteração. Dizem-lhe que não há problema, que até é mais fácil conduzir aquele carro e que os fundamentos são os mesmos. Fica nervoso, tenso e demora-se a adaptar ao carro. Muito possivelmente o exame correr-lhe-á mal. Foi isto que aconteceu no Exame Nacional de Matemática A da 1.ª fase. Naturalmente os melhores alunos conseguiram adaptar-se às várias alterações, com mais ou menos dificuldade, com menor ou maior celeridade. Já os alunos com mais dificuldades ou aqueles que já iam nervosos ou ansiosos não o terão conseguido fazer. 

Uma prova de exame deve ser constituída por um conjunto de itens de vários graus de dificuldade. No seu conjunto, todos os itens devem ser adequados e formarem uma prova justa e equilibrada. Em meu entender, estas características não foram reflectidas na prova deste ano. Vejamos:

Itens 1.1. e 1.2. (em alternativa)

Não é fácil, nem sei se é possível, construir um item com esta tipologia que assegure a equidade entre todos os alunos, pelo que a sua introdução nesta prova talvez não tenha sido a melhor opção. A diferença do grau de dificuldade entre as duas questões é notória. O item 1.1. é quase imediato enquanto que o 1.2. necessita de algumas passagens até se chegar à resposta correcta. Aqui parece que os alunos do anterior Programa saem beneficiados. No entanto, dificilmente um aluno do anterior programa responderia ao item 1.2.. Já um aluno do Programa actual poderia responder ao item 1.1. sem saber o que era uma binomial. Há aqui um claro desequilíbrio. 

Item 2.2.

Trabalhosa, de dificuldade média mas adequada. Esta é uma das questões em que a utilização da calculadora é forçada, pedindo para apresentar o valor da medida da área lateral do prisma arredondando às décimas. Além disso, este item tem um peso igual ao item 2.1., que é imediato, o que não faz sentido.  

Item 4.   

Será esta a pergunta mais forçada de sempre? Possivelmente. Andaram os alunos a estudar modelos exponenciais (decaimento radioactivo, lei do arrefecimento/aquecimento de Newton, etc…) para depois sair um item absolutamente forçado, cujo contexto é irrelevante para a sua resolução, apenas como justificação da utilização das capacidades gráficas calculadora e da inclusão da Modelação Matemática. Não considero que este item preencha os requisitos necessários para ser considerado de Modelação Matemática. 

Item 5. 

Mais um item em que a utilização da calculadora é absolutamente forçada. Este até poderia ser o item para o uso das capacidades gráficas da calculadora mas da forma como é proposta é apenas um item de resposta aberta disfarçado de item de escolha múltipla.

Item 6. 

Tem um grau de dificuldade muito elevado? Não, é de dificuldade média/elevada. Dado o histórico até aqui e tendo em conta as informações disponibilizadas pelo IAVE, nada fazia prever que passasse a existir um item do domínio Sucessões na resposta aberta, aumentando para mais de o dobro o peso deste domínio no exame. Até ao ano passado tinha apenas saído em itens de escolha múltipla, talvez porque se soubesse que no anterior Programa era estudado no final do 11.º ano e que em muitos casos não era aprofundado. 

Itens 8.1. e 8.2. (em alternativa)

Novamente, um aluno do anterior Programa dificilmente responderia ao item 8.2.. O contrário não é verdade. Além disso, o item 8.2. é imediato enquanto que o 8.1. não. Mais um desequilíbrio claro.  

Item 10.2.

O limite é a solução da equação. Parece que se esforçaram para não usar Heine neste item. Uma formulação como é sugerida pelo Nuno no seu artigo parece-me bem melhor. Em todo o caso é um item de dificuldade baixa que posso considerar adequado. 

Item 11. 

Não entendo o objectivo deste item. Será que era avaliar o conhecimento dos alunos das propriedades dos logaritmos? Já tinha sido avaliado no 10.2. e posteriormente no 14.. Ou avaliar a sua capacidade de resolver inequações? Se for esta última bastaria pedir para resolver a inequação 2x ≥ 161/x. Chegava isto. Não era necessário introduzir aquela relação entre a e b. Se porventura o aluno não conseguisse escrever b como a4, já não conseguiria resolver a inequação. Este pormenor faz com o que este item seja de dificuldade média/elevada. 

Item 12. (12.1., 12.2. e 12.3.)

O item 12. é uma novidade em termos de estrutura: é constituído por um item de escolha múltipla (12.1.) e dois de resposta aberta (12.2. e 12.3.). No item 12.1. o facto de a função estar definida por ramos dificulta a determinação dos seus zeros. Já os itens 12.2. e 12.3. não deverão ter levantado dúvidas. Apesar disso, o item 12.3. é trabalhoso e poderia suscitar alguma dificuldade no cálculo da derivada, na determinação dos seus zeros e no estudo do seu sinal, especialmente sem o apoio da calculadora. Globalmente considero este item adequado. 

Item 14.

É o item de “selecção” entre o 19 e o 20. Alguns cálculos e voltas até se poder aplicar Bolzano, digo, Bolzano-Cauchy, não vá ser descontado por causa disso! É verdade, temos de ter um item de "selecção", pode ser este efectivamente. Contudo, relembro que até o ano passado, estes itens valiam 10 pontos e não 12. Percebia-se a razão de valerem 10 pontos: separavam os alunos de 19 dos de 20. Não entendo a opção de aumentarem o seu peso em 20%.

Percebe-se agora que a divisão em dois cadernos em nada favoreceu a prova, sendo portanto desnecessária. Serviu apenas para introduzir alguns itens onde se pede um resultado arredondado, forçando e justificando a utilização da calculadora, como já referido. Não foram mobilizadas competências diferentes das habituais e não foi avaliada alguma capacidade especial de manuseamento desta importante ferramenta. O caderno 2 está preenchido exclusivamente por itens do domínio funções, contribuindo assim para um desequilíbrio evidente entre os dois cadernos. É portanto uma prova extensa e trabalhosa o que acentua ainda mais estes desequilíbrios tornando-a mais complexa do que provas de anos anteriores. 

Esta era a primeira prova do Exame Nacional de Matemática A para os alunos que estudaram pelo novo Programa. Relembro que durante quase três anos, ao contrário dos seus colegas de anos anteriores, estes alunos não tiveram qualquer tipo de informação sobre o exame que iriam enfrentar. Só em meados de Dezembro de 2017, a menos de sete meses do exame, saíram informações mais concretas sobre o exame. Relembro também que os conteúdos avaliados neste seriam apenas os comuns aos dois programas, excluindo os conteúdos dos itens em alternativa, de modo que a prova pudesse ser resolvida também por alunos repetentes. Finalmente, a divisão em dois cadernos era a primeira vez que iria ocorrer, apesar de já conhecermos o formato das provas finais de Matemática do 3.º ciclo. Assim, tendo em conta todas estas condicionantes e sendo este um ano atípico, a prova deveria transparecer todas as informações oficiais disponibilizadas pelo IAVE. Deveriam ter sido adoptados procedimentos precisos e claros em todo este processo. É agora óbvio que a disponibilização de uma Prova Modelo, reclamada pela generalidade dos professores, teria sido um dos procedimentos a seguir. O IAVE negou essa possibilidade, com a justificação dada no início deste texto.

Na tarde em que escrevia este artigo, foi disponibilizado um esclarecimento do IAVE sobre os itens em alternativa que sumariamente dizia o seguinte: no caso de um examinado ter respondido às duas questões de um item em alternativa, só é considerado errado se as duas respostas estiverem erradas. No caso de pelo menos uma das duas estiver correcta, a resposta é considerada correcta; se o aluno não identificar a questão pela qual optou e se a letra corresponder à resposta correcta de uma dessas questões, a resposta deve ser considerada correcta. Este novo critério, totalmente desconhecido, e possivelmente fabricado à posteriori, representa a introdução de uma injustiça flagrante pois não havia nenhuma indicação de que os alunos poderiam responder às duas questões de cada item em alternativa. Antes pelo contrário! Os alunos que responderam às duas questões dos itens em alternativa saem beneficiados. Mais, durante todo o processo de preparação para o exame, os professores terão repetido várias vezes aos seus alunos que escolhessem claramente a alternativa a que queriam responder, para evitar que a resposta fosse anulada pois um dos critérios gerais de classificação conhecidos até então era:

“Nos itens de escolha múltipla, a cotação do item só é atribuída às respostas que apresentem de forma inequívoca a opção correcta. Todas as outras respostas são classificadas com zero pontos.” 

No próprio enunciado da prova, antes de cada item em alternativa está escrito:

“Responda apenas a um dos dois itens.”

Este último esclarecimento do IAVE contraria totalmente o critério citado e o que está explícito na prova. Se queria, de certa forma, não prejudicar os alunos que responderam aos dois itens bastaria considerar para correcção apenas a primeira das duas respostas. Aliás, este é um dos critérios gerais de classificação do exame:

“Se for apresentada mais do que uma resposta ao mesmo item, só é classificada a resposta que surgir em primeiro lugar.”

Este novo critério aumenta consideravelmente a possibilidade de um aluno que responda às duas questões de um item em alternativa ter a cotação total. Certamente não terão sido muitos os alunos que responderam às duas questões, mas isso não invalida o facto de que este esclarecimento deveria ter sido prestado antes da prova de modo a que todos os alunos estivessem em pé de igualdade. Seria de elementar bom senso tê-lo feito. 

Deixo uma pergunta aos responsáveis do IAVE: este critério manter-se-á para a prova da 2.ª fase? Se a resposta for sim, obviamente que vamos aconselhar os nossos alunos a responderem a uma das questões de cada item em alternativa e depois escolher uma opção para responder à outra, aumentando assim as hipóteses de terem a cotação total. Se forem consideradas apenas respostas ao acaso, a probabilidade de terem a cotação total aumenta de 25% para 43,75%! Colocando a hipótese académica de se saber à partida que as opções correctas em cada uma das questões de cada item em alternativa são a mesma, com se verificou na prova da primeira fase, e respondendo com opções distintas às duas questões, essa probabilidade aumentará para 50%! 

Mais tarde O IAVE emitiu um comunicado a defender a sua decisão. Naturalmente, por tudo o que escrevi até aqui, não me revejo nesse comunicado. A verdade é esta: foi introduzido um novo critério, independentemente do nome que lhe atribuam, que introduz um beneficio aos alunos que não cumpriram, ainda que inadvertidamente, as instruções explicitadas no enunciado do exame. 

Os alunos, e os seus professores, não mereciam este tratamento. Estiveram tempo demais sem saberem como seria a prova de Exame Nacional de Matemática A de 2018 e quando finalmente foi revelada alguma informação, a mesma não foi clara e muito menos precisa, revelando-se pouco fidedigna. É lamentável que num ano tão importante não se tivesse assegurado uma transição pacífica. É lamentável que o trabalho honesto e abnegado de muitos alunos ao longo destes três anos não tenha colhidos os resultados merecidos por causa de uma prova mal construída e desadequada e de um processo mal conduzido. Isso é dilacerante para um professor.   

Quero deixar claro que não estou a acusar o IAVE de algum tipo de premeditação em toda esta situação. Nada disso. O IAVE apenas não soube ouvir os professores e todos os agentes educativos nos vários apelos que lhe foram dirigidos. Prestou um mau serviço à Educação, à Matemática e consequentemente ao país, prejudicando milhares de alunos.  

Para terminar deixo os dois link’s, um para o comentário da APM e outro para parecer da SPM

Convido o leitor a deixar o seu comentário na página do Facebook do Clube SPM.

Publicado/editado: 03/07/2018