Este artigo desenvolve-se, em expansão, em torno de um conjunto de notas que preparei para a minha intervenção no painel plenário “Educação (e) Matemática: constrangimentos e liberdades na sociedade de hoje", do ProfMat - Porto 2016[1]. O tema é muito abrangente, com muitos subtemas, e diversos na sua natureza, que se podem acolher debaixo deste título. Com uma experiência e conhecimento muito limitados e indirectos em Educação Matemática ou nos ensinos básico e secundário, será mais a partir da minha experiência e conhecimentos como matemático, da minha visão da disciplina, em relação à sua estrutura e história das suas transformações, que falarei. Mas sobre um aspecto em que há uma forte relação entre a disciplina científica e o ensino da disciplina, que é o da evolução em função das solicitações e constrangimentos exteriores: das corporações académicas e seus hábitos e inércias, da cultura científica prevalecente, da sociedade tecnológica, etc. Evolução que envolve escolhas - e.g. dar maior atenção, ou pelo contrário menor, até mesmo ao abandono, a certos temas, quer na investigação científica quer na programação dos curricula escolares - mas é também por elas determinada[2].

“... constrangimentos e liberdades na sociedade de hoje": o que primeiro me invoca esta frase, assim isolada do título, é a ideia de sociedade de informação, cada vez mais global, democratizada e sofisticada, mas também mais superficial, aleatória e contraditória. Invoca também um lugar-comum: não se pode ser livre, a decidir a escolher, na ignorância ou mesmo no conhecimento deficiente. Livre verdadeiramente: não apenas no aspecto, meramente formal, de poder enunciar o sentido final de uma escolha ou decisão - do voto por exemplo - mas também de poder sopesar as várias opções e alternativas e determinar finalmente essa escolha ou decisão de forma racional e informada. Em relação a este lugar-comum parece-me que são permitidas as duas seguintes Constatações:

Primeira. Alguma educação matemática é essencial para termos capacidade de processar e analisar toda a informação quantitativa que actualmente nos é dada diariamente, muita dela sobre aspectos essenciais da nossa vida em sociedade. Informação, sobretudo estatística, que requer para a sua apreciação, mesmo elementar, alguma capacidade de lidar com percentagens, proporções (regras de três), médias, leitura de gráficos, etc.; quando não mesmo um conhecimento já menos elementar de alguns conceitos e termos técnicos da estatística e das probabilidades. Informação que em geral se refere a quantidades medidas por números que o ser humano tem dificuldade natural em processar e comparar: os chamados grandes números[3].
Segunda. A própria informação quantitativa nos media espelha e reproduz a fraca preparação matemática (e mais geralmente científica), senão mesmo iliteracia, da população e contribui negativamente para a reforçar. Os erros são sistemáticos e abundam os exemplos, alguns até bastante cómicos, abstraindo da triste realidade que revelam. [4]Como exemplo de um cómico: corria há tempos nas redes sociais uma imagem de uma decisão de um tribunal sobre um recurso apresentado por alguém a quem tinha sido penhorado 1/6 do vencimento; e no final vinha a decisão, atendendo às alegações de reduzir a penhora para 1/5 do vencimento! Para um exemplo da dificuldade em lidar com grandes números e os comparar: há dias, num artigo de opinião da última página de um jornal conhecido, o autor referia como motivo de preocupação para a saúde da economia russa a dívida existente nesse país, até 2018, de 100 mil milhões de dólares; logo vários comentários de leitores diziam ser esse número ridiculamente baixo, ora comparando com outros países que têm dívidas de triliões de dólares, ora com o valor do "resgate" de Portugal, dessa ordem, mas que é um país muito mais pequeno e sem os recursos naturais de gás e petróleo da Rússia.
Mesmo nos números não tão grandes, isto é, relativamente pequenos quando comparados com os biliões ou triliões, os erros também aparecem nos media com regularidade. Recordo, por exemplo, um artigo relativamente extenso num jornal diário, sobre o património da Universidade do Porto, em que se afirmava, tanto no texto como na legenda de uma fotografia, que esse património se estende por vários pólos na cidade, numa área total de "mais que 15.000 m2"! Convenhamos que é literalmente verdadeiro[5]...
A muito maior familiaridade com os números relativamente pequenos (não tão grandes) da ordem das dezenas ou centenas de milhões - por exemplo, todos ouvimos dizer que as populações da maioria dos países são desta ordem de grandeza - e com a sua escrita matemática, que envolve, por extenso, um número de algarismos de leitura ainda relativamente acessível, torna ainda mais enganosa a nossa inabilidade natural para os comparar adequadamente. Isso torna-se muito claro nas noções, que a generalidade das pessoas têm das probabilidades de ganho nos jogos de sorte e azar. No euromilhões o número de combinações possíveis é 116.531.800; um número "relativamente pequeno" portanto, pensando, por exemplo, que é menor do que a população de vários países. É um número familiar, digamos. No entanto, é maior do que o número de segundos que existem em três anos e meio (perfazem exactamente 3, 69519... anos); gosto de explicar assim o jogo a alguns apostadores convictos das suas possibilidades: temos dois cronómetros, accionámo-los ao mesmo tempo e depois cada um segue a sua vida durante os próximos 3,5 anos, parando o seu cronómetro quando muito bem entender; se no final os cronómetros tiverem parado no mesmo segundo, dá direito a prémio! Com esta outra percepção mais concreta, mais física, da imensidão do número e da improbabilidade de acertar na "aposta ganhadora", a maioria das pessoas compreende como é tão baixa a probabilidade no euromilhões! Mesmo fazendo três apostas no euromilhões, continua a probabilidade a ser menor do que a do jogo dos cronómetros feito "apenas" num ano; e mesmo pensando no jogo feito a 24h, ou seja 38.400s, se sente que se pode bem passar toda uma vida - digamos de 80 × 52 semanas - a apostar duas vezes por semana, portanto num total de 8320 apostas, sem nunca acertar!

Como melhorar as nossas capacidades na apreciação dos grandes números, ou, de forma mais geral, na organização e tratamento de dados (OTD)[6], em toda a informação que nos é fornecida (e nos assola), em particular diminuindo o fosso que vai de alguma familiaridade (enganosa) com os formalismos matemáticos que os exprimem, a esses números e dados, até à pouca compreensão que deles temos? "Formalismos" quer no sentido da linguagem corrente, na expressão usual dos números em palavras e algarismos, quer na própria notação matemática mais sofisticada, por exemplo a notação com potências. Um trilião (um milhão de milhões), que não tem uma leitura fácil por extenso, tem a notação simples \(10^{12}\); e muitos exercícios envolvendo potências se resolvem nas aulas, pouco parecendo importar, em geral, a ordem de grandeza trazida pelos vários expoentes, numa familiaridade de rotinas que no entanto é, em certos sentidos, enganosa. Por exemplo, \(10^{100}\), uma instância simples para verificação de regras de potências do tipo \((a)^{a ^a}\) e \(a^{a^2}\), não corresponde, pelo menos num sentido não muito complexo, a nada de muito concreto como a medida de alguma quantidade real, já que se estima entre \(10^{78}\) e \(10^{82}\) o número de átomos do universo. Algo de semelhante se passa com outras noções e formalismos mais sofisticados da matemática, como a noçao de limite, na prática e rotinas do estudo de funções reais de variável real e do seu crescimento; por exemplo, muitos exercícios se resolvem envolvendo o cálculo de limites infinitos e no infinito: quantos exercícios deste tipo são feitos com funções que venham de alguma situação real de modelação matemática, e de forma a que um limite do tipo \(\underset{x\to \infty}{\lim} f(x) = \infty\) tenha um significado concreto nessa situação?

Ao considerar uma interrogação como a anterior, ou de forma mais geral como melhorar as nossas capacidades matemáticas, na apreciação da realidade, devemos também lembrar que há conhecimentos matemáticos que já não têm a importância que tiveram no passado, pelo menos na forma como eram usados e aplicados: conhecimento disponível individualmente, “para fazer à mão”, por uma população escolar mais ou menos alargada. Já que muitas vezes esses conhecimentos passaram a estar incorporado nas aplicações tecnológicas de uso corrente, através dos algoritmos que as regulam. Um exemplo de um conhecimento de enorme importância prática durante séculos é o de saber "resolver triângulos", o objectivo primeiro da trigonometria[7]. Ora, hoje em dia, muitos dos antigos procedimentos que usavam a resolução de triângulos "feita à mão" - geralmente através de instrumentos intermediários, como os teodolitos na topografia - tornam-se obsoletos, com o aparecimento de novas tecnologias como o GPS, mapeamento por satélite, etc. Estas considerações (e outras que virão mais adiante) levam-nos à seguinte

Questão central. Como adaptar e melhorar o nosso conhecimento da matemática e, simbioticamente, o seu ensino - a uma população cada vez mais alargada - de forma mais útil para uma melhor compreensão do mundo, incluindo também a dos aspectos mais imediatos, como a informação que nos é diariamente fornecida? Em particular, mantendo em vista a evolução natural e interna da própria estrutura, composição e procedimentos da disciplina científica - que segue inexorável, ainda que lenta e por vezes imperceptivel - se possível criando tendências de antecipação e mudança, no sentido dessa evolução, nos próprios curricula escolares.
Uma constatação trivial se impõe: não havendo tempo para tudo há que fazer escolhas nas metas e programas escolares da disciplina![8]

Retomando um dos temas do título, constrangimentos: quais existem na evolução da matemática como disciplina científica, e no seu ensino, em particular na escolha das matérias, e do seu tratamento, para os programas escolares da matemática? Os maiores, pelos efeitos que provocam, no curto e médio prazo, até pela sua imprevisibilidade, com por vezes súbitas mudanças, são os constrangimentos externos provocados pelas decisões de quem manda nas políticas de ciência e educação; sobre o financiamento e autonomia das universidades e da investigação científica, formação dos professores, a gestão e autonomia das escolas, o sistema de contratação dos docentes, a gestão e valorização das carreiras, em particular na promoção - ou pelo contrário desvalorização! - da imagem pública da Escola e dos seus docentes, a articulação entre os ensinos público e privado, o estabelecimento e implementação dos curricula escolares - sobretudo quando feitos e impostos à margem e sem a participação alargada da comunidade académica e profissional - os sistemas de avaliação dos alunos, docentes e escolas, etc. Falarei, no entanto, apenas dos constrangimentos internos, que embora de menor relevância são aqueles sobres os quais podemos actuar de forma mais directa e individual, na nossa própria actividade enquanto professores de matemática; e que não deixam de condicionar de forma importante alguns dos constrangimentos externos mencionados, em especial os que se relacionam com a definição e implementação dos curricula.

Os constrangimentos internos são essencialmente devidos à natural resistência às mudanças, com uma tendência para valorizarmos especialmente aquilo que melhor conhecemos e defendermos aquilo em que já investimos tempo e esforço; e, de forma relacionada, às inércias existentes nas várias corporações académicas e profissionais. E dependem, por isso, das nossas Visões da Matemática (plurais, sim!)[9] como um todo: quais as características essenciais da sua constituição e estrutura, qual a arquitectura da sua divisão por áreas, como se relacionam e estruturam entre si (quer lógica, quer historicamente) essas áreas e quais as mais importantes para as aplicações, quais o percursos possíveis e desejáveis através dessa arquitectura (como se pode, ou deve, ir daqui para ali?). Visões que são reforçadas também pela existência de uma história assente, ou “institucionalizada”, sobre a evolução da matemática e a génese dessa estrutura.
Apesar de diversas - e até por vezes com posições contraditórias - em comum às várias visões da matemática há a ideia de um edifício muito complexo, com muitas partes, mas formando um todo coerente, assente em alguns alicerces (ou fundamentos) consistentes, em que todas as partes desempenham um papel estrutural e contribuem, ou contribuíram, para a construção e estabilidade do edifício e em que tudo está interligado - a maior ou menor distância - por uma lógica interna, cimento de toda essa construção e que consiste de um emaranhado imenso de interligações feitas de teoremas e suas provas.
As diferentes visões variam sobretudo na dimensão e importância relativa que atribuem às várias partes e nas relações estruturais e hierárquicas que estabelecem entre elas - o que naturalmente depende da extensão dos conhecimentos em que assentam, sendo hoje em dia impossível ter uma visão global do edifício matemático e um conhecimento sólido e não superficial de mais do que umas poucas áreas entre as muitas centenas existentes![10]

Podem também diferir nos "segundos sentidos" que associamos a certos resultados matemáticos, ou mesmo teorias, e que como os planos de fundo numa paisagem, moldam a perspectiva que deles temos, em particular a profundidade do seu alcance; Embora esses segundos sentidos não tenham grande relevância para a investigação matemática[11] , uma vez que não decorrem logicamente ou matematicamente dos resultados em si mesmos, têm-na para o ensino e a divulgação já que são construídos por repetição sugestiva através da linguagem natural com que nos exprimimos sobre esses resultados, funcionando a repetição também como processo de institucionalização desses sentidos na comunidade, tornando-os correntes e revestindo-os de um carácter natural, quase necessário ou até óbvio. Divergências desses "segundos sentidos" correntes na comunidade estão normalmente associadas a diferentes concepções filosóficas dos fundamentos da matemática, quer a nível dos princípios lógicos admíssiveis nas provas, axiomatizações e definições básicas, quer na teoria dos conjuntos - ou outra teoria de entidades matemáticas básicas, que funcionem como os blocos construtivos para toda a estrutura.
Sem nos alongarmos sobre este aspecto, convém dar algum exemplo de um "segundo sentido". O segundo sentido mais generalizado, a que poderemos chamar o primeiro dos segundos sentidos, é a ideia de que toda a matemática corrente, com as suas noções e estruturas mais centrais - e.g., a dos números reais e respectiva análise - se pode exprimir e construir com base na teoria dos conjuntos e usando a lógica matemática clássica na dedução dos resultados.[12]
Outro exemplo de segundo sentido, que vem dos resultados de G. Cantor sobre cardinalidade, é a ideia da existência de infinitos de diferentes graus; assim, como o conjunto dos números reais, \(\mathbb{R}\), não é numerável, mas o conjunto dos racionais, \(\mathbb{Q}\), é, é usual dizermos que "existem muito mais números reais do que racionais", ou, sendo \({\mathbb{R} = \mathbb{Q} \cup \left(\mathbb{R} − \mathbb{Q}\right)}\), que "existem muito mais números irracionais do que racionais". No entanto existiram, com evolução logo a partir dos fins do século XIX e desenvolvidas até aos nossos dias, divergências em relação àquele "primeiro segundo sentido", nomeadamente pelo chamado intuicionismo e outras correntes da matemática dita constructiva[13]; que recusavam o uso de um princípio central da lógica clássica - o princípio do terceiro excluído - e colocavam restrições no tipo de provas admissíveis, aceitando apenas as que têm um carácter constructivo (o que conduzia, por exemplo, à não aceitação de certas provas por redução ao absurdo usuais na matemática clássica). Embora sem grande impacto na práctica matemática ao longo do século XX - sendo no entanto consideradas e progressivamente integradas, como parte do estudo da lógica matemática e emergindo posteriormente também noutros contextos em teorias mais gerais com origens em partes centrais e não divergentes da investigação matemática - não deixam de constituir teorias e práticas alternativas totalmente consistentes, ainda que tenham permanecido marginais.[14]
No ensino e na divulgação da matemática, seria desejável que fosse mais conhecido o facto de na matemática, e na sua história, existir este tipo de relatividade, que envolve a possibilidade de escolhas alternativas nos fundamentos e métodos de prova - que embora historicamente exóticos em relação à prática predominante e central não deixam por isso de ser legítimos - mesmo em relação aos seus resultados mais conhecidos e conceitos e estruturas mais essenciais, como são os da análise real[15]. Ou seja, que a matemática que se ensina e se divulga não é como é por algum tipo de necessidade ou imperativo lógicos; há com certeza muitas razões naturais e desejáveis para ser como é - a principal das quais seja talvez a tendência para seguir, como num gradiente, pelas formas que se revelam mais úteis e fáceis para produção de nova matemática[16] e que vão no sentido de maior liberdade para os matemáticos[17] - mas nenhuma razão daquele tipo: que não poderia ser de outra forma!

Da história da matemática sabemos também, como já referimos anteriormente, que alguns assuntos, ou mesmo áreas, perdem importância por si só, sendo no entanto substituídos nessa sua importância por outros assuntos relacionados, e muitas vezes deles derivados, ou por sua incorporação na tecnologia na forma de algoritmos. Os quaterniões são um bom exemplo nos dois sentidos: o seu uso no cálculo prático, ligado em particular à física, durou relativamente pouco tempo após a sua invenção, pela maior preferência dada entretanto ao uso do produto vectorial, que por sua vez tem origens na definição, por Hamilton, dos quaterniões e seu produto. Por outro lado, como se sabe, os quaterniões são actualmente usados (indirectamente, pela sua algebrização vertida em linguagem de programação) nos algoritmos de softwares que simulam as rotações espaciais. Outras vezes assuntos de importância secundária reemergem, e por vezes num papel proeminente, em novos contextos e teorias, longe das motivações iniciais.[18]
Esta constatação histórica, faz parte daquele consenso entre as várias visões da matemática, atrás referido, de que as suas partes formam um todo coerente, em que todas elas desempenham um papel estrutural e contribuem, ou contribuíram geneticamente, para a construção e estabilidade do edifício numa interligação feita de uma complexa teia de teoremas e provas; isto é, não há partes obsoletas no seu uso, que o sejam do ponto de vista da sua contribuição estrutural, ainda que em formas derivadas através de descendentes seus, agora mais proeminentes.
No entanto, parece que mesmo este consenso entre as várias visões é questionável, sobretudo em algumas perspectivas de futuro. O desenvolvimento dos computadores e da programação que permitiu e sustenta a expansão e globalização do mundo informático, a que aludimos no início, tem tido também impacto no nosso mundo matemático, quer na investigação quer no ensino. A um nível menos "fracturante" dos paradigmas, temos todo o software para cálculo numérico, simbólico e gráfico (calculadoras gráficas, Geogebra, Geometer’s Sketchpad, Wolfram Alpha, MuPad, Maple, etc.)[19] ; a um nível mais fracturante temos as provas assistidas por computador - no sentido radical, de haver partes da prova impossíveis de serem verificadas à mão em tempo humano útil[20] - e o desenvolvimento da chamada matemática experimental: em que através de evidências de cálculo computacional, para além das provas assistidas, se testam conjecturas, se obtêem sugestões e orientação para a formulação de novos resultados matemáticos, se procuram novos objectos matemáticos com determinadas propriedades, etc.,podendo chegar-se à aceitação, ou convicção da veracidade de um resultado, substituindo a sua prova, ou partes dela, por essa evidência![21]

É possível que as provas assistidas por computador, progridam para além da "simples" análise por força bruta computacional de casos e cálculos, impossíveis de efectuar à mão em tempo útil - o que requer de nós apenas uma confiança na correcção dos dados fornecidos e dos algoritmos em execução - para um novo nível de autonomia do computador: verdadeira autonomia no sentido da pesquisa e recolha de dados - acumulação de conhecimento próprio - tomada de decisões e escolhas de rumos, não previstos ou sequer previsíveis, pelos programadores!
Um bom exemplo, muito recente, foi fornecido pelo Google DeepMind Challenge Match — AlphaGo vs Lee Sedol. Foi um encontro de cinco partidas de Go, realizado entre 9 e 15 de Março passado, reminiscente do famoso encontro de xadrez que opôs o campeoníssimo Garry Kasparov ao computador Deep Blue em 1997. O Go é um jogo mais conhecido e praticado no oriente, embora tenha também federações em muitos países ocidentais com mestres de elevado grau, que à semelhança das artes marciais é marcado pela atribuição de "dans". O Go, em comparação com o xadrez, é considerado pelos especialistas da computação como tendo um grau de complexidade mais elevado, com muito maior número de combinações possíveis. O encontro realizou-se na Coreia do Sul, nacionalidade de Lee Sedol, que é o jogador mais importante da actualidade. Lee Sedol ganhou apenas a quarta partida[22] . A grande surpresa, para todos os especialistas aconteceu na segunda partida, quando o computador fez um movimento totalmente inesperado, que nenhum jogador (humano) razoável faria! E o computador "sabia" que nenhum humano faria tal movimento: porque faz parte da sua programação calcular, a partir da sua enorme base de dados de partidas jogadas por humanos, a probabilidade de cada movimento feito; e nesse caso a probabilidade era inferior a 1/1000! Como decidiu então o computador fazer tal jogada, como a terá aprendido? A resposta é que, de certa forma, aprendeu sozinho: é que os programadores puseram o computador a jogar contra si mesmo, com diferentes e sucessivas versões do programa, à medida que o iam apurando. Ou seja, o computador aprendeu a eficácia daquela jogada, estranha para os humanos, jogando no reino dos computadores!

Este tipo de evolução para novos níveis de sofisticação da computação, que se vislumbra no horizonte próximo, associada à cada vez maior extensão, centralidade e proeminência dos métodos estocásticos tanto nas aplicações da matemática às mais variadas áreas científicas - em especial às de maior complexidade na modelação, como as ciências da vida, em particular os estudos cognitivos, a metereologia, etc. - como na própria matemática experimental, pode conduzir a uma nova visão da matemática em que partes essenciais, mesmo do que hoje consideramos os seus fundamentos, passem a ser vistas como verdadeiramente obsoletas: não só no uso, mas mesmo no sentido, não mais do que curiosidades históricas de uma certa forma de pensar, já abandonada! Uma visão "pós-fundamentos", lhe poderíamos chamar...
David Mumford - Medalha Fields em 1974 pelos seus trabalhos em Geometria Algébrica - desenvolve uma opinião deste tipo no seu artigo The Dawning of The Age of Sochasticity, no âmbito de uma conferência realizada em 1999, “Mathematics Towards The Third Millennium"[23] . É interessante verificar que Mumford faz um mea culpa relativamente a uma opinião que era muito generalizada, e ainda hoje persiste, nos meios da matemática dita mais "pura": a de que a Estatística é uma área mais pobre e desinteressante, que não envolve nem requer muita matemática...

I also have to confess at the outset to the zeal of a convert, a born-again believer in stochastic methods. Last week, Dave Wright reminded me of the advice I had given a graduate student during my algebraic geometry days in the 70’s: ’Good grief, don’t waste your time studying statistics - it’s all cookbook nonsense’. I take it back!
Fazemos algumas citações do artigo, que esperamos dêem, já aqui, uma ideia do seu pendor relativamente a uma tal mudança de visão "pós-fundamentos".
Do resumo:
Abstract. For over two millennia, Aristotle’s logic has ruled over the thinking of western intellectuals. All precise theories, all scientific models, even models of the process of thinking itself, have in principle conformed to the straight-jacket of logic. But from its shady beginnings devising gambling strategies and counting corpses in medieval London, probability theory and statistical inference now emerge as better foundations for scientific models, especially those of the process of thinking and as essential ingredients of theoretical mathematics, even the foundations of mathematics itself. We propose that this sea change in our perspective will affect virtually all of mathematics in the next century
e mais à frente,
This paper is a meant to be a polemic which argues for a very fundamental point: that stochastic models and statistical reasoning are more relevant i) to the world, ii) to science and many parts of mathematics and iii) particularly to understanding the computations in our own minds, than exact models and logical reasoning.
Referindo-se a um ’teorema’ recente sobre a hipótese do continuum, CH, que depois explica, escreve Mumford:
(...) This leads us to the stunning result of Christopher Freiling (1986): using the idea of throwing darts, we can disprove the continuum hypothesis. Why his theorem is not universally known and considered on a par with the results of Godel and Cohen. I do not know.
Recorde-se que a hipótese do continuum, inicialmente formulada por Cantor para os conjuntos \(\mathbb{N}\) e \(\mathbb{R}\), afirma mais geralmente que para qualquer conjunto não-vazio \(X\), não existe nenhum conjunto \(Y\) que tenha um cardinal estritamente contido entre o cardinal de \(X\) e o cardinal de \(P(X)\), o conjunto de todos os subconjuntos de \(X\): em notação, não existe \(Y\) tal que \(|X| A hipótese do continuum era o primeiro da famosa lista de 23 problemas apresentada por David Hilbert no Congresso Internacional de Matemáticos de 1900 e a sua resolução, em 1963, é considerada um dos marcos maiores da história da matemática. De forma muito resumida: Gödel tinha provado, em 1940, que CH era consistente com os axiomas de ZF (se estes o forem entre si), incluindo se se acrescentar o axioma da escolha, (obtendo o sistema ZFC); Paul Cohen provou então, em 1963, que a negação de CH é também consistente com ZF ou ZFC, mostrando assim que a hipótese do continuum é independente dos restantes axiomas, isto é, não se pode a partir deles provar que é verdadeira ou que é falsa.[24]
Como é possível, em face destes resultados sobre CH, existir um ’teorema’ que prova a sua falsidade é explicado pela admissão de novos objectos matemáticos - as variáveis alietórias (ligadas, na prova, ao lançamento de dardos sobre um alvo) - como reais, o que é defendido por Mumford, como um passo para uma mudança radical na visão dos fundamentos da matemática:
So what is ’wrong’ with this? We have treated random variables, throws of the dart, as real things! If we try to rewrite this argument in classical measure theory, we will need to assume that the graph of the well-ordering is measurable, which, of course, should not be done. So do we throw out the proof? Freiling used the argument to motivate a new axiom of set theory which disproves the continuum hypothesis. I believe we should go much further: his ’proof ‘ shows that if we make random variables one of the basic elements of mathematics, it follows that the C.H. is false and we will get rid of one of the meaningless conundrums of set theory. The continuum hypothesis is surely similar to the scholastic issue of how many angels can stand on the head of a pin: an issue which disappears if you change your point of view.

Para concluir e retomando a questão central que formulámos atrás: de que forma estas considerações sobre os constrangimentos internos e os horizontes da evolução da matemática e das suas visões, podem, e devem, influenciar a nossa apreciação da escolha dos curricula escolares e da sua implementação?
A natural resistência às mudanças, já mencionada, tem sempre um argumento à mão - que é validado pelo consenso entre as várias visões da matemática como um todo coerente que integra todas as suas partes - contra alguma proposta de eliminação ou redução de um assunto ou a sua substituição total ou parcial por outro, a utilidade que tem numa diversidade de circunstâncias, ou então o seu valor formativo - das capacidades matemáticas e mentais - mesmo quando tem pouco valor prático, em termos das suas aplicações, quer internas à matemática pela sua menor ligação a outros assuntos, quer externas. Mas o desafio será precisamente saber se o valor formativo de estudar alguns assuntos, não pode ser alcançado pelo estudo de outros (até aparentemente pouco relacionados, à primeira vista) mas que eventualmente sejam mais úteis do ponto de vista aplicado e mais conformes às tendências da matemática actual.
Os constrangimentos internos da resistência às mudanças e do perigo de enviesamento ao serviço de alguma visão particular da matemática, são reforçados, potenciados, por outros constrangimentos (externos) que têm a ver com os tempos de planear e implementar as mudanças curriculares, determinados por quem manda. Se as mudanças curriculares forem lentas e progressivas, planeadas com tempo e envolvendo bem a comunidade dos profissionais - o que parece ser a situação ideal e mais sensata de política educativa, porque assentarão assim numa maior experiência de ensino efectivo e em maiores e melhores consensos - isso dilui logicamente o perigo de enviesamento, por um lado, mas, por outro lado, favorece naturalmente as resistências à mudança, em especial se as propostas de mudança forem mais ousadas, contra os hábitos instalados da comunidade. Se, pelo contrário, a mudança for rápida e, como consequência lógica dessa opção, necessariamente feita por um grupo mais ou menos alargado de sábios isolados no seu balão, há a vantagem de uma maior probabilidade de surgirem alterações significativas, até radicais e corajosas, mas também, por outro lado, o risco agravado das mudanças reflectirem uma visão muito particular da matemática - a vista desse balão, também ele particular - da sua estrutura, dos seus métodos, da importância aplicada ou formativa dos diversos assuntos escolhidos, do tipo e nível de rigor formal, da importância das ferramentas computacionais e do seu uso no ensino, etc. Parece-nos que nos Programas e Metas para a matemática recentemente aprovados, quer para o ensino básico quer para o secundário, se pode verificar, de forma muito clara, as características deste segundo caso.

O que me parece ter sido o espírito orientador dos autores das Metas, a sua visão da matemática (vista do seu balão!), e a forma como se materializou quer na estrutura geral quer na escolha e tratamentos de vários assuntos, contrasta com qualquer sentido geral que se possa extrair das várias considerações que fizemos neste artigo. Quando se lê uma passagem como

«É no respeito pela estrutura intrínseca da Matemática e do método que a caracteriza que se procura igualmente, com este Programa, desenvolver no aluno o gosto por esta disciplina milenar, nas suas diversas vertentes, como o carácter organizador e agregador de conhecimento na sua expressão mais abstrata ou a eficácia de que se revestem os instrumentos matemáticos quando aplicados ao estudo do mundo real»
esse contraste é claro: pelo que escrevemos sobre a existência de várias visões da matemática e das suas dinâmicas evolutivas, bem como da relatividade e limitações que existem em relação a vários aspectos dos fundamentos da matemática - em particular relativos ao chamado "método axiomático" - não nos parece que se possa falar - sem ser para suscitar uma longa e polémica discussão filosófica - "[da] estrutura intrínseca da Matemática e do método que a caracteriza", assim com artigos definidos!
Mencionando apenas um das escolhas mais polémicas e criticadas, a inclusão de um tema sobre axiomatização e geometrias não-euclidianas no 9º ano - com a pretensão de ter um alcance formativo matemático que passa além do da mera nota histórica: não sei se esta opção dos autores radicará em alguma convicção de que "o" tal método que caracteriza a matemática é o chamado "método axiomático", ou pelo menos que este é uma parte importante dele, (o que é uma ideia errada, na minha modesta opinião), mas, em qualquer caso, atendendo à enorme subtileza e complexidade de todas as questões que rodeiam a história das axiomatizações e dos desenvolvimentos das lógicas associadas (assim, no plural!), a todas as relatividades que permeiam esse "método", é impossível que neste nível de ensino os alunos fiquem com alguma ideia sobre o assunto com um mínimo de coerência e substância que não seja, por ser necessariamente muito parcial - tomar a árvore pela floresta - errada e potenciadora de convicções falsas sobre o que é a matemática. E entre não ter ideia nenhuma ou ter uma ideia errada é preferível não ter ideia nenhuma! Sobre a escolha do tópico Lógica e Teoria de Conjuntos para o início do programa do 10º ano, que parece seguir a motivação principal que está no origem deste, ligado como está à construção e estudo de axiomatizações, poderíamos fazer uma crítica análoga; embora esta escolha não nos pareça tão inútil e perigosa para a criação de ideias erradas como a anterior; e tem algum potencial prático, se for além do cálculo automático de tabelas de verdade ou da manipulação espúria da notação da "teoria de conjuntos"[25] e posta em relação com questões lógicas formuladas em linguagem natural e usada na resolução de alguns problemas concretos.[26]

Mas onde nos parece que o contraste das Metas "com qualquer sentido geral que se possa extrair das várias considerações que fizemos neste artigo" é maior, é na própria estrutura base das Metas, em termos do peso relativo atribuído aos vários assuntos, ou temas, em que elas se organizam. Assumimo-lo como uma crítica que ainda não ouvimos feita por outros [27]. Por tudo o que dissemos - desde a Primeira e Segunda Constatações no início do artigo até à parte dedicada ao artigo de D. Mumford - não será surpresa para o leitor que em relação à Questão central, defendamos que seja dada maior importância e extensão ao ensino das partes da matemática ligadas à OTD (organização e tratamento de dados) e à Estatística; e também ao uso das ferramentas computacionais. Ora, em relação às Metas parece-nos que a estas áreas é dedicado muito pouco espaço, medido em termos dos tempos ou aulas previstos, especialmente quando comparado com a extensão de outros temas como a Geometria. Vejamos os números; as siglas são as usadas nas Metas, estando a negrito as que consideramos em ligação com OTD ou Estatística.

    3º Ciclo (7º, 8º, 9º anos, respectivamente)
    NO: 18+20+15 tempos; GM: 66+40+65 ; FSS: 25+15+11 ; ALG: 28+62+29; OTD: 10+10+22

    Secundário
    10º - LTC: 18 aulas; ALG: 30 ; GA: 54 ; FRVR: 56 ; EST: 10
    11º - TRI: 50 aulas; GA: 32; PL: 6; SUC: 38; FRVR: 46; EST: 6
    12º - CC: 17 aulas; PRB: 27; FRVR: 32; TRI: 22; FEL: 41; PCI: 20; NC: 28.

Vemos assim que no 3º Ciclo há 62 tempos para OTD, num total de 456; a Geometria tem mais do que 62 tempos tanto no 7º como no 9º e mais 40 no 8º: quando pensamos que estes tempos da Geometria contemplam projectos tão ambiciosos e discutíveis - para este nível de ensino e maturidade dos alunos nestas idades - como, por exemplo, esboços de provas sobre o Teorema de Tales e sua relação com as propriedades de semelhança de triângulos, ou introdução ao método axiomático e à geometria hiperbólica!, o desequilíbrio com os tempos dedicados a OTD parece ainda maior e um desperdício.
No Secundário temos 66 aulas previstas para os temas destacados, num total de 533.
Para terminar, uma pequena nota sobre as notas de rodapé[27].

Referências
George, Alexander & Velleman, Daniel J., Philosophies of Mathematics, Blackwell Publishers Inc. 2002

Itororó - Bahia, aos 20 de Junho de 2016.


[1] Renovo aqui os meus agradecimentos à APM - em particular à sua presidente, Lurdes Figueiral, que me contactou - pelo convite para fazer parte desse painel, e ao moderador, professor Henrique Guimarães, pelo texto com ideias e orientações que previamente enviou. Agradeço também ao professor Paulo Correia pelo convite e desafio que me fez para escrever este artigo.

[2] Assim, palavras chave para este artigo poderiam ser evolução-e-escolhas.

[3] Até há poucos anos, antes do início da chamada crise económica de 2008, poucas pessoas teriam ouvido falar em milhares de milhões, que são hoje termos que aparecem diariamente nos media.

[4] Cheguei por duas vezes a sugerir, em dois grupos de estágio pedagógico de que era orientador, fazer uma recolha ao longo do ano de disparates matemáticos encontrados em jornais. Não foi um projecto concretizado, mas fica aqui a ideia, que talvez seja boa para um desafio ou concurso lançado aos alunos de uma turma...

[5] Tentei perceber de onde viria tão estranho número. Admiti que pudesse ser a área total do edifício da Reitoria, na Praça de Gomes Teixeira (dos "Leões"). No site da UP não encontrei esse dado, mas atendendo à área de implantação, que pude aí verificar, de 62×88m, e ao número de pisos, 3-4 e existência de uns pátios interiores, é possível que seja de facto o caso.

[6] Estou aqui a referir um dos "domínios", e respectivo acrónimo, que consta das novas Metas Curriculares de Matemática para o ensino Básico, recentemente aprovadas..

[7] Embora, muitas vezes, na forma como a trigonometria tem sido ensinada ao longo dos anos no nosso país, se tenha esquecido esse facto; por vezes até com ausência completa de exercícios de aplicação desse tipo.

[8] Apesar de ser uma constatação trivial, de senso comum, vale a pena lembrá-la aqui porque sobra nesse senso comum uma grande margem para subjectividades...Por exemplo, uma das críticas mais generalizadas, e que se tem vindo a sedimentar num cada vez maior consenso entre os professores, às novas Metas Curriculares e Programas para os ensinos Básico e Secundário é a sua exagerada ambição, sendo considerados demasiados extensos e de difícil concretização (difícil ou mesmo impossível, como se tem ouvido muitos professores dizerem no caso do agora iniciado 10º ano).

[9] Sem querer entrar pela história e filosofia da matemática: com certeza que a visão de um intuicionista, ou construtivista, difere da de um logicista ou de um formalista.

[10] Pode avaliar-se a extensão e variedade enorme dos assuntos matemáticos consultando a MSC2010, com mais do que 60 grandes áreas, cada uma delas dividida em várias subáreas, estas em temas, e contendo por vezes largas dezenas ou mesmo mais do que uma centena de subtemas: http://www.ams.org/msc/msc2010.html

[11] A menos da importância que as visões filosóficas próprias possam ter como orientadoras e motivadoras da investigação de certos matemáticos. Gödel é um exemplo de um matemático em que essa importância foi grande, como ele próprio afirmou.

[12] Numa das duas axiomatizações usuais - e essencialmente equivalentes - da teoria dos conjuntos, ZF: Zermelo-Fraenkel, ou NBG: Neumann-Bernays-Gödel. E com a lógica matemática (de 1ª e 2ª ordens) como se veio a estabeler a partir do trabalho pioneiro de G.Frege e em continuação por Russel- Whitehead, C. S. Peirce, E. Post, K.Gödel, A. Church, A. Turing, e muitos outros...

[13] O Intuicionismo foi iniciado por L. E. J. Brower, matemático mais conhecido pelas suas contribuições fundamentais para a Topologia, em especial pelo famoso Teorema do Ponto Fixo, e prosseguido por outros, em particular um seu aluno, Arend Heyting (as importantes Álgebras de Heyting receberam o seu nome) e também por um aluno de Hilbert, Hermann Weyl.

[14] A análise real intuicionista, desenvolvida por Brower, apesar de invalidar muitos dos resultados clássicos, como o Teorema dos valores Intermédios (Bolzano), ou provar que todas as funções \(f : R \to R\) bem definidas (no sentido construtivo de podermos calcular efectivamente com qualquer aproximação desejada os valores \(f(x)\) para todo \(x\in \mathbb{R}\)) são contínuas, é totalmente consistente.

[15] Uma introdução bastante acessível à análise intuicionista pode ser lida no livro de George e Vellleman referenciado no fim do artigo.

[16] Na verdade uma das características reconhecidas às várias versões de matemática construtiva é precisamente a grande dificuldade em verificar em todas as provas se os critérios construtivos, muito restritivos, são respeitados ou não. A lógica intuicionista - sem o princípio do terceiro excluído e com uma noção construtiva da implicação, \(A \Rightarrow B\) - é também em todos os aspectos mais complicada que a lógica clássica: por exemplo, ao contrário desta, não é possível definir as várias conectivas lógicas à custa das outras e da negação.

[17] "Liberdade" no sentido reivindicado por Cantor ou Hilbert, de exploração, sem restrições apriori de natureza filosófica, de novas ideias e conceitos bem como das potencialidades dos novos formalismos estabelecidos.

[18] "Um bom exemplo é o da lógica intuicionista, originada, como já atrás foi mencionado, pela recusa por Brower - por razões de ordem filosófica - do princípio do terceiro excluído. Despida da argumentação filosófica e das limitações construtivistas de Brower, pelo seu aluno, Heyting, a lógica intuicionista viria a ganhar um estatuto próprio como objecto de estudo sistemático no âmbito da Lógica (em particular na ligação desta com a ciência de computadores). Também no moderno desenvolvimento de fundamentos alternativos da matemática em termos da teoria de categorias - na chamada Teoria dos Topos - a lógica intuicionista tem um papel prevalecente, já que é a lógica presente na maioria dessas estruturas (os Topos, que generalizam, em certo sentido, a noção de conjunto; e cuja noção original, no âmbito do estudo de feixes, é devida a A. Grothendieck).
A Wikipedia tem um artigo sobre Topos, onde o leitor pode encontrar bastantes referências e variadas indicações (e "links") sobre o assunto: https://en.wikipedia.org/wiki/Topos

[19] Aqui se encontram numerosos exemplos de práticas matemáticas e métodos de cálculo que passaram da "mão" para a máquina: aproximação de raízes de funções, integração numérica e simbólica, derivação, decomposições e factorizações algébricas, cálculo matricial, aproximações polinomiais, desenvolvimentos em séries, traçado de gráficos 2D e 3D, resolução de equações diferenciais, cálculos simplex e estatísticos, etc.

[20] O início deu-se com a prova do famoso Teorema das 4 Cores em 1976 por Appel e Haken: faz agora 40 anos!

[21] Para uma verdadeira descrição e referências ver o artigo na Wikipedia: https://en.wikipedia.org/wiki/Experimental_mathematics

[22] Pode consultar-se o artigo da Wikipedia: https://en.wikipedia.org/wiki/AlphaGo_versus_Lee_Sedol
Encontram-se também no YouTube vídeos sobre as várias partidas, com análises detalhadas feitas por especialistas.

[23] Um pdf do artigo, que eu recomendo vivamente, pode ser obtido facilmente pesquisando no Google por título/autor.

[24] Mais importante do que a prova da independência de CH, foi a técnica introduzida por Cohen na sua prova, para construir modelos de ZF ou ZFC adequados à sua finalidade, chamada Forcing, e que teve depois repercussões fantásticas na lógica matemática permitindo a prova de muitos mais resultados. Pelo seu trabalho Cohen recebeu a Medalha Fields no Congresso Internacional de Matemáticos de 1966, em Moscovo. Os quatro medalhados nesse congresso, realizado quase há 50 anos, entre 16 e 26 de Agosto, formam - sem qualquer dúvida, na minha modesta opinião - o conjunto mais impressionante de matemáticos premiados com a Fields de toda a história dos Congressos, pela importância e influência futura dos seus trabalhos, confirmadas pelo juiz supremo que é o devir: S. Smale, M. Atiyah, P. Cohen, A. Grothendieck (talvez com destaque para este último, considerado por muitos como o maior matemático do século XX).

[25] Já há muitos anos, o matemático francês René Thom (medalha Fields em 1958 pelos seus trabalhos em topologia, mas conhecido sobretudo pelos trabalhos posteriores em teoria das singularidades e teoria das catástrofes, de que é um fundador) numa crítica irónica ao uso da "Teoria dos Conjuntos" no curriculum da chamada Matemática Moderna, introduzida no ensino francês nos anos 60 e 70, dizia:
"Qualquer raposa sabe que se as galinhas estão no galinheiro e o galinheiro está no quintal, as galinhas estão no quintal"

[26] É aliás curioso notar a possibilidade de os autores terem eles mesmos ideias erradas sobre este assunto da Lógica: quando na introdução ao tema, confundiram lamentavelmente a bivalência com o princípio do terceiro excluído (e de uma forma que não é explicável por algum lapso involuntário da construção gramatical da frase em que o fizeram).

[27] Dizemos "ainda não ouvimos" e não que "não foi feita"!

[28] Há quem considere que as notas de rodapé devem ser evitadas em textos de, ou sobre, matemática (excepto para alguma informação administrativa dada na primeira página); há quem ache até que em qualquer tipo de texto, o seu uso deve ser evitado e frugal. Não é, claramente!, a minha opinião; sem outra justificação que não seja a minha preferência, como leitor - em especial de textos de filosofia da matemática, ou com carácter expositivo, como este - pela estruturação e ritmo de leitura que resultam do seu uso livre...

Descarregar o artigo em pdf

Eduardo Francisco Rêgo (e-mail: Este endereço de email está protegido contra piratas. Necessita ativar o JavaScript para o visualizar.) é professor associado aposentado da FCUP. Licenciado em Matemática Pura na FCUP, tem os graus de M.Sc. e Ph.D. em Matemática pela Universidade de Warwick, Reino Unido.
No Departamento de Matemática Pura e mais tarde no Departamento de Matemática da FCUP ensinou desde 1976 (quando iniciou a atividade profissional como monitor) até 2014, em particular nas várias licenciaturas e mestrados de formação de professores.
Com especialização científica inicial e predominante na área da topologia e geometria, nos últimos anos tem-se interessado e dedicado sobretudo ao estudo de vários aspectos da filosofia da lógica e da matemática.