HISTÓRIA DA MATEMATIZAÇÃO DA NATUREZA 3

     

Com o desenvolvimento dos computadores fez-se necessária a elaboração de métodos para transformar as equações diferenciais em numéricas, objetivando tornar o seu cálculo mais rápido. O problema veio a ser resolvido pelo emprego, entre outros, do método dos elementos finitos – baseado no cálculo variacional elaborado por Euler há mais de dois séculos.

Com a computação eletrônica digital tornou-se possível a solução de, em tese, qualquer equação nas condições de limites mais complexos, atualmente expressas em simbologia das mais abstratas. Em grande número de casos, porém, as próprias condições de contorno ou limites não são inteiramente conhecidas. Há, então, que se recorrer às simulações matemáticas para resolver o problema. Parte-se de um modelo matemático, o qual é resolvido pela simulação de condições diversas, que definiriam prováveis circunstâncias em que o fenômeno poderia acontecer. Para tanto são desenvolvidas técnicas de simulação em computadores, pelas quais as soluções obtidas sob diferentes condições de limites são comparadas e avaliadas entre si para se chegar a uma solução adequada. Assim são resolvidos problemas abrangendo toda a natureza: desde problemas cosmológicos extremamente complexos, referentes à constituição e à origem do universo, até questões tecnológicas que envolvem a vida diária da humanidade ou simplesmente referem-se a questões particulares.

Exemplo interessante de utilização do processo de simulação matemática é o caso da pesquisa sobre as conseqüências do fechamento das adufas da barragem de Tucuruí sobre o rio Tocantins para enchimento do reservatório, realizado entre os meses de setembro e outubro de 1984.

O estudo teve dupla finalidade: em primeiro lugar, verificar as conseqüências do fechamento do rio no que diz respeito à saúde, alimentação, transporte e abastecimento de água das populações ribeirinhas, à jusante da barragem; em segundo, verificar a influência do fechamento do rio Tocantins sobre a salinidade da água de abastecimento de Belém do Pará, levando em conta as marés oceânicas que não só atingiam esse ponto como chegavam mesmo ao pé da barragem de Tucuruí, 250 km à montante.

A análise da primeira questão foi feita a partir das equações diferenciais de continuidade da vazão e da dinâmica de propagação das ondas ao longo de um canal. Essas combinadas levaram a uma equação diferencial, que foi integrada por meio do método das diferenças finitas, o qual transforma a equação num sistema de equações lineares algébricas simultâneas. Essas foram então calculadas por um computador, tendo seus parâmetros determinados por observações de registros diários de níveis d’água em vários pontos do rio e registros mareográficos em locais próximos à confluência do rio com a baía de Marajó (23).

O modelo matemático da intrusão salina na água de abastecimento de Belém era uma equação diferencial que relacionava a vazão fluvial com o valor médio da salinidade na seção e no ciclo de maré. A vazão fluvial era a correspondente à combinação das dos rios Pará, Tocantins e Guamá. Também aqui procedeu-se à transformação da equação diferencial num sistema de equações algébricas lineares simultâneas e seu cálculo pelo computador (24).

A concordância, dentro de uma margem correspondente à precariedade das informações disponíveis, veio confirmar que o método de simulação matemática, nos cálculos eletrônicos, é um instrumento hábil e utilíssimo para a previsão de fenômenos naturais complexos, não só nas áreas das ciências pura mas também nas das tecnologias.

Contudo, não eram suficientes somente as equações diferenciais e as estatísticas para que se completasse a matematização da natureza. Necessitava-se ainda de uma série de leis empíricas, incluindo parâmetros relativos a propriedades das matérias, tais como elasticidade, permeabilidade, condutividade térmica, resistência elétrica etc. Isso exigia a matematização da própria matéria – o que não foi possível pelas ciências clássicas. Para se chegar à tal matematização foi necessário o desenvolvimento não só da mecânica quântica mas também da teoria da relatividade. A primeira esclareceu a natureza corpuscular da matéria e conduziu à expressão matemática de suas propriedades por meio da física do estado sólido (25) e da ciência dos materiais amorfos (26), baseadas em estatística quântica. A segunda demonstrou que a principal característica da matéria, a sua gravidade, decorre de circunstâncias relacionadas com o espaço e o tempo.

A matematização da matéria, entretanto, só se torna possível quando as idéias aristotélico-platônicas sobre a indeterminabilidade da matéria são abandonadas pela ciência moderna e substituídas pelas do atomismo – para o qual a natureza é constituída tão somente por átomos e vácuo. Esse conceito está descrito no texto de Roberto Boyle, publicado em 1661, The sceptical chymist (27). Entretanto, foi somente no primeiro decênio do século XIX que cientistas, de várias nações de uma Europa dilacelerada pelas guerras napoleônicasJohn Dalton, inglês; Joseph-Louis Gay-Lussac, francês; Amedeo Avogrado, italiano; J.J. Berzelius, sueco – estabeleceram as bases da teoria química atômica da matéria. Dalton lançou a conjectura de que os diferentes elementos eram constituídos por átomos maciços e indivisíveis, diferentes entre si somente por seus pesos, e que se combinavam entre si para formarem as substâncias químicas. Berzelius, entre 1809 e 1814, numa enorme série de experiência, determinou os pesos atômicos com relação ao oxigênio.

A possibilidade de correlação entre as propriedades dos elementos químicos e seus pesos atômicos, porém, só aparece quando o químico russo Dimitri Mendeleyev publica seus Princípios de química, em 1869, cujo capítulo Agrupamento dos elementos e lei periódica foi traduzido para o alemão em 1895 (28). Nesse agrupamento, feito com base nos pesos atômicos, tanto os elementos que caíam nas mesmas colunas quanto os que caíam nas mesmas linhas tinham propriedades químicas semelhantes e se repetiam periodicamente. A razão dessa coincidência só foi explicada quando surgiu a física atômica, revelando a estrutura interna dos átomos, no início do nosso século.

Depois que Faraday estudou o fenômeno da eletrólise, mostrando que uma substância química dissolvida em água se decompõe em íons eletrizados, já se pôde conjecturar que a estrutura atômica tinha algo a ver com a eletricidade. Depois que Crookes descobriu, em 1879, os raios catódicos – partículas de cargas negativas por serem sensíveis a placas carregadas positivamente e colocadas paralelamente à sua trajetória – percebeu-se que haveria nos átomos partículas de carga elétrica negativa e foi possível medir suas cargas e massas. Foi Antoine Henri Becquerel, porém, quem primeiro notou que sais de urânio emitiam radiações que ionizavam o ar. Pierre e Marie Curie, depois de isolarem elementos mais radioativos que o usual, demonstraram que tais irradiações se compunham de elétrons (raios b), partículas carregadas positivamente (raios a) depois identificadas como núcleos de hélio e raios semelhantes aos raios x (raios g). Sir Ernest Rutherford, interpondo uma delgada folha de ouro entre uma amostra de rádium uma chapa sensível, pôde então conjecturar a estrutura interna dos átomos como constituída por um núcleo, de dimensões reduzidíssimas, com carga positiva, no qual se concentrava a massa dos átomos e elétrons girando em torno do núcleo em um espaço vazio. Para tornar esse modelo estável, Niels Bohr, em 19l3, postulou que os elétrons só poderiam girar em órbitas determinadas em função do quantum da energia de Planck. Assim, só emitiriam ou absorveriam energia ao saltar de uma dessas órbitas para outra. Esse modelo foi justificado por explicar as regularidades das raias do espectro de emissão do hidrogênio quando aquecido. Entretanto, as linhas espectrais dividiam-se em vários conjuntos de linhas justapostas. Para explicar esses detalhes dos espectro de emissão foi necessário admitir que não só os raios das órbitas dos elétrons determinavam as energias de emissão mas, também suas formas elíticas. Essa energia dependeria também de sua rotação em torno do próprio eixo, podendo essa ser para a direita ou para a esquerda. Todos esses fatores determinariam o nível energético dos elétrons e seriam identificados por quatro números quânticos designando respectivamente: o raio médio; a forma elítica das órbitas; o movimento angular da rotação do elétron; e a própria rotação (spin) do elétron. Esses quatro números quânticos determinariam a posição dos elétrons em suas órbitas e correlacionar-se-iam com as propriedades químicas dos átomos. 

A tabela de Mendeleyef foi reagrupada na ordem do número Z de elétrons, e em relação aos números quânticos. Assim, as propriedades químicas dos elementos foram melhor relacionadas com suas estruturas atômicas. Com isso fortaleceu-se a idéia de que seria possível se deduzir o valor das propriedades químicas da matéria a partir de sua estrutura atômica.

Mas a dificuldade de adaptar o modelo de Bohr a elementos de muitos elétrons foi se agravando. Ao mesmo tempo, foram sendo estudados fenômenos os quais mostraram que as partículas atômicas às vezes apareciam como ondas capazes de se refletirem e se difratarem. Em 1924 os irmãos De Broglie demonstraram experimental e teoricamente essa complementaridade entre partículas e ondas. Chegou-se mesmo a conjecturar que as entidades quânticas não eram partículas, nem ondas; só seriam umas ou outras depois de registradas experimentalmente e expressas matematicamente.

Foi então necessário que se abandonasse qualquer modelo do átomo como sistema planetário, passando-se a entendê-lo como um núcleo envolto em atmosfera ondulatória. Desenvolveu-se a seguir uma nova mecânica quântica, por parte de Erwin Schrödinger, indicando uma função que mediria as variações, nos pontos e nos tempos, em que a ondulação da atmosfera eletrônica dos átomos se dava. Em outras palavras, a equação da função y expressaria a variação da densidade elétrica em torno do núcleo atômico. Em 1926, Max Born demonstrou que o quadrado da amplitude da função exprime a probabilidade daquela densidade elétrica. Em átomo de um só elétron tal probabilidade pode ser entendida como a de encontrar-se o elétron num ponto e no instante correspondente.

Simultaneamente a essa teoria ondulatória, apareceu outra sobre a estrutura atômica: a de Werner Heisenberg, apoiada nas equações da mecânica clássica de Hamilton. Essas equações envolvem a energia total H (a qual é função das quantidades de movimento e respectivas coordenadas espaciais dos pontos de massa) do sistema. Essa função é tomada, em sua forma generalizada H(qipi), como função de ponto de um espaço fase 2i – dimensional, e as variáveis independentes passam a ser consideradas como matrizes. Heisenberg, bem utilizando a álgebra matricial, construiu sua teoria matemática. Pode-se demonstrar que a matriz diagonal correspondente à matriz H é equivalente ao nível de energia E das equações de Schrödinger. Portanto, ambas as formalizações representam dois aspectos da mesma teoria: o primeiro, enfatiza o aspecto ondulatório; o segundo, o movimento das partículas.

Esses formalismos só foram aceitos como verdadeiros depois de verificados experimentalmente por meio da observação do que acontecia quando os átomos eram bombardeados por partículas dotadas de energia suficiente para quebrá-los. A princípio usaram-se para tal fim os raios cósmicos e, depois, aceleradores de partículas cada vez mais poderosos. Essas experiências confirmaram a teoria; porém, é de se lembrar que elas foram, por sua vez organizadas de acordo com a teoria, ou seja, para serem realizadas e seus resultados interpretados, de alguma forma pressupunha-se a constituição quântica da matéria.

Curiosamente, em 1928, Dirac, estendendo a teoria ondulatória ao caso de um elétron livre movendo-se com velocidade próxima à da luz, concluiu que as equações levariam a duas soluções para o nível energético do elétron, uma delas negativa. Inferiu que quando fosse concentrada energia suficiente num ponto do espaço ocupado por um elétron de nível energético negativo, surgiria uma partícula de massa igual à do elétron, mas de carga elétrica positiva.

Em 1933, Occhialini observou nos raios cósmicos recolhidos numa câmara de névoa, ou chapa fotográfica, o aparecimento de partículas que deixavam duas riscas, originadas num mesmo ponto. Na presença de um campo magnético, uma delas tomava a direção positiva e a outra a negativa. Eram um elétron e um anti-elétron positivo, que veio a ser denominado posítron.

Tal fato confirma a idéia de que as equações matemáticas, verificadas como verdadeiras, não só simbolizam, mas descobrem e englobam a realidade.

A decisão de renunciar à figuração dos elétrons girando em órbitas em torno do núcleo atômico, apresentada nas teorias de Schrödinger e Heisenberg, foi acentuada pelo princípio de incerteza introduzido pelo último, em 1927. Heisenberg mostrou que seria impossível determinar, ao mesmo tempo, as coordenadas do ponto onde estivesse um elétron e a quantidade de movimento.

Uma série de experiências posteriores, organizadas e interpretadas de acordo com a complementaridade onda-partícula e com o princípio de incerteza, levaram a observar uma estranha ambigüidade da posição, da identidade e da trajetória dos fótons e, por extensão, de quaisquer partículas atômicas que se comportassem como ondas. Dessas experiências pode-se concluir que um mesmo fóton passa, ao mesmo tempo, por duas fendas feitas num anteparo. Recentemente foi demonstrado que a simples procura de informação sobre em qual dos dois furos passara o fóton, já é suficiente para impedir a formação de bandas de interferência que se formariam pela passagem de ondas de fótons pelas duas fendas.

Portanto, as experiências organizadas e interpretadas de acordo com a teoria ondulatória levam à conclusão de que partículas atômicas comportam-se em desacordo com as leis de identidade e da não-contradição que deveriam reger a realidade, conferindo a elas um caráter fantasmagórico. Entretanto, a equação de Schrödinger é única, coerente consigo mesma e verdadeira; por ser concordante com a experiência; portanto define melhor uma realidade do que a própria experiência. Assim, poder-se-ia conjecturar que as equações matemáticas não seriam apenas símbolos do real; elas passariam a ter características da própria realidade.

POSTED BY SELETINOF 4:12 PM 

 

 

Anúncios

Sobre seletynof

Escola (ensino médio):Colégio Marista Cearense;Faculdade/Universidade: Universidade Federal do Ceará;Curso:Física; Diploma:Pós-Graduação em Física;Profissão:físico e professor; Setor:Científico.

Publicado em 7 de agosto de 2008, em EPISTEMOLOGIA. Adicione o link aos favoritos. Deixe um comentário.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair / Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair / Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair / Alterar )

Foto do Google+

Você está comentando utilizando sua conta Google+. Sair / Alterar )

Conectando a %s

%d blogueiros gostam disto: