Arquivo da categoria: EPISTEMOLOGIA

QUEM SOMOS NÓS – NA VISÃO DOS FÍSICOS E FILÓSOFOS, NÃO DOS MÍSTICOS.

quem-2

_______________________________________________________________________________________

Abaixo, temos um link da WIKIPÉDIA que traz uma análise bastante esclarecedora sobre o filme

“What the Bleep Do We Know!?”:

<https://pt.wikipedia.org/wiki/What_the_Bleep_Do_We_Know!%3F>

 

________________________________

ATENÇÃO!

Aqui, nosso objetivo não é validar o filme em termos científicos, mas utilizá-lo como ilustração para a discussão da Teoria Quântica.

__________________________________

………………………………………………..

………………………………………….

INTRODUÇÃO

Medidas Históricas

…………………………………………..

…………………………………………………….

 

Importante verificarmos dois fatos históricos fundamentais à critica do filme “Quem Somos Nós?”. O primeiro se deu ainda na Antiguidade quando Parmêncides e Heráclito discutiam sobre o MOVIMENTO.  O segundo ocorreu quando da criação da MECÂNICA QUÂNTICA. Ambos os fatos históricos se relacionam com o problema da MEDIDA na matemática e na física.

____________________________________________________________

_____________________________________

____________________________________________________________

_____________________________________

É sabido de todos, quando na época da Grécia Antiga, os pitagóricos detinham nas mãos uma poderosa ferramenta matemática capaz de modelar a Natureza. Assim eram capazes de tratar com quase todos os fenômenos materiais usando apenas números.

Entretanto, foi utilizando e pesquisando tais modelagens numéricas que os pitagóricos se depararam com a impossibilidade de representar o movimento usando a teoria dos números: a descoberta do infinito nas medidas se estabeleceu, então, como uma grande dificuldade a ser vencida quando da representação matemática do movimento. E os pitagóricos esconderam esse fato durante muito tempo. Daí, portanto, com a medida ôntica da hipotenusa no Triângulo Retângulo Isósceles, o Mundo Grego Antigo desabou.

Todavia, confirmando o pensamento eleata, Platão – através da Segunda Navegação -, buscando completar e justificar o pensamento de Parmênides, postulou, assim, a existência do Mundo das Ideias, no qual residiria a verdadeira realidade: sendo o Mundo no qual vivemos, apenas uma projeção da sombra desse mundo ideal. Como vemos, toda essa reviravolta na visão que o homem antigo tinha do Universo foi causada pela simples descoberta do INFINITO nas medidas, ou seja, os incomensuráveis. Assim, a matemática grega incapacitada de lidar com tais medições, favoreceu a ruína da Visão de Mundo dos pitagóricos a qual era vigente naquela época. Daí por diante, Platão, tentando por ordem na “casa”, fez nascer o mundo das Ideias, estabelecendo a dicotomia entre Idealistas e Materialistas.

Hoje, novamente por conta de um problema de medida, envolvendo as medidas da posição e do momento do elétron nos fenômenos quânticos, temos uma nova reviravolta, agora com relação a Visão de Mundo consagrada pela comunidade científica atual, fundada na Física Clássica. A partir dessa medida, se gerou uma nova visão dada pela Mecânica Quântica, donde se sugere que a dicotomia, elaborada por Platão e reafirmada por Descartes, seja anulada, ou seja, não há separação entre sujeito e objeto

Tendo em vista, assim, a importância da problemática da medida dos quanta, aprofundamos abaixo uma discussão ontológica, e epistemológica, semântica e metodológica sobre o conhecimento da ciência física, de modo a propiciar uma critica justa e esclarecedora do afamado filme “QUEM SOMOS NÓS?”.

…………………………………………………

………………………………………….

FÍSICA

Ontologia

Epistemologia

Semântica

Metodologia

…………………………………………..

…………………………………………………….

diagrama.____________________________________________________________

_____________________________________

No diagrama acima, fazemos uma abordagem do conhecimento da Física Moderna segundo os pontos de vista ontológico, epistemológico, semântico e metodológico:

Ontologicamente, então, dizemos que a Física não conhece em si os objetos de seu estudo, mas suas relações, as estruturas matemáticas na qual estão inseridos. Ignorando, assim, a realidade, a Física toma contato apenas com os fenômenos (o observável) a partir dos quais constrói seus conceitos.

Semanticamente, os significados dos termos teóricos (conceitos), são dados implicitamente pela rede de princípios ou significados na qual estão contidos, ou seja, um conceito como o de campo eletromagnético somente pode ser descrito ou entendido dentro da rede significados da teoria eletromagnética. O que seja o campo em si, a coisa-em-si, a ciência física desconhece e não tem interesse em conhecer;

Epistemologicamente, a construção dos conceitos físicos se dá através da dialética entre o racionalismo e o empirismo, entre teoria e prática. Assim, a partir do momento em que se medita na ação científica, apercebemo-nos de que o empirismo e o racionalismo trocam entre si infindavelmente os seus conselhos. Nem um e nem outro, isoladamente, basta para construir a prova científica. Contudo, o sentido do vetor epistemológico parece-nos bem nítido: vai seguramente do racional ao real e não, ao contrário, do real ao racional, como o professavam todos os filósofos de Aristóteles a Bacon. Em outras palavras, a aplicação do pensamento científico parece-nos essencialmente realizante (BACHELARD, 1978).

Metodologicamente, a Física observa os fenômenos através de experiências, experimentalmente bem elaboradas, analisa as propriedades físicas presentes nestes fenômenos e – conseguindo isolar as principais grandezas envolvidas -, procede a matematização destas elaborando, então, as leis fenomenológicas e as teorias fundamentais: aplica, assim, inexoravelmente, o método científico no seu trabalho de pesquisa.

De acordo com tal diagrama, todo conceito da Física só é bem explicado e compreendido dentro de sua semântica: ou seja, os fatos ou fenômenos nos dão apenas uma pista no sentido de entendermos as estruturas intrínsecas à realidade que exprimem. A partir daí – sempre que necessário – como num círculo vicioso, novamente e sempre, passamos à construção de novos conceitos, servindo-nos da dialética entre o racionalismo e o empirismo a qual na prática faz uso do método científico. 

Com o advento da Mecânica Quântica, passou a imperar na Física um forte antirrealismo dado a constatação de certos paradoxos no lidar com os fenômenos quânticos. Tais, paradoxos, como veremos, faz perder o sentido a discussão entre idealistas e realistas.

____________________________________________________________

____________________________________________________________.

Paul Dirac

(Göttingen, 1982)

____________________________________________________________

____________________________________________________________.

No estudo da Física, a composição do Universo é dividida em duas entidades – matéria e energia. De acordo com o método científico, devemos realmente admitir que pode haver no Universo algo mais além da matéria e da energia, mas até agora a Física não encontrou este terceiro componente. A matéria inclui os materiais que formam o Universo: as rochas, a água, o ar e a multiplicidade de coisas vivas. Tudo que é sólido, líquido ou gasoso é uma forma de matéria.

Mas, classificar algo como MATÉRIA não significa, entretanto, que conheçamos a natureza real da matéria. O químico desdobra a matéria para determinar seus constituintes e o físico deseja saber o que mantém tais constituintes unidos; mas as partículas fundamentais e as leis da matéria parecem ser sempre um desafio.

A melhor maneira de adquirir um conceito de matéria é trabalhar com ela e descrever suas formas. Uma descrição não é uma definição no sentido real da palavra, mas reduz uma IDEIA ABSTRATA a termos bem concretos. As propriedades da matéria são usadas para descrever a matéria: na verdade, é mais fácil discutir a matéria em termos de suas propriedades do que explicar a sua natureza final.

A ENERGIA, então, é ainda mais difícil de definir que a matéria. Ela não tem peso e só pode ser medida quando está sendo transformada, ou ao ser liberada ou absorvida. Por isso, a energia não possui unidades físicas próprias, sendo expressa em termos das unidades do trabalho que realiza.

____________________________________________________________

____________________________________________________________…………………………………………..realidade…………..

Só quem bem compreende a natureza da ciência, poderá com proveito e prazer, e sem perplexidades, aplicar-se aos estudos científicos. Ciência não é coleção de conhecimentos nem busca da verdade absoluta, mas sim formação de conceitos (ao descrevermos o domicílio do homem no universo, nos utilizamos de vários deles). A Física não conta fatos, pois os seus termos: massa, energia, velocidade, não são realidades, e sim os conceitos fundamentais da Física, como, aliás, muito bem se diz, mas que freqüentemente nos escapa durante a leitura.

Os conceitos, então, são instrumentos do pensamento, artificialmente construídos, tais, como as chaves de parafusos, são instrumentos que servem para abrir um motor, o qual nada tem a ver com chaves de parafusos; são escadas, pelas quais subimos a uma casa eternamente fechada.” (KAHN, 1963). 

____________________________________________________________

____________________________________________________________

 

Não obstante, tendo em vista a semântica da física, na visão dos físicos, o Universo é constituído por partículas elementares subatômicas que se atraem e se repelem mutuamente por meio de campos de força. No entanto, as principais unidades da TEORIA QUÂNTICA DE CAMPOS não se comportam como bolas de bilhar. Isso quer dizer que, quando analisamos a constituição do mundo pela visão da teoria quântica de campos, nem partículas nem campos são fundamentais. Isso nos leva ao seguinte questionamento: O QUE É ESSENCIAL?

A busca pelo que é essencial ou pela essência das coisas é metafísica e foi deixado de lado pela ciência moderna. A partir do século XVII, o traço característico e fundamental da ciência natural exata – dita, aqui, fragmentária e parcial -, é a experiência analítica: esta decompõe em seus elementos, muitas vezes invisíveis, os fenômenos pré-científicos e cotidianos, para depois novamente reuní-los. Porém, esta tendência moderna para a análise segue, antes mais nada, a construção de aparelhos e seu uso para observações sempre mais exatas. Mas, o esforço para ser exato pressupõe um grande interesse por constatações numéricas exatas, o que leva a pesquisa numa direção inteiramente nova. De tudo isto resulta que a experiência analítica e a análise matemática estão em íntima relação e tal se expressa pelo fato de em ambas se traduzir na tendência construtiva da ciência moderna: aqui a Física se afasta da metafísica, deixando de buscar a concepção ontológico-substancial da realidade.

Nesta linha de raciocínio, podemos afirma que cientificamente falando: a física não sabe o que é matéria; a biologia não sabe o que é vida; a matemática não sabe o que é número; a informática não sabe o que é informação; a psicologia não sabe o que é alma; enfim, o que se sabe são as propriedades correspondente de cada objeto de estudo, específico para cada ciência. O que seja a coisa-em-si, como já foi dito, é uma área de estudo da metafísica.

Nesta construção da ciência moderna, eis que surge a ideia do “forçamento” (ou violação) da Natureza pelo homem através do método científico; ideia que é uma consequência, senão um pressuposto, da técnica moderna. Este forçamento, entretanto, se deu por conta do papel desempenhado pelo pensamento matemático. Ou seja, é por meio de tal pensamento que se torna possível a pesquisa analítica dos fenômenos naturais, sua decomposição em processos simples e controláveis em suas causas, e assim a construção de aparelhos tecnicamente mais perfeitos do que era capaz de produzir a cultura antiga que “nascia” da Natureza. Foi preciso antes de tudo destruir e decompor os conjuntos naturais para conseguir que as forças da Natureza agissem segundo a vontade do homem.

Este forçamento, entretanto, patrocinado pelo pensamento matemático, só se tornou possível pela “renúncia”, ou seja, pela eliminação da metafísica. No século XX, a questão de como fundamentar o uso da matemática na ciência levou ao “positivismo lógico” (Viena: M. Schlick, R. Carnap) e ao “empirismo lógico” (Berlim: H. Reichenbach). Tal atitude se inicia com o aforisma de Francis Bacon: Naturam renuntiando vincimus – pela renúncia vencemos a natureza. Assim, por mais paradoxal que pareça, o processo para arrancar à natureza seus mistérios e pôr suas forças a nosso serviço, se realiza renunciando ao conhecimento de sua “essência“. Aqui está o ponto em que a maneira especificamente matemática de pensar desempenhou seu papel: a “renúncia” tem por consequência uma limitação de respostas possíveis sobre a natureza. Em muitos casos esta limitação, a impossibilidade de dar diversas respostas, se deixa precisar matematicamente. Resulta daí que as possibilidades estruturais de formular matematicamente as leis da natureza são igualmente limitadas. A fórmula é sempre determinada e, em casos extremos, absolutamente imutável. Não é como se somente o processo, e não a causa, de um fenômeno fosse representável pelos meios matemáticos, mas que outros conhecimentos a que se renunciou podem ser conhecidos positivamente por métodos matemáticos.

Ontologicamente, à Física Moderna faz-se necessário um novo realismo: o realismo, não de objetos, mas de estruturas. Assim, alguns físicos teóricos, portanto, sugerem que basicamente o mundo é constituído de relações ou propriedades. Tal posição, em que as relações são tudo que existe e as propriedades possuem existência real, é chamada de REALISMO ESTRUTURAL ÔNTICO:

“Não conhecemos os objetos, mas suas relações, suas propriedades, suas estruturas, ou seja, ignoramos o que seja a realidade em si, e, tomando contato somente com os fenômenos, construímos os conceitos. A ontologia da substância é substituída pela ontologia da relação.”.

 

…………………………………………..…….

………………………………………….

MECÂNICA QUÂNTICA

Ortodoxia 

…………………………………………..

…………………………………………………….

wernerheisenberg

 _____________________________________

É bastante provável que na história do pensamento humano os desenvolvimentos mais fecundos ocorram, não raro, naqueles pontos para onde convergem duas linhas diversas de pensamento.

_____________________________________

Werner Heisenberg

________________________________________

_____________________

 

Os debates em torno dos fundamentos da mecânica quântica, constituíram-se em uma perene controvérsia filosófica e científica, desde o surgimento da teoria em 1926 até os dias de hoje. Nas primeiras décadas, tais debates se restringiam ao círculo de cientistas e matemáticos que participaram do estabelecimento das bases conceituais e formais da teoria, tais como Niels Bohr, Werner Heisenberg, Erwin Schrödinger, Albert Einstein, Wolfgang Pauli, Max Born e John von Neumann, entre outros. O resultado disso foi a consolidação da interpretação ortodoxa da teoria quântica, de cunho ANTIRREALISTA, articulada especialmente por Bohr.

____________________________________________________________

Solvay Physics Conference 1927 

____________________________________________________________

O modelo atômico de Bohr – estrutura mecânica construída sobre fundamentos “mais ou menos clássicos” -, não pôde explicar a razão da existência de certas órbitas permitidas (ou orbitais) em torno do núcleo atômico. A teoria da mecânica ondulatória de Erwin Schrödinger foi a primeira sugestão radical duma solução para as dificuldades fundamentais do modelo de Bohr. Entretanto,  esse físico austríaco defendia que todas as coisas poderiam, na “realidade”, ser representadas por ondas multidimensionais. Ainda que as equações diferenciais de Schrödinger para a descrição dos fenômenos subatômicos fossem muito aceitos pelos físicos, a sua interpretação geral não o era.

 

____________________________________________________________

 

Aristóteles

POTÊNCIA E ATO DE ARISTÓTELES.

 

____________________________________________________________

 

Para Aristóteles, ALGO pode existir ora como ato, ora como potência. Uma semente, por exemplo, é ato enquanto semente, mas é árvore enquanto potentia. O ato, portanto, é a existência concreta, a concordância ontológica daquilo que é como de fato é, e a potência é também uma existência tão real quanto o ato, mas é existência daquilo que está presente no ato enquanto suas possibilidades. Ou seja, a existência da árvore na semente é uma existência real, porque a árvore é uma potência real da semente, um desdobramento natural da mesma, seu fim, sua consequência. A árvore já está ‘contida’ na semente, e, portanto não existe enquanto ato, mas é real, na medida em que existe enquanto potentia. Analogamente, os objetos quânticos, mesmo que não possam ser medidos e localizados, mesmo que pareça não existir concretamente, são reais porque existem enquanto possibilidades, probabilidades, potências elementares da natureza. Assim, durante o salto quântico o elétron existe enquanto possibilidade de ser, potentia de vir a ser.

Analogamente, segundo Heisenberg, na teoria quântica todos os conceitos clássicos – quando aplicados ao átomo – encontram-se tão bem ou tão mal definidos como o de temperatura de um átomo: eles estão correlacionados com certas expectativas estatísticas acerca das propriedades atômicas; somente às instâncias raras, a expectativa, isto é, a probabilidade correspondente, equivalerá à certeza. E, de novo, como no caso da termodinâmica estatística clássica, é difícil considerar-se essa expectativa como algo objetivo. Talvez se possa chamá-la de tendência ou possibilidade objetiva, uma potencialidade, a potentia no sentido da física aristotélica. De fato, a linguagem que os físicos utilizam, ao falar sobre fenômenos atômicos, sugere em suas mentes algo semelhante ao conceito de potentia. E os físicos, assim, foram gradualmente se habituando a falar, por exemplo, de órbitas eletrônicas, não como uma realidade, mas sim como uma potentia.

A ideia de Heisenberg é a de que existem dois modos de realidade. A realidade enquanto coisa objetiva, que pode ser mensurada, e a realidade enquanto potentia, que pode apenas ser pensada abstratamente e instrumentalizada pelo mais profundo formalismo matemático da física quântica. Os objetos quânticos, ao contrário dos clássicos, são potentias neste sentido. Podemos afirmar que existem, mas existem neste modo: enquanto possibilidades objetivas e não como objetos ou eventos mensuráveis, que perdura determinado tempo em alguma parte do espaço.

Do mesmo modo, a filosofia que se encontra por trás do dualismo onda-corpúsculo, estabelece que a interpretação dos resultados depende do tipo de experiência que é realizada. Essa linha produtiva de raciocínio foi iniciada por Niels Bohr. Foi ele o primeiro a reconhecer que era impossível sujeitar à observação simultânea os dois aspectos distintos do elétron, ou seja, o seu caráter de onda e o de corpúsculo. Esse é um princípio limitador que governa as condições experimentais e limita a informação que pode ser obtida das experiências.

 

____________________________________________________________

____________________________________________________________

Prof. José Evangelista de Carvalho Moreira (UFC).

____________________________________________________________

____________________________________________________________

Essa ideia está expressa compreensivelmente no Princípio de Complementaridade de Bohr. Em toda a filosofia da ciência, esse conceito elaborado de forma teórica é, seguramente, a contribuição mais importante depois da publicação, por Immanuel Kant, da Crítica da Razão Pura em 1781 (e a segunda edição, revista, de 1787). Esse trabalho do filósofo de Könisberg é a revisão de maior autoridade da Física do seu tempo – a Física Newtoniana. Quando essa teoria clássica começou a falhar na explicação dos fenômenos subatômicos, o primeiro passo corajoso no sentido de introdução de conceitos novos foi dado por Niels Bohr. Além dele, o jovem físico alemão Werner Heisenberg conseguia, na segunda metade da década de vinte, obter uma compreensão mais clara da nova situação da física. Adotou então uma atitude filosófica baseada no extremo empiricismo, que recusava aceitar quaisquer das imagens ou modelos da física moderna. Por exemplo, no modelo atômico de Bohr, os físicos se referiam à “posição” e ao “período de revolução” de um dos elétrons do átomo. Essas noções formavam uma herança da mecânica newtoniana e, em relação aos elétrons atômicos, eram classificadas como “não-observáveis”. Heisenberg considerou essas “noções imaginárias” como sendo algo sem sentido, desprovido de qualquer fundamento.

Entretanto, muito surpreendia a Heisenberg as ideias matemáticas de Platão sobre a matéria: reduzidas a conceitos matemáticos, tais ideias platônicas se coadunavam com a teoria matemática de Heisenberg sobre as partículas subatômicas.

____________________________________________________________

____________________________________________________________

 

A TEORIA “PITAGÓRICA” DE PLATÃO SOBRE A MATÉRIA

________________________________________________________________________________

“O termo ‘elemento’ (do grego stoicheia) foi cunhado pela primeira vez por Platão em 360 a.C. em seus diálogos com outro filósofo grego, Timeu de Lócrida, onde discursa sobre a composição dos corpos orgânicos e inorgânicos, considerada atualmente como um tratado rudimentar de química. Platão compôs sua teoria física baseando-se em um modelo geométrico, ao perceber que uma teoria sobre a natureza de caráter puramente aritmético era impossível, sendo preciso um novo método matemático para a descrição do mundo. Desse modo, elaborou um método geométrico que veio até mesmo a influenciar Euclides. A teoria platônica propôs uma versão geométrica para a teoria atômica de Demócrito, usando o triângulo como o elemento básico de seu modelo de partículas elementares, construindo a partir dele os sólidos geométricos. Cada elemento de Empédocles foi associado a um sólido geométrico na forma de partícula; assim, o cubo fora associado à terra por ser o mais imóvel dos quatro elementos, seguido pela ordem da estabilidade: o icosaedro à água, o octaedro ao ar e o tetraedro ao fogo. Nesta teoria dos quatro elementos Aristóteles acrescenta, em torno de 350 a.C., um quinto elemento ou “quintessência”, que formaria os céus, representado pelo dodecaedro. Com base nesta lógica, vários pensadores especularam ao longo dos dois mil anos seguintes sobre as formas geométricas possíveis, como os círculos, quadrados, polígonos, etc., (ou seja, os elementos) e como essas formas poderiam se combinar, se repelir, ou interagir umas com as outras para criar novos elementos.

“Aqui, o que diz, o eminente físico teórico W. Heisenberg, a respeito dos triângulos elementares de Platão: “Os triângulos não são matéria, mas são simples formas matemáticas, e a questão do porquê dessas partículas elementares é reduzida por Platão à matemática. As partículas elementares têm a forma que lhes é atribuída por Platão porque tal é a forma mais bela e mais simples. A última causa dos fenômenos, portanto, não é a matéria, mas a lei matemática, a simetria, a fórmula matemática”. E Heisenberg explica por esta mesma tendência à simetria sua própria teoria sobre as partículas elementares hoje conhecidas, por mais que no decurso de mais de dois milênios se tenha modificado a posição da física. Com a descoberta, feita por Planck, dos quanta energéticos, de novo entrou na ciência natural a ideia platônica “que na base da estrutura atômica da matéria está em última análise uma lei matemática, uma simetria matemática.” (Oskar Bexker)

____________________________________________________________

____________________________________________________________

Heisenberg, então, sugeriu um novo programa para o desenvolvimento de uma MECÂNICA QUÂNTICA TEÓRICA, análoga à mecânica clássica, na qual apareceriam apenas relações entre quantidades observáveis

Este conceito foi introduzido na Física e, em especial, na Mecânica quântica, por Dirac. Na Física clássica, a possibilidade de observação de uma propriedade física se admite a priori, porém não ocorre o mesmo em Mecânica quântica. Em Mecânica clássica uma variável dinâmica, relativa a qualquer estado físico de um sistema físico, vem dada como uma função definida no tempo. Tal variável, assim, pois, determinada, é, portanto, medível em qualquer instante. Em Mecânica quântica, o dualismo onda-corpúsculo faz com que isto não seja possível. Um sistema elementar aparece ora como onda, ora como partícula; quer dizer, algumas vezes observamos propriedades ondulatórias e outras vezes propriedades corpusculares. Num mesmo instante, não podemos efetuar ambos os tipos de observações: uma observação exclui a outra. Chama-se observável uma magnitude tal que é medível em um instante determinado. A descrição de uma observação no domínio da Mecânica quântica é a mesma que na Física clássica: a observação proporciona um número, como resultado da medição. Na Física clássica, se pode seguir o curso temporal de um acontecimento mediante uma sucessão de observações; porém não se pode fazer assim na Mecânica quântica, pois no domínio da microfísica cada medição modifica o estado do objeto e a forma em que aparece. Portanto, depois de uma medição, deveria recobrar-se o estado inicial antes de poder efetuar-se uma segunda observação. Naturalmente, o resultado desta segunda medição depende de uma maneira direta da primeira medida.

São observáveis, por exemplo, a posição, o impulso, a energia, o spin, porém não são observáveis os estados que são representados pela função Ψ.

A magnitude matemática que representa um observável, precisamente não é um simples número, mas sim um operador. Porém os operadores só podem considerar-se como números dentro de certos limites. Assim, nem todo operador é comutativo ou permutável quanto à multiplicação; por exemplo, o operador de spin é anticomutativo. Nestes casos se fala também de observáveis anticomutativos (ou, bem, de operadores comutativos ou permutáveis).

____________________________________________________________

____________________________________________________________

bunge

A filosofia EMPIRISTA – INDUTIVISTA, ainda presente na Física e na ciência em geral, precisa ser substituída por uma visão filosófica mais contemporânea, que ajuda o cientista a ser mais crítico e criativo.

_________MÁRIO BUNGE__________

____________________________________________________________

____________________________________________________________

 

Heisenberg rejeitava, portanto, o conceito de órbitas eletrônicas com raios definidos e períodos de revolução, porque esses não eram observáveis, e recomendava que fosse construída uma matemática que desse conta dos fenômenos observados, dos observáveis.

A realização desse programa formava o que se conhece como “Mecânica das Matrizes”, e foi aperfeiçoado com a colaboração do professor de Heisenberg, Max Born, e de Pascual Jordan.

Tudo começou quando “afortunadamente” em 1925, acometido de febre do feno, Heisenberg tirou uma licença de duas semanas e viajou para a ilha de Helgoland, ao largo da costa da Alemanha. Ali, lembrou mais tarde, a natação no mar frio e longas caminhadas na praia limparam-lhe a mente para um ataque revigorado à matemática do átomo. Apenas alguns dias depois de iniciado o passeio, fez uma importante descoberta. Com uma estranha matemática que inventou para esse fim, Heisenberg começou a perceber um meio de construir uma estrutura para a descrição do comportamento dos átomos. Essa abordagem matemática exigia uma estranha álgebra em que números multiplicados numa direção forneciam com frequência produtos diferentes dos obtidos multiplicando-se os mesmos números na direção oposta. Heisenberg voltou para Göttingen eufórico com suas descobertas nascentes e ancioso para falar sobre elas com Max Born. Este identificou a estranha matemática de Heisenberg como álgebra matricial, um sistema que havia sido inventado na década de 1850 mas nunca fora ensinado a Heisenberg: na concepção de Heisenberg, cada átomo seria representado por uma matriz e o movimento dos elétrons no interior do átomo poderia ser representado por outra matriz (figura abaixo).

____________________________________________________________

____________________________________________________________

matriz heisenberg

____________________________________________________________

____________________________________________________________

 Prof. Tarcísio Haroldo Cavalcante Pequeno (UFC).

____________________________________________________________

____________________________________________________________

Bohr explicava a transição entre dois quaisquer estado energéticos do átomo por meio dum salto do elétron duma órbita representativa dum estado à outra. Associado a esses saltos quânticos, sempre aparecia um fóton que era radiado ou absorvido, de acordo com o sentido do salto eletrônico.

Novamente, Heisenberg se opunha a essa imagem transitória com seu mecanismo desconhecido. Ele reconhecia que, na observação experimental dos átomos, somente os níveis energéticos discretos “estacionários” podiam ser estabelecidos. Não determinamos experimentalmente os detalhes do que ocorre quando um elétron atômico muda dum estado a outro, como também não decidimos se o elétron descreve uma órbita no sentido clássico ou se comporta como uma onda estacionária ao redor do núcleo. Qualquer modelo explanatório que possamos construir só pode ter a finalidade duma melhor compreensão, representando apenas uma especulação. Contudo, é óbvio que, não sendo observadas certas circunstâncias, esses modelos podem mesmo levar à confusão. Por outro lado, uma certa regularidade na forma das transições entre os níveis energéticos discretos pode ser estabelecida experimentalmente, na qual o estado fundamental do átomo ocupa um papel prioritário.

____________________________________________________________

____________________________________________________________

heisenberg

Heisenberg e Bohr, 1935

____________________________________________________________

____________________________________________________________

Enfim, com respeito ao acabamento do desenvolvimento da mecânica das matrizes, podemos citar as próprias palavras de Max Born:

“O período de tentativas chegou subitamente ao fim, com o trabalho de Heisenberg, que era meu assistente naquele tempo. Ele cortou o nó górdio com um princípio filosófico novo e substituiu o raciocínio por uma regra matemática. Em essência, o princípio significava que noções e conceitos que não correspondessem  a nenhum fato fisicamente observável não poderiam ser usados em qualquer descrição teórica”.

Assim, Werner Heisenberg aperfeiçoa o chamado cálculo matricial sobre bases estritamente probabilísticas, com a especial circunstância de que a matéria parece reduzir-se ao mero cálculo matemático. Donde pela primeira vez a imagem é varrida por completo da física. Com o cálculo de matrizes a matéria já não é partícula nem onda nem nenhuma outra coisa susceptível de descrição, mas aquilo que cumpre um puro esquema matemático regido pelos princípios da simetria.

Constata-se, então, que o conceito do átomo de Bohr é uma representação tridimensional grosseira de um átomo tetra dimensional que termina por não parecer em nada com a realidade; e, longe de ser uma ilustração didática, acaba sendo uma confusão de conceitos. Daí, Heisenberg, assim como seu companheiro Pauli, adota um número complexo de quatro termos (para cada dimensão) como único coisa necessária para tratar com o átomo.

Heisenberg havia apresentado seu próprio modelo de átomo renunciando a todo intento de descrever o átomo como um composto de partículas e ondas. Pensou que estava condenado ao fracasso qualquer tentativa de estabelecer analogias entre a estrutura atômica e a estrutura do mundo macroscópico. Preferiu descrever os níveis de energia e órbitas dos elétrons em termos numéricos puros, sem o menor traço de esquemas. Como usou um artifício matemático denominado “matriz” para manipular seus números, o sistema se denominou, como já foi dito aqui, “mecânica de matriz“. 

Mas o ponto decisivo nesta construção era o dualismo corpúsculo-onda e a questão do influxo do “observador” sobre os processos físicos “reais” e “objetivos”. É sabido que o lugar e o impulso de uma partícula não podem ser simultaneamente, isto é, pela mesma experiência, medidos com exatidão. Quando se consegue medir exatamente uma das duas grandezas “complementares” (lugar e impulso, tempo e energia), a outra desaparece; no caso extremo da máxima exatidão na medição da primeira grandeza, a segunda não pode ser absolutamente medida. Tal é o conteúdo essencial das “relações de indeterminação” de Heisenberg.

Niels Bohr elaborou em 1927, depois de longas discussões, o conceito fundamental de complementaridade, que há pouco empregamos. Introduziu duas concepções inteiramente distintas para os processos quânticos, que são complementares no sentido que só podem existir lado a lado sem contradição quando seu alcance é limitado de tal modo que nunca são utilizadas ao mesmo tempo. Dependendo da experiência, a “partícula elementar” se mostra ora como corpúsculo, ora como onda.

____________________________________________________________

____________________________________________________________

QUANTUM E O EXPERIMENTO DA DUPLA FENDA

______________________________________________________________________

Analisando o experimento da dupla fenda no vídeo acima, o Dr. Quantum adota um ponto de vista clássico, realista, na descrição do deslocamento do elétron ao longo de sua “trajetória” até encontrar a parede detrás, passando antes pelas fendas. Entretanto, a interpretação da mecânica quântica dada pela Escola de Copenhagen – a qual está fundada no anti-realismo (não realismo) dualista (onda-partícula), baseado na exclusão mútua constituída pelo Princípio da Complementaridade de Niels Bohr -, reprova todo este exercício de imaginação, ou seja, a “trajetória” ou a “localização” do elétron no tempo e no espaço não é um observável.

____________________________________________________________

____________________________________________________________

Entretanto, Heisenberg encara a questão de outro modo, o que é de particular importância para o nosso problema sobre o papel da matemática. Como vimos, acima, parte da hipótese que só se verificam na natureza, ou só podem ser processados experimentalmente, processos que se deixam representar como vetores  (ou mistura de vetores)(observáveisno espaço de Hilbert de muitas dimensões, numericamente infinitas. Modelo para Heisenberg era a teoria da relatividade restrita que igualmente representa a realidade física por vetores em meio ao “mundo” quadridimensional. Mas um vetor num espaço de Hilbert de dimensão infinita (ou na matriz hermitiana correspondente) não é intuitivo; não o é tão pouco a equivalente representação por uma onda no espaço de configuração segundo Schödinger; pois o espaço-configuração tem 3n dimensões para n partículas. Trata-se de uma simples analogia para uma onda intuitivamente tridimensional. A tentativa de uma interpretação intuitiva leva-nos novamente às duas imagens complementares (corpúsculo e onda) de Bohr.

Em meio a todas essas complexas tentativas de solução pergunta-se: o que dizer sobre a realidade física dos processos quânticos?

N. Bohr fala da “impossibilidade de uma distinção exata entre o comportamento de objetos atômicos e a influência sobre eles exercida pelos instrumentos medidores, que servem para determinar as condições em que os fenômenos se manifestam”.

Segundo Heisenberg, mesmo tendo em vista tal impossibilidade de distinção, pela intervenção de um observador não se introduz qualquer traço subjetivista na descrição da natureza, o que não deixa de ser muito importante do ponto de vista “filosófico”. Segundo ele, o observador tem simplesmente a função de registrar fatos que se verificaram no tempo e no espaço, pouco importando que o “observador” seja um aparelho que funciona automaticamente ou um ser vivo (de modo especial um homem que entende do assunto). O que entretanto é absolutamente necessário é a passagem do possível ao “factual” dentro do processo atual do registro. Este último ponto de Heisenberg se relaciona – o que ele mesmo nota – com a seguinte consideração de Weizsaecker: somente fatos futuros são ainda possíveis, os passados são simples fatos. Não tem sentido perguntar sobre a probabilidade (isto é, sobre a possibilidade quantitativamente determinável) de sua realização, pois já são reais. O que de fato já aconteceu não pode ser objeto de indagação quanto à possibilidade ou probabilidade de sua realização. Assim um fato histórico, como a do registro de um elétron pelo contador de Geiger, não entra numa teoria como a mecânica quântica que se ocupa de possibilidades (probabilidades).

Qualquer SISTEMA QUÂNTICO separado do mundo exterior só tem um caráter potencial, não factual; por isto, segundo Bohr, ele não pode ser descrito por conceitos da física clássica. O estado representado por um vetor de Hilbert (não por uma combinação estatística de vetores), aplicado a um sistema fechado, é, segundo Heisenberg, objetivo, mas não real, pois nele não se pode verificar um fato historicamente constatável em nosso mundo macroscópico (tais como a revelação de uma chapa fotográfica, a indicação de um instrumento, e semelhantes aparelhos de que nossas salas de física estão cheias). Portanto, a concepção clássica de objeto-real deve ser abandonada.

Assim, à luz da interpretação de Copenhague (ou, da ortodoxia da mecânica quântica), da teoria dos quanta, a oposição tradicioanal entre “realismo” e “idealismo” não pode mais ser empregada e as teoria tradicionais do conhecimento fracassam. Os processos que se verificam no tempo e no espaço de nosso ambiente diário são propriamente o real e deles é feita a realidade de nossa vida concreta. “Quando se tenta, diz Heisenberg, penetrar nos pormenores dos processos atômicos que se ocultam atrás desta realidade, os contornos do mundo “objetivo-real” se dissolvem, não nas névoas de uma nova imagem obscura da realidade mas na clareza diáfana de uma matemática, que conecta o possível (e não o “factual”) por meio de suas leis”.

………………………………………………………….

……………………………..

MECÂNICA QUÂNTICA

Matriz-S 

Filosofia de Bootstrap – Universo Holográfico

Teoria das Cordas

………………………………………….

 

chew

_______________________________________________________________

Atualmente, existem duas escolas de pensamento na física de altas energias (HEP) com pontos de vistas fortemente opostos com relação à constituição da matéria. A maioria dos físicos são “fundamentalistas”, aqueles que tentam reduzir a natureza a fundamentos, e procuram pelos “blocos básicos de construção” da matéria. Em oposição aos “fundamentalistas”, estão os “bootstrapers”, que procuram entender a natureza através da auto-consistência, e acreditam que toda a Física segue-se unicamente (ou seja, sem conter qualquer parâmetro arbitrário) da necessidade de que os seus componentes sejam consistentes uns com os outros e com eles próprios.

 

_________Geoffrey Chew_________

____________________________________

 

A teoria da matriz S foi uma proposta para substituir a teoria do campo quântico local como o princípio básico da física de partículas elementares.

Evitou a noção de espaço e tempo substituindo-a por propriedades matemáticas abstratas da matriz S. Na teoria da matriz S, a matriz S relaciona o passado infinito ao futuro infinito em uma etapa, sem ser decomponível em etapas intermediárias correspondentes a fatias de tempo.

Este programa foi muito influente na década de 1960, porque era um substituto plausível para a teoria quântica de campos , que era atormentada pelo fenômeno de interação zero em forte acoplamento.

Assim, no período do Pós-Guerra, a teoria da Matriz-S parecia formidável. Neste ínterim, ao redor da década de 1960, tornou-se uma teoria promissora. Em primeiro lugar, não precisava assumir a existência de partículas elementares (como, de fato, não assumia). Em segundo lugar, explicava a “força forte” . A teoria da Matriz-S oferecia “oportunidades” para os físicos teóricos de partículas. A teoria quântica de campos, por sua vez, malograva em fazer o mesmo.

A teoria da matriz S, entretanto, foi abandonada pelos físicos na década de 1970, quando a cromodinâmica quântica foi reconhecida por resolver os problemas de interações fortes dentro da estrutura da teoria de campos.

Hodiernamente, aplicado à interação forte, levou ao desenvolvimento da teoria das cordas. Ainda, sob o disfarce da teoria das cordas, a teoria da matriz S ainda é uma abordagem popular para o problema ada gravidade quântica.

A teoria da matriz S está relacionada com o princípio holográfico e a correspondência AdS/CFT por um limite de espaço plano. O análogo das relações da matriz S no espaço AdS é a teoria da conformação da fronteira.

____________________________________________________________

EMARANHADOS NO ESPAÇOTEMPO

Hologramas Cósmicos

____________________________________________________________

 

O legado mais duradouro mesmo da teoria é a teoria das cordas. Outras realizações notáveis ​​são o limite de Froissart , e a previsão do pomeron.

A partir de uma “Bootstrap Completa”, delineia-se uma verdadeira filosofia da natureza. A concepção de que a existência de um sistema hadrônico é dada pela sua auto-consistência leva a uma visão holística da natureza. Nas palavras do próprio Chew: “A hipótese da auto-consistência nos conduz a conceber que, para que um único hádron sequer possa existir, a família inteira de hádrons deve existir em uma estrutura de suporte mútuo”. Fritjof Capra – autor best-seller, discípulo e membro do grupo de pesquisa de Chew na década de 1970 – não foi nem o primeiro e nem o último a notar que o modelo de Bootstrap levava a uma “visão de mundo”. Devido ao Zeitgeist em que estava imerso, Capra o associou a filosofias orientais. O modelo de Bootstrap foi associado, no entanto, a diversas filosofias da natureza, a depender do especialista que refletiu sobre o modelo de Bootstrap.

Deve-se acrescentar que o modelo de Bootstrap leva a uma representação aparentemente paradoxal da Natureza. Ao não supor nem parâmetros empíricos arbitrários, nem entidades ou propriedades físicas não observáveis, o modelo não assume a existência de partículas elementares. No modelo de Bootstrap, ainda se fala em partículas, mas não mais as diferencia, entre compostas e elementares. (…) Isto devido ao fato de ser comprovado, através do modelo de Bootsstrap, que no nível quântico há uma coincidência entre a “parte” e o “todo”. Não apenas o “todo” contém a “parte”, mas a “parte” também contém o “todo”. Há uma coincidência dos opostos. Ademais, no modelo de Bootstrap, nenhuma partícula é mais fundamental, ou elementar, do que as demais partículas, o que Chew chamou de “democracia nuclear” (enquanto chamava de “fundamentalistas” os defensores da teoria quântica de campos).

Portanto, a filosofia da natureza resultante, que emergiria de uma teoria de Bootstrap Completa, capaz de abranger todas as partículas e suas interações, assemelha-se a um universo holográfico. Sabe-se que o holograma possui uma característica única, a saber, cada uma de suas partes contém a informação do todo. Esta Naturphilosophie holográfica seria explorada e apropriada pela ciência “New Age” a partir da década de 1980 (o chamado “paradigma holográfico”). Neste sentido, a Filosofia de Bootstrap, nascida na década de 1960, seria considerada pioneira do “paradigma holográfico”.

O trabalho de David Bohm de 1952 é um exemplo nas ciências físicas de um “paradigma holográfico” (através de sua interpretação determinista da mecânica quântica de 1952 e a de sua teoria do holomovimento apresentada em seu livro “A Totalidade e a Ordem Implicada” de 1980). Bohm reformulou uma interpretação determinista da mecânica quântica em 1952 muito próxima daquela formulada pelo físico francês Louis de Broglie em 1927.

A Filosofia de Bootstrap, por sua vez, se harmonizava com os princípios ecológicos, se insurgia contra o atomismo-mecanicista das ciências ocidentais, se rebelava contra o establishment científico, e espelhava a mensagem das filosofias orientais; como refletiria Capra depois sobre o seu ensaio de 1974: “Nesse ensaio, argumento que o contraste entre os ‘fundamentalistas’ e os ‘bootstrappers’ na física das partículas reflete o contraste entre duas correntes prevalecentes no pensamento do Ocidente e do Oriente”.

…………………………………………………

………………………………………….

LÓGICA E ONTOLOGIA

Teorema de Bell

…………………………………………..

…………………………………………………….

 

bell

JOHN BELL

____________________________________________________________

____________________________________________________________

O físico John Bell toma um caminho que parece se coadunar com o de Heisenberg. Para Bell, não se trata apenas de um problema de linguagem, trata-se de uma questão de Lógica e de  Ontologia, ou seja, o problema está em pensar o “universo” e “espaço-tempo” como dois conceitos relacionados pela lei de identidade A=A. Se esta relação fosse o caso, e se o elétron não se encontra no espaço-tempo, logo não se encontra no universo, e como o universo é tudo que existe, logo o elétron não existe durante o “salto quântico“. Como universo é tudo que existe, ao identificar “universo” com “espaço-tempo”, chegamos ao absurdo de formularmos, ou que alguma coisa existe fora daquilo que contêm todas as coisas, ou que algo desaparece da existência, e a ela retorna, vindo de lugar algum e indo para um nada absoluto. Bell elaborou um teorema para elucidar a questão, segundo o qual, os sinais não-locais e os saltos quânticos só são paradoxais se aceitarmos que a única realidade possível é o espaço-tempo descrito pela teoria relativística, contudo, se introduzirmos uma Realidade não-local, o paradoxo desmorona. Isto equivale a alargar nosso conceito de “universo”, não aceitando a identidade A=A entre “universo” e “espaço-tempo”. Penso que é o caso de dizermos que “Todo o espaço-tempo (S) é Universo (P)”. Dizermos que todo S é P, é inserirmos S no universo de P, ou seja, é tomarmos S como elemento do conjunto P. “Todo S é P”, neste sentido, implica que “Algum P é S”. Alguma parte do universo é espaço-tempo, ou, o espaço-tempo corresponde a alguma quantidade dos elementos do conjunto “universo”, mas não a totalidade de elementos. Durante o salto quântico, os elétrons (X) não existem em S, mas permanecem como entes, ou elementos, de P. Segundo Bell, as partículas correlacionadas estão ligadas por elos não-locais, ou seja, estão vinculadas para além do espaço-tempo, é por isso que interações quânticas instantâneas são possíveis, e que os saltos quânticos ocorrem. Um enunciado “belliano” para o salto quântico seria: “Durante o salto quântico o elétron existe (X é P) em outro nível de realidade que transcende os limites físicos do espaço-tempo (S)”.

Sete décadas, portanto, após o nascimento da mecânica quântica, a natureza desta novidade da causalidade foi esclarecida pelo teorema teórico rigoroso de Bell e por experimentos de grande precisão. Um novo conceito assim se introduziu na física: a não-separabilidade.

As entidades quânticas continuam a interagir independentemente da sua distância. Aparentemente, surge um novo tipo de causalidade – uma causalidade global que diz respeito ao sistema de todas as entidades físicas, como um todo.

____________________________________________________________

____________________________________________________________

Donde as entidades quânticas os quanta são corpúsculos e ondas ou, mais precisamente, não são nem partículas nem ondas.

Daí as célebres relações de Heisenberg mostrarem, sem qualquer ambiguidade, que é impossível localizar um quantum em um ponto preciso do espaço e em um ponto preciso do tempo. Em outras palavras, é impossível atribuir uma trajetória bem definida a uma partícula quântica. Mas tal indeterminismo que prevalece na escala quântica é um indeterminismo constitutivo fundamental e irredutível que não significa acaso ou imprecisão: “uma matemática, que conecta o possível (e não o “factual”) por meio de suas leis”.

…………………………………………..

…………………………………………..

…………………………………………………….

MEDIDA

Ôntica e Ontológica

………………………………………….

…………………………………………………….

medidaontica

____________________________________________________________

____________________________________________________________

 

HÁ DOIS MODOS DIFERENTES de medir, ressaltava o filósofo grego Platão. Um envolve números, unidades, uma escala e um ponto de partida. Estabelece que uma propriedade é maior ou menor que outra, ou atribui um número a quanto de uma dada propriedade algo possui. Podemos chamá-lo de medição “ôntica”, empregando o termo aplicado por filósofos a objetos ou propriedades reais de existência independente. A mensuração ôntica evoluiu a partir de improvisadas medidas corporais e artefatos desconexos até chegar a uma rede universal que relaciona muitos tipos diferentes de medição e, em última instância, os vincula a padrões absolutos – constantes físicas.

Todavia, existe outro modo de medir que não envolve colocar-se ao lado de um bastão graduado ou de um prato de balança. Esse é o tipo de medição que Platão dizia ser guiado por um padrão “apropriado” ou “correto”. Essa forma de medir é menos um ato do que uma experiência; a experiência de que as coisas que fizemos são – ou nós mesmos somos – menos do que poderiam ou deveriam ser. Não podemos efetuar esse tipo de medição seguindo regras, e ela não se presta a quantificação. Será apenas uma medição “metafórica”. Ela é uma comparação relativa a um padrão. Colocadas junto a exemplo apropriado ou correto, as nossas ações – e até nós mesmos – não são suficientes; é possível ser mais. Sentimos que não estamos à altura do nosso potencial. Podemos chamar essa medição de “ontológica”, conforme o termo que os filósofos usam para descrever a maneira como algo existe.

A medição ontológica não envolve uma propriedade específica, em sentido literal, pois não envolve nada quantitativo. Podemos calcular tudo que nos aprouver; jamais produziremos esse tipo de medição. Não há nenhum método que nos leve a ela. A medição ontológica nos liga a algo transumano, algo de que participamos, não algo que comandamos. Enquanto na medição ôntica comparamos um objeto a outro exterior a ele, na medição ontológica nós nos comparamos, ou alguma coisa que tenhamos feito, com algo no qual nosso ser está implicado, com o qual está relacionado – tal como um conceito de bom, justo ou belo. A medição ontológica é onticamente imensurável.

Como facilmente constatamos, ao ôntico corresponde o ponto de vista objetivo e, ao ontológico, o ponto de vista subjetivo:

“Geralmente estamos convencidos de que entre as várias experiências, tanto pessoais como impessoais, existem algumas que compartilhamos com nossos colegas. Quando minha esposa tem uma dor de dentes, então isso é uma experiência ‘subjetiva’ dela. Não obstante eu possa imaginar sua dor e mesmo mostrar minha simpatia, não sinto essa dor. Mas se ela diz: ‘Veja como o céu está azul hoje’ e eu concordo, então fico convencido de que vemos o mesmo ‘azul’; esta é uma experiência ‘objetiva’, compartilhada com qualquer um que esteja olhando o céu. Apesar disso, não há realmente nenhuma diferença: você vê o ‘seu azul’, eu vejo o ‘meu azul’ e não há um meio de conseguir que eu veja o seu azul e você veja o meu. Como nos convencemos de que estamos vendo a mesma coisa?

Em primeiro lugar, somos feitos como todos os outros animais. O inseto, que voa em direção a uma flor, é atraído pela cor, pelo perfume e pela forma, da mesma maneira como todos os outros insetos. A mesma coisa ocorre aos seres humanos na vida quotidiana. Uma observação que impressione um de nossos sentidos, tal como a vista do azul do céu, é um caso relativamente raro; em geral, mais de um dos sentidos são impressionados de forma que, a observação das coisas que são perceptíveis aos diferentes sentidos, nos chega sem nenhum esforço consciente.

Mas, há um outro ponto importante: não obstante uma simples impressão sensorial seja completamente subjetiva e não comunicável, o mesmo não se dá quando temos duas impressões no mesmo órgão sensitivo.

Existem muitas tonalidades do azul; por exemplo, pálido, escuro, avermelhado e esverdeado. Se duas dessas tonalidades são observadas por duas pessoas, é quase certo que haverá acordo entre elas sobre se as tonalidades são as mesmas ou distintas. Assim, podemos classificar as impressões sensoriais como pertencentes à classe das experiências objetivas, desde que consideradas aos pares. Sobre este claro reconhecimento da similaridade ou não de pares de impressões sensoriais é que estão baseados todos os meios de comunicação entre as pessoas, em particular nossas linguagens escritas e faladas.

Tomemos, por exemplo, pares de letras: que AA são similares e que AB não o são, eu posso concordar com qualquer um, mesmo com alguém que não saiba como A e B são pronunciados. Assim, letras são ‘objetivas’ no sentido de que são facilmente transmissíveis. A matemática é a forma mais altamente desenvolvida de comunicação por meio de sinais que intrinsecamente não teriam sentido.

O conhecimento científico, em especial a Física, também se enveredou pelo caminho que leva ao desenvolvimento de pares de impressões sensoriais, ao invés de impressões isoladas: se o indicador de um instrumento de medida sofre uma deflexão até certo ponto da escala de medida, isso indica não só uma porção de escala que foi percorrida, mas também o valor de uma propriedade física, por exemplo, a intensidade da luz. Ou seja, a Física busca sempre a objetividade no tratar com os seus objetos de estudo.” (BORN, 1972).

…………………………………………..

…………………………………………………….

PROBLEMA DE MEDIÇÃO

 

A Física Moderna

Vira Matemática

………..

…………………………………………..

…………………………………………..

 

A Física Moderna transformo-se em matemática. Mas as pessoas preferem impressões visuais a palavras abstratas e fórmulas. Jornais, revistas ilustradas, filmes, televisão, internet, tudo contribui para reforçar essa preferência. A principal dificuldade em apresentar as ideias físicas através de figuras claras e lúcidas ou ilustrações, é que nem sempre a Física admite figuras bem definidas; pelo contrário, frequentemente usa uma variedade de figuras diferentes para a representação e interpretação de um mesmo processo. Exemplo clássico disto é o elétron para cuja representação se pode utilizar uma “onda” ou uma “partícula”.

Acima, verificamos dois fatos históricos que são fundamentais à critica do filme “Quem Somos Nós?”. O primeiro se deu ainda na Antiguidade quando Parmêncides e Heráclito discutiam sobre o MOVIMENTO.  O segundo ocorreu quando da criação da MECÂNICA QUÂNTICA. Ambos os fatos históricos se relacionam com o problema da MEDIDA na matemática e na física.

Quando, então, da medida ôntica da hipotenusa no Triângulo Retângulo Isósceles, o Mundo Grego Antigo desabou: isto se deu por causa da descoberta dos INCOMENSURÁVEIS e a consequente constatação do infinito nas medidas.

Abaixo, na figura, temos o pentagrama – símbolo dos pitagóricos -, através do qual se demonstra a aparição do infinito nas medidas.

____________________________________________________________

____________________________________________________________

pentagramapentagramaww

Constatação do Infinito nas Medidas e a Descoberta dos Incomensuráveis

________________________________________

 

Traçando as diagonais (ver figura acima) de um pentágono regular obtemos um pentagrama; no interior deste  podemos  construir outro pentágono, o qual, traçando também suas diagonais, obtemos mais um pentagrama, e assim sucessivamente de modo que a figura é sem fim em seu interior. Mas podemos  medir um lado do pentágono, seja de DE, pela diagonal AC simetricamente oposta; neste caso o quadrilátero ED’CD é um paralelogramo e, portanto, CD’ = DE. Daí, o lado DE ou CD’ está contido uma vez na diagonal CA, ficando o resto AD’. Quando se mede AD’ em AE’ (que é igual ao lado DE da mesma forma) está aí contida uma vez deixando o resto E’D’. Ora, E’D’ é o lado do pentágono interno A’B’C’D’E’ e a diagonal deste C’A’ é igual a D’A (pois AD’A’C” é um paralelogramo. Depois a mesma relação se repete e o processo da “diminuição recíproca” continua sem fim, INFINITO!

Foi este interessante resultado que chamou a atenção de Zenão que pôs fim ao domínio da Escola de Pitágoras. Hodiernamente, a menor distância alcançada ou concebível na prática em experiências da física atômica é o COMPRIMENTO DE PLANCK:  cerca de 1 para 1020 do diâmetro de um próton!

____________________________________________________________

____________________________________________________________

Contribuindo para a solução dos problemas científico-filosóficos advindos com a descoberta dos incomensuráveis, Parmênedes, na Antiguidade Grega, foi o primeiro pensador a contribuir para o início da epistemologia ao distinguir aquilo que era objeto puramente da razão (o que chamou de verdade) e o que era dado pela observação, pelos sentidos (o que denominou de opinião). Opondo, então, a razão à opinião, o Eleata estabeleceu um critério segundo o qual somente o conhecimento dado pela razão tinha valor científico-filosófico.

Foi exatamente um discípulo de Parmênides, Zenão de Eléia, sabendo da problemática dos pitagóricos na modelagem do movimento e usando o conceito de razão (verdade) de seu mestre, passa a destruir todo o edifício construído pelos discípulos de Pitágoras. Assim, matematicamente, o movimento não podia mais ser explicado, pois, o conhecimento dado pela verdade, pela razão, o contradizia. Logo, por dedução, concluiu-se que todo movimento não passava de pura ilusão.

_____________________________________________________________

_____________________________________________________________

caverna

_______________________________________

Mito da Caverna

_______________________________________

Platão descreve que alguns homens, desde a infância, se encontram aprisionados em uma caverna. Nesse lugar, não conseguem se mover em virtude das correntes que os mantém imobilizados.

Virados de costas para a entrada da caverna, veem apenas o seu fundo. Atrás deles há uma parede pequena, onde uma fogueira permanece acesa.

Por ali passam homens transportando coisas, mas como a parede oculta o corpo dos homens, apenas as coisas que transportam são projetadas em sombras e vistas pelos prisioneiros.

Nosso Mundo Material, portanto, corresponderia às sombras e o Mundo das Ideias corresponderia às coisas-em-si, as quais são transportadas por trás da parede. Ou seja, para Platão o conhecimento sensível (opinião) da realidade é a visão dos homens da caverna e o conhecimento intelectual (razão), através do qual se alcança a essência das coisas, é a visão fora da caverna.

_____________________________________________________________

_____________________________________________________________

 

Confirmando o pensamento eleata, Platão – através da Segunda Navegação -, complementa tal pensamento através de sua famosa CAVERNA (figura acima): postulou, então, a existência do Mundo das Ideias, no qual residiria a verdadeira realidade, e, o Mundo em que vivemos, apenas projeção da sombra de tal mundo ideal. Como vemos, toda essa reviravolta na visão que o homem antigo tinha do Universo foi causada pela simples descoberta do INFINITO nas medidas, ou seja, os incomensuráveis. Assim, a matemática grega incapacitada de lidar com tais medições, favoreceu a ruína da Visão de Mundo dos pitagóricos a qual era vigente nesta época. Daí, por diante, Platão, tentando por ordem na “casa”, fez nascer o mundo das Ideias, com base nas quais passou a geometrizar toda a matemática de sua época: ou seja, desde que uma teoria sobre a natureza de caráter puramente aritmético era impossível, o modelo geométrico se constituiu como um novo método matemático para a descrição do mundo. 

No vídeo, abaixo, temos uma pequena discussão sobre o Cálculo Infinitesimal e sobre o fato que desencadeou o seu desenvolvimento: a constatação do infinito nas medidas de segmentos de reta dadas no pentagrama.

____________________________________________________________

____________________________________________________________

____________________________________________________________

____________________________________________________________

A partir de uma simples medida da hipotenusa de um triângulo, portanto, se gerou toda uma controvérsia entre IDEALISTA e REALISTAS, entre espiritualistas e materialistas, entre teoria e prática, que se estendeu até os dias de hoje.

Mas, com a continuação das pesquisas na matemática e na física, finalmente foi possível racionalizar ou matematizar o movimento, ou seja, transformá-lo num objeto puramente da razão, como definido por Parmenênides. Esta possibilidade foi concretizada, então, com a criação do Cálculo Infinitesimal. Portanto, principalmente com Newton e Leibniz – criadores do Cálculo Diferencial e Integral -, temos a superação de tal controvérsia envolvendo o MOVIMENTO, proporcionando assim que  o PITAGORISMO (Aritmética) fosse definitivamente adotado pela ciência na modelagem matemática da Natureza.

“É tortuosa, no entanto, ainda hoje, a história das noções sobre o MOVIMENTO. Zenão o achava paradoxal e ininteligível. Galileu e Newton o consideravam óbvio e trivial e, finalmente, Einstein corrigiu um equívoco fundamental na análise do óbvio. Para azarar ainda mais, hoje se sabe que as noções atuais sobre o movimento, relativo ou não, não podem ser estendidas para deslocamentos arbitrariamente pequenos. A mecânica quântica, considerada conjuntamente com a relatividade geral, nos leva a concluir que a visão atual do espaço e do tempo não se aplica a distâncias tão pequenas quanto 10 elevado a potência de -35 metros e intervalos de tempo tão pequenos quanto 10 elevado a potência de -43 segundos, e, sem entender espaço e tempo, não há como entender o movimento. Nesta escala (chamada de PLANCK), as dificuldades apresentadas por Zenão para a descrição do movimento da ponta de uma flecha se transformam em um problema real. Zenão, o CONFUSO, atirou no cachorro e acertou na codorna!”. (CHAVES).

Hoje, novamente, por conta de uma problemática gerada pelas medidas da posição e do momento do elétron em dado experimento físico, temos uma nova reviravolta com relação a Visão de Mundo consagrada pela comunidade científica atual e fundamentada na Física Clássica. Ou seja, a realidade ao nível atômico é segundo um novo paradigma dado pela Mecânica Quântica: na “interpretação de Copenhague”, mesmo a oposição tradicional entre idealismo e realismo não pode mais ser empregada e as teorias tradicionais do conhecimento fracassam.

Ao nível dos quanta, portanto, no processo de medida, dar-se a problemática do observador (que mede) e do observado (o objeto medido): ou melhor, a dicotomia espírito/matéria, alma/corpo, observador/observado, iniciada com Platão e sacramentada por Descartes, está fadada ao fracasso.

Ante tal problemática, Heisenberg, esclarece que qualquer modelo explanatório construído para representar a realidade só pode ter a finalidade duma melhor compreensão, representando apenas uma especulação. Os processos que se verificam no tempo e no espaço de nosso ambiente diário são propriamente o real e deles é feita a realidade de nossa vida concreta. Agora, diz Heisenberg, “quando se tenta penetrar nos pormenores dos processos atômicos que se ocultam atrás desta realidade, os contornos do mundo objeto – real se dissolvem não nas névoas de uma nova imagem obscura da realidade, mas na clareza diáfana de uma matemática que conecta o possível (e não o ‘factual’) por meio de suas leis”. Daí, a Física Moderna transformou-se em matemática.

Na concepção de Heisenberg, aperfeiçoado o seu cálculo matricial sobre bases estritamente probabilísticas, cada átomo seria representado por uma matriz e o movimento dos elétrons no interior do átomo poderia ser representado por outra matriz. Assim, a especial circunstância de que a matéria parece reduzir-se ao mero cálculo matemático, estabeleceu que, pela primeira vez na História da Ciência, a imagem fosse varrida por completo da Física. Com o cálculo de matrizes a matéria já não é partícula nem onda nem nenhuma outra coisa susceptível de descrição, mas aquilo que cumpre um puro esquema matemático regido pelos princípios de simetria. Em outras palavras, a Física Moderna desmaterializou a matéria: não conhecemos os objetos, mas suas relações, suas estruturas, assim, ignoramos o que seja a realidade em si e só tomamos contato com os fenômenos, a partir dos quais construímos os conceitos.

Mais acima, nas palavras de Fritz Kahn, podemos constatar o posicionamento da Nova Física: o que podemos saber sobre a realidade, se resume àquilo que é possível representar através dos conceitos matemáticos.

………………………………………….

…………………………………………………….

COLAPSO DA ONDA QUÂNTICA

 

Como é que o Cientista Mede um Objeto Quântico

………..

…………………………………………..

…………………………………………..

Na verdade, a medição de um objeto quântico costuma envolver uma intrincada aparelhagem experimental. Entre o objeto e a consciência do cientista, há uma cadeia de diferentes etapas, representada esquematicamente na figura abaixo.

____________________________________________________________

medida

____________________________________________________________

 

A “análise” refere-se à separação do feixe em diferentes componentes. Na figura, representa-se o experimento de Stern-Gerlach. O termo “detecção” refere-se ao instante em que o objeto quântico encosta na fina placa metálica do detector, e interage com o “mar de elétrons” presente no metal.

Notem que há duas linhas pontilhadas, cada uma caindo em uma placa detectora. Essas duas linhas representam um único  átomo, que está superposto nos dois  caminhos. Cada um desses componentes interage com elétrons no metal, e isso pode acabar fazendo um elétron sair voando do outro lado da placa. Mas notem que isso acontece nas duas placas. Portanto, há agora uma superposição de elétron, cada componente rumando por um caminho, mas ambos associados a um único elétron.

A etapa seguinte é extremamente importante: é a amplificação. Nesta etapa ocorre um aumento de energia (fornecida por uma bateria), necessário para que o ser humano possa ver o resultado da medição. O instrumento representado na figura chama-se “fotomultiplicador”(FM), e era muito usado há meio século atrás. Ele contém uma série de placas: quando um elétron cai em uma placa, três elétrons são ejetados. Esses três são acelerados e caem em outra placa, gerando nove elétrons. Esse processo continua ao longo de doze placas, e no final tem-se um milhão de elétrons!

Será que esses milhões de elétrons continuam em um estado de superposição? Esta é a pergunta crucial para a física moderna, mas ninguém conseguiu realizar um experimento que fornecesse uma resposta. Há, é claro, diferentes teorias a respeito, mas não há nenhuma comprovação experimental!

As visões mais próximas do misticismo quântico, assim como a interpretação dos muitos mundos, supõem que a superposição continua após a amplificação. Há, em seguida, uma outra etapa de amplificação eletrônica (A), e finalmente um registro macroscópico definitivo da informação a respeito do caminho no qual o objeto quântico foi detectado. Tal registro também poderia estar numa superposição, segundo as visões mencionadas.

Finalmente, chega-se à última etapa da cadeia da medição, que é quando o ser humano observa conscientemente os sinais registrados no papel ou em uma tela de computador. Neste instante, com certeza, o cientista observa apenas um  sinal, e não dois em superposição. Daí, quando da observação, passamos do tratamento indeterminista, estatísitico, da mecânica quântica, para o tratamento determinista, não-estatístivo, da mecânica clássica. Donde o observador então pode anunciar: “ocorreu um colapso da onda quântica ou da função de onda”!

Mas uma dúvida permanece! Se o colapso for algo real, onde e quando ele ocorre? Na detecção? Na amplificação? No registro macroscópico? Ou na observação feita por um ser consciente?

…………………………………………………

………………………………………….

REALISMO E POSITIVISMO

Anti-Realismo da Mecânica Quântica

…………………………………………..

…………………………………………………….

________________________________________

Aqui, postamos texto, na íntegra, de Oswaldo Pessoa Jr., retirado de seu livro Conceitos de FÍSICA QUÂNTICA. Tomamos a liberdade de fazer alguns grifos e apresentar o texto com algumas modificações sem importância

________________________________________

 

1. Realismo em Geral

Você é um realista? Distingamos primeiramente um sentido “ontológico” (relativo às essências das coisas, ao “ser” das coisas) e um sentido “epistemológico” (relativo ao conhecimento). O realismo ontológico é a tese de que existe uma realidade lá fora que é independente de nossa mente (ou de qualquer mente), de nossa observação. A negação desta tese é chamada de idealismo, que pode assumir várias formas, conforme veremos. O realismo epistemológico afirma que é possível conhecer esta realidade, ou seja, que nossa teoria científica também se aplica para a realidade não observada. Exploraremos inicialmente essas teses no nível do conhecimento individual, para depois analisarmos a forma que o realismo epistemológico assume quando consideramos o conhecimento científico – o chamado de realismo científico.

Para começar, devemos salientar que o termo “realismo” tem mudado de significado ao longo da história. Na filosofia medieval, o realismo era a tese de que os universais (“a árvore”, “a cadeira”, “o homem”) existem antes das coisas particulares, tese esta  que estava associada à filosofia de Platão. A esta posição se opunha o nominalismo, segundo o qual os universais são meros nomes, e a realidade só se refere ao particular do mundo físico atual (Guilherme de Occam, século XIV).

No século XIX o termo “realismo” surgiu principalmente nas artes como reação ao romantismo. Este último apresentava uma atitude holística, orgânica, intuitiva, idealizadora, que em ciência influenciou a Naturphilosophie (início do século: Goethe, Schelling, Oersted). A reação realista nas artes realçava o cotidiano e o social, tendendo a ser politicamente mais progressista.

Na ciência, o realismo estava associado ao mecanicismo e ao atomismo, com uma valorização da quantificação e do método hipotético-dedutivo. Ele se contrapunha ao positivismo, originado com A. Comte e defendido por E. Mach e energeticistas como W. Ostwald. Para o positivismo, qualquer especulação sobre mecanismos ocultos deve ser evitado. Só tem sentido tecer afirmações sobre o que é observável, verificável. Uma sentença “sem sentido” é aquela para a qual não há um método para verificar se ela é verdadeira ou falsa. Por exemplo, a frase “a realidade física existiria mesmo que não existisse nenhum observador” seria sem sentido. Para o realista, porém, tal frase não só tem sentido como é verdadeira.

No século XX, a questão de como fundamentar o uso da matemática na ciência levou ao “positivismo lógico” (Viena: M. Schlick, R. Carnap) e “empirismo lógico” (Berlim: H. Reichenbach). Formas abrandadas dessas correntes tiveram bastante força até o início da década de 1960, na filosofia da ciência. Na década de 50, iniciou-se uma reação contra o positivismo lógico, centrando-se fogo especialmente no seu “empirismo”, tese de que as observações são bases seguras para construir a ciência (K. Popper, W. Quine). Por um lado, autores “relativistas” (M. Polanyi, N. R. Hanson, P. Feyerabend, T. Kuhn) atacaram a ênfase excessiva na descrição lógica da ciência, salientando que o conhecimento tem um componente intuitivo, e que ele está sujeito às circunstâncias históricas e sociais. De outro lado, a corrente do “realismo científico” (G. Maxwell, H. Putnam) foi elaborada, e tentaremos esboçá-la adiante.

Em outros campos, fora da filosofia da ciência, o “positivismo” foi também bastante atacado, tendo-se tornado até um termo depreciativo. Este sentido negativo parece ter surgido com as teorias positivistas em Ciências Humanas (inclusive na Educação), como o “behaviorismo” em Psicologia, que simplifica ao máximo a representação que se tem do ser humano, focalizando seu estudo apenas na relação entre estímulo e resposta (os dados “positivos”). Tal abordagem pode ser usada para se justificar a manipulação e dominação de homens por outros homens, tendo sido bastante criticada, como por exemplo pela Escola de Frankfurt (T. Adorno, J. Habermas, etc). Salientemos então o seguinte: no presente estudo, iremos nos concentrar na discussão entre formas de realismo e anti-realismo nas Ciências Naturais, onde “positivismo” não é necessariamente um termo depreciativo.

2. Os Problemas do Conhecimento

Um ponto crucial para entender as diferentes formas do anti-realismo, ou o que significam os diferentes “ismos” filosóficos, é considerar o tipo de pergunta que cada um responde. Adaptaremos aqui as análises feitas pelo filósofo alemão Johannes Hessen e pelo filosófo da ciência finlandês Ilkka Niiniluoto.

Consideremos primeiramente o problema ontológico da existência de uma realidade independente do sujeito ou de uma mente. Já mencionamos que o realismo ontológico afirma a existência desta realidade; a negação desta tese recairia em um “idealismo ontológico”, que é mais conhecido como idealismo subjetivista. A forma mais radical desta é o “solipsismo”, segundo o qual a realidade se resume ao conteúdo do meu pensamento: a realidade seria uma espécie de sonho em minha mente. Uma forma menos radical é a doutrina do “esse est percipi” (Berkeley, séc. XVIII), segundo a qual só existe aquilo que é percebido por alguém. Berkeley termina por defender um idealismo objetivo, porque a realidade externa existiria enquanto atividade mental de Deus. Tal idealismo é consistente com o realismo ontológico. Vemos assim que o idealismo não surge apenas como negação do realismo ontológico. Um idealismo epistemológico (que negaria o realismo epistemológico) defenderia a impossibilidade de se conhecer entidades independentes de qualquer sujeito cognoscente.

Podemos aceitar a existência de uma realidade exterior e colocar o problema epistemológico que Hessen chama de problema da “essencia do conhecimento”: é o objeto que determina o sujeito (realismo), ou é o sujeito que determina o objeto do conhecimento (idealismo)? O idealismo transcendental daquele que é considerado o mais importante filósofo moderno, o alemão Immanuel Kant (séc. XVIII), adota uma posição intermediária: aceitar a existência de coisas-em-si (“noumeno”), mas considera que a existência só acessa às coisas-para-nós, os “fenômenos”. Tais fenômenos, porém, seriam organizados pelo nosso aparelho perceptivo e cognitivo, sendo assim em parte dependentes do sujeito (isso também é defendido pelo idealismo conceitual de N. Rescher, 1973). A causalidade, por exemplo, não existiria na realidade, mas seria uma “categoria do entendimento”, uma estrutura cognitiva sem a qual a própria compreensão do mundo seria impossível.

No outro extremo, um tipo importante de realismo é o materialismo, para o qual apenas a matéria (e energia) existe ou é real: processos mentais seriam “epifenômenos” causados por processos materiais. O marxismo, uma forma de materialismo, considera que as ações humanas são determinadas pelos aspectos econômicos.

Consideremos agora um outro problema epistemológico, que é o da “possibilidade do conhecimento”: pode o sujeito apreender o objeto, pode ele conhecer verdades a respeito do mundo? Diferentes formas de realismo afirmam que sim, enquanto que a negação desta tese se chama ceticismo. Dentre as atitudes intermediárias podemos mencionar o pragmatismo (séc. XIX: C. S. Peirce, W. James), que leva em conta apenas as conseqüências práticas das idéias, e que é uma forma de relativismo. O relativismo considera que nosso conhecimento e as verdades dependem do contexto psicológico e social no qual nos encontramos.

Por fim, consideremos o problema da “origem do conhecimento”: é a razão ou é a experiência a fonte e a base do conhecimento humano? O empirismo considera que a única fonte de conhecimento é a experiência. Conhecimento sobre o que existe não pode ser obtido de maneira “a priori”. Os significados das idéias seriam redutíveis aos dados da experiência (séc. XVII-XVIII: F. Bacon, J. Locke, D. Hume). O sensacionismo (em inglês: “sensationalism”) ou “empirismo radical” enfatiza que as idéias são redutíveis às sensações (sense data), e no final do séc. XIX esta posição foi defendida pelo “empirio-criticismo” de Ernst Mach. A posição de Mach também é considerada uma forma de idealismo subjetivista, devido à tese de que “o mundo consiste apenas de sensações”. Uma forma mais pragmática de empirismo é o fisicalismo, para o qual os termos descritivos da linguagem se referem a objetos físicos (não sensações) e suas propriedades, e são definidos “operacionalmente”. Para o operacionismo (década de 1920: P. Bridgman), todo conceito científico é sinônimo do conjunto de operações físicas associados ao processo de medi-lo.

O ponto de vista oposto ao empirismo é o racionalismo (ou melhor, intelectualismo), que defende que o critério de verdade não é sensorial mas intelectual e dedutivo (R. Descartes, séc. XVII). Verdades básicas são evidentes para a razão, e outras verdades são dedutíveis destas. A posição de Kant pode ser considerada intermediária entre o empirismo e o racionalismo.

Para finalizar, salientemos que o positivismo não envolve uma tese única, mas consiste de quatro afirmações principais [98 a]: (i) Descritivismo: só faz sentido atribuir realidade ao que for possível descrever, observar. (ii) Demarcação: teses científicas são claramente distinguidas de teses metafísicas e religiosas, por se basearem em “dados positivos” (são verificáveis). (iii) Neutralidade: o conhecimento científico deve ser separado de questões de aplicação  de valores. (iv) Unidade da ciência: todas as ciências têm um método único, baseado no empirismo e na indução.

3. O Realismo Científico

Agora nos concentraremos na interpretação realista de uma teoria física, que inclui três afirmações básicas: 1) Realismo ontológico: existe uma realidade física que independe do conhecimento e da percepção humana. 2) Realismo científico: As proposições de uma teoria têm “valor de verdade”, isto é, são ou verdadeiras ou falsas, de acordo com a teoria da verdade por correspondência. Assim, uma teoria física serve para “explicar” fenômenos em termos da realidade física subjacente, e não apenas para prevê-los. 3) Realidade dos termos teóricos: a teoria pode conter “termos teóricos” que se referem a entidades físicas que não são diretamente observadas.

Além dessas características, costuma-se adicionar mais três afirmações para uma interpretação realista. 4) Realismo metodológico: atingir a verdade é a meta principal da ciência. 5) Realismo convergente (K. Popper): as teorias físicas se aproximam cada vez mais da verdade, sem talvez nunca atingi-la de maneira completa. 6) Inferência para a melhor explicação: a melhor explicação para o sucesso prático da ciência é a suposição de que as teorias científicas são de fato aproximadamente verdadeiras.

A negação de uma ou outra das teses expostas acima constitui formas de anti-realismo, no contexto de teorias científicas. O relativismo nega que existam verdades únicas a serem descobertas pela ciência (anarquismo epistemológico de P. Feyerabend), sendo tudo fruto de uma negociação no âmbito das comunidades científicas (T. Kuhn, nova sociologia da ciência). Esta concepção está por trás da “verdade pragmática” que se opõe à verdade por correspondência.

Uma negação do realismo científico é também feita pelo instrumentalismo, que pode ser “forte” ou “fraco”. O instrumentalismo forte nega que as teorias científicas tenham valores de verdade, e que elas expliquem uma realidade subjacente aos dados experimentais. Teorias seriam meramente esquemas lingüísticos que permitem fazer previsões sobre observações, e que organizam estas de maneira econômica.

Já um instrumentalismo fraco não nega que sentenças teóricas (relativas a entidades não-observáveis) tenham valores de verdade, mas nega que isto tenha qualquer importância na ciência (negando a tese 4). O que seria importante seria a solução de problemas (L. Laudan) ou a adequação empírica (B. van Fraassen).

A negação da tese 3 recai no descritivismo, que está associada ao positivismo. Uma maneira de negar o realismo convergente (tese 5) é o convencionalismo, defendido na passagem do século por H. Poincaré, segundo o qual a forma particular da teoria adotada tem diversos elementos convencionais, já que outras teorias empiricamente equivalentes são possíveis.

4. Anti-Realismo na Física Quântica

O anti-realismo que está associado à Mecânica Quântica envolve pelo menos três níveis epistemológicos: i) no nível de teoria científica, o instrumentalismo afirma que a Mecânica Quântica não passa de um instrumento para fazer previsões experimentais; ii) no nível da essência do conhecimento, o idealismo afirma que a consciência humana tem um papel importante na determinação do estado do objeto; iii) no nível do significado ou da origem do conhecimento, o positivismo nega que faça sentido afirmar a existência de entidades não observáveis ou afirmar proposições não verificáveis.

Na discussão sobre realismo científico, tem-se declarado que “o realismo morreu, quem o matou foi a Física Quântica” (A. Fine, 1982). Não examinaremos em detalhes, aqui, a viabilidade das interpretações realistas da Mecânica Quântica, mas queremos apenas sublinhar que quem morreu nos anos 70 não foi o realismo em geral, mas um certo tipo que chamaremos de realismo classicista, a tese de que a realidade tem uma estrutura próxima às nossas concepções e intuições clássicas a respeito do mundo.

Relembremos três capítulos do anti-realismo na história da física quântica.

(I)  O primeiro capítulo está associado à noção de complementaridade:  “uma realidade independente no sentido físico ordinário não pode ser atribuída nem aos fenômenos, nem aos agentes da observação” (Bohr, 1928). Defendia-se que a teoria só trata do observável: uma realidade não-observada pode até existir mas ela não é descritível pela linguagem humana. A posição de Bohr modificou-se em 1935, e há uma controvérsia sobre o grau de positivismo ou instrumentalismo da visão de Bohr. Mas mesmo após esta época manteve-se o chamado “relacionismo”, segundo o qual a realidade observada é fruto da relação entre sujeito e objeto, sendo dependente das escolhas ou vontade do observador (“voluntarismo” de von Weizsäcker).

(II)   O segundo capítulo é uma forma de idealismo subjetivista associada a uma consciência legisladora. Ela surge da tese de que o colapso associado a medições só é causado pela observação humana: “a transformação irreversível no estado do objeto medido” seria devida à “faculdade de introspecção” ou ao “conhecimento imanente” que o observador consciente tem de seu próprio estado (London & Bauer, 1939). Filósofos adoram explorar os paradoxos trazidos por esta posição, como no exemplo do gato de Schrödinger, mas o consenso parece ser que tal posição radical é desnecessária (apesar de consistente). A interpretação dos estados relativos de Everett resolve problemas semelhantes sem atribuir um papel legislador à consciência, mas supondo que esta possa entrar em superposições quânticas.

(III) O terceiro capítulo do anti-realismo está associado ao trabalho de John S. Bell, que mostrou que qualquer teoria realista que satisfaça a propriedade de localidade (salvo algumas exceções) é inconsistente com a Teoria Quântica. Quem morreu com este resultado não foram as teorias realistas não-locais (como a de David Bonm), mas sim boa parte do realismo local, uma variedade de realismo classicista que defende que, na realidade, os sinais sempre se propagam com uma velocidade menor ou igual à da luz.

Alguns outros exemplos de suposições classicistas que são violadas por alguma interpretação da Teoria Quântica (além da localidade) são: determinismo, corpuscularismo (a matéria é composta de partículas), a tese de que o mundo existe em quatro dimensões, de que eventos presentes não afetam o passado, de que emissões de partículas ocorrem em instantes bem determinados, etc. Apesar do classicismo estar em geral associado ao realismo, notamos que o classicismo pode ser em boa parte adotado por abordagens positivistas, como é o caso da interpretação da complementaridade de Niels Bohr.

5. A Ontologia da Ciência sem o Realismo Científico

O estudo da ontologia da ciência estaria justificado mesmo se o anti-realismo se afirmasse como a concepção correta da ciência. Mesmo que tivéssemos certeza que no fundo a ciência não descreve uma realidade inobservável, ainda assim o papel heurístico do realismo continuaria valendo. Os realistas tipicamente argumentam que o realismo possui um importante papel heurístico na prática da ciência, se os cientistas não estivessem convencidos de que desbravam os segredos da natureza, a sua lide perderia o sentido. Rescher vai ainda mais longe e afirma que o realismo é mesmo uma condição necessária para a prática científica, não haveria ciência se os cientistas (e também os filósofos quando não estão filosofando) não fossem realistas. Assim, supondo que o anti-realismo vença o debate e decida a questão, ainda assim a ontologia teria um valor prático: ajudar a construir uma visão de mundo coerente baseada nas ficções da ciência.

Certamente objetar-se-ia, qual o valor de uma visão de mundo sabidamente baseada em ficções? Para os cientistas teria um valor heurístico, como já foi notado. Para os filósofos também, pois mesmo que saibamos que o relato da ciência é ficcional, isto não impede que os filósofos o levem em conta ao estudarem ontologia do “real”, um exemplo desse aporte da ciência para a ontologia em geral é o quadri-dimensionalismo presente nas discussões da ontologia do senso comum. Finalmente, a visão sabidamente ficcional seria também útil aos profissionais da informação, é também deles a tarefa de organizar sistemas coerentes que modelam a realidade tendo em vistas certos fins. Ao contrário do filósofo, cujos modelos têm em vistas apenas a realidade, os engenheiros do conhecimento querem apenas organizar o conhecimento que temos de maneira coerente e eficiente para certos fins práticos, como um sistema especialista, e nesse ponto a ontologia ficcional que os filósofos arrancam da ciência também teria um valor. 

 

…………………………………………………

………………………………………….

REALISMO DE PLATÃO

E

REALISMO DE ARISTÓTELES

 

Realismo das Ideias e Realismo da Matéria

…………………………………………..

…………………………………………………….

O idealismo produz a realidade a partir da consciência presente no homem que pensa; ou seja, algo totalmente subjetivo. Todavia, Platão, longe de ser idealista, se dispôs a construir a realidade não a partir do homem, mas a partir de algo exterior ao mesmo, ou seja, as Idéias. Assim, o realismo platônico é um termo filosófico usado para se referir ao realismo em relação à existência de “universais”. Como os Universais eram considerados por Platão como formas ideais, sua teoria que trata deles também é chamada de Idealismo platônico. Aqui, nos reportaremos ao Realismo de Platão ou Realismo das Ideias.

________________________________________________________

PLATAOARISTOTELES

_________________________________________________________

 

Platão, então, dando por resolvida a questão entre os Eleatas e Heráclito, estabeleceu que existem, separadamente, dois lugares: o sensível e o inteligível, nos quais há, respectivamente, dois tipos de conhecimento (opinião e ciência), dois fluentes do conhecimento (sentido e razão), e dois objetos do conhecimento: uma realidade múltipla material, fluente, sujeita ao espaço e tempo, objeto da opinião; e outra realidade imutável, una e imaterial, transcendente ao sensível e que dá razão da existência da diversidade das coisas.

Isto porque, Platão acreditava que a diversidade e a mutabilidade das coisas não permitiam alcançar uma verdade fixa, necessária e permanente, como o exige o conhecimento científico (episteme). Aquilo que o mundo oferece aos sentidos é falso e ilusório. É no lugar inteligível que se encontram verdades, entes e realidades em estado de pureza. Por isso, cada coisa no mundo sensível tem sua Ideia no mundo inteligível. Assim, as idéias são as essências existentes das coisas do mundo sensível. Para ele a ciência deve tem por objeto o ser real, isto é, as idéias. O conhecimento tem por resultado imediato iluminar a ação e facilitar o esforço para o Bem, princípio da ciência e da verdade (PLATÃO, 1973, p. 83). As coisas inteligíveis devem ao Bem não apenas a inteligibilidade, mas também o ser e a essência. Nosso conhecimento consiste em elevar-nos por meio da dialética do mundo sensível a uma intuição intelectual desse mundo supra-sensível, composto de Idéias.

Aristóteles, por outro lado, resolve a questão entre heracliteanos e parmenidianos pela descoberta do caráter sofístico do famoso dilema. O sofisma reside em opor o ser ao não-ser como os gregos o fazem. Nem tudo é ser ou não-ser. Há uma terceira hipótese a considerar, que se chamará o poder-ser. Vemos, diante de nós, coisas que não são ainda ou que já não são. Para dar uma imagem acessível: o arbusto que há anos tornou-se árvore agora. Deveremos dizer que a árvore de hoje era, há anos, um não-ser, ou um poder-ser? Não foi por acaso que a árvore surgiu do arbusto primitivo; foi porque nele estava latente a capacidade de se tornar árvore. Esta capacidade de vir a ser alguma coisa, de sofrer qualquer transformação – diminuição ou crescimento, por exemplo – é o que, na doutrina aristotélica, se chama potência. Mas para que o poder-ser se realize, é indispensável que outro fator intervenha; aquilo que é designado, na mesma doutrina, por ato. Definir o ato – como?! Trata-se duma coisa indefinível, visto situar-se no começo de tudo. Teremos de contentar-nos em dizer que ato equivale à perfeição. Um ser em potência de qualquer propriedade ou qualidade, está ainda imperfeito. Pode ser, fazer, adquirir alguma coisa; ainda não é, não fez, não adquiriu. O ato vem completar o incompleto, determinar o indeterminado e, visto que é uma perfeição, só pela potência pode sofrer qualquer limite. Logo, na composição de todo o ser criado e mutável entram a potência e o ato; mas o ato, quando não condicionado pela potência, será ilimitado, imutável, perfeição pura. Então, o realismo do estagirita, funde o sensível e o inteligível no conceito lato da substância: no mundo sensível cada coisa tem uma existência, é uma substância. Substância (o poder-ser), se realiza com a intervenção do ato. A consistência da substância, então, se dá por meio do conceito. Os conceitos reproduziriam não as formas ou ideias transcendentes ao mundo físico, como no realismo platônico, mas sim a estrutura inerente aos próprios objetos. Em tal filosofia, a ciência tem por objeto o mundo sensível, realismo da matéria, donde as formas inteligíveis são extraídas por abstração. (MENEGHETTI, 2003).

………………………………………..……………………………………………………….

CIÊNCIA PÓS-METAFÍSICA

 

Ontologia da substância é substituída pela ontologia das relações

…………………………………………..

…………………………………………………….

Numa sociedade pós-metafísica se supõe a existência anterior da chamada sociedade metafísica. Recordando brevemente o que seja metafísica, então, podemos entender melhor as críticas ao filme Quem Somos Nós.

Em linhas gerais, a metafísica já estava presente nos filósofos pré-socráticos, quando estes buscavam estabelecer o princípio de inteligibilidade da totalidade do real: exemplo disso foi o paradigma pitagórico, discutido por nós acima.

Com Aristóteles, diz-se que a metafísica ficou conhecida no Ocidente como o estudo do “ser enquanto ser”, como a filosofia primeira, a qual se propõe penetrar para além do saber físico. Metafísica é o que transcende a física.

Todavia, sobretudo, com o advento da modernidade, a metafísica sofre um novo embate. Entre outros pensadores importante, Hume e Kant se destacam nesta nova problemática filosófica:

– Para Hume, é urgente delimitar o campo e o limite do conhecimento, sendo imprescindível eliminar as especulações metafísicas que ultrapassam a esfera e o âmbito da capacidade humana de conhecimento;

– Kant, por sua vez, despertado do “sono dogmático” por Hume, busca sistematizar a resposta à questão da relação entre pensamento e realidade por meio de uma reflexão epistemológica. Esta mudança de postura provoca uma reviravolta fundamental na natureza mesma da filosofia. Trata-se, com Kant, de mostrar como é possível todo e qualquer conhecimento da experiência humana. Passa-se de uma teoria do ente (ontologia) para uma teoria do conhecimento (epistemologia) enquanto tarefa fundamental da filosofia. Kant marca, por conseguinte, uma reviravolta no pensamento ocidental. Ele busca traçar rigorosamente as condições de possibilidade e os limites do conhecer. Deus, alma e liberdade, nessa nova perspectiva, não podem mais ser conhecidos, não obstante possam ser pensados pela razão.

Aqui, fica mais clara a perspectiva de que Kant não destrói, por assim dizer, a metafísica, mas dá-lhe um novo rumo. Não podendo ser provada como ciência, a metafísica clássica é ferrenhamente criticada por Kant. Contudo, segundo Kant, a razão preserva a disposição natural de buscar o incondicionado para além da própria experiência, ou seja, a totalidade das condições. Daí, não obstante Kant tenha sido o filósofo que acabou com a metafísica clássica, a metafísica é preservada por ele como uma nova metafísica, classificada por alguns em metafísica da experiência e em metafísica da liberdade.

Continuando nossa reflexão, e dando um salto considerável na linha do tempo, podemos dizer que, com Nietzsche, é desferido à metafísica um novo golpe. A metafísica é, para Nietzsche, como que uma ilusão que precisa ser desfeita, é como que uma ilusão quimérica do além, devendo ser, portanto, destruída. Heidegger, por sua vez, fala de uma crise do humanismo. Ele fala de um esquecimento do ser. A metafísica, em última análise, para ele, esqueceu de perguntar-se sobre o “sentido do ser”. Entre outros argumentos, à luz do exposto acima, talvez, se possa dizer que a “crise do pensamento e da Filosofia Ocidental” é por uns denominada de “Crise do Humanismo”, por outros, “Crise da Razão”, ou ainda, “Pós-Modernidade”, “Crise da Metafísica”, “Pós-Metafísica”.

A Sociedade Pós-Metafísica, portanto, se estabelece  com a morte da Metafísica Clássica. Mas isto não quer dizer, exagerando, ser a Metafísica, doravante, um estudo arqueológico, não significando afirmar que as questões metafísicas não estejam em voga ou não estejam presentes como preocupação na reflexão atual. Isso significa afirmar, por um lado, que refletir sobre questões metafísicas sem tomar em consideração toda a Tradição Ocidental até nossos dias, ou, então, simplesmente afirmar estar a Metafísica morta seria engano e erro ingênuo. Isso, por outro lado, significa dizer que a própria ciência Pós-Metafísica está sujeita sempre de novo a críticas e a novos desenvolvimentos, uma vez que nenhuma realidade é capacidade plena de realização e efetivação de todas as capacidades e possibilidades. Ela mesma, por isso, deve estar sujeita à crítica.

De tudo acima, podemos constatar que a principal crítica ao filme, portanto, é o seu grande apelo à metafísica clássica, desembocando num exacerbado realismo ingênuo, o qual é fruto do senso comum. Assim, denominando a Mecânica Quântica de ciência pós-metafísica, esta não se interessa pelo ponto de vista da metafísica clássica no que diz respeito à realidade por trás dos fenômenos quânticos estudados. Ou seja, tal realidade, como nos ensina Heisenberg, pictoriamente nos é livre pensar sobre ela, entretanto, sem elevarmos tais imagens à categoria de algo que existe em si.

Bachelard, numa de suas principais teses em The New Scientific Mind, as ciências modernas haviam substituído a “ontologia clássica da substância” por uma “ontologia das relações” (metafísica clássica e pós-metafísica, respectivamente),  que poderia ser assimilada a algo como uma filosofia de processo. Por exemplo, os conceitos físicos de matéria e raios correspondem, segundo Bachelard, aos conceitos metafísicos da coisa e do movimento; todavia, enquanto a filosofia clássica (metafísica clássica), considerava tais entes tanto distinta quanto ontologicamente real, a ciência moderna (pós-metafísica) não pode distinguir a matéria dos raios: é, portanto, impossível examinar uma coisa imóvel, que era precisamente a condição do conhecimento segundo a teoria clássica do conhecimento (metafísica clássica) – se tornando impossíveis de serem conhecidas, de acordo com as teorias do conhecimento de Aristóteles e Platão. 

 

…….

………………………………………….

EPISTEMOLOGIA

Gaston Bachelard

…………………………………………..

…………………………………………………….

 VETOR EPISTEMOLÓGICO

No Racionalismo Aplicado, se desloca do racional para o real, e no Empirismo Indutivista, se desloca do real para o racional.

____________________________________________________________

____________________________________________________________

A epistemologia bachelardiana surge em meio às revoluções do pensamento científico do final do século XIX e início do século XX, tais como a teoria da relatividade, a física quântica e as geometrias não-euclidianas. Bachelard afirma que o pensamento científico seria explicado em três grandes momentos: o estado pré-científico, que vai da Antiguidade Clássica até o século XVIII; o estado científico, envolvendo o período do final do século XVIII até o século XX; e o novo espírito científico, a partir das publicações de Einstein em 1905.

Em Bachelard, o novo espírito científico moderno não se restringe a citar leis, nem se limita a transcrever as informações colhidas na observação; deve-se ir além, recriando o real e equacionando a sua constituição. Tal método de pesquisa, portanto, como a construção do objeto científico, leva o cientista a chegar mais próximo possível da verdade do seu objeto. O objeto da nova ciência contemporânea, então, não é mais dado pela Natureza, é algo constituído pelo sujeito. Daí, a superação do empirismo, para Bachelard, dá-se através do racionalismo.

No novo espírito científico o racionalismo admite o diálogo com a experiência. Sendo assim há de ter-se a necessidade de compreender a reciprocidade das dialéticas que vão, interminavelmente, do espírito às coisas e das coisas ao espírito. Segundo Bachelard, o método científico já não é direto, imediato, mas indireto, mediado pela razão. Assim sendo, o VETOR EPISTEMOLÓGICO, dado no vídeo acima, se desloca do racional para o real, diferentemente da epistemologia empirista indutivista, até então vigente, na qual tal vetor se desloca do real para o racional.

Gaston Bachelard mostra como a concepção do tempo da relatividade einsteiniana e o comportamento dos elementos infinitesimais levaram o saber a um outro campo de problemáticas, alterando três séculos de pensamento racional. Ele demonstra, assim, o quanto a ideia de tempo einsteiniano foi mais significativa que a “revolução copernicana” elaborada pela filosofia kantiana. Segundo Bachelard, é a partir dessa nova concepção de tempo que a ciência inaugura uma verdadeira “mudança dos conceitos epistemológicos em vigor”. Essa análise permitirá a Gaston Bachelard indicar os limites do racionalismo, do empirismo e do realismo, filosofias da ciência, até então em prática, e propor o racionalismo aplicado como filosofia da ciência contemporânea.

Partindo da teorização do racionalismo aplicado, o papel da física-matemática na epistemologia bachelardiana torna-se preponderante. Isto devido ao racionalismo aplicado estar ligado ao realismo matemático fundado por Bachelaed: em nosso diagrama, este aspecto físico-matemático se faz pressente no vetor epistemológico bachelardiano que se estabelece partindo das “ideias matemáticas” em direção às coisas materiais.  

Ontologicamente, dizemos que a Física não conhece em si os objetos de seu estudo, mas suas relações, as estruturas matemáticas na qual estão inseridos. Ignorando, assim, a realidade, a Física toma contato apenas com os fenômenos (observável) a partir dos quais constrói seus conceitos.

Foi Francis Bacon que estabeleceu o aforismo: Naturam renuntiando vincimus (pela renúncia vencemos a natureza): ou seja, somente quando renunciamos ao conhecimento do que seja a Natureza em sua essência, surge a possibilidade de elucidar seus mistérios e colocar suas forças a nosso serviço. A partir deste aforismo se verifica o surgimento da tendência construtiva da ciência moderna: daí então a Física se afastando da metafísica, deixa de buscar a concepção ontológica da realidade.

(…) Este método paradoxal, então, de penetrar nos segredos da Natureza mais e mais profundamente, renunciando a responder às questões que sempre tinham sido propostas, sempre se mostrou frutuoso. Aí está o ponto em que a maneira especificamente matemática de pensar desempenhou seu papel. A renúncia tem por consequência uma limitação de respostas possíveis sobre a Natureza, e, somente com esta limitação (a impossibilidade de dar diversas respostas), ela se deixa precisar matematicamente (BECKER, 1965).

A intuição bachelardiana, sempre comunicável em seus resultados, se situa em dois níveis distintos: há intuições sensíveis e intuições racionais. A intuição sensível corresponde à produção espontânea de imagens sugeridas pela ausência natural de explicação para o mundo que nos rodeia. Trata-se do conhecimento imediato daquilo que provém dos sentidos. As intuições sensíveis representam o estado de repouso da racionalidade e, por isso mesmo, precisam ser combatidas pelo pensamento racional rigoroso, precisam ser retificadas, cedendo lugar às intuições racionais. As intuições racionais se formulam na superação do imobilismo, revelam novos problemas e novas ideias, correspondem ao conhecimento imediato dos objetos da razão (LOPES, 1996). No rigor das apresentações do método matemático, a intuição racional exerce papel decisivo, entretanto, com o uso somente desta corre-se o risco de perder-se de vista o conteúdo algébrico/geométrico essencial entre a massa de detalhes formais; daí a intuição racional segue sendo fonte, porém não última razão de validez da verdade.

Aqui, figura abaixo, elaboramos uma abordagem própria, nossa, da intuição: temos a intuição racional, dada ao nível do Mundo Matemático Platônico, e a intuição empírica, dada ao nível dos fenômenos (abstrato/inteligível ou concreto/sensível). No diagrama fazemos a representação da intuição racional e da intuição empírica: quando dada através da inteligência é dita inteligível (o Racionalismo), e quando através dos sentidos, é dita sensível (o Empirismo). Ainda, do ponto de vista ontológico, não obstante nosso diagrama seja não substancial, tem existência objetiva. Tudo de acordo com o postulado de Kant o qual afirma que entre a coisa-em-si e o observador temos sempre o fenômeno. Porém, estabelecemos aqui uma nova categorização: temos tanto o fenômeno abstrato/psíquico, como o fenômeno concreto/material. Tal categorização propiciará fazermos um paralelo entre nosso paradigma e o formalismo da fenomenologia de Husserl.

Epistemologicamente, a construção dos conceitos físicos se dá através da dialética entre o racionalismo e o empirismo, entre teoria e prática. Assim, a partir do momento em que se medita na ação científica, apercebemo-nos de que o empirismo e o racionalismo trocam entre si infindavelmente os seus conselhos. Nem um e nem outro, isoladamente, basta para construir a prova científica. Contudo, o sentido do VETOR EPISTEMOLÓGICO parece-nos bem nítido. Vai seguramente do racional ao real e não, ao contrário, da realidade ao geral, como o professavam todos os filósofos de Aristóteles a Bacon. Em outras palavras, a aplicação do pensamento científico parece-nos essencialmente realizante (BACHELARD, 1978).

____________________________________________________________

____________________________________________________________

17457887_1891856097739530_2248223180490641438_n

____________________________________________________________

____________________________________________________________

Este papel realizante, a juízo de Bachelard, incorpora, assim, a dimensão objetiva e subjetiva no processo de conhecimento, possibilitando, desta maneira, uma espécie de resgate ontológico do ser espiritual e material com que se parece revestir a pessoa humana (SOUSA, 2007).

Observemos que o vetor epistemológico no REALISMO DE PLATÃO vai das Ideias para a Matéria; e no REALISMO DE ARISTÓTELES o mesmo vetor vai da Matéria parta as Ideias. É de se notar o caráter platônico, então, do vetor epistemológico bachelardiano.

(…) É, portanto, na encruzilhada dos caminhos que o epistemólogo deve colocar-se: entre o empirismo e o racionalismo. É aí que ele pode apreender o novo dinamismo dessas filosofias contrárias, o duplo movimento pelo qual a ciência simplifica o real e complica a razão. Fica então mais curto o caminho que vai da realidade explicada ao pensamento aplicado. É nesse curto trajeto que se deve desenvolver toda a pedagogia da prova, pedagogia que é a única psicologia possível do espírito científico. (…) A ciência, soma de provas e experiências, de regras e de leis, de evidências e de fatos, necessita, pois, de uma filosofia de dois polos. (BACHELARD, 1978). Exemplos práticos disto são o “salto da ideia” de Einstein e o conceito de “massa negativa” obtida por Dirac a partir de suas equações quântico-relativísticas do elétron.

A filosofia dialética, então, do “por que não?”, de dois polos, é a característica do novo espírito científico. Por que razão a massa não havia de ser negativa? Que modificação teórica essencial poderia legitimar uma massa negativa? Em que perspectiva de experiências se poderia descobrir uma massa negativa? Qual o caráter que, na sua propagação, se revelaria como uma massa negativa? Em suma, a teoria insiste, não hesita, a preço de algumas modificações de base, em procurar as realizações de um conceito inteiramente novo, sem raiz na realidade comum. (…) Deste modo a realização leva a melhor sobre a realidade. Esta primazia da realização desclassifica a realidade. Um físico só conhece verdadeiramente uma realidade quando a realizou, quando deste modo é senhor do eterno recomeço das coisas e quando constitui nele um retorno eterno da razão. Aliás, o ideal da realização é exigente: a teoria que realiza parcialmente deve realizar totalmente. Ela não pode ter razão apenas de uma forma fragmentária. A teoria é a verdade matemática que ainda não encontrou a sua realização completa. O cientista deve procurar esta REALIZAÇÃO COMPLETA. É preciso forçar a Natureza a ir tão longe quanto o nosso espírito (BACHELARD, 1978). (…) Entre o fenômeno científico e o número científico se tem uma dialética que, após algumas retificações dos projetos, tende sempre a uma realização efetiva do número. A verdadeira fenomenologia científica é, portanto, essencialmente uma fenomenotécnica. (BACHELAR, 1978).

____________________________________________________________

____________________________________________________________

diagrama

____________________________________________________________

____________________________________________________________

Segundo a Epistemologia (Filosofia de Dois Polos) de Bachelard, portanto, se confirma nossa discussão, no início deste artigo, sobre a ontologia, epistemologia, semântica e metodologia da Física Moderna e Contemporânea (figura acima), que partindo dos fenômenos, se desenvolve construindo seus conceitos, seus modelos, suas teorias.

Ainda, importante notar, aqui, que o Realismo Matemático de Bachelard, coadunado com o pensamento matemático de Heisenberg, se estabelece  como uma teoria filosófica capaz de dar conta de todos os fenômenos quânticos.

____________________________________________________________

____________________________________________________________

ASSIM

EMPIRISMO RADICAL

____________________________________________________________

____________________________________________________________

Por fim, há que estarmos atentos à influência negativa do EMPIRISMO RADICAL, herança do século XIX, e, ainda, fortemente presente em nossos institutos de física. O próprio MÁRIO BUNGE, diz-nos que  a filosofia EMPIRISTA – INDUTIVISTA, ainda presente na Física e na ciência em geral, precisa ser substituída por uma visão filosófica mais contemporânea, que ajuda o cientista a ser mais crítico e criativo.

…………………………………………………

………………………………………….

QUEM SOMOS NÓS?

Crítica ao Filme

…………………………………………..

…………………………………………………….

 

PESSOA nos afirma que “dentre as dezenas de interpretações diferentes da mecânica quântica, o filme ‘Quem Somos Nós?’ adota a visão idealista”. Daí o termo “idealismo” designando qualquer corrente filosófica em que a mente tem papel essencial na constituição do mundo, da realidade. Em geral, são as interpretações idealistas da teoria quântica que são incorporadas pelas visões de mundo mais místicas e espiritualistas. Assim, no contexto da física quântica, uma interpretação idealista é aquela que afirma que a consciência humana tem um papel essencial no desdobramento dos fenômenos quânticos. Na década de 1930, alguns autores, especialmente dois físicos chamados London e Bauer, propuseram que a consciência humana seria responsável pelo colapso  da onda quântica.

Mas é preciso esclarecer:  este “idealismo” corresponderia ao Realismo de Platão (Realismo das Ideias) – aqui já estudado -, ou seria o Idealismo Subjetivista, onde a realidade lá fora dependente de nossa mente ou sujeito? Partindo de nossas pesquisas, o mais correto seria dizer que no filme os raciocínios de desenvolvem de acordo com o Idealismo Subjetivista. Sendo o sujeito o “criador” de sua própria realidade, tendo em vista os conceitos de potência e ato de Aristóteles.

“Mas o filme parece sugerir que a visão idealista é a única maneira de interpretar a teoria quântica. Isso é falso: a mecânica quântica não implica necessariamente o idealismo. A maioria dos cientistas ortodoxos interpreta a mecânica quântica sem incluir as consequências idealistas apresentadas no filme.” (PESSOA, 2011). 

Assim, na Mecânica Clássica, fisicamente e matematicamente, imperando o Realismo Ontológico, temos uma descrição completa, determinista, de um sistema físico. Isto dado, pois, com a superação da problemática com o infinito nas medidas, o movimento pôde ser modelado físico-matematicamente independente do observador.

Agora, na Mecânica Quântica, matematicamente, sendo o determinismo limitado à função de onda, um sistema físico é descrito objetivamente segundo um Realismo Quântico ou Realismo Matemático, de acordo com Filosofia de Dois Polos de Bachelard. Por outro lado, do indeterminismo – presente nas medidas de posição e momento de uma partícula física -, que impera nos experimentos científicos ao nível quântico, estamos restritos a permanecermos dentro de uma visão realista bastante limitada dos sistemas quânticos, donde temos que os fenômenos são complementares, porém, mutuamente exclusivos. Daí, fisicamente, tendo em vista um antirrealismo no trato com os fenômenos quânticos, é aplicado os conceitos de “potência” e “ato” de Aristóteles: ou seja, a realidade dita existindo potencialmente, se atualiza pela intervenção de um observador, de acordo com a interpretação filosófica da ortodoxia quântica ou de Copenhague.

Tudo tendo em vista que, o tal indeterminismo prevalecente na escala quântica, é um indeterminismo constitutivo fundamental e irredutível que não significa acaso ou imprecisão: mas “uma matemática, que conecta o possível (e não o “factual”) por meio de suas leis”.

Na perspectiva dos  cientistas quânticos ortodoxos, portanto,  segundo Heisenberg, “a oposição tradicional entre idealismo e realismo não pode mais ser empregada e as teorias tradicionais do conhecimento fracassam”.

Ou seja, segundo a ortodoxia da mecânica quântica, anti-realista, o mundo (fora de nós) é não-objetivo, ou seja, não existe de forma separada do observador. Para a corrente da ortodoxia quântica, as propriedades dos corpos são propriedades apenas potenciais, que dependem da realização de um experimento, ou seja, da observação (medida) que se está fazendo, para se tornarem de fato existentes.

“No filme ‘Quem Somos Nós?, a cena mais didática com relação à física quântica é a cena das bolas de basquete. A heroína vê uma bola de basquete sendo quicada por um garoto misterioso. Quando ela deixa de olhar para a bola, surgem dezenas de cópias da bola em diferentes posições. Depois de alguns segundos, quando ela olha novamente para o garoto, todas as bolas desaparecem, restando apenas uma. 

Esta cena é uma alegoria a respeito do que acontece na física quântica. A bola de basquete representa um átomo ou qualquer partícula quântica. O mero ato de olhar ou de observar representa a medição feita por um cientista quântico. A transição de muitas bolas para uma única bola representa a ‘redução’ ou colapso do estado quântico. A única falha da cena é que a probabilidade de a bola terminar na mão do garoto deveria ser muito pequena: mais didático seria a heroína, ao final, ver a bola localizada em algum outro ponto, diferente da mão do menino.

Nessa alegoria, o que faz surgir várias bolas de basquete é análogo a uma certa preparação experimental, como a da figura abaixo, onde se discute ‘O Problemático Colapso da Função de Onda’.

____________________________________________________________

____________________________________________________________

colapso

____________________________________________________________

____________________________________________________________

Nesta figura, o objeto quântico sofre ‘difração’ ao passar pela fenda, ou seja, ele se espalha em todas as direções após passar por um buraco bem pequeno. Os semicírculos exprimem a probabilidade de o objeto ser detectado em diferentes pontos, como em P. A observação da posição do objeto quântico (o ‘asterisco’ na figura) é análoga à observação final da bola de basquete. Antes da medição, costuma-se dizer que o objeto está numa “superposição” de diferentes posições, ou está potencialmente em diferentes posições.”(PESSOA, 2011).

Osvaldo Pessoa Jr. nos esclarece alguns pontos fundamentais ligados ao papel da consciência (sujeito): “As interpretações idealistas da física quântica são viáveis? A mecânica quântica é uma teoria científica que descreve muito bem experimentos com objetos microscópicos, como átomos, moléculas, e suas interações com a radiação (por exemplo, a luz). Nos últimos anos, ela tem sido incorporada em visões de mundo místicas, espiritualistas, etc., para sustentar ideias como a de que nossa consciência pode se conectar à consciência cósmica. A extensão da teoria quântica a essas visões de mundo é possível porque a teoria quântica, conforme utilizada na física, apenas faz previsões sobre aquilo que se observa  ou se mede no laboratório científico. Todos os físicos concordam com o ‘formalismo mínimo’ da mecânica quântica, ou seja, com as regras e leis que fornecem as previsões da teoria sobre as probabilidades de se obterem diferentes resultados de medições. Mas a física quântica não diz nada sobre o que acontece por trás das observações (sobre as causas ocultas dos fenômenos) ou sobre como uma observação é efetuada (ou seja, sobre detalhes do processo de medição, ligando o objeto quântico ao sujeito observador)”.

Daí, como já foi mencionado aqui, permanece a grande dúvida: Se o colapso for algo real, onde e quando ele ocorre? Na detecção? Na amplificação? No registro macroscópico? Ou na observação feita por um ser consciente? E é exatamente por conta dessas interrogações  que surgem as mais diversas interpretações ou criações de realidades “quânticamente” definidas. 

Não obstante, as constatações estabelecidas segundo a ortodoxia da mecânica quântica, há que se levar em conta os fatos de acordo com o teorema de Bell, o qual assegura-nos que durante o salto quântico o elétron existe em outro nível de realidade que transcende os limites físicos do espaço-tempo. Esta constatação poderia, então, tornar válido apenas pictoricamente uma pequena parte as suposições do filme “Quem Somos Nós?”.

Já vimos que, filosoficamente, tais abordagens são permitidas por Heisenberg. Acreditamos que ele, com esta sua atitude compassiva, temia que a capacidade criativa do pensamento humano pudesse ser anulada.

Importante, agora, a influência no filme das visões de mundo originadas com a  Teoria da Matriz-S e a Filosofia de Bootstrap na Encruzilhada da Contracultura. Disto se verifica a experiência psicodélica, cuja “revolução da consciência” estava associada aos dois pontos de vistas revolucionários (espiritual e político), que também recebia uma síntese no “paradigma holográfico” e na filosofia de Bootstrap.

O psiquiatra tcheco, radicado nos EUA, Stan Grof, é uma referência no assunto. O seu trabalho com LSD nas décadas de 1950 e 1960 permanece como um dos mais abrangentes. Capra e Stan Grof se conheceram no início de suas carreiras. O diálogo entre os dois cientistas transformou em moeda corrente a associação ente filosofia de Bootstrap e psicologia transpessoal. Stan Grof relatou em entrevista em 2014 como o seu trabalho e o trabalho de Capra se influenciaram mutuamente.

As descrições muito conhecidas sobre as características da experiência psicodélica (ou experiência transpessoal) são abundantes em analogias e metáforas que se identificam com o modelo de Bootstrap. Menciona-se duas destas características: (i) a chamada experiência de consciência “oceânica” ou “cósmica”, onde o indivíduo se sente parte de um todo maior que o seu próprio “eu”; e (ii) a qualidade paradoxal da experiência, o que Nicolau de Cusa chamou de coincidentia oppositorum (como se a experiência desafiasse o princípio de identidade e o sentido da lógica ordinária).

No filme, portanto, podemos constatar também uma forte influência da filosofia de bootstrap, proposta por Chew. O que mostra que – apesar dos exageros da produção cinematográfica -, de forma geral, muitas das propostas realistas apresentadas, sim, se originam a partir de teorias científicas modernas, tendo como horizonte as visões de mundo oriental.   

………………………………..

………………………………………………..

………………………………………….

CONCLUSÃO

 Realidade

…………………………………………

………………………………………….

 

Não há dúvidas de que possam existem ontologicamente outros níveis de realidade, para além da nossa realidade, conforme prevê o teorema de Bell. Todavia, no filme, tais realidades se mostram de forma muito dependentes do sujeito, sendo o papel deste, segundo o desenrolar do filme, muito questionável com relação aos pontos de vista da mecânica quântica: 

A ideia de Heisenberg é a de que existem dois modos de realidade. A realidade enquanto coisa objetiva, que pode ser mensurada, e a realidade enquanto potentia, que pode apenas ser pensada abstratamente e instrumentalizada pelo mais profundo FORMALISMO MATEMÁTICO da física quântica. Os objetos quânticos, ao contrário dos clássicos, são potentias neste sentido. Podemos afirmar que existem, mas existem neste modo: enquanto possibilidades objetivas e não como objetos ou eventos mensuráveis, que perdura determinado tempo em alguma parte do espaço.

Ainda, segundo Heisenberg,mesmo tendo em vista a impossibilidade de distinção exata entre o comportamento de objetos atômicos e a influência sobre eles exercida pelos instrumentos medidores,  pela intervenção de um observador não se introduz qualquer traço subjetivista na descrição da natureza, o que não deixa de ser muito importante do ponto de vista “filosófico”. Segundo ele, o observador tem simplesmente a função de registrar fatos que se verificaram no tempo e no espaço, pouco importando que o “observador” seja um aparelho que funciona automaticamente ou um ser vivo (de modo especial um homem que entende do assunto). O que entretanto é absolutamente necessário é a passagem do possível ao “factual” dentro do processo atual do registro.

Qualquer imagem, então,  que possamos estabelecer sobre o que se desenrola por trás dos fenômenos, se configuram apenas como especulações imagéticas, pictóricas, não constituindo observáveis e, portanto, sem valor científico.

No mais, alinhada com a ortodoxia da mecânica quântica, a Ontologia do Devir em Nietzsche, dada segundo a ciência pós-metafísica, define a Existência como um eterno vir-a-ser, a passagem ininterrupta do potencial ao atual, numa perpétua oscilação entre a atualização e a potencialização.

“A Realidade, em sua integralidade não é senão uma perpétua oscilação entre a ATUALIZAÇÃO e POTENCIALIZAÇÃO. Não há atualização absoluta. Mas a atualização e a potencialização não bastam para uma definição lógica coerente da Realidade. O movimento, a transição, a passagem do potencial ao atual não é concebível sem um dinamismo independente que implica um equilíbrio perfeito, rigoroso, entre a atualização e a potencialização, equilíbrio este que permite precisamente essa transição.” (Stéphane Lupasco). 

Por fim, do ponto de vista FILOSÓFICO – ao contrário do que muitos pensam, este ponto de vista não é desprezado por Heisenberg, mas considerado de grande importância -, as contribuições do filme “Quem Somos Nós?”, protagonizando uma discussão profunda sobre a nossa realidade, propicia importantes reflexões e debates envolvendo toda a comunidade científica e o grande público em geral patrocinando, então, um entendimento fecundo da Vida e do Universo.

………………………………………………………

……………………………….

Referências Bibliográficas

……………………………………

………………………………………………………..

  1. FÍSICA: EPISTEMOLOGIA E ENSINO – Rogério Fonteles Castro. Disponível em: <https://www.docdroid.net/P8NvYpx/fisica-epistemologia-e-ensino-autor-rogerio-fonteles-castr-pdf>

  2. BECKER, O. O Pensamento Matemático. São Paulo: Editora Herder, 1965. Disponível em: <https://www.docdroid.net/E24gCZq/o-pensamento-matematico-sua-grandeza-e-s-pdf>

  3. FUCHS, W. R. Física Moderna. São Paulo: Editora Polígono, 1972.

  4. SILVA, V. C. O Anti-Realismo na Filosofia da Física de Werner Heisenberg: da Potentia Aristotélic ao Formalismo Puro. (UERJ). Disponível em: <https://www.redalyc.org/journal/5766/576665140010/html/>

  5. SANTOS, F. M.; JÚNIOR, O. PESSOA. Delineando o Problema da Medição na Mecânica Quântica: o Debate de Mrgenau e Wigner versus Putnam. Disponível em: <https://www.scielo.br/j/ss/a/sk4W8b63BgFq3V44KW8nkpp/?lang=pt>

  6. WHAT THE BLEEP DO KNOW!? Disponível em: <https://en.wikipedia.org/wiki/What_the_Bleep_Do_We_Know!%3F#:~:text=%2416%20million-,What%20the%20Bleep%20Do%20We%20Know!%3F,between%20quantum%20physics%20and%20consciousness.>

  7. MECÂNICA QUÂNTICA – Um desafio à intuição. Vicente Buonomano e

    Ruy H. A. Farias. Disponível em: <https://seletynof.wordpress.com/2007/04/12/mecanica-quantica-um-desafio-a-intuicao-i/>

  8. EPISTEMOLOGIAS DO SÉCULO XX – UFRGS. Disponível em: <https://www.facebook.com/fisicapsicologia/photos/a.1603298289928647/1808015879456886/?type=3&theater>

  9. MATRIZ E MECÂNICA QUÂNTICA – Heisenberg corta o Nó Górdio. Por Rogério Fonteles Castro. Disponível em: <https://www.docdroid.net/yXRz7Er/matriz-e-mecanica-quantica-heisenberg-co-pdf>

  10. FÍSICA QUÂNTICA – Entenda as diversas interpretações da física quântica. Por Osvaldo Pessoa Jr. Disponível em: <https://opessoa.fflch.usp.br/sites/opessoa.fflch.usp.br/files/Vya-Quantica-Tudo.pdf>

  11. REALISMO E POSITIVISMO. Por Oswaldo Pessoa Jr. Disponível em: <https://seletynof.wordpress.com/2007/10/13/realismo-e-positivismo/>

  12. O REALISMO E O IDEALISMO: FOCALIZANDO O CONHECIMENTO MATEMÁTICO. Por Renata Cristina Geromel Meneghetti. Disponível em: <http://www.ghtc.usp.br/server/AFHIC3/Trabalhos/50-Renata-Cristina-Meneghetti.pdf>.

  13. A MEDIDA DO MUNDO – A busca por um sistema universal de pesos e medidas. Por Robert P. Crease. Acessado em:

    <https://fdocumentos.tips/document/a-medida-do-mundo-robert-p-crease.html>

  14. Uma História Cultural da Teoria da Matriz-S: Geoffrey Chew e a Filosofia de Bootstrap. Por GUSTAVO RODRIGUES ROCHA. Acessado em: 

    <https://www.sbhc.org.br/arquivo/download?ID_ARQUIVO=2812&fbclid=IwAR165Co97WaLtM__rtsFEaRnmy0K6VvpMF-nC8EPOh3C52GW5eTiLO00Wnk>

  15. EMARANHADOS NO ESPAÇOTEMPO. Por Clara Moskowitz. Acessado em: <https://www.docdroid.net/70voaM4/emaranhados-no-espaco-tempo-pdf>

    …….…………………………

POSTED BY SELETINOF AT 9:08 AM

 

O FUNDAMENTO HISTÓRICO DO MÉTODO CIENTÍFICO E A CIÊNCIA FÍSICA

adabro

Figura 1 – Capa do Livro

______________________________________

Aqui traduzimos um texto de A. A’DABRO de seu livro THE RISE OF THE NEW PHYSICS, acrescendo um estudo nosso sobre o conhecimento da Física.

________________________________________

Capítulo I

O FUNDAMENTO HISTÓRICO DO MÉTODO CIENTÍFICO

Tradução

 Rogério Fonteles Castro

Pós-graduação em Física

Universidade Federal do Ceará

……………………………………………………………………………………

………………………………………………………………………………………………………….

……………………………………………………………………………………………………………………………….

desejo de conhecer parece ser uma das forças que fazem evoluir a espécie humana. Nos povos primitivos, a forma de conhecimento se estabelecia segundo o critério do que fosse mais útil na luta diária desses povos pela sobrevivência. Como tal, o motivo que estava por trás desse desejo era prático. Mais tarde, então, a pura curiosidade se transforma na principal força dos grupos humanos, e encontraremos homens que buscarão o conhecimento apenas com o intuito de obtê-lo, sem se importar com sua aplicação prática. Mas, embora o desejo para adquirir conhecimento seja tão velho quanto a raça humana, o método por meio do qual tal desejo possa ser satisfeito é, comparativamente, uma descoberta recente. Este método, inventado por Galileu e Newton, é conhecido como o método científico, e o conhecimento obtido de sua aplicação é chamado ciência. Foi, então, que, incorporando tal método, a filosofia natural desenvolveu uma visão mais ampla e se capacitou para responder pelas várias descobertas. No caso da física, na qual estamos especialmente interessados, a filosofia natural encontrará seu principal modo de expressão nas teorias físico-matemáticas. Mas, o obscurantismo, nestas teorias, pode ocorrer devido ao caráter esotérico da filosofia natural e a dificuldade de pesar suas conclusões; para evitar tal problema, é imprescindível que o pesquisador seja bem versado na física e na matemática.

Antes da descoberta do método científico foi feito pouco progresso; embora a arte, a literatura e a geometria [1] florescessem, o homem continuava não tendo praticamente nenhum entendimento dos fenômenos naturais. Considerando o método científico, será vantajoso enfatizarmos as fases sucessivas de sua aplicação. Estas podem ser denominadas:

(a) A fase observacional. (b) A fase experimental. (c) A fase teórica e matemática (na física).

A ordem, na qual estas fases foram listadas, segue o mesmo encadeamento no estudo de qualquer grupo de fenômenos físicos. Também é a ordem cronológica na qual foram descobertos.

(a) A fase observacional. Esta primeira fase consiste em observarmos os fenômenos com precisão. Por exemplo, nós podemos observar que a morte de uma planta está relacionada com falta de umidade, ou que os arco-íris estão associados com as tempestades, ou que as estrelas se movem em torno da Estrela Polar. Observações deste tipo, enquanto sendo puramente qualitativo, necessariamente estão faltando com a precisão; mas, nós podemos atingir, frequentemente, maior precisão discernindo relações quantitativas. Assim, a última observação acima, pode ser melhorada quando constatamos que, os movimentos das estrelas ao redor da Estrela Polar, descrevem círculos com velocidade uniforme, como se estivessem rigidamente conectados. Raramente necessitamos mencionar que quanto mais precisa a informação, maior o progresso alcançado; e, assim, fica bem claro que a procura por relações quantitativas surgiu naturalmente do desejo para se atingir maior precisão nas observações. Outras razões, também, favoreceram as observações quantitativas, razões que podem não ter sido óbvias mais cedo aos investigadores, mas que ficaram claras quando a terceira fase, a matemática, entrou em ação.

As medidas obtidas com as observações quantitativas revelam freqüentemente relações notavelmente simples entre as várias magnitudes medidas. Tais relações são chamadas leis naturais ou, mais especificamente, leis empíricas. As leis de Kepler para os movimentos planetários provavelmente são as leis mais famosas desse tipo. Serão examinados outros tipos de leis naturais ao longo de nosso estudo.

Especificamente falando, nós devemos restringir a designação “método científico” às observações quantitativas, pois, o mero notar de que o arco-íris está associado com a chuva ou que uma planta morre se não lhe fornecemos umidade, constituem observações de tal trivialidade que só podem ser chamadas científicas de modo muito inexpressivo. Mesmo com esta reserva, a aplicação do primeiro passo do método científico deve ter surgido muitos séculos atrás, pois, é do conhecimento de todos, que os caldeus e os egípcios já possuíam, desde épocas remotas, um conhecimento considerável de astronomia observacional. Os astrônomos gregos, Hiparco em particular, estabeleceram relações quantitativas com tal grau de precisão que levantaram grande admiração dos investigadores posteriores. Mencionando mais um exemplo, nós podemos recordar a descoberta de Hiparco da precessão dos equinócios.

(b) A fase experimental. O segundo passo na aplicação do método científico consiste na complementação do primeiro, o observacional, através do experimento. Os homens não se contentam mais em observar os fenômenos como e quando possam ocorrer naturalmente; fazem, sim, esforço para produzi-los artificialmente para, então, observá-los debaixo de condições diferentes e com a precisão aumentada permitida pela repetição deles. Aparte uma diferença importante, os mesmos requisitos da observação exata de natureza quantitativa (sempre que possível) se impõem. A descoberta do método experimental normalmente é atribuída a Galileu; daí, este ser considerado o pai da ciência moderna. Alguma injustiça parece ser feita a Arquimedes, pois, na verdade, este inaugurou o método experimental nas suas investigações da hidrostática. Infelizmente, para a glória da Grécia, Arquimedes veio fundar uma escola muito tarde. Roma estava ascendendo ao poder e o interesse era a situação da nova civilização conquistada e sua organização, ficando em segundo lugar o conhecimento científico. Da grande lição ensinada por Arquimedes, tudo havia ficado no esquecimento, e, quando, na Idade Média, o estudo da cultura helênica foi retomado pelos escolásticos, Aristóteles e Platão, ambos místicos, foram considerados como os representantes mais eminentes do pensamento grego. Porém, Galileu viveu numa época mais propícia, alcançando a sorte, notavelmente ótima, de ser seguido por Newton. Newton, pela sua descoberta do terceiro passo (a fase teórica), completou a filosofia do método científico inaugurada por Galileu. A filosofia natural [2], então, como pertencendo à física, assim nasceu e tem se mantido sem qualquer mudança essencial nos seus métodos até os dias atuais.

Mesmo tendo tornado possível a introdução da terceira fase, a teórica, a segunda fase tem uma importância enorme por si mesma. A maioria das leis empíricas da ciência foram obtidas pela aplicação do método experimental. Galileu mediu as acelerações de corpos caindo e assim obteve a lei empírica da queda livre de corpos cadentes. A lei de Boyle para gases e a lei de Descartes de refração, são outros exemplos de leis empíricas derivadas da experiência. Noutro ramo da ciência, podemos mencionar as observações de Mendel do cruzamento de variedades diferentes de ervilha: a lei empírica obtida ficou conhecida como a lei de Mendel.

O papel desempenhado pela experiência é menos conspícuo na astronomia e na geologia, nestas ciências devemos nos contentar com a observação. Na astronomia moderna e na astrofísica, porém, o experimento exerce um papel importante, ainda que de forma indireta: primeiramente, graças ao experimento físico (complementado pela teoria), o telescópio e o espectroscópio puderam ser construídos; secundariamente, é a experiência que nos permite comparar no laboratório as linhas espectrais observadas nos espectros das estrelas e estabelecer, dessa forma, a sua importância. Em sentido geral, para uma atuação vitoriosa do primeiro e segundo passos, serão necessárias muita atenção, precisão e engenhosidade na construção do dispositivo experimental. Muito embora bem pouca suposição especulativa seja utilizada.

( c) A fase teórica e matemática. O terceiro passo foi dado por Newton quando estabeleceu sua teoria matemática dos movimentos planetários e obteve, então, sua lei da gravitação. [3] Podemos aqui verificar uma forte diferença em relação à fase experimental: nas leis newtonianas, e, portanto, na fase teórica, é nítido o caráter matemático e especulativo. Além disso, a física se revela como a única das ciências para as quais o procedimento matemático da terceira fase foi aplicado com excelente sucesso. Devido a estas circunstâncias, a física se desenvolveu muito mais rapidamente que as outras ciências.

Os incentivos que provocaram o terceiro passo serão considerados prontamente. Na fase experimental, os fatos foram descobertos, suas relações foram estabelecidas, e leis empíricas foram obtidas. Mas as relações descobertas experimentalmente eram, na sua grande maioria, muito óbvias, a tal ponto de isto permitir supormos que relações ocultas pudessem também existir. Se estas relações adicionais pudessem ser reveladas, além daquelas que somente se conseguiria com o uso do método experimental, uma ordem mais ampla de fatos poderiam se conectar, aumentando, correspondentemente, nossa compreensão dos processos naturais. Entretanto, para continuar para além da fase experimental, os investigadores foram compelidos, porém, a introduzir suposições de natureza mais especulativa. Mas, na maioria dos casos, as implicações destas suposições, também se tornaram complicadas para serem deduzidas tanto pelo raciocínio comum,  como tanbém pela lógica formal. Logo, um método mais sutil, de grande aproximação, era necessário para continuar o estudo; foi, então, que, com a utilização do instrumento matemático, tal método pôde ser elaborado. Assim, estava complementado o método científico com a consecução da terceira fase.

Graças ao instrumento matemático, foram reveladas relações que antigamente eram insuspeitas e derivadas leis adicionais. Estas leis matemáticas já não são mais chamadas empíricas, pois, diferem completamente no seu modo de derivação das leis que se podem ter estabelecido nos passos precedentes.A lei de Newton da gravitação é uma ilustração de uma lei obtida por intermédio da matemática. As doutrinas desenvolvidas na física, como um resultado da aplicação do terceiro passo, são chamadas teorias físico-matemáticas, ou, mais brevemente, físicas teóricas. A teoria da relatividade e a teoria quântica são deste tipo.

Em qualquer discussão histórica do desenvolvimento do método científico na física, nós devemos ressaltar que a fase teórica não poderia ter surgido antes que a matemática alcançasse um grau pelo menos moderado de desenvolvimento. O fato é que, todas as teorias físicas, envolvem o cálculo diferencial, o cálculo de probabilidades, ou ainda, elementos mais avançados de análise. Considerando que, nenhum destes desenvolvimentos matemáticos, era conhecido antes de Newton, seria injusto criticar os seus antecessores pelo fracasso em aplicar tal método teórico. De antemão, podemos desejar saber por que o passo experimental deveria estar tão atrasado no seu aparecimento, especialmente quando nós percebemos que a transição do passo observacional para o passo experimental é bastante natural. Ambos os passos estão alicerçados essencialmente na observação; diferindo, entretanto, no modo como a observação se realiza: no primeiro passo, nós observamos o que acontece naturalmente, já no passo experimental nós tentamos gerar a ocorrência. A criança que observa os conteúdos de uma caixa aberta está aplicando o primeiro passo. Mas, quando a caixa está fechada e a criança, deliberadamente, abre para ver seus conteúdos, está inconscientemente aplicando o segundo passo. Embora o método experimental nos pareça hoje tão natural,  sempre houve algo de paradoxal no fracasso dos gregos em tê-lo aplicado, mesmo nos casos mais triviais. Nós, então, pudemos crer que a superdotada raça grega – a qual deu ao mundo vários gênios como Homero, Fídias, Sófocles e Euclides –, produziu um só pensador, Arquimedes, o qual compreendeu a prudência de abrir a caixa em lugar de especular eternamente em conteúdos ocultos? Uma possível resposta a esta pergunta será considerada presentemente.

Em todos os eventos, o fracasso dos sábios em confiar na experiência era responsável pela insignificância das suas contribuições à filosofia natural. Realmente, se nós excluirmos Arquimedes e os geômetras, concordaremos que os gregos se limitaram a suposições grotescas, apoiadas por argumentos metafísicos irrelevantes que até um aluno do colegial moderno poderia refutá-los com facilidade. Nestas especulações, a matéria, o espaço, o movimento, o átomo (com ganchos e olhos) e outras noções deduzidas da experiência comum tocaram uma parte proeminente. O procedimento dos sábios nem siquer tem o mérito de ser consistente, pois, estes, escolheram ignorar a informação revelada pela experimentação inteligente; igualmente, com todo o descuido da lógica que o conhecimento mais cru ganha através da observação comum, devemos nos abster de tomar este conhecimento como a base de nossas especulações.

A. H. Compton atribui, a estranha falta no entendimento dos gregos, à influência de Sócrates e dos mágicos Persas. Em nossa opinião a explicação de Compton não pode conter a verdade inteira, pois não podemos presumir seguramente que todos os gregos eram místicos. E quem, sem ser um místico, poderia ser sacudido pelos argumentos dos mágicos ou de Sócrates e Platão?

Outra explicação que nos parece mais plausível é que os gregos eram perfeitamente capazes de compreender o valor da experiência, mas não desejaram reconhecer isto. Claramente, a aplicação do método experimental é uma questão de mera inteligência; mas pode envolver outras qualidades menos eminentes, isto é, coragem, sinceridade, e modéstia. Exige a coragem, buscar a verdade, inclusive quando temos razão para temer que tal não seja da nossa preferência. Exige a sinceridade aceitar a verdade mesmo quando esta verdade passa a contradizer tudo aquilo que nós previamente professamos. Finalmente, exige a modéstia, fazer reconhecer ao homem, que este não pode, pela visão interna dele só, atingir a verdade e que, para tal, tem que se inclinar à experimentação. O experimento sempre tem sido anátema, maldito, ao egotista, não necessariamente porque envolve o labor manual, mas porque diminui o homem colocando-o na posição de um humilde estudante da Natureza em lugar de revelá-lo como Senhor de toda a Criação.[4]

Estas qualidades de caráter – coragem, sinceridade e modéstia -, que aos sábios parece ter faltado, lhes impediu de criar uma ciência. Assim, encontraremos Pitágoras que oculta sua descoberta dos irracionais por perturbar sua doutrina dos números. Nos dias de Galileu, o mesmo espírito mostra-se no metafísico: este, temendo convencer-se dos erros nos ensinamentos de Aristóteles, se nega mirar os céus através de um telescópio. E, se Platão, abrindo uma caixa, pudera provar sua teoria dos universais, nós podemos estar seguros que ele haveria destruído a caixa em lugar de correr o risco de ser refutado.

Claro, quando falamos do método experimental, como exemplificado pela abertura de uma caixa para ver o que contém, estamos tomando uma ilustração trivial; e podemos encontrar vários casos triviais, incluindo aqueles aos quais os metafísicos gregos recorreram para experimentar. Mas, tais habitantes de Eléia, procederam de modo indiferente e incompatível. Não enfatizaremos as especulações dos pitagóricos e dos primeiros atomistas, pois, para o amanhecer de qualquer civilização, é tudo aquilo que se pode esperar. Platão, também, pode ser desconsiderado, pois, tal se dizia, declaradamente, uma verdade mística de sua alma interna. No mais, um estudo das escrituras de Aristóteles será mais instrutivo em nosso presente estado.

Aristóteles obteve a fama, bem merecida, como o fundador da lógica; porém, também era estudioso dos fenômenos naturais; são nestas suas investigações, neste seu campo de pesquisa da natureza, que, aqui, estamos interessados. A inundação anual do Nilo excitou a curiosidade de Aristóteles; e, para determinar sua origem, procedeu de uma maneira completamente recomendável enviando uma expedição às fontes do rio. Em outras palavras, ele abriu a caixa e olhou dentro. Também o estagirita afirmava que o ganho de peso de uma planta em crescimento é devido ao material que absorve da terra. Claro que Aristóteles, como qualquer outra pessoa, tinha observado que plantas crescem do chão e não pulam de uma laje nua de pedra; assim, portanto, a sua suposição era plausível. Mas nunca o mesmo experimentou tal hipótese pesando uma panela, que contivesse uma planta crescendo, a períodos sucessivos de seu crescimento. É significativo que, não até o décimo oitavo século, fosse esta simples experiência feita e o aumento de peso na panela seria constatado. A experiência elementar precedente que poderia ter convencido a Aristóteles do seu engano, seguramente teria sido menos cara e mais facilmente realizada que o envio de uma expedição às fontes do Nilo.

Em outra parte, Aristóteles nos diz que as mulheres têm menos dentes e menos costelas que os homens. Nós, também, estamos fadados a acreditar que um corpo deixado cair do mastro de uma nave em movimento se deslocará para trás do mastro. Obviamente o experimento não foi realizado. Em todo caso, encontramos certas suposições, entre as quais o predomínio de terremotos nas regiões costeiras, que têm resultado serem corretas. Mas, se as suposições estavam corretas ou incorretas, é um ponto secundário; o fato característico é que tais hipóteses não estavam baseadas em observação cuidadosa. Como tal, estas, nada poderiam ensinar a Aristóteles sobre os fenômenos nos quais estava interessado. O resultado líquido é que Mendel, através de suas experiências simples, contribuiu mais à biologia que Aristóteles nas suas vastas escrituras.

Um estudo comparativo da ascensão do método experimental nas diferentes civilizações seria interessante no sentido de se descobrir se, as estranhas deficiências dos gregos, ocorriam de modo generalizado ou não. Infelizmente, tal estudo, só poderia ser aplicado à civilização da raça branca, pois, esta, fez evoluir o método experimental, exclusivamente, por sua própria iniciativa. Podemos notar, porém, que nos poucos casos onde alguma amável comparação é possível, a aplicação do método experimental invariavelmente tem seguido a idade dourada da literatura e da arte: Arquimedes vem após Péricles, Galileu depois de Dante e Rafael, e Newton depois de Shakespeare. Destas ilustrações, poderíamos imaginar que, o fracasso dos gregos para desenvolver o método experimental, foi devido ao eclipse prematuro de sua civilização. Outras considerações apóiam esta visão. Tendências Antropocêntricas sempre foram perniciosas ao desenvolvimento de ciência; e constatamos isso nas primeiras fases de desenvolvimento de qualquer civilização nas quais estas tendências predominam. A história da pintura fornece uma ilustração. Os primeiros assuntos a serem representados eram os homens (deuses com forma de homens) e os animais úteis aos homens. Neste tempo se agregaram as paisagens, porém, somente como fundo; o homem, todavia, era ainda o centro de interesse. Só consideravelmente depois, com o desenvolvimento da escola holandesa, as paisagens eram pintadas em causa própria. Semelhantemente em literatura, os poetas mais cedo cantaram seus amores e batalhas, mas nunca exaltaram a beleza das suas terras. Até mesmo em tempos modernos, Montesquieu, na sua descrição dos Alpes, fala deles como uma massa de pedras que realizam viagem tediosa. Somente no final do décimo oitavo século, nos escritos de J. J. Rousseau, é que a beleza da natureza foi considerada merecedora de muito mais atenção. No campo científico, encontramos as mesmas tendências antropocêntricas persistentes. Estas tendências são vistas nas controvérsias acaloradas que se seguiram à defesa de Copérnico do sistema heliocêntrico.

A verdadeira importância da descoberta de Copérnico não foi ter pavimentado o caminho para as leis de Kepler e as investigações de Newton. Mas, o que causou tanta excitação nos dias de Copérnico, foi o destronamento da Terra de sua posição central no Universo. Ainda, quem, menos que o egotista, está preocupado se a Terra, planeta em que vive, é o centro da Criação ou um mero satélite do sol? Em tempos mais recentes, a teoria que tal antagonismo manifestaria em certas áreas do conhecimento, afirmando ser, os antepassados dos homens, macacos, é identificável a um egotismo similar.[5] Entretanto, por mais natural que fossem todas estas tendências do antropocentrismo, tais exerceram, indubitavelmente, uma influência perniciosa no desenvolvimento da investigação desinteressada.

Com a aplicação do método experimental por Galileu, os efeitos do egotismo começaram a perder sua força, pelo menos em assuntos científicos; os fatos serão buscados, agora, quer sejam conveniente ao homem ou não. O décimo sétimo século testemunhou várias tentativas de estender o método de Galileu a outros fenômenos. Assim, Descartes mediu os ângulos de incidência e de refração de um raio de luz, quando da passagem desta de um meio a outro, obtendo, de suas medidas, a lei empírica da refração. Pascal executou experiências em hidrostática e estabeleceu a diminuição na pressão atmosférica que acompanha o crescente aumento da altitude. Boyle estudou a mudança em volume de um gás quando comprimido a temperatura constante. Newton completando as experiências mecânicas de Galileu com outros de sua própria invenção, obteve, assim, as leis fundamentais da mecânica. Experiências foram administradas por Newton e por Huyghens em ótica. Estas e algumas outras aplicações do método galileano constituem as contribuições exclusivas dos experimentadores do décimo sétimo século. Porém, os resultados foram escassos, e nenhum avanço mais rápido é registrado no século seguinte. O progresso lento foi devido à rudeza do aparato experimental e ao controle limitado que os investigadores exerceram sobre as condições debaixo das quais as experiências foram executadas.

O desenvolvimento verdadeiramente significativo, que ocorreu no décimo sétimo século, foi a descoberta e aplicação por Newton do terceiro passo do método científico. Os fatos, que Newton tentou coordenar, eram as leis de Kepler dos movimentos planetários e os fatos mecânicos expressos pelas leis da mecânica. Newton estabeleceu a suposição de que as massas planetárias eram governadas pelas mesmas leis mecânicas as quais sustentava para os corpos terrestres. É a dedução das conseqüências matemáticas necessárias desta suposição simples que constitui um dos títulos de comandante a Newton. Como é bem conhecida, uma conseqüência direta da suposição de Newton (quando da consideração das leis de Kepler) é a lei da gravitação. Vários pontos importantes estão conectados com as investigações de Newton, mas nós adiaremos uma consideração mais completa deles pelo presente. Bastante é dizer que, a gravitação, não só conectou a teoria de Newton com as leis de Kepler (e este era seu objetivo original), porém, também, mostrou a ligação da queda dos corpos e os tais fenômenos, aparentemente independentes, como as marés e a precessão dos equinócios. Os resultados de Newton ilustram a habilidade de uma teoria científica para coordenar uma maior ordem de fatos que seria só possível por meio do método experimental.

A importância do método de Newton era tão óbvia que impressionou bastante seus contemporâneos. O sucesso do método newtoniano pareceu ainda mais instigante quando foi contrastado com o esquema de Descartes, seu rival. Descartes era um matemático completo, muito criativo, e estava familiarizado com a matemática limitada de seus dias. Claro, ele também percebeu a importância de averiguar os fatos corretamente ( a ele devemos as leis empíricas da reflexão e refração). Não obstante, em fases mais tardes de sua vida, preferindo seguir as fáceis racionalizações dos metafísicos gregos, construiu um mundo que satisfazia sua imaginação, sem a mais ligeira consideração dos fatos conhecidos. Assim, Descartes, buscando explicar os movimentos planetários, imaginou vórtices que varreriam os planetas ao redor do sol. No esquema de Descartes, pode os planetas muito bem seguir curvas arbitrárias, abertas ou fechadas; agora, considerando que, no esquema newtoniano, tivesse os cursos e os movimentos dos planetas diferidos daqueles estabelecidos por Kepler, a lei de Newton do quadrado inverso teria sido insustentável. O resultado líquido do procedimento defeituoso de Descartes era que a sua teoria não respondeu por nada, não coordenou nada, e não predisse nada; e as suas especulações não mostraram nenhuma maior influência no desenvolvimento subseqüente da filosofia natural na física que seja semelhante ao dado em medicina.

Nesta condenação de Descartes, temos que deixar claro que, a característica censurável em seus escritos, não é devida ao seu espírito especulativo; realmente, muitas das teorias de físicas matemáticas, que ocupam um alto lugar na história da ciência, fazem as maiores demandas de imaginação, mais que qualquer coisa que Descartes tenha feito, neste sentido, em sua vida. O que condena Descartes é o seu descuido absoluto dos fatos. Mas, alguns o perdoam, pois tal se achava ainda no tempo em que o cálculo diferencial era desconhecido e o próprio tratamento dos movimentos planetários era impossível. Menos desculpas, porém, pode ser dada a Leibnitz. Entretanto, se constatou que, os escritos extravagantes de Descartes e de Leibnitz, provocaram, indiretamente, certa influência benéfica, pois convenceram os matemáticos da futilidade das especulações infundadas. Nunca mais, porém, encontraremos matemáticos criativos que construam sistemas universais para vestirem suas fantasias; ao invés disso, estes concentrarão seus esforços no sentido de aperfeiçoar o instrumento matemático, ao mesmo tempo em que o tornam adaptado ao uso do físico teórico.

Um ponto que não pode ser enfatizado fortemente é que, embora os matemáticos estabeleçam suas investigações dentro de um espírito desinteressado, as suas descobertas são de valor inestimável ao físico teórico nas suas tentativas de construir uma teoria. Nossa menção do porte do cálculo diferencial na teoria de gravitação é somente uma ilustração entre muitas. Mesmo se todos os fatos, nos quais a teoria da relatividade e a teoria do quantum estão baseadas, tivessem sido conhecidos pelo tempo de Newton (ou até mesmo um século depois), ainda teria sido impossível, devido a limitações matemáticas, construir estas teorias. Por exemplo, a teoria geral da relatividade nunca poderia ter surgido antes das investigações de Riemann, em matemática pura, de espaços curvados.

Principais resultados da aplicação do método científico na física [6]

Estabelecido as origens do método científico, passaremos agora aos principais resultados de sua aplicação na física. Durante o décimo sétimo século, Newton efetuou a síntese dos fatos que dizem respeito à dinâmica dos corpos rígidos e aos movimentos planetários; entretanto, havia outros assuntos os quais, por serem escassos e incompletos, não podiam ser coordenados. Assim, ainda no inicio do décimo oitavo século, não havia contribuição de fatos novos de importância; foi somente no final desse século, então, que a corrente elétrica gerada por Volta e as ações eletrostáticas puderam ser formuladas na lei de Coulomb. Como que para compensar esta falta de progresso experimental, o décimo oitavo século testemunhou um desenvolvimento matemático notável nas mãos de Euler, d’Alembert, Lagrange, Daniel Bernoulli, e Laplace. A maioria do avanço surgiu de tentativas para aplicar a dinâmica de Newton a partículas de massa e para sólidos extensos. Assim, encontramos Euler que obtém as suas célebres equações para sólidos em rotação; d’Alembert que une a estática e a dinâmica newtoniana por meio do seu princípio; Lagrange que condensa a dinâmica newtoniana em uma forma dedutiva no seu “Mecanique Analytique”; e Laplace que contribui com avanços de importância principal na mecânica celeste. Também podemos mencionar a extensão de Euler e Lagrange da dinâmica de Newton a fluidos em movimento. Assim, estática e hidrostática, cujas leis o gênio de Archimedes tinha estabelecido, foram completadas pela dinâmica e hidrodinâmica, respectivamente. Junto com este progresso, o avançando da mecânica newtoniana, foram desenvolvidos ramos importantes de pura matemática, como o cálculo de variações (Lagrange), análise de harmônicos (Legendre, Laplace), e equações diferenciais parciais (Lagrange).

O décimo oitavo século, como mostramos, não contribuiu com qualquer fato físico de importância, de forma que nenhuma teoria física nova pôde ser desenvolvida. Mas durante os décimo nono e vigésimos séculos, uma massa inteira de dados experimentais foi obtida em todos os campos da física, fornecendo, assim, material necessário para teorias físicas adicionais. Não obstante, só algumas das teorias dos décimo nono e vigésimos séculos teriam visto o dia… o avanço matemático não havia mantido o passo com as descobertas experimentais. Felizmente, no décimo nono século, se deu um tremendo desenvolvimento matemático, e, graças a este progresso, teorias de físicas matemáticas começaram a aparecer. As mais importantes destas foram as termodinâmicas (Carnot, Clausius, Maxwell, Gibbs, Nernst); a teoria de Maxwell do eletromagnetismo; a teoria cinética dos gases (Boltzmann, Maxwell, Gibbs, o Einstein); a teoria de Lorentz dos elétrons; e, finalmente, a teoria da relatividade e a teoria do quantum.

…………………………………………………………………………………..

………………………………………………………………………………………………………….

FÍSICA: ONTOLOGIA, EPISTEMOLOGIA, SEMÂNTICA E METODOLOGIA

……………………………………………………………………………………

………………………………………………………………………………………………………….

……………………………………………………………………………………………………………………………….

Agora, passamos a uma análise filosófico-científica do conhecimento da Ciência Física, ressaltando antes alguns pontos fundamentais do texto acima e além.

A  descoberta dos incomensuráveis por Pitágoras gerou, além da ruína total de sua escola, uma grande reviravolta na ordenação matemática do Cosmo ou no modelo do mundo dos gregos de seu tempo. Mas, buscando uma nova compreensão desse mundo, Parmênides distinguia aquilo que era objeto puramente da razão – o que chamou de verdade– e o que era dado pela observação, pelos sentidos – o que denominou de opinião. Opondo, assim, a razão à opinião, Parmênides abriu um debate de uma importância e alcance excepcionais, o qual, ainda hoje, tem gerado muita controvérsia no meio científico: as relações entre razão e a experiência, entre a teoria e a prática, entre o idealismo e o materialismo. Ao existente Parmênides reconhece as seguintes características: unidade, homogeneidade, continuidade, imobilidade, eternidade; relega, então, para o vulgo da opinião, todos os outros atributos que porventura sejam contrários àqueles. Foi a partir das concepções de Parmênides e do fenômeno da incomensurabilidade, que Zenão de Eléia constatou, através da razão, a impossibilidade do movimento: a incomensurabilidade implicando o infinito, paradoxalmente, implicava também a imobilidade, o não movimento. Porém, Heráclito, contemporâneo de Parmênides, afirmava embasado na opinião, que tudo no mundo é movimento, nada permanece imóvel, tudo muda, se transmuta.

Atrelados ainda à concepção materialista do Cosmo, os esquemas de Parmênides e de Heráclito não conseguiram explicar o sensível através do sensível, o que provocou grande perplexidade entre os gregos no que diz respeito à concepção que tinham do Universo. Platão, entretanto, enfrentando o problema da realidade e das aparências, da unidade ou pluralidade do ser, e partindo da teoria do Eleata, conseguiu dar novo rumo à questão da inteligibilidade do Universo através da descoberta da imaterialidade, do imaterial, do supra-sensível; reconheceu, então, a existência de dois planos do ser: um, fenomênico e visível; outro, invisível e metafenomênico, captável apenas com a mente e, por conseguinte, puramente inteligível. Com isso, com a distinção entre esses dois planos, o sensível  e o inteligível, foi superada, definitivamente, a antítese entre Parmênides e Heráclito; ou seja, a verdadeira causa que explica tudo não é algo sensível, mas inteligível. Platão denominou estas causas de natureza não física, essas realidades inteligíveis, usando o termo Idéia que significa forma. Tinha fim, assim, a grande preocupação de Platão, o objetivo final de sua filosofia, pois havia obtido uma coisa que guardava identidade permanente e à qual o pensamento pudesse se prender: se a realidade sensível é fluente e, portanto, o contrário do permanentemente idêntico, voltemos-lhe as costas e refugiemo-nos do lado das Idéias. Contudo, afirmando serem as coisas sensíveis não mais que imagens ou cópias das formas, das idéias, a verdade não se poderia adquirir pelo exame do universo exterior sensível, por meio dos sentidos, mas apenas pelo pensamento puro, pela atividade da alma, isolada do corpo; aliás, este, não faz mais do que perturba-la, impedindo-a de pensar.

A ciência e a filosofia gregas, lendo na cartilha de Platão, impuseram-se, então, a partir do dobrar do século V para IV a.C., duas limitações: rejeição do devir como base duma explicação racional do mundo; e rejeição do manual e do mecânico para fora do domínio da cultura. Estas duas limitações, portanto, vão pesar duramente sobre as possibilidades de uma construção científica do Cosmo pelos povos gregos, pois, além da matemática que, banindo o infinito de seus estudos, impossibilitou o tratamento matemático de sistemas dinâmicos, do movimento, a filosofia natural, também, banindo a experiência sensível de sua metodologia, como algo sem nenhum valor, tornou impossível o tratamento objetivo e de precisão do devir, do real (é bom frisar que ao devir está relacionado o infinito e, ao mecânico, a experiência).

Agora, então, somando a estas nossas considerações acima com aquelas citadas por A. D’Abro, tornamos mais claro o motivo do desprezo dos gregos pela experiência e, assim, sua consequente incapacidade de desenvolver a ciência física.

Importante, então, nossa atenção para dois fatos históricos fundamentais:

O primeiro – como já vimos -, se deu ainda na Antiguidade quando Parmêncides e Heráclito discutiam sobre o MOVIMENTO.  O segundo ocorrido quando da criação da MECÂNICA QUÂNTICA. Ambos os fatos históricos estando relacionados com o problema da MEDIDA na matemática e na física.

Já foi relatado acima toda a problemática envolvendo o infinito nas medidas à época da antiguidade grega.  Hoje, então, temos outro problema de medida, envolvendo as medidas da posição e do momento do elétron nos fenômenos quânticos, o que fez se gerar uma nova reviravolta, agora, com relação a Visão de Mundo consagrada pela comunidade científica atual, fundada na Física Clássica. A partir dessa medida, resultou uma nova visão dada pela Mecânica Quântica, donde a dicotomia, elaborada por Platão e reafirmada por Descartes, ficando profundamente abalada, consequentemente não se pode mais separar sujeito e objeto no estudo da realidade. 

Tendo em vista, assim, a importância da problemática da medida dos quanta, aprofundamos abaixo uma discussão ontológica, e epistemológica, semântica e metodológica sobre o conhecimento da ciência física, de modo a propiciar uma critica justa e esclarecedora do conhecimento da ciência física.

Figura 2 – Diagrama Física

_____________________________________

No diagrama 2, fazemos uma abordagem do conhecimento da Física Moderna segundo os pontos de vista ontológico, epistemológico, semântico e metodológico:

Ontologicamente, então, dizemos que a Física não conhece em si os objetos de seu estudo, mas suas relações, as estruturas matemáticas na qual estão inseridos. Ignorando, assim, a realidade, a Física toma contato apenas com os fenômenos (o observável) a partir dos quais constrói seus conceitos.

Semanticamente, os significados dos termos teóricos (conceitos), são dados implicitamente pela rede de princípios ou significados na qual estão contidos, ou seja, um conceito como o de campo eletromagnético somente pode ser descrito ou entendido dentro da rede significados da teoria eletromagnética. O que seja o campo em si, a coisa-em-si, a ciência física desconhece e não tem interesse em conhecer;

Epistemologicamente, a construção dos conceitos físicos se dá através da dialética entre o racionalismo e o empirismo, entre teoria e prática. Assim, a partir do momento em que se medita na ação científica, apercebemo-nos de que o empirismo e o racionalismo trocam entre si infindavelmente os seus conselhos. Nem um e nem outro, isoladamente, basta para construir a prova científica. Contudo, o sentido do vetor epistemológico parece-nos bem nítido: vai seguramente do racional ao real e não, ao contrário, do real ao racional, como o professavam todos os filósofos de Aristóteles a Bacon. Em outras palavras, a aplicação do pensamento científico parece-nos essencialmente realizante (BACHELARD, 1978).

Figura 3 – Diagrama Epistemológico

___________________________________________

No diagrama 3, observemos que o vetor epistemológico no REALISMO DE PLATÃO vai das Ideias para a Matéria; e no REALISMO DE ARISTÓTELES o mesmo vetor vai da Matéria parta as Ideias. É de se notar o caráter platônico, então, do vetor epistemológico bachelardiano, Daí seu papel realizante, a juízo de Bachelard, incorporando, assim, a dimensão objetiva e subjetiva no processo do conhecimento.

(…) É, portanto, na encruzilhada dos caminhos que o epistemólogo deve colocar-se: entre o empirismo e o racionalismo. É aí que ele pode apreender o novo dinamismo dessas filosofias contrárias, o duplo movimento pelo qual a ciência simplifica o real e complica a razão. Fica então mais curto o caminho que vai da realidade explicada ao pensamento aplicado. É nesse curto trajeto que se deve desenvolver toda a pedagogia da prova, pedagogia que é a única psicologia possível do espírito científico. (…) A ciência, soma de provas e experiências, de regras e de leis, de evidências e de fatos, necessita, pois, de uma filosofia de dois polos. (BACHELARD, 1978). Exemplos práticos disto são o “salto da ideia” de Einstein e o conceito de “massa negativa” obtida por Dirac a partir de suas equações quântico-relativísticas do elétron.

A filosofia dialética, então, do “por que não?”, de dois polos, é a característica do novo espírito científico. Por que razão a massa não havia de ser negativa? Que modificação teórica essencial poderia legitimar uma massa negativa? Em que perspectiva de experiências se poderia descobrir uma massa negativa? Qual o caráter que, na sua propagação, se revelaria como uma massa negativa? Em suma, a teoria insiste, não hesita, a preço de algumas modificações de base, em procurar as realizações de um conceito inteiramente novo, sem raiz na realidade comum. (…) Deste modo a realização leva a melhor sobre a realidade. Esta primazia da realização desclassifica a realidade. Um físico só conhece verdadeiramente uma realidade quando a realizou, quando deste modo é senhor do eterno recomeço das coisas e quando constitui nele um retorno eterno da razão. Aliás, o ideal da realização é exigente: a teoria que realiza parcialmente deve realizar totalmente. Ela não pode ter razão apenas de uma forma fragmentária. A teoria é a verdade matemática que ainda não encontrou a sua realização completa. O cientista deve procurar esta REALIZAÇÃO COMPLETA. É preciso forçar a Natureza a ir tão longe quanto o nosso espírito (BACHELARD, 1978). (…) Entre o fenômeno científico e o número científico se tem uma dialética que, após algumas retificações dos projetos, tende sempre a uma realização efetiva do número. A verdadeira fenomenologia científica é, portanto, essencialmente uma fenomenotécnica. (BACHELAR, 1978).

Metodologicamente, a Física observa os fenômenos através de experiências, experimentalmente bem elaboradas, analisa as propriedades físicas presentes nestes fenômenos e – conseguindo isolar as principais grandezas envolvidas -, procede a matematização destas elaborando, então, as leis fenomenológicas e as teorias fundamentais: aplica, assim, inexoravelmente, o método científico – acima estudado profundamente -, no seu trabalho de pesquisa.

De acordo com o diagrama 2, todo conceito da Física só é bem explicado e compreendido dentro de sua semântica: ou seja, os fatos ou fenômenos nos dão apenas uma pista no sentido de entendermos as estruturas intrínsecas à realidade que exprimem. A partir daí – sempre que necessário – como num círculo vicioso, novamente e sempre, passamos à construção de novos conceitos, servindo-nos da dialética entre o racionalismo e o empirismo a qual na prática faz uso do método científico.

Com o advento da Mecânica Quântica, passou a imperar na Física um forte antirrealismo dado a constatação de certos paradoxos no lidar com os fenômenos quânticos. Tais, paradoxos, como veremos, faz perder o sentido a discussão entre idealistas e realistas.

No estudo da Física, a composição do Universo é dividida em duas entidades – matéria e energia. De acordo com o método científico, devemos realmente admitir que pode haver no Universo algo mais além da matéria e da energia, mas até agora a Física não encontrou este terceiro componente. A matéria inclui os materiais que formam o Universo: as rochas, a água, o ar e a multiplicidade de coisas vivas. Tudo que é sólido, líquido ou gasoso é uma forma de matéria.

Mas, classificar algo como MATÉRIA não significa, entretanto, que conheçamos a natureza real da matéria. O químico desdobra a matéria para determinar seus constituintes e o físico deseja saber o que mantém tais constituintes unidos; mas as partículas fundamentais e as leis da matéria parecem ser sempre um desafio.

A melhor maneira de adquirir um conceito de matéria é trabalhar com ela e descrever suas formas. Uma descrição não é uma definição no sentido real da palavra, mas reduz uma IDEIA ABSTRATA a termos bem concretos. As propriedades da matéria são usadas para descrever a matéria: na verdade, é mais fácil discutir a matéria em termos de suas propriedades do que explicar a sua natureza final.

A ENERGIA, então, é ainda mais difícil de definir que a matéria. Ela não tem peso e só pode ser medida quando está sendo transformada, ou ao ser liberada ou absorvida. Por isso, a energia não possui unidades físicas próprias, sendo expressa em termos das unidades do trabalho que realiza.

Figura 4 – Realidade e Representação

_______________________________________________

Coadunado com tudo aqui, a figura 4 reflete o pensamento de Fritz Kahn: “Só quem bem compreende a natureza da ciência, poderá com proveito e prazer, e sem perplexidades, aplicar-se aos estudos científicos. Ciência não é coleção de conhecimentos nem busca da verdade absoluta, mas sim formação de conceitos (ao descrevermos o domicílio do homem no universo, nos utilizamos de vários deles). A Física não conta fatos, pois os seus termos: massa, energia, velocidade, não são realidades, e sim os conceitos fundamentais da Física, como, aliás, muito bem se diz, mas que freqüentemente nos escapa durante a leitura. Os conceitos, então, são instrumentos do pensamento, artificialmente construídos, tais, como as chaves de parafusos, são instrumentos que servem para abrir um motor, o qual nada tem a ver com chaves de parafusos; são escadas, pelas quais subimos a uma casa eternamente fechada”.

Não obstante, tendo em vista a semântica da física, na visão dos físicos, o Universo é constituído por partículas elementares subatômicas que se atraem e se repelem mutuamente por meio de campos de força. No entanto, as principais unidades da TEORIA QUÂNTICA DE CAMPOS não se comportam como bolas de bilhar. Isso quer dizer que, quando analisamos a constituição do mundo pela visão da teoria quântica de campos, nem partículas nem campos são fundamentais. Isso nos leva ao seguinte questionamento: O QUE É ESSENCIAL?

A busca pelo que é essencial ou pela essência das coisas é metafísica e foi deixado de lado pela ciência moderna. A partir do século XVII, o traço característico e fundamental da ciência natural exata – dita, aqui, fragmentária e parcial -, é a experiência analítica: esta decompõe em seus elementos, muitas vezes invisíveis, os fenômenos pré-científicos e cotidianos, para depois novamente reuní-los. Porém, esta tendência moderna para a análise segue, antes mais nada, a construção de aparelhos e seu uso para observações sempre mais exatas. Mas, o esforço para ser exato pressupõe um grande interesse por constatações numéricas exatas, o que leva a pesquisa numa direção inteiramente nova. De tudo isto resulta que a experiência analítica e a análise matemática estão em íntima relação e tal se expressa pelo fato de em ambas se traduzir na tendência construtiva da ciência moderna: aqui a Física se afasta da metafísica, deixando de buscar a concepção ontológico-substancial da realidade.

Nesta linha de raciocínio, podemos afirma que cientificamente falando: a física não sabe o que é matéria; a biologia não sabe o que é vida; a matemática não sabe o que é número; a informática não sabe o que é informação; a psicologia não sabe o que é alma; enfim, o que se sabe são as propriedades correspondente de cada objeto de estudo, específico para cada ciência. O que seja a coisa-em-si, como já foi dito, é uma área de estudo da metafísica. 

Nesta construção da ciência moderna, eis que surge a ideia do “forçamento” (ou violação) da Natureza pelo homem através do método científico; ideia que é uma consequência, senão um pressuposto, da técnica moderna. Este forçamento, entretanto, se deu por conta do papel desempenhado pelo pensamento matemático. Ou seja, é por meio de tal pensamento que se torna possível a pesquisa analítica dos fenômenos naturais, sua decomposição em processos simples e controláveis em suas causas, e assim a construção de aparelhos tecnicamente mais perfeitos do que era capaz de produzir a cultura antiga que “nascia” da Natureza. Foi preciso antes de tudo destruir e decompor os conjuntos naturais para conseguir que as forças da Natureza agissem segundo a vontade do homem. 

Este forçamento, entretanto, patrocinado pelo pensamento matemático, só se tornou possível pela “renúncia”, ou seja, pela eliminação da metafísica. No século XX, a questão de como fundamentar o uso da matemática na ciência levou ao “positivismo lógico” (Viena: M. Schlick, R. Carnap) e ao “empirismo lógico” (Berlim: H. Reichenbach). Tal atitude se inicia com o aforisma de Francis Bacon: Naturam renuntiando vincimus – pela renúncia vencemos a natureza. Assim, por mais paradoxal que pareça, o processo para arrancar à natureza seus mistérios e pôr suas forças a nosso serviço, se realiza renunciando ao conhecimento de sua “essência“. Aqui está o ponto em que a maneira especificamente matemática de pensar desempenhou seu papel: a “renúncia” tem por consequência uma limitação de respostas possíveis sobre a natureza. Em muitos casos esta limitação, a impossibilidade de dar diversas respostas, se deixa precisar matematicamente. Resulta daí que as possibilidades estruturais de formular matematicamente as leis da natureza são igualmente limitadas. A fórmula é sempre determinada e, em casos extremos, absolutamente imutável. Não é como se somente o processo, e não a causa, de um fenômeno fosse representável pelos meios matemáticos, mas que outros conhecimentos a que se renunciou podem ser conhecidos positivamente por métodos matemáticos. 

Ontologicamente, à Física Moderna faz-se necessário um novo realismo: o realismo, não de objetos, mas de estruturas. Assim, alguns físicos teóricos, portanto, sugerem que basicamente o mundo é constituído de relações ou propriedades. Tal posição, em que as relações são tudo que existe e as propriedades possuem existência real, é chamada de REALISMO ESTRUTURAL ONTOLÓGICO:

“Não conhecemos os objetos, mas suas relações, suas propriedades, suas estruturas, ou seja, ignoramos o que seja a realidade em si, e, tomando contato somente com os fenômenos, construímos os conceitos. A ontologia da substância é substituída pela ontologia da relação.”

__________________________________

NOTAS DO TRADUTOR

[1]. Não se está tomando a matemática como una ciência, mas como um formulário de raciocínio humano, onde é mantida uma forte semelhança com a lógica. Além disso, ao longo deste livro, a atenção se concentrará na ciência física.

[2]. Filosofia natural foi o termo mais usado para indicar o estudo objetivo da natureza e do universo físico antes do desenvolvimento da ciência moderna. Nosso entendimento atual da palavra ciência e do termo cientista só surgiu à partir do século dezenove. Antes disso, “ciência” significava simplesmente “conhecimento” e o rótulo de “cientista” não existia. O que entendemos hoje como ciência se desenvolveu à partir da filosofia, mais especificamente, à partir da filosofia natural.

[3]. Como chegou Issac Newton à Lei, propriamente dita, da Gravitação Universal?

O tema central dos Principia era a universalidade da força gravitacional. No livro, Newton estabelece a Lei da Gravitação Universal que diz que:

… toda a matéria atrai toda a restante matéria com uma força proporcional ao produto das duas massas consideradas e inversamente proporcional ao quadrado da distância entre elas.

e que pode escrever-se sob a forma da equação

em que m1 e m2 são as massas dos dois corpos que estão a exercer atracção gravitacional mútua e r é a distância entre os centros dos dois corpos.

Como chegou à Lei propriamente dita, não é muito claro, mas pode tentar-se uma abordagem provável, a partir da demonstração seguinte.

Newton descobriu que a aceleração centrípeta (aceleração dirigida para o centro de curvatura) dos corpos era dada por a=v2/r, uma constatação observacional que já havia sido publicada por Christian Huygens.

Associando esta relação à segunda lei de Newton, obtém-se que um planeta de massa m, movendo-se em redor do Sol com velocidade v numa circunferência de raio r será dada por

Considerando que a circunferência tem um perímetro 2r, que demora um período T a ser percorrido, como a velocidade é a distância percorrida por intervalo de tempo tem-se

multiplicando e dividindo por r obtém-se

em que r3/T2 é a constante k da 3ª Lei de Kepler.

Assim, para qualquer planeta orbitando o Sol ter-se-ia que a Força gravitacional exercida pelo Sol seria

ou seja

em que m é a massa do planeta, r é a distância média do planeta ao Sol e k é a constante de Kepler para o Sistema Solar. Multipliquemos e dividamos pela massa do Sol (M). Obtém-se

Definindo uma constante

Tem-se

Como se vê da demonstração, a expressão apenas seria válida para corpos orbitando em torno do Sol pois a constante G inclui a massa do Sol e a constante de Kepler para planetas orbitando o Sol. Newton deverá ter pensado que provavelmente a razão entre a constante de Kepler para qualquer sistema e a massa do corpo central seria, por si mesma, constante, e terá tentado generalizar para todos os corpos.

[4]. Aqui, se recorre às objeções de pessoas que reclamam a dignidade do homem, degradada por tal teoria, e, não, daquelas que combatem tal antagonismo por motivos religiosos ou razões sociais.

___________________________

BIBLIOGRAFIA:

1. A. D’ABRO. The Rise of the New Physics. New York: Editora Dover Publictions, 1952.

2.CARAÇA, B. J.  Conceitos Fundamentais da Matemática. Livraria Sá da Costa Editora, 1951.

3. ISSAC NEWTON. Disponível em:

http://www.ccvalg.pt/astronomia/historia/isaac_newton.htm

4. STEINLE, William. Estudos sobre o Realismo
Estrutural. Disponível em:

<https://repositorio.ufsc.br/xmlui/bitstream/handle/123456789/88454/228906.pdf?sequence=1&isAllowed=y&gt;

5. FONTELES, R. C. EPISTEMOLOGIA DE BACHELARD: A FILOSOFIA DE DOIS POLOS DA FÍSICA MODERNA E CONTEMPORÂNEA. Disponível em

<https://www.facebook.com/fisicapsicologia/photos/a.1603298289928647/1891856097739530/?type=3&theater&gt;

POSTED BY SELETINOF AT 8:28 PM

HISTÓRIA DA MATEMATIZAÇÃO DA NATUREZA 1

    

Milton Vargas

 

Professor emérito da Escola Politécnica da USP.

Autor de Introdução à Mecânica dos Solos, Ciência e Verdade e Para uma Filosofia da Tecnologia.

Conferência do Mês do IEA-USP feita pelo autor em 19 de março de 1996.

 

 

A FILOSOFIA GREGA instituiu uma forma de desvelamento da realidade que se chamou épisteme theoretike; em outras palavras, uma sabedoria baseada em forma de pensar radicalmente nova denominada teoria. Esse foi o mais rico legado da civilização grega clássica à humanidade. A visão teórica da natureza como physis, eterna porém localmente sujeita ao processo de geração e corrupção, deu origem às ciências gregas da natureza. Com o cristianismo, tal forma de pensar entrou em crise: se o mundo fora criado por Deus, por Ele poderia ser destruído invalidando as leis da natureza.

Acontece porém que o cristianismo não foi fundado por filósofos, mas por homens simples e crédulos. Assim, quando se tornou necessário consubstanciar a fé cristã num corpo de doutrinas coerentemente elaborado, os padres da Igreja passaram a reinterpretar os princípios da épisteme theoretike em termos de um Deus único, eterno, perfeito e verdadeiro, governando uma natureza precária. Tal fato foi possível talvez justamente porque os filósofos gregos estavam já dominados – como muito bem o demonstrou Werner Jaeger (1) – pela crença em uma divindade única, permanente e coerente (to theon). Foi essa crença que tornou possível a compreensão da physis como algo inteligível. Conseqüentemente, as filosofias de Platão e de Aristóteles prestaram-se à reinterpretação cristã monoteísta da teoria grega sem deformá-la radicalmente.

Em suma, o pensamento teórico consiste em ver que por detrás das aparências cambiantes do mundo há uma realidade idêntica a si mesma, não-contraditória e verdadeira, ou falsa, não admitindo meio termo entre a verdade e a falsidade. É o que nos ensina o poema de Parmênides. Essa nova forma de pensar, inventada por gregos no século VI antes de Cristo, foi transferida ao mundo ocidental moderno, através da Idade Média, justamente pela Teologia – a teoria de Deus – baseada na re-interpretação dos princípios da épisteme theoretike. É verdade que com a derrocada do mundo antigo os homens perderam o interesse pela natureza, provavelmente devido à crença em seu caráter precário, por acreditarem que estaria sujeita a ser destruída a qualquer momento pela vontade de Deus. Com o correr do tempo, e com a própria Teologia como reinterpretação da teoria grega, foi ressurgindo o interesse pela criação divina que era a natureza e, assim, a partir do final da Idade Média, as ciências da natureza.

Note-se que com o espetacular desenvolvimento da teoria de Deus durante a Idade Média há um não menos espetacular aperfeiçoamento da Lógica Clássica. Essa era também uma teoria sobre a forma de pensar que conduzia necessariamente ao real, com suas características de identidade, não-contradição e exclusão de um terceiro termo intermediário entre o falso e o verdadeiro. Pois foi a Lógica que, desde Aristóteles, garantiu a exatidão do pensar teórico.

Simultaneamente, com o aparecimento do conhecimento teórico grego aparece um processo que veio a moldar a forma das ciências da natureza. É o que se poderia chamar de matematização da natureza. Com Pitágoras e seus seguidores surgiu a fecunda idéia de que a arché da natureza, ou seja, o princípio do qual brotam todas as coisas e a ele revertem, é o número. Isto é, o que é permanente, unitário, verdadeiro e, portanto, inteligível sob as aparências enganosas dos fenômenos, são suas proporções harmoniosas, expressas em números. Em outras palavras, a realidade vista pela teoria (theoren, em grego, significa ver) são as harmonias que governam o mundo, desde o movimento dos planetas até o som das cordas de lira.

Platão tratou da natureza e da sua origem em um de seus últimos diálogos: o Timeo (2), cujo subtítulo é exatamente Peri Physei (a respeito da natureza). Nesse diálogo ele assume a posição pitagórica quando descreve a construção da physis pelo Demiurgo – cujos olhos estão fixos num modelo pré-estabelecido – misturando, em proporções harmoniosas, duas substâncias indefinidas, incorpóreas e contrárias a que chamou de o um e o outro. Portanto, os números que expressam tais combinações são a própria essência da natureza. Dessa mistura surgem os quatro elementos que vão constituir, quando combinados entre si, todas as coisas da natureza. Porém, a realidade por detrás das aparências enganosas desses elementos – terra, ar, fogo e água – são as figuras geométricas perfeitas: tetraedro, cubo, octaedro e icosaedro.

Na academia platônica desenvolve-se a geometria que, embora inspirada nas técnicas egípcias de medir terrenos, é uma teoria das formas perfeitas das quais as coisas participam. Os geômetras da Academia desenvolveram os teoremas pelos quais as propriedades das figuras geométricas eram demonstradas de forma racional. Posteriormente Euclides, já agora na Escola de Alexandria, demonstrou que esses teoremas eram todos dedutíveis uns dos outros a partir de certos axiomas, evidentes por si mesmos, formados com noções primeiras. Assim surgiu a geometria como modelo de uma teoria axiomática.

Platão impressionou-se com a idéia de que quando os geômetras discutiam seus problemas, traçando figuras geométricas sobre a areia, não se referiam diretamente a esses toscos traçados, mas aos triângulos e outras figuras ideais cujas propriedades podiam ser racionalmente demonstradas e que eram simplesmente representados pelos traçados na areia. Estendeu essa sua impressão a todas as coisas, afirmando corresponder a cada uma delas uma idéia perfeita e inteligível e serem essas idéias as que constituíam a realidade. Tudo o mais era ilusão e engano dos sentidos.

Assim, para Platão, o mundo das idéias, das coisas pensadas era o do real (bom, belo e verdadeiro). Nesse mundo existiam, de um lado, as idéias das formas geométricas, inteligidas pelo pensamento matemático (a dianóia); e do outro, as idéias das demais coisas, inclusive os ideais como: beleza, justiça e bondade, abarcáveis pelo pensamento dialético (noética). Em suma, a realidade última eram as idéias. Era sobre esse mundo ideal que a épisteme theoretike se ocupava. O restante, o mundo das coisas vistas e sentidas, só poderia ser objeto de conjecturas, crenças e opiniões. Essa é a origem das doutrinas metafísicas denominadas de idealismo.

Havia porém outra épisteme theoretike sobre a natureza, a qual só chegou ao conhecimento do Ocidente depois do primeiro milênio; a princípio, através de interpretações árabes e, no século XIII, diretamente do grego. É a Physica de Aristóteles (3). Para Aristóteles, a idéia mais completa de Physis era a das formas das coisas que se movem e se transformam por meio de causas e, eventualmente, pelo acaso. A natureza é dotada de animação. Era quase o mesmo que – para nós – um animal; isto é, dotada de um movimento autônomo, almejando um fim ou lugar último e próprio. É a teoria do movimento organizado, visando a uma finalidade.

Na física de Aristóteles não há a inspiração matemática que domina o Timeo de Platão. Mas ela é organizada de forma lógica, não muito diferente da geometria euclidiana. Parte de determinados princípios, e deles vão sendo deduzidas as conclusões. Os primeiros princípios, porém, são dados por outra teoria: a metafísica, que pode ser entendida como teoria da realidade última ou radical, ou seja, a teoria daquela realidade da qual a realidade física decorre. Antes de mais nada, em contraposição a Platão, Aristóteles insiste que as idéias não são separadas das coisas; existem enquanto relacionadas a elas, das quais são idéias. O que realmente existe são os entes individuais: aquilo que faz esses entes realmente representarem o que são. O ser desses entes representa a sua substância, com sua essência e seus acidentes. A essência é o que se diz da substância necessária para que ela permaneça sendo o que é; os acidentes são os predicados não-necessários para que o ente permaneça sendo o que é. A realidade última está nas substâncias que individualizam os próprios entes. Essa é a origem de todas as doutrinas realistas. O real, segundo Aristóteles, está naquilo que os indivíduos são e não nas idéias, como queria Platão. É a doutrina que se chama realismo.

Com a Física aristotélica inaugurou-se um tipo de teoria sobre a natureza, organizada logicamente, mas na qual a matemática está ausente. No Timeo de Platão há uma visão matemática pitagórica da natureza, mas essa é pura contemplação. Entretanto, apesar de já anunciar a possibilidade da matemática ser a linguagem própria da realidade, pouco tem a ver com o cálculo ou a análise da atual matemática. Foi somente durante o período helenístico que homens como Arquimedes (289-212 a.C.) deram origem à idéia da aplicação da geometria e da aritmética como instrumento de cálculo e descrição de fenômenos. Assim o fez Eratóstenes ao medir a circunferência da Terra e estimar as distâncias e tamanhos do Sol e da Lua.

Ao final do período helenístico, Claudio Ptolomeu (século II d.C.), em sua Síntese Matemática (4) utilizou intensivamente a matemática para a compreensão do movimento dos astros. Havia um modelo aristotélico dos céus, no qual os corpos perfeitos dos planetas descreviam órbitas circulares, pois os círculos seriam as únicas figuras geométricas compatíveis com a perfeição dos céus. Mas os fenômenos não se adaptavam a esse modelo. Os planetas aparentavam movimentos que não eram exatamente circulares: muitas vezes pareciam mover-se em sentido contrário. Para os filósofos, tal fato não contrariava a teoria; consideravam que as aparências enganosas dos fenômenos não eram reais. Mas, os helenistas da Escola de Alexandria, baseados aliás numa idéia original de Platão, sustentavam que cabia aos matemáticos retificar as observações no sentido de salvar os fenômenos. Foi o que fez Ptolomeu, com a ajuda da geometria, conjugando movimentos circulares de forma tal que o movimento resultante se aproximasse das órbitas aparentes.

Pierre Duhen (5) chamou a atenção sobre a importância desse procedimento; segundo ele, a evolução da física – de Platão a Galileu – deu-se em decorrência da necessidade de ajustar a realidade da teoria à aparência dos fenômenos. Ora, isso pode ser entendido no sentido de que o conhecimento teórico da natureza – originariamente ligado à geometria – como visão ideal da perfeição harmoniosa do cosmo foi se desenvolvendo paralelamente à evolução da matemática, deixando, assim, de forma paulatina de ser simples forma de contemplação da realidade, para adquirir o caráter de um instrumento de conhecimento da natureza.

Tal matematização estendeu-se também para o Globo Terrestre quando o próprio Ptolomeu aplicou o mesmo processo geométrico para marcar a posição dos astros no céu com relação à Terra. É verdade que, antes dele, Marino de Tiro, um seu contemporâneo do século II de nossa era, já concebera a Terra como uma esfera que podia ser dividida em paralelos e meridianos. A partir dessa idéia, fundamentando-se em relatos anteriores, traçou o que teria sido o primeiro mapa-múndi em bases matemáticas com as posições na Terra indicadas por coordenadas geográficas. Mas, suas coordenadas eram paralelas e ortogonais entre si, portanto, deformando as posições locais. Ptolomeu continuou e aperfeiçoou o trabalho de Marino de Tiro, adotando meridianos que convergiam para os pólos. Dessa forma, chegou a coligir uma lista das coordenadas geográficas das principais cidades do mundo então conhecido. Com essa lista, traçou um mapa-múndi que fazia parte de sua Geografia, o qual, no entanto, foi perdido; mas a Geografia de Ptolomeu, com sua lista de coordenadas geográficas, foi reencontrada no alvorecer do Renascimento servindo de base para as navegações ibéricas.

Diz-se que o império romano pouco contribuiu para com as ciências. Mas, há alguma injustiça em afirmar-se que a Scientia romana não fez mais do que compilar a épisteme grega. Na Medicina e na História Natural foi além dela. Exemplo disso é o poema de Lucrécio, De Natura Rerum (6), no qual outra teoria grega, o atomismo de Demócrito, no contexto do epicurismo, é magnificamente interpretada e ampliada. Demócrito explicara a aparente contradição na concepção grega da Physis – entre o conceito de algo eterno e perfeito e a existência da geração e corrupção na natureza – concebendo-a como um conjunto de átomos – esses sim, indivisíveis, perfeitos e eternos – movendo-se no vazio, sujeitos a chocarem-se entre si, aglutinarem-se ou separarem-se, assim formando naturezas que se faziam e desfaziam, num processo de geração e corrupção, o qual se encontra magnificamente descrito no poema de Lucrécio. Mesmo assim, em nada contribui para o processo de matematização da natureza que estamos procurando analisar historicamente. Foi o reencontro do livro de Lucrécio no Renascimento, porém, que levou ao atomismo moderno, de decisiva importância para a matematização da física contemporânea.

Durante a maior parte da época medieval, o escasso interesse pela natureza restringiu muito o desenvolvimento das matemáticas. Contudo, foi nesse período que elas floresceram entre árabes e hindus. Entre os chineses, a matemática era mais uma técnica de enumeração, medida e contagem, como o fora entre egípcios e babilônios nos tempos míticos. Na própria Europa, mantinha-se a idéia grega da matemática como contemplação das proporções harmoniosas, mais nas artes e especialmente na música do que na natureza. A partir do século XII a introdução na Europa da matemática árabe, do sistema de numeração de origem hindu e da nova ciência – a álgebra – despertou o interesse pelo cálculo através da solução de equações algébricas. Os árabes tinham recebido a matemática no século ix por meio da tradução dos tratados gregos. Agora seus textos em árabe eram traduzidos para o latim. Os Elementos de Euclides foi um dos primeiros tratados matemáticos gregos assim traduzidos por Adelard de Bath, em 1142. Pouco depois, em 1175, o Almagesto, versão árabe da Síntese Matemática de Ptolomeu foi traduzido por Gerardo de Cremona, também tradutor da Álgebra de Al-Khoarizmi. Essa já tivera tradução anterior por Robert de Chester, na qual apareciam tabelas trigonométricas. Foi então que apareceu a palavra seno.

O uso dos algarismos árabe-hindus foi incrementado tanto para fins de contagem e comércio, quanto científicos. Os últimos eram quase que totalmente referentes a cálculos astronômicos. A obra elementar sobre astronomia adotada nas universidades até o Renascimento era a Sphaera de Sacrobosco (1200-1256). A ela agregava-se o Algorismus vulgaris, do mesmo autor, exposição clara sobre o uso dos algarismos árabes nos cálculos matemáticos.

 

Foi com a geometria e a aritmética gregas, e a álgebra e a trigonometria árabes que foram calculadas as tabelas de efemérides utilizadas a partir do primeiro quarto do século XV nas navegações ibéricas. Foi também com tais conhecimentos matemáticos, e mais o Almagesto e a Geografia de Ptolomeu, que as grandes descobertas foram realizadas pelos navegantes de Portugal e Espanha.

Georg Peuerbach (1423-1469) e seu discípulo Regiomantanus – os matemáticos mais influentes do século XV – foram os primeiros a calcular as tabelas de efemérides que acompanhavam os novos tratados de astronomia de posição sugeridos na época. Foram seus trabalhos que possibilitaram a elaboração das tabelas de marear portuguesas e espanholas utilizadas por navegantes em suas viagens por mares desconhecidos. Quando o Equador foi cruzado ao sul pelos navegantes portugueses em sua procura pelo caminho da Índia, o cálculo da posição, pela declinação do sol, tornou premente o uso da trigonometria esférica desenvolvida por Regiomantanus.

Dessa forma, um dos resultados colaterais das descobertas do Novo Mundo e do caminho da Índia foi o estabelecimento de uma imagem geográfica do mundo, em bases matemáticas. Essa imagem definitiva do mundo, com seus continentes e mares mapeados exatamente com a ajuda da astronomia de posição e da cartografia científica pode, sem dúvida, ser considerada como o resultado final de uma longa etapa do processo de matematização da natureza.

O capítulo sobre trigonometria da obra De revolutionibus orbium collestium de Copérnico (7), publicada em 1543, ano de sua morte, muito deve a Regiomantanus. Muito se fala dos propósitos práticos do heliocentrismo de Copérnico para a reforma do calendário; é de se conjecturar, porém, também sobre a influência que teriam tido as notícias do uso da astronomia de posição nas descobertas ibéricas. Muito se fala ainda sobre o caráter de humildade humana do sistema de Copérnico, retirando a humanidade de uma posição central e privilegiada no centro do universo. Entretanto, tal fato não estaria de acordo com o humanismo exacerbado que dominava a mentalidade da época. Pelo contrário, colocar a Terra entre as coisas perfeitas e eternas do céu pode parecer mais uma atitude de exaltação do humano do que de humildade. De fato, o que resultou do heliocentrismo de interesse para a análise da matematização da natureza foi a abolição de qualquer diferença entre o mundo das perfeições celestes e o mundo sub-lunar da corruptibilidade habitado pelos homens. De então em diante admitiu-se, como um princípio dominante das ciências, que as leis humanas são válidas para todo o universo. Uma equação matemática deduzida teoricamente aqui na Terra, e tendo sua verdade sido estabelecida por experiências levadas a efeito pelos homens, vale em qualquer parte do universo por remota que seja. Essa é uma das diferenças fundamentais entre a ciência aristotélica e a moderna, estabelecida após Copérnico.

Há, nessa época, curiosa mudança do significado que se dá às matemáticas, especialmente à geometria. A redescoberta de textos gregos trás de volta aos homens do Renascimento o sentido grego da Geometria como contemplação das harmonias que dominam a natureza. As artes renascentistas acentuam esse caráter através da perspectiva, principalmente através da arquitetura de um Brunesleschi, por exemplo. Passam a utilizar a geometria como um instrumento para bem construir, imitando as harmonias com as quais a natureza foi criada. Leonardo da Vinci, em seus Scritti Letterari (8), mostrou muito bem o seu intento de utilizar a perspectiva e as proporções harmônicas para descobrir, por meio da pintura, os segredos da natureza. Provavelmente teria sido essa sua visão da geometria, através das proporções e da perspectiva que o levou a afirmar que “não há nenhuma certeza onde não se possa aplicar uma das ciências matemáticas“. Contudo, para Leonardo, como para todo cientista do Renascimento, o conhecimento faz-se através da experiência. É ela que ensina como a natureza opera; porém, ela própria, está sujeita à razão; pois, segundo Leonardo da Vinci, “nenhum efeito está na natureza sem razão; entenda essa razão e não necessitarás da experiência“. Contudo, deve-se lembrar que o significado de experiência para os renascentistas é o da visão direta dos fenômenos, submetidos à ordem da razão. É algo muito parecido com a moderna fenomenologia. Esse método, entretanto, é muito conveniente para as ciências da natureza – como a botânica ou a anatomia, ambas muito próximas da descrição das plantas ou dos órgãos anatômicos por meio de desenhos e pinturas artísticas. Isso foi o que fizeram Leonardo ou Dürer.

Na astronomia ou na geografia e cartografia renascentistas esse critério de visão direta, controlada pela razão, está obviamente presente na observação direta dos astros e dos locais na Terra, com suas posições anotadas por meio de suas coordenadas celestes ou geográficas. Essas observações diretas, porém, irão ser interpretadas de acordo com o que se apresenta como matematicamente correto. Foi o que fez Kepler, ao tentar interpretar as observações de Ticho Brahe quanto às suas idéias sobre a harmonia dos céus. Incidentalmente chegou às suas três leis que descrevem o movimento dos astros. A expressão matemática dessas leis, entretanto, não estava no centro dos seus interesses, a não ser a terceira que enumerava a disposição proporcional dos astros girando em torno do rei Sol. Por esse aspecto, creio que se deva compreender Kepler como uma figura periférica do movimento científico renascentista, já em transição para a ciência moderna estabelecida por Galileu no início do século XVII, em termos de um novo conceito tanto no papel das matemáticas quanto do significado da experiência científica.

Foi Galileu, como está explicitado em seus Discursos e demonstrações matemáticas em torno de duas novas ciências (9), publicado em 1638, quem tornou patente a nova função da matemática como análise dos fenômenos naturais, ao mesmo tempo em que enunciava um novo critério de verdade científica, atribuindo à palavra experiência novo significado. “Ao investigar um fenômeno da natureza”, diz Galileu textualmente, “primeiro concebo com a mente”. Modernamente, significaria: elaborar uma conjectura sobre o fenômeno. No caso do fenômeno da queda dos graves, analisado nos Discorsi, conjectura-se que os graves cáiam com movimento uniformemente acelerado. A partir dessa conjectura arma-se um raciocínio lógico, para Galileu, preferivelmente matemático, uma vez que ele já afirmara: “o livro da natureza está escrito em caracteres matemáticos”. Tal raciocínio levará a conclusões ou soluções particulares, as quais deverão ser confrontadas com a experiência. Essa experiência, porém, não será a da visão direta do fenômeno, como o faziam os renascentistas. Será uma experiência organizada de acordo com a conjectura previamente estabelecida, como a que está descrita em detalhes nos Discorsi. É a do plano inclinado, organizada no sentido de eliminar-se ao máximo os efeitos de atrito e resistência do ar, que atuariam como circunstâncias perturbadoras do fenômeno, da forma como conjecturado.

Essa experiência, assim idealmente organizada, irá comprovar a verdade ou denunciar a falsidade da conjectura previamente concebida pela mente. Dessa forma, Galileu simultaneamente confere à matemática a função de análise dos fenômenos naturais e dá à experiência organizada em laboratório de campo o papel de simplesmente responder afirmativa ou negativamente àquilo que foi primeiramente concebido com a mente. Trata-se do método experimental, baseado em conjectura prévia, que se mostrou tão eficaz nas ciências modernas.

Contudo, a análise matemática não tinha ainda se desenvolvido nos tempos de Galileu. Para armar seu raciocínio matemático na análise da queda dos graves, ele teve de recorrer à regra medieval, desenvolvida em Oxford e em Paris no século XIII, a qual afirmava que um movimento uniformemente acelerado era semelhante a um movimento uniforme com a velocidade média do primeiro.

Foi a criação da geometria analítica por Descartes, em 1637, e do cálculo diferencial e integral por Newton e Leibniz, durante o século XVII, que tornou possível a análise matemática dos fenômenos físicos. Note-se, porém, haver aí algo de mais profundo do que o simples cálculo dos fenômenos da natureza. O cartesianismo estabelece que as coisas da natureza são, em essência, pura extensão. Elas não são somente aptas a serem calculadas pela geometria analítica; apenas poderão ser compreendidas e explicadas, em sua essência, como grandezas a serem medidas. Por outro lado, nos Princípios matemáticos da filosofia natural, de 1687 (10), Newton mostrou que qualquer fenômeno físico observado empiricamente corresponde exatamente a um modelo matemático deduzido de axiomas pré-estabelecidos como verdadeiros. E ainda mais, que esses axiomas referem-se às noções de espaço, tempo, massa e força, todas elas só compreensíveis matematicamente.

O importante, para o que se está aqui almejando, é que no Livro I, O movimento dos corpos dos seus Principia, Newton deduz, por meios geométricos, com o auxílio ainda incipiente de noções do cálculo infinitesimal, as leis de Kepler, a partir de definições e axiomas por ele admitidos como evidentes por si mesmo, e estabelece sua lei geral da gravidade. No Livro III, O sistema do mundo, a partir da observação de fenômenos siderais observados que conduzem a admitir como verdadeiras as leis de Kepler, e com o auxílio de regras do raciocínio indutivo, Newton justifica sua lei de gravitação – a qual, aliás já estava analiticamente justificada no Livro I. Parece que, com isso, Newton quer racionalmente demonstrar como é possível matematizar (Livro I) os fenômenos naturais conhecidos empiricamente (Livro III).

No século XVIII a análise matemática foi instituída definitivamente como instrumento de pesquisa dos fenômenos naturais. Dois entusiastas do cálculo infinitesimal, na notação de Leibniz, foram os irmãos Bernoulli: Jacques (1654-1705) e Jean (1667-1748) de Basiléia. Foram eles que, com Leibniz, desenvolveram as aplicações do cálculo. Paralelamente, Jacques publicou, em 1713, o primeiro livro sobre a teoria das probabilidades: Ars conjectandi. Mas a inauguração do edifício acabado da análise, deu-se com a publicação, em 1748, da Introductio in analisis infinitorum de Leonard Euler (1707-1783), livro em que aparece, pela primeira vez, o conceito exato de função como fundamento da análise. Com essas funções e com a inclusão de infinitesimais, derivadas e integrais, aliás com a notação de Leibniz e não a de Newton, é que se tornou possível para os matemáticos do século XVIII escreverem equações matemáticas as quais, na verdade, serviam de modelos dos fenômenos físicos e, resolvendo-as, chegarem a soluções que descreviam fenômenos particulares relacionados com a teoria matemática.

Foi a esperança de Voltaire quanto à aplicabilidade do método de Newton na análise racional dos fenômenos, quer naturais quer culturais, que levou os enciclopedistas franceses a acreditarem na possibilidade de um conhecimento objetivo da natureza, baseado na simbiose estabelecida por Newton entre o pensamento racional e o empírico. Diderot e D’Alembert propuseram-se então a organizar o Dictionaire raisoné des sciences, des arts et des métiers, abarcando todo o conhecimento científico, artístico e técnico a partir do empirismo técnico, pois acreditavam que a única maneira de conhecer seria por sensações no manuseio das coisas; mas, não abandonaram o racionalismo, principalmente quando expresso através das matemáticas. Todos os conceitos derivavam de fatos, mas esses deveriam ser ordenados preferivelmente pela matemática para serem compreendidos.

Foi nessa linha que o Traité de dynamique, de D’Alembert, publicado em 1743, procurou estruturar matematicamente a mecânica, mas sem recorrência a qualquer verdade de razão. Parte de uma cinemática, envolvendo noções de espaço, tempo e movimento, derivadas da experiência sensível, evitando assim partir da idéia de força que, para ele, estava carregada de suposições metafísicas. Procurando entendê-las através da generalização do princípio dos trabalhos virtuais, o qual reunia em si os axiomas de Newton. Com esse livro foi dado um dos primeiros passos no processo definitivo da matematização da natureza, colocando a mecânica racional como a mestra de todo conhecimento físico. Atingira-se assim o cume da crença dominante desde Galileu e Descartes, de que o mundo era uma máquina regida pela racionalidade matemática.

Durante a Revolução Francesa apareceram os matemáticos – entre eles os dos três Ls : Lagrange, Laplace e Legendre – os quais estabeleceram a análise matemática em sua forma atual, sistematizando os princípios da anterior, de forma a torná-la um instrumento útil tanto na análise dos fenômenos da natureza quanto na solução de problemas técnicos. A matemática, assim constituída, exigia a quantificação dos problemas naturais e técnicos, daí a importância dada durante a Revolução aos processos de medida, desde as medidas geográficas até a fiscalização dos pesos e medidas comerciais. Assim, Legendre foi encarregado da triangulação da França, enquanto Lagrange e Condorcet faziam parte da comissão da qual resultou o sistema métrico.

POSTED BY SELETINOF 4:15 PM  

 

HISTÓRI DA MATEMATIZAÇÃO DA NATUREZA 2

  

As obras mais importantes desses matemáticos foram publicadas em pleno período revolucionário: a Mecanique analytique, de Lagrange, é de 1799 (11) e a Exposition du systeme du monde, de Laplace, é de 1796 (12). Na primeira dessas obras, Lagrange coloca os princípios da mecânica sob forma diferencial e propõe a solução de qualquer problema – da natureza ou da técnica – pela integração de equações diferenciais. Introduzindo uma nova função, igual à diferença entre a energia cinética e a potencial do sistema, Lagrange escreve suas três equações que reúnem, em si, os axiomas de Newton e a generalização do princípio dos trabalhos virtuais. Assim ficou constituída a mecânica analítica, capaz de resolver tanto os problemas da gravitação celeste e terrestre quanto o dos vários ramos tecnológicos da física clássica.

O segundo dos livros citados, o de Laplace, não é um tratado matemático. É uma dissertação sob base fenomenológica dos movimentos dos astros, reportando-se a Lagrange como aquele que reduziu a pesquisa de um sistema em movimento à integração de equações diferenciais. O livro termina com notas sobre a história da astronomia e sua célebre hipótese nebular sobre a origem do sistema solar. A intenção de Laplace com esse livro seria a de demonstrar, sob forma acessível aos não-matemáticos, sua teoria amplamente matematizada no Tratado de mecânica celeste (13), no qual analisa não só os movimentos regulares dos astros mas também as perturbações de suas órbitas, oriundas da influência de outros astros.

A intenção subjacente ao Tratado de Laplace é mostrar que o sistema solar é dominantemente estável e, portanto, perpétuo, não necessitando da intervenção divina para por-se em movimento. Além disso, não teria propósito procurar saber o sentido ou a finalidade desse movimento e, assim, Laplace dá início à doutrina denominada materialismo mecanicista, a qual dominou o pensamento de grande parte dos cientistas do século XIX.

Outra decorrência filosófica do sistema de Laplace é o determinismo, ou seja, tudo o que acontece tem necessariamente uma causa e, se essa causa for conhecida, o efeito é previsível. Ele próprio enfrentou o problema de matematizar acontecimentos aleatórios, desenvolvendo em seu tratado Teoria analítica das probabilidades, um cálculo capaz de estimar a probabilidade de um acontecimento, desde que sejam conhecidas as probabilidades de suas causas. As idéias fundamentais desse tratado constam do conhecido Ensaio filosófico sobre as probabilidades (14), no qual afirma que “uma inteligência que conhecesse todas as forças que animasse a natureza num dado instante e submetesse esses dados à análise, poderia ter presente aos seus olhos todo o futuro, tão evidente quanto o passado“. Para Laplace, na falta dessa inteligência onisciente, a ciência teria de recorrer às probabilidades, não aceitando o acaso como um fator dos acontecimentos, mas simplesmente utilizando as probabilidades devido à ignorância humana sobre a totalidade de determinantes dos acontecimentos da natureza.

Com as obras de Lagrange e Laplace a mecânica analítica tornou-se a mais importante das ciências, garantindo a matematização de toda a física. Sob o ponto de vista da doutrina materialista mecanicista era uma questão de tempo que toda a natureza – pelo menos a inanimada – viria a ser matematizada a partir das equações de Lagrange e de Laplace.

Entretanto, surgia na época o controle técnico de uma poderosa fonte de energia: o calor, cuja matematização teve dupla origem. A primeira, através de outra doutrina filosófica, o positivismo. Fourier, positivista convicto, arma equações diferenciais do fluxo de calor a partir de princípios derivados de fatos positivos – aqueles indubitáveis, constatados pelos sentidos humanos. De acordo com a doutrina positivista, as soluções matemáticas de equações diferenciais estabelecidas a partir de fatos positivos corresponderiam necessariamente a fatos particulares verdadeiros. O tratado de Fourier sobre a transmissão do calor (15) passa a ser considerado como modelo de análise matemática de um fenômeno natural.

A segunda via de investigação da natureza do calor dá-se através de pesquisas de caráter tecnológico sobre o poder motivo do calor, pelo engenheiro Sadi Carnot. Suas observações levam-no a antever os dois princípios da teoria que vem a ser chamada termodinâmica. O desenvolvimento dos estudos de Carnot por parte de Clayperon e aperfeiçoados por Clausius (16) levam à matematização do fenômeno da transformação da energia calorífica em energias de outras espécies, com base nos dois referidos princípios: conservação da energia e o célebre segundo princípio da termodinâmica, enunciado por Lord Kelvin em 1851: é impossível construir uma máquina que, operando em ciclos, extraia calor de uma dada fonte e o transforme integralmente numa quantidade equivalente de trabalho. Pode-se portanto concluir que nos processos naturais de transformação de energia – os quais são sempre irreversíveis por ocorrer perdas ocasionais por atrito ou por dissipação de energia no ambiente – haverá sempre um acréscimo de energia não-aproveitável para a produção de trabalho mecânico. A esse acréscimo de energia inaproveitável chamou-se entropia. Foi esse fato que levou à tão discutida idéia da morte térmica do universo pelo constante aumento irreversível da energia calorífica não-aproveitável.

A matematização do fenômeno do calor estava assim concluída. Os significados físicos de energia calorífica e de entropia, porém, continuavam obscuros. Para Fourier, o calor era um fluído sutil, expresso por uma equação matemática contínua e derivável; para Carnot esse fluído chamava-se calórico, mas não ia muito além do nome para expressar sua natureza. Clayperon e Clausius já pensavam o calor como sendo transportado por gases das máquinas a vapor e, portanto, por suas moléculas. Em 1738, Daniel Bernoulli já formulara sua teoria cinética dos gases, segundo a qual o calor era devido ao movimento das moléculas que golpeavam as paredes do recipiente que as continha, de cuja energia cinética resultava a pressão contra elas, proporcional à temperatura do gás. Percebeu-se, porém, que a hipótese de velocidades constantes das moléculas não era realista. Essas deveriam ser de grande variabilidade, mas permitindo uma velocidade média. Tal percepção deu ensejo ao tratamento probabilístico da questão, o que foi realizado por James Clerk Maxwell em 1860. Ele chegou analiticamente à conclusão de que o logaritmo das funções de distribuição das velocidades – em três direções ortogonais – era proporcional ao quadrado das velocidades nas respectivas direções, tendo a mesma forma que a função das probabilidades de Gauss.

Ludwig Boltzmann, retomando a questão em 1870, mostrou que a distribuição estatística dos estados de energia das moléculas de um gás estava em correlação com o acréscimo da entropia desse gás ao sofrer uma transformação térmica. Assim, a entropia foi definida como uma função das variáveis de estado, proporcional ao logaritmo da probabilidade desse estado. Como a distribuição desordenada do estado das moléculas é mais provável que a ordenada, o estado de desordem das moléculas corresponderá à maior entropia, portanto, à menor probabilidade de produzir trabalho eficiente.

A análise probabilística dos fenômenos naturais entrou em conflito com a corrente positivista, que entendia os fenômenos naturais como expressões em equações diferenciais, armadas a partir de princípios estribados em fatos positivos. A análise probabilística era feita a partir de átomos e moléculas que nada tinham de positivos, pois não eram observáveis pelos sentidos. Foi a querela do atomismo que contou com a participação de notáveis cientistas do século XIX, defendendo ou atacando as posições de ambos os lados. É possível que o conhecido artigo de Boltzmann Sobre a inevitabilidade do atomismo nas ciências da natureza, publicado em 1897, tenha mostrado a necessidade de se considerar a matéria como um conjunto de partículas (17).

A matematização completa da questão, entretanto, só foi levada a efeito em 1902, quando Josiah Willard Gibbs publicou o seu livro sobre Os princípios elementares da mecânica estatística (18), abordando matematicamente os fenômenos da natureza relacionados com movimentos dispersos de partículas. Assim, essa região da natureza foi também matematizada.

A matematização dos fenômenos naturais relacionados com a eletricidade e o magnetismo deu-se a partir do momento em que se imaginou medir as forças de atração e repulsão entre cargas elétricas que ocorreu em 1777, quando o engenheiro Charles Augustin Coulomb publicou sua memória sobre Pesquisas sobre a melhor maneira de fabricar agulhas imantadas. Nesse trabalho Coulomb demonstrou haver um campo magnético terrestre, como se em qualquer ponto existissem forças que, agindo sobre a agulha magnética, a orientassem para o norte. Estendendo a idéia de campos de força à gravitação terrestre e às forças de atração ou repulsão em torno de uma carga elétrica, Coulomb utiliza a balança de Cavendish, inventada para medir as forças de gravitação, para medir também as forças entre cargas elétricas. Assim, chega à famosa lei de Coulomb sobre essas forças, que é análoga a lei de Newton para as forças gravitacionais. Dessa forma, definiu-se a existência de um campo de forças eletrostático semelhante ao campo de gravidade. Mais tarde, o próprio Coulomb demonstrou que também o campo magnético era sujeito a lei semelhante. Com tal analogia, as leis da mecânica analítica vieram a ser aplicadas também às questões de eletrostática e de magnetismo. As formas das equações eram as mesmas, variando somente os significados dos símbolos. A equação de Laplace, por exemplo, que definia a função potencial dos campos de força, valia tanto para os problemas de mecânica quanto para os de eletrostática e magnetismo. Valia ainda para os problemas de percolação d’água, na hidráulica, pois as forças atuantes, nesse caso, eram ainda gravitacionais. A partir de então desenvolveu-se a teoria matemática dos campos de força, que muito deve ao grande matemático do início do século XIX: Karl Friedrich Gauss. Na expressão matemática dos campos de força apareciam as superfícies ou linhas eqüipotenciais, definidas pela equação de Laplace e, normais a essas, os canais ou linhas de fluxo ao longo das quais uma partícula de massa ou uma carga elétrica mover-se-ia caindo de um potencial maior para um menor, exatamente como uma pedra cai, na vertical da Terra, de uma altura maior para uma menor. Assim, fenômenos magneto e eletrostáticos foram analisados por teorias formalmente semelhantes às das forças gravitacionais.

Alessandro Volta, ao inventar uma pilha capaz de fornecer continuamente uma corrente a um circuito elétrico, demonstrou que tal semelhança não existia. Aparece então a eletromagneto-dinâmica, cujos campos de força não admitiam potencial. O estudo das correntes elétricas exigiu diferente enfoque da visão newtoniana da natureza. Oersted, em 1920, descobriu que uma corrente elétrica exercia força sobre uma agulha magnética, curiosamente, não deslocando-a na direção da corrente, mas transversalmente. Mostrou que essa correlação era devida ao aparecimento, em torno do fio, de um campo eletromagnético. Mas foi Ampére quem analisou matematicamente a correlação entre corrente elétrica, campo magnético e movimento, publicando suas deduções em 1826, em um texto intitulado Memória sobre a teoria matemática dos fenômenos eletrodinâmicos deduzida exclusivamente da experiência (19).

Ampére defendia a idéia kantiana de que as teorias científicas seriam sempre deduzidas de hipóteses a priori; isto é, independentemente de experiências. Não se compreende por que teria indicado no título dessa memória ter sido sua teoria deduzida exclusivamente de experiências, quando sua convicção filosófica era de que seria impossível deduzir algo de caráter geral da experiência; as teorias, sendo de caráter geral, não poderiam provir de fatos particulares da experiência. A resposta a essa questão, talvez possa ser encontrada na conhecida referência de Oersted a respeito de Ampére, afirmando que ele, apesar de um pensador profundo, era inábil debatedor, incapaz de apresentar com clareza seus próprios argumentos. Realmente, a teoria de Ampére parte do fato fundamental (ou positivo) observado por ele: a existência de força agente entre dois fios condutores. Mas disso, elaborou um princípio: a força exercia-se perpendicularmente aos elementos de corrente, proporcionalmente às correntes e inversamente proporcional ao quadrado das distâncias entre os fios. A partir desse princípio armou sua equação diferencial e, pela solução dessa, chegou aos resultados particulares correspondentes dos fenômenos observados.

Às investigações de Ampére seguiram-se pesquisas e análises que paulatinamente vieram explicar os fenômenos eletromagnéticos. Restava esclarecer definitivamente a natureza e as propriedades dos campos magnéticos formados em torno dos condutores elétricos. Isso foi feito por Michael Faraday que começou a trabalhar em eletromagnetismo em 1821 e publicou os resultados de suas pesquisas em memórias nos Transactions of the Royal Society, entre 1831 e 1855, as quais foram posteriormente reunidas e publicadas em um só volume (20). Nessas memórias está explicado o fenômeno de indução de uma corrente elétrica de um condutor para outro, quando houvesse variação da corrente no primeiro condutor. Explica-se também o fenômeno do movimento (por exemplo, rotação de um disco de cobre) quando esse é colocado entre pólos de um eletro-imã, com simultânea geração de corrente elétrica no disco, e vice-versa, o que veio, mais tarde, possibilitar o invento do gerador e do motor elétrico.

Ao correr dessas experiências surge a maneira de se visualizar os campos de forças magnéticas, espalhando-se limalha de ferro num papel sobreposto aos pólos de um imã. As partículas de limalha orientam-se segundo as linhas de força mostrando como elas se dispõem. Quando um condutor se move, cortando essas linhas de fluxo, gera uma força eletro-motriz, a qual, por sua vez, gera uma corrente elétrica.

Da mesma forma, quando um fluxo magnético varia, induz uma força eletro-motriz em condutores fixos que delimitam superfícies cortadas pelo fluxo. Assim, Faraday explicou experimentalmente todos os fenômenos eletro-magnéticos-dinâmicos.

Mas, a matematização dos fenômenos elétricos e magnéticos só foi feita por James Clerk Maxwell, a partir de suas memórias sobre as linhas de força de Faraday, lidas quando fellow do Trinity College de Cambridge, entre dezembro de 1855 e fevereiro de 1856. Posteriormente, em 1864, Maxwell publicou um trabalho sob o título Uma teoria dinâmica dos campos eletromagnéticos, no qual estuda os aspectos dinâmicos da eletricidade e do magnetismo. Depois de uma série de tentativas para explicar mecanicamente o fenômeno, Maxwell abandona suas imagens mecânicas e parte para uma aplicação da racionalidade matemática, segundo os princípios da mecânica analítica. Dá aos símbolos das equações mecânicas os significados das grandezas e parâmetros eletromagnéticos e, assim, chega a duas equações correspondentes à eletro-magnético-dinâmica. Essas equações, combinadas entre si, levam à forma diferencial da equação das ondas, onde o coeficiente correspondente à velocidade de propagação é numericamente igual à velocidade da luz. Conclui que as ondas eletromagnéticas são transversais e se propagam com a velocidade da luz. Portanto, inversamente, a luz seria de natureza eletromagnética.

A súmula de toda a teoria de Maxwell, porém, só aparece em 1873 com a publicação do seu Tratado sobre eletricidade e magnetismo (21). Nesse trabalho Maxwell utilizou vetores e álgebra vetorial para definir as forças e correntes eletromagnéticas, mas não os empregou na dedução de suas quatro equações diferenciais básicas do eletromagnetismo, provavelmente porque a análise vetorial ainda não estava suficientemente desenvolvida. Dessas quatro equações, duas referem-se à eletro-estática e ao magnetismo e duas à dinâmica dos campos eletromagnéticos e estabeleceram:

  • a primeira, que os campos eletrostáticos são formalmente análogos aos gravitacionais;
  • a segunda, que o mesmo pode-se dizer dos campos magnéticos, mas como neles não há pólos isolados, a carga magnética é sempre nula;
  • a terceira equação expressa matematicamente a lei de Faraday, ou seja, um campo elétrico é formado sempre que ocorra variação de um campo magnético;
  • a quarta lei de Maxwell indica que há o aparecimento de um campo magnético, não só em torno de uma carga elétrica, mas também quando há variação de um campo elétrico.

Como já mencionado, as duas primeiras aparecem no trabalho de Maxwell sobre linhas de força, e as duas últimas, na sua teoria dinâmica dos campos eletromagnéticos.

Em 1885 Heinrich Hertz, professor em Karlsrule, iniciou suas experiências sobre a propagação das ondas eletromagnéticas. Utilizou, como transmissor, pontas metálicas pelas quais saltavam faíscas elétricas e, como receptor, espiras metálicas. Em suas experiências demonstrou que tais ondas refletiam-se contra placas metálicas. Apesar de ter tentado medir a velocidade de propagação dessas ondas, só mais tarde outros pesquisadores verificaram que essa velocidade era exatamente igual à da luz. A diferença estava apenas na freqüência ou comportamento das ondas. O comprimento da onda de luz era de frações de micron, enquanto que as ondas hertzianas tinham comprimentos medidos de centímetros até centenas de metros.

Ficou assim demonstrado que um campo elétrico, mesmo formado no espaço vazio, variável com o tempo, formaria correntes de deslocamento que produziriam, em torno de si, campos magnéticos que também se deslocariam no espaço. Assim, formar-se-iam ondas eletromagnéticas que se propagariam no espaço com a velocidade da luz. A descrição dessas experiências está em seu livro, cuja tradução para o inglês apareceu em 1893 (22). Era concluído por dois artigos publicados em 1890, nos quais Hertz procurou simplificar e corrigir certas incoerências na teoria matemática de Maxwell, chegando a exprimir a terceira e a quarta equação do pesquisador de forma bem mais compreensível. Afirmou, entretanto, que esse intento já tinha sido tentado cinco anos antes por Oliver Heavisides, em seu Cálculo Operacional. Embora o cálculo de Heavisides tivesse sido acusado de falta de rigor, foi ele que passou a ser empregado pelos engenheiros eletricistas para a solução de problemas de telegrafia e telefonia a longas distâncias.

Nessa época foram descobertos os raios infravermelhos, os ultravioletas e o raio x. Todas essas radiações mostraram reflexão e difração, como a luz; portanto, seriam todas elas ondas eletromagnéticas que obedeciam às equações de Maxwell e foi também demonstrado que o calor era transmitido como irradiação hertziana. Dessa forma, matematizava-se o vasto domínio das irradiações de energia. A medida da pressão dessas irradiações sobre superfícies em que incidiam concordava com as calculadas pela teoria de Maxwell.

Tornou-se costumeira a observação das intensidades e comprimentos de ondas de irradiações caloríficas que atravessavam um pequeno orifício nas paredes de um recipiente, no interior do qual se mantinha temperatura uniforme, constante e elevada. Eram os chamados corpos negros. Pôde-se, então, traçar experimentalmente uma família de curvas, cada uma delas para temperatura constante, num gráfico que tinha, em ordenadas, as intensidades específicas da energia irradiada e, em abcissas, os respectivos comprimentos de onda. Mas, os resultados das tentativas de traçar tais curvas, calculadas a partir da teoria eletromagnética, não coincidia com a experiência.

O impasse só foi resolvido em 1900, quando Max Planck publicou os resultados de suas investigações. Aconteceu então algo que revolucionou toda a ciência física e abriu as portas para uma nova concepção da natureza inorgânica. Ficou patente que o emissor não irradiava a energia de forma contínua, mas somente em quantidades inteiras de quanta de energia, cujos valores eram inversamente proporcionais aos comprimentos da onda irradiada.

Assim, no final do século XIX, quando a descoberta de Planck pôs fim ao que se chamou física clássica, iniciando-se a mecânica quântica, o domínio da natureza, concernente às energias, achava-se expresso sob forma matemática com toda a abrangência; os fenômenos energéticos mecânicos, expressos pelas equações de Lagrange (mais tarde complementadas pelas de Hamilton); os caloríficos, pela equação de Fourier e pelas equações da mecânica estatística; e os das irradiações eletromagnéticas, pelas de Maxwell.

Contudo, as equações diferenciais dividiam os fenômenos energéticos em três campos: os mecânicos, os caloríficos e os eletromagnéticos, embora a experiência mostrasse que a energia não se extinguia, mas se transformava de mecânica, em calor, luz, eletricidade ou magnetismo, e vice-versa. Foi o que levou Henri Poincaré a propor que se considerasse a lei da conservação da energia como uma definição disfarçada da própria energia, dizendo: “energia é aquela coisa que se conserva“.

O fato de Maxwell ter abandonado suas tentativas de construir modelos mecânicos para explicar suas teorias reforçou a idéia de que a formulação matemática era a única maneira de, pelo menos, vislumbrar a natureza daquela “coisa que se conserva“. Nesse sentido, Hertz também deixou de lado qualquer modelo mecânico para insistir que só as equações de Maxwell poderiam encerrar todo o conhecimento possível sobre a natureza das ondas hertzianas. O mesmo poder-se-ia dizer sobre as equações de Lagrange e as de Hamilton no que concerne à energia mecânica; e as equações de Fourier e as da mecânica estatística no que se refere à energia calorífica.

Dessa maneira, as conclusões finais da física clássica mostravam que a natureza da energia seria essencialmente formal, ou seja, sua realidade estaria mais nas expressões matemáticas do que nos seus efeitos sensíveis. Não que a expressão matemática fosse “a coisa em si, que se transforma“, mas permitia entrevê-la. Com a descoberta dos quanta, essa concepção de energia não se modifica; pelo contrário, veio a mostrar que a natureza corpuscular da energia estava mais próxima da dos números do que da das substâncias.

Foi a partir das simplificações dessas equações que se deu o notável progresso da tecnologia, no final do século passado e início deste, quando se verificou o pleno sucesso da utilização de teorias científicas na solução de problemas técnicos. Da mecânica analítica surgiram as soluções de problemas de engenharia na resistência dos materiais, na teoria da elasticidade e da plasticidade. Da mesma forma, as equações da mecânica dos fluídos levavam a soluções particulares de problemas de hidráulica e hidrodinâmica. A formulação matemática avançada dessas teorias veio a constituir a mecânica dos contínuos. Aparece então, a reologia com seus modelos matemáticos, por meio dos quais é possível se escrever fórmulas expressando o comportamento elástico, plástico e viscoso de quaisquer materiais, mesmo não-existentes, em função de coeficientes, exprimindo propriedades desses materiais a serem obtidas experimentalmente. Com as mecânicas dos solos e das rochas surgem teorias mecânicas de meios não-contínuos. Da termodinâmica, baseada na mecânica estatística, surgiram as soluções para os problemas das máquinas a vapor, das caldeiras, das turbinas térmicas e dos frigoríficos. Do eletro-magnetismo, pelas aplicações e simplificações das equações de Maxwell, apareceram as soluções para os problemas de eletrotécnica e, mais tarde, de eletrônica.

O sucesso da matematização dos problemas tecnológicos relacionados com a física levou às tentativas de formulação matemática de teorias da natureza não-formalizada. Até agora, a mais bem sucedida foi a análise matemática dos fenômenos geológicos, com a geomatemática. Essa possibilidade foi aberta pela extensão da análise matemática das propriedades dos materiais constituintes da crosta terrestre, feita pelas mecânicas dos meios não-contínuos, à explicação tanto dos fenômenos tectônicos quanto dos sedimentares.

A maioria dessas utilizações tecnológicas de teorias científicas, em suma, seria consubstanciada por soluções particulares de equações diferenciais. A dificuldade estaria em encontrar soluções para as poucas equações diferenciais que formalizavam um grande e diverso número de fenômenos naturais. Por outro lado, a solução analítica de tais equações nem sempre é conseguida. Além disso, na maioria das vezes, é necessário simplificar as condições de limites dessas equações – as quais correspondem às circunstâncias em que o fenômeno se dá na natureza, em geral complexas. Isso veio a exigir solução dessas equações por métodos gráficos e numéricos ou, mesmo, utilização de modelos físicos simplificados.

Exemplo muito bem-sucedido de solução gráfica foi o da rede de fluxo, traçada à mão, obedecendo a regra de que as linhas de força eram todas normais às linhas eqüipotenciais. Tal método foi empregado para resolver a equação de Laplace em problemas de hidráulica dos solos ou de eletrostática.

Matematicamente surgiu o cálculo numérico como, por exemplo, o das diferenças finitas, pelo qual os diferenciais das equações eram substituídos pelos valores das diferenças finitas das variáveis. Disso resultou um sistema de equações lineares simultâneas, o qual seria resolvido pelas técnicas de cálculo que estavam sendo desenvolvidas na época.

Mas a questão só veio a ser completamente solucionada quando, logo depois da Primeira Guerra Mundial, as universidades americanas começaram a montar seus primeiros computadores eletrônicos – os quais permitiam o cálculo automático de equações quando eram transformadas, por processos matemáticos, em cálculo numérico – utilizando um sistema numérico binário, isto é, cujos algarismos são somente 0 e 1. Zero, correspondente ao circuito elétrico fechado e um, ao aberto.

POSTED BY SELETINOF 4:14 PM 

 

HISTÓRIA DA MATEMATIZAÇÃO DA NATUREZA 3

     

Com o desenvolvimento dos computadores fez-se necessária a elaboração de métodos para transformar as equações diferenciais em numéricas, objetivando tornar o seu cálculo mais rápido. O problema veio a ser resolvido pelo emprego, entre outros, do método dos elementos finitos – baseado no cálculo variacional elaborado por Euler há mais de dois séculos.

Com a computação eletrônica digital tornou-se possível a solução de, em tese, qualquer equação nas condições de limites mais complexos, atualmente expressas em simbologia das mais abstratas. Em grande número de casos, porém, as próprias condições de contorno ou limites não são inteiramente conhecidas. Há, então, que se recorrer às simulações matemáticas para resolver o problema. Parte-se de um modelo matemático, o qual é resolvido pela simulação de condições diversas, que definiriam prováveis circunstâncias em que o fenômeno poderia acontecer. Para tanto são desenvolvidas técnicas de simulação em computadores, pelas quais as soluções obtidas sob diferentes condições de limites são comparadas e avaliadas entre si para se chegar a uma solução adequada. Assim são resolvidos problemas abrangendo toda a natureza: desde problemas cosmológicos extremamente complexos, referentes à constituição e à origem do universo, até questões tecnológicas que envolvem a vida diária da humanidade ou simplesmente referem-se a questões particulares.

Exemplo interessante de utilização do processo de simulação matemática é o caso da pesquisa sobre as conseqüências do fechamento das adufas da barragem de Tucuruí sobre o rio Tocantins para enchimento do reservatório, realizado entre os meses de setembro e outubro de 1984.

O estudo teve dupla finalidade: em primeiro lugar, verificar as conseqüências do fechamento do rio no que diz respeito à saúde, alimentação, transporte e abastecimento de água das populações ribeirinhas, à jusante da barragem; em segundo, verificar a influência do fechamento do rio Tocantins sobre a salinidade da água de abastecimento de Belém do Pará, levando em conta as marés oceânicas que não só atingiam esse ponto como chegavam mesmo ao pé da barragem de Tucuruí, 250 km à montante.

A análise da primeira questão foi feita a partir das equações diferenciais de continuidade da vazão e da dinâmica de propagação das ondas ao longo de um canal. Essas combinadas levaram a uma equação diferencial, que foi integrada por meio do método das diferenças finitas, o qual transforma a equação num sistema de equações lineares algébricas simultâneas. Essas foram então calculadas por um computador, tendo seus parâmetros determinados por observações de registros diários de níveis d’água em vários pontos do rio e registros mareográficos em locais próximos à confluência do rio com a baía de Marajó (23).

O modelo matemático da intrusão salina na água de abastecimento de Belém era uma equação diferencial que relacionava a vazão fluvial com o valor médio da salinidade na seção e no ciclo de maré. A vazão fluvial era a correspondente à combinação das dos rios Pará, Tocantins e Guamá. Também aqui procedeu-se à transformação da equação diferencial num sistema de equações algébricas lineares simultâneas e seu cálculo pelo computador (24).

A concordância, dentro de uma margem correspondente à precariedade das informações disponíveis, veio confirmar que o método de simulação matemática, nos cálculos eletrônicos, é um instrumento hábil e utilíssimo para a previsão de fenômenos naturais complexos, não só nas áreas das ciências pura mas também nas das tecnologias.

Contudo, não eram suficientes somente as equações diferenciais e as estatísticas para que se completasse a matematização da natureza. Necessitava-se ainda de uma série de leis empíricas, incluindo parâmetros relativos a propriedades das matérias, tais como elasticidade, permeabilidade, condutividade térmica, resistência elétrica etc. Isso exigia a matematização da própria matéria – o que não foi possível pelas ciências clássicas. Para se chegar à tal matematização foi necessário o desenvolvimento não só da mecânica quântica mas também da teoria da relatividade. A primeira esclareceu a natureza corpuscular da matéria e conduziu à expressão matemática de suas propriedades por meio da física do estado sólido (25) e da ciência dos materiais amorfos (26), baseadas em estatística quântica. A segunda demonstrou que a principal característica da matéria, a sua gravidade, decorre de circunstâncias relacionadas com o espaço e o tempo.

A matematização da matéria, entretanto, só se torna possível quando as idéias aristotélico-platônicas sobre a indeterminabilidade da matéria são abandonadas pela ciência moderna e substituídas pelas do atomismo – para o qual a natureza é constituída tão somente por átomos e vácuo. Esse conceito está descrito no texto de Roberto Boyle, publicado em 1661, The sceptical chymist (27). Entretanto, foi somente no primeiro decênio do século XIX que cientistas, de várias nações de uma Europa dilacelerada pelas guerras napoleônicasJohn Dalton, inglês; Joseph-Louis Gay-Lussac, francês; Amedeo Avogrado, italiano; J.J. Berzelius, sueco – estabeleceram as bases da teoria química atômica da matéria. Dalton lançou a conjectura de que os diferentes elementos eram constituídos por átomos maciços e indivisíveis, diferentes entre si somente por seus pesos, e que se combinavam entre si para formarem as substâncias químicas. Berzelius, entre 1809 e 1814, numa enorme série de experiência, determinou os pesos atômicos com relação ao oxigênio.

A possibilidade de correlação entre as propriedades dos elementos químicos e seus pesos atômicos, porém, só aparece quando o químico russo Dimitri Mendeleyev publica seus Princípios de química, em 1869, cujo capítulo Agrupamento dos elementos e lei periódica foi traduzido para o alemão em 1895 (28). Nesse agrupamento, feito com base nos pesos atômicos, tanto os elementos que caíam nas mesmas colunas quanto os que caíam nas mesmas linhas tinham propriedades químicas semelhantes e se repetiam periodicamente. A razão dessa coincidência só foi explicada quando surgiu a física atômica, revelando a estrutura interna dos átomos, no início do nosso século.

Depois que Faraday estudou o fenômeno da eletrólise, mostrando que uma substância química dissolvida em água se decompõe em íons eletrizados, já se pôde conjecturar que a estrutura atômica tinha algo a ver com a eletricidade. Depois que Crookes descobriu, em 1879, os raios catódicos – partículas de cargas negativas por serem sensíveis a placas carregadas positivamente e colocadas paralelamente à sua trajetória – percebeu-se que haveria nos átomos partículas de carga elétrica negativa e foi possível medir suas cargas e massas. Foi Antoine Henri Becquerel, porém, quem primeiro notou que sais de urânio emitiam radiações que ionizavam o ar. Pierre e Marie Curie, depois de isolarem elementos mais radioativos que o usual, demonstraram que tais irradiações se compunham de elétrons (raios b), partículas carregadas positivamente (raios a) depois identificadas como núcleos de hélio e raios semelhantes aos raios x (raios g). Sir Ernest Rutherford, interpondo uma delgada folha de ouro entre uma amostra de rádium uma chapa sensível, pôde então conjecturar a estrutura interna dos átomos como constituída por um núcleo, de dimensões reduzidíssimas, com carga positiva, no qual se concentrava a massa dos átomos e elétrons girando em torno do núcleo em um espaço vazio. Para tornar esse modelo estável, Niels Bohr, em 19l3, postulou que os elétrons só poderiam girar em órbitas determinadas em função do quantum da energia de Planck. Assim, só emitiriam ou absorveriam energia ao saltar de uma dessas órbitas para outra. Esse modelo foi justificado por explicar as regularidades das raias do espectro de emissão do hidrogênio quando aquecido. Entretanto, as linhas espectrais dividiam-se em vários conjuntos de linhas justapostas. Para explicar esses detalhes dos espectro de emissão foi necessário admitir que não só os raios das órbitas dos elétrons determinavam as energias de emissão mas, também suas formas elíticas. Essa energia dependeria também de sua rotação em torno do próprio eixo, podendo essa ser para a direita ou para a esquerda. Todos esses fatores determinariam o nível energético dos elétrons e seriam identificados por quatro números quânticos designando respectivamente: o raio médio; a forma elítica das órbitas; o movimento angular da rotação do elétron; e a própria rotação (spin) do elétron. Esses quatro números quânticos determinariam a posição dos elétrons em suas órbitas e correlacionar-se-iam com as propriedades químicas dos átomos. 

A tabela de Mendeleyef foi reagrupada na ordem do número Z de elétrons, e em relação aos números quânticos. Assim, as propriedades químicas dos elementos foram melhor relacionadas com suas estruturas atômicas. Com isso fortaleceu-se a idéia de que seria possível se deduzir o valor das propriedades químicas da matéria a partir de sua estrutura atômica.

Mas a dificuldade de adaptar o modelo de Bohr a elementos de muitos elétrons foi se agravando. Ao mesmo tempo, foram sendo estudados fenômenos os quais mostraram que as partículas atômicas às vezes apareciam como ondas capazes de se refletirem e se difratarem. Em 1924 os irmãos De Broglie demonstraram experimental e teoricamente essa complementaridade entre partículas e ondas. Chegou-se mesmo a conjecturar que as entidades quânticas não eram partículas, nem ondas; só seriam umas ou outras depois de registradas experimentalmente e expressas matematicamente.

Foi então necessário que se abandonasse qualquer modelo do átomo como sistema planetário, passando-se a entendê-lo como um núcleo envolto em atmosfera ondulatória. Desenvolveu-se a seguir uma nova mecânica quântica, por parte de Erwin Schrödinger, indicando uma função que mediria as variações, nos pontos e nos tempos, em que a ondulação da atmosfera eletrônica dos átomos se dava. Em outras palavras, a equação da função y expressaria a variação da densidade elétrica em torno do núcleo atômico. Em 1926, Max Born demonstrou que o quadrado da amplitude da função exprime a probabilidade daquela densidade elétrica. Em átomo de um só elétron tal probabilidade pode ser entendida como a de encontrar-se o elétron num ponto e no instante correspondente.

Simultaneamente a essa teoria ondulatória, apareceu outra sobre a estrutura atômica: a de Werner Heisenberg, apoiada nas equações da mecânica clássica de Hamilton. Essas equações envolvem a energia total H (a qual é função das quantidades de movimento e respectivas coordenadas espaciais dos pontos de massa) do sistema. Essa função é tomada, em sua forma generalizada H(qipi), como função de ponto de um espaço fase 2i – dimensional, e as variáveis independentes passam a ser consideradas como matrizes. Heisenberg, bem utilizando a álgebra matricial, construiu sua teoria matemática. Pode-se demonstrar que a matriz diagonal correspondente à matriz H é equivalente ao nível de energia E das equações de Schrödinger. Portanto, ambas as formalizações representam dois aspectos da mesma teoria: o primeiro, enfatiza o aspecto ondulatório; o segundo, o movimento das partículas.

Esses formalismos só foram aceitos como verdadeiros depois de verificados experimentalmente por meio da observação do que acontecia quando os átomos eram bombardeados por partículas dotadas de energia suficiente para quebrá-los. A princípio usaram-se para tal fim os raios cósmicos e, depois, aceleradores de partículas cada vez mais poderosos. Essas experiências confirmaram a teoria; porém, é de se lembrar que elas foram, por sua vez organizadas de acordo com a teoria, ou seja, para serem realizadas e seus resultados interpretados, de alguma forma pressupunha-se a constituição quântica da matéria.

Curiosamente, em 1928, Dirac, estendendo a teoria ondulatória ao caso de um elétron livre movendo-se com velocidade próxima à da luz, concluiu que as equações levariam a duas soluções para o nível energético do elétron, uma delas negativa. Inferiu que quando fosse concentrada energia suficiente num ponto do espaço ocupado por um elétron de nível energético negativo, surgiria uma partícula de massa igual à do elétron, mas de carga elétrica positiva.

Em 1933, Occhialini observou nos raios cósmicos recolhidos numa câmara de névoa, ou chapa fotográfica, o aparecimento de partículas que deixavam duas riscas, originadas num mesmo ponto. Na presença de um campo magnético, uma delas tomava a direção positiva e a outra a negativa. Eram um elétron e um anti-elétron positivo, que veio a ser denominado posítron.

Tal fato confirma a idéia de que as equações matemáticas, verificadas como verdadeiras, não só simbolizam, mas descobrem e englobam a realidade.

A decisão de renunciar à figuração dos elétrons girando em órbitas em torno do núcleo atômico, apresentada nas teorias de Schrödinger e Heisenberg, foi acentuada pelo princípio de incerteza introduzido pelo último, em 1927. Heisenberg mostrou que seria impossível determinar, ao mesmo tempo, as coordenadas do ponto onde estivesse um elétron e a quantidade de movimento.

Uma série de experiências posteriores, organizadas e interpretadas de acordo com a complementaridade onda-partícula e com o princípio de incerteza, levaram a observar uma estranha ambigüidade da posição, da identidade e da trajetória dos fótons e, por extensão, de quaisquer partículas atômicas que se comportassem como ondas. Dessas experiências pode-se concluir que um mesmo fóton passa, ao mesmo tempo, por duas fendas feitas num anteparo. Recentemente foi demonstrado que a simples procura de informação sobre em qual dos dois furos passara o fóton, já é suficiente para impedir a formação de bandas de interferência que se formariam pela passagem de ondas de fótons pelas duas fendas.

Portanto, as experiências organizadas e interpretadas de acordo com a teoria ondulatória levam à conclusão de que partículas atômicas comportam-se em desacordo com as leis de identidade e da não-contradição que deveriam reger a realidade, conferindo a elas um caráter fantasmagórico. Entretanto, a equação de Schrödinger é única, coerente consigo mesma e verdadeira; por ser concordante com a experiência; portanto define melhor uma realidade do que a própria experiência. Assim, poder-se-ia conjecturar que as equações matemáticas não seriam apenas símbolos do real; elas passariam a ter características da própria realidade.

POSTED BY SELETINOF 4:12 PM 

 

 

HISTÓRIA DA MATEMATIZAÇÃO DA NATUREZA 4

   

Na década dos anos 30 a mecânica quântica já estava suficientemente desenvolvida para que surgissem análises estatísticas do comportamento de elétrons e fótons, considerados como nuvens de partículas; os primeiros subordinavam-se à estatística de Fermi, que obedece ambos os princípios quânticos de incerteza e de exclusão; os segundos à estatística de Bose, que obedece ao princípio de incerteza mas não ao de exclusão. Verificou-se posteriormente que os prótons e os neutrons obedecem à estatística de Ferni, e os mésons, a de Bose. Por esse motivo, os primeiros foram chamados de fermions e os segundos de bosons, em homenagem aos criadores das estatísticas quânticas.

Aplicando-se a estatística de Fermi à nuvem de elétrons livres numa estrutura cristalina, como a dos metais, chega-se a exprimir a condutividade elétrica em termos da energia dos elétrons e, portanto, de sua temperatura absoluta. Torna-se evidente que a temperatura absoluta pode ser expressa de forma semelhante à da condutividade térmica. Há tipos de ligações atômicas – por exemplo, nos sólidos não-metálicos – que não permitem a existência de elétrons livres por serem isolantes. Entretanto, há materiais intermediários entre isolantes e condutores: os semicondutores.

Os semicondutores (como o silício e o germânio) apresentam condutividade intrínseca formada quando, por motivo de eventual impureza em sua massa, elétrons conseguem se libertar de suas ligações atômicas. Então, não só esses elétrons conduzem eletricidade como também os lugares onde eles estavam fixos passam a funcionar como vazios eletrônicos. Quando um campo elétrico é aplicado ao material semicondutor, elétrons podem se mover para esses espaço, deixando vazios os seus lugares. Assim, forma-se como que uma corrente positiva em sentido oposto à dos elétrons. Há impurezas nos semicondutores que fazem prevalecer as cargas negativas (elétrons) e, outras, as positivas (vazios). É fácil verificar-se que se dois desses semicondutores forem postos em contato e seu conjunto submetido a potenciais elétricos alternados, eles funcionarão como retificadores de corrente. A aplicação dos princípios da física dos sólidos a esse fenômeno levaram à descoberta e à fabricação dos transistores – dispositivos eletrônicos compostos pela justaposição de semicondutores, como mencionado – utilizados para controlar, amplificar e retificar correntes elétricas.

Semelhantemente a esse exemplo, a mecânica quântica já conseguiu expressar matematicamente – através da física dos estados sólidos – as propriedades da matéria sólida cristalina. e está em vias de fazê-lo no que se refere à matéria amorfa. Contudo, deve-se lembrar que essas conquistas foram precedidas por análises qualitativas, experiências e ensaios no campo da tecnologia através de uma ciência de engenharia: a ciência dos materiais. Dessa forma, confirma-se que a matematização da natureza não é um processo simplesmente científico; atende também a uma necessidade tecnológica.

A partir de então o problema da física quântica foi investigar a natureza e a estrutura interna daquele pequeníssimo núcleo do átomo no qual se concentrava a sua massa. Contudo, por pequenas que fossem suas dimensões, ele seria composto por partículas ainda menores como era de se supor desde que se descobriu a desintegração radioativa: prótons, com massa milhares de vezes superior às dos elétrons e carregados positivamente; e neutrons, de massas semelhantes às dos prótons, porém sem carga elétrica. Matematicamente chegou-se à conclusão que essas partículas também admitiam antipartículas, à semelhança do que se tinha observado com os pósitrons. Deve-se lembrar, entretanto, que todas essas antipartículas têm vida extremamente curta. A matéria dominante no universo é constituída por prótons, nêutrons e elétrons movidos ou aglutinados por energias.

No ano de 1935, em uma série de conferências proferidas em Berlim, Heisenberg já se referia sumariamente a um físico japonês – Hideki Yukawa – que propusera a existência de um campo de forças nucleares, diferente do eletromagnético. Tal campo seria responsável pela atração atuante a pequeníssimas distâncias entre prótons e nêutrons. Teoricamente, os quanta desses campos nucleares deveriam ter massa cerca de 200 vezes maiores do que a massa do elétron. Em 1937 Anderson Neddermeyer descobre partículas de massa na proporção de 200 vezes à do elétron nos raios cósmicos, as quais foram chamadas mésons. Mas, esses mésons não tinham as características requeridas pela teoria de Yukawa.

Nos anos 60 começa-se a considerar a idéia já concebida de eletro-dinâmica quântica (29) – explicando a interação entre cargas elétricas por intermédio de fótons – como possível modelo de uma teoria matemática para esclarecer a interação entre as partículas do núcleo atômico. Tais forças são chamadas de fortes e fracas: as primeiras atuando a pequeníssimas distâncias entre os núcleos e intermediadas pelos mésons; as segundas atuando entre as demais partículas, por intermédio de uma partícula postulada por Steven Weinberg em sua Teoria unificada da interação entre partículas (30). Essa teoria está sendo revista com referência às forças fortes uma vez que, do seu estudo, resultou algo não se enquadrar adequadamente.

Dessas especulações inferiu-se a existência de subpartículas intranucleares: os quarks, unidos entre si pelos gluons, que formam os prótons, os neutrons e os mésons. Depois de muitos esforços para se quebrar as partículas em quarks, os atuais poderosos aceleradores de partículas o estão conseguindo.

A elaboração de uma teoria matemática que unisse as forças eletromagnéticas com as nucleares e, eventualmente, pudesse ser estendida às forças gravitacionais, intermediadas pelas hipotéticas partículas grávitons – acompanhadas pelos gravitinos, correspondentes aos neutrinos dos elétrons e mésons – constituir-se-ia como uma construção da mente humana de tal monta que se poderia, evocando Hegel, dizer que a natureza é uma explicitação da idéia; em outras palavras, que a natureza material seria moldada pela mente humana. Isso porém não é inteiramente verdadeiro: é um pressuposto da ciência moderna que toda teoria verdadeira deve conformar-se com resultados de experiências. Contudo insiste-se, sob o aspecto metodológico das ciências modernas, que a experiência científica deve, por sua vez, ser organizada e interpretada de acordo com a teoria. Portanto, o fenômeno observado e experimentado já tem em si a marca do pensamento humano.

Dessa forma, assim como não se pode aceitar o idealismo como teoria da realidade radical, também não é possível aceitar o realismo. É possível sustentar-se haver complementaridade entre a mente humana e o mundo físico de tal ordem que suprimindo um dos pólos o outro desapareceria. A realidade radical, isto é, a fonte de onde brota toda a realidade com que nos defrontamos, contra a qual esbarramos, controlamos ou somos por ela subjugados no cotidiano de nossas vidas, é uma dualidade polar: mentemundo que ainda não foi suficientemente analisada e compreendida pela filosofia.

Quer-me parecer que a expressão dessa realidade dual está justamente nas equações matemáticas, quando essas recebem o veredicto da comprovação experimental. Tal fato está patente no campo das tecnologias ao se utilizar uma equação matemática para projetar uma obra ou criar um produto e, conseqüentemente, a construção da obra ou a fabricação do produto trazem ao mundo aquilo que antes foi somente pensado. Enfim a tecnologia é capaz não só de prever e prover, mas de criar o real através da conjugação do pensamento teórico com a ação prática, ambos se conformando um com o outro.

Contudo, tal aspecto da equação matemáticacomo reveladora do caráter dual da realidadeestá mais nitidamente expresso nas equações da teoria da relatividade e da mecânica quântica, quando corroboradas pela experiência científica. Essas equações – que vão além da capacidade intuitiva da mente humana – evidentemente têm origem mental, mas revelam aspectos da realidade que nos impedem tanto de tomar posição idealista quanto realista. Elas estão se impondo, como modelos sugestivos de uma futura teoria metafísica da realidade radical, àqueles que se interessam por procurar compreender a essência da natureza.

Assim poder-se-ia completar o dito de Galileu: “o livro da natureza está escrito em caracteres matemáticos“, acrescentando-se a ele: mas, algumas das páginas desse livro estão sendo agora escritas e outras ainda o serão, no futuro.

 

Notas

1 W. Jaeguer. La teologia de los primeros filosofos gregos. México, Fondo de Cultura Economica, 1952.

2 Platon. Timée. Critias. Paris, Societé d’Edition “Les Belles Lettres”, 1970.

3 Aristóteles. Physique. Paris, Societé d’Edition “Les Belles Lettres”, 1961.

4 Claudion Ptolemaion. Mathematike syntaxeis. Edição bilingüe grego/francês. Paris, Chez Henri Grand Librairie, 1813.

5 Pierre Duhen. Sozeinta fainomena: Essai sur la notion de theorie physique de Platon à Galiléi. Annales de Philosophie Crétiene (ser. 4) 79/156-1908. Tradução brasileira de Roberto de Andrade. Cadernos de História e Filosofia da Ciência – Supl. 1, Campinas, Unicamp, 1984.

6 Lucrecio. Da natureza das coisas. Tradução portuguesa de Antonio José da Silva Leitão. São Paulo, Edições Cultura, 1941.

7 N. Copernico. Sobre las revoluciones de los orbes celestes. Edición preparada por Carlos Minguez y Mercedes Testal. Madrid, Editora Nacional, 1982.

8 Leonardo Da Vinci. Scritti letterari. Milão, Rizzoli, 1952.

9 Galileu Galilei. Duas novas ciências. Museu Astronomia, Instituto Italiano de Cultura. São Paulo, Ed. Nova Stella, 1988.

10 I. Newton. Mathematical principles of natural philosophy. Chicago, Britannica Great Books, v. 34, 1978.

11 J.L. Lagrange. Mecanique analytique. Paris, Mattet-Bachelier, gendre et successur de Bachelier, 1853.

12 P.S. Laplace. Oeuvres completes de Laplace. Paris, Gauthier-Villars, 1884.

13 Id. iBID.

14 Id. A philosophical essay on probabilities. In: Breakthroughs in mathematics. New York, Signet, 1963.

15 J.B.J. Fourier. Analytical theory of heat. Chicago, Britannica Great Books, v. 45, 1978.

16 S. Carnot. Reflexions on the motive power of fire, and other papers on the second law of termodynamic by E.Clayperon and R. Clausius. New York, Dover Public. Inc., 1962.

17 Ludwig Boltzmann. Sobre da inevitabilidad del atomismo en las ciencias de la naturaleza. In: Ensaios de mecanica y termodinamica. Madrid, Alianza Editorial, 1986.

18 J. Willard Gibbs. Elementary principles in statistical mechanics. New York, Dover Pub. Inc., 1960.

19 André-Marie Ampére. Theorie mathematique des phénomenes electro-dynamiques uniquement déduites de l’experience. Paris, Blanchard, 1958.

20 M. Faraday. Experimental research in electricity. Chicago, Great Books. Encyclopaedia Britannica Inc., 1952.

21 J.C. Maxwell. A treatise on electricity and magnetism. New York, Dover Public. Inc., 1954.

22 Heinrich Hertz. Electric waves. New York, Dover Public. Inc., 1962.

23 P.D. Jensen; C.L.M. Horita e C. Matheopoulos. Simulação matemática de escoamento fluvial com influência da maré. Comparação entre valores simulados e observados no rio Tocantins após o fechamento de Tucuruí. São Paulo, vi Simpósio Brasileiro de Recursos Hídricos, 1985.

24 A. Portela; C. Matheopoulos; L. Roa; P.D. Jensen e R. Barbosa. Intrusão salina no rio Guamá, durante o enchimento do reservatório de Tucuruí. São Paulo, Anais do xii Congresso Latinoamericano da airh, 1986.

25 R. Christian. Fundamentals of solid state physics. New York, J. Willey & Sons, 1988.

26 S.R. Elliot. Physics of amorphous materials. Longman Scientific and Technical. New York, John Willey & Sons, 1984.

27 Robert Boyle. The sceptical chymist. In: Breakthroughs in chemistry. New York and Toronto, New American Library, 1967.

28 Mendeleyev. Grouping of the elements and the periodic law. In: Breakthroughs in chemistry. New York and Toronto, New American Library, 1967.

29 R.P. Feymman. Eletrodinamica cuántica. Madrid, Alianza Editorial, 1988.

30 S. Weinberg. Unified theory of elementary particle interation. Scientific American, jul. 1974.

Fontepesquisada:(http://www.scielo.br/scielo.php?pid=S0103-40141996000300011&script=sci_arttext&tlng=en)

 

POSTED BY SELETINOF 4:11 PM 

 

 

ASPECTOS FILOSÓFICOS DO VIRTUAL E AS OBRAS SIMBÓLICAS NO CIBERESPAÇO 1


  


Silvana Drumond Monteiro


Resumo: A organização do conhecimento no ciberespaço pode ser explicada filosoficamente e operacionalmente por intermédio do conceito de virtual.   No primeiro caso, o virtual  responde pela maneira de ser, uma vez que as obras se realizam no pólo da virtualidade de várias maneiras, onde a conjunção e…e… constitui-se em aliança desenhando o conhecimento sob a forma de rede e explicando a desmaterialização das obras .  No segundo caso, permite a operacionalização dos conceitos filosóficos como o paradoxo do sentido e rizoma ,  ilustrando um novo modelo de escrita, que é o hipertexto, bem  como explicando a indexação no ciberespaço.    O não fechamento semântico e o não fechamento  físico das obras desmaterializadas, ambos possíveis pela virtualização, apontam que não há uma sintaxe geral a ser adotada na indexação na Internet.


Palavras-chave: Virtual; organização do conhecimento; ciberespaço; indexação; mecanismos de busca; tecnologias da informação; rizoma.

Abstract: The organization of knowledge in cyberspace may be explained in a philosophical and  operational way by means of the concept of what virtual means. In the first case, virtual is responsible for the  way of being, since  the works are realized in the virtuality pole in different manners, where the conjunction ‘and’ is an alliance designing knowledge under the form of a net and explaining the works’ de-materialization. In the second case, it permits philosophical concepts, like  the sense paradox and rhizome, to happen, illustrating the new model of writing, that is, the hypertext, and explaining  indexation in cyberspace. The semantic non-closing and the physical non-closing of the de-materialized works, both possible in virtualization, point out that there is not a general syntax to be adopted in indexation on the Internet.


Keywords: Virtual; knowledge organization;  cyberspace; indexation; search engine; information technologies; rhyzome.

1. Introdução

O virtual é o principal atributo do ciberespaço e que melhor o descreve.  Ele dispõe o conhecimento e a informação em um espaço e estado contínuos de modificação, em função de sua plasticidade e fluidez, permitindo a interatividade e  organizando o conhecimento em forma de rizoma,  um novo tipo de escritura, descrita por Deleuze e Guattari (1995, v.1), porém só visualizada e possível ou mesmo inteligível a partir do hipertexto funcional.

O virtual tem importância capital na compreensão da maneira de ser dos objetos, em especial das linguagens e obras, pois explica um tipo diferente de realidade, aquela tomada no pólo da atualização ou da “reificação”, ou seja, da coisa ou da materialidade, que estamos acostumados, cuja qual mantemos uma relação de intervenção, controle e organização física.

A materialidade teve papel fundamental na noção de “representação” na Ciência da Informação”, pois contempla os registros, os meios de inscrição das obras. Assim, a representação da informação requer significado (representação temática) mas também requer a descrição dos suportes (representação descritiva) e por isso mesmo abandona, em parte, a definição clássica de representação da linguagem, ou seja, aquela que define o signo como signo, no seu desvio em relação à coisa significada (poder de representação) e a existência de convenções regulando a relação do signo com a coisa.

Entretanto, toda essa lógica da linguagem e da organização do conhecimento, formulada e baseada na linguagem verbal escrita parece entrar em crise quando se admite que há, no ciberespaço, uma desmaterialização da formas simbólicas (obras), fato este associado corretamente ao virtual, visto que o mesmo explica a “desterritorialização dos signos” e portanto a “desmaterialização das obras”.

O artigo pretende discutir filosoficamente a questão, para explicar um novo modelo de realização da obras no ciberespaço tomada no pólo do virtual, pois essa compreensão ajudará a compreender uma mudança de paradigma, na qual a organização do conhecimento está inserida.

2.  Definição de Virtual

Lévy (1996) escreveu sobre o virtual e seus desdobramentos filosóficos, sendo que no Quadro 01 os diferentes sentidos do virtual são abordados, do mais fraco ao mais forte: 

DEFINIÇÃO

EXEMPLOS

Virtual no sentido comum

Falso, ilusório, irreal, imaginário, possível

Virtual no sentido filosófico

Existe em potência e não em ato, existe sem estar presenteA árvore na semente (por oposição à atualidade de uma árvore que tenha crescido de fato) / uma palavra na língua (por oposição à atualidade de uma ocorrência de pronúncia ou interpretação)Mundo virtual no sentido da possibilidade de cálculo computacionalUniverso de possíveis calculáveis a partir de um modelo digital e de entradas fornecidas por um usuárioConjunto das mensagens que podem ser emitidas respectiva-
Mente por:
– programas para edição de texto, desenho ou música;
– sistema de hipertexto;
– bancos de dados;
– sistemas especializados;
– simulações interativas, etc.Mundo virtual no sentido do dispositivo informacionalA mensagem é um espaço de interação por proximidade dentro do qual o explorador pode controlar diretamente um representante de si mesmo- mapas dinâmicos de dados apresentando a informação em função do “ponto de vista”, da posição ou do histórico do explorador;
– RPG em rede;
– videogames;
– simuladores de vôo;
– realidades virtuais, etc.Mundo virtual no sentido tecnológico estritoIlusão de interação sensório-motora com um modelo computacionalUso de óculos estereoscópicos, datagloves para visitas a monumentos reconstituídos, treinamentos em cirurgias, etcQUADRO 01: OS DIFERENTES SENTIDOS DO VIRTUAL, DO MAIS FRACO AO MAIS FORTE
LÉVY, Pierre. Cibercultura. São Paulo: Ed. 34, 2000. p. 74. 

A palavra virtual, no sentido filosófico que interessa à discussão, vem do latim medieval virtualis, derivação de virtus, designando força ou potência.  O virtual existe em potência e não em ato, por isso tem como pólo o atual, e não o real,  comumente  associado ao termo.

Assim, o virtual é potência em curso de atualização, e ambos pertencem ao real.  Exemplificando o virtual, Lévy (1996) lança a situação da árvore que está virtualmente presente na semente.  Então, o termo “virtual” não pode se opor ao real, mas ao atual, uma vez que a virtualidade e atualidade são apenas duas maneiras de ser diferentes. Nesse contexto, o virtual não substitui o real, mas antes multiplica as oportunidades para atualizá-lo.

Ainda de acordo com o Autor, o virtual “é como o complexo problemático, o nó de tendências ou de forças que acompanha uma situação, um acontecimento, um objeto ou uma entidade qualquer, e que chama um processo de resolução: a atualização.” (LÉVY, 1996, p.16).

O ciberespaço parece encarnar a força virtual, em curso de atualização, mas ao mesmo tempo sem perder a sua virtualidade: o espaço de leitura atualiza-se como espaço de escrita e vice-versa.  Ou então, a leitura em outras leituras e escritas transversais.

Assim como Deleuze (apud ALLIEZ, 1996, p.49) que diz que todo atual “rodeia-se de uma névoa de imagens virtuais”, Lévy (1996, p.43) admite um outro estágio da atualização, ou seja, a virtualização, onde,

Um pensamento se atualiza num texto e um texto numa leitura (numa interpretação). Ao remontar essa encosta da atualização, a passagem ao hipertexto é uma virtualização.  Não para retornar ao pensamento do autor, mas para fazer do texto atual uma das figuras possíveis de um campo textual disponível, móvel, reconfigurável à vontade, e até para conectá-lo e fazê-lo entrar em composição com outros corpus hipertextuais e diversos instrumentos de auxílio à interpretação. Com isso, a hipertextualização multiplica as ocasiões de produção de sentido e permite enriquecer consideravelmente a leitura.

A virtualização é a passagem de uma solução dada (a atualização) a um outro problema, isto é, do atual ao virtual.  Entretanto, não um virtual como maneira de ser (no Quadro 02), mas a virtualização como dinâmica ou processo (se no quadro abaixo estivesse representada, a virtualização partiria do atual retornando ao virtual, cf. Esquema 1, p.7).

Vale observar que esse processo não é característica conferida somente aos signos (como virtualização do pensamento), mas a humanidade tem se valido da virtualização das ações, do corpo e do ambiente físico através das técnicas e da complexidade das relações sociais por meio dos contratos, para estabelecer o estado de hominização ao longo de sua existência (LÉVY, 2000).

Já o oposto do real é o possível, de acordo com Deleuze (apud ALLIEZ, 1996) em que Lévy (1996) se baseou para escrever “O Virtual”.  Assim,  o real assemelha-se ao possível, mas lhe falta a existência, enquanto o atual responde ao virtual, conforme Quadro 02:

 LATENTEMANIFESTO SUBSTÂNCIAPossível (insiste) realizaçãoReal (subsiste) ACONTECIMENTOVirtual (existe) atualizaçãoAtual (acontece)

QUADRO 02:  OS QUATRO MODOS DE SER E AS QUATRO PASSAGENS
FONTE: LÉVY, Pierre. O que é o virtual. São Paulo: Ed. 34, 1996. P. 138. [2]

O virtual é uma configuração de forças, que visa a manifestar-se em uma atualização.  A isso Lévy chama de solução a um problema, dado que o virtual é problemático por essência. A atualização é portanto, um acontecimento, “efetua-se um ato que não estava pré-definido em parte alguma e que modifica, por sua vez, a configuração dinâmica na qual ele adquire uma significação.” (LÉVY, 1996, p.137). 

 

A atualização, ao inventar, ao criar uma solução ao problema, não mobiliza recursos visando a preencher uma forma, ou ainda, não coloca uma forma à disposição de um mecanismo de realização. Ela cria uma informação nova, exemplificando com a ocorrência da pronúncia de uma palavra ou interpretação de um texto.

Por isso, a atualização, que une os pólos virtual e atual, é da ordem do acontecimento, da criação, ao contrário da realização (possível-real) que sendo da ordem da substância, supre de matéria uma forma preexistente. É uma forma na qual a realização confere uma matéria mediante uma seleção entre possíveis. A realização é uma eleição ou seleção e não uma resolução inventiva de um problema, então os possíveis são candidatos à realização portanto, não são um campo problemático como no caso do virtual, pois o “envoltório de possibilidades presta-se apenas a uma realização exclusiva.” (LÉVY, 1996, p.59).

Prosseguindo com o raciocínio, a força do virtual está na sua saída, posto que é potência, por isso é dito “existir” como modo de ser, e o atual é a manifestação dessa força, seu acontecimento, por isso é dito “acontecer”, uma vez que possui a atualização como prerrogativa.  Já o possível como lhe falta a existência, pode-se dizer que ele apenas “insiste”, ou as determinações para sua existência insistem, e no real, a substância subsiste ou resiste, porque é material.

Entretanto, o possível, o real, o virtual e o atual, embora quatro modos diferentes de ser, quase sempre operam juntos nos fenômenos concretos em que se pode analisar. São as misturas que se manifestam nos fenômenos de modo que os processos de possibilidade e de realização só adquirem sentido pela dialética da atualização e da virtualização. Lévy (1996) cita o exemplo de um texto, em que a possibilidade e a realização constituem-se os aspectos técnicos e materiais, mas que por sua vez influenciam fortemente na criação de uma mensagem e na configuração de uma ecologia cognitiva [3]. Não coincidentemente, a Paleografia chama de “material subjetivo” aquele sobre o qual se executa uma escrita ou inscrição.

Ao mesmo tempo, na produção de um texto, há a produção e criação de idéias, portanto um espaço virtual de significações que será respondido com uma atualização ou ainda com uma virtualização, e nesse sentido o meio ou espaço de inscrição pode operar a proeminência de um modo de ser ou outro.

Visualizando de outra maneira, o diagrama do Esquema 01 resume os quatro modos de ser e os processos envolvidos nessa transferência. 


ESQUEMA 01 [4]:  OS QUATRO MODOS DE SER E OS PROCESSOS ENVOLVIDOS.
FONTE: LÉVY, Pierre. O  que é o virtual. São Paulo: Ed. 34, 1996. p. 145.

A dialética do virtual e do atual, quando capturada pelo real, é reificada, objetivada, coisificada. Já o possível e o real retomados pelos processos de atualização e de virtualização, tornam-se subjetivados, onde:

O pólo do acontecimento não cessa de implicar o pólo da substância: complexificação e deslocamento dos problemas, montagem de máquinas subjetivantes, construções e circulações de objetos.  É desse modo que o mundo pensa dentro de nós.  Mas, em troca, o pólo da substância envolve, degrada, fixa, e se alimenta do pólo do acontecimento: registro, institucionalização, reificação.  (LÉVY, 1996, p.142).

Esse aspecto quádruplo que envolve os fenômenos é uma evidência, por si só, para desconfiar das teorias lingüísticas dualistas para estudo das linguagens, e sobretudo do conteúdo. O desvelar dos processos da ordem da matéria e do acontecimento, nas formas simbólicas, e a necessidade de compreendê-los traz à tona a importância dessa discussão.

Deleuze (1998, p.241) diz que o virtual é a característica da idéia.  Isso quer dizer que a existência, o pensamento são produzidos a partir dele e tal pensamento não remete à forma de identidade no conceito. Lembrando que a linguagem é a virtualização do pensamento, de modo que no virtual “a diferença e a repetição fundam o movimento de atualização, da diferenciação como criação, substituindo, assim, a identidade e a semelhança do possível”.

        

Portanto, distingue-se do possível, que é concebido como a imagem do real, e do real como a semelhança do possível. O real é a semelhança de um possível que foi encarnado em uma substância à semelhança de sua imagem, que a priori já tem uma “forma”, uma identidade no conceito (bom senso e senso comum).  Assim, o real está ligado às imagens identitárias de compreensão da linguagem e do mundo.

Apesar da linguagem ser em essência virtual, sua atualização se prende na correspondência da identidade fixa do significado ao seu significante. Na escrita, a diferenciação como criação parece não conseguir substituir a identidade e a semelhança do possível. Deleuze propõe, em toda a sua filosofia, pensar a diferença em vez de reduzi-la a uma identidade, maquinar o pensamento, através da linguagem, em vez de enxergá-lo como algo mais profundo.

Se aparentemente o diagrama apresentado parece apontar um dualismo entre o acontecimento e a substância, na verdade esconde uma profunda unidade entre ambos. Assim, os fenômenos que envolvem formas concretas e simbólicas fundem-se em processos, ora da ordem da seleção, ora da ordem da criação, ora da realização, sendo o ciberespaço o ambiente que  potencializa, sobretudo, os eixos inventivos da criação, dado que desloca as obras para um espaço desmaterializado, onde a atualização de textos/leituras volta sempre ao estado de virtualização.

No ciberespaço não só o texto é em essência virtual, mas o espaço de inscrição, ou seja, a mídia torna-se também virtual. O caráter virtual do texto, no hipertexto é elevado à  potência: linguagem e meio virtualizam-se.  Assim, “o texto é posto em movimento, envolvido em um fluxo, vetorizado, metamórfico,  estando mais próximo do próprio movimento do pensamento, ou da imagem que hoje temos dele.” (LÉVY, 2000, p.48).

Desse modo, a digitalização torna possível um imenso plano semântico, no sentido de Lévy  (várias obras) ou mil platôs, no sentido de Deleuze e Guattari (1995) acessível em todo lugar. Esse é o caráter da virtualidade do conhecimento e da informação, sempre em movimento, esperando a atualização e/ou virtualização.

Uma inferência já se pode fazer sobre as formas simbólicas do ciberespaço: são, em essência, metamórficas. Não se confinam em um fechamento físico da realização de uma forma, na fixidez temporal resultante do registro material, e sobretudo no fechamento semântico, normativo e editorial, estes dois últimos responsáveis pela normalização da forma [5].

O movimento das formas está sempre produzindo novas “dobras”, tanto entre os conteúdos, quanto do sentido, uma vez que não há delimitação entre a estrutura física e lógica, lembrando que a dobra é a continuidade do avesso e do direito, e o sentido se distribui dos dois lados, ao mesmo tempo.   Aliás, a bidirecionalidade é a encarnação do paradoxo do sentido no ciberespaço,  mas  a  dupla  direção  não  diz  respeito somente ao autor e leitor, mas a virtualização afeta as relações entre público e privado, próprio e comum, subjetivo e objetivo, mapa e território (LÉVY, 1996).

O hipertexto, nas redes digitais, está desterritorializado [6], graças aos  seus dispositivos, dentre  deles o link  que  faz a ligação de contexto entre os enunciados e os conteúdos,  estabelece o vínculo entre os vários nós, tornando o espaço (do ciberespaço) além de contínuo, contíguo também. Evidentemente, isso provocará uma mudança nas obras de representação do conhecimento.

Salienta-se ainda que, no sentido estritamente filosófico, toda forma simbólica, seja ela qual for, é em essência virtual. Confere à informação e ao conhecimento o caráter de virtualidade, uma vez que não se esgotam ou acabam quando são utilizados.  Não são bens de consumo meramente materiais, seu valor e inexorabilidade vêm da virtualidade, pois a escrita carrega esses atributos, como a não-presença, o desprendimento de um aqui-e-agora, entre o contexto de produção e recepção da mensagem.

As formas simbólicas, como “bens” virtuais apresentam-se em problema, abrem espaço à instauração do sentido, à resolução ou atualização do texto.  Entretanto, o pólo da realização é regido pela lei de exclusão mútua: ou…ou…  Não há como  realizar-se de duas maneiras diferentes e em dois lugares ao mesmo tempo. O impresso, ao apresentar a “obra acabada” elege uma possibilidade de realização, e a tradição hermenêutica encarrega-se de despontencializar o bem virtual do texto, uma vez que a atualização do mesmo deve atingir um denominador mental comum, ou seja, o sentido único.

Em outra palavras, retomando Deleuze (1998), embora a linguagem (mais especificamente a palavra) sendo instituída de virtualidade, possuindo portanto um alto nível de desterritorialização, ela acaba sempre fixando o significante (isto é, a palavra), assim que o significado não pára de deslizar-se sob a palavra, pois, ela acaba operando ao mesmo tempo todo um sistema de reterritorializações. Qualquer coisa pode fazer as vezes da reterritorialização, isto é, “valer pelo território perdido; com efeito, a reterritorialização pode ser feita sobre um ser, sobre um objeto, sobre um livro sobre o aparelho ou sistemas” ou mesmo sobre o significado, sobre o próprio significante, sendo que o regime significante faz operar todo um sistema de reterritorialização (DELEUZE; GUATTARI, 1997, v.5, p. 224).

No que isso implicaria? Implicaria que a virtualidade da linguagem, que tem o intuito de virtualizar o pensamento, ao ser capturada pelos registros atualizados, acaba gerando o já conhecido, tal é o problema da organização da linguagem e da atribuição da significação (porque o sentido é de outra natureza, está ligado à multiplicidade e não à totalização semântica).  Dessa maneira, o significante, para Guattari (1992) é um grande redutor da polivocidade expressiva, onde faz calar as virtualidades infinitas das línguas.

O ciberespaço proporcionará ao significante romper com as semiologias/semióticas lineares e binárias e instaurar novas linhas de fuga rizomáticas onde o sentido alonga-se, bifurca-se “n” vezes, nos pontos-signos de uma nova Semiótica. Não mais uma coisa ou outra, mas as duas direções, várias direções, unindo signos de sentido.

     

O que torna o ciberespaço diferente é que o texto atualiza-se em um hipertexto, lembrando, sem nunca perder seu potencial virtual. O hipertexto certamente não se trata do mesmo texto impresso, estático, linear, preso na materialidade do objeto. Ao que parece, dada a hibridização e virtualidade, tanto das linguagens, quanto do meio, o conhecimento produz signos que geram outros signos, mas estes não se tratam, obrigatoriamente, de significantes (no sentido restrito do termo).  Estamos rumos à construção da ideografia dinâmica (LÉVY, 1998a) onde novas simulações, novas representações, novos movimentos, ícones, narrativas se juntam nessa tarefa de produzir enunciados e sentido.

Ao utilizar o hipertexto, face às características do ciberespaço, com a interatividade (ou bidirecionalidade) e a virtualidade (que põe as formas simbólicas   em  um  espaço  e estado contínuos de modificação), efetua-se a virtualização ou hipertextualização, e a organização do conhecimento assim procede, não mais operada por uma “norma” ou sintaxe geral (calcada no significado). É essa a discussão que  interessa, para tanto as bases filosóficas do hipertexto encontram-se no conceito de “rizoma”, de Deleuze e Guattari (1995, v.1), onde serão detalhadas, a partir do próximo capítulo.

Já que estamos falando de uma pesquisa, iremos apresentar o nosso problema, objeto e a  hipótese de investigação (no sentido de premissa) antes dos pressupostos teóricos e dos resultados.

Assim, o nosso problema de pesquisa foi a desmaterialização das formas simbólicas, no ciberespaço, à organização clássica do conhecimento: como classificar e catalogar obras desmaterializadas? Já o nosso objeto específico foi a organização virtual do conhecimento no ciberespaço por meio da indexação realizada pelos buscadores ou sites de pesquisa na Internet  (Google, Yahoo!br e KaZaA), sendo a nossa hipótese formulada, de acordo com um aporte teórico, da linguagem, que apresentamos uma parte neste artigo, a saber:
 

Os indexadores (mecanismos de busca) da Internet, como modelo de organização do conhecimento, detêm os mesmos atributos do rizoma, operando na multiplicidade do sentido da representação hipertextual à recuperação da informação e do conhecimento, não incorrendo portanto,  no sentido único e na identidade fixa (elementos da doxa), ou seja, no fechamento semântico (do significado) da ecologia cognitiva da escrita e do códex, como também do fechamento físico das obras, que deram origem à referência fixa do conhecimento.

Continua:(http://petroleo1961.spaces.live.com/blog/cns!7C400FA4789CE339!1391.entry)

POSTED BY SELETINOF 6:09 PM

 

 

 

ASPECTOS FILOSÓFICOS DO VIRTUAL E AS OBRAS SIMBÓLICAS NO CIBERESPAÇO 2

      

3. O Virtual e a Organização do Conhecimento no Ciberespaço

 

3.1 Os Elementos da Doxa e o Paradoxo do Sentido


De acordo com Monteiro (2002), o virtual também serve como base funcional ou operacional para dois aspectos (filosóficos) da escritura hipertextual que explicam, por sua vez, a organização virtual do conhecimento no ciberespaço: o paradoxo do sentido e o rizoma.

Para entender o paradoxo do sentido há a necessidade de saber que o mesmo tem como oposição a doxa, ou seja: bom senso e senso comum que devem ser explicados anteriormente, pois os mesmos estão constantes na organização clássica do conhecimento.  Assim, Deleuze, em sua obra “Lógica do Sentido” (1998) demonstra criticamente como o “bom senso” enquanto sentido único, e o “senso comum” como designação de identidades fixas, levam a identificar o sentido com a significação.

Esses dois aspectos da doxa, são assim explicados:  O bom senso é o sentido único, exprime a existência de uma ordem de acordo com a qual é preciso escolher uma direção e se fixar nela.  Então, o bom senso tende a caminhar sempre do singular ao regular, por isso mesmo o bom senso é, em essência, repartidor: de um lado e de outro, nunca em duas direções ao mesmo tempo.

Essa teoria do paradoxo do sentido, Deleuze a fez baseando-se em Alice, da história de Lewis Carroll.  O “País da Maravilhas” tem sempre uma dupla direção, como também ela é (Alice)  aquela que sempre perde a identidade, a sua, a das coisas, e a do mundo [7].

Exemplificando melhor a dupla direção, citamos Deleuze (1998, p.1) “quando digo ‘Alice cresce’, quero dizer que ela se torna maior que era. “Mas por isso mesmo ela também se torna menor do que é agora.  “Sem dúvida não é ao mesmo tempo que ela é maior ou menor. “Ela é maior agora e era menor antes.” Mas o fato de crescer, também a torna capaz de ficar menor, isto é, Alice não cresce sem a possibilidade de ficar menor, e inversamente.

A repartição implicada pelo bom senso defini-se precisamente como distribuição fixa ou sedentária. O bom senso é agrícola, pois visa à instalação de cercados, propriedades e classes.  Assim sendo, o bom senso desempenha papel capital na determinação da significação. Mas não desempenha nenhum na doação de sentido, porque o “bom senso vem sempre em segundo lugar, porque a distribuição sedentária que ele opera pressupõe uma outra distribuição, como o problema dos cercados supõe um espaço primeiro livre, aberto, ilimitado, flanco de colina ou encosta.”  (DELEUZE, 1998, p.79) [8].

O bom senso, além de determinar uma direção, isto é, o sentido único, ele determina antes de tudo o princípio de um sentido único geral, assim que, esse princípio faz com que escolhamos uma direção em preferência de outra.

Mas, escolher o outro sentido, não se trata de escapar do bom senso, pois o outro sentido seria ainda um senso único, uma vez que o paradoxo do sentido toma sempre os dois sentidos ao mesmo tempo, as duas direções ao mesmo tempo.

O paradoxo de  sentido, está em ir às duas direções ao mesmo tempo e tornar impossível uma identificação, colocando a ênfase ora num, ora noutro dos efeitos.  É  o que se irá definir como duplo  sentido, onde na verdade é a ruptura com a ecologia cognitiva da escrita no tratamento da informação.

Já o senso (sentido) comum não se diz respeito de uma direção, mas de um órgão, uma função, uma faculdade de identificação, que relaciona uma diversidade qualquer à forma do “mesmo”.  Isto quer dizer que o senso comum é a instância capaz de referir o diverso à forma de identidade de um sujeito, à forma de permanência de um objeto ou de um mundo. Assim, a linguagem opera por determinações de significação: manifesta pessoas e relaciona nomes, designa objetos, classes, propriedades, significados, segundo uma ordem fixa.

Dessa forma, a linguagem parece impossível fora do sujeito que se exprime ou se manifesta nela e ainda a linguagem não parece possível fora de tais identidades que designa. Entretanto, tais identidades levam sempre à significação nas proposições, porque a doação de sentido, segundo Deleuze (1998), precede todo bom senso e senso comum: representa os dois sentidos (as duas direções são possíveis)  ao mesmo tempo, o devir-louco, e o nome perdido (o não senso da identidade perdida, irreconhecível): eis o paradoxo do sentido.

Assim, o bom senso é a afirmação de que todas as coisas há um senso único, e por isso tem papel importante na determinação da significação.  Já o senso comum é designado por identidades fixas, isto é, a compreensão do mundo a partir de unidades estabilizadas do sentido.  Resumidamente, teríamos as IDENTIDADES FIXAS (bom senso) DO SENTIDO ÚNICO (senso comum), que no tratamento da informação transformou-se na REFERÊNCIA FIXA DO CONHECIMENTO, classificado, catalogado, etiquetado e armazenado, conforme nossa análise., no Quadro 03:

REFERÊNCIA FIXA

SENTIDO ÚNICO

IDENTIDADE ÚNICA

UNIVERSALIDADE

CLASSIFICAÇÃO
(conteúdo)

Reprodução do modelo hierárquico das classes, das estruturas da linguagem, da raiz como imagem da  árvore-mundo . Reprodução das relações ontológicas do conhecimento. Criação de  um sistema de classes fixas de assuntos, indicando que há um só sentido, uma  só classe a  ser adotada  para  o assunto.

A identidade do assunto, dos referentes ontológicos, baseia-se  na  unidade estabilizada  do
Conhecimento.

A  universalidade do conhecimento,  a  partir de  uma classe,  como extensão da  universalidade  das interpretações dos  textos, das ciências.  A classe, expressa  por  um significante, e transformada em  notação internacio- nal,  conferiu a  homogeneidade  onto-lógica  dos  referentes científicos.

INDEXAÇÃO
(conteúdo)

Reprodução da estrutura da linguagem,  por meio das instruções semânticas  que conferem o  fechamento
semântico, através do  significante fundador, que recolhe todos os conteúdos ou significados sob  o  termo adotado,  que  indica  o  sentido certo.

A identidade do assunto baseia-se na  unidade estabilizada da linguagem.

Criação e adoção de linguagens controladas em várias áreas do conhecimento humano: os tesaurus.

CATALOGAÇÃO
(forma)

Formação de  um  sistema  de descrição que confere  o  fechamento físico  das  obras,  que indica  uma  só  direção  a ser  tomada à  organização e à localização do conhecimento.

Identificação única da obra, por meio da catalogação, que atribui a identidade fixa de autores,  obras e assuntos, sob um número.

Criação e aplicação de normas e padrões internacionais de formatos de catalogação, conferindo universalidade à  identificação das obras.

QUADRO 03:  A REPRESENTAÇÃO DA INFORMAÇÃO E A REFERÊNCIA FIXA DO CONHECIMENTO

 

O modelo  espelha o paradigma da escrita e a pragmática da organização do conhecimento, e tem como base filosófica os seguintes aspectos:

a) o sentido único do fechamento semântico das rubricas de assunto, na indexação, confirma o regime do signo significante da linguagem verbal escrita, juntamente com as classes fixas dos referentes ontológicos à semelhança da imagem árvore-mundo, confirmam, a propósito do bom senso,  que existe um só sentido a ser adotado (significado), bem como uma só direção a ser tomada para a armazenagem e recuperação do assunto;

b) a identidade única dada aos assuntos e à entrada do autor e obras  (expressa por um número de chamada), a propósito do senso comum como designação de identidades fixas;

c) a universalidade do conhecimento traduzida pela escolha de classes fixas do conhecimento, como extensão da universalidade das interpretações dos textos, também como reflexo da homogeneidade ontológica dos referentes científicos.

Já o “universal” é demonstrado por  Lévy (2000) como  parte integrante de uma ecologia cognitiva da tecnologia da escrita e dos textos impressos.  O sentido único e o domínio englobante do significado são partes constitutivas da escrita para garantir a mesma interpretação entre os atores da comunicação que estão em contextos separados. E a Biblioteconomia levou esse modelo, que propõe o fechamento semântico, até as últimas conseqüências. Mas se isso ocorreu, é porque a escrita assim o permitiu e permite até hoje pois, no regime significante do signo, a relação simples entre a palavra e a coisa, entre o significante e seu significado, permite tal agenciamento: é a base da representação (criticada por DELEUZE; GUATTARI, 1995, v.1), que permite o corte significante suprindo a ausência da coisa ou do autor, ou seja, a descontextualização entre a produção e recepção das obras.

    

O paradoxo do sentido diz  respeito à escritura hipertextual e é a base filosófica à compreensão da instauração do sentido e da indexação, no ambiente do ciberespaço. É uma nova maneira de produzir sentido e de buscar assuntos, mais livre, mais incerta.

A  identidade única assim como o sentido único do fechamento semântico são desmontados pelo paradoxo do sentido, pois é possível ir às duas direções (bidirecionalidade), assim como é impossível atribuir imagens identitárias clássicas construídas no ambiente da escrita.

Para Deleuze (1998, p.1), o paradoxo do sentido na linguagem é exemplificado de duas maneiras. Primeiro, pelo duplo sentido ou direção (contrariando o bom senso), já exemplificado pela Alice, e por sua vez explica o ciberespaço:  “pertence à essência do devir avançar, e puxar nos dois sentidos ao mesmo tempo.” No meio digital, esse paradoxo pode ser sentido entre o puxar e avançar da escrita/leitura, bem como não há o sentido único, o significado certo a ser instaurado ou utilizado na organização do conhecimento.

No segundo caso do paradoxo do sentido, diz respeito à identidade perdida (contra o senso comum), a impossibilidade de se atribuir a identidade única à Alice, assim como no ciberespaço não há referências (identidades) fixas do conhecimento, em que se possa atribuir uma estabilidade dos referentes ontológicos, tal como nas classes destinadas a esse objetivo, na pragmática da escrita.

O meio digital veio para demonstrar a tese que Deleuze já havia defendido somente no âmbito da linguagem. Os agenciamentos por ele identificados na instauração do sentido, na linguagem verbal escrita, só são sentidos agora, com a “desterritorialização” dos textos no ciberespaço, por isso mesmo o “virtual” é o principal atributo do ciberespaço, porque ele demonstra e faz possível identificar a escritura rizomática, no hipertexto, e o paradoxo do sentido da linguagem, que aqui é do meio (mídia) também, e todos esses elementos estão presentes na organização virtual do conhecimento.

A organização clássica do conhecimento, usa o esquema da Árvore de Porfírio, que tem como modelo e definição as dicotomias sucessivas, ordenando as idéias segundo sua compreensão crescente e extensão decrescente, relacionando de forma indistinta a realidade espiritual e a realidade natural.  Assim é o agenciamento da Árvore de Porfírio e da escrita: a subsunção da realidade natural (mundo) à realidade espiritual (livro) (FRAGOSO, 1997, p. 88).

No léxico do ciberespaço, especificamente na organização do conhecimento, percebeu-se que não há uma rubrica adotada como “certa” ou como sentido único à recuperação do conhecimento, por isso mesmo o significado (seja uma classe ou um descritor), como expressão única ou primordial, não desempenha papel principal na determinação da significação.

O ciberespaço está misturando as noções de unidade, de identidade e de localização, atributos relacionados à identidade única, à determinação de unidades estabilizadas do sentido por meio do senso comum. Todas essas implicações atingem diretamente à questão da identidade dos assuntos e da localização fixa  dos volumes ordenados em acervos fisicamente codificados, que no ciberespaço não existem.  Lévy (1996, p.25) afirma que as coisas só têm limites claros no real pois “a virtualização, passagem à problemática [caso do ciberespaço], deslocamento do ser para a questão, é algo que necessariamente põe em causa a identidade clássica, pensamento apoiado em definições, determinações, exclusões, inclusões” […].

Em suma, o paradoxo do sentido, na organização do conhecimento no ciberespaço, torna instável os principais atributos da doxa, o bom senso (sentido único) e o senso comum (identidade fixa), presentes na escrita e na representação da informação, ambas organizadas a partir de classes e categorias.

Não há também a universalização do conhecimento e de sua organização em  classes fixas, já que o virtual distribui o conhecimento em fluxo, uma vez que não há o fechamento físico das obras (exemplares etiquetados nas estantes), ou a realização de uma forma exclusiva.  A universalização, aqui, se dá pela livre distribuição do conhecimento e a conexão “todos-todos” no ciberespaço.

Continua:(http://petroleo1961.spaces.live.com/blog/cns!7C400FA4789CE339!1392.entry

POSTED BY SELETINOF 6:07 PM 

 

ASPECTOS FILOSÓFICOS DO VIRTUAL E AS OBRAS SIMBÓLICAS NO CIBERESPAÇO 3

 3.2 O Rizoma

 

FIGURA 01: PROGETTAZIONE DEL PERCORSO FORMATIVO
FONTE: TOZZI, Tommaso.  Rizomatica (od a radice). In: GRONCHI, Sandro. Progettazione del percorso formativo. Disponível em: <http://digilander.libero.it/ricercavisiva/articoli/progettazione%20percorso%20FORMATIVO.htm>

O rizoma é um novo tipo de escritura proposta por Deleuze e Guattari (1995, v.1). É a realização (no ciberespaço sempre tomada no pólo do virtual) da multiplicidade de signos, linguagens e sentidos: rizoma por oposição ao modelo de árvore.  Seria o novo paradigma de escrita que já está impondo uma nova pragmática de organização do conhecimento no ciberespaço.

Para falar sobre o rizoma voltamos à questão da árvore, uma vez que esta serviu não só como imagem mas como método de organização do conhecimento ou mesmo como modelo de episteme ocidental, posto que procedeu as divisões,  as hierarquias e as dicotomias. Basta lembrar da árvore definicional semântica de Aristóteles e de Porfírio, que deram origem às árvores do conhecimento, onde a lógica binária é a realidade da “árvore-raiz”.  Esse tipo de livro evoca a árvore, que é a imagem do mundo ou a raiz é a imagem da árvore-mundo, é o livro clássico, que detém a interioridade orgânica, significante e subjetiva.

Essa imagem da árvore-mundo[9] procede representando a realidade natural do gênero dividindo-o por meio de dicotomias, como uma raiz, até as espécies mais específicas, de modo que o livro como realidade natural é acolhido pelo livro como realidade espiritual, sendo o livro a imagem do mundo. É o pensamento clássico, com suas estruturas que reduz as leis de combinação, de conexão levando às classificações intermináveis, via de regra binárias de oposição, presas à raiz ou à estrutura.

         

Assim o livro imita o mundo;  mas como a lei do livro, que é a da reflexão, do Uno que se torna dois estaria no mundo, na natureza, que é  Una?  Certo é  que ela (a lei de uma lógica binária) preside a própria divisão entre mundo e livro, natureza e Arte.  “Um torna-se dois: cada vez que encontramos esta fórmula, mesmo que compreendida o mais ‘dialeticamente’ possível encontramo-nos diante do pensamento mais clássico e o mais refletido, o mais velho, o mais cansado.” (DELEUZE ; GUATTARI, 1995, v.1, p.13).

Acontece ter a natureza outra essência, ela não é binária, ela tem raízes pivotantes, com ramificação mais numerosa, lateral e circular, não dicotômica. Desse modo, Deleuze e Guattari  (1995, v.1) afirmam que o espírito é mais lento que a natureza. O livro como realidade natural deveria ser pivotante, rizomático, mas o livro como realidade espiritual (criação do espírito) insiste em desenvolver a lei do Uno, que se torna dois, o dois que se tornam quatro, etc.  O livro árvore ou raiz fixa um ponto, uma ordem, uma  estrutura a partir de onde deverá fixar o  sentido.  Assim é  com  a Lingüística, com o estruturalismo e todo pensamento que necessita de uma forte unidade principal para desdobrar-se em relações biunívocas, onde tal pensamento não compreende a multiplicidade.

O múltiplo “n” não se acrescenta uma dimensão superior, mas ao contrário, sua fórmula é n-1”, onde subtrai-se o único ou a singularidade da multiplicidade a ser constituída.  O um é múltiplo e não existe fora da multiplicidade a acolhê-lo, que poderia ser ilustrado com a seguinte proposição: “a vida é numericamente uma, mas formalmente múltipla (ONETO, 1997).   Este sistema é o RIZOMA, em que:

As multiplicidades são a própria realidade, e não supõem nenhuma unidade, não entram em nenhuma totalidade e tampouco remetem a um sujeito. As subjetivações, as totalizações, as unificações são, ao contrário, processos que se produzem e aparecem nas multiplicidades. Os princípios característicos das multiplicidades concernem a seus elementos, que são singularidades; e suas relações, que são devires; a seus acontecimentos, que são hecceidades (quer dizer, individuações sem sujeito); a seus espaços-tempos livres; a seu modelo de realização, que é o rizoma (por oposição ao modelo da árvore); a seu plano de composição, que constitui platôs (zonas de intensidade contínua); aos vetores que as atravessam, e que constituem territórios e graus de desterritorialização.  (DELEUZE;  GUATTARI, 1995, v.1, p.8,  grifos dos autores). Ou seja, a multiplicidade implica em um desenho rizomático de pensamento portanto, de produção do conhecimento e de escrita.  Assim, os Autores em “Mil Platôs’ (1995, v.1, p.15-seq.) enumeram as características do rizoma, cujas quais reproduziremos a seguir:

 

1ª e 2ª- Princípios de conexão e de heterogeneidade  

Qualquer ponto do rizoma pode ser conectado a qualquer outro (e deve sê-lo). É muito  diferente  da  árvore ou  da raiz que  fixam  um  ponto, uma ordem. […] Num rizoma, ao contrário, cada traço não remete necessariamente a um traço lingüístico: cadeias semióticas de  toda natureza são aí conectadas a modos de codificação muito diversos, cadeias biológicas, políticas, econômicas, etc., colocando em jogo não somente regimes de signos diferentes, mas também estatutos de estado de coisas. Os agenciamentos coletivos de enunciação funcionam, com efeito, diretamente nos agenciamentos maquínicos [de corpos], e não se pode estabelecer um corte radical entre os signos e seus objetos. […]  Um rizoma não cessaria de conectar cadeias semióticas, organizações de poder, ocorrências que remetem às artes, às ciências, às lutas sociais. (Grifos dos autores, p.15)

Especialmente esses princípios, parece-nos a apresentação do hipertexto onde a conexão se faz em qualquer ponto do sistema através de links, que ligam nós lingüísticos,  nós imagéticos, sonoros, híbridos (“modos de codificação muito diversos”) e que na conexão entre os vários agenciamentos não há como separar o objeto de seus signos, ou seja, não há fechamento físico, ou pacotes materiais de unidades semióticas delimitadas, tal qual o livro impresso, como também não há uma relação simples e mecânica entre as palavras e as coisas (do regime  significante do signo)  e  por isso mesmo é utilizado o termo “cadeias semióticas”.

O mundo virtual assim procede e torna possível a operacionalização dessa proposição, uma vez que as cadeias semióticas, de toda natureza, encontram-se no mesmo espaço e estado contínuos de modificação, quer seja, em fluxo, assim como no dispositivo informacional que Lévy (2000) apresentou para caracterizar o ciberespaço, permitindo as conexões entre os próprios signos e também entre os agenciamentos coletivos “todos-todos”, do dispositivo comunicacional do ciberespaço.

Prosseguindo com as características do rizoma, no que diz respeito à heterogeneidade da língua: Uma cadeia semiótica é como um tubérculo que aglomera atos muito diversos, lingüísticos, mas também perceptivos, mímicos, gestuais, cogitativos: não existe língua em si, nem universalidade da linguagem, mas um concurso de dialetos, de patoás, de gírias, de línguas especiais. Não existe locutor-auditor ideal, como também não existe comunidade lingüística homogênea.  A língua é, segundo uma fórmula Weinreich, ‘uma realidade essencialmente heterogênea.’ (apud DELEUZE; GUATTARI, 1995, v.1, p.16). Podem-se sempre efetuar, na língua, decomposições estruturais internas: isto não é fundamentalmente diferente de uma busca de raízes. Há sempre algo de genealógico numa árvore, não é um método popular. Ao contrário, um método de tipo rizoma é obrigado a analisar a linguagem efetuando um descentramento sobre outras dimensões e outros registros. Uma língua não se fecha sobre si mesma senão em uma função de impotência.

Novamente vemos as características do hipertexto, onde a língua não se fecha nos aspectos verbais do significante, pois se quer heterogênea, se quer híbrida, descentrando do verbalismo e do logocentrismo da linguagem verbal escrita e abraçando outras dimensões, outros códigos, outros sentidos, levando os textos à pluritextualidade e à conseqüente multisemiose, quer seja, à multiplicidade. Nesse ambiente, como é possível totalizar o sentido no significado?

3º- Princípio de multiplicidade  

É somente quando o múltiplo é efetivamente tratado como substantivo, multiplicidade, que ele não tem mais nenhuma relação com o uno como sujeito ou objeto, como realidade natural ou espiritual, como imagem e mundo: como o caso da unidade-pivô que funda um conjunto de relações biunívocas entre elementos ou pontos subjetivos, ou o Uno que se divide segundo a lei de uma lógica binária da diferenciação no sujeito. As multiplicidades são rizomáticas e denunciam as pseudomultiplicidades arborescentes. […] Uma multiplicidade não tem nem sujeito nem objeto, mas somente determinações, grandezas, dimensões que não podem crescer sem que mude de natureza.[…]  Poder-se-ia objetar que a multiplicidade reside na pessoa do autor que a projeta no texto.  Seja, mas suas fibras nervosas formam por sua vez uma trama. […]  Um agenciamento é precisamente este crescimento das dimensões numa multiplicidade que muda necessariamente de natureza à medida que ela aumenta suas conexões.  Não existem pontos ou posições num rizoma como se encontra numa estrutura, numa árvore, numa raiz. Existem somente linhas: linha abstrata, linha de fuga ou de desterritorialização segundo a qual elas mudam de natureza ao se conectarem às outras, assim as multiplicidades se definem pelo fora. (DELEUZE;  GUATTARI, 1995, v. 1,  p. 16-17, grifo nosso).

Observa-se que as linhas em que os Autores falam não são lineamentos ou linearidades do tipo arborescente, ou seja, ligações localizáveis entre pontos e posições, mas conexões que se dão em qualquer parte do sistema (como no primeiro princípio) para signos polivalentes, polifônicos, plurais, de modo  que o ideal de um livro seria expor, na mesma página, “acontecimentos vividos, determinações históricas, conceitos pensados, indivíduos, grupos e formações socais” (p.18) e acrescentaria ainda, vários signos.

       

A multiplicidade é um conceito-chave filosófico e precioso para explicar o desenho dessa nova escritura do conhecimento, ou seja da rede: não há centro de significância (conforme a ruptura a-significante infracitada), não há estruturas que se dividem hierarquicamente por meio do pensamento dipolo.  Aqui lembramos do paradoxo do sentido, que afeta também o público e o privado, o singular e o múltiplo, o formal e o informal, a ciência e o popular: é possível ir às duas direções ao mesmo tempo ligando contextos múltiplos de criação e múltiplos sentidos.

Já a conexão é a peça chave da multiplicidade, lembrando que o livro rizomático é um agenciamento em conexão com outros agenciamentos, outras multiplicidades, sendo o virtual (digital) o dispositivo necessário para que tal distribuição de escritura possa existir, sem perder sua potência ao realizar-se, porque não se realiza na exclusão mútua ou…ou…., ou seja, não elege uma possibilidade de realização.

Mais uma vez vemos os nós de signos plurais dessa escritura (sistemas semióticos ou regime de signos), formando os agenciamentos coletivos de enunciação – o hipertexto – conectando-se, por meio de links, aos agenciamentos maquínicos de corpos, que são os sistemas físicos ou de conteúdo, portanto pragmáticos, pois implicam em contextos de produção, acontecimentos, tecnologias como as mídias digitais e virtuais, constituindo a máquina abstrata, que é o ciberespaço, onde se dá  o pico de desterritorialização dos agenciamentos.

4º- Princípio de ruptura  a-significante

Contra os cortes demasiado significantes que separam as estruturas, ou que atravessam uma estrutura.  Um rizoma pode ser rompido, quebrado em qualquer lugar, e também retoma segundo uma ou outra de suas linhas e segundo outras linhas. […] Todo rizoma compreende linhas de segmentariedade segundo as quais ele é estratificado, territorializado, organizado, significado, atribuído, etc.; mas compreende também linhas de desterritorialização pelas quais ele foge sem parar. Há uma ruptura no rizoma cada vez que linhas segmentares explodem numa linha de fuga, mas a linha de fuga faz parte do rizoma.  Estas linhas não param de remeter uma às outras. É por isso que não se pode contar com um dualismo ou uma dicotomia, nem mesmo sob a forma rudimentar do bom e do mau.  Faz-se uma ruptura, traça-se uma linha de fuga, mas corre-se sempre o risco de reencontrar nela organizações que reestratificam o conjunto, formações que dão novamente o poder a um significante, atribuições que reconstituem um sujeito. […] Os esquemas de evolução não se fariam mais somente segundo modelos de descendência arborescentes, indo do menos diferenciado ao mais diferenciado, mas segundo um rizoma que opera imediatamente no heterogêneo e salta de uma linha já diferenciada a uma outra.  Comunicações transversais entre linhas diferenciadas embaralham as árvores genealógicas.  […] O rizoma é uma antigenealogia. (DELEUZE; GUATTARI, 1995, v. 1, p.18-20).

A ruptura a-significante poderia ser metaforicamente comparada ao “jump“, ao salto de um link ao outro, de um nó de signos plurais aos outros, numa distribuição randômica, não mais pela descendência, pela hierarquia com seu modelo dicotômico ou de raiz que distribui o conhecimento do gênero até as espécies, do menos diferenciado ao mais diferenciado, como na árvore como imagem do mundo de Porfírio.

É a mesma coisa quanto ao livro e ao mundo: o livro não é a imagem do mundo segundo uma crença enraizada.  Ele faz rizoma com o mundo, há evolução a-paralela do livro e do mundo, o livro assegura a desterritorialização do livro, mas o mundo opera uma reterritorialização do livro, que se desterritorializa por sua vez em si mesmo no mundo (se ele é disto capaz e se ele pode). […]  Conjugar os fluxos desterritorializados. Seguir as plantas: começando por fixar os limites de um primeira linha segundo círculos de convergência ao redor de singularidades sucessivas; depois, observando-se, no interior desta linha, novos círculos de convergência se estabelecem com novos pontos situados fora dos limites e em outras direções.  Escrever, fazer rizoma, aumentar seu território por desterritorialização, estender a linha de fuga até o ponto em que ela cubra todo o plano de consistência em uma máquina abstrata. (DELEUZE; GUATTARI, 1995, v.1, p.18-20, grifo nosso).

5º e 6º – Princípio de cartografia e de decalcomania  

Um rizoma não pode ser justificado por nenhum modelo estrutural ou gerativo.  Ele é estranho a qualquer idéia de eixo genético ou de estrutura profunda.  Um eixo genético é como uma unidade pivotante objetiva sobre a qual se organizam estados sucessivos; uma estrutura profunda é, antes, como uma seqüência da base decomponível em constituintes imediatos, enquanto que a unidade do produto se apresenta numa outra dimensão, transformacional e subjetiva. Não se sai, assim, do modelo representativo de árvore ou da raiz-pivotante ou fasciculada (por exemplo, a “árvore” chomskyana associada à seqüência de base, representando o processo de seu engendramento segundo uma lógica binária). Variação sobre o mais velho pensamento. Do eixo genético ou da estrutura profunda, dizemos que eles são antes de tudo princípios de decalque, reprodutíveis ao infinito. Toda lógica da árvore é uma. […] Vejam a Psicanálise e a Lingüística: uma tirou decalques ou fotos do inconsciente, a outra, decalques ou fotos da linguagem, com todas as traições que isto supõe (não é de espantar que a Psicanálise tenha ligado sua sorte à da Lingüística). (DELEUZE; GUATTARI, 1995, v.1, p.2, p.23, grifo nosso).

   

   

Precisamos ver o outro modelo (segunda figura) de árvore, a raiz fasciculada ou pivotante, que segundo os Autores, a modernidade se vale de bom grado.  É uma falsa representação de rizoma  porque a multiplicidade se encontra presa numa estrutura, de modo que a maior parte dos métodos modernos para fazer proliferar séries ou para fazer crescer uma multiplicidade valem perfeitamente numa direção: linear.

Guattari (1992) já havia observado que o significante estruturalista é sempre sinônimo de discursividade linear. O que é um livro senão manchas de significantes, representando um modelo de ciência raiz, hierárquica (método dicotômico) reproduzindo a linearidade da linguagem que por sua vez se reflete no pensamento científico? Já havíamos denunciado as classificações intermináveis que o sistema binário científico procede nas ciências e no estruturalismo. É o que os  Autores  chamam de “reprodução.

Tal método nada mais faz que não seja reproduzir o já existente, mesmo que com variações e avanços científico e teórico, é o velho pensamento “dipolo” o Uno-dois  persistindo na linguagem e claro, nas ciências, uma vez que não se faz ciência sem linguagem, portanto representada em livro, pelo menos na impressão. Nesse sentido, o significante nos faz acreditar na homogeneidade ontológica dos referentes escriturais e científicos, que reproduzimos na organização do conhecimento.  

A árvore articula e hierarquiza os decalques, os decalques são como folhas da árvore. Diferente é o rizoma, mapa e não decalque (grifo dos Autores).  Fazer o mapa, não o decalque. […] Ele contribui para a conexão dos campos, para o desbloqueio dos corpos sem órgãos, para sua abertura máxima sobre um plano de consistência.  Ele faz parte do rizoma.  O mapa é aberto, é conectável em todas as suas dimensões, desmontável, reversível, suscetível de receber modificações constantemente.  Ele pode ser rasgado, revertido, adaptar-se a montagens de qualquer natureza, ser preparado por um indivíduo, um grupo, uma formação social.  Uma das características mais importantes do rizoma talvez seja a de se ter múltiplas entradas. […] Um mapa tem múltiplas entradas contrariamente ao decalque que volta sempre ao ‘mesmo’. Um mapa é uma questão de performance, enquanto que o decalque remete sempre a uma presumida ‘competência’. (DELEUZE; GUATTARI, 1995, v.1, p.21-22,  grifo nosso).

Seria possível que os Autores pudessem antever com tanta similitude os hipertextos na web?  Aqui até o nome “mapa” é predito, como  os mapas de navegação dos sites. No ciberespaço, os hipertextos e sites se sucedem, não por hierarquias ou decalques, mas por várias entradas, por mapas que desenham ou representam a “multiplicidade”, sendo a web-page uma singularidade dessa multiplicidade, ou o n-1 de um site, e o site, por sua vez, uma singularidade do ciberespaço.  Não seria esta a fórmula do rizoma?

As várias entradas não seriam os vários links possíveis à conexão de uma página? É sempre possível “entrar” ou “saltar” de uma página, não somente pelo significante (por isso o significante linear e estruturalista da escrita impressa é colocado em questão no ciberespaço) mas por nós de semióticas gestuais, imagéticas e sonoras, que “retomam sua liberdade na criança e se libertam do decalque, quer dizer, da competência dominante da língua do mestre.”(DELEUZE; GUATTARI, 1995, v.1, p.25).  Um traço provoca uma sinestesia, um jogo de imagens (do pensamento) em que nada lembraria uma escrita, por isso mesmo A HEGEMONIA DO SIGNIFICANTE DEVE SER RECOLOCADA EM QUESTÃO NO RIZOMA.  

Estamos cansados da árvore. Não devemos mais acreditar em árvores, em raízes ou radículas, já sofremos muito. Toda a cultura arborescente é fundada sobre elas, da biologia à lingüística. […] O pensamento não é arborescente e o cérebro não é uma matéria enraizada nem ramificada. […] Muitas pessoas têm uma árvore plantada na cabeça, mas o próprio cérebro é muito mais uma erva do que uma árvore. […] A árvore ou raiz inspiram uma triste imagem do pensamento que não pára de imitar o múltiplo a partir de uma unidade superior, de centro ou de segmento. Os sistemas arborescentes são sistemas hierárquicos. […] É curioso como a árvore dominou a realidade ocidental e todo o pensamento ocidental, da botânica à biologia, a anatomia, mas também a gnoseologia, a teologia, a ontologia, toda a filosofia…: o fundamento-raiz. (DELEUZE; GUATTARI, 1995, v. 1, p. 25-26,28).

 

Continua:(http://petroleo1961.spaces.live.com/blog/cns!7C400FA4789CE339!1394.entry)

POSTED BY SELETINOF 6:04 PM 

 

ASPECTOS FILOSÓFICOS DO VIRTUAL E AS OBRAS SIMBÓLICAS NO CIBERESPAÇO 4

      

Após apresentar os princípios do rizoma, e relacioná-los com o hipertexto, como nova forma de representação do conhecimento, iremos fazê-lo com relação aos mecanismos de busca no ciberespaço, isto é, como forma de organização virtual do conhecimento.

(1º) conexão:  a possibilidade de conectá-lo em qualquer ponto do sistema, diferentemente da árvore ou raiz onde as conexões possíveis se dão hierarquicamente, por meio de um centro de significância. Como o conhecimento  está configurado no ciberespaço em forma de rede, assim também os serviços de pesquisa comportam-se nos resultados retornados, e de pronto, ter acesso aos mesmos na íntegra.  Escapa do fechamento físico das obras e do paradigma da materialidade e da noção de acervo ou armazenagem do conhecimento.  Aqui as formas simbólicas encontram-se em fluxo, em estado contínuo e contíguo no mesmo espaço semântico/semiótico.

(2º) heterogeneidade: os traços conectados não se dizem respeito somente aos significantes (palavras), mas regimes de signos muito diferentes.  O resultado de busca pode aparecer sob várias linguagens, imagens, textos, músicas, ilustrando a descentralização do verbalismo na organização do conhecimento no ciberespaço,como por exemplo o KaZaA que busca e compartilha multimídia, ou mesmo o Google que busca o conhecimento diretamente por imagens (ícones).

(3º)  multiplicidade:  não é um múltiplo que se deriva do Uno e nem ao qual o Uno se acrescentaria (n+1), mas o Uno é sempre subtraído dele (n-1).  Como ele não possui estrutura, porque não advém do Uno-dois, ou seja, do pensamento dipolo e de suas relações binárias e dicotômicas, o múltiplo possui n dimensões, com suas linhas de fuga e de desterritorialização.  A multiplicidade é, sobretudo em seu sentido filosófico, a produção do conhecimento (e da escrita) que favorece uma topologia das multiplicidades,  em forma de “diagrama” e não uma  raiz ou estrutura. Assim procede o sentido no léxico utilizado à recuperação da informação, que revela a multiplicidade de conteúdos na Internet e ao mesmo tempo a impossibilidade do fechamento semântico do conhecimento. No ciberespaço não há centro de significância estruturado, hierarquizado, linear, ou instrumentos de organização do conhecimento que reproduzem o modelo de significância, sentido único e referência fixa.

(4º) a-significante: assim sendo, não existe então um sistema centrado de significância, o rizoma é a-centrado, não hierárquico e não significante, por isso mesmo, onde não tem começo ou fim, mas sempre um meio pelo qual ele cresce e transborda, não precisando do “corte significante”: quando se utiliza CASA, CASAS, HOUSE… na recuperação da informação, não há um centro de significado, ou significância expresso em um só termo autorizado utilizado à busca.  Todos os termos são possíveis.  A ruptura a-significante não opera mais do menos diferenciado ao mais diferenciado, dos gêneros às espécies, do geral para o específico (lógica formal de organização do conhecimento), como nas classificações hierárquicas, mas por meio de linhas de fuga, pelo meio, aqui e ali, o léxico comporta-se assim.

(5º) cartografias:  o rizoma não tem centro, hierarquia e corte significante, então, suas ligações ilustram um mapa, e como tal possui várias entradas onde seu sentido dar-se-á por meio de cartografias. “Mover”, essa é a função da desterritorialização, sair e entrar, sem começo ou fim, tudo parece ser pego pelo “meio”. Isso posto, os serviços de busca ou pesquisa devem ser considerados como ferramentas de cartografia a serviço do leitor ou usuário que fará, por si só, suas ligações de contexto, seu próprio mapa cognitivo.

(6º) decalcomania: contra também aos cortes significantes que levam à redundância do significante, à reprodução, à decalcomania.  Assim, o livro (impresso) é um decalque, “decalque dele mesmo, decalque do livro precedente do mesmo autor, decalque de outros livros sejam quais forem, decalque interminável de conceitos e palavras bem situados, reprodução do mundo presente, passado ou por vir.” (DELEUZE; GUATTARI, 1995, v.1, p.36).  Já o rizoma não é objeto de reprodução, nem externa como a árvore-mundo, nem interna como a estrutura-árvore, porque o mesmo não tem centro, hierarquia e corte significante. A multiplicidade e as várias possibilidades de tratamento da informação no ciberespaço ilustram que não há uma maneira correta de organização do conhecimento que deva ser empregada e reproduzida pelos outros sistemas para tentar atingir a “universalidade”

   

5. Principais Resultados

O virtual torna possível a conjunção e…e… das obras e da busca conceitual dessas obras no ciberespaço, ao contrário do real, onde as coisas têm limites claros, classes e propriedades, sendo que o potencial de realidade é regido pela lei de exclusão mútua (ou realização exclusiva) ou…ou…  Não há como se realizar de duas maneiras diferentes, isso porque apenas uma possibilidade é eleita à realização de uma forma.

No Quadro 04, o real não está sendo questionado como oposto de virtual (que tem este último seu pólo de oposição no atual) mas ressaltando o real como oposição do possível, que elege apenas uma forma de realização. Ao mesmo tempo ilustra o real tomado no pólo do atual (real-atual), em que a função da interpretação, do fechamento semântico imposto pelo significado e também pela  condição de territorialização (fixação) dos signos (fechamento físico), serve de oposição à realidade virtual que opera a desterritorialização da obras no ciberespaço.

Poder-se-ia esquematizar os agenciamentos desenvolvidos em ambos ambientes,  a partir de nossas conclusões, da seguinte forma:

 

PÓLO
TECNOLOGIAS

REAL-ATUAL
Realização de uma forma

REAL-VIRTUAL
Virtualização das formas

FORMA
IMPRESSA

Fechamento semântico (significado)
Fechamento físico (volume)

 

FORMA
HIPERTEXTUAL

 

Não fechamento semântico (sentido)
Não fechamento físico (ciberespaço)

QUADRO 04:  O REAL  E O VIRTUAL NOS AGENCIAMENTOS DAS FORMAS SIMBÓLICAS

 

Assim, mediante ao estudo do virtual, do paradoxo do sentido e do rizoma na organização do conhecimento no ciberespaço, a partir dos mecanismos de busca (indexadores) pesquisados (Google, Yahoo! br e KaZaA), apresentamos alguns dos principais resultados da pesquisa:
 

A) O VIRTUAL COMO  BASE FILOSÓFICA :

Do ponto de vista FILOSÓFICO  torna possível a virtualização da formas simbólicas a conjunção e…e… contra a realização de uma forma:

* existe uma  dissolução da forma estável e constante em benefício das diferenças da dinâmica, do fluxo.

B) O VIRTUAL COMO BASE FUNCIONAL OU OPERACIONAL:

Do ponto de vista FUNCIONAL opera os atributos do rizoma e o paradoxo do sentido desmontando a referência fixa do conhecimento:

*  as modalidades maquínicas escapam à mediação significante  e não se submetem a nenhuma sintaxe geral;

*  contra as imagens identitárias clássicas da cultura do impresso, o ciberespaço é uma maneira mais livre, mais aberta de organização do conhecimento.

C) A DESTERRITORIALIZAÇÃO DA BIBLIOTECA E A DESMATERIALIZAÇÃO DAS FORMAS SIMBÓLICAS (ESTA ÚLTIMA, PROBLEMA DE TESE), AMBAS POSSÍVEIS PELA VIRTUALIZAÇÃO, PÕEM EM QUESTÃO A MUDANÇA DE COMPORTAMENTO, TANTO DE BIBLIOTECÁRIOS E DOCUMENTALISTAS, QUANTO DE LEITORES E PESQUISADORES:

Do ponto de vista da ORGANIZAÇÃO DO CONHECIMENTO:

*  a indexação não se submete a nenhuma sintaxe geral e pré-definida a ser adotada;

*  não há a noção de armazenagem do conhecimento, dada a desterritorialização e desmaterialização das formas simbólicas no ciberespaço;

*  não se pode mais estabelecer o corte radical, seja físico ou semântico, entre os signos e seus objetos, uma vez que os agenciamentos de enunciação funcionam diretamente nos agenciamentos  de conteúdo no espaço virtual.

Do ponto de vista dos LEITORES:

*  a aprendizagem do uso de estratégias de busca, visando ao refinamento na pesquisa, por meio da sintaxe e do uso dos operadores lógicos mais apropriados;
*  a construção de uma cartografia própria de conhecimento, acostumando a tomar os “objetos” de conhecimento pelo meio, sem um centro de significância que dita as hierarquias.

    

6. Conclusão

Desse modo, o paradoxo do sentido desmontando os elementos da doxa, torna instável a referência fixa do conhecimento, que no modelo da escrita era obtida pela classificação/ indexação e catalogação.  Noções de identidades fixas (senso comum) e de sentido único, seja direção, seja significado (bom senso), não são o fundamento filosófico das formas simbólicas no ciberespaço, bem como de organização do conhecimento operado nas mesmas, onde a classificação e a catalogação perdem sua auto-referência.  Tais métodos e técnicas também refletem o paradigma da representação do conhecimento da escrita de outra maneira: o pensamento dicotômico forma (catalogação) x conteúdo (classificação), conforme o Quadro 03, sendo que no ciberespaço temos uma representação do conhecimento diagramado em rede, que escapa das mediações significantes e estruturalistas, como também a noção de “forma” dentro dessa dicotomia desaparece, uma vez que os registros estão lá desmaterializados.

Os princípios do rizoma demonstram que os mecanismos de busca, tal como a escritura hipertextual, possuem atributos que desmontam o modelo linear, arborescente, hierárquico e estruturalista da escritura impressa, quer seja do significante, da representação objetal, dos predicados de Aristóteles, imprimindo outro modelo e agenciamentos.  A árvore como  imagem do mundo, a realidade espiritual organizada ontologicamente por meio das estruturas arborescentes, as árvores de conhecimentos, como nas classificações, ou ainda dentro da própria estrutura da linguagem, como nos tesaurus, não encontram um terreno fértil e estável no ciberespaço, que é em essência, movediço, sendo que a função da desterritorialização (4º aspecto do agenciamento, da teoria de DELEUZE; GUATTARI, cf. nota 6) é o movimento, por isso mesmo, não há como estabelecer  referências “fixas” do conhecimento.

Assim, descartamos a classificação e a catalogação como ferramentas de organização do conhecimento no ciberespaço. O modelo rizomático, com suas conexões e sua multiplicidade, impõe um outro paradigma, uma outra pragmática, que leva à instauração do sentido e a outro tipo de organização do conhecimento. Em especial, contra o significado, contra os fechamentos significantes, temos no modelo rizomático o princípio a-significante expresso pela indexação flexível dos mecanismos de busca, que na organização do conhecimento, nos diz que não há apenas um rubrica certo à organização do conhecimento. São várias as linhas de fuga, no ciberespaço, que tornam impossível as dicotomias que levam à divisão dos centros de significância, por isso mesmo, a-significante.

A indexação na Internet, como modelo possível de organização do conhecimento, sem o fechamento semântico das linguagens documentárias e atuando diretamente na linguagem natural, é uma tarefa gigantesca, posto que essa organização é “relativa” e nem sugerimos, em momento algum, que seja absoluta, trata-se apenas de entendê-la como tratamento da informação.  Mas, por outro lado, temos sido privilegiados por novidades, serviços que se aperfeiçoam, flexibilizam-se, mediante as nossas necessidades de conhecimento e informacionais, mecanismos de busca poderosos e flexíveis, na especificação de argumentos de pesquisa e que permitem realizar pesquisas com um bom nível de controle.

   

A virtualidade vem para atualizar toda a pragmática anteriormente formulada na escrita, e mesmo que se repitam práticas e formas desenvolvidas para a escrita, a plasticidade do ciberespaço tende a complexificar tais modalidades, uma vez que é impossível impor a dinâmica do real, dos fechamentos e da referência fixa nesse ambiente movediço, desterritorializante em essência (porque é virtual).     

Nesse contexto, o virtual como base filosófica e funcional, tem papel fundamental para obter a compreensão da falta de fechamento semântico do léxico na indexação no ciberespaço (a questão do sentido x significado), bem como  a falta de fechamento físico ( a questão da não realização de uma forma, “a obra acabada”), isto é, da desmaterialização, da desterritorialização, ambas possíveis pela virtualização das formas simbólicas no ciberespaço.

Notas

[1] Resumo e divulgação da tese intitulada  “A Organização Virtual do Conhecimento no Ciberespaço: os agenciamentos do sentido e do significado”, em seus principais conceitos e resultados, defendida no Programa de Pós-Graduação em Comunicação e Semiótica, PUCSP.

[2] Pierre Lévy (1996) notadamente baseou-se na filosofia de Deleuze (muitas vezes não citado) para escrever seu livro “O virtual”  bem como outros temas envolvendo a questão da linguagem.

[3] O conceito de ecologia cognitiva está ligado ao estudo das dimensões técnicas e coletivas da cognição, onde as tecnologias condicionam as formas de pensamento ou as temporalidades de uma sociedade (LÉVY, 1993).

[4] No primeiro quadro, o termo “potencial” foi substituído por “possibilidade”, para não gerar confusão com o potencial do virtual.

[5] Embora a padronização exista nas mídias digitais, visando a compatibilidade e conversão de dados e sistemas de informação, não se trata de maneira alguma do fechamento normativo das formas simbólicas, como no caso da normalização documentária.

[6] O conceito de desterritorialização pode ser entendido como movimento,  fluxo, aquilo que não se fixa em um território, que não perde a sua virtualidade. Teoricamente, em Deleuze e Guattari (Mil Platôs, 5 v.) é o quarto elemento do diagrama (contra a estrutura) da linguagem, sendo o primeiro elemento a expressão, o segundo o conteúdo e o terceiro o território.

[7] Questão da identidade perdida: “Quem é você? Perguntou a Lagarta. “Alice respondeu, meio encabulada: “eu.. .nem sei, Sir, neste exato momento … pelo menos sei quem eu era quando me levantei esta manhã, mas acho que já passei por várias mudanças desde então.” […] “Receio não poder me explicar, respondeu Alice, porque não sou eu mesma, entende?” (Carroll,  Alice:  Alice no país das maravilhas, 2002, p.45).  Questão das duas direções:  Nessa história, Alice tem a capacidade de crescer e diminuir sucessivamente com a ingestão de um cogumelo, isto é, ir às duas direções,  e quando se diz  “ao mesmo tempo” quer dizer que ela não tomava apenas uma direção, como o fazemos nas interpretações e na fixação do significado, mas as duas.  Essa questão é mais profunda em “Alice através do Espelho”  onde Carroll brinca com a imagem especular invertida de qualquer objeto assimétrico.  Quer dizer, num espelho todos os objetos assimétricos (que não se sobrepõem em suas imagens especulares) ficam ao contrário.  Assim a proposição “ir às duas direções ao mesmo tempo” ganha sua real potencialidade, onde Alice caminhava para trás para chegar à frente, pois as direções frente e trás são invertidas quando se caminha em direção a um espelho, movendo a imagem oposta. (Carroll, Alice:  Alice através do espelho, 2002).

[8] Deleuze (1998) quer dizer que o significado pressupõe o fechamento semântico, o cercado, a classe, próprios da interpretação das disciplinas hermenêuticas.  O  significado é operado por uma correspondência objetal e linear, isto é, nome/objeto, significante/significado, sendo que o sentido escapa dessas mediações redutíveis.

[9] A imagem da árvore, como representação da estrutura organizativa do mundo real, embora sugerida no século III por Porfírio, materializou-se no pensamento filosófico talvez por inspiração religiosa, na retomada dos autores clássicos, como Aristóteles, pelos medievais. Essa imagem remonta na Bíblia, especialmente no livro de Gênesis que descreve a criação do mundo, onde no Jardim do Éden o “Senhor Deus fez brotar da terra toda a árvore agradável à vista e boa para comida; e a árvore da vida no meio do jardim, e a árvore da ciência e do mal.”  Mais adiante, Deus ordenou que não se comesse da árvore do bem e do mal, e foi justamente dessa árvore que Eva comeu, e como castigo (sem cometer nenhuma heresia) fomos condenados a ter uma episteme dicotômica e fomos expulsos do paraíso  (Gn. 2, 9).  A  metáfora da árvore, segundo Burke (2003, p. 82) era utilizada, na Idade Média, para visualizar a organização do conhecimento. “Além de árvores do conhecimento como a Arbor scientiae, de Raimundo Lúlio, escrita por volta de 1300, mas reeditada diversas vezes no período, havia árvores da lógica (a chamada ‘Árvore de Porfírio’), árvores da consagüinidade, árvores da gramática, árvores do amor, árvores das batalhas e até uma árvore dos jesuítas (com Inácio na raiz).”  Assim, a árvore lógica de Porfírio (assim chamada porque baseada na lógica clássica aristotétlica) e as árvores de conhecimento, dividindo as disciplinas, constituem-se a base lógico-filosófica da indexação e da classificação, respectivamente, sobretudo na distribuição dos nomes (substâncias) do gênero à espécie, método que consiste na compreensão crescente e extensão decrescente, como também nas categorias, que fornecem a orientação lógico-espaço-temporal às palavras na ordenação dos termos na indexação pré-coordenada.

Referencias Bibliográficas

ALLIEZ, Éric.   Deleuze Filosofia virtual.    São Paulo: Ed. 34, 1996.

ARROJO, Rosemary.  A desconstrução do logocentrismo e a origem do significado.  In: ——______.   O signo desconstruído.   Campinas: Pontes, 1992.  P. 35-40

A BÍBLIA sagrada: Antigo e novo testamento.   2.ed. ver. atual.  São Paulo: Sociedade Bíblica do
Brasil, 1993.

BURKE, Peter.  Uma história social do conhecimento: de Gutenberg a Diderot.  Rio de Janeiro: Jorge Zahar, 2003.

CARROLL, Lewis.  Alice: Aventuras de Alice no país das maravilhas & Através do espelho.   Introdução e notas: Martin Gardner.  Ilustrações: John Tenniel.  ed. com.  Rio de Janeiro: Zahar, 2002.

DELEUZE, Gilles.  Lógica do sentido.   São Paulo: Perspectiva. 1998.

DELEUZE, Gilles; GUATTARI, Félix. Mil platôs: capitalismo e esquizofrenia.  São Paulo: Ed. 34, 1995.   V. 1.

______.______. V. 2.

______.______. São Paulo: Ed. 34, 1997.  V. 5.

FRAGOSO, Emanuel Ângelo da Rocha. Deleuze e Platão: um banquete.  In: VASCONCELLOS, Jorge; FRAGOSO, Emanuel Ângelo da Rocha. Gilles Deleuze: imagens de um filósofo da imanência.  Londrina: Ed. UEL, 1997.  P. 85-97.

GUATTARI, Félix.  Caosmose: um novo paradigma estético.  São Paulo: Ed. 34, 1992.

LÉVY, Pierre.  Cibercultura.  São Paulo: Ed. 34, 2000.

–______. A ideografia dinâmica: rumo a uma inteligência artificial?  São Paulo: Loyola, 1998a.

______. A inteligência coletiva: por uma antropologia do ciberespaço.  São Paulo: Loyola, 1998b .

______. O que é o virtual?   São Paulo: Ed. 34, 1996.

______.  As tecnologias da inteligência: o futuro do pensamento na era da informática.  São Paulo: Ed. 34, 1993.

MONTEIRO, Silvana Drumond.  A organização virtual do conhecimento no ciberespaço: os agenciamentos do sentido e do significado. 2002. 267 f.  Tese (Doutorado em Comunicação e Semiótica) – Programa de Pós-Graduação em Comunicação e Semiótica, Pontifícia Universidade Católica de São Paulo, São Paulo, 2003.

ONETO, Paulo. Um grande filósofo menor. In: VASCONCELLOS, Jorge; FRAGOSO, Emanuel Ângelo da Rocha.  Gilles Deleuze:  imagens de um filósofo da imanência.  Londrina: Ed. UEL, 1998.   p. 99-114.

TOZZI, Tommaso.  Rizomatica (od a radice). In: GRONCHI, Sandro. Progettazione del percorso formativo.  Disponível em: <http://digilander.libero.it/ricercavisiva/articoli/progettazione%20percorso%20FORMATIVO.htm>.  Acesso em: 06 set. 2002. 

 

Sobre a autor / About the Author:

Silvana Drumond Monteiro
drumond@sercomtel.com.br

Professora Adjunto do Departamento de Ciência da Informação da Universidade Estadual de Londrina
Mestre em Biblioteconomia pela PUCCAMP
Doutora em Comunicação e Semiótica pela PUCSP.

 

Fontepesquisada:( http://www.dgz.org.br/dez03/Art_05.htm

POSTED BY SELETINOF 5:50 PM