Arquivo mensal: abril 2007

O HOMEM PERDIDO DENTRO DA NATUREZA

O texto, abaixo, de A. da Silva Mello, foi extraído de seu livro ILUSÕES DA PSICANÁLISE… postado, aqui, sim, mais como uma reflexão, a qual conduz, certamente, a uma visão mais nítida da condição humana (os grifos são nossos e, também, a indicação dos sites). 

O que se tem tornado evidente é que o homem se encontra perdido dentro do mundo, não havendo nele encontrado o seu verdadeiro lugar, sobretudo devido à sua maneira de pensar. Em vez de tomar a vida como ela é, pondo a moral, a justiça, a estética de acordo com a Biologia, temos criado padrões falsos e arbitrários, que muito têm prejudicado a nossa felicidade, não raro tornando-nos bárbaros e arrogantes, mesmo em relação ao trato que damos aos nossos semelhantes e aos próprios animais. Não é por outra razão que precisamos rever esses valores, pondo os nossos instintos de acordo com a natureza, no sentido de a satisfação, a alegria, a felicidade, tornarem-se parte integrante tanto da nossa vida, quanto da nossa moral. Mas, em vez de seguir esse caminho, a nossa existência tem-se tornado cada vez mais artificial e sofisticada, acarretando toda sorte de malefícios ao nosso corpo e à nossa alma. Em vez de a cultura e a civilização haverem favorecido o desenvolvimento das nossas qualidades afetivas e emocionais, têm antes contribuído para recalcar e desvirtuar os nossos instintos, levando-nos à criação de concepções religiosas, políticas, sociais, por demais prejudiciais. 

É sabido que Freud, durante parte da sua vida, considerou o inconsciente como essencialmente bestial, sendo admitido que as concepções de Nietzsche, http://pt.wikipedia.org/wiki/Super-Homem_(filosofia), devem ter contribuído para isso, pois o super-homem é um assassino lúbrico, ao qual falta por completo o sentimento de culpabilidade. Também aos pais da horda primitiva, segundo Darwin, tudo era permitido, devorando eles os próprios filhos e matando as mulheres em proveito do seu prazer pessoal. Eu não compreendo por que essas concepções da brutalidade e da bestialidade do homem primitivo saõ tão exploradas em trabalhos de etnologia ou antropologia cultural, apesar de estarem em contradição com o que se pode observar diretamente na natureza, inclusive em relação aos animais. Tem havido nisso, provavelmente, um erro conservado pela tradição, que se vem repetindo, como é tão freqüente em trabalhos que se baseiam nos de autores precedentes. A História encontra-se cheia de exemplos desse gênero e é possível que também assim possa ser este explicado. Na verdade, porém, a Biologia ensina-nos que o fenômeno é muito diferente, sendo o ser humano primitivo caracterizado pela sua simplicidade e o seu humanismo. Além disso, muitas concepções religiosas e sociais, vindas de tempos remotos, falam no mesmo sentido. Na doutrina de Confúcio, a piedade em relação aos pais e aos avós é a única lei transcendental. Também o judaísmo e outras religiões menos antigas esposam pontos-de-vista semelhantes. Temos mostrado repetidamente que é a razão que tem desvirtuado os instintos, tornando-os desumanos e bestiais.

Apesar disso, não se pode estar de acordo com a afirmação de Freud quando admite que a civilização deixaria de existir, caso fizesse o homem tudo que lhe agrada(http://www.triplov.com/surreal/2006/JCarlos-Brito.htm). Há nisso um exagero absurdo, porque, afinal, o homem não é um criminoso que só procura o mal e a destruição. Esse pensamento é por demais consciente, tendo sido explorado até em direção filosófica. Mas deve estar completamente errado, porque o que comando os instintos é muito diferente, sendo eles que têm permitido a vida e a felicidade do homem e dos animais. São os instintos que precisam ser levados em consideração, devendo ser calcados sobre eles as exigências da nossa existência. Tem sido esse o principal leitmotiv de diversos dos nossos trabalhos, exposto sob variadas modalidades. O ditado “primeiramente viver, depois filosofar” encontra-se quase invertido, pois estamos procurando guiar a nossa vida pelo pensamento, apesar de o pensamento não ser senão uma das manifestações da vida, uma das mais tardias e, certamente, das que se têm tornado mais artificiais.

Num editorial do The Journal of American Medical Association, de 24 vde março de 1962, sobre povos primitivos e como devem ser eles julgados, é levantada, em primeiro lugar, a questão relativa ao que deve ser chamado de primitivo. A resposta é de que esses povos, em comparação aos atuais, estão ainda, sob alguns pontos-de-vista, menos desenvolvidos, por exemplo em relação a ler e escrever, a progressos técnicos e também, sob alguns aspectos, ao desenvolvimento moral e institucional. – “Mas é preciso acentuar que, sob certos ângulos, essas culturas primitivas encontrm-se mais desenvolvidas que muitas das culturas civilizadas, sendo aquelas, em alguns pontos, melhores que estas. Tomando em consideração esquimós e aborígines australianos – duas das culturas mais primitivas conhecidas dos antropologistas – verifica-se que os seus membros são muito mais generosos, afetuosos e cooperativos que a maioria dos das sociedades civilizadas. Segundo a nossa própria maneira de julgar esses valores, são eles melhores ou mais elevados entre aqueles primitivos do que entre nós, os civilizados. Os membros daquelas duas culturas primitivas são mais honestos, mais prestativos, mais alegres e mais corajosos do que habitualmente são os civilizados”. Nessa mesma publicação é mostrado quanto tem sido errôneo o julgamento dos civilizados em relação aos povos primitivos, criando opiniões que prevalecem apesar de falsas ou absurdas.

 

O que é preciso, todavia, é viver a vida como ela é, em toda a sua beleza e simplicidade, sem desvirtuá-la por falsas concepções e absurdas exigências. Esse deve ser o nosso caminho, caminho que precisamos trilhar com dignidade, visando à nossa grandeza e felicidade.

O homem, pela linguagem e a criação de instrumentos, tornou-se o senhor do mundo, quase sem perceber que a bondade e o altruísmo fazem parte do seu equipamento biológico, provindo dos seus longínquos antepassados, quer humanos, quer animais.

POSTED BY SELETINOF AT 11:02 PM

   

DUVIDAR E INVESTIGAR

 
 
Qualquer investigador sincero deve começar por duvidar das descobertas dos seus predecessores, porque, do contrário, não haverá progresso científico.
 
Wilhelm Stekel
 
POSTED BY SELETINOF AT 7:44 PM  
 
 

A PROBLEMÁTICA EPISTEMOLÓGICO-TEÓRICA DO DIMENSIONALISMO

59915_10151169783330518_891549440_n


Por PEDRO DE ANDRADE

ATALAIA – Revista do CICTSUL

Centro Interdisciplinar de Ciência, Tecnologia e Sociedade

da Universidade de Lisboa.


 

RESUMO

A problemática do dimensionalismo percorre o inconsciente de múltiplos autores contemporâneos, a tal ponto que podemos considerar o épistémé do dimensionalismo como aquele que define, em última análise, o modo de pensar da nossa época. O dimensionalismo é a interpretação da realidade através das suas diversas dimensões, e não apenas a partir de uma dimensão privilegiada. O espaço e o tempo entendem-se enquanto dimensões fundadoras de todas as outras, ou meta-dimensões. As relações entre o espaço e o tempo, ou entre outras dimensões, foram reformuladas, menos ou mais directamente, por Einstein, Hawking, Foucault, David Harvey, Jean Baudrillard, Paul Virilio, entre outros. É possível, pois, empreender uma genealogia do dimensionalismo. Em particular, a realidade social encerra uma natureza interdimensional e reticular, onde se escondem os buracos negros do social, e onde a diacronia passa por dobras do tempo. No quadro desta polifonia da contemporaneidade, as escritas social e sociológica desenvolvem, inevitavelmente, uma estratégia de fractalidade.

________________________________________________________________________________________________________________________________________________________________________________________


1. O dimensionalismo na epistemologia e nas ciências.

Se retomarmos um conceito de Thomas Kuhn, talvez a ‘revolução científica’ operada por Einstein seja muito mais do que isso. Como se sabe, Einstein destaca-se na cena do pensamento, ainda mais do que pela teoria científica da relatividade, devido ao contributo epistemológico que permitiu. Ele é, a meu ver, o grande iniciador daquilo que nomearia a problemática do dimensionalismo, ou seja, a reflexão sobre a dimensionalidade do real em geral, e em particular no campo social da teoria e no âmbito da sua aplicação empírica.

Para Einstein, o mundo “… é composto de acontecimentos individuais onde cada um é determinado por quatro números, a saber três coordenadas de espaço x, y, z e uma coordenada de tempo t. (…) Não estamos habituados a considerar o mundo como um continuum de quatro dimensões, porque na Física pré-relativista o tempo preenchia, em relação às coordenadas do espaço, um papel diferente e mais independente. (…) Graças à Teoria da relatividade, a concepção do ‘mundo’ em quatro dimensões torna-se perfeitamente natural, porque, nessa teoria, o tempo é privado da sua independência. “ (Einstein, 2001 : 77-8)(1). Mais precisamente, este físico desenvolveu duas teorias da relatividade, a segunda pretendendo aperfeiçoar o carácter de relatividade ainda esboçado na primeira. (Idem: 1981 : 155)(2). Estes fenómenos permitiram a descoberta dos campos de gravitação, que darão origem à teoria dos campos de gravitação.

Por seu lado, Jean Piaget, no quadro da reflexão sobre os métodos científicos de construção e intuição das noções da Física, debruçando-se sobre a interpretação das relações espaciais pela microfísica, articula os níveis macro e o micro, ao comentar as possibilidades de “… verificação da interpretação epistemológica segundo a qual o espaço físico e o tempo resultam tanto das acções efectuadas pelo sujeito à nossa escala quanto dos caracteres globais próprios aos objectos macroscópicos.“ (Piaget, 1974 : 230)(3). No quadro da epistemologia das Ciências Sociais, esta relação macro / micro revela-se uma das mais importantes nos debates contemporâneos.

Na Breve História do Tempo, Stephen Hawking recenseia e esclarece as nossas ideias do tempo, desde a noção do tempo absoluto à teoria da relatividade, que sublinhou, na Ciência, o tempo do observador. “Quando se tentou unificar a gravidade com a mecânica quântica, foi preciso introduzir a noção de tempo ‘imaginário’. O tempo imaginário não se distingue das direcções no espaço.” Ou seja, pode percorrer-se o tempo de uma forma algo espacial, para diante e para trás, para norte e para sul. “Por outro lado, quando se olha para o tempo ‘real’, há uma diferença entre os sentidos para diante e para trás.“ Isto é, lembramo-nos do passado, mas não do futuro, que não conseguimos ‘percorrer’. (Hawking, 1995, 193-4)(4).

Para além disso, o conceito einsteiniano de ‘seta do tempo’ permite precisar a relação entre estas e outras formas do tempo. (Ibidem : 195)(5). Para nós, a seta sociológica exprime, essencialmente, o tempo sócio-histórico, uma das meta-dimensões que permitem explicar o mundo social, para além do espaço sócio-histórico.

Aliás, esta problemática do dimensionalismo percorre o inconsciente de muitos outros analistas da história das Ciências, e das Ciências Sociais e Humanas em particular, como Michel Foucault. “É preciso representar o domínio do épistémè moderno como um espaço volumoso e aberto segundo três dimensões: sobre uma delas, situaríamos as ciências matemáticas e físicas, para as quais a ordem é sempre a cadeia discursiva e linear das proposições evidentes e verificadas; haveria, numa outra dimensão as ciências (como as de linguagem, da vida, da produção e da distribuição das riquezas) (…) Quanto à terceira dimensão, seria a da reflexão filosófica (…) Deste triedro epistemológico, as ciências humanas são excluídas, pelo menos no sentido em que não as podemos encontrar em nenhuma das dimensões nem na superfície dos planos assim desenhados. Mas podemos dizer também que elas estão incluídas nesse triedro, porque é nos interstícios destes saberes, mais exactamente no volume definido pelas suas três dimensões, que encontram o seu lugar. Esta situação coloca-os em relação com todas as outras formas de saberes. “(Foucault,1966: 358)(6).

De alguma forma, o épistémè moderno – e Foucault parcialmente, na sua análise – utilizam um modelo que corresponde, grosso modo, à geometria Euclidiana e, mais exactamente, à geometria analítica cartesiana, de onde derivam muitas das nossas técnicas estatísticas actuais, como a análise factorial e a própria técnica conhecida como análise multidimensional.

Entretanto, encontramo-nos hoje num mundo onde não existem três, nem mesmo quatro dimensões da realidade. As dimensões do mundo revelam-se incomensuráveis, o que não impede de as vislumbrarmos não como um triedro, mas como um prisma multifacetado, em que a pluralidade e a polifonia das várias figuras da realidade possam ser, se não demonstradas ou representadas, como alguma modernidade pretende, pelo menos fugazmente mostradas ou indiciadas. Trata-se de um exercício de captação das resmas do real e do irreal, um Livro do Mundo sem capa nem número finito de páginas, escrito por uma heurística não apenas dedicada às presenças mas também às ausências ou buracos negros, a partir dos vestígios com que a realidade e as suas máscaras se aparentam vestir. Apanhar os troços pelos traços, os restos pelos rastos, os projectos e os seus projécteis pelas projecções.

Retomando Foucault: “Não há dúvida que a emergência histórica de cada uma das ciências humanas fez-se na ocasião de um problema, de uma exigência, de um obstáculo de ordem teórica ou prática.” (Ibidem: 356) Dito de outro modo: é necessário empreender uma genealogia do dimensionalismo, aqui apenas esquissada.

Aliás, se essa genealogia ainda se encontra por fazer, a Filosofia, as Ciências Humanas e as Ciências Sociais, sem o nomearem explicitamente, já se encontram a reflectir na problemática do dimensionalismo.

A este propósito, por um lado, quanto às temporalidades, uma obra aliciante mas também polémica, foi escrito por W. Newton-Smith, onde se percorre: a natureza do tempo; a mudança; a topologia do tempo (entendida nos parâmetros da linearidade, da unidade, do início e dos micro-aspectos); a métrica do tempo e a sua direcção. Em especial, o autor pretende ultrapassar a dualidade entre a posição daqueles que significam o tempo como contentor dos acontecimentos, ou absolutistas; e aqueles para quem o tempo não pode existir sem os eventos, ou relativistas. Para ele, o tempo pode mostrar-se cíclico, estabelecer ‘branchings’ ou seja, conectividade; existem tempos com ou sem começo, etc. Para além disso, o tempo apresenta-se como uma ‘estrutura teórica’ (theoretical structure) ou como um quadro teórico (theoretical framework). “Nesta acepção, as hipóteses acerca do tempo não são entendidas como representando hipóteses acerca dos factos, mas especificando modos de descrição para lidar com os factos. “ (Newton-Smith, 1984 : 239)(7). A sociologia também se interessa por esta problemática do tempo, sobretudo a partir de Anthony Giddens, David Harvey, Nikhlas Luhmann e Erving Goffman (8).

Por outro lado, a questão do espaço, e da ‘espacialidade’ em particular, recobre pelo menos quatro sentidos. Em primeiro lugar, no quadro do existencialismo e da fenomenologia de Heidegger e Husserl, J. Pickles aponta a espacialidade humana como pré-condição de qualquer compreensão dos lugares e dos espaços como tal. Nas nossas actividades quotidianas, não experimentamos abstracções cognitivas de objectos separados, mas constelações de relações e de sentido, o ‘equipamento ‘ segundo Heidegger, que se encontra ‘pronto para uso’ em ‘contextos de equipamentos’ (9).

Em segundo lugar, no âmbito do marxismo estruturalista, procura-se estabelecer a relação entre estruturas sociais e estruturas espaciais. Louis Althusser alega que as diferentes construções do tempo ou ‘temporalidades’ podem ser associadas a outros tantos planos dos modos de produção, resultando no ‘tempo económico’, no ‘tempo político’ ou no ‘tempo ideológico’. Contudo, Pierre Vilar sustenta que a história não articula apenas tempos mas ‘espacialidades’, também conectáveis aos níveis dos modos de produção (10). Por seu turno, A. Lipietz advoga uma correspondência entre a ‘presença-ausência’ no espaço e a ‘participação-exclusão’ nas práticas sociais (11). Neste quadro conceptual, Manuel Castells apresentou a mais completa sistematização das correspondências entre estruturas sociais e estruturas espaciais, mas acrescentando que não podemos falar dessas instâncias separadamente, apenas é possível referirmo-nos a espaços-tempos, que são conjunturas construídos pela história (12).

Em terceiro lugar, Edward Soja, inspirado em Henri Lefebvre e no seu conceito ‘produção do espaço’, afirma que nem todo o espaço é socialmente produzido, apenas a ‘espacialidade’. Aproximando-se ainda da teoria da estrutruração de Anthony Giddens, fala de uma ‘estruturação espácio-temporal’ (Soja, 1985 :1984 : 90-122) (13).

Em quarto lugar, alguns autores pós-estruturalistas, a partir de Deleuze e Foucault, referem-se a constelações de poder e saber inscritas nos espaços, a partir dos quais os posicionamentos e as identidades dos sujeitos são construídas (14).

Para além disso, de entre os autores que mais aproximam o espaço ao tempo, questão que nos interessa particularmente aqui, Giddens, a partir da ‘geografia do tempo’ desenvolvida por Torsten Hagerstrand, sugere a ‘distanciação tempo-espaço’, como sendo a expansão da interacção através do espaço e a sua contracção através do tempo, processo que influi nos outros fenómenos sociais: “Proponho que a noção de distanciação espaço-tempo se conecte, de uma maneira muito directa, com a teoria do poder. Explorando esta conexão podemos elaborar alguns dos contornos principais da dominação enquanto propriedade expansível dos sistemas sociais.” (Giddens, 1991: 258) (15). Por seu lado, David Harvey fala de ‘compressão tempo-espaço’, ou seja, a aniquilação do espaço pelo tempo sob o capitalismo, já entrevista por Marx, mas caracterizada por Harvey em termos de uma velocidade no ritmo da vida, que sugere o colapso do mundo em cada sujeito. Em particular, Harvey preocupa-se com o modo pelo qual a ‘compressão tempo espaço’ desloca o habitus. (Harvey, 1989, pp. 242-7) (16). Existe, pois, neste último autor, uma dimensão de experiência subjectiva e de crise de identidade que a noção ‘distanciação tempo-espaço’ de Giddens não traduz, pelo menos tão claramente.

Por seu turno, Jean Baudrillard refere-se pontualmente às dimensões, numa entrevista a Yves Laurent. “ [Baudrillard : ] — Um ser a duas dimensões, como a imagem, é em si perfeito. (Baudrillard, 2001: 99) (17). A terceira dimensão é uma forma de denegação da imagem. Com a quarta, com o virtual, temos um espaço-tempo que já não tem nenhuma dimensão…” (Ibidem : 100-1) (18). O autor acrescenta ainda: “Se quisermos voltar ao mais próximo da essência de um objecto estético, (…) é necessário subtrair, sempre subtrair …” (Ibidem; 101). A meu ver, Baudrillard, malgrado o interesse manifesto da sua análise, decididamente, pára de contar no zero. Se continuasse a subtrair, ultrapassaria o zero e chegaria à multiplicidade de dimensões negativas, o que não deixa de ser uma subtracção, que agora leva à multiplicidade de dimensões.

Baudrillard faz coincidir as quatro dimensões do virtual com a ‘realidade integral’, ou seja, a hiperrealidade. “O universo de três dimensões tornou-se agora flutuante, submergido por um universo de quatro dimensões, o do virtual, do digital, aquilo que chamo a realidade integral. “ (Ibidem : 102). No écran, o problema da profundidade não se coloca, não há o outro lado do écran, enquanto que existe um outro lado do espelho. (…) há felizmente excepções. Qualquer imagem verdadeira, qualquer fotografia verdadeira só vale como excepção …” No entanto, Baudrillard, a propósito desta redução às duas dimensões da imagem e à unicidade desta última, diz que “isso colocou-me um problema para a exposição fotográfica: ‘A morte da imagem’, onde expunha séries, portanto em total contradição com o que lhe digo . (…) Depois de falar da singularidade da imagem, do universo de duas dimensões, irredutível ao de três dimensões [o nível da realidade, da representação, segundo Baudrillard], encontro-me a usar a série, que é para a imagem uma maneira de entrar na quarta dimensão, aquela do fractal [e do virtual, do digital, da realidade integral, segundo o autor], e que faz parte, portanto, da morte da imagem . “ (Ibidem : 103-4).

No fundo, perpassa um certo dualismo, algo moderno, nesta interpretação, por parte de Baudrillard, da dimensionalidade do real. Mais, não nos parece que possa existir uma realidade ‘ideal’ a duas dimensões, aquela precisamente subjacente à generalizada ‘écranização da vida’ de que falam tantos analistas. Igualmente, a realidade ‘integral’ a 4 dimensões, a que investe na ‘virtualização da vida’, surge apenas como uma das ‘realidades integrais’ possíveis. Mais interessantes parecem ser as ‘realidades polifónicas’, ainda em construção, cada uma das quais mostradas – apresentadas mas já não representadas – , nas combinações singulares das dimensões da realidade e da irrealidade.

Para além disso, como bem recorda John Armitage, Paul Virilio interessa-se pela teoria da relatividade de Einstein, embora esse aspecto seja um dos menos considerados na apreciação do seu pensamento (19). “Nós encontramo-nos todos a atravessar os portões da relatividade. É sobejamente sabido que a teoria da relatividade está muito pouco popularizada, não é nada bem compreendida pelo público em geral. Mas não podemos ignorar a teoria da relatividade pela mera razão de que é de difícil compreensão. Porquê? Porque a vivemos. Nós vivemo-la através dos telemóveis, por meio dos programas ‘ao vivo’ na TV, por intermédio das telecomunicações, através da realidade virtual (VR), pelo ciberespaço, por meio da ciberconferência, pela mediação da viagem aérea supersónica, e assim por diante. Portanto, à medida que a vivemos, interpretamo-la, no sentido musical do termo. “(Armitage, 2001 : 17) (20). Esta relatividade advém, em grande parte, das deslocalizações operadas pela velocidade das comunicações planetárias. (Ibidem : 18) (21).

Paul Virilio irá, assim, circunscrever melhor a intervenção das dimensões espaciais e temporais na cena contemporânea: “Tempo (duração), espaço (extensão), a partir de agora inconcebíveis sem a luz (velocidade-limite), a constante cosmológica da velocidade da luz, contingência filosófica absoluta que sucede depois de Einstein ao carácter absoluto concedido por Newton e por muitos antes dele ao espaço e ao tempo. “ (Virilio, 2000:35) (22).Outro conceito importante, em articulação estreita com as anteriores dimensões, refere-se à sua crise no pensamento e na acção. “A transição crítica não é, pois, uma palavra vã: dissimula-se atrás deste vocábulo uma verdadeira crise da dimensão temporal da acção imediata. Depois da crise das dimensões espaciais ‘inteiras’, em favor da acrescida importância das dimensões fraccionadas, vai assistir-se, finalmente, à crise da dimensão temporal do instante presente.“ (Ibidem : 37).

Daí que Paul Virilio detecte um novo tipo de processos sociais, assim circunscritos: “Ao lado dos fenómenos da poluição atmosférica, hidrosférica e outras, existe um fenómeno de poluição despercebido, o da poluição da extensão, ao qual proponho chamar dromosférico – de dromos : corrida.” (Ibidem:47). Desta maneira, a velocidade e o percurso, e mesmo o percurso da velocidade, fundam-se e fundem-se, para Virilio, mais no tempo do que no espaço: “Ora, de que ‘espacialidade’ pode tratar-se quando já só subsiste o ser do trajecto, de um ‘trajecto’ que se identifica integralmente ao sujeito e os objecto em movimento, sem outra referência que não ele próprio? “ (Ibidem:171).

Um tal protagonismo do tempo é inegável. Contudo, parece-me mais rigoroso afirmar que a paisagem actual rege-se por inéditas espacializações de tempo e por temporalizações originais do espaço, devido à proliferação desmesurada e incomensurável de novas dimensões do real e, sobretudo, de novas relações entre elas. Neste sentido, em 1985, tinha sugerido a emergência de um tipo de saber nunca dantes visto, o ‘saber-dados’, que conectámos recentemente ao conceito valor informativo-textual (23). O saber-dados é o conhecimento nativo produzido nos sistemas informáticos e nas redes de informação, que se relaciona intimamente com todos os outros modos de conhecimento, afirmando-se mesmo como uma espécie de ‘saber-moeda’, equivalente geral dos restantes. Mais tarde, em Janeiro de 1996, propus a noção de cibertempo, a fim de acentuar não apenas o protagonismo das temporalidades, mas para as redimensionalizar com as espacialidades e as restantes dimensões, e em especial com o ciberespaço (24).

Também José Augusto Mourão aponta a necessidade de uma atenção acrescida à relatividade, em particular a interacção e o dialogismo reticulares entre o sujeito observador e o objecto observado, no quadro dos textos e o dos seus contextos. “Em 1913, Albert Einstein publicou a sua Teoria Geral da Relatividade. De acordo com esta teoria, a distinção entre actores e palco já não seria possível. O período moderno (i.e. de cerca de 1875 a 1925) assistiu a uma transformação radical na anterior noção de texto. O texto torna-se um objecto a obter, um texto dialógico. “ (Mourão, 2001 : 65) (25). Uma tal dimensão dialógica e textual da relatividade parece-me central.

Assim, se emigrarmos para Mikhail Bakhtine, o propulsor do dialogismo, encontramos o termo ‘cronótopo’, que significa as instâncias espaciais e temporais que intervém no texto narrativo, mediadas pelos códigos técnico-literários. Por exemplo, o autor mostra que, em meados do século XVIII, certas localizações geográficas condicionaram ‘cultos locais’ associados com trabalhos literários específicos, que aliás tetemunham um novo sentido de espaço e do tempo no trabalho artístico. (Bakhtine, 1986 : 47) (26).

Nesta perspectiva, a literatura e as linguagens são entendidas como sistemas mutantes de subgéneros e de linguagens fragmentadas, em luta umas com as outras, em contextos espácio-temporais onde os agentes e a arte dialogam e se hibridizam. Na Imaginação Dialógica, encontramos a caracterização das formas do tempo e do cronótopo na novela (Idem, 1990 : 41-83) (27). Os outros géneros, como o épico, são ‘géneros completos’ (Ibidem : 7), na medida em que encontram-se referidos, pelo menos no seu apogeu, a realidades sócio-culturais passadas. “…A interacção mútua dos géneros num único período literário unificado é um problema de grande interesse e importância.” (Ibidem: 4). “… De todos os géneros maiores apenas a novela é mais nova do que a escrita e o livro: só ela se encontra receptiva organicamente a novas formas de percepção muda, isto é, de leitura.” (Ibidem : 3) Hoje, processa-se uma ‘novelização’ (novelization) dos outros géneros, a partir da ‘novelidade’ (novelness) em estreita relação com as características temporais e espaciais ou sócio-culturais da cena contemporânea. “Quais são os traços salientes desta novelização dos outros géneros? Tornam-se mais livres e flexíveis, a sua linguagem renova-se pela incorporação de heteroglossias extra-literárias e os níveis ‘novelísticos’ da linguagem literária tornam-se dialogizados, permeados com risos, humor, elementos de auto-paródia e finalmente – isto é o mais importante – a novela insere, nestes outros géneros, uma indeterminação, uma certa abertura semântica, um contacto vivido com uma realidade contemporânea envolvente inacabada (o presente ilimitado)”. (Ibidem : 6-7).

Este conceito, ‘cronótopo’, aplica-se, com proveito, aos estudos sociológicos. Aliás, Lynne Pearce sugeriu uma sua extensão, a partir do hibridação desse termo com outra noção de Bakhtine, o ‘polifónico’, no vocábulo ‘policronotópico’. A palavra significa a coexistência de múltiplos cronótopos, cada um possuindo uma certa autonomia, num mesmo texto: “…sem sempre coincidirem, os cronótopos entram num diálogo complexo uns com os outros, que é, em todos os tempos, um diálogo inscrito pelo poder.” (Pearce, 1994 : 175) (28).

2. A fractalidade das escritas social e sociológica

Um outro aspecto importante na dimensionalização da natureza e da sociedade, e proximamente relacionado com a noção e questão das escritas social e sociológica, é a sua fractalidade. Sabemos que o fractal é uma organização de entidades que progride pela produção de formas semelhantes em escalas dissemelhantes. Benoit Mandelbrot defende que as paisagens geográficas e outros aspectos dos sistemas naturais possuem propriedades fractais (29). Por seu turno, M. Batty e P. Longley aplicam fractais em modelos formais e de crescimento das cidades, argumentando que, em diferentes escalas, o tecido urbano apresenta semelhanças (30). M. Goodchild e D. Mark, aproximam as formas fractais aos fenómenos geográficos e respectivos sistemas de informação (GIS). (1987 : 265-78) (31). Em particular, Edward Soja, a este propósito, desenvolve o conceito de ‘pós-metrópolis’: “O spatial turn foi a mais recente adição ao discurso especializado da nova política da cultura (…) Escolhi o termo cidade fractal para descrever o mosaico social reestructurado da pós-metropolis. (…) Adoptando uma perspectiva espacial ternária permite-nos ver em qualquer sítio empírico, desde o corpo à esfera global, a natureza fundamental da espacialidade da natureza humana em toda a sua riqueza e complexidade, em grande parte como uma biografia individual ou uma história social abre possibilidades para a consideração de todos os aspectos da condição humana geral. “ (Soja, 2000 : 281-283) (32).

Entretanto, no decurso de uma entrevista concedida por Baudrillard a Yves Laurent, ambos estabelecem a separação entre o fragmento e o fractal : “ Segundo Musil, o fragmento é o mais pequeno todo possível. Rokhto diz – falando da sua obra – que aquilo que a caracteriza é que ela se abre em todas as direcções (…) ao mesmo tempo que se fecha (…) gosto muito desta imagem: fechar-se em todas as direcções…Aí está, parece-me aquilo que é um fragmento. Fecha-se em todas as direcções, ao passo que o fractal não abre mais do que aquilo que fecha…” (Baudrillard, 2001: 104) (33). A meu ver, não há fractal sem fracturação em múltiplas formas, no seio do próprio fractal. Com efeito, o fractal não engendra apenas a clonagem de uma mesma figura. Para além disso, o fractal produz formas inéditas. Por um lado, fá-lo a nível microscópico, na forma de variações mínimas ou de relações novas entre as formas repetidas em escalas microscópicas diferentes. Por outro lado, no nível macroscópico, os efeitos da totalidade de uma tal organização da natureza ou da sociedade (o ‘desenho’ geral do fractal) relativizam-se, continuamente, devido à própria produção contínua de novas partes do fractal. Na verdade, a noção de ‘fractal finito’ é uma contradição, terminológica e lógica. Daí que a fractalidade se apresente como uma hibridação do Mesmo e do Outro. De facto, a fractalidade não se confunde totalmente com a mesmidade, porque diversifica as semelhanças do sistema através das relações de diferença (ou seja, as variações mínimas e as distintas escalas) que introduz. Da mesma maneira, não coincide completamente com a alteridade, já que a reproduz e a clona, em parte.

3. O épistémè da dimensionalidade.

Que deduzir, de um modo sintético, destas diversas contribuições epistemológicas e teóricas? Na minha perspectiva, a conclusão mais evidente é esta: aquilo que caracteriza o pensamento e a linguagem da contemporaneidade, o seu épistémè mais genuíno, é o épistémè da dimensionalidade. Mas não qualquer dimensão ou dimensionalismo simplista, ou uma dimensionalização que enfeude as dobras da realidade ou os buracos negros da não-matéria social numa gaiola física ou social. Por outras palavras, não se trata apenas de recorrer às dimensões físicas, como o espaço, o tempo, a velocidade ou a aceleração, ainda que aplicadas à sociedade. O que importa destacar é a versão interdimensional ou transdimensional do dimensionalismo, que realça não somente a multiplicidade e sobretudo a pluralidade e polissemia do real, mas assume-se enquanto poliedro teórico que relaciona as suas infindáveis dimensões sociais, onde, tal como um peixe apanhado numa rede de malhas pouco finas, o sentido escapa no próprio momento em que parece ser domesticado. Mais: para além das dimensões conhecidas, é necessário demandar aquelas nunca dantes percepcionadas, mas apenas presentes nos traços deixados nos mapas cognitivos e sémicos do futuro.

Assim sendo, uma tal hermenêutica interdimensional sublinha principalmente, duas coisas:

Primeiro, não basta professar uma bidimensionalidade, uma tridimensionalidade, nem mesmo uma multidimensionalidade. Apoiando-nos no conceito de polifonia de Milhail Bakhtine, uma polifonia das dimensões só se entende se acompanhada de uma polifonia das relações. Ou seja, as dimensões não devem ser coarctadas na sua hibridação e heteroglossia social. Por isso, extraímos do mundo não somente a dimensão ‘esferas sociais’, mas também os ‘níveis societais’ e as ‘negociações sociais’, bem como as meta-dimensões que as cruzam, como os espaços e os tempos sociais, para além de outras dimensões ainda em construção na hermenêutica interdimensional (34).

Segundo, não se assevera suficiente pensar as dimensões físicas aplicadas na realidade social, mas é preciso reflectir sobre as dimensões sociais articuladas às dimensões sociológicas. Ou seja, falta dimensionar não somente o real, mas igualmente a teoria. As relações entre as dimensões, como se verá, são essencialmente três: as relações intradimensionais, ou seja, as teias circulantes entre as zonas internas a cada dimensão; as relações interdimensionais, isto é, as redes tecidas entre duas ou mais dimensões; e as relações metadimensionais, ou os fluxos que envolvem pelo menos uma meta-dimensão.

________________________________________________________________________________________________________________________________________________________________________________________

NOTAS

1. Albert Einstein, 2001, La relativité, Paris, Payot.

2. De acordo com a teoria da relatividade restrita, as coordenadas de espaço e de tempo ainda conservam um carácter absoluto, já que são directamente mensuráveis pelos relógios e corpos rígidos. Mas tornam-se relativos por dependerem do estado de movimento do sistema de inércia escolhido.“ Ou seja, no quadro da relatividade restrita, cada sistema de inércia possui o seu tempo particular e relativo. Pelo contrário, a teoria da relatividade geral estende o “… princípio de relatividade aos sistemas de coordenadas [as quatro dimensões do mundo], possuidores de uma aceleração relativa de uns em relação aos outros.“ (Albert Einstein, 1981, Como vejo o mundo, Rio de Janeiro, Nova Fronteira).

3. Jean Piaget, 1974, Introduction à l’épistemologie génétique: 2. La pensée physique, Paris, PUF.

4. Stephen Hawking, 1995, Breve História do tempo, Do Big Bang aos buracos negros, Lisboa, Gradiva.

5. “O aumento de desordem ou entropia com o tempo é um exemplo do que se chama uma seta do tempo, qualquer coisa que distingue o passado do futuro, dando um sentido ao tempo. Há pelo menos três setas diferentes do tempo. Primeiro há a seta termodinâmica, o sentido do tempo em que a desordem ou entropia aumenta. Depois há a seta psicológica, ou seja, o sentido em que sentimos que o tempo passa, em que nos lembramos do passado mas não do futuro. Finalmente, há a seta cosmológica, que é o sentido do tempo em que o Universo está a expandir-se em vez de contrair-se.“

6. Michel Foucault, 1966, Les mots et les choses, Paris, Gallimard.

7. W. Newton-Smith, 1984, The Structure of Time, London, Routledge.

8. Para uma síntese das teorias do tempo social, cf: Simonetta Tabboni, 1989, La representazione sociale del tempo, Milano, Franco Angeli, sobretudo as páginas 185-214.

9. J. Pickles, 1985, Phenomenology, science and geography: spartiality and the human sciences, Cambridge University Press.

10. Pierre Vilar, 1973, « Histoire marxiste, histoire en construction : essai de dialogue avec Althusser », Annales ESC (28), pp. 165-98.

11. A. Lipietz, 1977, Le capital et son espace, Paris, Maspero.

12. Manuel Castells, 1977, The urban question, London, Edward Arnold.

13. Edward Soja, 1985, “The spatiality of social life: towards a transformative retheorization”, In D. Gregory; J. Urry (eds.) Social relations and spatial structures, London, MacMillan.

14. D. Gegory, 1994, Geographical Imagination, Oxford / Cambridge, Blackwell.

15. Anthony Giddens, 1991, The Constitution of Society: Outline of the Theory of Structuration, Camberidge, Polity Press.

16. David Harvey, 1989, The Condition of Post-Modernity : an enquiry into the conditions of cultural change, Oxford, Blackwell.

17. Jean Baudrillard, 2001, D’ un fragment à l’autre : entretiens avec Yves Laurent, Paris, Albin Michel.

18. (…) O facto de que a imagem seja a duas dimensões, agrada-me, na medida em que isso alcança – por razões que me são confusas – a ideia de dualidade… [Entrevistador:] —- O seu fundo gnóstico… [Baudrillard : ] — Deve ser isso! Parece-me que a ordem simbólica é dual, e nesse sentido, e que todas as ordens que se conhece são pelo contrário, unitárias, totalitárias… “ (…) “ De qualquer maneira, procura-se no universo do som como naquele da imagem, o acrescento de novas dimensões, uma trifonia, depois uma quadrifonia, depois uma multifonia. Na imagem, é a mesma coisa, damos-lhe uma, duas, três, várias dimensões.

19. Paul Virilio, 1997, Open Sky, London, Verso. John Armitage, 2001, Virilio Live: Selected Interviews, London, Sage.

20. John Armitage, 2001, Virilio Live: Selected Interviews, London, Sage.

21. “Tornámo-nos desterritorializados. A nossa incrustação em solo nativo, esse elemento do hic et nunc, (aqui e agora), ‘in situ’, essa inserção pertence, agora, em certa medida, ao passado. Foi superada pela aceleração da história – pela aceleração da própria realidade – pelo ‘tempo real’, e pela ‘vida’, conjunto que se posiciona para além do hic et nunc, condição ‘in situ. (…) Só relatividade! Não a relatividade dos físicos, mas a nossa relatividade, a relatividade das nossas próprias vidas vividas, pelas quais somos responsáveis, e das quais somos as vítimas, ao mesmo tempo. A relatividade já não é o domínio exclusivo do cientistas (naturais), tornou-se propriedade de todos aqueles que vivem no mundo moderno.“

22. Paul Virilio, 2000, A velocidade de libertação, Lisboa, Relógio de Água.

23. Pedro Andrade, 1985, “Para uma Sociologia da Documentação: sensibilização à necessidade da sua construção”, In Actas do 1º Congresso Nacional de Bibliotecários, Arquivistas e Documentalistas ‘A informação em tempo de mudança’, Porto, 19-21/6/85, pp. 421-450.

24. Idem, 1996, “Para uma Sociologia (Interdimensional) da Internet”, In Actas do 3º Congresso Português de Sociologia, 7-9 Fev. [Editado em CD-ROM].

25. José Augusto Mourão, 2001, Para uma poética do hipertexto: a ficção interactiva, Lisboa, Edições Universitárias Lusófonas.

26. Mikhail Bakhtine, 1986, Speech genres and Other Late Essays, Austin, University of Texas Press.

27. Idem, 1990, The Dialogical Imagination: Four Essays with Problems of Dostoevsky’s Poetics, Austin, University of Texas Press.

28. Lynne Pearce, 1994, Reading Dialogics, London, Arnold.

29. B. Mandelbrot, 1982, The fractal geometry of nature, W. H, Freeman, San Francisco.

30. M. Batty; P. Longley, 1994, Fractal cities, London, Academic Press.

31. M. Goodchild; D. Mark, 1987, “The fractal nature of geographic phenomena”, Annals of the Association of American Geographers (77).

32. Edward Soja, 2001, Postmetropolis: Critical Studies of Cities and Regions, Oxford, Blackwell.

33. Jean Baudrillard, 2001, D’ un fragment à l’autre : entretiens avec Yves Laurent, Paris, Albin Michel.

34. A primeira formulação da Hermenêutica e Sociologia Interdimensionais, tal como a concebemos, foi proposta em Pedro de Andrade, 1993, “As sonoridades sociais”, In Actas do 2º Congresso Português de Sociologia. Lisboa, 5-7/2/92, 82-105. Esta questão será retomada e actualizada no próximo número de Atalaia/Intermundos.

_______________________________________________________________________________

FontePesquisa:

1.<http://www.triplov.com/atalaia/pedro_andrade.html&gt;

2. <http://www.edi-colibri.pt/Detalhes.aspx?ItemID=104&gt;

 

POSTED BY SELETINOF AT9:34 PM

TEMPO IMAGINÁRIO

 

Postamos, aqui, o relato de Gregory Benford, colaborador da "Reason Magazine" e professor de física na Universidade da Califórnia em Irvine, sobre o diálogo que teve com Stephen Hawking, no escritório deste em Cambridge, abordando vários temas da física, além, claro, do tempo imaginário, o qual fora proposto por Hawking no sentido de estabelecer critérios para a moldagem do tempo pela mecânica quântica. 

Stephen Hawking parecia estar um pouco pior, como sempre. É um milagre que continue se agarrando à vida, mesmo depois de 20 anos sofrendo da doença de Lou Gehrig. Cada vez que o vejo, penso que será a última, que não conseguirá continuar agarrado a um fio tão frágil por muito mais tempo.

Hawking completou 60 anos em janeiro. Ao longo de sua brilhante carreira, ele destrinchou os pontos básicos da física dos buracos negros, incluindo, mais notavelmente, sua previsão segundo a qual os buracos negros não são inteiramente negros. Em lugar disso, se possuírem massa equivalente à de uma montanha, vão irradiar partículas de todo tipo. Buracos menores desapareceriam num clarão de radiação -uma assinatura pela qual os astrônomos vêm procurando, mas que, até agora, não encontraram.

O enorme sucesso de seu livro "Uma Breve História do Tempo", de 1988, transformou Hawking numa espécie curiosa de ícone cultural. Ele se pergunta quantos dos roqueiros e das estrelas de cinema menores que já mencionaram o livro em "talk shows" realmente o leram.

Com seu último livro, "O Universo numa Casca de Noz", Hawking procura mudar essa situação, oferecendo uma multidão de ilustrações de fácil compreensão para ajudar os leitores a apreender tópicos complexos, tais como a teoria das supercordas e a natureza do tempo. O segredo consiste em traduzir equações em sentenças, o que não é muito fácil. As ilustrações ajudam muito, embora puristas as deplorem. Quanto a mim, acho que qualquer artifício se justifica, quando se trata de lançar uma ponte sobre um abismo tão profundo.

Quando entrei no escritório de Stephen em Cambridge, as pessoas manifestaram cautela, evidentemente suspeitando que eu fosse apenas um "civil" com alguma teoria excêntrica do Universo. Mas eu tinha telefonado antes, e sua secretária me reconhecera (sou astrofísico e conheço Stephen desde a década de 70).

Quando entrei no escritório familiar, seu corpo encolhido estava reclinado na cadeira motorizada e ele me olhava, os óculos grossos deixando seus olhos arregalados – mas uma disposição dinâmica e forte penetrava tudo o que dizia.

Hawking perdeu as cordas vocais anos atrás, vítimas de uma traqueotomia de emergência. Suas mãos retorcidas e fracas não conseguiam segurar uma caneta. Por algum tempo depois da cirurgia ele viveu totalmente isolado do mundo. Uma empresa do vale do Silício o socorreu. Engenheiros criaram softwares feitos sob medida para Hawking, fáceis de usar, além de um teclado especial. 

Sua mão frágil passeava pelo teclado na velocidade de um caranguejo. Conseguia construir sentenças rapidamente, passeando pelo menu de palavras usadas com frequência exposto na tela de cristal líquido, dependurada à sua frente na cadeira de rodas. A invenção foi um sucesso tão grande que o pessoal do vale do Silício agora fornece unidades semelhantes a pessoas em todo o mundo que sofrem da mesma doença. "Por favor desculpe meu sotaque americano", disse a caixa montada atrás da cadeira de rodas, com sotaque da Califórnia. Stephen "redigiu" essa frase inteira com apenas dois toques no teclado. Stephen decolou e começou a discutir idéias sobre a origem do Universo – o momento que se seguiu ao Big Bang- que andam fazendo furor na comunidade de física.

Paradoxalmente, os extremos bons modos de Stephen me deixavam pouco à vontade. Eu tinha plena consciência de que seu tempo é curto e, afinal, só havia dado uma passadinha para falar de interesses comuns. "Durante anos, tive a impressão de que meus trabalhos iniciais com Roger Penrose eram um desastre para a ciência", disse Stephen. "Eles mostraram que, se a teoria geral da relatividade de Einstein estiver certa, o Universo deve ter começado com uma singularidade. Isso parecia indicar que a ciência não poderia prever o começo do Universo. As leis deixariam de se aplicar no ponto da singularidade, da densidade infinita".

Vamos continuar a  descobrir novas camadas de estrutura, mas parece que a física vai se tornando mais simples, à medida que diminui a escala considerada.

A matemática não consegue lidar com quantidades físicas como a densidade, que vão literalmente até o infinito. Na verdade, a física do século 20 diz respeito, em grande medida, a modos de evitar as infinidades que aparecem na teoria das partículas e na cosmologia. A idéia de partículas pontuais é prática, mas leva a problemas que não têm respostas fáceis. Lembrei que havia conversado com Stephen sobre maneiras matemáticas de contornar esse problema certa noite, numa festa no King’s College.

Havia analogias a traçar com métodos da mecânica quântica elementar, métodos que Stephen estava tentando transferir para esse terreno surrealista. "Hoje, parece que a maneira como o Universo começou pode ser determinada, sim, usando o tempo imaginário", disse Stephen. Falamos um pouco dessa idéia. Stephen vinha usando um artifício matemático pelo qual o tempo, como conveniência de anotação, é substituído por algo chamado tempo imaginário. Isso muda a natureza das equações, de modo que ele poderia usar algumas idéias do minúsculo mundo quântico.  

Tempo Imaginário

Nas novas equações ocorre uma espécie de "efeito túnel", pelo qual o Universo, antes do Big Bang, tem muitas maneiras diferentes de passar pela singularidade. Com o tempo imaginário, podemos calcular as chances de um túnel dado levar até nosso Universo primordial, após o início do tempo tal como o conhecemos. "Sim, as equações podem ser interpretadas assim, é claro", argumentei. "Mas, na realidade, isso é apenas um truque, não é?" Stephen respondeu: "Sim, mas é um truque que abre perspectivas, talvez".

"Não compreendemos o tempo profundamente", respondi, "então substituir o tempo real por um tempo imaginário não significa muito para nós".

"O tempo imaginário é uma nova dimensão que forma um ângulo reto com o tempo real, ordinário", explicou Stephen. "Ao longo desse eixo, se o Universo satisfizer a condição de não ter limite, poderemos fazer nossos cálculos. Essa condição diz que o Universo não tem singularidades ou fronteiras na direção imaginária do tempo. Com tal condição, não haverá começo ou fim do tempo imaginário, assim como não há começo ou fim de um caminho na superfície da Terra".

"Desde que o caminho descreva uma volta completa da Terra", respondi. "Mas, estando no tempo imaginário, não sabemos se não haverá um limite."

"Minha intuição diz que não haverá bloqueio nessa coordenada específica, de modo que nossos cálculos fazem sentido, sim".

"O problema é justamente esse, não é mesmo? Fazer sentido. O tempo imaginário é apenas uma conveniência matemática", eu disse, irritado com o abismo que separa os espaços matemáticos frios do imediatismo do mundo real. É uma tensão comum, quando se faz física. "Não guarda relação com a maneira como sentimos o tempo. Os segundos passando, o nascimento, a morte."

Interrompendo, rapidamente, este papo legal entre Benford e Hawking, citamos, aqui, uma passagem do livro, O Universo numa Casca de Noz, visando esclarecer melhor essa questão do fazer sentido: Pode-se pensar que isso significa que os números imaginários não passam de um jogo matemático, sem nenhuma relação com o mundo real. Do ponto de vista da filosofia positivista, porém, não é possível determinar o que é real. Tudo que se pode fazer é descobrir quais modelos matemáticos descrevem o universo em que vivemos. Afinal, um modelo matemático envolvendo o tempo imaginário prevê não apenas efeitos que já observamos, mas também efeitos que ainda não coseguimos medir, porém nos quais acreditamos por outros motivos. Então, o que é real e o que é imaginário? A distinção está apenas em nossas mentes?… Nos reportemos, agora, para o nosso artigo FÍSICA E REALIDADE, postagem de 17 de janeiro:

http://petroleo1961.spaces.live.com/blog/cns!7C400FA4789CE339!457.entry

Através da leitura desta publicação, acreditamos que todos possam compreender bem melhor o que Hawking quer dizer quando cita a filosofia positivista e a descrição do Universo utilizando o tempo imaginário… Voltemos, então, ao diálogo de Benford com Hawking.   

"É verdade. Nossas mentes trabalham no tempo real, que começa com o Big Bang e vai terminar, se houver um Big Crunch, na grande contração – hipótese que hoje parece pouco provável, em vista dos últimos dados, que indicam a ocorrência de uma expansão em aceleração. A consciência chegaria ao fim numa singularidade."  

"O que não seria um grande consolo", comentei. Stephen sorriu. "Não, mas eu gosto da condição da ausência de fronteira. Ela parece deixar implícito que o Universo se encontrará num estado de alto grau de ordem em uma extremidade do tempo real, mas estará em desordem na outra extremidade do tempo, de modo que a desordem aumenta numa direção do tempo. Definimos essa direção como sendo a direção do tempo crescente. Quando gravamos alguma coisa em nossa memória, a desordem do Universo vai aumentar. Isso explica por que lembramos apenas acontecimentos que estão no que chamamos de o passado, e não no futuro."

"Lembra o que você previu em 1980 sobre teorias finais, como essa?", disse, chamando sua atenção.

"Achei que talvez pudéssemos encontrar uma teoria unificada completa até o final do século." Stephen fez o aparelho que transforma seus toques no teclado em sons dar uma risada irônica. "OK, eu estava enganado. Naquela época, a melhor candidata parecia ser a supergravidade. Agora, parece que essa teoria pode ser uma aproximação de uma teoria mais fundamental, a das supercordas. Fui um pouco otimista demais ao esperar que pudéssemos resolver o problema até o final do século. Mas acho que ainda há uma chance de 50% de encontrar uma teoria unificada completa em 20 anos".

"Sempre desconfiei que, quando a gente adota escalas cada vez menores, a estrutura nunca termina e que as teorias também não vão terminar nunca", aventei.

"É possível que não exista uma teoria última da física. Em lugar disso, vamos continuar a descobrir novas camadas de estrutura. Mas parece que a física vai se tornando mais simples e mais unificada, à medida que diminui a escala para a qual olhamos. Existe uma escala de comprimento última, o comprimento de Planck, abaixo da qual talvez seja impossível definir o espaço-tempo. Acho que haverá um limite ao número de camadas de estrutura, e haverá alguma teoria última, que vamos descobrir, se tivermos inteligência suficiente."

Começamos então a falar dos trabalhos recentes sobre os "universos bebês" – bolhas no espaço-tempo. Para nós, criaturas grandes, o espaço-tempo é como o mar visto de um grande navio, liso e calmo. Visto de bem perto, porém, em escalas minúsculas, é feito de ondas e bolhas. E, em escalas extremamente finas, bolsões e bolhas de espaço-tempo podem formar-se aleatoriamente, surgindo e depois se dissolvendo. Os detalhes menos conhecidos da física de partículas sugerem que às vezes (rara, mas inevitavelmente) essas bolhas podem crescer, tornando-se um universo em escala plena.

Isso pode ter acontecido muito no instante imediatamente seguinte ao Big Bang. Na verdade, algumas das propriedades de nosso Universo podem ter sido criadas pela espuma do espaço-tempo que percorreu aqueles segundos infinitesimais, agitando-os. O estudo dessa possibilidade utiliza o "cálculo de wormholes", que trata das múltiplas bolhas borbulhantes possíveis (e das conexões entre elas, os "buracos de minhoca").

Fazendo uma média dessa espuma, no sentido matemático, e alisando um pouco suas propriedades, Hawking e outros vêm tentando descobrir se um universo final, bastante benigno, como o nosso, foi ou não consequência inevitável daquela turbulência inicial. Ainda não existe um consenso final sobre esse ponto entre os cientistas, e talvez nunca se chegue a um, na medida em que os cálculos são muito difíceis, guiados mais pela intuição do que por fatos. Decidir se eles prevêem alguma coisa ou não, de maneira significativa, é questão de opinião. Isso lembra o aforismo de Oscar Wilde segundo o qual, em assuntos de grande importância, o estilo sempre é mais importante do que a substância.

Se esse quadro da primeira fração de segundo estiver correto em qualquer medida, ou não, depende muito do conteúdo energético da espuma. A energia necessária para formar essas bolhas seria contrabalançada por uma energia oposta, negativa, que vem da atração gravitacional de toda a matéria contida na bolha. Se a pressão de dentro para fora contrabalançar a atração de fora para dentro (uma pressão, na realidade) da massa, então teremos um universo bastante parecido com o nosso: bastante moderado, com o espaço-tempo não sujeito a qualquer curvatura aguda -ou seja, o que os astrônomos descrevem como "plano".

Entre nós e os outros universos há o nada absoluto, no sentido exato, nenhum espaço ou tempo, nenhuma matéria, nenhuma energia.

Parece que é esse o caso em escalas relativamente minúsculas, como em nosso Sistema Solar, e o plano prevalece até mesmo na escala dimensional de nossa galáxia. Na realidade, o plano se mantém em escalas imensas, pelo que podemos enxergar por enquanto.

Ora, bolhas desse tipo ainda podem se formar. Um espaço-tempo inteiramente diferente poderia surgir de repente em sua sala de jantar. Ele começaria inimaginavelmente pequeno, então cresceria até atingir o tamanho de um balão – mas não diante de seus olhos, pois, por razões fundamentais, você não o poderia enxergar.

"Eles não se formam no espaço, é claro", disse Stephen. "Não significa nada indagar onde, no espaço, essas coisas ocorrem." Elas não ocupam espaço em nosso Universo, e sim em seus próprios universos, expandindo-se para formar espaços que não existiam antes.

"Depois que os fazemos, eles se separam de nós", eu disse. "Não deixam resquícios? Fósseis?"

"Acho que não poderia haver", respondeu Stephen.

"Como um filho ingrato que sai de casa e não escreve para os pais." Quando falo de imensidades, às vezes busco uma comparação humana. "Não se formariam em nosso espaço, mas em outro espaço-tempo."

Conversamos por algum tempo sobre algumas especulações a respeito do assunto que eu inseri em dois romances meus, "Cosm" e "Timescape". Usei Cambridge e o estilo científico britânico em "Timescape", publicado em 1980, antes de essas idéias se tornarem moeda corrente. Cheguei até elas em parte devido a algumas conversas sobre diversos assuntos que eu tinha tido com Stephen – todas bem disfarçadas nos livros, é claro. Eu tinha chamado esses espaços-tempos fechados de "universos-cebola", já que, em princípio, poderiam ter outros espaços-tempos fechados trancados dentro deles, e assim por diante. É uma sensação estranha quando um palpite seu acaba mostrando conter alguma substância -na medida, é claro, em que se pode dizer que são substanciais idéias tão etéreas quanto essas.

"Então eles se formam e depois desaparecem", refleti. "Somem. Entre nós e esses outros universos há o nada absoluto, no sentido exato: nenhum espaço ou tempo, nenhuma matéria, nenhuma energia." "Não pode haver nenhuma maneira de chegar até eles", disse a voz mecânica de Stephen. "O abismo entre eles e nós não pode ser transposto. Está além da física, porque é verdadeiramente nada – não é físico, em sentido algum.

A risada mecânica surgiu de novo. Stephen gosta de sentir a atração da reflexão filosófica e parece se divertir com a idéia de que universos são simplesmente uma dessas coisas que acontecem de tempos em tempos.

Seu enfermeiro apareceu para lhe fazer uma pequena limpeza. Ficar confinado a uma cadeira de rodas, sem poder se mover, é algo que cobra um preço aviltante de nossa dignidade, mas Stephen não demonstrou reação alguma à rotina diária de receber cuidados íntimos de outra pessoa. Quem sabe isso, para ele, até ajude sua mente a se libertar das imposições do mundo.

A secretária de Stephen saiu discretamente e perguntou se eu jantaria com ele no Caius College. Eu tinha pensado em comer no meu restaurante indiano favorito e depois simplesmente passear sozinho pelas ruas de Cambridge, porque adoro o ambiente de lá -mas concordei imediatamente. Jantar na mesa formal da faculdade é uma das experiências legendárias da Inglaterra. Eu me lembrava perfeitamente de cada jantar desses aos quais já fora, cujos convidados muitas vezes têm línguas mais afiadas do que facas.

Seguimos pelos caminhos arborizados das faculdades, cujas pedras cinzentas e madeira gasta ecoavam vozes e o guincho de bicicletas enferrujadas. Era um anoitecer com neblina, e a cadeira de rodas de Stephen saltitava sobre os paralelepípedos. Ele fazia questão de dirigi-la ele mesmo, embora seu enfermeiro viesse atrás, apreensivo. Nunca me ocorrera até que ponto essa obrigatoriedade de cuidar e ser cuidado 24 horas por dia pode ser cansativa. Algumas pessoas andavam atrás de nós, olhando para ele. "Não dê bola", disse a voz mecânica. "Muitos vêm aqui só para ficar me olhando."

POSTED BY SELETINOF AT 6:41 PM  

 

CRIATIVIDADE E REALIDADE

 

 

Somente armando-se de sua criatividade

(fantasia mais realização), ao homem é possível 

transcender e transformar sua realidade.

 

Rogério Fonteles Castro 

 

POSTED BY SELETINOF AT 11:25 AM

 

MECÂNICA QUÂNTICA – Um desafio à intuição

eu

Conferência de Solvay de 1927: Elétrons e Fótons. Nesta que foi talvez a mais famosa conferência, a recém formulada teoria quântica foi discutida pelos dois expoentes científicos da época: Albert Einstein e Niels Bohr (debate Einstein-Bohr). Acessado em:https://pt.wikipedia.org/wiki/Confer%C3%AAncia_de_Solvay

____________________________________________________________________________________________

Vicente Buonomano e
Ruy H. A. Farias

Instituto de Matemática
Universidade Estadual Campinas

____________________________________________________________________________________

Amecânica quântica – criada a partir dos anos 20 para explicar como são e como interagem os componentes do chamado micromundo – gerou uma grande controvérsia desde seu nascimento. Embora não haja dúvidas quanto à estrutura matemática da teoria, duas correntes de pensamento discutem seus fundamentos, ou seja, a maneira como ela interpreta omundo físico. No centro da discussão estão conceitos básicos para toda a física clássica, desenvolvidos intuitivamente pelo homem ao longo de sua história, mas que um dos pontos de vista conflitantes acredita não serem válidos na descrição do micromundo. As questões envolvidas nesse debate e os trabalhos teóricos ou experimentos com que os defensores das duas interpretações da teoria buscam as respostas representam uma das áreas mais efervescentes da física atual.

____________________________________________________________________________________________

Nossa postagem contém alguns acréscimos textuais e audiovisuais ao artigo original, porém, sem nenhum prejuízo para a ideias desenvolvidas no mesmo; pelo contrário, estes acrescentamentos contribuem para um maior esclarecimento das questões tratadas pelos autores. (FONTELES, R. C., Graduação e Pós-Graduação em Física – Universidade Federal do Ceará).

___________________________________________________________________________________________

Introdução

A mecânica quântica representa, sem exageros, a base científica sobre a qual se ergue uma parte importante da evolução tecnológica que hoje presenciamos. Suas leis físicas governam a estabilidade dos átomos e moléculas, assim como a interação da luz com tais elementos. Essa teoria foi elaborada, em sua essência, no decorrer das primeiras décadas do século XX, e estava praticamente formalizada, tal qual a conhecemos hoje. Embora seja extremamente bem-sucedida no que tange às confirmações experimentais de suas previsões, a teoria quântica vem suscitando, desde as suas origens, uma grande controvérsia no que diz respeito aos seus fundamentos. Essa controvérsia não envolve a estrutura matemática geral da teoria, estando basicamente centrada na maneira como a teoria é interpretada em termos físicos – ou, dizendo de outra maneira, na forma como a teoria descreve o mundo molecular, atômico e subatômico (o micromundo). 

No centro da discussão estão alguns conceitos básicos herdados da física clássica e da intuição que o homem desenvolveu em sua vida cotidiana – conceitos como realismo e trajetória. Os próprios criadores da teoria quântica, muitos deles incluídos entre os nomes mais importantes da física do século XX, tinham pontos de vista bastante distintos com relação às conseqüências e mesmo ao status científico da nova teoria. As discussões foram longas e acaloradas, merecendo destaque os célebres debates entre Niels Bohor e Albert Einstein.

Em torno desses dois grandes referenciais da física da época formaram-se duas maneiras de interpretar a teoria. Não pretendemos, neste artigo, entrar nos detalhes dos vários pontos de vista diferentes existentes dentro de cada uma das correntes. Apresentamos apenas o cerne da discussão: a mecânica quântica de fato nos obriga a abandonar os chamados conceitos clássicos? Que tipo de imagem física podemos ter do mundo (no caso, o micromundo) em que vivemos? Estas são as questões básicas que vêm sendo discutidas, com certa efervescência, nos últimos 50 anos, e para as quais ainda não há respostas definitivas. O objetivo deste artigo é dar uma visão geral dessas questões.

Pode-se, grosso modo, agrupar as várias interpretações em duas grandes correntes. Bohr, Heisenberg, Born e Wigner são alguns dos nomes historicamente ligados ao que se convencionou chamar de interpretação de Copenhagen, porque Bohr trabalhava, com seus alunos, nessa cidade. Essa é considerada a interpretação oficial – ou ortodoxa – da mecânica quântica, por ser a usualmente encontrada nos livros textos, muito embora quase sempre de modo superficial, visto que a utilização prática da teoria não depende, em realidade, da sua interpretação. A escola de Copenhagen defende uma ruptura radical e revolucionária com os conceitos clássicos, com o que não concordam os integrantes da outra corrente, denominada interpretação clássica, e à qual estão historicamente ligados, Einstein, Schrödinger, De Broglie e Bohm.

As controvérsias sobre os fundamentos da mecânica quântica se intensificaram muito na década de 1970, especialmente em função do trabalho do físico escocês John Stewart Bell (foto abaixo, à esquerda de Martinus Veltman, discutindo física no CERN), a quem dedicamos o artigo.

____________________________________________________________________________________

bel

O trabalho de Bell, falecido prematuramente em outubro de 1990, aos 62 anos, representa a mais relevante contribuição aos debates sobre a natureza da realidade quântica feita nas últimas décadas. A situação atual é de relativa desordem, havendo uma enorme profusão de pontos de vista que, no entanto, podem ser razoavelmente enquadrados dentro das duas grandes interpretações.

Usando alguns exercícios de imaginação e analisando experimentos reais que visaram testar as descrições do micromundo feitas por cada uma das duas correntes, procuramos dar uma ideia, ainda que sem grande profundidade, das diferenças existentes entre elas. Alertamos, porém, que apresentaremos neste artigo, de certo modo, a nossa visão pessoal sobre o assunto, uma vez que os vários conceitos fundamentais envolvidos são em geral vistos com olhos bastante diversos em pontos de vista diferentes.

Os Conceitos Problemáticos

Os conceitos físicos envolvidos nos debates são de fundamental importância no contexto clássico, já que estão na essência das teorias que governam o chamado macromundo: a mecânica newtoniana, a gravitação e o eletromagnetismo. É fácil, portanto, imaginar as discussões geradas pela proposta de que tais conceitos fossem abandonados no caso da mecânica quântica. Evidentemente, dada a natureza fundamental dos conceitos clássicos, o resultado dessas controvérsias transcende os limites da mecânica quântica e torna-se relevante para toda a ciência.

Para facilitar a compreensão da controvérsia, em especial no caso dos menos familiarizados com a teoria quântica, procuraremos dar uma visão geral do significado de cada um dos conceitos envolvidos, apresentando-os já dentro do contexto dos debates.

A noção filosófica de realismo é inerente à concepção clássica do mundo. Realismo é a consideração de que os objetos (sejam planetas ou partículas microscópicas) existem por si mesmos e têm propriedades intrínsecas bem definidas, as quais não dependem do observador.

A questão que envolve o conceito de realismo pode ser apresentada – de forma simplificada – através do exemplo da moeda. Considerando-se o lançamento de uma moeda sob a luz da mecânica clássica (ligada ao macromundo), a probabilidade de obtermos cara ou coroa é, em cada moeda lançada, de 50%. Dentro da visão clássica, é possível argumentar que, se conhecêssemos absolutamente tudo acerca da moeda e de todas as forças envolvidas no lançamento, poderíamos prever exatamente o que resultaria: ou cara ou coroa. Isto é, se o estado do sistema fosse integralmente conhecido antes do lançamento, então o resultado poderia ser previsto com toda a certeza.

Explicando de outra maneira, vamos imaginar que, ao lançarmos duas moedas, obtemos cara em uma e coroa na outra. Segundo o ponto de vista clássico, alguma diferença existente entre um caso e outro fez com que as moedas caíssem de forma diferente. Tal diferença pode estar nas próprias moedas, nas forças que utilizamos para lançá-las ou em outro aspecto relacionado ao meio circundante. Assim, consideradas as mesmas condições de contorno, podemos dizer – pensando classicamente – que dois resultados diferentes devem ser o resultado de dois estados iniciais diferentes, conclusão que é válida para todas as teorias relacionadas ao macromundo.

Já na mecânica quântica – criada para explicar o micromundo – existem duas posições básicas a esse respeito. A escola de Copenhagen diz que as leis da natureza são intrinsecamente probabilísticas, o que significa que podemos ter diferentes resultados associados a estados iniciais absolutamente idênticos. De acordo com essa interpretação, existe um caos intrínseco: os resultados não são determinados por seus estados iniciais a não ser de modo probabilístico. Podemos lançar moedas absolutamente idênticas de uma maneira absolutamente idêntica e obtemos resultados diferentes.

A escola clássica, evidentemente, não concorda com tal ponto de vista. Essa corrente argumenta que o termo estado inicial identifica apenas um estado probabilístico (definido para um grande quantidade do mesmo objeto, como as moedas), existindo sempre uma subestrutura oculta que, se conhecida, nos permitiria prever exatamente como cairia cada moeda. Se todas as variáveis (incluindo essa imaginada subestrutura) fossem consideradas, a relação de causa e efeito seria preservada. Tais teorias foram denominadas teorias de variáveis ocultas ou, mais recentemente, teorias realistas.

O realismo é uma suposição implícita na física clássica e em toda teoria moderna, com exceção da mecânica quântica. Ao realismo também se associa a ideia de que o comportamento de um objeto é determinado por suas propriedades intrínsecas reais e por propriedades intrínsecas reais do ambiente em que ele se encontra. Para a interpretação de Copenhagen, porém, o mundo é não-realista. Para essa corrente, as propriedades dos corpos são propriedades apenas potenciais, que dependem do experimento realizado, ou seja, da observação que se está fazendo.

____________________________________________________________________________________________

28383093_1596241060491460_1795776448_n

Figura 1. Experimento da dupla fenda. Uma fonte emite partículas microscópicas (elétron, por exemplo) em um espaço dividido por uma placa com duas fendas. Atrás da placa, a uma certa distância, temos um muro com detectores, que nos dirão onde cada partícula chegou. O que se observa é que, embora cada partícula seja detectada – num único detector – como se fosse um corpúsculo, após a incidência de um número grande de partículas, o conjunto das detecções forma um padrão típico de fenômenos ondulatórios. As figuras em detalhe mostram a aparência do padrão de interferência após 50, 200 e duas mil detecções. As linhas pontilhadas podem ser consideradas representações  de trajetórias apenas sob o ponto de vista clássico.

____________________________________________________________________________________________

O conceito clássico de  ‘localidade‘ baseia-se na premissa de que nenhum tipo de informação pode se propagar instantaneamente – ou, em sentido mais restrito, com velocidade superior à da luz – de um ponto a outro do espaço. Nos casos em que o comportamento de um objeto é afetado por outro objeto distante, a física clássica não admite que esse efeito esteja sendo transmitido instantaneamente de um a outro, acreditando que um certo intervalo  de tempo não nulo é indispensável a essa transmissão. Uma situação com essas características é chamada de situação local.

Uma situação não-local, ao contrário, é aquela em que dois objetos distantes interagem instantaneamente, não havendo qualquer lapso de tempo entre causa e efeito. Situações não-locais já são admitidas por muitos no contexto das pesquisas teóricas e experimentais que envolvem os fundamentos da mecânica quântica. Alguns pesquisadores que acreditam em não-localidade, porém, não falam em transmissão instantânea de informações, preferindo pensar nos objetos como sendo partes de um mesmo todo, apesar de sua separação espacial. Outros acham difícil defender a noção de causalidade quando a não-localidade é assumida, já que causa e efeito ocorrem ao mesmo tempo, mas há quem não veja qualquer inconsistência neste fato. O conceito de localidade está no cerne de um dos grandes problemas em discussão, conhecido como o paradoxo de Einstein-Podolski-Rosen, identificado pela sigla EPR.

Na visão clássica, o conceito de partícula é bem claro, embora no contexto da física nunca tenha sido uma noção inteiramente bem definida. Usando uma imagem do macromundo para facilitar a apreensão da ideia básica, uma partícula seria algo como uma pequena pedra, que podemos dizer estar precisamente num determinado lugar e não em outro qualquer. Na mecânica clássica pode-se admitir que essa pedra esteja em uma determinada posição espacial e, simultaneamente, seja dotada de certa velocidade.

Na microfísica, entretanto, a interpretação de Copenhagen nos diz que uma partícula não pode ter, ao mesmo tempo, posição e velocidade bem definidas, ou medidas de forma precisa. Mas precisamente, essa visão da mecânica quântica afirma que se em um determinado experimento a posição da partícula é muito bem medida, então sua velocidade é bem pouco definida, e vice-versa (problema associado ao chamado ‘princípio da incerteza de Heisenberg‘, que não será abordado neste artigo). O significado exato dessa afirmação é outro ponto importante das controvérsias.

Discutiremos apenas o problema mais evidente associado à existência ou não de ‘trajetórias‘ que – classicamente – associamos às partículas. Esse problema foi levantado a partir do ‘experimento da dupla fenda’. Nesse experimento, uma fonte libera partículas microscópicas (elétrons, por exemplo) em um ambiente dividido por uma placa dotada de duas fendas paralelas, e além dessa placa situa-se uma parede composta de minúsculos receptores, que detectam a chegada de partículas em pontos definidos (figura 1). Se sabemos que uma partícula estava originalmente de um lado do aparelho e mais tarde foi detectada do outro lado, a conclusão óbvia da física clássica é a de que a partícula percorre alguma trajetória contínua bem definida, passando por uma das fendas. A interpretação de Copenhagen, porém, não aceita tal afirmação, negando a existência de trajetórias bem definidas para as partículas.

____________________________________________________________________________________

DO MICRO AO MACRO

__________________________________________________________

Visando modelar qualitativamente a transição de um sistema físico de seus estados microscópicos para suas propriedades macroscópicas, consideremos um sistema físico constituído por um grande número de partículas (átomos ou moléculas). Em princípio, então, assumindo a possibilidade de resolver o problema baseado nos nossos conhecimentos físicos, essencialmente precisamos de uma equação dinâmica, de movimento, para modelar tal sistema.

Na mecânica clássica, a segunda lei de Newton é uma equação de movimento utilizada para prever matematicamente o comportamento de um sistema físico ao longo do tempo, dado, claro,  as condições iniciais. Na mecânica quântica, o análogo da lei de Newton é a equação de Schrödinger para sistemas quânticos (geralmente átomos, moléculas e partículas subatômicas sejam elas livres, ligadas ou localizadas), que descreve no tempo a evolução da função de onda do sistema (também chamada de “função de estado”).

Então, na escala do macroscópico, portanto, baseados na física clássica, temos a seguinte equação dinâmica para cada partícula, a qual nos permite descrever a órbita da partícula de uma forma determinística:

forçanewton

 

Agora, na escala do microscópico, devido a mecânica quântica introduzir um aspecto probabilístico intrínseco às partículas do sistema, a evolução do sistema físico é descrita por uma equação dinâmica baseada na probabilidade dos diversos estados possíveis de observação, pois, os objetos quânticos não possuírem propriedades reais intrínsecas, mas apenas propriedades potenciais. Assim, embora a descrição da evolução do sistema seja probabilística, sua descrição matemática dada pela Equação de Schrödinger é determinista:

quanticapotencial

Encontradas as equações de movimento, é necessário conhecermos então as forças envolvidas (ou potenciais) na interação das partículas entre si e com o meio externo. Essencialmente, temos as forças gravitacional e eletromagnética (e as forças forte e fraca se olharmos para as interações nucleares e subnucleares). Tendo, então, todos os ingredientes físico-matemáticos necessários para modelar o sistema físico, agora deveremos mensurar as grandezas do sistema. 

.____________________________________________________________________________________

Áreas de Pesquisa

As discussões existentes a respeito dos conceitos clássicos estão enquadradas em algumas áreas de pesquisa com nomes às vezes bastante complexos, como o exemplo da ‘dupla fenda‘ (que envolve a questão da dualidade onda-partícula), o ‘paradoxo de EPR‘ (que abrange questões como a desigualdade de Bell, o problema da completeza e os experimentos de correlação de polarização) e o ‘problema de medida‘ (no qual se discute o colapso do pacote de ondas e o paradoxo do gato), entre outros.  

Cada um dos conceitos fundamentais discutidos entre os adeptos das duas escolas – a clássica e a de Copenhagen – pode ser aplicado a uma ou mais dessas áreas de estudo. Neste artigo, discutiremos as três citadas aqui (o experimento da dupla fenda, o problema da medida e o paradoxo de EPR). Antes de abordarmos cada uma delas, porém, apresentaremos uma critica básica que frequentemente se faz contra a interpretação de Copenhagen. 

Essa interpretação rejeita os três conceitos fundamentais (realismo, localidade e trajetórias bem definidas) que, até o advento da teoria quântica, eram paradigmas da Física. Bohr disse que o micromundo não é compreensível no sentido clássico ou que não há qualquer razão a priori para que o micromundo satisfaça a nossa intuição. Isso equivale a dizer que nossa intuição, que evoluiu durante milhões de anos de interação com o macromundo, não seria válida  para imaginar o micromundo.

O posicionamento frequente da interpretação de Copenhagen sobre muitas questões é o de não respondê-las, afirmando que tais questões são inválidas, estão erradas. Para seus adeptos, a realidade física  simplesmente não é compreensível no sentido sugerido pela questão. Essa escola rejeita os conceitos existentes, mas não os substitui por novos. Um posicionamento, então, que estabelece que certas questões são inválidas e que não se pode mais compreender a realidade física, não é de modo algum satisfatório. Ele nos deixa pouco à vontade e costuma ser acusado de dogmático, de não encorajar o questionamento e o desenvolvimento científico.

O que é relevante é saber se a interpretação é correta ou não. Isto é, se é realmente necessário abandonarmos certos conceitos e concepções estéticas sobre como gostaríamos que fosse o mundo físico para que possamos explicar o micromundo.

___________________________________________________________

8ec852befc2743d27aeae9c2e0681a15

Max Born

OBJETIVIDADE E SUBJETIVIDADE

___________________________________________________________

“Geralmente estamos convencidos de que entre as várias experiências, tanto pessoais como impessoais, existem algumas que compartilhamos com nossos colegas. Quando minha esposa tem uma dor de dentes, então isso é uma experiência ‘subjetiva’ dela. Não obstante eu possa imaginar sua dor e mesmo mostrar minha simpatia, não sinto essa dor. Mas se ela diz: ‘Veja como o céu está azul hoje’ e eu concordo, então fico convencido de que vemos o mesmo ‘azul’; esta é uma experiência ‘objetiva’, compartilhada com qualquer um que esteja olhando o céu. Apesar disso, não há realmente nenhuma diferença: você vê o ‘seu azul’, eu vejo o ‘meu azul’ e não há um meio de conseguir que eu veja o seu azul e você veja o meu. Como nos convencemos de que estamos vendo a mesma coisa?

Em primeiro lugar, somos feitos como todos os outros animais. O inseto, que voa em direção a uma flor, é atraído pela cor, pelo perfume e pela forma, da mesma maneira como todos os outros insetos. A mesma coisa ocorre aos seres humanos na vida quotidiana. Uma observação que impressione um de nossos sentidos, tal como a vista do azul do céu, é um caso relativamente raro; em geral, mais de um dos sentidos são impressionados de forma que, a observação das coisas que são perceptíveis aos diferentes sentidos, nos chega sem nenhum esforço consciente.

Mas, há um outro ponto importante: não obstante uma simples impressão sensorial seja completamente subjetiva e não comunicável, o mesmo não se dá quando temos duas impressões no mesmo órgão sensitivo.

Existem muitas tonalidades do azul; por exemplo, pálido, escuro, avermelhado e esverdeado. Se duas dessas tonalidades são observadas por duas pessoas, é quase certo que haverá acordo entre elas sobre se as tonalidades são as mesmas ou distintas. Assim, podemos classificar as impressões sensoriais como pertencentes à classe das experiências objetivas, desde que consideradas aos pares. Sobre este claro reconhecimento da similaridade ou não de pares de impressões sensoriais é que estão baseados todos os meios de comunicação entre as pessoas, em particular nossas linguagens escritas e faladas.

Tomemos, por exemplo, pares de letras: que AA são similares e que AB não o são, eu posso concordar com qualquer um, mesmo com alguém que não saiba como A e B são pronunciados. Assim, letras são ‘objetivas’ no sentido de que são facilmente transmissíveis. A matemática é a forma mais altamente desenvolvida de comunicação por meio de sinais que intrinsecamente não teriam sentido.

Em especial a Física, também se enveredou pelo caminho que leva ao desenvolvimento de pares de impressões sensoriais, ao invés de impressões isoladas: se o indicador de um instrumento de medida sofre uma deflexão até certo ponto da escala de medida, isso indica não só uma porção de escala que foi percorrida, mas também o valor de uma propriedade física, por exemplo, a intensidade da luz. Ou seja, a Física busca sempre a objetividade no tratar com os seus objetos de estudo. Foi então assim que a Física, aplicando o método científico com o uso da matemática como ferramenta (originando uma linguagem altamente objetiva), se tornou capaz de construir modelos da realidade natural, os quais lhe permitiram intervir na Natureza tornando-a nossa escrava.” (MAX BORN).

___________________________________________________________

Em resumo, pode-se dizer que de certo modo a interpretação de Copenhagen oferece muito pouco em termos de explicação. Quando se adota um posicionamento que frequentemente usa, de início, o argumento de que não se pode compreender essas coisas e que tais questões são inválidas, então há pouco a justificar. Por outro lado, quando se defende um retorno a conceitos e posicionamentos clássicos, uma série de dificuldades – como os resultados experimentais que parecem contrariar a validade desses conceitos – devem ser confrontadas e explicadas. Embora a estrutura matemática concreta não seja inerente a qualquer das correntes, o ônus da prova está com os que defendem um retorno aos conceitos clássicos, já que aí estão as maiores dificuldades. Na prática, é este grupo que deve demonstrar que tal retorno é possível.

Todas as áreas de estudo sobre os fundamentos da mecânica quântica, exceto o problema de medição, só representam dificuldades no contexto dos pontos de vista clássicos, e não para a interpretação de Copenhagen. O problema de medição, no entanto, é um problema especialmente sério para a escola de Copenhagen, e por isso várias tentativas diferentes vêm sendo realizadas visando a sua resolução.

O problema de Medição

A interpretação de Copenhagen defende que os objetos não possuem propriedades intrínsecas bem definidas, mas somente alguns tipos de propriedades potenciais, que só podem se manifestar em um experimento concreto. No experimento da dupla fenda, essas propriedades se manifestam na forma de propriedades tipo ondulatórias. Em experimentos de detecção, se manifestam como propriedades de partícula. Como já discutido no exemplo simplificado da moeda, a interpretação de Copenhegen considera que dois objetos absolutamente idênticos – isto é, no mesmo ‘estado’ – podem produzir dois resultados experimentais diferentes. Ou seja, esses resultados são determinados por probabilidades intrínsecas aos objetos.

Já de acordo com o ponto de vista clássico, diferentes resultados decorrem do fato de os objetos não serem absolutamente idênticos, existindo algumas variáveis ocultas que não estão sendo consideradas e que explicariam tais resultados. Essas variáveis ocultas estão relacionadas às probabilidades de erros nas medições e são chamadas de ‘probabilidades  de ignorância’, já que estão ligadas ao não-conhecimento mais detalhado do sistema em estudo. Esse tipo de probabilidade existe em toda a ciência, sendo basicamente o único tipo de probabilidade aceito até o advento da mecânica quântica.

___________________________________________________

666

MECÂNICA DAS MATRIZES

_____________________________________________

No modelo atômico proposto por Niels Bohr as órbitas eletrônicas – dispostas igualmente aos andares de um edifício de apartamentos -, ao redor do núcleo de um átomo são quantizadas, ou seja, as energias associadas a cada órbita possuem um valor de energia específico definida por números inteiros. Entretanto, ao passar de uma órbita para outra o elétron sofre um salto quântico, ao qual sempre está associado um fóton que era radiado ou absorvido, de acordo com o sentido do salto eletrônico. Sobre tais interpretações imaginativas de Bohr sobre as órbitas eletrônicas, um jovem físico alemão Werner Heisenberg conseguiu, na segunda metade da década de vinte, obter uma compreensão mais objetiva da nova questão colocada pela física atômica. Adotou então uma atitude filosófica baseada no extremo empirismo, que recusava aceitar quaisquer das imagens ou modelos da física moderna. Por exemplo, no modelo atômico de Bohr, os físicos se referiam à “posição” e ao “período de revolução” de um dos elétrons do átomo. Essas noções formavam uma herança da mecânica newtoniana e, em relação aos elétrons atômicos, eram classificadas como não-observáveis. Heisenberg  considerou   essas  “noções imaginárias”  como   sendo  algo  sem  sentido, desprovido de qualquer fundamento. Ele sugeriu o desenvolvimento duma mecânica quântica teórica, análoga à mecânica clássica, em que apareceriam apenas relações entre quantidades observáveis. A realização desse programa formava o que se conhece hoje como “Mecânica das Matrizes”, e foi aperfeiçoado com a colaboração do professor de Heisenberg, Max Born, e de Pascual Jordan. Em 1925, acometido de febre do feno, Heisenberg tirou uma licença de duas semanas e viajou para a ilha de Helgoland, ao largo da costa da Alemanha. Ali, lembrou mais tarde, a natação no mar frio e longas caminhadas na praia limparam-lhe a mente para um ataque revigorado à matemática do átomo. Apenas alguns dias depois de iniciado o passeio, fez uma importante descoberta. Com uma estranha matemática que inventou para esse fim, Heisenberg começou a perceber um meio de construir uma estrutura para a descrição do comportamento dos átomos. Essa abordagem matemática exigia uma estranha álgebra em que números multiplicados numa direção forneciam com frequência produtos diferentes dos obtidos multiplicando-se os mesmos números na direção oposta. Heisenberg voltou para Göttingen eufórico com suas descobertas nascentes e ansioso para falar sobre elas com Max Born. Este identificou a estranha matemática de Heisenberg como ÁLGEBRA MATRICIAL, um sistema que havia sido inventado na década de 1850 mas nunca fora ensinado a Heisenberg: na concepção de Heisenberg, cada átomo seria representado por uma matriz e o movimento dos elétrons no interior do átomo poderia ser representado por outra matriz. Assim, Werner Heisenberg aperfeiçoa o chamado cálculo matricial sobre bases estritamente probabilísticas, com a especial circunstância de que a matéria parece reduzir-se ao mero cálculo matemático. Pela primeira vez a IMAGEM é varrida por completo da Física. Com o cálculo de matrizes a matéria já não é partícula nem onda nem nenhuma outra coisa susceptível de descrição, mas aquilo que cumpre um puro esquema matemático regido pelos PRINCÍPIOS DE SIMETRIA. Uma matriz é uma tabela bidimensional de números. Na álgebra matricial, foram concebidas normas pelas quais duas matrizes podem ser multiplicadas uma pela outra para dar uma outra matriz e, ao fazê-lo, as matrizes obedecem a leis de multiplicação não convencionais. 

ab

Na álgebra matricial, o produto de B e A não é igual ao produto de A e B , quando na multiplicação comum de números, o produto de, por exemplo, 5 e 4 é o mesmo que o produto de 4 e 5 — ambos são iguais a 20 (Figura 3). Na concepção de Heisenberg, cada átomo seria representado por uma matriz e o movimento dos elétrons no interior do átomo poderia ser representado por outra matriz. Em três meses de trabalho intensivo, Born, Heisenberg e seu colega Pascual Jordan usaram a ideia de Heisenberg para arquitetar uma estrutura matemática coerente que parecesse abarcar todos os múltiplos aspectos da física atômica. A prestidigitação matemática de Born/Heisenberg/Jordan permitiu a previsão extremamente precisa de resultados experimentais relativos à radiação atômica.

Na concepção de Heisenberg, cada átomo seria representado por uma matriz e o movimento dos elétrons no interior do átomo poderia ser representado por outra matriz. Em três meses de trabalho intensivo, Born, Heisenberg e seu colega Pascual Jordan usaram a ideia de Heisenberg para arquitetar uma estrutura matemática coerente que parecesse abarcar todos os múltiplos aspectos da física atômica. A prestidigitação matemática de Born/Heisenberg/Jordan permitiu a previsão extremamente precisa de resultados experimentais relativos à radiação atômica.

Assim, Heisenberg se opunha às imagens transitórias com seus mecanismos desconhecidos utilizadas no Modelo Atômico de Bohr. Ele reconhecia que, na observação experimental dos átomos, somente os níveis energéticos discretos “estacionários” podiam ser estabelecidos. Não determinamos experimentalmente os detalhes do que ocorre quando um elétron atômico muda dum estado a outro, como também não decidimos se o elétron descreve uma órbita no sentido clássico ou se comporta como uma onda estacionária ao redor do núcleo. Qualquer modelo explanatório que possamos construir só pode ter a finalidade duma melhor compreensão, representando apenas uma especulação. Contudo, é óbvio que, não sendo observadas certas circunstâncias, esses modelos podem mesmo levar à confusão. Por outro lado, uma certa regularidade na forma das transições entre os níveis energéticos discretos pode ser estabelecida experimentalmente, na qual o “estado fundamental” do átomo ocupa um papel prioritário. 

Niels Bohr caracterizava esse estado fundamental como o orbital eletrônico de menor diâmetro. Como se pode ver no esquema da figura acima, as órbitas eletrônicas de Bohr e os possíveis saltos eletrônicos entre elas podem ser representados por uma simples MATRIZ dos níveis energéticos e as respectivas transições. Os níveis energéticos E1, E2, E3, etc. são sempre escritos vertical e horizontalmente. Dessa maneira, é formada uma estrutura como um tabuleiro de xadrez: uma disposição de quadrados na qual os “elementos” são ocupados por pares de figuras como 11, 12, 25, 37, … (lê-se como “um-um”, “um-dois”, “dois-cinco”, “três-sete”, etc.). Essas estruturas formais representam um sistema que o matemático chama de MATRIZ. A primeira figura de cada par representa a “linha” da matriz e a segunda figura, a “coluna”, estando então, o elemento “43” na posição especificada pela interseção da quarta linha com a terceira coluna.

A mecânica de matrizes interpreta essa figura “43” como uma energia, e faz o mesmo para todos os outros elementos. Nesse caso, ela representa a transição do quarto nível energético ao terceiro. Como sabemos que um átomo perde energia nesse processo, temos então a radiação de um fóton. A energia do fóton é dada pela diferença (E4 – E3) e sabemos pela lei de Planck que ela pode ser escrita como  onde corresponde à frequência de transição. Podemos formar a matriz completa da seguinte forma: os estados energéticos estacionários discretos serão representados pelos elementos da diagonal 11, 22, 33, etc. … sendo que os demais elementos representarão as transições entre os estados de energia. Consideremos ainda uma vez uma ideia de Albert Einstein, de que a especificação duma frequência ( ,  ,  , etc.) para cada elemento fora da diagonal duma matriz de energia deve corresponder também à especificação duma “probabilidade de transição”. Esta é uma quantidade que representa a probabilidade dum elétron sofrer uma transição dum estado energético a outro. Desse modo, a teoria quântica absorvia também a estatística. A estatística aparecia pela primeira vez na formulação matemática inicial da expressão para as probabilidades de transição entre os níveis energéticos. Os pormenores desse problema foram desenvolvidos sob orientação de Max Born na universidade de Göttingen, por físicos como R. Ladenburg, H. A. Kramers e W. Heisenberg.

Com respeito ao acabamento do desenvolvimento da MECÂNICA DAS MATRIZES, podemos citar as próprias palavras de Max Born: O período de tentativas chegou subitamente ao fim, com o trabalho de Heisenberg, que era meu assistente naquele tempo. Ele cortou o nó górdio com um princípio filosófico novo e substituiu o raciocínio por uma regra matemática. Em essência, o princípio significava que noções e conceitos que não correspondessem a nenhum fato fisicamente observável não poderiam ser usados em qualquer descrição teórica. Heisenberg rejeitava o conceito de órbitas eletrônicas com raios definidos e períodos de revolução porque esses valores não eram observáveis, e recomendava que a teoria fosse construída por meio de MATRIZES.

___________________________________________________

Essa é uma diferença extremamente fundamental. Enquanto a interpretação de Copenhagen vê o conceito de ‘estado quântico’ como uma propriedade de um objeto individual, a escola clássica acredita que tal conceito descreve uma propriedade de um conjunto de objetos (chamado de ensemble) preparados de um mesmo modo. No ponto de vista de Copenhagen, esse estado quântico é individual, tornando os objetos idênticos, enquanto no ponto de vista clássico admite-se desde o início a ignorância das propriedades exatas dos objetos individuais, e diz-se que esse estado só fornece uma informação média a respeito do conjunto (ensemble) de objetos.

Podemos contrastar as duas concepções do estado quântico de um sistema através de um exemplo concreto: o experimento que utiliza um espelho semitransparente (figura 2). Uma partícula (no caso, um fóton) deixa a fonte e incide sobre o espelho, podendo seguir dois caminhos distintos, conforme seja refletida ou atravesse o espelho. Considerando que o espelho é rigorosamente semitransparente, existe uma probabilidade de 50% de que a partícula siga qualquer um dos caminhos e seja detectada no contador A ou B (mas nunca em ambos). A previsão matemática fornecida pela mecânica quântica para os resultados desse experimento é a mesma nos dois pontos de vista, o de Copenhagen e o clássico, embora a interpretação física sobre como isso ocorre seja fundamentalmente diferente.

____________________________________________________________________________________________

28380989_1596241000491466_812703042_n

Figura 2. Problema de Medição. Uma fonte emite fótons sobre um espelho semitransparente. Metade deles é refletida, seguindo em direção ao detector A, e a outra metade atravessa o espelho, seguindo em direção ao detector B. Cada fóton deve ser registrado no respectivo contador. Segundo a interpretação de Copenhagen, o estado de cada fóton, até o instante imediatamente anterior à detecção, é uma superposição dos dois resultados possíveis. No imediato instante da detecção, esse estado superposto colapsa em um de seus componentes: ou detecção em A ou em B. As equações da mecânica quântica, porém, falham ao tentar formalizar esse colapso. As linhas pontilhadas podem ser consideradas representações simplificadas de trajetórias apenas sob o ponto de vista clássico.

____________________________________________________________________________________________

O formalismo matemático diz que cada partícula é preparada em um estado idêntico – (Y) – e que metade das partículas será detectada em cada um dos dois contadores (em função do nosso arranjo experimental). Esta é uma previsão estritamente probabilística. O formalismo não prevê para onde irá cada partícula individualmente. Ele só pode prever qual porcentagem de partículas – se repetirmos o experimento muitas vezes – irá para cada um dos contadores, desde que todas as partícula sejam sempre preparadas no mesmo estado (Y).

O termo ‘estado idêntico’ possui significados inteiramente diferentes nos dois pontos de vista. Os adeptos do ponto de vista clássico dizem que em (Y) não estão incluídos todos os atributos reais da partícula, sendo (Y) uma conveniência que utilizamos diante de nossa ignorância em relação às propriedades individuais (e portanto os estados das partículas não seriam rigorosamente idênticos). Se conhecêssemos as propriedades, então poderíamos prever com precisão em qual dos contadores cada partícula individual seria detectada. Para a interpretação de Copenhagen, por sua vez, (Y) representa a informação máxima possível, não existindo, em princípio, informação mais detalhada, já que os objetos não possuem propriedades reais intrínsecas, apenas potencialidades. Todas as partículas são idênticas mas, quando medidas, cada uma manifesta o seu potencial de ser detectada em um ou outro detector.

Por que a questão da medição é problemática para a interpretação de Copenhagen?

Primeiramente, deve-se enfatizar que parte dessa escola assevera que as propriedades possíveis, medidas no objeto, só se tornam concretas no exato instante em que a medida é realmente efetuada: quais são as propriedades de um objeto, entre a preparação do estado e a medição, não é parte do domínio de validade da física.

Portanto, temos – retornando à figura 2 – que até a medição, isto é, até o instante em que a partícula é detectada em um contador, nada pode ser dito em relação a ela, segundo o ponto de vista de Copenhagen. Se uma partícula é detectada em um certo instante de tempo no contador A,  não se pode dizer que ela estava realmente percorrendo o caminho A no instante imediatamente anterior à detecção. Pode-se dizer apenas que a partícula pode ser potencialmente detectada em ambos os detectores, estando, de algum modo, potencialmente em ambos os caminhos. No instante da detecção essa potencialidade de estar em ambos os caminhos se funde (ou se colapsa) em um único caminho (deve-se enfatizar que as distâncias entre os detectores podem ser arbitrariamente grandes).

___________________________________________________________

Heisenberg

IDEALISMO versus REALISMO

___________________________________________________________

“Qualquer modelo explanatório que possamos construir da realidade atômica só pode ter a finalidade duma melhor compreensão, representando apenas uma especulação. Portanto, à luz da ‘interpretação de Copenhagen’ da teoria dos quanta, mesmo a oposição tradicional entre ‘realismo’ e ‘idealismo’ não pode mais ser empregada e as teorias tradicionais do conhecimento fracassam. Assim, quando se tenta penetrar nos pormenores dos processos atômicos que se ocultam atrás da realidade de nosso ambiente diário, os contornos do mundo objeto-real se dissolvem não nas névoas de uma nova imagem obscura da realidade, mas na clareza diáfana de uma matemática que conecta o possível (e não o ‘factual’) por meio de suas leis.” (HEISENBERG).

___________________________________________________________

Esse colapso é, em algum sentido, físico? Devemos abandonar todo tipo de visualização física em que é possível dizer que a partícula está num determinado lugar, e não em outro qualquer?

Na realidade, essas são questões consideradas válidas do ponto de vista clássico, mas não está bem claro se necessariamente representam um problema para a escola de Copenhagen, uma vez que é possível, para essa escola, argumentar consistentemente que são questões baseadas em nossas macro-intuições inválidas. O problema, porém, está na estrutura matemática das equações de evolução do sistema (objeto e aparelho) no formalismo quântico. A equação que descreve a evolução de um sistema é chamada ‘equação de Schrödinger’ e simplesmente falha no momento da medição, isto é, não descreve corretamente o processo de medição. Esta falha está fortemente associada ao ‘colapso dos caminhos’ descritos, e torna necessário, dentro da interpretação de Copenhagen, um tratamento especial para o processo de medição (interação objeto-aparelho), mas não tem havido concordância entre os seus adeptos sobre como levar a cabo tal tratamento (ver ‘O paradoxo do Gato’).

__________________________________________________________________

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

____________________________________________________________________________________________

_____________________________________________________________

__________________________________________________________________________________________________________________________

O Paradoxo do Gato

gato

__________________________________________________________________________________________________________________________

Schrödinger, em uma tentativa de criticar a posição de Copenhagen a respeito do problema de medição, imaginou a seguinte experiência, que resultou no famoso ‘famoso paradoxo do gato’. É precisamente a situação descrita na figura 2, só que aplicada a um macro-objeto: um gato. um gato preso no interior de uma caixa juntamente com um frasco de veneno mortal e um mecanismo de disparo tal que, ao final de uma hora, haja 50% de probabilidade de que o frasco tenha se partido, liberando o veneno e matando o gato. Uma hora mais tarde, abre-se a caixa para ver se o gato está vivo ou morto. O formalismo quântico nos fornece uma previsão acerca da porcentagem de gatos vivos e gatos mortos, quando o mesmo experimento é repetido identicamente muitas vezes, mas não pode dar qualquer previsão concreta sobre o que ocorre com um gato isoladamente. Essa teoria prevê, em função da maneira como montamos o experimento, que em metade dos casos os gatos estarão vivos e na outra metade estarão mortos.

Mas a questão não é tão simples. Existem muitos problemas nesse experimento imaginário. Em primeiro lugar, qual momento deve ser considerado o instante exato da medição? Quando o frasco se quebra ou quando abrimos a caixa? Se é no segundo caso, podemos concluir que o gato, antes de abrirmos a caixa, estava de algum modo simultaneamente semivivo e semimorto, ou seja, as duas possibilidades eram válidas até o exato instante em que efetivamente registramos a medição (em exata analogia com o experimento do aparelho semitransparente)?

Existe pouca concordância entre os adeptos da posição de Copenhagen. Alguns dizem que gatos são objetos macroscópicos, sendo inválida a aplicação da mecânica quântica nessa situação. Outros replicam dizendo que esse argumento abre outra questão, porque nesse caso a mecânica quântica não fornece – como deveria – qualquer indicação da ligação entre os mundos macro e microscópico, e assim por diante. Pode-se ver claramente que esse experimento não apresenta problemas para a escola clássica, uma vez que –  segundo tal escola – o estado quântico é tomado como representando apenas uma descrição probabilística. Assim, do ponto de vista clássico, o veneno será liberado de acordo com leis desconhecidas, mas deterministas: se for liberado, então o gato morrerá naquele instante; se não for, o gato permanecerá vivo. 

__________________________________________________________________

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

__________________________________________________________________ 

DR. QUANTUM E O EXPERIMENTO DA DUPLA FENDA

______________________________________________________________________

Analisando o experimento da dupla fenda no vídeo acima, o Dr. Quantum adota um ponto de vista clássico, realista, na descrição do deslocamento do elétron ao longo de sua “trajetória” até encontrar a parede detrás, passando antes pelas fendas. Entretanto, a interpretação da mecânica quântica dada pela Escola de Copenhagen – a qual está fundada no anti-realismo (não realismo) dualista (onda-partícula), baseado na exclusão mútua constituída pelo Princípio da Complementaridade de Niels Bohr -, reprova todo este exercício de imaginação, ou seja, a “trajetória” ou a “localização” do elétron no tempo e no espaço não é um observável.

____________________________________________________________________________________________

O Experimento da Dupla Fenda

Retornando ao experimento da dupla fenda, descrito  na figura 1, vamos discutir algumas de suas consequências. No experimento, uma partícula deixa a fonte e é posteriormente detectada em um dos contadores. A mecânica quântica prevê qual a porcentagem de partículas que cada contador detectará, se o mesmo procedimento for repetido com muitas partículas. A teoria fornece a distribuição das partículas pelos contadores, e essa distribuição, como vimos, apresenta um padrão de fenômeno ondulatório, embora o que se detecta sejam partículas. Pelo ponto de vista de Copenhagen, porém, a própria palavra partícula já distorce a nossa imagem do que acontece dentro do aparelho.

Esse experimento, porém, gerou mais controvérsia quando foi realizado em três variações: em primeiro lugar, com a fenda A aberta e a fenda B bloqueada (ou seja, nenhuma partícula poderia passar pela fenda B); em segundo, com a fenda A fechada e a fenda B aberta; e, terceiro, com ambas as fendas abertas. Cada um desses experimentos foi repetido com muitas partículas, e verificou-se sempre que existem contadores em que chegam menos partículas, quando as duas fendas estão abertas, do que quando qualquer uma delas está bloqueada. Em outras palavras, a abertura de uma segunda fenda faz com que menos partículas cheguem em certos contadores (e mais em outros – o número de partículas é sempre conservado).

Se a distribuição de partículas nos contadores, quando ambas as fendas estão abertas, não é igual à soma das distribuições ocorridas nas duas variações, quando cada uma das fendas está fechada, isso quer dizer que há alguma interferência. Podemos imaginar, por exemplo, um determinado contador em que 80 partículas chegaram com uma fenda fechada, mas que recebeu apenas 40 quando ambas estavam abertas. De algum modo, a abertura da outra fenda fez com que essas partículas fossem para outro lugar. Pensando em termos clássicos, isso significa que a partícula que passa por uma fenda, seguindo uma trajetória definida, recebe algum tipo de interferência que a faz ‘saber’ se a outra fenda está aberta ou não.

Esse é o cerne das dificuldades para a interpretação clássica, a questão que precisa ser explicada por seus adeptos. Como uma partícula que passa por uma fenda ‘sabe’ se a outra está aberta ou fechada? Quando buscamos uma explicação clássica para essa questão, nos confrontamos com sérios problemas.

Poderíamos tentar argumentar que uma partícula passa através de uma  fenda, mas seu comportamento é afetado pelo fato de a outra fenda estar aberta ou não através de algum campo desconhecido. Isso é muito difícil de ser sustentado diante do que se descobriu alterando o experimento. Podemos bloquear a fenda com qualquer material, desde um pedaço de papel até uma grossa placa de chumbo. Podemos bloqueá-la de vários modos, em várias posições à frente ou atrás da mesma. Podemos também deixar o mesmo pedaço de papel ou de chumbo próximo à fenda, sem contudo bloqueá-la. Esses experimentos mostraram que a distribuição de partículas pelos contadores é completamente insensível à maneira como bloqueamos a  fenda, dependendo apenas do fato  de ela estar aberta ou não.

Em resumo, é muito difícil imaginar como o comportamento de cada partícula (no sentido clássico, de um corpúsculo) pode ser afetado pela outra fenda através da qual ela não passaria, quer estivesse  aberta, quer fechada. Num ponto de vista corpuscular, é um profundo problema apreender o que está interferindo. Costuma-se dizer que o que interfere são as várias possibilidades que a partícula pode assumir.

Classicamente, esse experimento é facilmente compreendido de um ponto de vista ondulatório. Imaginamos uma onda ao invés de uma partícula, algo como uma onda na superfície de um tanque d’água. Parte dela passa através de uma fenda e parte através de outra. Então, elas se reúnem de tal modo que produzem a distribuição de detecções observada no caso das partículas. Aqui é claro o que é que está interferindo: são as ondas. Interferem do mesmo modo que as ondas do mar quando superpostas.

Mas tal visualização tem um problema. As detecções são sempre discretos eventos individuais, com pulsos de energia. Mesmo quando os contadores são colocados bem juntos às fendas, continua a ser registrada, de cada vez, uma detecção em apenas um dos detectores, e não em vários, como seria de se esperar no caso de uma onda. Deve também ser enfatizado que os efeitos de interferência são observados não apenas com a luz (fótons), mas com elétrons, nêutrons e mesmo átomos, que acreditamos com certeza serem partículas. Esse problema é, obviamente, conhecido como o ‘problema da dualidade onda-partícula’. Os objetos do micromundo manifestam propriedades que são satisfatoriamente compreendidas fisicamente como ondas, em certos experimentos, e como partículas, em outros.

A escola de Copenhagen contornou essa dificuldade reiterando que os objetos não possuem propriedades intrínsecas, mas somente propriedades potenciais, que se manifestam apenas em um dado contexto experimental. Os objetos têm atributos tipo-onda e tipo-partícula, dependendo do experimento. Parece não ter significado  para a interpretação de Copenhagen  tentar fazer uma imagem física de um objeto entre a sua criação e sua detecção. Parece esse ponto de vista, a questão “por qual das fendas a partícula passou?” é uma questão inválida. Esse experimento foi provavelmente a razão principal que levou a escola de Copenhagen a assumir a posição não-realista.

__________________________________________________________________

zzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzz

__________________________________________________________________

A Interpretação Não-Ergódica

Por mais de uma  década, um dos autores (Buonomano) pesquisou uma tentativa estritamente clássica de confrontar as dificuldades conceituais relacionadas à mecânica quântica. Esse ponto de vista alternativo é chamado interpretação não-ergódica (ou, abreviadamente, NEI). Tal interpretação tem a mesma estrutura matemática das demais, mas aplica as previsões matemáticas para médias em tempo, e não para médias sobre um ensemble (daí a denominação não-ergódica).

Podemos descrever a ideia física básica usando o experimento da dupla fenda, descrito na figura 1. A dificuldade fundamental (do ponto de vista clássico) nesse experimento – rememorando – é entender como uma partícula que passa por uma fenda ‘sabe’ se a outra fenda está aberta ou fechada. NE postula que existe um meion preenchendo todo o espaço e, quando uma partícula passa por uma certa região, afeta as propriedades do meio nessa região e vice-versa. Foi constatado experimentalmente que só há interferência quando as partículas que passam pelas fendas podem passar por uma região comum perto dos contadores. Assim, NEI supõe que uma partícula que passa por uma fenda ‘sabe’ se a outra está aberta ou fechada pela informação existente, ou não, nessa região comum. Isto é, as partículas se comunicam através de efeitos de memória no meio. Podemos dizer, em NEI, que uma partícula interfere apenas indiretamente, mediante tais efeitos, com outras partículas que venham a atravessar, posteriormente, a mesma região.

Uma vantagem de NEI sobre quase todas as outras interpretações alternativas é o fato de que – como diria o filósofo K. Popper – ela é falsificável. A razão é que é intrínseco a esse ponto de vista o fato de que só poderia haver interferência quando uma sequência de partículas passasse pelo mesmo aparelho. Em outras palavras, a comunicação só ocorreria depois que uma partícula atravessasse a região comum e deixasse ali os efeitos de memória postulados. Assim, tais efeitos apareceriam, nos experimentos, apenas para médias em tempo.

É importante saber que todas as outras interpretações, incluindo a de Copenhagen, postulam uma média sobre um conjunto (ensemble) de partículas, mas os experimentos só permitem médias em tempo. Podemos dizer, portanto, que a maneira estritamente correta de se fazer o experimento da dupla fenda seria usar muitas cópias idênticas do mesmo aparelho e deixar que apenas uma partícula passasse em cada um deles. Obteríamos, assim, a verdadeira média sobre o ensemble. NEI prevê claramente que nesse caso não pode existir interferência, e isso fornece a possibilidade de testar experimentalmente essa interpretação.

Por razões práticas e econômicas, só são factíveis experimentos que permitem a obtenção de médias por tempo (um só aparelho com uma sequência de partícula). No entanto, em experimento que utilizou um interferômetro de nêutrons, J. Summhammer, do Atominstitut der Österreichischen Universtäten, de Viena, fez um teste crucial de NEI, baseado numa variação do experimento de dupla fenda. Ele imaginou uma situação na qual uma das fendas é aberta e fechada de forma contínua e aleatória, e dividiu em três grupos todas as partículas detectadas em qualquer dos contadores: no grupo 1, apenas a primeira partícula detectada depois que a fenda é fechada, a cada vez que isso acontece; grupo 2, apenas a primeira partícula detectada depois que a fenda é aberta, a cada vez que a abertura ocorre; e o grupo 3, as partículas restantes.

Este último grupo pode ser ignorado, já que permitiria apenas uma média sobre a sequência de partículas no tempo, o que o experimento quer evitar. Considerando essas novas condições, a interpretação de Copenhagen, prevê que devemos observar um padrão de interferência no grupo 2 (partícula detectada a cada vez que a fenda abre) e nenhuma interferência no grupo 1 (detectada assim que a fenda fecha). Já segundo a NEI, a informação que uma partícula recebe ao atravessar a região comum é sempre parcialmente errada, já que a fenda está aleatoriamente aberta ou fechada. Então esse ponto de vista prevê que devemos observar um certo grau de interferência fraca entre as partículas dos dois grupos. O experimento deu resultados claros em favor da interpretação de Copenhagen, eliminando NEI.

____________________________________________________________________________________________

zzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzzz

___________________________________________________________________________________________

Existem várias tentativas clássicas de resolver esse problema fundamental. Uma das mais conhecidas é a ‘teoria da dupla solução’, desenvolvida por De Broglie. Ele simplesmente propõe que partículas e ondas coexistem, que cada partícula é acompanhada por uma onda que a guia. No experimento da dupla fenda, podemos então imaginar que a partícula atravessa uma das fendas, enquanto a onda passa através de ambas, dividindo-se. Assim, a partícula é guiada pela onda que resulta da interferência dessas duas partes que atravessaram fendas distintas. Uma outra posição é a ‘interpretação causal’, inicialmente desenvolvida por Bohm. Esse ponto de vista rejeita a localidade, mas acredita em realismo e na trajetória de partículas no sentido clássico. Segundo seus defensores, a partícula segue um determinado caminho mas, instantaneamente, em virtude de interações não-locais, conhece todo o aparato experimental e, portanto, sabe se as duas fendas estão abertas ou não. Alguns acreditam ainda que uma certa classe de partículas é muito grande (pelo menos tão grande quanto o aparato, a fim de conhecer o estado de ambas as fendas) até o instante em que são medidas, quando então se aglutinam. Outros, ainda, tentam imaginar que exista uma interação indireta entre  partículas consecutivas, graças a uma hipotética memória na região de interferência (ver ‘interpretação não-ergórdica’).

É impossível subestimar a importância conceitual desse experimento. Nele encontramos embutida a essência dos problemas relativos aos fundamentos da teoria quântica.

____________________________________________________________________________________________

einstein_podolsky_rosen

____________________________________________________________________________________________

O Paradoxo de Einstein-Podolski-Rosen

A área associada com os nomes ‘paradoxo de Einstei-Podolski-Rosen’  e ‘desigualdade de Bell’ é, indubitavelmente, a mais importante nos dias de hoje, porque ela fornece experimentos concretos que nos auxiliam a decidir entre pontos de vista opostos. Em princípio, é possível dizer que nenhuma teoria realista-local pode concordar com as previsões do formalismo da mecânica quântica em certos experimentos ideais. Na prática não se pode dizer tanto, uma vez que experimentos reais sempre envolvem hipóteses adicionais.

Um dos experimentos de maior importância nessa área, por permitir muitas conclusões relevantes, é o experimento de correlação de spin (figura 3). Nesse experimento, uma fonte emite partículas sempre em pares e em direções exatamente opostas. Essas partículas podem ou não ser posteriormente detectadas nos contadores A e B, colocados um de cada lado do aparato experimental, caso passem pelos polarizadores A e B, colocados entre a fonte e os contadores. Os polarizadores podem ser ajustados com ângulos escolhidos. Em condições ideais, existem apenas duas possibilidades em cada lado – ou a partícula passa através do respectivo polarizador ou não passa (para simplificar, o termo polarizador pode ser pensado como sendo uma caixa preta com parâmetro, ou ângulo, ajustável). Sabemos se uma partícula passa porque ela é detectada no contador; se não passar, nenhuma detecção será registrada.

___________________________________________________________________________________________

pola

Figura 3. Experimento de correlação de polarização. Uma fonte emite pares de partículas, criadas sob alguma lei de conservação, em direções exatamente opostas. As partículas atingirão os polarizadores A e B, passando ou não através deles. Se uma partícula passa por um polarizador, então ela será detectada pelo contador correspondente. O que é medido no experimento é a correlação entre as contagens nos dois contadores, em função dos ângulos escolhidos para os polarizadores A e B. As linhas pontilhadas podem ser consideradas representações simplificada de trajetórias apenas sob o ponto de vista clássico.

___________________________________________________________________________________________

O que se mede nesse experimento é a correlação entre as contagens nos dois contadores, isto é, se a cada emissão de partículas são registradas contagens em ambos os contadores, em apenas um ou em nenhum deles. Como sempre, o experimento deve ser repetido muitas vezes, e deve ser realizado para vários ângulos de polarização (ou parâmetros de caixa-preta), sempre com a missão de uma grande quantidade de pares de partículas para cada configuração do aparato experimental.

O físico J. S. Bell desenvolveu uma caracterização matemática para as previsões de qualquer explicação teórica realista-local quanto aos resultados da versão ideal desse experimento (ver ‘A desigualdade de Bell’). E, com isso, mostrou que tais previsões não podem concordar com as previsões feitas a partir do formalismo quântico.

VÁCUO QUÂNTICO E A ORIGEM DA MATÉRIA

______________________________________________________ 

O vacuo clássico é dito um espaço vazio, inerte e insensível a qualquer estímulo externo. O VÁCUO QUÂNTICO, porém, que se diz também um espaço sem matéria e radiação, é pleno de flutuações quânticas sensíveis a ESTÍMULOS EXTERNOS.

Se o vácuo absoluto realmente existisse, ele contrariaria o Princípio da Incerteza, de Werner Heisenberg. Isso porque os campos eletromagnéticos e gravitacionais seriam zero, o que equivale a dizer que a posição e a velocidade de uma partícula seriam iguais a zero. Ou seja, ambas estariam determinadas, contrariando o postulado do Princípio da Incerteza. Ao contrário do que se entende comumente, o vácuo é cheio de partículas potenciais, pares de matéria e antimatéria virtuais, que estão sendo constantemente criadas e destruídas. Elas não existem como entidades observáveis, mas exercem pressão sobre outras partículas (Efeito Casimir).

A criação de pares virtuais de partículas não viola a lei da conservação da massa/energia porque elas existem em intervalos de tempo muito pequenos, muito menores do que o tempo de Planck, de forma que não causam impacto nas leis macroscópicas. O vácuo quântico é o estado mais baixo de energia conhecido no universo (ao invés do que seria o Zero absoluto).

Se o átomo fosse do tamanho do Estádio de Futebol do Maracanã, seu núcleo seria do tamanho de uma “bolinha de gude” e os seus elétrons seriam “partículas de poeira”. Só que todo esse espaço restante não é totalmente vazio e sim ocupado por campos gravitacionais e eletromagnéticos, ou seja, por pequenas flutuações quânticas de energia do vácuo. Conforme The Weight of the World Is Quantum Chromodynamics, as partículas que formam o núcleo do átomo, os prótons e os nêutrons, são formados cada um por três quarks. Ocorre que esses três quarks juntos respondem apenas por 1% da massa de todo os prótons ou nêutrons. Entretanto, os glúons que mantêm os quarks unidos, existem devido às flutuações do vácuo quântico, ou seja, a matéria dita virtual é originada pelas flutuações de energia do vácuo quântico: mesmo que a massa dos quarks fosse eliminada, o massa do núcleo não varia muito, daí se configurando um fenômeno chamado de MASSA SEM MASSA.

O mecanismo de Higgs, então, é destinado a explicar a massa de tudo, certo? A resposta é não, pois, tal mecanismo responde muito mais pelas partículas fundamentais, sendo o caso, por exemplo, dos elétrons que derivam sua massa inteiramente da interação de Higgs. Entretanto, prótons e nêutrons, feitos de quarks, possuem, como vimos acima, outro mecanismo que explica suas massas: de fato, as massas dos quarks são tão pequenas que só representam cerca de 1% da massa do próton (e uma fração similar do nêutron). O resto da massa vem da energia no campo de glúons. Glúons são sem massa, mas há tanta energia no campo que, por E = mc² , se verifica uma quantidade significativa de massa em tal campo. Assim, desta energia, então, se gera a maior parte da massa dos nucleons e, portanto, a massa de praticamente tudo ao nosso redor.

_____________________________________________________________

Consideramos como teoria realista-local – recapitulando – qualquer teoria em imaginamos que os objetos têm qualidades e atributos intrinsecamente bem definido. Descrevendo o experimento sob esse ponto de vista, as partículas deixam a fonte com trajetórias bem definidas e chegam aos polarizadores, passando por eles ou não. Para que uma dada partícula passe ou não, ela depende apenas de suas propriedades intrínsecas e das propriedades do ambiente, do polarizador e do contador naquele dado instante de tempo. A partícula pode depender de eventos distantes, mas deve sempre haver um intervalo de tempo para que informações associadas a esses eventos distantes cheguem a ela. Assim, uma partícula situada em um lado do aparelho, passando ou não pelo polarizador, pode depender dos parâmetros (ou ângulos de polarização) adotados do outro lado, mas algum tempo deve passar – isso é fundamental em uma teoria local – para que as informações sobre esses parâmetros a atinjam. Em uma teoria não-local, porém, um lado do aparato ‘sabe’ instantaneamente de qualquer mudança de parâmetros do outro lado. A teoria local é fisicamente o tipo de teoria considerada por Bell na caracterização e derivação de sua desigualdade.

Para que esse experimento seja ideal, os parâmetros (ângulos) devem ser mudados rapidamente e de forma aleatória, de modo que uma partícula de um lado nunca possa saber o valor, naquele dado instante, do parâmetro do outro lado. Essa condição ideal nos permite realizar testes de interpretação da escola de Copenhagen versus teorias realistas-locais, desde que os parâmetros sejam alterados rápido o bastante para eliminar qualquer possibilidade de comunicação (não-instantânea) entre os dois lados.

Até hoje, foram realizados cerca de 15 experimentos desse tipo e, com exceção de dois, todos concordaram com as posições da escola de Copenhagen para a mecânica quântica. No entanto, apenas um (o terceiro experimento de Aspect) foi realizado de modo quase equivalente às condições ideias, testando as teorias clássicas pelo menos para informações que se propaguem com velocidades até a da luz – esse experimento é considerado por muitos como conclusivo, a favor da não-localidade. Mesmo assim, é preciso levar em conta que a eficiência dos detectores também é considerada muito baixa, de modo que somente uma pequena percentagem dos eventos é registrada, o que leva a algumas escapatórias conceituais.

Tudo isso torna mais difícil dar um peso objetivo a esses experimentos. Para alguns cientistas, parece absolutamente claro que devemos rejeitar, na mecânica quântica, um dos conceitos clássicos: ou realismo ou localidade. Para outros, que se recusam a abandonar tais conceitos, parece igualmente óbvio que os experimentos estão apontando para algum fenômeno novo na física, que ainda não compreendemos.

Entre os que acreditam ser necessário abandonar ou realismo ou localidade, a preferência quase unânime é a de manter o realismo. Em todo caso, podemos concluir que, no mínimo, os resultados desses experimentos representam uma formidável evidência contra a posição realista-local. Qualquer um que defenda tal posição deve de algum modo justificar esses resultados…

A posição da escola de Copenhagen sobre tudo isso é novamente caracterizada pela afirmação de que o problema não está no resultado em si, mas na tentativa de compreender as coisas usando os nossos preconceitos clássicos. Nossas perguntas estariam ‘erradas’. Para os que defendem essa interpretação, essas coisas não podem realmente ser entendidas do modo como gostaríamos.

___________________________________________________________________________________________

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

____________________________________________________________________________________________

bell

Físico escoçês J. S. Bell

____________________________________________________________________________________________

A Desigualdade de Bell

Inspirando-se nas ideias relativas ao paradoxo de EPR, o físico escocês J. S. Bell, supondo realismo e localidade, derivou uma expressão matemática que se revelou fundamental para o reacendimento das discussões sobre os fundamentos da mecânica quântica, a partir do início da década de 1970. O trabalho teórico de Bell resultou em uma desigualdade que, pela primeira vez, permitiu levar o debate aos laboratórios, possibilitando o confronto experimental entre as previsões da mecânica quântica e de teorias clássicas realistas-locais.

Uma teoria realista-local, que representa os conceitos intuitivos que temos sobre as condições necessárias a uma teoria clássica, se baseia – simplificando a definição – em três premissas básicas: realismo (a visão filosófica segundo a qual a realidade externa é assumida existente e dotada de propriedades bem definidas), localidade (a ideia de que nenhum tipo de informação pode se propagar instantaneamente de um ponto a outro do espaço) indutivismo (a ideia de a interferência indutiva é válida de modo que conclusões verdadeiras podem ser obtidas a parir de observações consistentes).

Bell derivou a sua desigualdade tomando como ponto de partida um experimento ideal de correlação de spin (como o da figura 3). A fonte emite pares de partículas correlacionadas P1 e P2 (no caso, duas partículas de spin ½ no estado ‘singleto’, ou seja, com spin total zero, de modo que a orientação do spin de uma é sempre oposta à da outra), cada uma delas seguindo uma mesma direção, mas sentidos opostos. Em seguida, cada partícula passa por um aparelho (o conjunto de polarizador e detector) que determina que ângulo do spin será medido: na direção A para P1 e na direção B para P2. Cada partícula será detectada, após atravessar o respectivo polarizador, por um dos dois contadores, o que nos indicará qual a orientação de seu spin.

Obteremos assim, para as duas partículas, uma série de medidas que podem ser correlacionadas através de uma função de correlação P(a,b) das medidas efetuadas sobre P1 e P2, definida matematicamente como o valor médio do produto dos resultados obtidos para um mesmo par.  Essa função inclui todas as características das teorias realistas-locais, levando em conta a existência de possíveis variáveis ocultas. Se modificarmos a orientação dos analisadores de m’odo que efetuemos as medidas para pares de orientações como (a,b’), (a’,b) e (a’,b’), obteremos novas funções de correlação P(a,b’), P(a’,b) e P(a’,b’), que obedecerão a seguinte relação:::

equa

Para certas orientações a, a’, b, b’ escolhidos, a discrepância entre a previsão quântica e esse resultado clássico fica bem evidente. Essa é apenas uma da formas do que se conhece, atualmente, de modo genérico, como ‘desigualdade de Bell’. Expressões semelhantes podem ser derivadas de maneira inteiramente diferentes, sobre hipóteses também diferentes e com caracterizações diferentes do que seja uma teoria clássica.

A conclusão a que Bell chegou é muito mais vigorosa do que a ligada ao paradoxo de EPR. Enquanto Einstein, Podolski e Rosen asseveram ser a mecânica quântica incompleta, no sentido de que a teoria não tem em si aspectos de realidade previsíveis com probabilidade 1, Bell mostra que a teoria é inconsistente com as teorias realistas-locais.

Naturalmente, quando se tenta levar um experimento desse tipo ao laboratório, muitas hipóteses adicionais têm que ser consideradas. É justamente sobre essas hipóteses que repousa a maior parte das críticas aos experimentos já realizados. Além disso, muitos cientistas lançam objeções à abrangência das desigualdades, em função das caracterizações das teorias clássicas feitas para a obtenção expressões matemáticas. No entanto,e é certo que essa desigualdade e os resultados dos experimentos que ela suscitou limitam bastante as possibilidades de que se chegue a uma teoria do tipo clássica, como intuitivamente a concebemos, equivalente à mecânica quântica.

____________________________________________________________________________________________

____________________________________________________________________________________________

Em 1935 o físico Schrödinger introduziu o termo ‘emaranhamento’ para significar a ‘ação fantasmagórica à distancia’ que surge ao analisar o paradoxo EPR e a se questionar: como medidas em uma partícula podem influenciar outra se elas estão suficientemente distantes a ponto de não haver interação? Tais partículas, portanto, se dizem emaranhadas pois estão correlacionadas não localmente. Em 1964 John Bell levou essas questões ao laboratório através das famosas desigualdades de Bell: ficou demonstrado que a condição necessária e suficiente para que estados físicos estejam emaranhados é que a desigualdade de Bell seja violada para tais estados. Com isso as buscas por um maior entendimento sobre o emaranhamento se intensificaram a ponto de criar, na década de 90, as áreas de Computação e Informação Quântica, onde ele surge como recurso em aplicações como: tele-transporte, criptografia quântica, codificação super densa, entre outras.

___________________________________________________________________________________________

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

___________________________________________________________________________________________

____________________________________________________________________________________________

DIAGRAMAAA

DIAGRAMA ONTOLÓGICO-SEMÂNTICO-EPISTEMOLÓGIO-METODOLÓGICO DA FÍSICA

_____________________________________________________________

“Aqui, nosso DIAGRAMA DA FÍSICA não se constitui numa proposta a uma ontologia, nem a uma perspectiva convencionalista com relação à Física. Sim, busca estabelecer o “modus operandi” da Física na construção de seus conceitos mediante a utilização da matemática. Isto, pois, sabendo que a matemática somente pode ser aplicada quando for possível limitar o número de respostas relativas a um dado fenômeno. Daí. na construção de nosso diagrama, também levamos em consideração a renúncia de Bacon, ou seja, a Física não se interessando em conhecer em essência as coisas, as especulações metafísicas dão lugar à análise.” (FONTELES).

“[…] quando nos perguntamos qual é o objetivo da ciência, isso não quer dizer `A ciência nos faz conhecer a verdadeira natureza das coisas?’. Quer antes dizer `Ela nos faz conhecer as verdadeiras relações entre as coisas?”(POINCARÉ).

“A física de hoje não se ocupa propriamente de ontologia, e não depende de que se conheça (no sentido tradicional) a verdadeira natureza das entidades com as quais lida. Aliás, a preocupação com a natureza última da realidade parece que foi deixada de lado pela ciência já a partir dos séculos XVI e XVII. Não que o físico não se ocupe em desvendar a natureza do mundo. O que ocorre é que isso vem como consequência de suas suposições teóricas, e não é o seu assunto fundamental. Como sustentou o laureado com o Nobel em Física (em 1979) Steven Weinberg, contrariando a preocupação ontológica clássica, o físico de hoje está mais preocupado em explicar porque o mundo funciona do modo como funciona, e não propriamente em desvendar a natureza das coisas.” (DÉCIO KRAUSE).

“Do ponto de vista filosófico, a polarização para o empirismo (de um lado) ou para o racionalismo (do outro) acaba por enfraquecer a própria filosofia da ciência e se transforma em um obstáculo epistemológico. Alerta Bachelard que é importante e indispensável que ocorra uma alternância entre o empirismo e o racionalismo, pois estas duas doutrinas estão ligadas, se complementam sem que se precise falar em derrota de uma ou outra.” (MOREIRA; MASSONI).

_____________________________________________________________

Conclusões

Comparamos neste artigo os pontos de vista clássico e de Copenhagen sobre a mecânica quântica, e discutimos essas posições em relação a vários conceitos fundamentais como o realismo, a localidade e a existência de trajetórias. Associamos a expressão ‘visão clássica’, que está implícita nas teorias clássicas da física (mecânica, eletromagnetismo e gravitação), a uma estrutura realista e local com trajetórias. Em tal estrutura, ou teoria, supõe-se que os objetos tenham atributos intrínsecos bem definidos, e que tudo o que ocorrer na interação de um objeto com outro depende desses atributos..

Além disso, nessa estrutura, o comportamento de um objeto em um dado ponto do espaço não pode depender instantaneamente dos atributos de outros objetos localizados em pontos diferentes: deve haver sempre um intervalo de tempo suficiente para que uma informação  vá de um objeto a outro.

A interpretação de Copenhagen, porém, nos diz que o micromundo não obedece aos conceitos clássicos. Trabalhos recentes associados à desigualdade de Bell têm nos ajudado a situar e entender onde e como o micromundo não é clássico. Os experimentos de correlação de polarização implicam (ou demonstram, como querem alguns pesquisadores) que devemos abandonar realismo e/ou localidade na descrição desse micromundo. Parece quase consensual que a preferência é no sentido de abandonar localidade ao invés de realismo. Ciência sem realismo é quase uma contradição, para muitos. Em função disso, a maioria dos trabalhos atualmente desenvolvidos sobre os fundamentos da mecânica quântica estão associados à questão de se descartar ou não a localidade, e às consequências disso para a física. 

Este século, portanto, está presenciando um debate fundamental a respeito de quais conceitos são válidos ou não no mundo físico. Os objetos realmente existem com propriedades intrínsecas, que independem de qualquer medição? As partículas existem e possuem trajetórias bem definidas? Eventos distantes podem se influenciar instantaneamente? Essas são algumas das questões com as quais os físicos se defrontam. Pensamos que uma das poucas afirmações – talvez a única – que se pode fazer é a de que é rara concordância sobre qualquer dessas dificuldades. Acima de tudo, acreditamos que uma condição necessária para que uma estrutura científica seja válida é a de que exista uma concordância quase universal a respeito dela. Naturalmente, é possível que algum dia uma das posições atuais venha conseguir esse consenso, mas no momento estamos longe dele.

É interessante notar que vivemos hoje uma situação inversa à que existia na virada do século XIX, imediatamente antes do aparecimento da teoria quântica. O que se tinha então eram teorias que satisfaziam perfeitamente as nossas intuições tidas como quase perfeitas, mas que falhavam em relação a alguns poucos fatos experimentais – mais tarde explicados pelas novas teorias quântica e relativística. Atualmente, ao contrário, temos uma teoria que não é intuitivamente satisfatória, para a grande maioria, mas que se adapta perfeitamente aos fatos experimentais.

____________________________________________________________________________________________

Sugestões para leitura

1. BELL J. S., Speakable and unspeakable in Quantum Mechanics, Cambridge University Press, Cambridge (Inglaterra), 1987.

2. BROWN H, R., . ‘A estranha natureza da realidade quântica’, Ciência Hoje n° 2, 1983.

3. DAVIES P. C. W. & BROWN J. R., The ghosts in the atom, Cambridge University Press, Cambridge (Inglaterra), 1986.

4. FARIAS R. H. A., ‘Uma introdução aos fundamentos da mecânica quântica’ (tese de mestrado), Instituto de Física, Universidade de Campinas, 1987.

5. RAE A. I. M., Quantum physics: ilusion or reality?, Cambridge University Press, Cambridge (Inglaterra) 1986.

6. SELLERI F., El debate de la teoria cuântica, Alianza Editorial, Madri, 1986.

7. PESSOA O. Jr, ‘Conceitos e Interpretações da Mecânica Quântica:
o Teorema de Bell’, Departamento de Filosofia, Universidade de São Paulo, 2006. Acessado em: <http://ppginf.ucpel.tche.br/weciq/CD/Mini-Cursos/OsvaldoPessoa/min-curso-osvaldo-pessoa.pdf

8. FONTELES, R. C.. MATRIZ E MECÂNICA QUÂNTICA – Heisenberg corta o Nó Górdio. Acessado em: <https://www.academia.edu/38477754/MATRIZ_E_MEC%C3%82NICA_QU%C3%82NTICA_-_Heisenberg_corta_o_N%C3%B3_G%C3%B3rdio._Autor_Rog%C3%A9rio_Fonteles_Castro&gt;

9. Mecânica Matricial. USP. Acessado em: <http://plato.if.usp.br/1-2003/fmt0405d/apostila/quantum7/node5.html?fbclid=IwAR1doyOLKEztTwew-zGeShsDgLxlPe4kliZCkGkdIZXptYkpsjL4yLPgZcY&gt;

10. Do Microscópico ao Macroscópico. Unicamp. Acessado em: <https://sites.ifi.unicamp.br/brum/files/2014/01/F604_JAB_1s2011_Micro-Macro.pdf&gt;

____________________________________________________________________________________________

POSTED BY SELETINOF AT 8:07 PMa

ESTRUTURA DA PSIQUE III

invi

PROCESSO DE INDIVIDUAÇÃO 

É a busca do ser humano pela individuação – e não individualismo -, pelo autoconhecimento, pela integração com os demais homens e com a natureza, pela vivência espiritual e pelo sentido da vida e da morte. 

Essa busca é instintiva e herdada de nossos ancestrais, desde o início da humanidade. 

Os sinais dessa busca estão expressos nas manifestações artísticas dos homens primitivos e seu registro percorre toda a história da civilização. 

A efetivação do Processo de Individuação implica na integração entre o Eu e o Self, entre consciente e inconsciente. 

Esse mecanismo psíquico de integração dos opostos no Processo de Individuação foi denominado por Jung de Função Transcendente. 

O próprio Jung esclareceu que a Função Transcendente não é um processo metafísico, mas uma função teleológica instintivamente herdada. 

Apesar de o Processo de Individuação possuir uma natureza teleológica, sua realização é possibilidade e não certeza. 

Essa possibilidade está estreitamente relacionada por um lado à Função Transcendente – no sentido da prontidão do Eu e do Self para desencadear e dar curso ao Processo de Individuação – e, por outro lado, a realidades exteriores que podem facilitar ou dificultar – e mesmo impedir – a realização desse processo, tais como certas patologias psicológicas e orgânicas e determinados contextos ambientais e sociais.

Abaixo, introduzimos texto e imagens publicadas por Silvia Helena Cardoso: buscamos, assim, exemplificar, de forma prática, o aspecto negativo da realidade sobre o processo de individuação aludido por Ramos em seus apontamentos.

A progressiva fuga da realidade para a fantasia está expressa nas figuras abaixo. São de Louis Wain, artista plástico europeu do início deste século. Wain, desde jovem, costumava pintar retratos de gatos para calendários, albuns, cartões-postais, etc. Aos 57 anos, sua vida e sua arte apresentavam sintomas de psicose. Passou os últimos 15 anos da vida em instituições psiquiátricas. Os retratos dos gatos que pintava, tomou uma forma ameaçadora. Reveladores de seu estado psicótico são os olhos dos gatos, que miram fixamente com hostilidade, mesmo num de seus primeiros desenhos desta fase (primeira imagem). O psicótico geralmente acha que o mundo crava nele olhares hostis. Outro sinal é a fragmentação do corpo. As imagens do corpo sofrem uma estranha transformação na psicose e quase sempre são representadas com distorção.

Período Normal:

GATOS

Período Psicótico:

GATO2

Processo de Individuação, portanto, não implica em individualismo (egocentrismo e egoísmo), muito pelo contrário, significa individuação, isto é, o indivíduo tornar-se consciente de si mesmo na relação com os outros, melhorando as relações intra e interpessoais.

POSTED BY SELETINOF AT 9:26 AM

DR. QUANTUM – EXPERIÊNCIA DA DUPLA FENDA

 
POSTED BY SELETINOF AT 5:22 PM

JESUS APÓCRIFO

 
 
Em Jesus Cristo conhecemos a Deus como é…
e ao homem como deve ser.
 
 
POSTED BY SELETINOF AT 7:54 PM 
 
 
 

ESTRUTURA DA PSIQUE II

jung

ARQUÉTIPOS PERSONA, SOMBRA, ANIMA, ANIMUS  E SELF

Persona 

O termo persona origina-se do teatro grego antigo e significa máscara. 

Arquétipo associado ao comportamento de contato com o mundo exterior necessário à adaptação do indivíduo às exigências do meio social onde vive.

Corresponde à identidade e desempenho de papéis socialmente atribuídos a uma pessoa.

Também está intimamente relacionada a conveniências pessoais.  

A persona corresponde a uma significativa parcela do comportamento do sujeito enquanto personagem coletiva.  

A alma, em oposição à persona, corresponde ao comportamento do sujeito enquanto personagem individual, sua real personalidade.  

Uma pessoa pode ter um determinado comportamento em sociedade (persona) e, outro, completamente oposto, em casa (alma).  

Convém esclarecer que nem todo comportamento social é manifestação da persona, também pode ser uma expressão da alma.  

A persona possui dois aspectos: positivo e negativo.  

O aspecto positivo está associado à adaptação do sujeito ao seu meio social.  

O aspecto negativo surge quando o Eu se identifica com a persona, fazendo com que a pessoa se distancie e desconheça sua real personalidade, a alma.  

Muitas vezes é difícil para um observador externo identificar numa pessoa o que é sua persona e o que é sua alma.  

Ao se manifestar geralmente de modo inconsciente – sem que o Eu não tenha consciência de sua existência – a persona revela seu significativo grau de autonomia na psique.  

Quando tornada consciente – assimilada pelo Eu – a persona traz benefícios ao autoconhecimento e à melhoria das relações interpessoais.  

Sombra

Arquétipo associado às virtudes e defeitos de caráter que o indivíduo desconhece existir em si mesmo.

Uma pessoa tende a projetar sua sombra nos outros e negá-la em si mesma. 

sombra possui dois aspectos: positivo e negativo. 

O aspecto positivo está associado às virtudes que o indivíduo desconhece existir em sim mesmo. 

O aspecto negativo está associado aos defeitos de caráter que o indivíduo desconhece existir em si mesmo.

A sombra também pode se manifestar de forma coletiva, tanto nos seus aspectos positivos como negativos.  

Ao se manifestar geralmente de modo inconsciente – sem que o Eu não tenha consciência de sua existência – a sombra revela seu significativo grau de autonomia na psique.  

Quando tornada consciente – assimilada pelo Eu – a sombra traz benefícios ao autoconhecimento e à melhoria das relações interpessoais.  

Anima e animus

A anima corresponde ao princípio feminino presente na psique do homem.  

O animus corresponde ao princípio masculino presente na psique da mulher.  

Anima

Arquétipo associado à personificação da natureza feminina no inconsciente masculino. 

Manifesta-se no comportamento masculino através de expressões emocionais. 

Projeta-se em figuras femininas: mãe, irmã, namorada, esposa, amante, mulher desejada, mulheres admiradas (nos sentidos eróticos, heróicos, intelectuais e espirituais).  

A anima condensa todas as experiências que o homem vivenciou no seu encontro com a mulher durante milênios e é a partir desse imenso material inconsciente que é modelada a imagem de mulher que o homem procura.  

A anima possui dois aspectos: positivo e negativo.  

O aspecto positivo está associado àquilo que a anima, uma vez tornada consciente – assimilada pelo Eu -, pode trazer ao homem no sentido de conhecer suas próprias emoções e melhorar suas relações afetivas. Ainda, mesmo que inconsciente, possibilita ao homem a capacidade de amar, a receptividade ao irracional, a sensibilidade à arte e à natureza, a intuição profética e o acesso ao inconsciente e, em conseqüência, à busca espiritual.  

O aspecto negativo está associado ao fato de que, quando inconsciente – desconhecida pelo Eu -, a anima expressa-se em manifestações emocionais infantis e primitivas, domina o homem, tornando-o subjugado por figuras femininas, fazendo com que ele possa incorrer em paixões cegas e desilusões amorosas, dependência da mulher, mudanças bruscas de humor, explosões emocionais, ciúme, caprichos, ansiedade, melancolia, depressão e mesmo (tentativas de) suicídio.  

Ao se manifestar geralmente de modo inconsciente – sem que o Eu não tenha consciência de sua existência – a anima revela seu significativo grau de autonomia na psique do homem.  

Quando tornada consciente – assimilada pelo Eu – a anima traz benefícios ao autoconhecimento e à melhoria das relações interpessoais.  

Animus  

Arquétipo associado à personificação da natureza masculina no inconsciente feminino. 

Manifesta-se no comportamento feminino através de expressões judicativas e reflexivas. 

Projeta-se em figuras masculinas: pai, irmão, namorado, esposo, amante, homem desejado, homens admirados (nos sentidos eróticos, heróicos, intelectuais e espirituais). 

O animus condensa todas as experiências que a mulher vivenciou no seu encontro com o homem durante milênios e é a partir desse imenso material inconsciente que é modelada a imagem de homem que a mulher procura.  

O animus possui dois aspectos: positivo e negativo.  

O aspecto positivo está associado àquilo que o animus, uma vez tornado consciente – assimilado pelo Eu -, pode trazer à mulher no sentido de conhecer seus próprios pensamentos e melhorar suas relações afetivas. Ainda, mesmo que inconsciente, possibilita à mulher o gosto pelo conhecimento da natureza dos fenômenos e o acesso ao inconsciente e, em conseqüência, a busca espiritual. 

O aspecto negativo está associado ao fato de que, quando inconsciente – desconhecida pelo Eu -, o animus expressa-se em manifestações judicativas e reflexivas infantis e primitivas, domina a mulher, tornando-a subjugada por figuras masculinas, fazendo com que ela possa incorrer em paixões cegas, dependência do homem, juízos irrefletidos, preconceitos infundados, certezas não fundamentadas, teimosias, afetos de vingança e frieza emocional. 

Ao se manifestar geralmente de modo inconsciente – sem que o Eu não tenha consciência de sua existência – o animus revela seu significativo grau de autonomia na psique da mulher.  

Quando tornado consciente – assimilada pelo Eu – o animus traz benefícios ao autoconhecimento e à melhoria das relações interpessoais.  

Sizígia: anima e animus  

Devido à diferente natureza dos dois gêneros, a relação entre homens e mulheres é uma relação de oposição e, ao mesmo tempo, de complArchetypalEquationementaridade não só fisiológica, mas, também, psicológica.

A tomada de consciência – pelo Eu -, da anima pelo homem e do animus pela mulher, propicia a melhoria das relações interpessoais e afetivas entre os gêneros. 

Essa sizígia (arquétipo da alteridade, segundo Byington) já era bem conhecida pelo taoísmo – uma antiga filosofia chinesa – expressando-se na idéia/símbolo do Tai Chi (princípio do princípio) que compreende a oposição e complementaridade entre os princípios Yin (feminino, branco) e Yang (masculino, negro).

  

Self  

É o núcleo organizador não só do Inconsciente (pessoal e coletivo), mas, também, de toda a psique. 

É o arquétipo que leva o homem à busca pela individuação – e não individualismo -, o autoconhecimento, pela integração com os demais homens e com a natureza, pela vivência espiritual e o sentido da vida e da morte.  

Essa busca é denominada por Jung de Processo de Individuação, sendo este o tema central da Psicologia Analítica.  

Possui dois aspectos: positivo e negativo. 

O aspecto positivo está associado à (possibilidade de) efetivação do Processo de Individuação.  

O aspecto negativo está associado ao fato de que o Self pode subjugar o Eu, criando doutrinadores e fanáticos religiosos.  

Quando tornado consciente – assimilado pelo Eu – o Self traz benefícios ao autoconhecimento e à melhoria das relações interpessoais.

POSTED BY SELETINOF AT 6:45 AM