Princípios – A visão avançada na História da Ciência destaca a relação entre as descobertas científicas e as necessidades materiais ou sociais da humanidade. Desde setembro último, em Genebra, deu-se o início do funcionamento do LHC (Grande Colisor de Hádrons) – um
fantástico acelerador de partículas que vem provocando verdadeiro frenesi nas idéias acerca das possibilidades de novas descobertas nas estruturas mais recônditas da matéria. Devemos enxergar o LHC dentro desse parâmetro da história das sociedades?

Olival Freire – O LHC é o estágio mais elevado de um fenômeno típico da ciência da segunda metade do século XX, a chamada “Big Science”. Alguns números podem ilustrar quão “big” é essa ciência. Os túneis do acelerador, localizados na fronteira entre a França e a Suíça, têm 27 km de circunferência, e são construídos entre 50 e 150 m abaixo do solo. O equipamento envolve 27 toneladas de magnetos supercondutores, quase 100 toneladas de hélio liquefeito a cerca de 270o negativos. O acelerador lançará feixes de prótons, partículas subatômicas, um contra o outro. Daí a palavra colisor. As partículas vão ser aceleradas a uma velocidade de 99,999999% da velocidade da luz, e a energia na colisão poderá chegar a 14 Tev (Tera elétron-volt, 1012 eV). Sua equipe envolve quase 10 mil pessoas de mais de cem países, e seu custo é da ordem de 5 bilhões de euros.

A relação entre a construção dos grandes aceleradores de partículas e necessidades materiais e sociais da humanidade é no mínimo um tema controverso, a menos que consideremos tais necessidades em uma perspectiva mais flexível, aquela das circunstâncias históricas. De fato, os grandes aceleradores são fruto tanto de necessidades intrínsecas da ciência quanto das circunstâncias históricas relacionadas ao uso da ciência na Segunda Guerra e à Guerra Fria entre os EUA e a antiga URSS no período posterior.

Vejamos um pouco dessa história. Embora o primeiro acelerador de partículas subatômicas antedate a eclosão da guerra, com o cíclotron construído por Ernest Lawrence em Berkeley na Califórnia, o uso da física na Segunda Guerra – especialmente com os projetos da bomba atômica e da construção do radar, ambos cercados de êxito nos Estados Unidos – é que deu início a uma relação de estreita colaboração entre cientistas e militares, tanto nos EUA quanto na URSS como, em menor escala, em outros países. Os primeiros aceleradores construídos por Lawrence foram inclusive usados no esforço da construção da bomba para a separação de isótopos. Não tivesse a Segunda Guerra sido seguida pela polarização entre os aliados que a venceram – polarização marcada pela corrida armamentista e pelo uso da ciência no desenvolvimento de variados equipamentos militares – é duvidoso que os Estados se dispusessem aos enormes investimentos na física que efetivamente foram feitos.

A própria história da construção do LHC reflete os condicionantes geopolíticos da segunda metade do século XX. Ele é um acelerador construído pelo CERN, um organismo europeu de cooperação científica criado em 1954 que pode ser considerado um precursor da unificação européia. De fato, o CERN foi a resposta inteligente dos cientistas europeus face à hegemonia norte-americana na área da física de altas energias. Ao longo da segunda metade do século XX a competição pelo acelerador mais potente não foi isenta das ambições nacionais das grandes potências que podiam construir aparatos científicos desse porte. Os maiores competidores eram os Estados Unidos, que lideraram o setor até o final de década de 1970; a Europa, que assumiria a liderança a partir de 1980; a antiga URSS; e, mais recentemente, o Japão. Aceleradores menores estão espalhados pelo mundo, e são usados inclusive para finalidades de radioterapia. O fim da Guerra Fria tornou evidente que a corrida pelo acelerador mais potente era, também, parte daquela disputa. Isso ocorreu em 1993 quando o Congresso norte-americano negou os investimentos para a construção do SSC (Superconducting Super Collider). A decisão, que encontrou tanto oposição quanto apoio entre os próprios cientistas norte-americanos, foi também um sinal dos tempos pós-Guerra Fria. No final da década de 1990, os EUA associaram-se ao CERN na construção do atual LHC.

Críticas quanto à conveniência dos altos investimentos requeridos pelos grandes aceleradores que simbolizam a Big Science existiram no passado e continuam a existir. Não há dúvida, entretanto, de que nosso conhecimento atual sobre a matéria subatômica não poderia ter chegado ao atual patamar sem a construção desses dispositivos, a dúvida residindo na sua prioridade face a outros investimentos em ciência e tecnologia. Essa é uma das razões, inclusive, da ampla divulgação empreendida pelo próprio CERN. A legitimidade social de tal investimento precisa ser consolidada. A própria concessão do Prêmio Nobel em Física este ano não foi isenta da busca pela legitimidade desses investimentos.

Princípios – Especialmente após o pioneirismo das pesquisas do alemão Max Planck (1858-1947), do norte-americano Robert Milikan (1868-1953), do neozelandês Ernest Rutherford (1871-1937) e do britânico James Chadwick (1891-1974), passou-se a fixar a estrutura de um núcleo atômico formado de prótons e nêutrons, “orbitado” por uma nuvem de elétrons. A partir dos anos 1960, o estudo das partículas subatômicas, ou mais especificamente a “teoria dos campos”, explica a força existente entre duas partículas através de outra, distinta: as “mensageiras”. Explique-nos melhor esse assunto.

Olival Freire – Você introduziu bem o assunto. A teoria quântica de campos – isto é, o tratamento pela mecânica quântica das interações fundamentais, como a interação eletromagnética, e das inte rações cujo alcance é restrito ao interior do núcleo atômico, a fraca e a forte – teve início ainda na década de 1930, mas se impôs entre 1950 e 1960 quando uma série de problemas teóricos inerentes a essa abordagem foi equacionada. Ao que chamamos hoje de Modelo Padrão é um sistema teórico que integra todas aquelas três interações e agrupa todas as partículas hoje conhecidas em dois grandes blocos: os léptons, que incluem o elétron; os neutrinos, o muon e o tau, e os quarks, esses últimos agrupados em três famílias distintas, uma composta pelos up e down, a outra pelos charm e strange; e a terceira pelos quarks bottom e top. Na teoria quântica de campos, as interações, os campos de força são mediados pelas partículas mensageiras, o fóton para a interação eletromagnética; as partículas W e Z para a força fraca; e o gluón para a interação forte. Fica de fora do modelo padrão a interação gravitacional, o que é um grande problema em aberto na física atual.

Princípios – Você poderia comentar a atribuição do Prêmio Nobel de Física deste ano aos físicos Yoichiro Nambu, Makoto Kobayashi e Toshihide Maskawa, os dois últimos japoneses e o primeiro japonês naturalizado norte-americano, por realizações relacionadas à física de partículas?

Olival Freire – O Nobel deste ano é pleno de significados. Há, de início, o inquestionável mérito científico de suas contribuições. Nambu recebe pela “descoberta do mecanismo de quebra espontânea de simetria em física subatômica”, e Kobayashi e Maskawa pela “descoberta da quebra de simetria que prediz a existência de pelo menos três famílias de quarks na natureza”. As previsões resultantes dessas teorias têm sido sistematicamente corroboradas. Essas contribuições exploraram um dos recursos mais fecundos da física teórica do século XX: a existência de simetrias e de quebras dessas simetrias. Se pensarmos que simetrias são recursos valorizados pelo homem desde as antigas civilizações, temos aqui um caso de atualização de temas recorrentes na história do conhecimento. Mas o Nobel deste ano também tem implicações políticas óbvias. A referência positiva ao acelerador LHC, colocada explicitamente nos comunicados da Fundação Nobel, como instrumento capaz de explorar ainda mais as teorias premiadas, traz um claro sinal de busca da legitimação social do próprio acelerador. Além disso, o Nobel de Física deste ano tem um claro componente de reparar injustiças, como, aliás, o Nobel de Medicina também tem, ao premiar o francês Luc Montagnier por suas descobertas relativas ao vírus da AIDS, que haviam sido contestadas no passado pelo norte-americano Robert Gallo. Note que as descobertas que estão na base do Nobel da Física já estavam bem corroboradas desde, pelo menos, 1994, com a confirmação da observação do quark top por duas equipes distintas trabalhando no Fermilab, o maior acelerador norte-americano. Deve ser registrado que uma dessas equipes – a D-Zero – teve uma significativa participação brasileira na equipe liderada pelo professor Alberto Santoro, do Rio de Janeiro. Aliás, o professor Santoro também integra equipes científicas que atuam no LHC.

O Nobel deste ano tem, também, outras implicações culturais mais amplas. É bem sabido que a física teórica no Japão teve a singularidade de ter sido fortemente animada por uma corrente inspirada no marxismo, em especial através dos físicos Mituo Taketani e Shoichi Sakata. Este último elaborou o que se chama na Física de modelo Sakata, análogo e concorrente à época do modelos dos quarks. O programa de pesquisa do Sakata muitas vezes é referido como a Escola de Nagoya. Ele era considerado um nobelizável, em vida – uma categoria típica dos bastidores da ciência. Nobelizável é aquele cientista que realizou um trabalho de tal porte que seus pares consideram-no digno do Nobel.

Todo fim de ano, tais cientistas esperam ansiosamente o anúncio de Estocolmo. Infelizmente, Sakata morreu cedo, e o Nobel não pode ser concedido postumamente. Ele sempre sustentou que seu programa de pesquisa em Física havia sido influenciado pelo materialismo dialético e, em especial, pela idéia de inexauribilidade da matéria de Engels, além da teoria dos “três estágios” de seu colega Taketani, sendo a mesma inspirada na dialética hegeliana. Os escritos filosóficos de Taketani e Sakata foram traduzidos para o inglês e publicados na Progress of Theoretical Physics (Suplemento número 50, 1971), a principal revista da física japonesa – o que dá uma idéia da legitimidade adquirida pelas idéias filosóficas marxistas entre os físicos japoneses. Trabalhei com essas idéias em minha dissertação de mestrado, em 1991, depois que o professor Shozo Motoyama, da USP, alertou-me para a existência dessa corrente marxista japonesa que, de outra maneira, eu teria desconhecido.

Pois bem, depois dessa breve apresentação da figura de Shoichi Sakata, notemos que a informação científica apresentada pela Fundação Nobel (“Scientific Background on the Nobel Prize in Physics 2008 – Broken Symmetries”, 7 de outubro de 2008) evidencia claramente a conexão entre os dois premiados. E Sakata, Kobayashi e Maskawa são apresentados afirmando: “(…) foi nessa época, em 1972, que dois jovens físicos japoneses, Makoto Kobayashi e Toshihide Maskawa, da Escola de Nagoya de Sakata, trataram o problema(…)”, tendo antes afirmado: “(…) essa Escola de Nagoya foi muito influente e as partículas de Sakata finalmente se transformaram nos quarks de Gell-Mann, embora com um propósito modificado”. O problema histórico relevante é que durante muito tempo a denominada “teoria de Kobayashi-Maskawa” havia adquirido influência na física de partículas sem que as raízes japonesas e marxistas dessa teoria fossem lembradas. Até onde eu saiba, o mérito do resgate dessas origens é do historiador e filósofo Kent Staley que, em um artigo intitulado “Origens perdidas da terceira geração de quarks: teoria, filosofia e experimentos”, publicado na revista Physics in Perspective (número 3, pp.
210-229, 2001), apresentou o artigo original de Kobayashi e Maskawa “enfatizando o papel largamente esquecido dos teóricos da Universidade de Nagoya e do ‘modelo de Nagoya’ que eles desenvolveram”. Staley afirmou ainda: “vários dos autores do modelo de Nagoya abraçaram a filosofia do materialismo dialético”, e ele discutiu “o papel que tais compromissos metafísicos jogam na teorização da física”. Eu havia chamado a atenção para a relevância desse resgate realizado por Staley em um resenha sobre um livro seu, publicada em 2005 (Isis, 96(3), pp.464-465, 2005).

Princípios – A propósito, nota-se sempre uma reiterada curiosidade em compreender a idéia de permanência e superação existente entre a teoria da “relatividade restrita” (1905), do genial físico Albert Einstein (1879-1955), e as leis da mecânica clássica, de Isaac Newton. Em termos de espaço e tempo o que isto sugeriu na evolução da física quântica?

Olival Freire – A teoria da relatividade especial assenta-se em bases conceituais radicalmente distintas daquelas da mecânica newtoniana, sua primeira diferença residindo no papel atribuído ao espaço e ao tempo em cada uma dessas teorias. No que pese essa descontinuidade conceitual, os resultados da mecânica newtoniana são equivalentes aos da teoria da relatividade para sistemas com velocidades pequenas comparadas com a velocidade da luz. Há, assim, como você disse, permanência e superação entre essas teorias físicas. Algo análogo ocorre com a teoria quântica, embora nesse caso a ruptura conceitual seja mais profunda e de maiores implicações.

Princípios – Em 1983 o CERN (Conselho Europeu de Investigação Nuclear) confirmou a hipótese das partículas “mensageiras” (W e Z), então resultante das pesquisas de Carlo Rubbia e Simon van deer Meer (prêmio Nobel de 1984). Denominadas de “bósons”, no que contribuem para o desenvolvimento das conquistas da mecânica quântica?

Olival Freire – A observação dessas partículas, mensageiras da interação fraca, foi uma expressiva corroboração do caminho trilhado pela teoria quântica de campos. Elas foram previstas por Sheldon Glashow, Steven Weinberg e Abdus Salam em uma teoria que unificava as interações eletromagnéticas e fracas. Por esse trabalho eles receberam o Prêmio Nobel. A observação dessas partículas, por equipes nas quais Rubbia e Van deer Meer tiveram grande liderança, foi o primeiro grande feito científico do CERN, marcando o deslocamento da hegemonia dos aceleradores norte-americanos para o europeu. A expressão bóson designa o tipo de estatística quântica que tais partículas obedecem, no caso a estatística de Bose-Einstein.

Princípios – Mais especificamente, de uma parte, acaso o titânico empreendimento do LHC poderia ainda aclarar a “função” daquilo que o físico britânico Peter Higgs denominou de “bóson de Higgs”, também chamado de “partícula de Deus”? De outra parte, como o LHC pode contribuir para novos desenvolvimentos do pensamento materialista, na medida em que se acerca das conexões das leis do movimento?

Olival Freire – O bóson de Higgs é uma partícula prevista na mesma abordagem de pesquisa da teoria quântica de campos. A introdução hipotética dessas partículas foi necessária para explicar o surgimento da massa em um universo inicial com elevadas energias, mas com partículas sem massa. Muitos físicos têm expectativa de que o LHC possa levar à observação dessa partícula. Para outros, como Stephen Hawking, a mesma não será observada e esse resultado nulo tornará toda a Física mais interessante. O desenvolvimento da ciência tem reforçado as visões filosóficas materialistas, e mesmo materialistas dialéticos, como os físicos japoneses que comentei. Os diversos matizes filosóficos, de um lado, e as crenças religiosas, de outro, são, entretanto, fenômenos culturais mais largos e mais complexos que o desenvolvimento da ciência, como a história do século XX, nos mostra.

Princípios – Conte-nos um pouco sobre sua importante distinção Senior Fellowship, do Dibner Institute for the History of Science and Technology, MIT, EUA.

Olival Freire – O Dibner Institute foi criado por uma fundação estabelecida por Bern Dibner, um milionário americano apaixonado pela história da ciência. Além dos fundos financeiros, ele doou a essa fundação uma magnífica biblioteca e coleção de instrumentos. A cada ano, entre dez e quinze pesquisadores de diversos países eram selecionados para um período, usualmente de um ano, em que ficavam inteiramente dedicados à pesquisa. Eu obtive essa bolsa no ano acadêmico 2004-2005, e pude levar a um patamar superior, com certo número de resultados publicados em boas revistas internacionais, um projeto de pesquisa que já havia desenvolvido no Brasil com o apoio do CNPq dedicado à história da mecânica quântica. Durante quinze anos o instituto funcionou associado ao Massachusetts Institute of Technology (MIT) em Cambridge, grande Boston, mas no momento da renovação desse acordo a família Dibner, que controla a fundação, optou por deslocar os fundos e as coleções para outra instituição, a Huntington Library, na Califórnia. Não foi uma boa solução para a história da ciência porque agora nem todos os períodos históricos de estudo são igualmente apoiados.
Fui da penúltima turma do Dibner em Boston, e como fui o primeiro brasileiro, terminei sendo o único dessa etapa de associação com o MIT. Além dos aspectos profissionais extremamente positivos, a estada nos Estados Unidos por um período prolongado permitiu-me compreender melhor a diversidade das tradições, progressistas e conservadoras, que integram o povo norte-americano.

Sérgio Barroso é doutorando em economia e membro da Comissão Editorial de Princípios

EDIÇÃO 98, OUT/NOV, 2008, PÁGINAS 65, 66, 67, 68, 69