terça-feira, 20 de dezembro de 2011

Crônicas Marcianas

Coluna Física sem Mistério
Ciência Hoje On-line
Publicada em 16 de dezembro de 2011


Na década de 1950, o escritor estadunidense Ray BradBury (1920-) publicou várias histórias de ficção científica reunidas no livro Crônicas marcianas, no qual apresentava diversas histórias sobre a colonização de Marte e como os seres humanos enfrentariam esse desafio, inclusive contra os próprios marcianos que supostamente habitariam o planeta.
Na publicação original, as histórias passam na virada do século 20 para o 21, quando as primeiras expedições tripuladas da Terra teriam chegado ao planeta. Hoje, no início da segunda década do século 21 estamos distantes de visitar pessoalmente Marte. No momento, apenas emissários robóticos visitam o planeta e nos mandam notícias de lá.

Antigas histórias

Os planetas (exceto Urano e Netuno) são conhecidos desde Antiguidade. A palavra planeta tem origem grega e significa ‘corpo errante’, pois os planetas se movem em relação às estrelas do céu. A eles os povos antigos associavam características divinas, pois seriam ‘seres especiais’ que caminhavam entre as estrelas (Leia mais sobre o tema na coluna ‘Novos deuses do firmamento’).
Marte brilha com uma cor avermelhada lembrando sangue e guerra. Por isso recebeu o nome do deus da guerra na mitologia greco-romana.
Os movimentos de Marte no céu eram um grande desafio para os astrônomos antigos. Naquela época, acreditava-se que a Terra estava imóvel no centro do universo e todos os astros giravam em torno dela.
Marte apresentava um caprichoso movimento na forma de laçadas que não era explicado apenas pelo movimento circular. Foram propostos vários epiciclos, ou seja, uma circunferência em torno de um ponto imaginário, que descreve, a partir de seu novo ponto, uma outra circunferência (veja na figura ao lado).
No ano de 1543, o astrônomo polonês Nicolau Copérnico (1473-1543) propôs um modelo para simplificar a descrição dos movimentos planetários. Ele colocou o Sol, e não a Terra, no centro do universo, com os planetas realizando órbitas circulares ao seu redor. Mas esse novo modelo, além de polêmico para época, não conseguia descrever com precisão os movimentos de Marte, mesmo utilizando epiciclos.
O problema da órbita de Marte foi resolvido só no século 17, pelo astrônomo e matemático alemão Johannes Kepler (1571-1630), a partir dos dados observacionais do astrônomo dinamarquês Tycho Brahe (1546-1601). Em 1609, ele conseguiu estabelecer as três leis do movimento planetário – as leis de Kepler – e deduziu que a órbita de Marte era uma elipse, com o Sol ocupando um dos focos.

Só que a órbita de Marte é uma elipse com uma certa excentricidade. Isto faz com que o planeta apresente variações significativas de brilho. A diferença entre o afélio (o ponto mais distante do Sol) e o periélio (o mais próximo) é de aproximadamente 43 milhões de quilômetros, o que equivale a aproximadamente 17% do raio orbital.
Quando Marte está mais perto do Sol e a Terra mais distante, ele fica muito brilhante. Em 2003, Marte fez uma das maiores aproximações da Terra, atingindo o tamanho aparente no céu de 25,1 segundos de arco – um segundo de arco equivale 1/3600 de um grau. A Lua tem diâmetro aparente de 0,5 grau, ou seja, 72 vezes maior que Marte na sua melhor aproximação. O próximo evento desse tipo será em 3 de março de 2012, quando Marte aparentará 14 segundos de arco de diâmetro.

Novas lendas

Em 1877, em uma das aproximações de Marte com a Terra, o astrônomo estadunidense Asaph Hall (1829-1907) descobriu as luas Fobos e Deimos, pequenos corpos com formato irregular e centenas de quilômetros de extensão.
Nessa mesma época, o astrônomo italiano Giovanni Schiaparelli (1835-1910) divulgou a observação de uma intricada rede de linhas retas simples e duplas riscando áreas brilhantes do planeta. Ele as chamou de ‘canali’, que em italiano significa ‘canais’.
A descoberta sugeria que Marte era habitado por seres inteligentes, que tinham construído uma elaborada rede de canais para transportar água dos polos marcianos (já conhecidos naquela época) para a região equatorial, que deveria ser mais seca.
O feito estimulou o estadunidense Percival Lowell (1855-1916), que construiu um grande observatório no Arizona, a observar Marte por mais de duas décadas, registrando dezenas de canais. Mas as recentes expedições espaciais não conseguiram observar os ‘canais marcianos’ de Schiaparelli e Lowell. Parece que não passaram de uma ilusão.

As expedições marcianas

Desde 1960 foram enviadas 43 missões espaciais para Marte, a maioria promovida pelos Estados Unidos e pela antiga União Soviética. Muitas foram um completo fracasso, dentre as quais algumas não conseguiram atingir Marte e outras sequer saíram da órbita da Terra.
Outras tantas, no entanto, trouxeram informações importantes, como a Mariner 4, dos Estados Unidos, que em 1965 passou a 9.900 km de Marte e obteve imagens confirmando a atmosfera rarefeita e composta por gás carbônico do planeta. Já a sonda Mariner 9, lançada em 1971, entrou na órbita de Marte e mapeou cerca de 97% de sua superfície.
Em 1976, as sondas Viking 1 e 2 pousaram com sucesso em Marte, realizando inúmeros experimentos, inclusive alguns com o intuito de detectar vida no planeta. Os resultados obtidos foram inconclusivos e até hoje geram controvérsias.
Nas décadas de 1990 e 2000, várias sondas foram enviadas a Marte com objetivo de conhecer melhor o planeta, sobretudo para procurar água ou alguma forma de vida, atual ou que existiu no passado. Os resultados mostraram que Marte já teve rios e que, atualmente, a água pode estar abaixo da superfície.
Neste ano, duas novas missões foram enviadas a Marte. A sonda Phobos-Grunt, da agência especial Russa, tinha como principal objetivo viajar até Fobos e retornar com material de lá. Contudo, houve problemas no lançamento. A missão fracassou e a espaçonave ficou na órbita da Terra; em breve, cairá em nosso planeta.
A outra missão foi da Nasa – o Laboratório de Ciências de Marte (MSL, na sigla em inglês), apelidada de Curiosity (curiosidade, em português) –, lançada no dia 26 de novembro. Essa sonda leva uma série de equipamentos, dentre os quais um veículo movido a energia nuclear, com 750 kg e 2,8 metros de comprimento (aproximadamente o tamanho de um automóvel), para explorar continuamente a superfície marciana. Novamente, o principal objetivo é responder se há (ou existiu) vida em Marte.

Marte é, sem dúvida, um dos planetas mais presentes no imaginário popular. A suposta existência de marcianos e a possibilidade de encontrar outras formas de vida estimulam a nossa curiosidade. De fato, muitas histórias e crônicas ainda serão contadas sobre o planeta vermelho.

Adilson de OliveiraDepartamento de Física
Universidade Federal de São Carlos





domingo, 20 de novembro de 2011

Luzes e cores

Coluna Física sem Mistério
Ciência Hoje On-line
publicada em 18/11/2011

Recentemente estive no Rio de Janeiro e foi possível admirar as belezas da cidade em um ensolarado dia de primavera. Em particular, o céu estava muito azul, com algumas nuvens brancas. A cidade maravilhosa fica mais bela ainda com essa diversidade de cores produzida pela luz do Sol.

A luz que vem do Sol surge a partir da energia liberada nas reações de fusão nuclear que ocorrem no seu interior. No núcleo do Sol, temos temperaturas da ordem de 15 milhões de oC, que criam condições ambientais para que quatro núcleos de átomos de hidrogênio (prótons) sejam transformados em um núcleo do átomo de hélio (que tem dois prótons e dois nêutrons), levando também à liberação de dois pósitrons (partículas com as mesmas características do elétron, mas com carga positiva).
O saldo de todo esse processo é que o núcleo de hélio produzido tem massa menor que a dos quatro prótons de hidrogênio. Essa diferença é transformada em energia, segundo a famosa equação de Albert Einstein E=mc2, na qual ‘m’ é a massa e ‘c’ a velocidade da luz no vácuo.

Embora a diferença de massa seja muito pequena, o valor da velocidade da luz no vácuo é enorme (da ordem de 300 mil km/s), o que resulta em uma grande quantidade de energia, levada para fora do núcleo do Sol na forma de fótons (partículas de luz) com altas energias.

Esses fótons são absorvidos pelas diferentes camadas internas do Sol e fazem com que elas fiquem aquecidas e, assim, reemitam fótons. Grande parte da luz que chega até nós vem da superfície da estrela, onde a temperatura é da ordem de 6 mil oC. É nessa temperatura que os átomos aquecidos emitem a luz visível.

O Sol emite luz em quase toda a faixa do espectro eletromagnético, que vai de ondas com comprimento muito longo, chegando a dezenas de metros (como as ondas de rádio), até radiações com comprimentos de onda menores do que 0,01 nanômetro (um nanômetro corresponde a um milionésimo de um milímetro), que correspondem aos raios X e raios gama.

A luz que chega aos nossos olhos está em uma faixa estreita que chamamos de espectro visível, que corresponde a radiações entre 380 e 720 nanômetros. Nessa faixa, temos as cores vermelha, laranja, amarela, verde, azul, anil e violeta. Em particular, a principal emissão do Sol ocorre no comprimento de onda de 550 nanômetros, que corresponde sensivelmente à luz verde-amarelada. A luz que os nossos olhos observam vindo do Sol é a combinação de todas as cores do espectro visível, que resulta no branco.

Os nossos olhos provavelmente se adaptaram a captar a luz nessa faixa do espectro porque a maior parte dos raios luminosos que chegam à superfície da Terra tem esses comprimentos de onda.

Por que as nuvens são brancas?

 O efeito da luz se espalhando nos objetos provoca situações interessantes. Uma pergunta muito comum, principalmente feita por crianças – afinal, nessa fase a curiosidade é bastante aguçada –, é por que as nuvens são brancas, já que o vapor d’água não tem cor.

Na verdade, as nuvens são compostas por gotas de água de diferentes tamanhos, e não por vapor d’água, como o senso comum costuma indicar. O vapor se condensa na forma de gotas em torno de partículas de poeira, fumaça e sal, suficientemente leves para permanecerem suspensas no ar. A grande maioria das gotas tem dimensões microscópicas (da ordem de um milésimo de milímetro).

Como em uma nuvem existe grande diversidade de tamanhos de gotas de água, cada uma espalha a luz branca proveniente do Sol de maneira diferente. Dependendo do seu tamanho, a gota de água espalha um determinado comprimento de onda e absorve os outros.
 
As gotas maiores espalham as cores de maior comprimento de onda (como vermelha e amarela), enquanto as gotas menores espalham as de menores comprimentos (por exemplo, azul e violeta). A combinação do espalhamento de todas as cores tem como resultado a cor branca.

Da mesma maneira, a ‘espuma’ que aparece na crista das ondas do mar também é branca devido ao efeito do espalhamento da luz por partículas de água com diferentes tamanhos. O mesmo vale para a ‘fumaça’ muitas vezes usada em shows de música. Nesse caso, utiliza-se gelo seco (que é feito de gás carbônico) para condensar o vapor d’água que existe no ar, fenômeno semelhante ao observado nas nuvens.

Quando as nuvens estão muito carregadas, menos e menos da radiação solar que entra nelas consegue chegar ao fundo das nuvens, o que lhes dá uma aparência mais escura.

O azul do céu

É famosa a foto do astronauta norte-americano Edwin Aldrin (1930-) tirada quando ele esteve na Lua. Nela vemos a bandeira dos Estados Unidos e o módulo lunar totalmente iluminado, enquanto o céu está escuro, sem nenhuma estrela. Na verdade, não vemos estrelas no céu porque os astronautas desceram no lado da Lua que estava iluminado pelo Sol.

Mas então por que o céu estava escuro, e não azul, como observamos durante os dias aqui na Terra? O céu é escuro porque a Lua não tem uma atmosfera tão densa como a nossa e, assim, não há espalhamento da luz. De fato, 10% da luminosidade observada durante o dia devem-se à difusão da luz do Sol pelas moléculas existentes na atmosfera.

Algumas partículas e moléculas da atmosfera – inclusive provenientes da poluição atmosférica – servem para difundir a luz do Sol para todas as direções. Certas partículas são mais efetivas em difundir determinado comprimento de onda de luz. Em particular, as moléculas de oxigênio e de ozônio (muito abundantes na atmosfera terrestre), devido às suas pequenas dimensões, conseguem difundir com mais eficiência a luz com comprimentos de onda curtos, como é o caso da luz azul e da violeta.

As moléculas de oxigênio presentes na atmosfera têm origem no processo de fotossíntese, por meio do qual as plantas e as algas convertem o gás carbônico em oxigênio molecular utilizando a luz do Sol. Logo, o céu azul é uma marca da existência da vida na Terra.

Certamente um dia com muita luz torna-se mais bonito e agradável. Mas, sempre que sentirmos na pele o calor que a luz provoca ou enxergarmos a beleza que ela pode revelar, devemos lembrar que tudo isso é fruto de processos físicos importantes. Por trás da beleza, há sempre algo a mais.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos

segunda-feira, 24 de outubro de 2011

Quem está correto, Dr. Einstein?

Coluna Física sem mistério
Ciência Hoje On line
publicada em 21 de outubro de 2011

Nas últimas semanas, duas notícias ganharam destaque nos meios de comunicação referentes a dois resultados que podem mexer com os alicerces da física. Uma foi a divulgação dos resultados de um experimento que envolveu o Centro Europeu de Pesquisas Nucleares (Cern), na Suíça, e o Laboratório Nacional de Gran Sasso, na Itália.

Segundo os autores do estudo, foram observados neutrinos (partículas sem carga elétrica e praticamente sem massa) que viajaram mais rápido do que a velocidade da luz.
A outra foi o anúncio dos laureados pelo Prêmio Nobel de Física de 2011 – Saul Perlmutter, Adam G. Riess e Brian P. Schmidt – por terem descoberto, de forma independente, em 1998, a aceleração da taxa de expansão do universo.

Essas duas notícias com certeza chamariam muito a atenção, se ainda estivesse vivo, de Albert Einstein (1879-1955), pois estão diretamente relacionadas às suas mais importantes descobertas.
No começo do século 20 – como talvez esteja acontecendo agora –, houve uma grande reviravolta na física. Novos resultados experimentais e teorias para explicá-los mudaram profundamente a forma que entendemos a natureza.

Foi nessa época que nasceu a física quântica (que explica o comportamento de átomos e moléculas) e a teoria da relatividade (que ajuda a compreender o universo em grande escala e em altas velocidades). Essas duas teorias são os dois principais pilares da física moderna. Einstein contribui de maneira decisiva para ambas.

Em 1905, Einstein resolveu o problema da incompatibilidade entre a mecânica (que descreve o movimento) e o eletromagnetismo (que descreve os efeitos dos campos elétricos e magnéticos), com a sua teoria da relatividade especial (TRE).
Com essa teoria, ele afirmou que as leis físicas deveriam ser a mesma em todos os referenciais inerciais (que não sofrem aceleração) e que a velocidade da luz no vácuo é a mesma em todos referencias inerciais.

Ainda segundo a TRE, a massa de uma partícula cresce junto com a sua velocidade. Se atingisse a velocidade da luz, sua massa seria infinita. A velocidade da luz seria, portanto, intransponível. No caso da própria luz, como ela não tem ‘massa de repouso’, ela sempre viaja a aproximadamente 300 mil km/s.

Alguns anos depois, em 1915, Einstein lançou a teoria da relatividade geral (TRG), na qual expandiu a anterior para referencias não-inerciais (ou acelerados), o que resultou no desenvolvimento de uma nova teoria para a gravitação.

Será possível?

Se estiver correta a observação de que os neutrinos produzidos no Cern teriam chegado ao laboratório de Gran Sasso, que fica a 730 km de distância do centro europeu, 60 nanossegundos (ou 60 bilionésimos de segundo) antes do que deveriam, isso significa que eles viajaram mais rápido que a velocidade da luz.

Contudo, quando anunciado, esse dado recebeu muitas críticas da comunidade científica, visto que, se confirmado, derruba o que foi postulado por nada mais nada menos que o principal físico do século 20.

O grande ceticismo em relação ao resultado desse experimento é que a TRE é uma das teorias físicas mais bem testadas. Os equipamentos usados na mecânica quântica – inclusive o Grande Colisor de Hádrons (LHC, na sigla em inglês), o maior acelerador de partículas do mundo, localizado no Cern – são projetados com base nessa teoria. Se não fosse assim, os experimentos não funcionariam.

Outra questão que foi levantada é o fato de os neutrinos serem produzidos a alta energia nas supernovas, estrelas muito massivas que, no seu estágio final, realizam uma contração grande o suficiente para desencadear um processo de produção de energia tal que as faz brilhar mais do que uma galáxia inteira por um intervalo de tempo de alguns meses.
A maior parte da energia desse processo flui para fora da estrela na forma de neutrinos. Como eles interagem pouco com a matéria, escapam da supernova quase que imediatamente, enquanto os fótons, segundo as previsões teóricas, levariam cerca de três horas para deixá-las.
Em 1987, ocorreu a explosão de uma supernova (chamada Shelton ou SN1987A) na Grande Nuvem de Magalhães, uma galáxia satélite a nossa que está a aproximadamente 168 mil anos-luz de nós.
Nesse evento, milhões de neutrinos chegaram à Terra três horas antes de a luz ser detectada, como era esperado. Se esses neutrinos viajassem mais rápido que a luz, como afirma esse recente experimento, eles teriam chegado cerca de cinco anos antes!

Reviravolta?

Curiosamente, a descoberta que valeu o Prêmio Nobel de Física deste ano também está associada à observação de supernovas – de um tipo particular conhecido como IA.
De forma independente, dois grupos – Perlmutter e Schmidt lideravam equipes de pesquisa concorrentes, com Riess pertencendo à segunda – encontraram cerca de 50 supernovas. Ao medir o seu brilho, os pesquisadores observaram que ele era menos intenso do que o esperado, o que os levou a concluir que a expansão do universo estava acelerando.

Einstein previu a expansão do universo ao aplicar a teoria da relatividade geral para explicar a estrutura do universo como um todo. Na época, como não havia qualquer evidência do universo em expansão, o físico adicionou um termo a suas equações que funcionava como uma força gravitacional repulsiva para contrabalancear a ação gravitacional (que é atrativa), gerando assim um universo estático.

Em 1929, quando o astrônomo estadunidense Edwin Hubble (1889-1953) observou pela primeira vez a expansão do universo, Einstein apontou a suposta força gravitacional repulsiva que havia criado como o maior erro da sua carreira.

A expansão acelerada do universo é atualmente atribuída à chamada ‘energia escura’, que seria responsável por mais de 70% do universo, mas da qual se sabe ainda muito pouco.
O efeito da energia escura só pode ser observado em galáxias mais antigas do que a nossa, com aproximadamente cinco bilhões de anos, onde a matéria já teria se dispersado o suficiente para que essa força começasse a suplantar a gravidade e acelerasse a expansão do universo.

Diferentemente do experimento realizado no Cern, a aceleração da expansão do universo foi comprovada por outras observações e por outros experimentos.

Por outro lado, se de fato os neutrinos viajam mais rápido do que a luz, os modelos usados atualmente para compreender as supernovas talvez tenham que ser modificados e pode ser que isso interfira na interpretação das observações que mostraram que a expansão do universo está acelerada.

Dessa forma, ainda teremos muitos debates e somente novos experimentos mostrarão se o Dr. Einstein estava correto.




quarta-feira, 5 de outubro de 2011

Saiu o Prêmio Nobel de Física de 2011

Ontem (04 de outubro) foram divulgados os ganhadores do  Nobel de Física de 2011. Os agraciados com o prêmio foram Saul Perlmutter, da Universidade da Califórnia em Berkeley, Brian Schmidt, da Universidade Nacional Australiana e Adam Riess, da Universidade Johns Hopkins. O prêmio foi dado em função da descoberta, a partir da observação de um tipo especial de supernova em galáxias distantes, da aceleração da expansão do universo. Esses resultados foram obtidos na década de 90 do século passado e lançou uma dúvida crucial. Haveria uma nova força no universo que agiria contra a gravidade?

Ao observar as supernovas do tipo IA, que são estrelas que no seu estágio final de evolução são capazes de emitir energia equivalente a uma galáxia inteira, os pesquisadores descobriram que as distantes galáxias nas quais elas se encontravam estavam se afastando de nós em uma velocidade maior do que a esperada.

A expansão do universo foi descoberta em 1926 pelo astrônomo americando Edwin Hubble que ao observar o espectro de emissão das galáxias percebeu que estes estavam desviados para o vermelho. Esse efeito poderia ser explicado devido ao fato dessas galáxias estarem se afastando de nós em grandes velocidades, na ordem da velocidade da luz. Esse resultado foi posteriormente confirmado por inúmeras outras observações, indicando que o universo estava em expansão.

O resultado que valeu o prêmio Nobel foi devido a observação que o desvio para o vermelho para galáxias muito distantes indicam que elas estão aumentando a sua velocidade. Ou seja, parece que há uma força, ainda totalmente desconhecida, que acelera as galáxias distantes. A essa força foi dado o nome de "energia escura".

Atualmente sabe-se que praticamente 3/4 da massa do universo vem dessa energia escura. Contudo, ainda não existem evidências adicionais que corroborem essa descoberta, pois uma força fundamental que apenas atue em escala cosmológica é algo ainda sem precedentes na Física.













sábado, 24 de setembro de 2011

A Indicação do meu livro "A busca pela compreensão Cósmica" como finalista do prêmio Jabuti 2011 e nova resenha

O meu livro "A busca pela compreensão cósmica: Crônicas para despertar o interesse pela física e ciência em geral" foi indicado com um dos 10 finalistas do prêmio Jabutti 2011,  oferecido pela Câmara Brasileira do Livro, na categoria Ciências Naturais


Aproveitando essa indicação, transcrevo uma nova resenha que acabou de sair na Revista Ensaio - Pesquisa em Educação em Ciências, do Programa de Pós-Graduação em Educação da Faculdade de Educação da UFMG. A resenha foi escrita por Rodrigo Dumond Vieira, publicada em
Rev. Ensaio | Belo Horizonte | v.13 | n.02 | p.189-192 | mai-ago |2011.
A resenha pode ser lida na integra aqui

quinta-feira, 22 de setembro de 2011

Novos deuses no firmamento

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 16/09/2011

Na Antiguidade, as diferentes civilizações buscavam no céu explicações para as suas origens e procuravam conexões entre as milhares de estrelas para representar seus deuses e mitos. Assim como em uma grande tela, imaginava-se que as estrelas eram pontos que, conectados uns aos outros, formavam desenhos – as constelações.

Naquela época, havia a noção de que o céu era imutável, já que as estrelas aparentemente não mudam de posição entre si – hoje se sabe que as estrelas fazem uma trajetória ao redor da galáxia. Entretanto, percebiam-se entre as estrelas alguns objetos brilhantes mudando constantemente de posição em relação a elas.

Esses pontos luminosos (cinco, no total) foram identificados há cerca de 5 mil anos pelos mesopotâmios (povo que vivia onde atualmente está o Iraque) e denominados planetas, palavra de origem grega que quer dizer ‘corpo errante’. O Sol e a Lua também eram considerados planetas, uma vez que modificavam suas posições em relação às constelações.

Em homenagem a esses corpos celestes, os mesopotâmios criaram a semana com sete dias e consagraram cada dia a um planeta. Em muitos idiomas ainda é possível perceber essa associação. Por exemplo: segunda-feira em inglês é Monday (algo como ‘dia da Lua’), em espanhol é lunes e em italiano é lunedi.

Os povos antigos identificavam os planetas como divindades. Por isso, deram a esses astros os nomes de deuses da mitologia greco-romana.

Ao planeta que se desloca mais rapidamente no céu foi atribuído o nome do deus romano Mercúrio (Hermes, na mitologia grega), que era o mensageiro dos deuses. Mercúrio retorna à mesma posição no céu em apenas 88 dias. O planeta mais brilhante e bonito de se observar recebeu o nome da deusa da beleza, Vênus (Afrodite, para os gregos).

O planeta vermelho, que nos lembra sangue, foi batizado com o nome do deus da guerra, Marte (Ares, para os gregos). Para o brilhante planeta que se move lentamente, com imponência e majestade, foi dado o nome de Júpiter (Zeus, para os gregos), o rei dos deuses. Finalmente, o planeta que se move mais devagar, gastando quase 30 anos para voltar ao mesmo lugar no céu, como se fosse muito velho, foi chamado de Saturno (Chronos, para os gregos), considerado a personificação do tempo.

Universo revelado pelas lentes

O uso de instrumentos óticos revolucionou a observação do céu. Essa mudança teve início com o físico e matemático italiano Galileu Galilei (1564-1642). Em 1610, por meio de uma luneta com lente de apenas 4 cm de diâmetro, Galileu realizou inúmeras descobertas, entre elas, a da presença ao redor de Júpiter de quatro “planetas”. Galileu chamou de planetas os satélites Io, Europa, Ganimedes e Calisto. A denominação de satélite veio somente com o físico e matemático inglês Isaac Newton (1642-1727).

A descoberta de novos planetas em nosso Sistema Solar somente foi possível com a construção de telescópios maiores e mais precisos. Em 1781, foi descoberto o planeta Urano (o deus dos céus) pelo astrônomo inglês William Herschel (1738-1822), que usou um telescópio com um espelho de aproximadamente 15 cm de diâmetro.

Em 1846, o astrônomo alemão Johann Gottfried Galle (1812-1910) observou o planeta Netuno (Poseidon, para os gregos), o deus dos mares, por meio de uma luneta com uma lente de 23 cm de diâmetro. Galle encontrou Netuno a partir de cálculos da órbita do planeta realizados pelo astrônomo francês Urbain Jean Joseph Le Verrier (1811-1877). Esses cálculos foram feitos porque a órbita do planeta Urano sofria desvios que pareciam não obedecer às leis da mecânica newtoniana e esse efeito poderia ser explicado se houvesse um planeta além da órbita de Urano. Portanto, a descoberta de Netuno é considerada um dos maiores resultados da mecânica newtoniana.

Nos séculos 19 e 20, outros objetos descobertos no Sistema Solar foram classificados como planetas: Ceres, identificado em 1801; Plutão, em 1936; e Eris, em 2005. Contudo, em 2006, a União Astronômica Internacional redefiniu o conceito de planeta, classificando esses astros como planetas anões.

Essa classificação surgiu devido ao fato de que novos objetos celestes, como Haumea e Makemake, começaram a ser descobertos no Sistema Solar, principalmente próximos ao chamado Cinturão de Kuiper (localizado após a órbita de Netuno). Então ficou determinado que, para um corpo celeste ser considerado um planeta, ele deve ser o objeto dominante em sua órbita. No caso de Plutão, por exemplo, a sua lua Caronte tem quase metade do seu diâmetro e ele tem mais três luas (uma ainda não confirmada).

Para além do nosso Sol

No final da década de 1980, começaram a surgir as primeiras evidências de que deveria haver planetas orbitando outras estrelas. A comprovação direta da existência de planetas extrassolares só aconteceu em 1993, quando o astrônomo polonês Aleksander Wolszczan (1946-) observou indícios de planetas ao redor de um pulsar (estrela de nêutrons muito pequena e densa), o PSR B1257+12.
Até o fechamento desta coluna (16/09), já foi confirmada a existência de 686 planetas extrassolares. Praticamente todas as semanas há anúncios de novas descobertas. Estas são realizadas a partir de telescópios gigantes, com espelhos de quase 10 metros de diâmetro, e por satélites especialmente projetados para procurar esses planetas, como o Corot (da Agência Espacial Europeia – ESA) e o Kepler (da Nasa).

Nesta semana, em particular, o Observatório Europeu do Sul (ESO, na sigla em inglês) anunciou a descoberta de 50 planetas fora do Sistema Solar. Entre eles, está uma ‘super-Terra’ que tem aproximadamente 3,6 massas terrestres e orbita uma estrela semelhante ao Sol. Esse planeta fica a uma distância dessa estrela que, a princípio, pode permitir a existência de água no estado líquido, mas ainda não existe nenhuma evidência disso.

A grande maioria dos planetas extrassolares detectados até agora estão apenas a algumas dezenas de anos-luz de nós (um ano-luz equivale a aproximadamente 10 trilhões de quilômetros) e são planetas gigantes, com massas semelhantes à de Júpiter. Esse é o caso do planeta 51 Pegasi B, o primeiro confirmado em volta de uma estrela semelhante ao Sol. Ele tem metade da massa de Júpiter, completa uma volta ao redor da sua estrela em aproximadamente quatro dias e está apenas a 7,8 milhões de quilômetros dela.

os próximos anos, se a ESA aprovar o projeto Plato (sigla em inglês para ‘trânsitos planetários e oscilações de estrelas’), que prevê a construção de uma versão aperfeiçoada dos satélites caçadores de planetas, será possível mapear cerca de 300 mil estrelas, quase 10 vezes mais que a capacidade dos satélites atuais. Vale ressaltar que esse número, embora muito grande, é apenas uma pequena parte das centenas de bilhões de estrelas que existem na Via Láctea.


Além disso, o Plato terá resolução suficiente para identificar planetas com dimensões semelhantes à da Terra, o que pode aumentar a expectativa de encontrar planetas capazes de suportar formas de vida.

Com a velocidade dos avanços tecnológicos, talvez consigamos, nas próximas décadas, viajar pessoalmente para alguns dos planetas do nosso Sistema Solar e até descobrir algum planeta extrassolar no qual a vida também tenha surgido. Esses mundos distantes, que já foram divindades para nós, se tornarão mais próximos. E a Terra deixará de ser, como disse o astrônomo estadunidense Carl Sagan (1934-1996), apenas “um pálido ponto azul”, “um grão solitário na grande e envolvente escuridão cósmica”.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos



terça-feira, 6 de setembro de 2011

Está no ar a 25a. Edição da Click Ciência - Código Florestal

Editorial

 

Ajudando a definir um caminho seguro

 

Objetividade, imparcialidade e neutralidade são termos usados corriqueiramente para definir o Jornalismo e a Ciência. Entretanto, tanto Ciênca quando Jornalismo são atividades realizadas por pessoas que carregam consigo suas convicções, visões de mundo e ideais. Assim, por mais objetivas que se pretenda, essas duas práticas acabam por absorver parte dessas subjetividades que nos fazem humanos. No recente debate sobre a nova proposta do Código Florestal Brasileiro isto tem ficado evidente. Grande parte da imprensa apenas informa - e, em alguns casos, nem isso faz -, enquanto alguns poucos estudos ciêntíficos, produzidos com interesses econômicos óbvios, servem como argumento para as mudanças propostas. Enquanto isso, vários segmentos da sociedade, junto à grande maioria dos cientistas, se vêem amordaçados em uma discussão que pode definir os rumos do País.

Apesar de reconhecermos que a Ciência, assim como o Jornalismo, não detem verdades absolutas, temos a certeza de que ela pode ajudar a indicar os rumos mais seguros nesse debate. Pensando nisso, preparamos essa edição para ouvir o que os cientistas têm a dizer sobre o  Código Florestal. Como humanos, esses cientistas também carregam consigo diferentes visões de mundo e convicções políticas; no entanto, todos são unânimes em afirmar que a nova proposta deve ser barrada. Na reportagem "Código Florestal para que?", você fica sabendo quais são os aspectos mais criticados da nova proposta e, também, por que a legislação ambiental atual é tão importante na manutenção da qualidade ambiental. O impacto das novas medidas na intensificação dos desastres ambientais e das mudanças climáticas é abordado na matéria "Desastres, clima e o novo Código Florestal". Também na mesma seção você confere as reportagens: "O Código e a Biodiversidade"; "Agricultura pode (e deve) combinar com conservação"; "Um Código Florestal para a Sociedade"; e "Código Florestal para quem?".

Nosso entrevistado especial da edição é o professor José Galizia Tundisi, que falou de suas preocupações em relação aos impactos das mudanças no Código sobre os recursos hídricos. Na seção de artigos, vários colaboradores ajudam a esclarecer outros pontos importantes da questão. "Como as mudanças no Código Florestal Brasileiro afetarão a avifauna brasileira", da bióloga Marina Telles, explica de maneira clara o que o próprio título do artigo revela. Em "O papel da educação ambiental no processo de mobilização em defesa do Código Florestal", a bióloga Mayla Willik Valenti e colaboradores explicam o papel político da Educação Ambiental. Por último, mas não menos importante, a bióloga Carolina Stella Gonçalves trata das importantes relações entre a Ecologia e a Economia em "Economia além do Homem, Ecologia além da Mata". Como não poderia deixar de ser, na nossa seção de resenhas você encontra dicas bacanas, como o filme "Brincado nos campos do Senhor", de Hector Babenco, e o livro "Escolhas Sustentáveis", de Rafael Chiaravalloti e Cláudio Pádua.


Boa leitura!

terça-feira, 23 de agosto de 2011

Uma questão de ponto de vista

Coluna Física sem mistério
Ciência Hoje on-line
Publicada em 19 de agosto de 2011

Uma característica importante no processo de ensino e aprendizagem é estimular a habilidade dos alunos de emitir opiniões e refletir sobre os assuntos e temas abordados. Há sempre a expectativa de que os estudantes se interessem e sejam participativos, apresentando questionamentos e defendendo o seu ponto de vista.

Da mesma maneira, na física e na ciência em geral, quando surge uma teoria ou é feita uma descoberta, os cientistas normalmente não aceitam de imediato os resultados. Surgem controvérsias e divergências de opinião acerca do tema, que podem levar muito tempo para serem esclarecidas. Geralmente os pontos de vista são defendidos de maneira muito intensa, e polêmicas podem aparecer.

No caso de uma nova teoria física, ela somente é considerada válida quando verificada experimentalmente. Além disso, pode-se ter uma centena de resultados que concordem com a teoria, mas basta apenas um para nos mostrar que ela está equivocada ou incompleta.

Quando se realiza um novo experimento e este mostra um resultado inusitado, ele somente será considerado válido quando for reproduzido, de maneira independente, por outros pesquisadores.

Nesse sentido, a grande vantagem da ciência como uma forma de conhecermos a natureza é o fato de que ela está em constante evolução, ou seja, novos resultados ou teorias sempre surgem para reforçar ou refutar o paradigma vigente.

Entre as inúmeras controvérsias que já surgiram na física, destaca-se a grande revolução que ocorreu no começo do século passado. A teoria da relatividade especial, proposta pelo físico alemão Albert Einstein (1879-1955), colocou em xeque a chamada mecânica clássica, um conjunto de conhecimentos construído ao longo de mais de 300 anos.

Os pilares da mecânica clássica

As bases da mecânica clássica foram estabelecidas no século 17 pelo físico inglês Isaac Newton (1642-1727) a partir das três leis do movimento e da lei da gravitação universal.

A primeira lei de Newton (o princípio da inércia) estabelece que todo corpo se mantém em repouso ou em movimento uniforme se não houver a ação de uma força externa sobre ele. Esse princípio foi proposto primeiramente pelo físico e astrônomo italiano Galileu Galilei (1564-1642) para compreender a natureza dos movimentos, em particular os movimentos da Terra em torno de si e ao redor do Sol.

A segunda lei de Newton (o princípio fundamental da mecânica) mostra que a variação da quantidade de movimento (produto da massa multiplicada pela velocidade de um corpo) é igual à força aplicada sobre o objeto. Na terceira lei de Newton (o princípio de ação e reação), apresenta-se a ideia de que, ao se aplicar uma força sobre um corpo, este reage com outra força de mesma intensidade, mas em sentido contrário.

Completando o quadro, Newton propôs que há entre os corpos uma força de atração que é proporcional ao produto de suas massas e ao inverso do quadrado das distâncias que os separam. Essa força ficou conhecida como a força da gravidade.

Com base nessas leis e nas ferramentas matemáticas também desenvolvidas por Newton (o cálculo diferencial e integral), foi possível construir um modelo completo para descrever o movimento dos corpos, tanto na Terra como no espaço.

Para a mecânica clássica, não havia um limite para a velocidade dos corpos e o espaço e o tempo eram absolutos, independentemente do observador. Esse paradigma reinou praticamente como o único ponto de vista aceito pela física por quase 250 anos.

Quebra de paradigma

Contudo, quando Einstein apresentou outro ponto de vista, no ano de 1905, a física nunca mais foi a mesma. Os princípios propostos por ele, embora sejam simples, provocaram mudanças radicais.

Um desses princípios é que as leis da física são as mesmas para todos os observadores em referenciais inerciais (referenciais que não estão sob a ação de qualquer força e, dessa forma, conservam seu estado de movimento).

O outro princípio é que a velocidade da luz é constante, independentemente do referencial do observador ou do movimento da fonte que a emite. (Para mais detalhes, leia a coluna Sonhos de um jovem visionário, publicada em março de 2007)

A controvérsia que Einstein provocou está justamente em questionar os conceitos de espaço e tempo absolutos estabelecidos na física newtoniana. Aplicando os dois princípios descritos acima, Einstein mostrou que a velocidade da luz jamais pode ser atingida e, quando nos movemos em uma velocidade próxima à da luz, o tempo passa mais devagar e as distâncias são contraídas na direção do movimento. Portanto, se fosse possível atingir a velocidade da luz, o tempo pararia e os objetos colapsariam.

Além disso, surgiu como consequência da aplicação desses dois princípios a famosa relação E=mc2 (onde ‘E’ é energia, ‘m’, massa e ‘c’, a velocidade da luz no vácuo). Quando se fornece energia para um corpo aumentar a sua velocidade, como ele não pode acelerar até a velocidade da luz, parte da energia se transforma em massa, de acordo com a equação de Einstein.

Aceitação das novas ideias

Essas divergências que a teoria da relatividade restrita (ou especial) apresentou em relação ao ponto de vista da mecânica clássica não foram imediatamente aceitas. Demorou alguns anos para que experimentos pudessem comprovar que a proposta de Einstein correspondia a uma descrição mais completa da natureza.

De fato, em 1915, Einstein ampliou a sua teoria para incluir os objetos em movimento acelerado, o que levou a uma nova teoria da gravitação, que ficou conhecida como teoria da relatividade geral.
Com essa nova teoria, ele pôde explicar algumas questões que a teoria newtoniana não conseguia, como o movimento do periélio (ponto da órbita de um corpo mais próximo do Sol) e o desvio da luz das estrelas devido à ação gravitacional do Sol. Esta última constatação – a mais polêmica – foi comprovada pela primeira vez a partir da observação de um eclipse total do Sol em Sobral, no Ceará, em maio de 1919. As observações concordaram com a previsão de Einstein.

Esse é apenas um exemplo de como a física e a ciência em geral são construídas a partir da discussão de novas teorias e experimentos que levam a novos pontos de vista sobre a natureza. A razão fica sempre com quem consegue provar as suas ideias a partir dos experimentos.
Por isso, a discussão e a defesa de ideias com base em fatos e propostas são de fundamental importância para o desenvolvimento científico.






segunda-feira, 25 de julho de 2011

O último voo da águia?

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 22/07/2011

Os alunos que me procuram em minha sala na universidade se surpreendem com os modelos da espaçonave Enterprise da franquia Jornada nas estrelas que tenho em algumas prateleiras. A paixão pela série é antiga, pois como nasci na década de 1960 – mesma época da série – cresci assistindo às viagens interestelares do capitão Kirk e do vulcano Spock. Imaginava que algum dia poderíamos navegar de verdade pelas estrelas. De certa forma, isso também me inspirou a ser cientista.

No final dos anos 1960 e começo dos 1970, o sonho da conquista do espaço estava muito presente. O homem tinha pousado na Lua com a missão Apollo 11, em 20 de julho de 1969. Quando o módulo lunar Eagle (águia, em português, símbolo dos Estados Unidos) pousou, o astronauta estadunidense Neil Armstrong enviou a mensagem para o comando da missão: “Houston, aqui Base da Tranquilidade. A Eagle pousou”. Foi assim que Armstrong batizou o lugar do primeiro pouso, localizado na região da Lua chamada Mar da Tranquilidade.



A disputa pela conquista do espaço começou nos tempos da Guerra Fria, período da corrida armamentista entre os Estados Unidos e a extinta União Soviética. Como os soviéticos foram os primeiros a mandar um satélite, um ser vivo (a cadela da raça laika) e um cosmonauta para o espaço, o governo dos Estados Unidos propôs como meta enviar o primeiro homem à Lua até o final da década de 1960.

Dessa maneira, no imaginário popular e na ficção científica produzida à época, a conquista do espaço tornou-se algo próximo, que logo seria alcançado. Parecia que, em algumas décadas, o homem visitaria pessoalmente os planetas do nosso sistema solar. Acreditava-se que, no século 21, existiriam bases lunares e grandes estações espaciais, como as retratadas no famoso filme de Stanley Kubrick, 2001 - Uma odisseia no espaço. Infelizmente, não é bem isso que vemos nesse momento.

No mês de julho de 2011 aconteceu a última missão do ônibus espacial Atlantis, que encerra a série de voos desse veículo, criado ainda nos anos 1970 para substituir o projeto Apollo na tentativa de se alcançar a órbita terrestre. Embora exista a Estação Espacial Internacional (ISS, na sigla em inglês), ela ainda é muito modesta quando comparada à exibida no filme 2001...



O motivo do corte no programa do ônibus espacial, sem que os americanos apresentassem uma alternativa a esse veículo, é o problema de orçamento. Como no caso do projeto Apollo, que consumiu centenas de bilhões de dólares, a exploração humana do espaço é cara e, em alguns momentos, existe a discussão se ela realmente vale a pena, em vista dos retornos diretos que ela de fato pode trazer.

Fragilidade tecnológica

A corrida para se chegar à Lua levou ao desenvolvimento de tecnologias necessárias apenas para chegar lá, mas não para uma exploração duradoura e a custos que pudessem manter o projeto em longo prazo. As missões dos astronautas da Apollo duravam apenas algumas horas, não permitindo de fato uma investigação científica mais profunda.

A atual tecnologia utilizada para impulsionar os foguetes e as espaçonaves é baseada no princípio da ação e reação, que foi proposto pelo cientista inglês Isaac Newton (1643-1727) há 350 anos. A ideia é simples: para toda ação de uma força ocorre uma reação de igual intensidade e de sentido contrário.
Os motores dos foguetes utilizados para colocar as espaçonaves em órbita funcionam a base de oxigênio e hidrogênio líquidos. Quando os componentes do combustível reagem na câmara de combustão, o gás resultante é expelido para trás em altíssima pressão. De acordo com o princípio da ação e reação, a força realizada para expelir o gás é igual a que o gás faz sobre o foguete, impelindo-o para frente.

Na medida em que se esgota o combustível, os módulos vazios são ejetados, ajudando a propulsão do foguete. Independentemente do tipo de combustível utilizado, o princípio é sempre o mesmo. No caso do foguete Saturno V, o mais potente já construído – utilizado para lançar a Apollo 11 – tinha 110 m de altura e pesava mais de 3 mil toneladas. Já a Apollo 11 pesava cerca de 46 toneladas.

As viagens dos ônibus espaciais eram limitadas à baixa órbita terrestre, não passando de 600 km (diferente das viagens à Lua, que está aproximadamente a 380 mil km da Terra). Como qualquer objeto em órbita, o ônibus espacial e a ISS ficam sob a ação da gravidade e, portanto, estão sempre “caindo” em direção à Terra.

No caso da ISS, devido à velocidade com que se desloca (27.700 km/h), ela realiza um movimento elíptico ao redor da Terra, ora se aproximando, ora se afastando do nosso planeta. Além disso, a ISS sofre efeitos de atrito com a atmosfera terrestre – mesmo a sua altitude média sendo de 340 km –, que diminuem a sua órbita em aproximadamente 2,5 km por mês. Por isso, foguetes nela instalados precisam impulsioná-la para órbitas mais altas de tempos em tempos.
Esse tipo de tecnologia é, portanto, muito limitado para fazermos explorações de longa duração no espaço.
Além disso, existem os problemas da resistência do corpo humano a grandes acelerações, assim como a influência da ausência de gravidade em nosso organismo, que costuma resultar em efeitos nocivos à saúde quando os astronautas permanecem longos períodos no espaço, como fragilidade dos músculos e formação de osteoporose. E ainda, mesmo com a proteção das espaçonaves contra a radiação, em períodos de muita atividade solar, existem os riscos de ela atingir os astronautas.

Uma longa jornada

Com a aposentadoria dos ônibus espaciais, as viagens à Estação Espacial ficarão por conta das naves russas Soyuz, que também foram criadas na década de 1970, mas são mais baratas e, aparentemente, mais seguras do que os ônibus espaciais – marcados por dois acidentes, com as naves Challenger e Columbia, que levaram à morte de todos os tripulantes.


O sonho de realizar jornadas pelas estrelas ainda levará muito tempo para ser realizado. Será necessário desenvolver novas e mais eficientes tecnologias e explorar mais o espaço por meio de sondas robóticas, que, do ponto de vista científico, trazem mais retorno a um custo bem menor.

Afinal, como a franquia Jornada nas estrelas sugere, isso somente acontecerá nos séculos 22 e 23. Ou seja, ainda há muito tempo para aprender a vencer os desafios.



Adilson de Oliveira
 Departamento de Física
Universidade Federal de São Carlos

sexta-feira, 1 de julho de 2011

A nova edição da ClickCiência - O Ano Internacional da Química

Embora com algum atraso estamos lançando uma nova edição da revista eletrônica ClickCiência, que discute a Química, devido ao fato que 2012 foi escolhido como Ano Internacional da Química.
Aproveitem e enviem sugestões e criticas.


Editorial


Nas reportagens desta edição, você fica sabendo um pouco mais sobre os novos desafios da Química e sobre a sua relação com a Indústria. Além disso, você confere os rumos do ensino dessa ciência no Brasil. 
Na seção de entrevistas, Ourides Santin Filho, do Departamento de Química da Universidade Estadual de Maringá (UEM), conta a surpreendente história da "construção" da Tabela Periódica. Já Cláudia Moraes Rezende, do Instituto de Química da Universidade Federal do Rio de Janeiro (UFRJ),  e coordenadora do Ano Internacional da Química no Brasil, fala sobre a Química nos dias atuais e seus novos desafios.
Os mistérios revelados pelos raios gama são o tema da coluna da Professora Sueli Viegas. Também nesta edição você fica sabendo um pouco mais sobre a interface entre Física e Química no artigo de Lívia Zeviani. 
Além disso, aproveite para dar uma olhada na nossa dica do filme "O Perfume" e mergulhe em um universo de Química, suspense e pessoas de temperamento sórdido. 
 
 
Boa leitura!

domingo, 26 de junho de 2011

O Sol não nasce no Leste

No dia 21 de junho passado começou o solstício de inverno, que marca a estação na qual temos a parte iluminada do dia mais curta. Dependendo da região na qual esteja, o Sol nasce bem depois das 6h00 da manhã e se põe antes das 18h00. Na época do sollstício verão, ao contrário, temos o nascimento do Sol bem mais cedo e o se ocaso bem mais tarde. Embora o inverno é a época que temos as temperaturas mais baixas, nem sempre isso é observado da mesma maneira ao longo do país, como também temos dias muito frios na época do verão..
A palava solstício quer dizer "Sol parado", ou seja, ao longo do ano o nascer e o pôr do Sol se modifica diariamente. No dia do solstício de inverno o Sol para de se deslocar na direção do Norte e começa a voltar para o Leste, e somente no dia do equinócio da primavera  do hemisfério Sul (para o hemisfério Norte é o equinócio de outono), que o Sol nascerá e no Leste e se porá no Oeste.
Esse fenômeno ocorre devido ao fato que o eixo de rotação da Terra está inclinado em cerca de 23 graus em relação a uma reta perpendicular ao plano de órbita da Terra ao redor do Sol, como mostra a Figura abaixo.

Representação da órbita terrestre, indicando a posição da Terra em relação ao Sol nas datas dos equinócios e solstíticos. As proporções estão fora de escala
Percebemos na ilustração acima o porque dos dias serem mais iluminados no verão e menos no inverno.
Embora conhecemos isso há milhares de anos, percebemos que a maioria das pessoas ainda crê que o Sol nasce no Leste e isso poderia ser um guia seguro para orientação. Para mais detalhes sobre isso, veja a minha coluna no Ciência Hoje on-line que discuto isso: "Das estrelas ao GPS"

Na pequena enquete que fiz no Blog, que não tem validade estatística tive as seguintes respostas para a pergunta:


Onde ocorre o nascente e o poente do Sol?

sempre no leste e no oeste
  24 (54%)
 
sempre no norte e no sul
  1 (2%)
 
nunca pensei nisso
  2 (4%)
 
se modifica ao longo do ano
  17 (38%)
 
total de votantes: 44 

Nessa pequena amostragem verifiquei que mais da metade das pessoas que responderam a enquete (54%) acha que o Sol nasce no Leste e se põe no Oeste. Apenas 44 pessoas responderam à pesquisa que ficou mais de 30 dias no ar. Nesse período o Blog teve na ordem de 4000 acessos.
De fato, essa é uma bandeira que eu luto muito para divulgar. Ainda encontramos livros didáticos (inclusive nos aprovados pelo MEC) a informação para se orientar através da posição do Sol no céu, baseando-se no fato que ele nasce sempre no Leste. Sabe-se disso há mais de 4000 anos, mas ainda ensinamos isso (principalmente na educação infantil) de forma equivocada.


sábado, 18 de junho de 2011

O espetáculo oculto no céu

Coluna Física sem mistério
Ciência Hoje On-line
publicada em 17/06/2011

Imagens do eclipse total da Lua ocorrido em 15 de junho de 2011. O fenômeno, observado por astrônomos, amadores e interessados em todo o Brasil, foi um dos mais longos dos últimos 11 anos, durando cerca de duas horas. (fotos: Aruá Torigoe/ UFSCar)
No final da tarde e início da noite de 15 de junho aconteceu um dos mais belos espetáculos celestes que podemos observar. A Lua apareceu por volta das 18h, mas mal podia ser vista. Aos poucos, à medida que foi escurecendo, era possível vê-la envolvida por uma coloração levemente avermelhada.

Por volta das 18h20, a Lua começou a brilhar novamente, parecendo estar em sua fase crescente. Já por volta das 20h, ela estava totalmente reluzente no céu. Provavelmente, muitas pessoas nas grandes cidades nem perceberam o que acontecia, pois quando escureceu de fato a Lua já estava totalmente coberta pela sombra da Terra.

O que aconteceu foi um eclipse total da Lua. Esse fenômeno ocorre quando o Sol, a Terra e a Lua ficam alinhados, estando a Terra no meio, de tal forma que a Lua atravessa a sombra projetada pelo nosso planeta. O evento que aconteceu no dia 15 de junho foi um dos mais longos dos últimos 11 anos, durando aproximadamente duas horas.

Embora a Lua complete uma volta ao redor da Terra a cada 28 dias, aproximadamente, os eclipses lunares e solares não acontecem todos os meses, porque a órbita da Lua está em um plano com inclinação de aproximadamente 5o em relação ao plano da órbita da Terra ao redor do Sol.

Por isso, somente quando ocorre a coincidência desse alinhamento é que acontecem os eclipses. Dessa forma, temos eclipse lunar na lua cheia, quando a Terra fica entre a Lua e o Sol, e o eclipse solar na lua nova, quando a Lua se coloca entre a Terra e o Sol.

Temor e sacrifícios
Há milhares de anos, povos primitivos costumavam ficar preocupados ao observar esse tipo de fenômeno. Para eles, era assustador imaginar que, de repente, a Lua (ou o Sol) “desapareceria” do céu.

No caso do eclipse lunar, ocorre um espalhamento da luz do Sol devido às partículas de poeira que estão em suspensão na atmosfera. Isso faz com que parte da Lua fique avermelhada, produzindo um efeito semelhante ao do pôr do Sol.

Povos primitivos costumavam ficar preocupados ao observar esse tipo de fenômeno e ofereciam sacrifícios para aplacar a fúria dos seres capazes de escurecer a Lua ou o Sol
Para esses povos, era como se um poderoso ser fizesse a Lua sangrar. Temendo esse tipo de situação e suas consequências, ofereciam sacrifícios, inclusive humanos, para aplacar a fúria desse ser capaz de escurecer a Lua ou o Sol.

Contudo, ao longo de anos de busca pela compreensão da natureza foi possível começar a se entender melhor fenômenos desse tipo, perceber que eles não tinham origem sobrenatural.

Os caldeus, povo que viveu na Mesopotâmia cerca de 2.000 anos antes da nossa era e dominou as regiões da Babilônia e Assíria até o ano 539 a.C., registravam de maneira cuidadosa as datas de todos os eclipses e perceberam que a sequência de eclipses se repetia sucessivamente após cerca de 6.585 dias, ou seja, aproximadamente 18 anos e 11 dias.

Os caldeus batizaram esse período de um Saros, que, no idioma caldeu, é um derivado da palavra "repetição". Durante cada um desses períodos ocorrem 41 eclipses solares e 29 lunares.

Raios e cálculos
Os antigos filósofos gregos compreendiam de maneira detalhada os fenômenos celestes, utilizando apenas o cuidado e a observação atenta da natureza. Erastóstenes (276-194 a.C.), que viveu em Alexandria, no Egito, tomou conhecimento, através da leitura de um pergaminho, de que em Siena, localizada cerca de 800 km ao sul da cidade, havia um poço no qual um dia por ano, e apenas nesse dia, era possível ver a imagem do Sol refletida em suas águas.

Isso significava que, nesse dia, os raios solares incidiam perpendicularmente à superfície da água. O filósofo imaginou que se esses raios fossem prolongados continuamente, eles passariam pelo centro da Terra (como mostra a figura).
Esquema dos resultados obtidos por Erastóstenes ao observar a incisão dos raios solares em um poço no qual um dia por ano era possível ver a imagem do Sol refletida em suas águas. O experimentou levou o filósofo a concluir que a Terra é esférica. (imagem: reprodução)

No entanto, num desses dias, a hipótese de Erastóstenes foi testada e o fato não foi verificado, ou seja, os raios solares não incidiam de forma perpendicular sobre a superfície da Terra. Uma vara colocada sobre uma superfície plana projetou uma sombra que permitiu observar que os raios incidiam com uma inclinação de aproximadamente 7º.

Erastóstenes então concluiu que isso somente poderia acontecer se a superfície da Terra fosse encurvada e que, portanto, o planeta deveria ter uma forma esférica.

Com um pouco de geometria, ele determinou o raio da Terra. O resultado que obteve tinha um erro menor que 15% do valor real. Contudo, um feito notável para a época. Com base em seus dados, inferiu também o tamanho da Terra.

Por esse motivo, quando Cristóvão Colombo (1451-1506) quis empreender a sua viagem para a Índia pelo Oceano Atlântico, poucos deram crédito a ele, pois, se a estimativa de Erastóstenes estivesse correta, Colombo não conseguiria realizar a viagem, já que a distância a ser percorrida seria na ordem de dezenas de milhares de quilômetros. Felizmente, para ele, havia o continente americano no caminho.

Novo papel

Os eclipses foram também muito importantes para podermos estimar as dimensões do Sistema Solar. Hiparco (190-126 a.C.), um grande astrônomo da antiguidade, foi capaz de estimar a distância Terra-Lua no século 2 a.C. utilizando um eclipse total da Lua.

Basicamente, Hiparco marcou o tempo do início e do fim do eclipse e estimou o ângulo que alguém que estivesse no Sol veria um raio solar atingir a Terra. Dessa maneira, utilizando a medida do raio da Terra (realizada por Erastóstenes um século antes) e um pouco de geometria, foi possível calcular a distância Terra-Lua.

O resultado dos cálculos sugeria que a distância Terra-Lua era de aproximadamente 80 raios terrestres, um pouco menor do que o valor que conhecemos atualmente, na ordem de 380.000 km. Com a medida de Hiparco, Isaac Newton, por sua vez, pôde calcular a força que a Terra exerce sobre a Lua (e vice-versa) por meio da gravidade.

Centenas de anos depois, em maio de 1919, um eclipse total do Sol que ocorreu na cidade de Sobral, no Ceará, foi decisivo para comprovar a teoria da relatividade geral do físico alemão Albert Einstein (1879-1955), que propunha uma nova forma de entender a gravidade.

Os astrônomos que integraram a expedição à Sobral mediram o desvio que a luz das estrelas próximas ao Sol sofriam devido ao efeito da atração gravitacional. Esse tipo de observação somente pôde ser feita durante o eclipse, pois momentaneamente o céu fica escuro, tornando possível fotografar a posição das estrelas para depois compará-la a sua posição quando o Sol não está próximo.

Atualmente os eclipses não têm mais grande relevância científica, mas servem com certeza para estimular a curiosidade, principalmente das crianças e dos jovens, pelo funcionamento da natureza e levá-los a entender um pouco mais da ciência por trás de fenômenos do tipo.

Nesse último eclipse, foi muito bom poder ver o espanto e a admiração da minha filha quando olhou através do telescópio e viu os detalhes do eclipse. Isso realmente não tem preço.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos

sexta-feira, 3 de junho de 2011

A Dança da Supercondutividade.

Na coluna desse mês (O Termômetro das Grandes Transformações) discuti alguns aspectos interessantes sobre o conceito de temperatura e com o calor pode provocar as mudanças no estado da matéria. Entre os aspectos que comentei, falei sobre o fenômeno da Supercondutividade, que ocorre em baixas temperaturas. Alguns materiais quando resfriados a uma determinada temperatura não oferecem mais resistência elétrica e são capazes de expulsar o campo magnético do seu interior. Os supercontudores tem inúmeras aplicações, entre elas a levitação magnética de trens ou permitir a construção de bobinas para gerar altos campos magnéticos, como àquelas utilziadas nas máquinas de ressonância magnética. Recebi de um colega meu, Prof. Rafael Zadorosny, um link de um vídeo muito legal que explica de uma maneira simples o complexo fenômeno da Supercondutividade. Vale a pena dar uma olhada.


domingo, 22 de maio de 2011

O termômetro das grandes transformações

Coluna Física sem Mistério
Publicada em 20 de maio de 2011

A sensação de algo estar quente ou frio é sempre relativa. As pessoas têm sensibilidades e gostos diferentes para a temperatura da comida, por exemplo. Eu particularmente não gosto de comida muito quente e muito menos de queimar a língua. Alguns brincam que é porque sou um cientista que trabalha com baixas temperaturas no laboratório.

Uma situação bem cotidiana para nós é observar as transformações pelas quais a água passa quando mudamos a sua temperatura. Sabemos que ao aquecermos a água em uma chaleira no fogão, em um dado momento começam a surgir bolhas de vapor no fundo da chaleira que levam o líquido a entrar em grande agitação, ou seja, em ebulição.

Se a água for absolutamente pura – o que não ocorre em nossas casas, pois a água que consumimos possui muitos componentes – e se estivermos na cidade do Rio de Janeiro, esse fenômeno acontece a temperatura de 100 oC. Já na cidade de São Paulo, a temperatura em que isso ocorre é aproximadamente de 97,5 oC.

Essa diferença de temperatura deve-se ao fato de São Paulo estar a 760 m de altitude em relação ao nível do mar e por isso tem uma pressão atmosférica menor.

Da mesma forma, em uma panela de pressão se cozinha mais rapidamente porque nela consegue-se atingir pressões mais altas (na ordem de 1,4 atmosfera), o que faz com que a água entre em ebulição a 120 oC. Dessa maneira, quanto menor a pressão, mais fácil é para as moléculas da água se transformarem em vapor; quando a pressão é mais alta, maior deverá ser a temperatura para que ela mude do estado líquido para o gasoso.

A ebulição é um processo de evaporação que ocorre abaixo da superfície do líquido, formando bolhas de vapor que são empurradas para superfície devido à força conhecida como empuxo. É interessante observar que quando a água atinge a temperatura de ebulição, esta se mantém até que o líquido se transforme completamente em vapor.

Dessa forma, a ebulição é um processo de resfriamento, pois a energia que é fornecida para ferver a água não aumenta a temperatura, mas contribui para o processo de mudança de estado.
Por outro lado, se abaixarmos a temperatura a 0 oC, ocorre o fenômeno de congelamento, na pressão de uma atmosfera. Nesse caso, quando a energia é retirada de um líquido, a agitação das moléculas diminui até moverem-se lentamente. Então, as forças atrativas existentes entre elas geram coesão, fazendo com que as moléculas vibrem em torno de posições fixas e formem um sólido – o gelo.

Estados manipulados

Como vimos, o fato de uma substância estar no estado sólido, líquido ou gasoso depende das condições de temperatura e pressão na qual se encontra. Em nosso planeta, devido a sua massa e distância em relação ao Sol, há condições para que a água esteja no estado líquido na temperatura ambiente e que outras substâncias estejam no estado gasoso, como ocorre com os elementos da nossa atmosfera.

Se as temperaturas em nosso planeta fossem muito baixas, além de a água ficar no estado sólido, os gases da nossa atmosfera poderiam estar presentes no estado líquido. O nitrogênio e o oxigênio, quando resfriados a temperaturas muito inferiores ao 0 oC, passam por transformações semelhantes.
O nitrogênio se torna líquido a temperatura de -196 oC e o oxigênio, a -182 oC. Esses gases, quando liquefeitos, têm inúmeras aplicações. O nitrogênio líquido é utilizado em processos de congelamento de alimentos e o oxigênio líquido, por sua facilidade de armazenamento (ele ocupa menos espaço), é usado em hospitais ou ainda como parte do combustível de foguetes espaciais.

A liquefação desses gases ocorreu pela primeira vez em meados do século 19, a partir do desenvolvimento de máquinas capazes de comprimi-los a altas pressões. Dos gases conhecidos na época, só não se conseguiu repetir o processo no hélio, que havia sido recém-identificado. O gás foi observado primeiramente no Sol, que tem cerca de 25% de sua massa composta por esse elemento.
A dificuldade de se encontrar o hélio aqui na Terra deve-se ao fato de ele ser um gás nobre, por isso, não faz ligação química com outros elementos e também não forma uma molécula com si mesmo, como é o caso de outros elementos, por exemplo, o hidrogênio, que se apresenta na forma da uma molécula com dois átomos. O hélio é encontrado apenas nas regiões profundas da Terra, junto com jazidas de petróleo. No Brasil, o hélio é muito caro, custando cerca de dezenas de dólares o litro.

O hélio em estado gasoso é usado para encher balões, como aqueles das festas infantis, e em dirigíveis e balões que alcançam a alta atmosfera terrestre. Em estado líquido, chega a atingir a temperatura de -269 oC, ou seja, apenas 4 graus acima da menor temperatura possível, que é de -273,15 oC ou 0 kelvin (a escala absoluta de temperaturas). É nessa temperatura que coisas interessantes começam acontecer.

Intuição desafiada

O físico holandês Heike Kamerlingh Onnes (1853-1926), em seu laboratório de criogenia da Universidade de Leiden, na Holanda, liquefez o hélio pela primeira vez em 10 de julho de 1908. A partir desse feito, Kamerlingh Onnes e sua equipe começaram a estudar as propriedades elétricas de metais a baixas temperaturas.

Os metais, quando resfriados, têm a sua resistência elétrica reduzida. Esperava-se, portanto que, à medida que sua temperatura se aproximasse de 0 K, a resistência elétrica também fosse a zero.
Contudo, em 8 de abril de 1911, no laboratório de Kamerlingh Onnes, os pesquisadores observaram que a resistência elétrica de um bastão de mercúrio caiu algumas ordens de grandeza, o que levou à descoberta do fenômeno que atualmente conhecemos como supercondutividade. Por ela, Kamerlingh Onnes ganhou o prêmio Nobel de Física de 1913 (Leia a coluna de Carlos Alberto dos Santos sobre o tema).

Assim ficou provado que as mudanças de temperatura alteram as propriedades da matéria. Hoje falamos apenas sobre o que ocorre com algumas substâncias expostas a mudanças bruscas de temperatura, mas os seus efeitos são aplicados a tudo que conhecemos.
Para ser mais enfático: são as mudanças de temperatura que provocam as verdadeiras transformações.

quinta-feira, 28 de abril de 2011

O Por Dentro da Ciência ultrapassou 200.000 acessos

Foi ontem que o blog atingiu os 200.000 acessos, desde a sua primeira postagem, em dezembro de 2004.
Em pouco mais de 7 anos parece pouco, mas mais importantes que todos os acessos foram as centenas de comentários, que quase sempre elogiam o que eu escrevo mais do que mereço.
O blog atingiu 100.000 acessos em setembro de 2008.
Eu agradeço a todos que acessam e muitas vezes reproduzem os textos.

quarta-feira, 20 de abril de 2011

A Rosa de Fukushima

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 15 de abril de 2011

No dia 11 de março de 2011 ocorreu no Japão um dos mais fortes terremotos já registrados. Pelo fato de o epicentro do tremor ter sido no oceano, formou-se um tsunami que atingiu a costa norte do país, aumentando ainda mais a devastação. A pior consequência de todos esses eventos foi o acidente nuclear nos reatores que ficam na cidade de Fukushima. Devido ao tremor de terra, estes foram desligados.

Contudo, quando se desliga um reator nuclear, ele não para de funcionar imediatamente, pois as reações nucleares continuam acontecendo. É necessário resfriá-lo para que ele cesse de operar. Para isso são utilizados geradores de energia elétrica, que acionam o sistema de refrigeração. Mas o tsunami decorrente do terremoto acabou por destruir os geradores e abalar os prédios onde estavam os reatores, impedindo o seu resfriamento e causando todos os problemas de contaminação radioativa que os japoneses estão vivenciando.

Nos reatores nucleares, que funcionam em alta temperatura, átomos de urânio têm o seu núcleo ‘quebrado’. Esse processo, chamado fissão nuclear, foi descoberto por Otto Hahn (1879-1968), Lise Meitner (1878-1968) e Fritz Strassmann (1902-1980) em 1938.
Nele, um nêutron com alta energia colide com o núcleo de urânio, levando a sua quebra e à formação de um átomo de criptônio e um de bário. Com mais três nêutrons produzidos na colisão, gera-se uma reação em cadeia. Em 1942, foi produzida pelo físico italiano Enrico Fermi (1901-1954) a primeira reação nuclear em cadeia controlada.

Se o reator nuclear não é resfriado, os nêutrons produzidos nas reações continuam tendo alta energia, devido à alta temperatura. Somente quando ele é resfriado totalmente o processo cessa.
A massa combinada dos fragmentos da fissão é menor do que a massa do átomo original de urânio. A diferença entre uma e outra é convertida em energia pela famosa equação de Einstein E=mc2, na qual ‘m’ é a massa faltante e ‘c’ é a velocidade da luz.

Como ‘c’ é um número muito grande (3x108 m/s), uma pequena quantidade de massa pode gerar uma grande quantidade de energia. Uma reação de quebra de um núcleo de urânio libera mais de 6 milhões de vezes mais energia do que a liberada por molécula em uma explosão de TNT – explosivos convencionais.

Quando se faz uma reação em cadeia não controlada, em que todos os átomos de urânio se fissionam, tem-se uma explosão nuclear, como aquelas que aconteceram também no Japão em 1945, em Hiroshima e Nagasaki. No caso dos reatores nucleares em Fukushima, é altamente improvável que isso ocorra devido à quantidade e ao isótopo de urânio utilizado.

Por dentro da radioatividade

Os produtos das reações de fissão nuclear geram átomos instáveis que decaem espontaneamente, ou seja, também são ‘quebrados’, gerando radioatividade. Esse fenômeno foi descoberto por Antoine Henri Becquerel (1852-1908) em 1896 em sais de urânio.
Praticamente na mesma época, o casal Pierre Curie (1859-1906) e Marie Curie (1867-1934) desenvolveu estudos para explicar a origem da radioatividade. O casal Curie e Becquerel receberam o prêmio Nobel de Física de 1903 por essa descoberta.

A radioatividade é resultante do processo de transformação do núcleo atômico. O núcleo é composto por prótons, que têm carga elétrica positiva, e por nêutrons, que não têm carga elétrica. Devido às cargas positivas dos prótons, existe uma forte força de repulsão atuando nessa região – pois cargas iguais se repelem.

Para contrabalancear esse efeito, existe a força nuclear forte, que atua tanto sobre os prótons quanto nos nêutrons. Por exemplo, o átomo de urânio, que é o elemento com maior núcleo atômico, tem 92 prótons e 143 nêutrons, na sua forma mais abundante.

Todos os elementos com mais de 82 prótons – quantidade correspondente ao átomo de chumbo – são radioativos. Existem outros materiais com menos prótons que também são instáveis, mas apenas alguns dos seus isótopos – átomos com número igual de prótons e diferente de nêutrons.
Um dos isótopos do cobalto, por exemplo, que possui um nêutron a mais do que o mais abundante na natureza, decai e se transforma em um átomo de níquel. O que ocorre nesses casos é que os átomos com maior número de nêutrons se tornam instáveis, levando à desintegração de seu núcleo.

Quando o urânio começa a se desintegrar, ele se transforma em tório – que tem 90 prótons no seu núcleo –, emitindo uma partícula alfa, que corresponde a dois prótons e dois nêutrons, exatamente a composição do núcleo do átomo de hélio. Ao emitir essa partícula, o núcleo também libera radiação de alta energia, os chamados raios gama. Essa radiação é que se torna letal, pois consegue penetrar em nosso organismo e pode desestruturar o núcleo das células. Essa desestruturação celular, por sua vez, pode levar ao aparecimento de câncer.

Os perigos reais

Dessa maneira, o grande perigo em Fukushima é que os elementos radioativos escapem do reator e contaminem tudo ao seu redor, pois este fica continuamente emitindo radiação de alta energia, altamente perigosa.

A contaminação radioativa é diferente da irradiação. Uma contaminação, radioativa ou não, caracteriza-se pela presença indesejável de um material em determinado local, onde este não deveria estar. A irradiação é a exposição de um objeto ou um corpo à radiação. Ela ocorre a uma distância determinada, sem necessidade de um contato direto com o material radioativo. Irradiar, portanto, não significa contaminar. No entanto, o local onde ocorre contaminação com material radioativo vai ser irradiado continuamente.

Os perigos da manipulação de materiais radioativos ou a utilização da energia nuclear, como vimos, são muito grandes. Mesmo com todas as preocupações e medidas de segurança, há sempre o risco de acidentes, como este que aconteceu no Japão e outros que ocorreram anteriormente na antiga União Soviética e nos Estados Unidos.
Bomba atômica Nagasaki
Bombardeio atômico de Nagasaki em 1945 (foto: Força aérea dos EUA)
O Brasil já teve problemas de contaminação de materiais radioativos, como o acidente que aconteceu em Goiânia em 1987, quando algumas gramas de césio-137 vazaram de um equipamento radioterapêutico e causaram várias mortes (leia matéria sobre os impactos do acidente ainda hoje).

Vinicius de Moraes, em uma de suas belas poesias, lembra-nos da explosão da bomba atômica em Hiroshima e Nagasaki e de suas consequências, sugerindo que a explosão nuclear forma no céu uma espécie de flor.

Em seus versos:

Mas, oh, não se esqueçam/ Da rosa da rosa/ Da rosa de Hiroshima/ A rosa hereditária/ A rosa radioativa/ Estúpida e inválida/ A rosa com cirrose/ A anti-rosa atômica/ Sem cor sem perfume/ Sem rosa, sem nada. 

Em Fukushima, não houve explosão atômica, mas levará um bom tempo para que as rosas voltem a florescer naquele lugar.

domingo, 27 de março de 2011

Cânticos Quânticos

Coluna Física sem Mistério
Publicada no Ciência-Hoje Online
18 de março de 2011

Quanta do latim
Plural de quantum

Quando quase não há
Quantidade que se medir
Qualidade que se expressar
Fragmento infinitésimo
Quase que apenas mental
Quantum granulado no mel
Quantum ondulado no sal
Mel de urânio, sal de rádio
Qualquer coisa quase ideal
Cântico dos cânticos
Quântico dos quânticos
(Quanta, Gilberto Gil)
 
 
Há milhares de anos, talvez em uma noite com céu limpo de inverno, em volta de uma fogueira, homens primitivos conversavam entre si. Talvez falassem sobre as caçadas realizadas ou sobre as vitórias sobre um grupo rival. Eventualmente, alguns deles olhavam para as estrelas e tentavam entender o que seriam aqueles pontos brilhantes. Seriam “fogueiras” feitas por outros homens distantes? Ou seriam marcas deixadas por deuses poderosos que dominavam o mundo e suas vidas? Quando um raio despedaçava uma árvore, provocando um grande estrondo, que força poderosa estava por trás daquela destruição?
Naquela época, fenômenos naturais como tempestades, raios, trovões, tremores de terra, eclipses solares e lunares eram muitas vezes atribuídos a deuses poderosos que por vezes resolviam castigar os homens por alguma de suas atitudes.
Era preciso apaziguar os “humores” dessas entidades. Animais (e até seres humanos) eram sacrificados ou cânticos entoados para agradar os deuses. Algumas vezes, os sacrifícios ou os cânticos davam resultados, outras não. Os cânticos eram, de certa forma, uma maneira de tentar dominar aquelas forças desconhecidas e, algumas vezes, perigosas.

Quantum por quantum

Com o passar do tempo, o homem encontrou outras formas de tentar compreender a natureza. Outros cânticos são entoados, mas não mais de adoração e temor, e sim de busca por um entendimento mais profundo do cosmos.
Na escala atômica, o mundo é embalado por “canções” da física quântica. Mas essas canções não servem para explicar os movimentos da galáxia e a expansão do universo. Na escala cosmológica, a “música” é a da Teoria da Relatividade Geral, que toca de maneira muito diferente da física quântica.

As canções da física utilizam em suas partituras a matemática. Com sua linguagem lógica, que permite expressar ideias e conceitos que o sistema de comunicação humano tem dificuldade de traduzir, vai construindo uma forma de pensar e entender o mundo com uma profundidade incrível.
A física quântica permitiu a compreensão da natureza atômica da matéria, bem como uma série de fenômenos que a física clássica, desenvolvida do século 16 ao 19, não conseguia explicar. Era como se a “música” por ela composta não entrasse em harmonia com os fenômenos físicos observados.
Por exemplo, pela física clássica, os átomos não poderiam existir da forma como foi proposta há 100 anos pelo físico neozelandês Ernest Rutherford (1871-1937), ou seja, com um núcleo eletricamente positivo, composto por prótons (com cargas elétricas positivas) e nêutrons (sem carga elétrica), e com os elétrons (com cargas negativas) “girando” ao seu redor. (Leia a coluna 'O spin que move o mundo').
De acordo com a física clássica, esse átomo seria instável, já que os elétrons, pelo simples fato de “orbitarem” os núcleos atômicos, teriam que emitir energia, e como consequência, colidiriam com o núcleo.

Foi o físico dinamarquês Niels Bohr (1885-1962) que resolveu o problema, propondo uma nova teoria para explicar os átomos, em particular o átomo de hidrogênio. Nesse modelo, ele propôs que os elétrons somente poderiam ter níveis de energia discretos, ou seja, quantizados. A partir dessa ideia e de outras teorias e evidências experimentais, deu-se início à construção do que hoje chamamos física quântica.
Os “cânticos quânticos” são uma obra feita por diversas mãos. Começou com o físico alemão Max Planck (1858-1947), postulando que a energia poderia ser absorvida de maneira discreta; Albert Einstein (1879-1955), apresentando a ideia de que a luz é feita de partículas chamadas fótons; Niels Bohr, explicando o comportamento do átomo de hidrogênio, o físico francês Louis de Broglie (1892-1987), propondo que entes fundamentais como os elétrons poderiam também se comportar como ondas, entre outros.
Mas o conjunto musical ainda não estava completo. O alemão Werner Heisenberg (1901-1976), o austríaco Erwin Schrödinger (1887-1961) e o britânico Paul Dirac (1902-1984) chegaram para ampliar ainda mais as ideias quânticas.
Os físicos propuseram uma teoria que traz em seu cerne a incorporação de conceitos como a dualidade onda-partícula, a quantização da energia e a descrição dos objetos quânticos a partir de funções de ondas (Leia a coluna 'A física e realidade').
Esses conceitos ajudam a representar os estados quânticos por meio de cálculos probabilísticos. Cabe ressaltar que, na física quântica, a incerteza e a indeterminação fazem parte do cotidiano.

Unificando as forças

Os “cânticos quânticos” estão muito mais presentes no nosso dia a dia do que podemos perceber. Computadores, usinas nucleares, televisores, telefones celulares somente funcionam porque foi possível compreender, pelo menos em parte, o comportamento da matéria com a ajuda da física quântica.
Agora, busca-se completar essa descrição da natureza a partir de uma nova teoria que possa descrever todas as forças fundamentais da natureza ao mesmo tempo. Três delas são descritas pela física quântica (a força eletromagnética, a nucelar forte e a nuclear fraca) e a gravidade, pela Teoria da Relatividade Geral.
A dificuldade de se obter um “cântico quântico” para a gravidade é que a física quântica e a Teoria da Relatividade Geral são incompatíveis na maneira em que descrevem a natureza. É como se fossem duas vozes que, cantadas juntas, desafinam.
As teorias de cordas se propõem, mesmo diante das dificuldades existentes, a encontrar um “cântico quântico” único para descrever a natureza. De acordo com essas teorias, os entes fundamentais da natureza seriam diminutas cordas de energia que vibram em 11 dimensões.

Atualmente, nem o LHC (sigla de Large Hadron Collider, em português, grande colisor de Hádrons) tem energia próxima da necessária para descobrir essas cordas de energia.
Talvez leve algumas décadas para que consigamos alcançar esse objetivo, ou talvez nunca alcancemos de fato essa unificação, pois a cada passo que damos na compreensão da natureza, mais descobrimos o quão cheia de surpresas ela é. Portanto, ainda estamos longe de entoar o último “cântico quântico”.

Adilson de OliveiraDepartamento de Física
Universidade Federal de São Carlos