sábado, 21 de maio de 2016

Pint of Science - São Carlos - 23 a 25 de maio - 19h30



ESTAREI LÁ SURFANDO NAS ONDAS GRAVITACIONAIS



Da geladeira ao espaço sideral

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 18 de maio de 2016


Os materiais utilizados em ímãs de geladeira geram campos magnéticos fracos, porém suficientes para prendê-los à superfície do refrigerador. (foto: adaptado de Sarnil Prasad / Flickr / CC BY 2.0)

Na geladeira, no porta-retratos ou no fecho de uma bolsa, quase todo mundo utiliza estes pequenos objetos em seu cotidiano: os ímãs ou magnetos são materiais capazes de gerar campo magnético e de interagir com outros materiais magnéticos, além de cargas elétricas em movimento. Os pequenos ímãs que usamos para colar recados nas geladeiras ou aqueles com telefones e propagandas de deliveries são feitos de uma mistura de materiais plásticos (polímeros) e óxidos de ferro (ferritas). Eles geram pequenos campos que magnetizam o metal da geladeira (normalmente uma liga de aço), fazendo com que as partes se atraiam – com essa atração o ímã “gruda” na porta do refrigerador.
Mas existem outros ímãs muito mais poderosos, digamos assim, e que geram altos campos magnéticos. A unidade de campo magnético é conhecida como Tesla (T), em homenagem ao engenheiro sérvio Nikolas Tesla, que inventou vários equipamentos a partir da utilização de campos magnéticos. A unidade Tesla tem um valor muito alto, e o campo do ímã que fixa os avisos na geladeira tem tipicamente 0,01 T. Ímãs mais intensos, como os utilizados em cabeças leitoras dos discos rígidos de computadores, têm intensidade na ordem de 0,1 T. Já as máquinas que fazem imagens por ressonância magnética, utilizadas para diagnóstico médico, geram campos na ordem de 2 T – nelas, no entanto, o campo magnético não é gerado por ímãs, e sim por bobinas supercondutoras, materiais que conseguem suportar a passagem de um alta corrente elétrica sem dissipar energia. No meu laboratório de pesquisa, há bobinas supercondutoras para até 9 T e, comercialmente, é possível comprar equipamentos capazes de gerar campos de até 22 T.
A geração de campos magnéticos por correntes elétricas começou a ser observada no começo do século 19, quando o francês André Ampère e o holandês Christian Oersted, de maneira independente, observaram que a agulha de uma bússola era desviada quando se aproximava de um fio pelo qual passava uma corrente elétrica, indicando que haveria alguma conexão entre eletricidade e magnetismo, que até então eram tratados como fenômenos físicos independentes. Alguns anos mais tarde, o físico e químico inglês Michel Faraday descobriu que era possível criar correntes elétricas a partir do movimento de ímãs, o que levou ao desenvolvimento de quase toda a tecnologia que temos hoje para gerar eletricidade. Esses avanços, alguns anos mais tarde, foram consolidados pelo físico escocês James Clerck Maxwell, que mostrou que a própria luz é uma manifestação de campos elétricos e magnéticos.

Magnetismo no espaço

Além de poderem ser observados em pequenos objetos e máquinas construídas pelo homem, os campos magnéticos também estão presentes em escala astronômica. As estrelas, como o Sol, produzem intensos campos, criando ao seu redor o que se chama de magnetosfera.
Representação de uma magnetar
Nesses corpos celestes, os campos magnéticos são produzidos devido ao movimento da matéria estelar que se encontra em altíssimas temperaturas, fazendo com que elementos como hidrogênio e hélio estejam no quarto estado da matéria, conhecido como plasma. Nesse estágio, praticamente todos os elétrons são arrancados dos átomos, fazendo com que o seu movimento crie intensas correntes – o que produz altos campos na superfície estelar. No caso do Sol, são esses campos magnéticos os responsáveis pelo aparecimento das manchas solares, regiões onde ocorre uma redução de temperatura e pressão das massas gasosas do Sol, que podem atingir campos na ordem de 1 T.
Mas existem objetos estelares capazes de produzir campos magnéticos absurdamente altos, como o que ocorre nos pulsares – restos mortais de estrelas gigantes, constituídos apenas por nêutrons. São campos magnéticos na ordem de 100 milhões de Tesla!
Perto deles, o campo magnético produzido pela Terra é quase nada: sua intensidade está na ordem de 0,0001 T, bem menor do que a do ímã de geladeira. Mesmo assim, o campo magnético terrestre é de fundamental importância para o desenvolvimento da vida por aqui. O fato de o planeta possuir um campo magnético impede que partículas com alta energia, vindas do espaço interestelar ou do próprio Sol, atinjam a superfície terrestre, o que poderia ser prejudicial a diversas formas de vida, inclusive a nossa.
Além disso, saiba o leitor, o campo magnético de nosso planeta tem muitas utilidades – ele é suficiente, por exemplo, para orientar a agulha das bússolas. Além dos humanos, outras espécies animais utilizam o magnetismo terrestre para realizar grandes migrações, como acontece com os pássaros e as tartarugas.
Ainda não está totalmente compreendido como as aves conseguem se orientar por um campo magnético tão fraco. A teoria mais aceita é que os fótons da luz solar seriam responsáveis por excitar proteínas presentes na retina do olho de alguns pássaros – os chamados criptocromos. Em outras palavras, os fótons fariam com que elétrons fossem transferidos entre duas moléculas da proteína. Desse processo, resultariam duas moléculas de radicais livres, tendo cada uma um elétron não emparelhado (com spins opostos).

Várias espécies de aves migratórias utilizam o campo magnético terrestre para direcionar seu voo. (foto: Mdk572 / Wikimedia Commons / CC BY-SA 3.0)
A sensibilidade ao campo magnético da Terra estaria relacionada ao fenômeno da coerência quântica: porque os radicais livres foram produzidos simultaneamente, os dois elétrons ficam correlacionados, ou seja, o que afeta um afeta o outro instantaneamente. Esse estado de coerência quântica é muito sensível a efeitos de campos magnéticos. A interação com o campo terrestre modificaria a reatividade química das moléculas dos radicais livres, gerando um sinal que seria captado pelo cérebro do pássaro.
Até recentemente, essa hipótese não havia sido comprovada completamente e nem havia uma explicação para a precisão (de cerca de 5o) que os pássaros conseguem com a direção do campo magnético. Um estudo publicado na revista PNAS em abril deste ano mostrou uma investigação detalhada sobre a coerência quântica nos criptocromos. Seus resultados apontam que esse tipo de proteína levaria a longo tempos de coerência – sendo assim, haveria tempo para os pássaros “entenderem" em qual direção deveriam voar.
Estudos como esse mostram que os mecanismos de evolução foram capazes de desenvolver uma sofisticada ferramenta para a detecção de um efeito tão sutil, mas de fundamental importância para a garantia da continuação das espécies.
Não é um tema fascinante? Bem, sou suspeito para falar, pois me dedico há mais de 20 anos ao estudo do magnetismo e das sutilezas de seus efeitos sobre a matéria. Mas isso não me tira a empolgação de cada descoberta!
Adílson de Oliveira
Departamento de Física
Universidade Federal de São Carlos



Verdades Inventadas

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 01/04/2016



Em muitas partes do mundo, primeiro de abril é conhecido como o dia da mentira ou dia dos tolos. Existem muitas explicações diferentes para o surgimento da efeméride, mas a brincadeira todo mundo conhece: inventar histórias e pregar peças nos amigos. Em outras palavras, contar histórias inventadas e esperar que as pessoas acreditem nelas, para só depois descobrirem a farsa.
É comum, nesse dia, alguns cientistas fazerem brincadeiras sobre descobertas inacreditáveis. A mais famosa aqui no Brasil foi a história do “Boimate”, publicada como notícia séria pela Veja  em 27 de abril de 1983. A revista brasileira se baseou em uma reportagem da revista científica britânica New Scientist, publicada em 1º de abril de 1983, segundo a qual cientistas alemães tinham fundido células bovinas com as do tomate, criando um ser híbrido que permitiria "tomateiros produzindo filé ao molho de tomate”. Como se diz no jargão jornalístico, houve uma “barriga" nessa notícia. A revista levou dois meses para reconhecer seu erro.
O caso virou uma anedota bem-humorada, e, embora tenha envolvido mentiras, não foi uma fraude, e sim uma brincadeira. Infelizmente, porém, há vários outros casos de mentiras contadas em revistas científicas com o objetivo deliberado de enganar o leitor: as fraudes científicas.
Antes de falar sobre elas, vale lembrar que publicar um trabalho científico com resultados que posteriormente são demonstrados como errados não necessariamente caracteriza uma fraude. Acontece de um resultado ser obtido certa vez por um grupo de cientistas e, depois, não se conseguir reproduzi-lo em nenhum outro laboratório. É comum, também, surgirem resultados que criam o que chamamos de “falso positivo” – em exames clínicos, por exemplo, algumas vezes acontece exatamente isso, o que normalmente é resolvido com uma nova análise.
Entretanto, existem situações nas quais os resultados são deliberadamente fraudados. Embora garantam um sucesso inicial aos seus autores, em geral essas mentiras são logo descobertas por outros pesquisadores que tentam reproduzir o trabalho e, não conseguindo, contestam o original.
 

Dois casos famosos de fraudes científicas

Duas histórias relativamente recentes se tornaram famosas na questão da fraude de resultados científicos. Em dezembro de 2005, descobriu-se que os resultados dos trabalhos do pesquisador coreano Woo-Suk Hwang, na época diretor do Centro Nacional de Células-Tronco da Universidade Nacional de Seul, na Coreia do Sul, eram falsos. Nos anos de 2004 e 2005, ele publicou artigos na revista Science relatando, pela primeira vez na história, a clonagem de embriões humanos com o objetivo de extrair células-tronco.
A fraude foi descoberta a partir de denúncias dos métodos não éticos que ele utilizava para conseguir os óvulos para produzir embriões – obtê-los de uma de suas assistentes. Em seguida, investigações feitas por uma comissão da própria universidade coreana mostraram que os dados eram falsos e fabricados intencionalmente. Os pesquisadores daquele grupo não haviam ainda clonado embriões humanos: como o cientista coreano tinha certeza de que iria atingir o objetivo desejado, mandou o artigo para publicação antes de obter de fato o resultado. O desejo por garantir a primazia da descoberta o levou a tal atitude.
Na área de física, ficou famoso, em 2001, o caso do pesquisador alemão Jan Hendrick Schön, que trabalhava nos Laboratórios Bell, nos Estados Unidos. Ele foi demitido por ter fraudado dados em 16 de 24 artigos publicados entre 1999 e 2001. Os temas incluíam transistores feitos a partir de uma única molécula e supercondutividade em esferas de carbono – assuntos realmente quentes e inovadores no mundo da física. Se todos os resultados de Schön fossem verdadeiros, ele teria iniciado uma revolução na nanotecnologia e na eletrônica. Ironicamente, por esses falsos resultados ele ganhou diversos prêmios acadêmicos antes que a farsa viesse a público.
 fraude foi descoberta quando alguém reparou que os gráficos que apareciam nos artigos eram semelhantes, ainda que tratassem de assuntos completamente diferentes. As investigações mostraram que os dados eram forjados e os artigos acabaram sendo excluídos das revistas nas quais foi publicado, como Nature, Science e Physical Review Letters (a mais importante da área da física).
Pernas curtas
O fato de ocorrerem fraudes na ciência levanta a questão de como os resultados são aceitos para publicação nas revistas científicas. Quando um artigo é submetido a publicação, normalmente ele é enviado para um ou dois especialistas da área, que fazem uma avaliação dos conteúdos. Na física, em particular, resultados espetaculares necessitam de comprovações sólidas e explicações coerentes baseadas em modelos vigentes ou que apresentem novas ideias que possam ser verificadas por experimentos independentes. Os pareceristas verificam a coerência dos dados apresentados e, eventualmente, solicitam novas evidências. Contudo, por mais que seja um sistema rigoroso, nem sempre esse tipo de análise garante que os resultados sejam de fato verdadeiros e coerentes.
Em muitas situações, ocorre o que chamamos de artefato experimental: o equipamento produz um resultado errado e os pesquisadores não percebem. Quando se trata de experimentos corriqueiros de laboratórios, é relativamente fácil tentar reproduzir o resultado, mas, quando estamos falando de experimentos em grandes laboratórios, como o Grande Colisor de Hádrons (LHC) ou o Observatório de Ondas Gravitacionais por Interferômetro Laser  (Ligo), fica mais difícil.
Em setembro de 2011, foram divulgados resultados do experimento Opera, no Centro Europeu de Pesquisa Nuclear (Cern), na Suíça. Segundo eles, neutrinos produzidos no experimento viajaram por 730 km embaixo da terra, até o detector do Laboratório Nacional Gran Sasso, na Itália. Os resultados que os cientistas obtiveram mostravam que essas partículas – que praticamente não têm massa – viajaram mais rápido que a luz, mostrando que a Teoria da Relatividade de Einstein estava errada. Posteriormente, os cientistas desmontaram e remontaram todos os equipamentos e descobriram que um cabo mal conectado tinha levado ao erro na medida.
Cientistas erram, às vezes por equívocos e falta de rigor nos experimentos, outras por agirem de má fé com o objetivo de alcançarem a glória mais facilmente. Porém, como diz o ditado popular, a mentira tem pernas curtas e por isso não pode ir muito longe. Cedo ou tarde será descoberta. 

Adílson de Oliveira
Departamento de Física
Universidade Federal de São Carlos

domingo, 27 de março de 2016

Observar, pensar, testar

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 18/03/2016

Em sua coluna de março, Adilson de Oliveira usa o exemplo do movimento dos corpos celestes para mostrar que a ciência caminha a partir da observação de fenômenos naturais e da experimentação como ferramenta para comprovar novas teorias.


Previsto por Einstein há cem anos, fenômeno das ondas gravitacionais é exemplo de possibilidade teórica comprovada por meio da experimentação. (foto: R. Hurt/Caltech-JPL)
Compreender o mundo sempre foi um anseio da humanidade: há milhares de anos tentamos explicar os fenômenos e eventos que observamos, além de desenvolver formas de verificar e testar nossas ideias. O céu e seus astros sempre estiveram na pauta da curiosidade humana, talvez por serem, ao mesmo tempo, tão presentes no dia a dia e tão inalcançáveis. Mas as explicações que homens e mulheres foram capazes de dar para os fenômenos celestes mudaram – e muito – ao longo da história.
No alvorecer da consciência humana, um eclipse causava temor e medo. Um evento tão poderoso e desconhecido, para o homem primitivo, somente poderia ser obra de seres poderosos, como um deus raivoso com seus discípulos. Essa visão mística de um fenômeno natural, embora não seja nem um pouco científica para os padrões atuais, já manifestava a tentativa de compreender o que estava acontecendo no céu.
Com o passar do tempo, novas formas de ver o mundo foram propostas. Os filósofos gregos desenvolveram um pensamento mais racional, também a partir da observação, para construir os seus modelos de universo. Aristóteles, por exemplo, dizia que nosso mundo era composto por quatro elementos (terra, água, ar e fogo), o que lhe permitia explicar uma série de fenômenos. Por que a fumaça de uma fogueira sobe? Ora, porque, sendo feita do elemento ar, tende a ir para seu lugar natural, entre a Terra e a esfera lunar. Por que uma pedra, se jogada para o alto, cai? Porque é feita do elemento terra, cujo lugar natural é o centro do planeta.
Para Aristóteles, os objetos celestes, como a Lua, o Sol, os planetas e as estrelas, eram feitos de um quinto elemento, chamado éter. Seu lugar natural era um mundo celestial puro e perfeito, separado do nosso, terreno e imperfeito. No céu, viviam os deuses. Os planetas se moveriam presos em esferas, de forma uniforme e – adivinhe? – perfeita.

O centro do universo conhecido

Além das esferas celestes, muitas outras ideias foram propostas para explicar o movimento dos planetas e demais astros. Em particular, o modelo que dominou a astronomia por mais de mil anos foi o modelo geocêntrico, consolidado pelo astrônomo Cláudio Ptolomeu entre os séculos 1 e 2, no qual os corpos celestes obedeciam aos epiciclos, mecanismos que realizavam movimentos circulares ao redor de um ponto que descrevia uma órbita circular ao redor da Terra. 
Essa visão foi satisfatória durante muito tempo, mas, com o avanço das observações astronômicas – ainda antes do uso do telescópio –, notou-se que os movimentos celestes eram muito mais complexos do que se podia imaginar. Foi necessário não somente mudar a visão que se tinha do mundo, mas também confiar cada vez mais na precisão das observações feitas.
O grande astrônomo dinamarquês Tycho Brahe (1546-1601) colecionou, durante quase 30 anos, as mais precisas observações astronômicas feitas até sua época. Para tal, construiu instrumentos pioneiros de alta precisão, como um sextante com braços de quase dois metros cada. Seus resultados colocavam em xeque o modelo geocêntrico e mostravam que era necessário propor algo novo. Brahe, porém, não conseguiu elaborar um modelo satisfatório para suas próprias observações, pois não conseguia abandonar a ideia de que a Terra estava no centro do universo.
Naquele tempo, já se conhecia o modelo heliocêntrico de Nicolau Copérnico (1473-1543), divulgado no ano de sua morte, mas que ainda não havia convencido a comunidade científica de então. Foi astrônomo e matemático alemão Johannes Kepler (1571-1630) quem deu continuidade ao trabalho de Brahe, de quem foi assistente e herdeiro intelectual.

Ao dar continuidade ao trabalho de Brahe, seu mentor, Kepler conseguiu determinar pela primeira vez uma descrição matemática e precisa dos movimentos planetários. (imagem: Wikimedia)
Confiando na precisão dos dados obtidos por seu antecessor, Kepler propôs que os planetas se moviam ao redor do Sol, mas não em órbitas circulares, como imaginava Copérnico, e sim em órbitas elípticas – em consequência, ora um dado planeta estaria mais próximo do Sol, ora mais distante. Kepler percebeu também que, quanto mais distantes do Sol, mais devagar os planetas se moviam. Quanto mais perto do astro-rei, mais velozes eram. E sugeriu haver uma constante numérica resultante do raio da órbita elevado ao cubo dividido pelo período orbital (tempo para completar uma órbita) ao quadrado.
Pela primeira vez, conseguiu-se uma descrição matemática e precisa dos movimentos planetários, conhecida até hoje como modelo de Kepler. Na época, o astrônomo imaginou haver uma força que atraía os planetas para o Sol, mantendo-os em órbita. Para ele, essa força deveria ser magnética – naquela mesma época, o médico inglês William Gilbert (1544-1603) explicara o funcionamento da bússola propondo que a Terra se comportava como um gigantesco ímã. Era natural, portanto, imaginar que o mesmo deveria acontecer com os outros planetas e até com o Sol.

A força que nos une

Mais de 50 anos se passaram até que o físico e matemático inglês Isaac Newton (1642-1727) avançasse a partir das ideias de Kepler. Ele propôs um modelo físico completo, que posteriormente ficou conhecido como Mecânica Clássica, para explicar os movimentos terrestres e celestes. Descreveu que a força que atraía tanto os planetas como qualquer objeto aqui na Terra era a gravidade, e obteve uma expressão matemática para o seu efeito. Comparando-a com as leis de Kepler, notou que constante encontrada por seu antecessor se relacionava com a constante de gravitação universal, que Newton propôs em suas equações.
A precisão das leis de Newton foi testada em 1846, quando os astrônomos John Couch Adams (1819-1892) e Ubain Le Verrier (1811-1877) previram, de maneira independente, a existência de um novo planeta no sistema solar. Era Netuno, identificado a partir dos desvios observados na órbita de Urano, que havia sido descoberto décadas antes. A observação de Netuno foi feita pelo astrônomo alemão Johann Gottfried Galle (1812-1910), graças à precisão da luneta do observatório de Berlim, no qual trabalhava.
O sucesso das previsões e comprovações das teorias de Newton fortaleceu o sentimento de que a ciência necessita de comprovações experimentais e que, quando novas evidências surgem, novas ideias e modelos devem ser testados.
Mais tarde, outra órbita planetária irregular – desta vez, a de Mercúrio – desafiou as leis de Newton. Seu periélio, ou seja, o ponto da órbita em que o planeta se encontra mais próximo ao Sol, era variável, coisa que a teoria newtoniana não conseguia explicar. Imaginou-se que o problema era semelhante ao de Urano, isto é, que deveria existir um planeta perturbando a órbita de Mercúrio. O suposto planeta recebeu até nome, Vulcano, mas nunca foi observado.

Rumo à compreensão profunda

O próximo grande avanço no conhecimento dos movimentos celestes veio quase 250 anos depois da publicação das ideias de Newton. Em 1915, o físico alemão Albert Einstein (1979-1955) publicou a Teoria da Relatividade Geral (TRG), na qual generalizou sua teoria anterior, de 1905, para explicar a origem da gravidade. Einstein mostrou que essa força estava associada à curvatura do espaço e do tempo, devido à presença da massa. A TRG não somente explicou o problema do periélio de Mercúrio, mas também descreveu com precisão o porquê do desvio da luz das estrelas quando passa por campos gravitacionais intensos.
Em 1916, Einstein previu, a partir da TRG, as ondas gravitacionais, que deveriam ocorrer devido ao movimento dos planetas no espaço, da mesma maneira que se criam ondas em um lago devido a movimentos na sua superfície. Um efeito tão difícil de ser detectado que levou 100 anos para ser observado, com a ajuda de um instrumento de altíssima precisão e a sorte de detectar um fenômeno astronômico raro, a colisão de dois buracos negros.
A história da nossa compreensão do espaço é apenas um exemplo de como a ciência caminha a partir da explicação dos fenômenos que observamos e do teste experimental de novas ideias. Ao longo da jornada do desenvolvimento humano, descobrimos e inventamos muitas ferramentas para entender o mundo – a meu ver, a ciência é a melhor delas.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos

quinta-feira, 25 de fevereiro de 2016

Ciência com o pé no chão

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 11/02/2016

Por que ideias mirabolantes que prometem revolucionar a física quase sempre não passam de ilusão? Em sua coluna de fevereiro, Adilson de Oliveira reflete sobre o surgimento e validação de novas teorias científicas.


Por ser pesquisador da área de física e atuar na divulgação científica, muitas pessoas me procuram, por e-mail, Facebook ou até pessoalmente, para resolver dúvidas. Alguns alunos, por exemplo, enviam mensagens perguntando a solução de determinado exercício de física proposto por seu professor; outros, curiosos, têm questões sobre os textos apresentados nesta coluna. No primeiro caso não costumo responder, mas, no segundo, tento sempre ser atencioso com aqueles que estão com vontade de saber um pouco mais. A conversa é útil para deixar mais claras algumas ideias que, por uma limitação de espaço, não posso apresentar em detalhes aqui. Outras vezes, ainda, recebo curiosas propostas de teorias alternativas, quase sempre querendo mostrar que os conceitos da teoria da relatividade de Einstein ou a física quântica estão equivocados. Na maior parte dos casos, elas questionam o fato de que o tempo e espaço não são absolutos, mas relativos ao observador, ou utilizam a física quântica para explicar fenômenos paranormais ou a cura de doenças.

Princípio da ciência moderna, a validação de teorias científicas por meio de experimentos trouxe avanços importantes para a compreensão da natureza e o desenvolvimento de novas tecnologias. (imagem: Wikimedia)

É curioso que essas propostas se baseiem puramente na lógica do pensamento dos seus propositores, ignorando o fato de que tanto a relatividade como a física quântica foram exaustivamente testadas por diversos experimentos. Além disso, elas formam a base de muitas tecnologias que utilizamos: os computadores, tablets e smartphones funcionam porque seus componentes eletrônicos funcionam de acordo com a teoria quântica; os aparelhos GPS, para atingirem precisão satisfatória, precisam que os satélites utilizados tenham seus relógios atômicos corrigidos levando em conta os efeitos da gravidade terrestre na passagem do tempo.
Novas teorias científicas só podem ser aceitas e validadas se puderem ser verificadas por meio de diversos experimentos independentes. É sobre esse princípio que a ciência moderna vem sendo construída desde a época do renascimento, o que permitiu os grandes avanços não somente na compreensão da natureza, mas também no desenvolvimento de novas tecnologias.
Mas nem sempre é fácil realizar experimentos para verificar a validade científica da uma teoria. Em alguns casos, são necessários sofisticados experimentos em grandes laboratórios, utilizando o trabalho de centenas ou até milhares de pesquisadores, sem falar nos recursos financeiros, que podem atingir a ordem de bilhões de dólares. Um exemplo são os experimentos realizados no Grande Colisor de Hádrons (LHC, na sigla em inglês), uma dispendiosa iniciativa que teve seus resultados mais importantes adescoberta do bóson de Higgs em 2012. Também audacioso, o Observatório de Ondas Gravitacionais por Interferômetro Laser (LIGO, na sigla em inglês) anunciou nesta quinta-feira (11) a comprovação da existência das ondas gravitacionais previstas por Einstein há cem anos.

Além dos cinco sentidos

No meu ponto de vista, o surgimento de ideias e teorias sem qualquer fundamentação científica, que atualmente se espalham facilmente pela internet, tem uma razão: para a compreensão das teorias mais modernas é preciso uma percepção que vai além daquela construída pelo senso comum. Tanto a teoria da relatividade quanto a física quântica, pilares da física moderna, foram desenvolvidas a partir de conceitos que chocam nosso senso comum – afinal, ao longo de toda a evolução humana desenvolvemos uma maneira de compreender o mundo a partir de uma percepção sensorial, ou seja, daquilo que vemos, ouvimos, cheiramos e sentimos. Temos dificuldade, portanto, que compreender o que vai além desses sentidos.
Por exemplo, estamos acostumados, em nosso cotidiano, a verificar que o tempo é sempre o mesmo para qualquer pessoa, independentemente do seu estado de movimento. É correto pensar assim quando se trata de situações corriqueiras. Porém, em situações extremas, quando o objeto se move próximo a velocidade da luz (300.000 km/s), esse conceito não é mais válido. Em aceleradores de partículas como o LHC ou o Laboratório Nacional de Luz Síncrotron, em Campinas, partículas como prótons, no caso do LCH, e elétrons, no LNLS, viajam nessa velocidade e se torna necessário considerar a relatividade do espaço e do tempo.
No caso particular da física quântica, é ainda mais complicado traduzir o conceito aos nossos sentidos. Essa parte da física começou a ser desenvolvida no início do século 20, com a participação de inúmeros pesquisadores, intrigados pelo fato de que resultados de experimentos realizados na época não podiam ser explicados pela física clássica. O próprio conceito de átomo era um exemplo.

Do pudim de ameixas às ondas

Em 1897, o físico inglês J.J. Thompson descobriu a primeira partícula elementar, o elétron, que tem carga elétrica negativa. Com essa descoberta, imaginou-se que os átomos seriam como um pudim de ameixas, uma massa de carga elétrica positiva (o pudim) na qual os elétrons (as ameixas) estariam imersos. Contudo, alguns anos depois, em 1911, o físico neozeolandês Ernest Rutherford, que trabalhou com Thompson, descobriu que o núcleo atômico teria um tamanho muito reduzido, propondo, então que o átomo fosse como um minissistema solar, com o núcleo positivo (representando o Sol) e os elétrons circulando o núcleo (como se fossem planetas). Muitos de nós ainda imaginamos que o átomo possa ser representado dessa forma.
Modelo atômico de Bohr para um átomo de hélio. Questionamentos a partir de suas proposições levaram a um desenvolvimento mais profundo da física quântica. (imagem: Wikimedia)

Embora esse modelo seja bastante atraente, ele continha uma falha importante. Diferentemente dos planetas, cargas elétricas em órbita ao redor de um núcleo, ao executarem um movimento acelerado, deveriam perder energia na forma de radiação, fazendo com que os elétrons ‘caíssem’ no núcleo atômico. Por essa lógica, os átomos não poderiam existir! Esse impasse levou a um modelo ousado para época, feito pelo físico dinamarquês Niels Bohr, que propôs que os elétrons, embora realizassem órbitas circulares ao redor do núcleo, não perderiam energia, mas teriam energias discretas associadas as suas órbitas que seriam múltiplas de uma constante física fundamental – a constante de Planck.
Mas a história não estava completamente resolvida. Como poderiam os elétrons ter apenas algumas órbitas possíveis? Como eles conseguiriam mudar de órbita? Esses questionamentos levaram a um desenvolvimento mais profundo da física quântica. Novos experimentos e propostas mostraram que partículas como elétrons poderiam se comportar também como se fossem ondas, levando a uma modificação do modelo atômico. As órbitas imaginadas por Bohr se transformaram, então, em regiões ao redor do átomo nas quais existia uma probabilidade de se encontrar elétrons, e esses não seriam mais descritos como se fossem pequenas esferas, e sim por funções de ondas.
A complexidade da visualização do conceito de átomo é apenas um exemplo de como a natureza pode ser muito diferente da nossa visão cotidiana. Embora a relatividade do espaço e do tempo e a exótica descrição das partículas elementares possam soar absurdas ao senso comum, elas têm a ciência ao seu favor. Afinal, esses conceitos foram rigorosamente testados em diversos experimentos e observados inúmeras vezes. Afinal, não basta ter uma nova e revolucionária ideia: é preciso que ela seja cuidadosamente verificada.
Adílson de Oliveira
Departamento de Física
Universidade Federal de São Carlos

quarta-feira, 27 de janeiro de 2016

Pilar da tecnologia

Coluna Física sem mistério
Ciência Hoje on-line
Publicada em 15/01/2016


Algumas tecnologias, de tão incorporadas ao nosso cotidiano, parecem invisíveis: mal paramos para pensar em como funcionam, ou quanta pesquisa foi necessária para que fossem criadas. É como sempre estivessem estado ali. Quem tem cerca de 40 anos ou menos, por exemplo, acha natural ter em casa um (ou alguns) aparelhos de televisão a cores, cuja popularização se intensificou nos anos 1970. Os mais jovens, então, já nasceram imersos em várias outras tecnologias: telefones sem fio, videocassetes e micro-ondas, que invadiram as casas lá pela década de 1980; aparelhos de DVD, computadores, celulares e a própria internet, cuja disseminação se intensificou nos anos 1990. Que falar das crianças e adolescentes de hoje, nascidas em meio a smartphones e tablets, passeando em carros com computadores de bordo e assistindo TV em altíssima definição e três dimensões?


Atualmente, no Brasil, praticamente todas as residências possuem televisores e temos mais do que um aparelho celular por habitante. (foto: Paul Stevenson/Flickr CC BY 2.0)
Em meio a tanta tecnologia, que avança tão rapidamente quanto se incorpora à nossa vida, é difícil se manter consciente de como cada aparelho funciona. A maioria acaba encarando essas máquinas como caixas pretas, no sentido de que não se sabe o que de fato há lá dentro – o que, obviamente, não é verdade: para cada geringonça tecnológica que compramos hoje a humanidade precisou, ao longo de sua história, desenvolver mecanismos, simples ou complexos, capazes de fazê-la funcionar.
Se pararmos para pensar, veremos que o homem sempre tentou transformar fenômenos, materiais e objetos para facilitar sua vida. Lá atrás, descobrimos como dominar o fogo e construímos instrumentos e ferramentas usando pedra lascada e metais. Hoje, somos capazes de produzir novos fenômenos físicos e montamos novos materiais átomo por átomo, utilizando a nanotecnologia. Um grande caminho percorrido...
Uma parte importante da tecnologia presente em nossos lares tornou-se possível a partir da investigação fundamental da matéria e das suas interações, em outras palavras, da pesquisa do que chamamos "ciência básica”. Em particular, muitos dispositivos e equipamentos se baseiam no magnetismo da matéria, um fenômeno conhecido desde tempos remotos.

Ciência que vem da Antiguidade

Tudo começou com uma pedra encontrada na região da Magnésia, na Grécia, que funciona como ímã natural. O filósofo grego Tales de Mileto foi o primeiro a propor uma explicação para que isso acontecesse: ao observar que as magnetitas ora se atraíam, ora se repeliam, atribuiu o comportamento ao fato de que a pedra possuiria “uma alma própria”. Mais tarde, Platão tentou explicar os fenômenos magnéticos admitindo que a atração e a repulsão fossem devidas à “umidade” e à “secura” da magnetita. 
Algumas centenas de anos à frente, o século 19 também foi um período de grande avanço na ciência. Em particular, nessa época foi descoberto que os fenômenos magnéticos e elétricos estavam associados. O francês André-Marie Ampère e o holandês Hans Christian Oersted descobriram que correntes elétricas geram campos magnéticos, permitindo aprofundar os estudos do magnetismo e da eletricidade. O inglês Michael Faraday e o estadunidense Joseph Henry, de forma independente, descobriram a lei da indução eletromagnética, mostrando que campos magnéticos que variam com o tempo produzem correntes elétricas – propriedade que permitiu o desenvolvimento de geradores e motores elétricos, indispensáveis nos dias atuais. Há cerca de 2 mil anos, os chineses perceberam que essas “pedras com alma própria”, se deixadas livres para se movimentarem, tendiam a se alinhar em uma direção específica, servindo como um instrumento para orientação. Surgia a bússola, cujo funcionamento está baseado na interação entre os campos magnéticos do ímã e da Terra. Incorporada aos navios e utilizada para guiar longas viagens, essa tecnologia permitiu que os europeus fizessem a primeira grande exploração planetária da história, no século 15.

Os materiais magnéticos e suas interações com os campos magnéticos e elétricos permitiram o surgimento de muitas de nossas facilidades do cotidiano. 

Na segunda metade do mesmo século, em 1873, escocês James Clerck Maxwell unificou essas descobertas e mostrou também que a luz é uma forma de radiação eletromagnética, ou seja, ela ocorre devido às oscilações de campos elétricos e magnéticos. Alguns anos depois, em 1888, o físico alemão Henrich Rudolph Hertz produziu ondas eletromagnéticas, comprovando a teoria de Maxwell. Esses estudos logo se desdobraram em tecnologias, notadamente o desenvolvimento dos telégrafos sem fio e do rádio. Mesmo os celulares atuais ainda se valem desse conhecimento, recebendo e transmitindo informações para torres que se conectam entre si e com os satélites por meio de ondas eletromagnéticas.
Ainda no século 19, teve início o desenvolvimento dos primeiros aparelhos de gravação magnética. O engenheiro dinamarquês Valdemar Pouslen, em 1898, criou o primeiro gravador de voz magnetizando um fio de aço. Embora não fizesse gravações com a alta qualidade que exigimos hoje, o aparelho utilizava um princípio bastante simples: sendo o som da nossa voz uma propagação de ondas mecânicas no ar, o microfone captava essas perturbações, fazendo vibrar um ímã que magnetizava o fio de aço, passado lentamente. Para reproduzir o som, utilizava-se o processo inverso – o fio a se deslocar atraía ou afastava o ímã, fazendo com que ele produzisse uma vibração em uma superfície para gerar o som.

Magnetismo no mundo digital

Atualmente, os processos de gravação magnética são muito mais sofisticados e podemos utilizá-los para armazenar e processar informações. Os discos rígidos de computadores normalmente se valem desse processo, magnetizando pequenas regiões, na ordem de centenas de nanômetros de tamanho (um nanômetro equivale ao bilionésimo do metro). A gravação de cada informação é feita por meio da aplicação de campos magnéticos sobre o material que compõe os discos rígidos. Neles, as informações são gravadas na forma de um código binário, como uma sequência de “0” e “1” (pode-se representar, por exemplo, o “0” como um pequeno ímã com o polo norte apontando para cima, ou o “1” com o polo apontando para baixo).
Já para se ler as informações gravadas, utiliza-se uma tecnologia baseada no fenômeno quântico da magnetorresistência gigante, descoberta na década de 1980. Ela ocorre quando se produzem finas camadas de átomos, de apenas alguns nanômetros de espessura, alternando-se materiais magnéticos e não magnéticos. Dependendo do quanto as camadas magnéticas estiverem separadas, elas podem ficar com uma orientação paralela (ambas com os polos norte e sul na mesma direção) ou antiparalelas (cada camada com orientações opostas). 
No segundo caso, o de uma camada na situação antiparalela, ao fazermos com que uma corrente elétrica passe pelo material, observamos que este oferece uma determinada resistência à passagem da corrente. Ao aplicarmos um campo magnético à camada que está orientada na direção oposta, seus polos se invertem para se alinharem na direção em que o campo magnético está aplicado. Quando isso ocorre, a resistência à passagem da corrente elétrica deste material pode variar até dezenas de vezes.
Isso permitiu que a capacidade de armazenamento de informações nos computadores pessoais passasse de alguns megabytes, nos anos 1980, para terabytes nos dias atuais. Por essa descoberta, o físico francês Albert Fert e o alemão Peter Grünberg ganharam o prêmio Nobel de física em 2007.
A lista de tecnologias que utilizam fenômenos e materiais magnéticos é grande e inclui aparelhos de TV, fornos de micro-ondas e automóveis, entre outros. Além disso, descobertas recentes de novos materiais têm permitido o surgimento de novas aplicações e dispositivos. Enfim, a curiosidade humana por entender a natureza, alinhada à sua capacidade de inovar e inventar, permite que modifiquemos o nosso cotidiano com nossas criações. O grande desafio é fazer isso sempre pensando no bem estar da humanidade, pois as tecnologias, infelizmente, podem ser aplicadas também de maneiras perversas.
Adílson de Oliveira
Departamento de Física
Universidade Federal de São Carlos

quinta-feira, 31 de dezembro de 2015

Em uma galáxia muito distante ....

Coluna Física sem mistério
Ciência Hoje on-line
Publicada em 22/12/2015




Para os fãs da ficção científica, um dos eventos mais esperados de 2015 era (finalmente!) a estreia de um novo capítulo da consagrada série Guerra nas Estrelas. Depois de dez anos de espera, chegou aos cinemas do mundo Star Wars – o despertar da força. Como físico apaixonado por astronomia e fã da saga, não podia deixar de escrever sobre ela.
A epopeia cinematográfica de Georges Lucas, que começou em 1977, atrai uma legião de admiradores desde então. No meu caso em particular, ainda era um garoto quando foi lançado o primeiro filme, a que assisti no cinema da pequena cidade onde nasci. Foi fascinante ver os efeitos especiais fantásticos e únicos para aquela época. Além disso, o filme trazia uma história que envolvia a disputa entre o bem e o mal, em batalhas espaciais nunca antes vistas no cinema. Ao mesmo tempo em que retratava tecnologias que permitiam viajar (e guerrear) entre as estrelas, o filme apresentava um lado místico, no qual uma força presente em todo universo podia ser controlada por algumas pessoas especiais, os cavaleiros Jedi. 


Após quase quarenta anos do início da saga Guerra nas Estrelas, novos filmes, séries animadas e outros produtos de ficção foram lançados, criando um universo ficcional muito interessante. Os mais aficionados sempre perguntam e imaginam se a ficção criada por George Lucas pode, de alguma forma, refletir uma realidade ainda desconhecida. Há vários aspectos que poderíamos discutir sobre isso, mas jamais poderíamos esgotá-los nesta coluna. Arrisco-me, então, a abordar alguns aspectos que estão mais próximos da nossa compreensão.

Além de Netuno

Quando o primeiro filme da série foi lançado, conhecíamos apenas os planetas do Sistema Solar. Hoje, sabemos que existem milhares de planetas fora dele, inclusive orbitando estrelas duplas. Como o planeta Tatooine, retratado nos filmes de Lucas, o planeta Kepler 16b, que está a 200 anos-luz da Terra (um ano-luz equivale à distância de aproximadamente 10 trilhões de quilômetros), também orbita duas estrelas. Mas, neste caso específico, há uma diferença crucial entre realidade e ficção: Kepler 16b é um gigante gasoso com massa semelhante a Saturno, bem diferente do desértico Tatooine. 
Embora a maioria dos planetas extrassolares descobertos até agora não sejam próprios para abrigar a vida como conhecemos, isso não significa que não existam outros semelhantes à Terra (isto é, com água no estado líquido e oxigênio em abundância), e sim que não estamos usando as técnicas mais apropriadas para encontrá-los. 
Até recentemente, as principais metodologias utilizadas para a busca de exoplanetas vinham sendo a observação do trânsito planetário (quando o planeta passa na frente da estrela, diminuindo o seu brilho) e a detecção de microlentes gravitacionais (quando o planeta e a estrela desviam a luz de outra estrela distante). Essas técnicas são mais apropriadas para encontrar planetas de massa elevada e muito próximos de suas estrelas – o que os tira das chamadas “zonas habitáveis”. Porém, com a nova geração de telescópios terrestres e espaciais que estão sendo construídos, é provável que, nas próximas décadas, tenhamos grandes avanços na busca de planetas extrassolares, e talvez até surjam evidências de vida fora da Terra.

Biodiversidade interestelar

Por falar em vida extraterrestre, outro fato muito interessante relatado nos filmes de Guerra nas Estrelas é a diversidade de espécies alienígenas. Além dos seres humanos, são retratados wookiees, como Chewbacca (companheiro de Han Solo), e formas bizarras como lesmas gigantes (Jabba), espécies com três olhos e vários braços, entre outras. Seriam possíveis em um mundo real?
Até hoje, conhecemos um único tipo de biologia, baseada em moléculas que combinam basicamente carbono, nitrogênio, oxigênio e hidrogênio. Assim são formadas as espécies conhecidas em nosso planeta, e todas elas compartilham de uma grande semelhança genética devido aos processos de evolução que ocorreram ao longo de bilhões de anos. Segundo o princípio da seleção natural, de alguma maneira, as espécies se adaptaram às condições do ambiente, e as que melhor se adaptaram conseguiram passar para os seus descendentes as características que lhes deram vantagem.
Seguindo esse raciocínio, formas de vida tão bizarras e estranhas como as retratadas nos filmes necessitariam de condições muito especiais para surgir. Quando descobrirmos a primeira forma de vida fora da Terra – mesmo que seja aqui em nosso Sistema Solar, e ainda que seja apenas uma bactéria ou coisa parecida –, poderemos verificar se esse mecanismo da evolução é universal ou algo muito particular de nosso planeta.


Muita imaginação e nem tanta tecnologia

As tecnologias apresentadas na série, por sua vez, são, apesar de muito interessantes, impossíveis fisicamente, pelo menos em sua maioria. Por exemplo, os sabres de luz, usados pelos Jedi, são uma bela alegoria das espadas dos grandes cavaleiros medievais, mas não seria possível construí-los em um mundo real. Seria muito difícil aprisionar a luz como sugerem os filmes, e mais ainda dar a ela essa aparência “sólida” que permite a luta. De fato, dois raios de luz emitidos por fontes distintas simplesmente atravessam um ao outro – teste com um laser comum, desses usados em apresentações.
Tão impossível quanto duelar com sabres de luz é construir as espaçonaves que povoam a ficção. Nos filmes, elas facilmente viajam mais rápido que a luz, percorrendo em tempo recorde enormes distâncias interestelares. Infelizmente, como mostrou a teoria da relatividade de Albert Einstein, nada no universo conhecido pode viajar mais rápido que a luz: a energia necessária para mover uma espaçonave nessa velocidade seria, em parte, transformada em massa – de acordo com a famosa equação E=mc2 – e, quanto mais próxima a espaçonave estiver da velocidade da luz, maior será sua massa, de forma que necessitará de uma energia infinita para superar essa velocidade. 
Se viajar tão rápido é impossível, as espaçonaves de Guerra nas Estrelas teriam, então, que usar outros meios de vencer as enormes distâncias espaciais. Nos filmes, é mencionado que elas viajam pelo hiperespaço, o que, no enredo, significa viajar por uma dimensão paralela à nossa e que permitiria realizar viagens mais rápidas que a luz. Em outras séries de ficção, uma saída é o conceito de “dobra espacial” (warp drive), no qual, a partir de grandes quantidades de energia, poder-se-ia encurvar o espaço, diminuindo as distâncias estelares. No entanto, essa tecnologia requereria uma quantidade impensável de energia, equivalente à que o Sol produz durante toda a sua existência.
Agora, uma das tecnologias mais próximas da nossa realidade seriam os robôs, ou droides, que aparecem na saga. Figuras como o C3PO e R2D2 tornaram-se marcantes em todos filmes, principalmente por não serem simples máquinas, e sim personagens de fato, com personalidades particulares. Com os avanços atuais da inteligência artificial, talvez, em um futuro não muito distante, possamos ter máquinas com o senso de humor do R2D2 e tão ranzinzas como o C3PO. Quem sabe?
Enfim, mesmo sem muitos toques de realidade, a franquia Guerra nas Estrelas é uma das mais populares de todos os tempos. Não é à toa todo o sucesso, pois ela foi revolucionária em termos do próprio cinema, mas também por aumentar em nós a curiosidade sobre as estrelas e sobre o espaço. George Lucas estimulou nossa imaginação e aguçou nossa atenção para observar os céus. Com certeza muitas pessoas, e eu me incluo entre essas, tiveram inspiração desse e de outros filmes de ficção científica para escolherem a carreira de cientista, imaginando que, algum dia, pudessem transformar ficção em realidade. Esta, talvez, seja a verdadeira força: a vontade de compreender o desconhecido e ir além. Que ela esteja com vocês!

Adílson de Oliveira
Departamento de Física
Universidade Federal de São Carlos

terça-feira, 1 de dezembro de 2015

Sinfonia para o universo

Coluna Física sem mistério
Ciência Hoje on-line
Publicado em 20/11/2015

A música é uma das mais belas formas de expressar sentimentos e ideias. Há milhares de anos fazemos uso desse recurso, para pensar sobre nós mesmos e para compreender e descrever o mundo à nossa volta. Ao longo da história e em diversos lugares, a música eterniza parte do conhecimento e da cultura humana. Sinfonias de grandes compositores como Bach, Mozart e Beethoven transcenderam sua época. Além de belas, foram também revolucionárias: por exemplo, em sua Nona Sinfonia, composta em quatro movimentos, Beethoven inovou ao inserir não apenas instrumentos, mas também um coral para executar a peça musical. Como resultado, temos uma composição de enorme sucesso – a parte conhecida como “Ode à Alegria" é, até hoje, um dos trechos mais conhecidos da música ocidental.


Da mesma maneira, alguns cientistas também foram capazes, como grandes compositores, de expressarem suas ideias, não em partituras, mas por meio de postulados e equações matemáticas. Na física, um exemplo singular é a Teoria da Relatividade Geral (daqui por diante, TRG), de Albert Einstein. Uma sinfonia para o universo escrita praticamente por um único autor que, há exatos 100 anos, em novembro de 1915, fazia a primeira apresentação de sua grande obra. Como numa grande sinfonia, a TRG também apresentava movimentos que levaram anos para serem compostos e levariam outros tantos para serem compreendidos.
Os primeiros movimentos dessa sinfonia de Einstein foram escritos dez anos antes. Em 1905, o cientista publicou dois artigos que apresentavam o primeiro movimento da sua grande obra: a Teoria da Relatividade Restrita. 
No artigo inicial, encontramos dois ‘acordes’ que revolucionaram a ciência. O primeiro estendeu o princípio da relatividade, proposto por Galileu 300 anos antes, para toda a física, ou seja, postulou que “as leis físicas são as mesmas para todos observadores inerciais (que não sofrem aceleração)”. O segundo veio como um ‘verso’ surpreendente: “a velocidade da luz no vácuo é a mesma para todos os observadores inerciais”. Quando esses dois ‘acordes’ são tocados, a ‘música’ que surge nos leva a perceber que os conceitos de tempo e espaço deixam de ser absolutos para se tornarem relativos aos observadores inerciais. 
Fenômenos como a dilatação do tempo e a contração do espaço aparecem de uma forma que o senso comum não permite imaginar. Assim como a música gera em cada ouvinte uma emoção, Einstein mostrou que o tempo e o espaço também são particulares para cada observador.
Já no segundo artigo de 1905, o físico alemão escreveu mais um ‘acorde’ importante do primeiro movimento de sua grande sinfonia. Mostrou que, para continuar valendo dentro do contexto da relatividade, o conceito de conservação da energia deveria obedecer à equivalência entre massa energia – a famosa equação E=mc2, na qual m é a massa do corpo em repouso e c é a velocidade da luz. Assim, Einstein mostrou que massa e energia são equivalentes entre si.

Da inspiração à prática

Apesar de muito relevantes, os resultados publicados por Einstein em 1905 eram limitados apenas a movimentos uniformes, sem aceleração. Alguns anos depois, em 1907, o cientista teve uma inspiração que lhe permitiu prosseguir na construção de sua grande sinfonia. Ele intuiu que uma pessoa, ao saltar do alto de um prédio, por exemplo, não perceberia seu próprio peso, mas, por outro lado, um observador no solo a veria caindo sob a ação da gravidade. Da mesma forma, alguém viajando no espaço, longe da ação da gravidade de qualquer astro, mas com uma aceleração igual à aceleração da gravidade da Terra, sentiria como se tivesse na superfície da Terra. Essa percepção, que parece simples, teve uma profunda consequência: a igualdade (ou equivalência) entre massa gravitacional e massa inercial, que ficou conhecida como Princípio da Equivalência. 
Quando o físico britânico Isaac Newton fez sua grande obra da física, também comparável a uma grande sinfonia, propôs as leis da mecânica para explicar os movimentos e a lei da gravitação universal. Naquela época, ele havia percebido que a massa inercial, que aparece na famosa expressão entre força e aceleração (F=ma), era a mesma que aparecia na sua Lei da Gravitação Universal. No primeiro caso, a massa é como se algo que resiste à mudança no estado de movimento do corpo (massa inercial). No segundo, ela atua como uma ‘carga gravitacional’ (em analogia com a carga elétrica) da força de gravidade (massa gravitacional). Einstein conseguiu entender o porquê dessa equivalência.
Em novembro de 1915, o alemão concluiu sua grande obra. Ao combinar as ideias da Teoria da Relatividade Restrita com o Princípio da Equivalência e suas consequências, surgiu a Teoria da Relatividade Geral. De forma simplificada, a TRG postula que todas as leis físicas devem ser as mesmas em todos os referenciais (acelerados ou não), ampliando o princípio da relatividade; e que a gravidade é uma força devida à curvatura do espaço-tempo, causada pela presença de massa.

Essas ideias de grande alcance foram escritas em uma ‘partitura’ especial. Einstein descreveu a estrutura curva do espaço-tempo em sofisticadas equações matemáticas. Linguagem para especialistas, você diria. Mas, da mesma forma que, mesmo não sabendo ler uma partitura, podemos apreciar uma música, também podemos admirar a complexidade e a beleza da TRG de maneira simbólica – é uma analogia limitada, mas há de servir. Acompanhe.
Imaginemos que, ao esticarmos um tecido, coloquemos no seu centro uma bola de basquete. O tecido ao redor da bola ficará curvado. Quanto maior for a massa da bola, maior será a deformação causada no tecido. Se, em seguida, jogarmos uma bola de pingue-pongue sobre o tecido já curvado pela bola de basquete, o objeto menor causará uma pequena deformação e manterá seu movimento em linha reta até se aproximar da curvatura causada pela bola maior. Dependendo da sua velocidade, a bola de pingue-pongue começará a descrever uma trajetória ao redor da bola de basquete, semelhante à que a Terra e outros planetas fazem ao redor do Sol. Ficou mais fácil compreender?




A TRG é a grande sinfonia de Einstein e se tornou um dos pilares fundamentais da física. Além de descrever a gravidade e prever novos efeitos dessa força, como o desvio da trajetória da luz –comprovado pela primeira vez em 1919, durante a observação de um eclipse total do Sol em Sobral, no Ceará –, a Relatividade Geral permitiu descrever o comportamento do universo em larga escala, incluindo a própria expansão do universo, inicialmente ignorada por Einstein, que apenas mais tarde adicionou-a aos seus escritos. Alguns anos depois, o cientista admitiu ter sido este – não perceber a expansão do universo como resultado de sua própria teoria – o maior erro da sua carreira.



Para além da beleza, a TRG tem aplicações práticas muito úteis até hoje. O GPS que utilizamos, por exemplo, em nossos carros e telefones celulares, funciona com precisão porque os relógios atômicos do sistema são corrigidos pelas equações de Einstein. Note que, como espaço e tempo estão ligados, a curvatura do espaço afeta a passagem do tempo, ou seja, a gravidade modifica a passagem do tempo. Na Terra, a gravidade é suficiente para gerar atrasos na ordem de nano-segundos, que, se não fossem corrigidos, resultariam em erros de localização na ordem de quilômetros. 
Da mesma forma que a Nona Sinfonia de Beethoven, a Teoria da Relatividade Geral é, sem dúvida, uma maravilhosa sinfonia para o universo, com um alcance que transcende sua época. A TRG, junto com a Mecânica Quântica, tornou-se um dos pilares da física moderna.
Agora, temos espaço para mais uma grande sinfonia, ainda não escrita: um trabalho que una, ou modifique, essas duas grandes teorias físicas. Essa obra final, que se tenta escrever nos últimos 100 anos, ainda levará tempo para ser concluída e, talvez, nem seja possível de se conseguir. Mas a inspiração e a capacidade humanas sempre mostram que podemos ir além daquilo que somos capazes de imaginar.
Adílson de Oliveira
Departamento de Física
Universidade Federal de São Carlos



quinta-feira, 5 de novembro de 2015

Podemos entender o universo?

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 16/10/2015

A visão noturna do céu é um belo espetáculo. Observar a Lua, planetas e estrelas é uma atividade, embora cada vez mais difícil nas grandes cidades, sempre muito prazerosa. Desde o alvorecer da humanidade, nos esforçamos para compreender o significado daqueles milhares de pontos brilhantes no firmamento. Alguns se destacam por se moverem em relação aos outros: são conhecidos desde a Antiguidade os cinco planetas vistos a olho nu – Mercúrio, Vênus, Marte, Júpiter e Saturno. No meio deles desfila a Lua, fazendo um intrincado balé regido pelos particulares movimentos planetários.
Milhares de estrelas, de diferentes tamanhos, cores e brilhos, fascinam a nossa imaginação não somente por causa da beleza, mas também pela persistência ao tempo, dando-nos a impressão de que são eternas e imutáveis. Ao longo dos séculos, procuramos encontrar conexões entre esses pontos brilhantes, imaginando ligações que simbolizavam muitas vezes os medos e crenças da alma humana. Figuras mitológicas, como deuses, heróis e seres fantásticos, foram projetadas no céu para representar esses sentimentos.

Via Láctea no céu do deserto de Atacama

Enfim, a astronomia talvez seja a mais idosa das ciências. Os povos antigos, ao observarem o céu, já percebiam que os movimentos cíclicos do Sol, da Lua, dos planetas e das estrelas poderiam ser utilizados para prever o início das estações do ano, as cheias dos rios e as melhores épocas para plantio e colheita. Observações mais precisas também permitiam prever a ocorrência de fenômenos astronômicos como os eclipses lunares e solares, mostrando que era possível conhecer a ocorrência de acontecimentos futuros a partir da observação dos movimentos dos corpos celestes. 
Dessa percepção nasceu a astrologia, pseudociência que persiste até hoje, presente em jornais, portais da internet e outros meios de comunicação que divulgam as suas crenças. A astrologia, diferentemente da astronomia, tenta correlacionar as posições dos astros com os comportamentos individuais – uma associação impossível, por mais que algumas pessoas queiram acreditar nela.
Ainda assim, vejo beleza nessas interpretações: elas demonstram a capacidade humana de nos propormos a compreender o universo, criando modelos e teorias a partir da observação dos atores celestes no grande teatro cósmico. Nessa performance, que dura mais de uma dezena de bilhões de anos, ocupamos um local privilegiado na plateia, de onde podemos observar diferentes instantes do tempo: a imensidão do cosmos nos permite ver, no tempo presente, o passado remoto.

Olhar para o passado

Observar o céu é viajar ao passado. As imensas distâncias que existem entre nosso planeta e as estrelas fazem com que a luz proveniente delas leve muito tempo para chegar até a Terra. No caso do Sol, estrela mais próxima de nós, a cerca de 150 milhões de quilômetros de distância, a luz leva pouco mais de oito minutos para chegar aqui. A próxima estrela mais perto de nós, Alfa Centauri –  a mais brilhante da grande constelação do Centauro, ao lado do Cruzeiro do Sul –, está a ‘apenas’ 40 trilhões de quilômetros, uma distância que a luz demora quatro anos para percorrer.
Diante das enormes distâncias interestelares, trocamos a nossa régua de medida. Em vez de contar quilômetros, expressamos as distâncias em anos-luz: um ano-luz equivale a aproximadamente 10 trilhões de quilômetros. Para se ter uma ideia, o objeto mais distante que conseguimos observar a olho nu, a galáxia de Andrômeda, está a dois milhões de anos-luz de nosso planeta. A luz que vemos hoje de Andrômeda, portanto, saiu de lá em uma época em que a humanidade ainda não caminhava sobre a Terra, há dois milhões de anos.

Galáxia de Andrômeda

Física universal

A partir das observações que realizamos com a ajuda de aparelhos e, principalmente, das teorias físicas, conseguimos descrever corpos celestes que nos fascinam há milênios. Com aplicações da física quântica e da teoria da Relatividade, podemos explicar que as estrelas são aglomerados de gases em altíssimas temperaturas, nos quais a matéria está tão aquecida que os elétrons que circulam os núcleos atômicos são arrancados, deixando-a totalmente ionizada, no chamado estado de plasma. 
Essas temperaturas inimagináveis decorrem das reações de fusão nuclear no interior das estrelas, onde normalmente quatro núcleos do átomo de hidrogênio (um próton, que tem carga elétrica positiva) se combinam para formar um núcleo do átomo de hélio. Durante esse processo, dois prótons se transformam em dois nêutrons (partículas do núcleo atômico sem carga elétrica) e duas partículas conhecidas como pósitrons (com massa igual ao dos elétrons, mas com carga positiva) emergem, fazendo com que a contabilidade energética e de cargas se conserve.
As grandes massas das estrelas travam um cabo-de-guerra estelar entre a gravidade (que tende a comprimir toda a matéria das estrelas) e a pressão devida às altas temperaturas, na ordem de milhões de graus em seu interior. No final, esgota-se o combustível nuclear, levando a estrela a dois destinos possíveis, a depender de sua massa inicial: transmutar-se em pequena anã-marrom, sem brilho, ou explodir espetacularmente, transformando-se em supernova e brilhando por alguns meses com a intensidade de centenas de bilhões de estrelas.
Podemos fazer toda essa descrição pois acreditamos, e verificamos, que as leis da física são as mesmas para todos os lugares do universo e em todos os instantes do tempo. Ao observar como os átomos de hidrogênio emitem luz ao serem aquecidos – aconteça isso em um laboratório terrestre ou "em uma galáxia muito, muito distante" –, obtemos as mesmas informações. O movimento dos planetas ao redor de estrelas distantes é descrito pela mesma teoria da gravitação que descreve os planetas do nosso sistema solar ou explica a queda de uma maçã.
O fato extraordinário de que as leis físicas são as mesmas em todos os lugares e em todos os tempos é um dos mais importantes fundamentos da nossa ciência. Se não fosse assim, o universo pareceria um caos, em vez de um cosmos harmônico com movimentos e fenômenos bem estabelecidos.
Mas, é claro, nosso conhecimento sobre universo ainda está longe de se esgotar. Moramos em um pálido ponto azul que orbita uma estrela média entre as centenas de bilhões que existem em nossa galáxia, que também é apenas uma entre as centenas de bilhões que conhecemos. Estamos muito longe de compreender tudo o que existe no universo, e conhecemos apenas uma pequena parte do todo. 
Na extraordinária epopeia humana em busca do conhecimento, percorremos apenas poucos metros de uma longa estrada. Talvez nunca chegaremos ao final, mas sabemos que, desde que demos os primeiros passos, procuramos encontrar o nosso caminho e destino. Não é ousadia tentar compreender o universo – é o desejo que nos faz realmente humanos.
Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos