quinta-feira, 27 de dezembro de 2012

E o mundo não se acabou!

Coluna Física sem mistério
Ciência Hoje on line
Publicada em 21/12/2012


Há três anos, em novembro de 2009, escrevi uma coluna sobre as possibilidades do fim do mundo – ‘Quando será o fim do mundo?’. A motivação era o lançamento do filme2012, que descreve o fim do mundo acarretado por fenômenos ocorridos no Sol. No enredo do filme, um aumento na produção de neutrinos elevou a temperatura do núcleo da Terra, provocando enormes terremotos, maremotos e movimento dos continentes, que, por sua vez, levaram à destruição de grandes cidades, inclusive o Rio de Janeiro – em uma cena forte, o Cristo Redentor é completamente destruído.
Uma das grandes motivações do filme foi a descoberta de um calendário maia que indica o fim de um ciclo de 5.125 anos e a suposta possibilidade de o término desse ciclo estar associado a uma destruição catastrófica do nosso planeta, que iniciaria uma nova era. O dia exato do fim desse ciclo seria o dia 21 de dezembro de 2012 (a data exata em que esta coluna está sendo publicada!).
Contudo, se você está lendo este texto, é porque o mundo de fato não acabou. O Sol continua brilhando da mesma maneira que os últimos bilhões de anos e deve continuar assim pelo menos pelos próximos 5 bilhões.
O evento astronômico importante que está ocorrendo nesta data é o início do solstício de verão, que se inicia às 8 horas e 12 minutos (no horário de Brasília). A palavra solstício significa ‘sol parado’ e foi escolhida porque, nesse dia, o astro-rei nasce na posição mais ao sul. Depois, a cada dia, sua nascente começa a se deslocar até que, em 20 de março, chega exatamente no leste, dando início ao outono.
Durante o verão no hemisfério sul, essa parte do globo fica mais iluminada pelo Sol e por isso, nessa estação, temos os dias mais longos, as noites mais curtas e períodos mais quentes. O verão e as demais estações do ano ocorrem em função de o eixo de rotação da Terra estar inclinado em cerca de 23 graus em relação a uma reta perpendicular ao plano de órbita do nosso planeta, e não por ele se aproximar do Sol, como o senso comum alguma vezes supõe.

Vilões na ficção, inofensivos na realidade

O grande vilão do filme 2012, que provoca o fim do nosso mundo, são os neutrinos. Nesse momento, mais de 100 bilhões de neutrinos estão atravessando o seu corpo. Mas não se preocupe. Os neutrinos são partículas subatômicas inofensivas. Existem três tipos deles: o neutrino do elétron, o neutrino do múon e o neutrino do tau.
O neutrino do elétron foi proposto teoricamente pelo físico alemão Wolfgang Pauli (1900-1958) em 1930, para poder explicar um fenômeno conhecido como decaimento beta, no qual um nêutron se transforma em um elétron (que tem carga elétrica negativa), um pósitron (partícula com mesma massa do elétron, mas com carga elétrica positiva) e um antineutrino do elétron (antipartícula do neutrino). Ele foi efetivamente observado em 1956. Os neutrinos dos múon e tau estão associados a essas partículas subatômicas e foram descobertos em experimentos realizados em grandes aceleradores de partículas.
O neutrino não possui carga elétrica e não se tem certeza do valor exato de sua massa, mas medidas indiretas sugerem que esta seja centenas de vezes menor que a massa do elétron. Ele interage com outras partículas somente por meio da força gravitacional e da nuclear fraca (duas das quatro interações fundamentais da natureza, ao lado da eletromagnética e da nuclear forte). É a segunda partícula mais abundante do universo, sendo a primeira o fóton, partícula da radiação eletromagnética, em particular a luz visível.
Os neutrinos podem ser produzidos em reatores nucleares, pelo processo de fissão nuclear, e no interior das estrelas, por processos de fusão nuclear – como acontece com o Sol. Há produção de grandes quantidades de neutrinos quando ocorre um evento astronômico chamado supernova.
Uma supernova é quando uma estrela com dezenas de vezes a massa do Sol chega ao seu ciclo final de vida e ‘explode’. Durante esse evento, uma estrela pode brilhar por meses mais do que uma galáxia inteira, ou seja, mais do que centenas de bilhões de estrelas juntas.
Se ocorresse a explosão de uma supernova nas vizinhanças do sistema solar, com certeza o nosso planeta correria riscos, pois, além dos inofensivos neutrinos, que não causariam nenhum mal a nós, grande parte da radiação produzida nesse fenômeno estaria na faixa dos raios gama, estes com energia muito alta, capaz de causar a destruição de todas as formas de vida na Terra. Contudo, nenhuma estrela vizinha a nós, na escala de centenas de anos-luz, corre o risco de se transformar em supernova nos próximos milhões de anos.
Curiosamente, os neutrinos estiveram em cena no ano de 2011, quando um grupo de cientistas do Centro Europeu de Pesquisa Nuclear (Cern), na Suíça, e do Laboratório Nacional de Gran Sasso, na Itália, anunciaram que tinham medido neutrinos que viajaram mais rápido do que a luz.
Esse resultado, se fosse correto, teria abalado um dos pilares da física, a teoria da relatividade de Einstein, e muito do que sabemos deveria ser revisto. Contudo, meses depois foi verificado que havia um mau contato em um dos sistemas de detecção, o que gerou um erro na medida do tempo de voo dos neutrinos, induzindo a um resultado errôneo. (veja a coluna ‘Quem está correto, Dr. Einstein?’).

Ameaças remotas x preocupações reais

No Cern, temos o LHC (sigla, em inglês, de Grande Colisor de Hádrons), que também causou comoção quando foi inaugurado, pois algumas pessoas imaginaram que ele poderia produzir um buraco negro e engolir toda a Terra.
Os buracos negros são um dos estágios finais de vida de grandes estrelas e podem surgir como o resto de uma supernova. Nesse caso, a densidade de matéria é tão grande e a força gravitacional fica tão intensa que nem a luz é capaz de escapar dela (daí o nome de buraco negro).
Existem previsões teóricas de que poderiam surgir buracos negros microscópicos em condições de altas energias, mas eles evaporariam em questão de nanossegundos. Além disso, embora o LHC tenha atingido níveis de energia nunca antes observados, estes são muito pequenos quando comparados aos raios cósmicos que atingem continuamente a nossa atmosfera. Ou seja, se fosse possível surgir esses miniburacos negros, com certeza eles não durariam o suficiente para crescer e engolir o nosso planeta.
Os receios e temores com relação ao fim do mundo sempre existiram na cultura e nas religiões de diversos povos em todas as épocas da história. Como habitantes de um imenso universo, de fato estamos sujeitos a cataclismos que podem destruir a vida na Terra (como já houve em um passado distante). Contudo, na época em que vivemos, é mais fácil o homem danificar o meio ambiente de uma forma irreversível ou entrar em uma louca guerra nuclear que torne o nosso planeta inabitável do que um evento astronômico destruir o nosso planeta. Este, sim, deve ser o nosso maior temor.

Adilson de OliveiraDepartamento de Física
Universidade Federal de São Carlos




domingo, 18 de novembro de 2012

Ficção e realidade no espaço

Coluna Física sem mistério
Ciência Hoje On-line
Publicada em 16/11/2012


Quando eu ainda era um garoto, na década de 1970, um dos programas de televisão de que eu mais gostava era uma série sobre ficção científica e viagens espaciais chamadaPerdidos no espaço. Ela foi produzida em meados dos anos 1960, mas, naquela época, era novidade aqui no Brasil.
Perdidos no espaço tratava das aventuras de uma família norte-americana – a família Robinson –, um robô (que se tornou um dos personagens mais queridos da série) e o piloto de uma espaçonave (Júpiter 2), que os conduzia pelo espaço em busca de novos planetas. Era necessário encontrar novos mundos que pudéssemos habitar, por causa da superpopulação da Terra no final do século 20.
Devido à sabotagem de um espião (Dr. Smith) que invadiu a nave em seu lançamento – e ficou preso nela –, Júpiter 2 nunca chegou ao seu destino, mas acabou encontrando outros mundos. O garoto Will Robinson, Dr. Smith e o robô foram os melhores personagens da série, que teve três temporadas.
No programa, o lançamento fictício da espaçonave que ficaria ‘perdida no espaço’ ocorreu no dia 16 de outubro de 1997, com destino ao sistema estelar Alfa Centauri, o mais próximo da Terra, a pouco mais de 4 anos-luz de distância (um ano-luz representa a distância que a luz percorre em um ano e equivale a aproximadamente 10 trilhões de quilômetros).


O sistema Alfa Centauri possui três estrelas. Alfa Centauri A é cerca de 23% maior que o Sol e semelhante a ele. Alfa Centauri B é uma estrela com raio 14% menor que o da primeira e tem cor alaranjada. Finalmente, Alfa Centauri C, também conhecida como Proxima Centauri, é uma estrela tipo anã-vermelha, muito pouco brilhante e com diâmetro de apenas 1,5 vezes o de Júpiter.
Alfa Centauri C está a 4,2 anos-luz da Terra, enquanto Alfa Centauri A e B estão a 4,4 anos-luz. As três estrelas orbitam em torno de uma posição que chamamos de ‘centro de massa’ do sistema. As duas estrelas maiores completam uma translação ao redor desse ponto a cada 80 anos e estão distantes entre si aproximadamente 1,67 bilhões de quilômetros, o que equivale à distância entre o Sol e Saturno. Alfa Centauri C gasta mais de um milhão de anos para completar a sua órbita e está a 2,2 trilhões de quilômetros (0,24 ano-luz) da dupla principal.
Olhando da Terra, Alfa Centauri é a estrela mais brilhante da constelação do Centauro. Para encontrá-la, basta procurar bem próximo da constelação do Cruzeiro do Sul. Alfa Centauri é a terceira estrela mais brilhante do nosso céu. É possível observar a dupla Alfa Centauri A e B com um pequeno telescópio. Sem dúvida é um belo espetáculo para os amantes da astronomia. Já Alfa Centauri C só pode ser vista por meio de instrumentos mais sofisticados.


Nosso vizinho mais próximo

No último dia 16 de outubro, 15 anos depois do ficcional lançamento de Júpiter 2, foi anunciada a descoberta de um planeta com tamanho semelhante ao da Terra e apenas 13% mais massa que esta orbitando Alfa Centauri B. Contudo, esse planeta está muito próximo da estrela, a apenas 6 milhões de quilômetros dela, e gasta somente 3,2 dias para completar sua órbita. Dessa forma, ele não se encontra na chamada ‘região habitável’, onde há chance de existir água no estado líquido e temperaturas amenas que possam suportar a vida.
Embora o sistema Alfa Centauri seja nosso vizinho próximo – localizado praticamente no mesmo quarteirão –, enviar uma sonda espacial ou chegar pessoalmente até lá está muito além das nossas possibilidades tecnológicas. Na série Perdidos no espaço, a família Robinson levaria cinco anos para realizar a viagem, se deslocando a uma velocidade próxima à da luz. Durante esse período, eles estariam em um estado de hibernação.
Talvez a hibernação seja a maneira de conseguirmos, em um futuro próximo, realizar essas viagens interestelares. Mas, com a tecnologia atual, levaria dezenas de milhares de anos para percorrermos a distância que nos separa de Alfa Centauri.
Se viajássemos com velocidade próxima à da luz, como faria a nave Júpiter 2, a viagem não levaria de fato cinco anos para os tripulantes da nave. Nesse caso, poderíamos ter efeitos bem interessantes.


Espaço e tempo relativos

Albert Einstein (1879-1955), ao desenvolver a teoria da relatividade, mostrou que a velocidade da luz é a velocidade limite do universo e que o espaço e o tempo são relativos ao nosso movimento. Ao viajarmos com velocidade próxima à da luz, o tempo passa de uma forma mais lenta. Esse é o fenômeno da dilatação temporal.
Embora ainda não tenhamos construído espaçonaves que viajem nessa velocidade, esse efeito é observado em experimentos realizados em aceleradores de partículas, nos quais prótons e elétrons, por exemplo, são acelerados a essa incrível velocidade.
Algumas partículas elementares têm um tempo de vida muito curto antes de se desintegrarem em outras. Quando estão viajando em velocidades próximas à da luz, elas ‘vivem mais’. Por exemplo: quando uma partícula elementar chamada muon (que tem cerca de 200 vezes a massa do elétron) está em repouso em relação a um observador, ela tem um tempo de vida de 2,2 milionésimos de segundo. Quando está viajando a 99,94% da velocidade da luz em relação a esse mesmo observador, ela permanece estável por 64 milionésimos de segundo. Contudo, para a partícula, passaram-se os mesmos 2,2 milionésimos de segundo.
Se enviássemos uma espaçonave para Alfa Centauri a uma velocidade de 99,9% da velocidade da luz, para quem fica na Terra a viagem demorará um pouco mais de quatro anos, afinal, a estrela está a 4 anos-luz de distância. Mas, para quem está na espaçonave, a viagem demoraria pouco mais de dois meses. Como isso é possível?
Associado ao efeito de dilatação temporal, existe o efeito de contração do espaço. Quem está na espaçonave, viajando em velocidade constante, tem a sensação de que está em repouso e todo o resto está se movendo em sua direção. Temos percepção semelhante quando viajamos por uma estrada reta com o automóvel mantendo sempre a mesma velocidade. Parece que são as árvores, os postes etc. que se movem e nós estamos parados.
De acordo com a teoria da relatividade, se nos movêssemos em velocidades próximas à da luz, teríamos a sensação de estar em repouso e de que todo o universo está se aproximando de nós. E, de fato, o espaço percorrido seria mais curto. Isso acontece porque o espaço e o tempo estão interligados, formando um contínuo ‘espaço-tempo’. Portanto, uma dilatação do tempo corresponde a uma contração do espaço na direção em que estamos nos movendo.
No caso da viagem para Alfa Centauri que imaginamos acima, teríamos percorrido apenas a distância de pouco mais de 2 meses-luz, ou aproximadamente 1,7 trilhões de quilômetros, e não os mais de 40 trilhões de quilômetros que separa Alfa Centauri da Terra.
Mas ainda demorará muito para conseguirmos fazer nossa primeira visita ao planeta recém-descoberto em Alfa Centauri. Por enquanto, resta-nos apenas espiar de longe e usar a imaginação.
Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos




sexta-feira, 26 de outubro de 2012

A Física Quântica e o Nobel

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 19/10/2012


Todos os anos, no começo do mês de outubro, cria-se no meio científico muita expectativa em relação ao anúncio dos ganhadores do prêmio Nobel. Esse prêmio é considerado uma das mais importantes honrarias para os cientistas – embora também seja concedido para as áreas de literatura e paz, que não estão associadas à investigação científica.
Com relação ao prêmio de física de 2012, até brinquei com os meus alunos que eu não tinha recebido nenhum telefonema da Academia Real Sueca de Ciências – instituição responsável pela escolha – e teria que esperar o próximo ano. Eu sei que é altamente improvável que eu receba esse telefonema, mas sem dúvida todo físico um dia sonhou em ganhar tal honraria.
O primeiro laureado com o prêmio Nobel de Física, em 1901, foi o físico alemão Wilhelm Conrad Röntgen (1845-1923), pela descoberta dos raios X, uma radiação eletromagnética com comprimento de onda da ordem de um décimo de nanômetro (um nanômetro equivale a um bilionésimo de um metro) e que pode ser utilizada para o estudo das estruturas atômicas e a realização de imagens do interior do corpo humano – aplicação bem conhecida.
Neste ano, o prêmio foi dado ao pesquisador francês Serge Haroche e ao norte-americano David J. Wineland pela criação de “métodos experimentais que permitem medir e manipular sistemas quânticos individuais”. É mais um prêmio concedido ao desenvolvimento de um dos pilares da física: a física quântica.
Esse ramo da física começou a ser desenvolvido no início do século 20, quando novas descobertas começaram a mostrar que os conceitos da física clássica (a mecânica newtoniana, o eletromagnetismo e a termodinâmica) não conseguiam explicar alguns resultados experimentais observados.
Um exemplo foi a teoria proposta em 1899 pelo físico alemão Max Planck (1858-1947) para explicar o comportamento da radiação emitida por um corpo negro. Um corpo negro ideal é um corpo que absorve toda a radiação incidente sobre ele e, depois de aquecido, emite radiação com determinada característica. Se fossem utilizados o eletromagnetismo e a termodinâmica conhecidos na época para explicar esse comportamento, surgia uma discordância entre os conceitos teóricos e os resultados experimentais.
Planck então deduziu uma fórmula que descrevia os resultados experimentais. Para obtê-la, ele introduziu o conceito de que a energia em um corpo negro somente poderia ser absorvida na forma de valores discretos, em ‘pacotes’ – ou quanta, termo em latim que acabou batizando o ramo da física que nascia ali.
O físico propôs que a energia era resultado da multiplicação da frequência da radiação por uma determinada constante, que posteriormente foi batizada com seu nome (constante de Planck) e é igual a 6,62 x 10-34 J.s (onde J = joule, unidade de energia; s = segundo). Esse é considerado o marco do início da física quântica. Por essa descoberta e outras contribuições, Planck recebeu o Nobel de Física em 1918.


Novos conceitos

No século 20, ocorreram os principais desenvolvimentos no campo teórico da física quântica. A grande maioria dos prêmios Nobel de Física naquele século foi dada a avanços tanto na teoria como em experimentos e aplicações desse ramo da física.
Um dos conceitos introduzidos pela física quântica que tiveram impacto profundo na nossa compreensão da natureza foi o princípio da incerteza (ou princípio da indeterminação), proposto pelo físico alemão Werner Heisenberg (1901-1976) em 1927. Esse princípio introduziu a ideia de que é impossível conhecer com absoluta certeza simultaneamente a posição e a quantidade de movimento de uma partícula.
Esse princípio também limita nossa percepção em relação ao tempo e à energia de uma partícula. Essa limitação não é tecnológica, mas sim uma imposição da natureza e faz parte da essência do mundo em escala atômica.
Heisenberg não apenas desenvolveu esse princípio, mas também uma nova teoria para explicar o comportamento dos entes atômicos que ficou conhecida como mecânica quântica matricial. Nessa teoria, as propriedades das partículas são descritas por matrizes e podem ser calculadas pela realização de operações entre essas matrizes. Por essas contribuições, ele foi laureado com o Nobel de Física em 1932.
No ano seguinte, a Fundação Nobel concedeu o prêmio para o físico austríaco Erwin Schrödinger (1887-1961) e o físico britânico Paul Dirac (1902-1984) por desenvolvimentos de novas versões da teoria quântica. Schrödinger formulou uma teoria ondulatória para explicar o comportamento dos entes quânticos e Dirac mostrou que tanto a teoria de Schödinger quanto a de Heisenberg eram equivalentes, ou seja, levavam aos mesmos resultados. Dirac também ampliou essas teorias, ao incorporar os conceitos da teoria da relatividade restrita de Einstein, e criou uma versão relativística da física quântica.

Física quântica aplicada

Descobridores de aplicações dos princípios da física quântica também receberam vários prêmios Nobel de Física. Um deles foi concedido em 1964 aos físicos russos Nicolay Basov (1922-2001) e Alexander Prokhorov (1916-2002), por seus trabalhos fundamentais que permitiram o desenvolvimento do laser (fonte de luz com comprimento de onda bem definido). As aplicações do laser são inúmeras, desde a utilização na leitura de CDs e DVDs até a realização de cirurgias e o tratamento de doenças.
No caso do prêmio Nobel de Física deste ano, os ganhadores, trabalhando de maneira independente, desenvolveram técnicas que permitiram isolar partículas e observar seu comportamento individual.
David J. Wineland desenvolveu uma armadilha para prender íons (átomos eletricamente carregados) em campos elétricos e conseguiu deixar essas partículas no seu nível mais baixo de energia, o que permitiu a observação de seus efeitos quânticos. Já o francês Serge Haroche aprisionou fótons dentro de uma pequena cavidade entre dois espelhos e conseguiu obter a reflexão de apenas um único fóton antes que ele fosse absorvido pelos próprios espelhos.
Ganhar o prêmio Nobel de Física é apenas para poucos pesquisadores e é um reconhecimento da importância da descoberta por eles realizada. Claro que muitas vezes se discute a relevância do feito e se o trabalho de outro pesquisador que também contribuiu para a descoberta foi desconsiderado. Mas o fato é que o cientista que ganha o prêmio Nobel deixa seu nome marcado na história.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos





segunda-feira, 1 de outubro de 2012

Ser ou não ser físico, eis a questão!

Coluna Física sem Mistério
Ciência Hoje on-line
publicada em 21/09/2012


Com o início do segundo semestre escolar, para muitos estudantes que estão concluindo o ensino médio ou para aqueles que estão fazendo cursinhos pré-vestibular, começa a angústia com a proximidade das provas dos vestibulares e do Exame Nacional do Ensino Médio (Enem), a porta de entrada para grande parte das universidades federais brasileiras.
Devido aos artigos que escrevo para esta coluna (creio eu), muitas pessoas me escrevem perguntando sobre física, mas também muitos estudantes me questionam sobre a carreira de físico, querendo saber em que e onde poderão trabalhar, quais as oportunidades de trabalho em empresas e qual universidade eles devem procurar para fazer esse curso.
Curiosamente, alguns estudantes estão procurando argumentos para convencer seus pais sobre essa escolha. Para muitas pessoas, trabalhar com física se limita a ser professor no ensino médio. Como a carreira de professor não é uma das mais bem remuneradas, é natural que os pais fiquem preocupados com a escolha dos filhos para exercer tal profissão.
A física é uma ciência fascinante. Com a proposta de tentar compreender o mundo ao nosso redor na sua forma mais íntima, a física se baseia em modelos e teorias fundamentais que explicam desde a estranha natureza dos entes subatômicos até a complexidade das galáxias e a expansão do universo, passando pela compreensão de fenômenos cotidianos, como o movimento dos objetos, o congelamento da água, o azul do céu, as cores do arco-íris e a brancura das nuvens.
Além disso, eletrônica, computação, telecomunicações, naves espaciais, entre outras tecnologias, somente foram possíveis a partir da compreensão que a física construiu sobre as propriedades da matéria e da energia.
Contudo, para muitos estudantes, talvez ela seja a disciplina de maior dificuldade nas provas dos vestibulares e do Enem. A física, pela sua forma particular de compreender a natureza e pela necessidade de utilizar a linguagem matemática – outra grande barreira para a maioria dos estudantes brasileiros –, talvez seja uma disciplina que assuste. Além disso, como em todas as disciplinas, há uma grande carência de bons professores de física no ensino médio, e também no superior.

Modelos de físicos

O físico mais famoso de todos os tempos é, sem dúvida, Albert Einstein (1879-1955). Com seu jeito meio desligado, cabelos espetados e roupas desalinhadas – Einstein tinha muitos paletós iguais para não perder tempo escolhendo-os –, acabou criando um estereótipo tipo ‘cientista maluco’. Mas suas contribuições para a física colocam-no, de fato, como um dos maiores de todos os tempos (se não for o maior).
Contudo, para muitos jovens estudantes, talvez surjam como exemplos de físicos os personagens Sheldon e Leonard, da série de televisão The Big-Bang Theory. Na série, vemos esses dois físicos – além de um astrofísico e um engenheiro – comportarem-se como ’nerds’. Embora a grande maioria dos físicos não seja ‘nerd’ como Sheldon e Leonard, é interessante discutirmos um pouco cada personagem para compreender melhor o trabalho dos físicos.
Sheldon é um físico teórico, ou seja, um físico que normalmente trabalha com teorias fundamentais, por meio da realização de cálculos matemáticos sofisticados e normalmente necessita usar grandes computadores. Algumas das teorias com que esses físicos trabalham ainda não foram verificadas experimentalmente. No seriado, algumas vezes, Sheldon se refere à teoria de supercordas, uma teoria que poderá unificar os dois pilares fundamentais da física, a mecânica quântica e a teoria da relatividade geral.
A primeira descreve as estruturas menores da matéria a partir de três das quatro interações fundamentais: força nuclear forte, força nuclear fraca e a força eletromagnética. A segunda é a teoria fundamental da gravitação, que consegue descrever com grande precisão os movimentos dos planetas, estrelas, galáxias e a própria expansão do universo.
Essas teorias, porém, não podem ser aplicadas de maneira conjunta, pois levam a resultados contraditórios. Nesse aspecto, a teoria de supercordas propõe que os entes fundamentais da natureza sejam ‘cordas’ de energia vibrando com diferentes frequências em 11 dimensões. Alguns propõem que ela poderia ser uma alternativa às teorias atuais. Contudo, ela ainda não foi verificada experimentalmente.
Para verificar teorias e tentar descobrir novos fenômenos, entra em cena o físico experimental – no caso, Leonard, que utiliza lasers para estudar comportamentos fundamentais da matéria. 
Um físico experimental trabalha em laboratórios nos quais realiza experimentos para tentar compreender a natureza. Algumas vezes, necessita de enormes equipamentos, como as máquinas de luz síncrotron. Estas produzem raios X em alta intensidade para estudar a estrutura da matéria. Outro exemplo é o LHC, – o Grande Colisor de Hádrons –, que provoca a colisão de prótons com antiprótons para criar novas partículas elementares.
Entretanto, a maioria dos físicos experimentais trabalha em laboratórios menores, nas universidades ou em institutos de pesquisa, realizando experimentos cotidianamente, como é meu caso, que estudo magnetismo e materiais magnéticos.
Em meu laboratório, para compreender as propriedades magnéticas dos materiais, costumamos utilizar equipamentos muito sensíveis, capazes de detectar os campos magnéticos gerados por até algumas camadas de átomos – que podem ser 1 trilhão de vezes menor que o campo magnético da Terra. 
Realizamos também experimentos em temperatura próxima ao zero absoluto (-273 oC), passamos corrente elétrica, incidimos luz, entre outras coisas, tudo para descobrir como os materiais reagem e tentar compreender os mecanismos físicos que estão ocorrendo. 

Forte formação e grande satisfação

Tanto os físicos teóricos como os experimentais precisam ter uma forte formação em física e matemática. Embora os teóricos dominem os métodos de cálculo sofisticados, eles também têm que conhecer como funcionam os experimentos para compreender os resultados experimentais que podem validar ou não uma teoria por ele desenvolvida.
O físico experimental também tem que conhecer as teorias relacionadas aos problemas que estuda para poder planejar experimentos e obter os resultados esperados.
As áreas nas quais os físicos podem atuar são diversas. Temos físicos trabalhando em campos como materiais, biofísica, medicina, metrologia, agricultura, energia nuclear, mercado financeiro, indústrias, entre outros.
No entanto, ainda existem poucos físicos trabalhando em indústrias. Para aproximar mais esses dois atores, há 12 anos surgiu o primeiro curso de engenharia física no Brasil, na minha universidade, a Universidade Federal de São Carlos (UFSCar). Várias turmas de engenheiros físicos já se formaram e a grande maioria conseguiu boas posições e trabalha em diversas empresas dos mais variados ramos.
Finalmente, outro campo de atuação importante do físico é o ensino de física, de fundamental importância para o Brasil. Existe um déficit imenso de professores dessa disciplina, da ordem de quase 100 mil professores. Esses profissionais são fundamentais para formar os estudantes do ensino médio com bom conhecimento em física, que, por sua vez, são essenciais a todas as profissões da área de exatas e tecnológicas.
Cabe mencionar que está tramitando no Congresso Nacional o projeto de lei que regulamenta a profissão de físico. O texto foi aprovado esta semana na Câmara dos Deputados e encaminhado ao Senado. Com a promulgação da lei, os físicos terão suas atividades mais valorizadas e bem definidas no mercado de trabalho.
Enfim, ser físico é uma escolha difícil e requer muita dedicação, não somente na formação, mas também no trabalho. Para ser um pesquisador, além do curso, é necessário fazer também um mestrado e um doutorado. O importante é escolhermos algo que nos dê satisfação e nos mantenha sempre progredindo.

Adilson de OliveiraDepartamento de Física
Universidade Federal de São Carlos




quarta-feira, 12 de setembro de 2012

Quem é doutor? - 2


No site da Revista Época dessa semana foi publicado um interessante texto da Jornalista Eliane Brum, sobre a questão do uso do título de doutor por médicos e advogados. Neste texto a jornalista faz uma interessante análise sobre essa questão mostrando que o uso desse título que está fortemente arreigado na cultura brasileira tem haver como uma questão de submissão social.
Para ver a matéria completa, vejam nesse link.

Há 4 anos escrevi um texto sobre esse tema também aqui mesmo no blog. É um dos posts mais visitados com mais de 4000 visualizações e mais de 30 comentários.  Muitos comentários são dos advogados e médicos se defendendo que eles devem ser chamados de doutores e outros defendo de quem é doutor apenas quem fez doutorado. Vale a pena conferir, principalmente os comentários nesse link.

Normalmente quem é doutor quase nunca faz questão de ser chamado como tal. Apenas como exemplo, nessa semana estou em um congresso na Itália, com mais de 1000 físicos, praticamente todos doutores (exceção aos estudantes que ainda estão fazendo doutorado) e não vi (normalmente nunca acontece) alguém ser chamado de Doutor. Apenas usa-se em algumas situações o título de Professor (em inglês Professor é diferente de teacher, que é usado para os professores de universidade e teacher para professores em geral).

domingo, 19 de agosto de 2012

Poderes à Prova

Coluna Física sem Mistério
Ciência Hoje On-line
publicada em 17/08/2012


Entre maio e agosto, muitos filmes são lançados nos cinemas norte-americanos, e consequentemente, no Brasil. Em 2012 não tem sido diferente. E tal como nos últimos anos, entre os principais sucessos estão os filmes de super-heróis. Vingadores, Homem de Ferro, Homem-Aranha, Batman, Superman, Capitão América e outros ganham destaque nas telas de cinema, talvez pelo apelo que esses personagens têm em diversas faixas etárias. Muitos, como eu, os conhecem desde a infância. Outros podem estar em seu primeiro contato.
A grande maioria desses personagens foi originalmente criada em um tipo particular de literatura: as histórias em quadrinhos. Nas tiras de jornais ou em revistas exclusivas surgiram heróis e vilões com poderes sobre-humanos, como capacidades de voar, levantar objetos pesando muitas toneladas, vencer grandes distâncias rapidamente, entre outros.
Os criadores dos super-heróis explicam a origem dos superpoderes de diversas formas. Alguns decorrem da ação de radiações ou drogas que provocam alterações no organismo. Em outras situações, os poderes surgem de uma ‘herança genética’ ou processo evolutivo diferenciados, como a de um ser nascido em outro planeta. Eles podem ser ainda ‘fabricados’ com a ajuda de tecnologias avançadas.
O mais famoso dos super-heróis é o Superman, que surgiu em 1938, em uma história em quadrinhos. Por ter nascido em um planeta diferente (Kripton), com uma gravidade muito maior do que a da Terra e na órbita de uma estrela gigante vermelha, ao ser enviado ao nosso planeta, com ação da gravidade menor e na órbita de uma estrela amarela (o Sol), apresenta características especiais.
Os superpoderes do Superman são realmente fantásticos. Ele pode voar em altíssimas velocidades (algumas vezes até mais rápido do que a luz) e tem superforça, supervisão, superaudição, visão de calor e de raios X. Será que tais poderes seriam possíveis na vida real?
Infelizmente, do ponto de vista da física, as habilidades do Superman são impossíveis. Por exemplo, seu voo acontece sem que nada o impulsione. Todos os movimentos decorrem da ação de uma única força. Para um avião a jato voar, por exemplo, ele usa turbinas que sugam o ar e, em seguida, o expele com grande força, para que ocorra uma reação, igual e contrária – como prediz a terceira Lei de Newton (conhecida também como princípio da ação-reação) – que o impulsiona para frente.
Da mesma forma, quando caminhamos, a força de atrito que existe entre os nossos pés e o chão reage à força que aplicamos nesse último e nos faz andar. No caso do Superman, não observamos nada parecido. Ele simplesmente voa.
Entre os outros poderes, a visão de raios X talvez seja o mais difícil de justificar. Quando observamos qualquer objeto, só o vemos porque ele está refletindo ou emitindo luz. Mesmo que os olhos do Superman emitissem raios X, estes não refletiriam na matéria da mesma maneira que a luz visível. 
Ao incidir raios X sobre um objeto, como quando fazemos uma radiografia ou tomografia do nosso corpo, o processo é diferente. Uma parte da radiação atravessa o corpo e a outra é absorvida. Dependendo da forma que essa radiação é absorvida pelos diferentes tecidos, ocorrem os contrastes que sensibilizam o filme fotográfico (ou detector) colocado atrás do corpo, criando a imagem.

Superpoderes tecnológicos

Um dos meus super-heróis favoritos é o Homem de Ferro. Embora o personagem Tony Stark não seja um primor de bom caráter, a armadura que lhe dá superpoderes – que não é de ferro, e sim de metal – é realmente impressionante. Com ela, ele pode realizar façanhas incríveis, como voar a partir de propulsores nos pés e nas mãos, bem como emitir raios de alta energia capazes de destruir praticamente qualquer coisa.
Quando o personagem foi criado, na década de 1960, a mais avançada tecnologia da época eram os transistores. Transistores são dispositivos feitos de materiais semicondutores que podem ter a sua resistência elétrica ajustada para se comportar de diversas formas, de metais a isolantes. Essa propriedade permitiu a descoberta do efeito transistor, que faz com que esse dispositivo possa controlar o fluxo e amplificação da corrente elétrica em um circuito eletrônico.
A armadura do Homem de Ferro levava transistores especiais que transformavam a carga elétrica das baterias nas incríveis capacidades de voar, disparar raios, entre outras. Para essas proezas, não consigo imaginar o tamanho que deveria ter a bateria a ser carregada.
Por outro lado, nas recentes aparições do Homem de Ferro no cinema, as tecnologias usadas são mais compatíveis com os seus poderes. Na atual versão, a fonte de energia é um 'reator ark' – estampado em seu peito –, que parece funcionar com fusão nuclear a frio, pois, para realizar todos os seus feitos, necessitaria de uma enorme quantidade de energia, como as produzidas no processo de fusão. Mas a fusão nuclear ocorre no interior das estrelas ou nas armas nucleares.
A fusão nuclear a frio foi noticiada em 1989 pelos pesquisadores Martin Fleischmann e Stanley Pons, na Universidade de Utah, nos Estados Unidos. Ao estudar a implantação do deutério (isótopo de hidrogênio que possui um próton e um nêutron no núcleo atômico) em paládio, por meio uma reação eletroquímica utilizando 'água pesada' – na qual o deutério substitui o hidrogênio –, eles observaram um aumento na temperatura da solução e detectaram uma emissão anormal de nêutrons (que ocorre em processos de fusão nuclear).
Contudo, os resultados não foram reproduzidos e se concluiu na época que houve um erro de medida na emissão de nêutrons observada durante a reação. Curiosamente, o reator ark do Homem de Ferro utiliza o mesmo elemento.

Outros superpoderes

O Homem-Aranha é outro super-herói que acho muito interessante. Os seus poderes surgiram a partir da picada de uma aranha geneticamente modificada. O veneno da aranha alterou o seu código genético e lhe conferiu poderes especiais, como a capacidade de escalar paredes, força proporcional a uma aranha de tamanho humano e uma capacidade de pressentir quando está em perigo. Será que algo normalmente fatal poderia transformar dessa forma o corpo de uma pessoa?
Qualquer substância que ingerimos, seja por via oral ou intravenosa, pode afetar a bioquímica do corpo, ou seja, modificar os processos de funcionamento do organismo. Nenhuma substância conhecida poderia, em dose e escala de tempo tão pequenas, alterar a estrutura do código genético de todas as células do corpo e nos transformar em outra espécie, que é o caso do Homem-Aranha.
A ação de uma substância estranha normalmente prejudica o organismo. Reorganizar toda a estrutura molecular do DNA, que contém todas as informações genéticas de um indivíduo, de forma a criar uma espécie aprimorada, é muito difícil de acontecer. Seria também pouco provável uma habilidade de percepção extrassensorial seletiva, como é o caso do ‘sentido de aranha’ que lhe permite perceber perigos iminentes.
Embora os poderes dos super-heróis estejam fora de nossa realidade, suas aventuras, vitórias e derrotas são ótimas formas de diversão e podem nos levar, como todo tipo de conhecimento, a uma reflexão profunda. Talvez esse seja o verdadeiro superpoder desses super-heróis: a capacidade de estimular a nossa imaginação.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos




sábado, 28 de julho de 2012

O Higgs, a massa e a ciência que prossegue

Coluna Física sem mistério
Ciência Hoje on-line
Publicada em 20/07/2012


No dia 4 de julho de 2012, foi divulgado pelo Cern, o Centro Europeu de Pesquisas Nucleares, a existência de uma partícula que pode ser o famoso bóson de Higgs, aquela que seria responsável pela massa de todas as partículas elementares. A existência de tal bóson foi prevista pelo físico britânico Peter Ware Higgs (1929-) em 1964.

Como manda a boa prática científica, não foi dito que a partícula descoberta é o bóson de Higgs, mas sim que existe uma grande probabilidade que seja. Os resultados obtidos têm uma precisão de 99,9%, ou seja, muito provavelmente a nova partícula detectada é o bóson de Higgs. Na verdade, não se detecta uma partícula nos enormes equipamentos do LHC (sigla para Grande Colisor de Hádrons), mas os ‘traços’ que elas deixam após trilhões de colisões.

A divulgação desse experimento foi extraordinária. Praticamente todos os veículos de comunicação apresentaram essa notícia, pois além de ser uma das descobertas científicas mais importante dos últimos anos, o apelido dado ao bóson de Higgs é, por si, só chamativo: “partícula de Deus”. Trata-se de uma alusão à onipresença divina; assim como Deus, essa partícula estaria presente em toda parte.

O apelido também está associado ao livro do físico Leon Lederman (1922-), ganhador do prêmio Nobel de Física em 1988 pelo seu trabalho com neutrinos (partículas que praticamente não têm massa). Lederman queria que seu livro se chamasse ‘A partícula maldita’ (The goddamn particle, no original), pela frustração diante da dificuldade de encontrá-la. Mas o editor trocou o título para A partícula de Deus, pois achou que o nome original poderia soar ofensivo. 

A descoberta de uma partícula fundamental com essa alcunha pode sugerir a muitas pessoas associações com a divindade, levando-as a imaginar que finalmente a ciência pode ter descoberto (ou refutado) a existência de Deus. Do meu ponto de vista, não cabe à ciência discutir aspectos religiosos, como também não cabe à religião discutir aspectos relacionados ao campo da ciência. São duas formas diferentes de compreender o mundo e o ser humano.

Se por um lado o bóson de Higgs não pode explicar a existência ou não de Deus, por outro, pode explicar a existência da massa. Mas o que é a massa? Por que os cientistas divulgam que essa partícula tem a massa de 125 (ou 126) GeV? Energia é uma unidade de massa?

Entendendo a massa

Em nosso cotidiano, a ideia de massa está normalmente associada à de peso. Nunca perguntamos para uma pessoa qual é a sua massa, mas, sim, o seu peso (que para muitos é uma pergunta indiscreta). Quando subimos em uma balança, ela nos informa que a nossa massa é “x” quilos (para alguns, como eu, muitos quilos!).

Peso é a força que a gravidade da Terra faz sobre os corpos próximos da superfície, sendo proporcional à aceleração da gravidade (g = 9,8 m/s2), que é o valor do campo gravitacional na superfície da Terra. Por isso, quem tem 100 kg de massa pesa 980 newtons (unidade correta para a força peso).

Por outro lado, todos já tivemos a experiência de empurrar um grande objeto ou sabemos o quanto é difícil frear um caminhão ou ônibus com várias toneladas. Quanto maior for a massa de um corpo, mais difícil será alterar o seu estado de movimento, ou seja, maior deverá ser a força aplicada.

Foi o físico inglês Isaac Newton (1642-1727) que propôs tanto as leis do movimento quanto a lei da gravidade, que explica a atração entre os corpos com massa. A primeira lei de Newton está associada à inércia do corpo, ou seja, à capacidade destes manterem o seu estado de movimento quando não há aplicação de nenhuma força.

A segunda lei de Newton mostra que a força exercida sobre um corpo é o produto entre massa e aceleração. Existe ainda a terceira lei de Newton, que diz que todo corpo que sofre a ação de uma força reage, mas em sentido contrário, com igual intensidade.

Podemos observar que tanto na gravidade quanto na dinâmica dos movimentos a massa é o fator determinante. Contudo, ela tem um papel diferente em cada situação. Na gravidade, a massa desempenha o papel de uma ‘carga gravitacional’, regulando a intensidade de uma força fundamental da natureza. No movimento, ela está relacionada com uma ‘resistência’ a se modificar o estado de movimento do corpo. Dessa forma, em princípio, existiriam dois tipos de massa: a massa gravitacional e a massa inercial, ambas com o mesmo valor. O próprio Newton percebeu esse fato, mas não conseguiu explicar o porquê disso.

Foi o físico alemão Albert Einstein (1879-1955) que respondeu essa questão, por volta do ano de 1907. Nessa época, ele trabalhava num escritório de patentes, em Berna, Suíça, e teve o insight que uma pessoa em queda livre não perceberia o seu próprio peso. A partir disso, ele propôs o ‘princípio da equivalência’, segundo o qual é impossível distinguir se um corpo está sob a ação de um campo gravitacional ou em movimento acelerado.

Com essa ideia, Einstein desenvolveu a teoria da relatividade geral em 1915, que explica os efeitos da gravidade e dos movimentos acelerados dos corpos. Einstein mostrou que a massa, ora se manifesta como ‘inércia’, ora como ‘gravidade’ (esse tema foi abordado anteriormente na coluna “o enigma do movimento”).

A relação entre massa e energia

Alguns anos antes, em 1905, Einstein propôs também a teoria da relatividade restrita, que, entre os diversos resultados, talvez um dos mais importantes foi mostrar a equivalência entre massa e energia, por meio da famosa equação E=mc2 (na qual m é a massa e c, a velocidade da luz). Esse resultado vem do fato de a velocidade da luz ser a velocidade limite do universo.

Quando tentamos transferir energia para um corpo se movendo com velocidade próxima à da luz, essa energia não se converte completamente em energia de movimento, mas aumenta a massa inercial do corpo, aumentando a dificuldade de se alterar o seu movimento, ou seja, de tirá-lo do estado de inércia. Por esse motivo, quando se fala na massa de uma partícula fundamental, como a do próton, se refere a sua massa de repouso. Para o próton, esse valor é 1,67x10-27 kg.

Sempre inacabada

A importância da descoberta experimental do bóson de Higgs é a validação do chamado Modelo Padrão, que previu a existência de dezenas de partículas fundamentais, como os quarks, que são as partículas que constituem os chamados hádrons (como os prótons e nêutrons).


Se os resultados do Cern forem validados, se confirmará a teoria que prevê os valores de massa das partículas elementares, como a do próton. Segundo o Modelo Padrão, proposto inicialmente pelo físico estadunidense Steven Weinberg (1933-), quando o universo se resfriou após o Big Bang, o campo de Higgs formou-se junto a partículas associadas, os bósons de Higgs, transferindo massa para outras partículas fundamentais.

Mas mesmo que a existência do bóson de Higgs seja confirmada, a física ainda não estará acabada. Existem muitas perguntas ainda a serem respondidas e novos desafios hão de surgir. Essa é a magia da ciência!

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos



A matéria em diferentes escalas

Coluna Física sem mistério
Ciência Hoje on-line
publicada em 22/06/2012


Em diversas oportunidades nesta coluna, falamos sobre planetas, estrelas e galáxias. Em outros momentos, também abordamos temas como átomos e moléculas, que, ao interagirem, dão forma a tudo que percebemos ao nosso redor. Também discutimos como o homem pode manipular tais estruturas fundamentais e produzir novos materiais que modificaram (e modificam) as nossas vidas.

Em um primeiro momento, podemos pensar que a vastidão do cosmos e complexidade dos átomos não estão conectadas. Afinal, as galáxias localizam-se a milhões ou até bilhões de anos-luz de distância (um ano-luz representa a distância que um raio de luz percorre durante um ano e equivale a aproximadamente 10 trilhões de quilômetros) e são necessários gigantescos telescópios para detectar a fraca luz que nos chega a partir desses objetos.

Por outro lado, as estruturas fundamentais da matéria são tão pequenas, da ordem de décimos de nanômetro (um nanômetro é um bilionésimo do metro), que somente são acessíveis com poderosos microscópios eletrônicos, que, mesmo assim, nos mostram apenas uma pequena parte de toda a sua complexidade.

Tanto as estrelas das galáxias quanto uma folha de árvore são feitas de átomos. Os átomos são basicamente constituídos de prótons (partículas com carga elétrica positiva) e de nêutrons (sem carga elétrica) – que formam o núcleo atômico – e de elétrons (partículas com carga elétrica negativa). Estes se mantêm presos ao núcleo atômico devido à atração elétrica entre suas cargas e as dos prótons (também chamada de atração coulombiana).

Simplicidade estelar

Os átomos que compõem as estrelas das galáxias, em sua maior parte, são os mais simples da natureza: o hidrogênio e o hélio. O hidrogênio tem apenas um próton em seu núcleo e o hélio, dois prótons e dois nêutrons. Devido às altas temperaturas em que eles se encontram no interior das estrelas, esses átomos estão completamente ionizados, ou seja, seus elétrons não estão mais ligados ao núcleo atômico e a matéria permanece em um estado particular que chamamos de plasma.

No núcleo de uma estrela, a temperatura atinge dezenas de milhões de graus Celsius. Nessa condição extrema, os núcleos de hidrogênio se movem com tanta velocidade – com altíssimas energias – que conseguem vencer a repulsão elétrica que existe quando duas cargas com o mesmo sinal se aproximam.
Quando eles se aproximam a uma distância da ordem de 10-15 metros, outra força fundamental da natureza entra em ação: a força nuclear forte. Essa força é a mais intensa que existe no universo (cerca de 100 vezes mais intensa que a força elétrica), porém o seu alcance é muito limitado (10-15 m).
Quando quatro átomos de hidrogênio colidem, ocorre a formação de um núcleo do átomo de hélio. 

Nesse processo, dois prótons (que são núcleos dos átomos de hidrogênio) se transformam em dois nêutrons e são emitidas duas partículas com a mesma massa do elétron, mas com carga elétrica positiva, às quais se denomina pósitron.

O núcleo do átomo de hélio e as partículas produzidas nesse processo têm massa menor do que a dos quatro prótons de hidrogênio iniciais. A diferença de massa é convertida em energia, como previsto pela equação de Einstein E=mc2, na qual m é a diferença de massa e c a velocidade da luz. Como c tem um valor muito grande, uma pequena quantidade de massa equivale a uma enorme quantidade de energia.

Uma estrela como o Sol transforma, a cada minuto, algo em torno de 36 bilhões de toneladas de hidrogênio em hélio, liberando uma energia equivalente à queima de 8×1020 (oito seguido por 20 zeros) litros de gasolina por minuto, ou mais de 10 milhões de vezes a energia derivada da produção anual de petróleo da Terra.

Esse processo continua ocorrendo em uma estrela durante bilhões de anos. O Sol, por exemplo, existe há mais de 5 bilhões de anos e continuará brilhando ainda por outros 5 bilhões. A transformação de núcleos atômicos também acontece em estrelas com mais massa que o Sol e forma átomos mais complexos, como o carbono, o oxigênio, entre outros.

Complexidade ao nosso redor

As condições em que vivemos no nosso planeta permitem que os átomos que estão ao nosso redor se combinem e formem estruturas mais complexas e estáveis, que chamamos de moléculas. Nesse caso, quem domina é a força de interação entre os elétrons, que possibilita a combinação de diferentes tipos de átomos.

Por exemplo: a molécula da água, que é composta por dois átomos de hidrogênio e um de oxigênio (H2O), tem uma estrutura molecular muito simples que lembra um ‘V’ aberto, com o átomo de oxigênio no seu vértice e os átomos de hidrogênio nas pontas. Essa estrutura ocorre devido à repulsão elétrica (chamada de repulsão coulombiana) existente entre esses átomos, que estão unidos por uma ligação química denominada covalente.

Tanto o hidrogênio como o oxigênio são átomos pequenos, que tornam a molécula da água leve. As moléculas de água se ligam entre si por meio de uma ligação química conhecida como ponte de hidrogênio. Se não fosse esse tipo de ligação, a água seria um gás em temperatura ambiente e ficaria líquida apenas em baixas temperaturas.

Combinações não tão simples entre átomos de carbono, hidrogênio, oxigênio, nitrogênio etc. permitem formar moléculas tão complexas como as de DNA (ácido desoxirribonucleico), que são a base da vida. Em certas condições, essas moléculas são capazes de se copiar e, assim, permitir o surgimento de estruturas ‘vivas’ tão complexas como nós.

Seja nas estrelas – tanto as próximas quanto as das distantes galáxias –, seja na Terra, as leis que regem a ‘química nuclear’ são as mesmas. A matéria, em suas diferentes formas, é constituída do mesmo modo em todos os lugares do universo. Apenas as transformações e combinações dos átomos são diferentes. E são as condições locais que permitem o surgimento dessa grande variedade de estruturas, desde microscópicas formas de vida até gigantescas estrelas.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos




quinta-feira, 21 de junho de 2012

O Jornal Nacional reforça mais uma vez um concepção errada sobre estações do ano

Nessa semana no dia 20 de junho começou o inverno. Como em outras oportunidades explicamos aqui no blog o porque das estações do ano. Vejam esse que já fizemos aqui no blog (Os segredos que o frio esconde). Vejam também esse post (O Sol não nasce no Leste), referente a uma pequena pesquisa que fiz no blog no ano passado, exatamente sobre as estações do ano.

Mas a notícia vinculada no Jornal Nacional da Rede Globo faz um enorme desserviço para a educação brasileira. O mito de que começa o inverno quando a Terra está mais afastada do Sol é o erro mais nefasto que pode se ter para explicar algo tão simples e comum.
Deveria ter uma retratação, pois como todo emissora de TV aberta utiliza um espaço público tem que ter um compromisso com a seriedade dos conhecimentos.
Infelizmente, veja o video abaixo.


Por favor divulguem para que espantemos essa ignorância!

domingo, 20 de maio de 2012

Pouco divulgada, muito aplicada

Coluna Física de mistério
Ciência Hoje on-line
Publicada 18/05/2012



Todos os anos, na segunda semana de maio, mais de mil físicos brasileiros se deslocam para o interior de São Paulo ou, algumas vezes, para o interior de Minas Gerais. Em cidades como Águas de Lindoia, Caxambu ou São Lourenço, esses pesquisadores, há décadas, se reúnem na mais antiga e tradicional reunião promovida pela Sociedade Brasileira de Física: o Encontro Nacional de Física da Matéria Condensada. Como eu sou um desses físicos que migraram este ano para Águas de Lindoia, vou contar para vocês um pouco sobre esse fascinante ramo da física.

Física da matéria condensada é a área da física que tem mais linhas de pesquisa e que envolve mais físicos. Apesar disso, costumamos receber mais notícias sobre a física de partículas, principalmente sobre as produzidas no LHC (o Grande Colisor de Hádrons), ou das espetaculares imagens feitas pelo telescópio espacial Hubble. Entretanto, é a da matéria condensada que proporciona os mais importantes desenvolvimentos tecnológicos. Talvez a divulgação mais escassa dessa área se deva ao longo processo que em geral transcorre entre uma descoberta e sua aplicação.

Os pesquisadores que trabalham nesse campo investigam as propriedades físicas da matéria, a partir das interações entre átomos e moléculas. Utilizando as leis da mecânica quântica, do eletromagnetismo e da mecânica estatística, constroem modelos que permitem compreender os fenômenos físicos fundamentais e como estes podem se transformar em aplicações tecnológicas.

Até o começo do século 20, a compreensão das propriedades da matéria era limitada a uma descrição baseada na chamada física clássica, que tem como alicerces a mecânica newtoniana, a termodinâmica e o eletromagnetismo.



A primeira, proposta inicialmente por Isaac Newton, descreve os movimentos das partículas a partir dos efeitos das forças que atuam sobre elas. A termodinâmica, por sua vez, é um conjunto de leis que surgiram para explicar os fenômenos térmicos. Já o eletromagnetismo, consolidado por James C. Maxwell por volta de 1865, nos trouxe uma compreensão profunda dos campos elétricos e magnéticos, bem como da natureza da luz.

Com essas teorias, os físicos do século 19 acreditavam que tinham conseguido explicar toda a natureza. Entretanto, grandes revoluções científicas se seguiram e transformaram não somente a compreensão do mundo, mas também modificaram as nossas vidas.

Os primeiros passos


O ponto central para entender as propriedades fundamentais da matéria passa pela ideia do átomo. Até o final do século 19 e começo do século 20, ainda não estava bem estabelecida a existência dos átomos. Havia dúvidas entre físicos e químicos sobre se essa entidade, que ninguém conseguia ver, era o constituinte fundamental da matéria ou se era apenas um modelo para a descrição dos fenômenos físicos.

Em 1897, o físico inglês J. J. Thomson (1856-1940) observou em um tubo de raios catódicos (semelhantes aos antigos tubos de televisão) que, sob a ação de campos elétricos e magnéticos, esses ‘raios’ sofriam deflexão. Ele compreendeu que esses ‘raios’ deveriam ser um feixe de partículas carregadas eletricamente – já que estas sofrem a ação dos campos elétricos e magnéticos. Essa nova partícula fundamental foi batizada de elétron.


O elétron é uma partícula muito leve, com massa cerca de mil vezes menor do que os prótons e nêutrons – as outras partículas que constituem os átomos – e tem carga elétrica negativa – os prótons têm carga positiva e os nêutrons não têm carga. Além disso, os elétrons possuem uma outra propriedade fundamental chamada spin, que é o seu momento magnético intrínseco (Leia a coluna O spin que move o mundo).

A descoberta do elétron motivou o desenvolvimento do primeiro modelo da física da matéria condensada. O físico alemão Paul Drude (1863-1906) propôs em 1900 um modelo para explicar a condutividade elétrica dos metais, a partir dos movimentos dos elétrons. Ele imaginou que os elétrons se comportavam como se fossem partículas de um gás no interior do metal. Esse modelo, ainda baseado em conceitos da física clássica, conseguiu explicar com razoável precisão os valores medidos por essa grandeza física naquela época.


Alguns anos depois, o físico alemão Max von Laue (1879-1960) descobriu que os raios X, observados em 1895 por Wilhelm Röntgen (1845-1923), difratavam em cristais, da mesma forma que a luz difrata ao passar por um conjunto de fendas. Esse resultado indicou que os átomos deveriam estar organizados na matéria com estruturas bem definidas e periódicas, como se fossem, por exemplo, pequenos cubos interligados.

Paralelamente a essas descobertas, emergiu a mecânica quântica, uma nova física que foi logo aplicada para entender as propriedades dos materiais. Com o avanço tanto da teoria quanto dos experimentos e um imenso universo de perspectivas de aplicações, fez surgir a nossa atual sociedade tecnológica.


Aplicações por todos os lados
Ao longo do século 20, a física da matéria condensada gerou resultados impressionantes, que levaram a importantes aplicações tecnológicas. Praticamente todas as tecnologias avançadas que surgiram decorrem dessa compreensão mais profunda da matéria. Para exemplificar, vou destacar apenas algumas das descobertas mais relevantes.

Em 1911, Heike Kamerlingh Onnes (1853-1926) descobriu o fenômeno da supercondutividade em metais em temperaturas muito baixas, na ordem de -270 ºC. Quando os materiais se transformam em supercondutores, eles têm a capacidade de conduzir a corrente elétrica sem perda de energia e de expelir campos magnéticos no seu interior. A descoberta desses materiais permitiu a construção de bobinas supercondutoras que geram altos campos magnéticos. Esses campos são utilizados, por exemplo, nas máquinas de ressonância magnética e nos grandes magnetos do LHC.

Contudo, a supercondutividade somente foi compreendida no final da década de 1950, com a teoria proposta pelos físicos John Bardeen (1908-1991), Leon Cooper (1930-) e Robert Schrieffer (1931-). Utilizando os modelos da física da matéria condensada, esses pesquisadores explicaram o intrigante fenômeno. Mais detalhes podem ser conferidos na coluna de Carlos Alberto dos Santos ‘A centenária e misteriosa supercondutividade’. Por essa descoberta, esses físicos ganharam o premio Nobel de Física em 1972.


Curiosamente, anos antes, em 1948, John Bardeen, Walter Houser Brattain (1902-1987) e William Schockley (1910-1989) descobriram o chamado efeito transistor. Esse efeito, que ocorre devido à natureza quântica dos elétrons, permitiu a construção de transistores que vieram substituir as válvulas termoiônicas utilizadas nos equipamentos eletrônicos.

Esse dispositivo, que permite controlar o fluxo de corrente elétrica em um circuito, levou a uma revolução na eletrônica, pois ele é fundamental na construção dos computadores, telefones celulares, tablets entre outros equipamentos modernos. Esses pesquisadores, juntamente com William Bradford Shockley (1910-1989), receberam o prêmio Nobel de Física em 1956. John Bardeen, até hoje, foi o único cientista que ganhou dois prêmios Nobel de Física.

Esses foram apenas alguns exemplos das importantes descobertas feitas por pesquisadores que trabalham na área de física da matéria condensada. No evento que ocorreu este ano, muitos resultados apresentados talvez nunca se transformem em aplicações tecnológicas e apenas representem pequenos avanços na grande imensidão do conhecimento.


Contudo, alguns talvez possam, em pouco tempo, se transformar em aplicações importantes, como os relacionados ao confinamento de elétrons em grafeno – átomos de carbono dispostos em duas dimensões –, que podem levar a uma nova revolução nos dispositivos eletrônicos.

O encontro de físicos em eventos como este sem dúvida permite o avanço das ideias; novas colaborações surgem, ampliando ainda mais a fronteira do conhecimento.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos







sexta-feira, 27 de abril de 2012

Física no cotidiano

Coluna Física sem mistério
Ciência Hoje on-line
Publicado em 20/04/2012


O nascer do Sol é um dos mais belos espetáculos da natureza. Nas grandes cidades, infelizmente, ele passa despercebido, não somente devido à correria do dia a dia, mas também devido ao fato de que os altos prédios e a poluição acabam ocultando-o.
Quem sai cedo de casa eventualmente tem a chance de ver esse fenômeno. Talvez muitos de nós já tenhamos observado a rápida transição que ocorre no amanhecer. Parece que, em um instante, tudo está escuro e, minutos depois, o Sol domina o ambiente.
A grande influência do Sol sobre nós fez com que ele fosse considerado uma divindade em muitas culturas. A sua luz e o seu calor são essenciais para a manutenção da vida na Terra.
Praticamente todas as formas de energia usadas na nossa sociedade são oriundas do Sol. Por exemplo, a energia que extraímos dos alimentos foi quimicamente acumulada durante o processo de fotossíntese, por meio do qual as plantas usam a energia da luz solar para converter gás carbônico, água e minerais em compostos orgânicos e oxigênio gasoso.
Ao ingerir um alimento, nosso organismo quebra as ligações químicas dessas moléculas e obtém energia, que é armazenada em outras moléculas, como a adenosina trifosfato (ATP).
Quando nos dirigimos para o trabalho, seja por meio de automóveis, ônibus ou metrô, também utilizamos, de certa forma, a energia do Sol. Os biocombustíveis, gerados principalmente a partir da cana–de-açúcar (caso do etanol) e de óleos vegetais (caso do biodiesel), são exemplos disso.
Na produção de combustíveis fósseis, derivados do petróleo, também ocorre uma transformação da energia solar. Admite-se que a origem do petróleo esteja relacionada à decomposição dos seres que formam o plâncton e de outras matérias orgânicas – restos de vegetais, algas e animais marinhos –, em um processo que demora centenas de milhões de anos. Quando queimamos esses combustíveis, liberamos a energia química que foi acumulada na matéria orgânica durante esse tempo.
A energia hidrelétrica, que representa grande parte da matriz energética do Brasil, também depende da energia solar. No momento em que a água desce pela represa da usina hidrelétrica, fazendo com que as turbinas girem e produzam eletricidade, há o processo de transformação da energia de movimento (energia cinética) da água em energia elétrica. Para que a represa continue a ter água, é necessário que haja chuvas e estas só acontecem por causa da evaporação da água provocada pelo Sol.
Portanto, uma manhã ensolarada não é apenas prenúncio de um dia bonito. Ela deve servir também para nos lembrar da importância do Sol em nossas vidas.


O dia começa

Durante o dia, em nossos empregos ou em nossas casas, realizamos diversas atividades que dependem de certos dispositivos ou fenômenos e normalmente não temos noção de como eles funcionam ou ocorrem. Utilizamos, por exemplo, a radiação eletromagnética para controlar à distância televisores, aparelhos de DVD, videocassetes, videogames, computadores etc.
Geralmente esses equipamentos utilizam controles remotos que emitem radiação na faixa do infravermelho, com comprimento de onda entre 1 milímetro e 1 micrômetro (milionésima parte do metro). Esses comprimentos de onda são invisíveis aos nossos olhos, pois são muito longos (enxergamos comprimentos de onda entre 630 e 390 nanômetros).
Ao acionarmos os botões do controle remoto, ele emite pulsos longos e curtos que representam um código binário, que é convertido pelo aparelho receptor. Cada botão do controle remoto corresponde a determinado código, representado por frequências específicas que são enviadas para o equipamento controlado. Ao receber esses sinais, o aparelho os decodifica e realiza as operações solicitadas (trocar de canal, aumentar/diminuir o volume etc.).
Em nossas casas, também são comuns os fornos que utilizam radiações na faixa das micro-ondas (com comprimentos de onda entre 1 metro e 1 milímetro). Os fornos de micro-ondas comerciais operam com radiação de comprimento de onda de aproximadamente 12,2 cm.
Nesses aparelhos, o cozimento dos alimentos ocorre pela absorção da energia das micro-ondas pelo corpo. Como as micro-ondas são uma radiação eletromagnética, elas fazem com que as moléculas que apresentam dipolo elétrico (sistema com duas cargas elétricas opostas – positiva e negativa – e de mesmo valor), como as de água, oscilem e, como consequência, dissipem a energia absorvida.
Os aparelhos celulares, tão comuns atualmente, também operam na faixa das micro-ondas, mas com potência muito menor, da ordem de 3 watts. Nos fornos de micro-ondas, a potência é de aproximadamente 1.100 watts.
Já os computadores, smartphones e tabletsutilizam processadores que chegam a conter mais de um trilhão de componentes. Esses componentes são responsáveis pelo processamento das informações e conseguem transformar as centenas de gigabytes que estão armazenadas nos discos rígidos em imagens, sons, cálculos, textos etc.
Processos descritos pela chamada física quântica (que estuda os sistemas em escala atômica) ocorrem no interior desses dispositivos e os levam a executar operações lógicas que resultam em todas as maravilhas que os computadores realizam (saiba mais na coluna ‘Pequenos habitantes de um mundo próximo’).

A noite chega

Quando o dia termina, começam a surgir alguns pontos brilhantes no céu, que, em uma noite sem luar, longe das luzes da cidade, podem ser vistos aos milhares. Esses pontos, as estrelas, sempre nos maravilharam. Embora essa visão de céu noturno seja rara nos dias de hoje, ela é, sem dúvida, tão bela quanto o amanhecer.
Se olharmos com cuidado, perceberemos que as estrelas têm diversos tamanhos e cores e que estão dispostas de maneira a formar certos padrões, nos quais visualizamos algumas figuras. Chamamos esses agrupamentos de estrelas de constelações. Em certas regiões do céu, é possível perceber aglomerados com muitas estrelas e nuvens opacas (nebulosas). É o caso da constelação de Órion, uma das mais visíveis no céu, principalmente entre o início de dezembro e o final de maio ou começo de junho.
As estrelas podem ter diâmetros que variam de centenas de milhares de quilômetros (nosso Sol, por exemplo, tem 1,4 milhão de quilômetros) até mais de um bilhão de quilômetros, como é o caso de Betelgeuse, a estrela vermelha da constelação de Órion. Elas são formadas principalmente por hidrogênio e hélio em altíssimas temperaturas.
A quantidade de massa e a temperatura da estrela determinam seu tamanho e sua cor. E quanto maior a massa da estrela, mais quente ela tende a ser. A temperatura na superfície de estrelas com massa igual à do Sol é da ordem de 6.000 ºC, mas, em seu interior, esse valor atinge dezenas de milhões de graus Celsius.
Diante dos tamanhos desses distantes sóis, cuja luz viaja milhares de anos até chegar aos nossos olhos, nos lembramos do quanto somos pequenos comparados à imensidão do cosmos.

Mas nos congestionamentos de trânsito e nas filas de supermercados e bancos, pouco tempo nos sobra para refletirmos sobre esse complexo mundo que está a nossa volta. Precisamos incorporar um pouco mais a ciência ao nosso cotidiano, afinal, ela pode ser tão bela e fascinante quanto todos os fenômenos que explica.

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos


quinta-feira, 12 de abril de 2012

Viagens da Laura - Finalista no concurso internacional de Blogs da Deutsche Welle


Reproduzo abaixo a notícia vinculada na Agência FAPESP sobre o nosso Blog "Viagens da Laura", que faz parte da Radionovela "Verdades Inventadas". Ele concorre como melhor blog da língua portuguesa!
Agência FAPESP
O blog de divulgação científica Viagens da Laura, produzido pelo Laboratório Aberto de Interatividade (LAbI) da Universidade Federal de São Carlos (UFSCar), está entre os finalistas do The BOBs, concurso internacional de blogs da emissora alemã Deutsche Welle.
O blog relata as aventuras de Laura, adolescente que é a protagonista da radionovela Verdades Inventadas, veiculada pelo LAbI em 2011. Na primeira fase do The BOBs, o blog foi selecionado para figurar entre os 11 finalistas na categoria “Melhor Blog em Português” por um júri internacional.
Na etapa atual, quem escolherá o vencedor é o público, que pode votar uma vez por dia no site do The BOBs, até o dia 2 de maio (no endereço http://thebobs.com/portugues/category/2012/best–blog–portuguese–2012). Para votar, é necessário estar conectado ao Facebook, Twitter ou a outras redes sociais.
Nos 37 episódios de Verdades Inventadas, que estão disponíveis no blog, Laura faz viagens imaginárias a partir de incentivos de seu novo professor de literatura. Nessas viagens, a protagonista encontra diversos personagens da ciência e das artes, como Einstein, Newton, Darwin, Mendel, Oswaldo Cruz, César Lattes, Clarice Lispector e Júlio Verne, com os quais passa por aventuras e descobertas.
O blog complementa as aventuras retratadas nos episódios da radionovela, com mais informações sobre os assuntos abordados e links para outros conteúdos relacionados.
Verdades Inventadas ganhou o prêmio Roquette Pinto e contou com o apoio da Rádio UFSCar e da Fundação de Apoio Institucional ao Desenvolvimento Científico e Tecnológico da UFSCar.
“Estar entre os finalistas do The BOBs já é um reconhecimento importante do esforço que temos empreendido para disseminar o conhecimento científico e tecnológico utilizando ferramentas diversas, pautadas na interatividade”, disse Adilson Oliveira, professor do Departamento de Física da UFSCar e coordenador do LAbI.