Um ano já se passou e o INPC
continua em funcionamento, desenvolvendo-se fisicamente e tecnologicamente com
um único propósito; realizações de Pesquisas Científicas.
O INPC foi fundado dia
01/09/2012 em Araçatuba-SP. Poucos sabem, mas na verdade ele foi renomeado dia
01/09/2012, antes ele se chamava LPC (Laboratório de Pesquisas Científicas) então
a palavra Laboratório foi substituída por Instituto ficando Instituto de
Pesquisas Científicas.
Agradecemos a todos que
curtiram nossa pagina no Facebook e que acompanham nossas notícias no blog (www.inpcata.blogspot.com) e que
possamos levar a vocês mais conhecimento sobre a ciência que vivemos.
sexta-feira, 30 de agosto de 2013
Marte: Curiosity registra lua Phobos eclipsando o disco solar
Ninguém, até agora, observou um eclipse solar em Marte, mas com ajuda das câmeras do jipe-robô Curiosity dá para ter uma pequena ideia de como é esse espetáculo celeste. O evento registrado foi muito rápido e só cobriu a parte central do Sol, mas permitiu contemplar como é um eclipse visto do Planeta Vermelho.
As cenas foram obtidas no dia 17 de agosto de 2013 pelo instrumento óptico MastCam no topo do jipe-robô Curiosity e retrata em três frames a passagem da lua Phobos na frente do disco solar. O evento ocorreu próximo ao meio dia local, de modo que a câmera precisou ser apontada quase na direção vertical.
Diferente dos eclipses aqui na Terra onde o disco lunar pode encobrir totalmente o Sol, em Marte as coisas são um pouco diferentes. Lá, o tamanho angular de Phobos é bem menor que o do Sol, o que impede que o disco estelar fique totalmente encoberto pela passagem da lua marciana. Neste caso, o eclipse "total" do Sol por Phobos se assemelha a um eclipse do tipo anular, quando o Sol toma a forma de anel ou arco luminoso.
Além disso, devido à distância e velocidade orbital de Phobos, o eclipse registrado não é tão longo como na Terra. Nesta sequência, os frames foram obtidos com apenas três segundos de intervalo entre cada um.
Phobos
Phobos é a maior e mais próxima das duas luas marcianas. Orbita o planeta a apenas 5980 km de altitude e completa cada volta em 07h39m. Assim, Phobos nasce três vezes por dia no horizonte.
É um mundo bastante irregular, com 26 km de diâmetro e devido à baixa altitude orbital despenca sobre Marte cerca 2 metros por século. Neste ritmo, em 50 milhões de anos as forças gravitacionais romperão o satélite produzindo um anel de rochas e poeira em volta do planeta. Mas até lá, muitos eclipses ainda virão.
domingo, 25 de agosto de 2013
INTELIGÊNCIA
ARTIFICIAL Existem dois
pontos de partida para definir a I.A. - sonho e tecnologia.
Inteligência
Artificial é hoje um domínio do conhecimento cada vez mais ‘na moda’. Dela
fala-se, escreve-se, ouve-se falar, lê-se. Mas saberemos nós o que é na verdade
esta ciência, o que estuda, que aplicações práticas tem? A verdade é que muitas
vezes os nossos conhecimentos sobre Inteligência Artificial (I.A.) não vão além
do ‘isso tem qualquer coisa a ver com computadores, não é?’ A
Inteligência Artificial é por um lado uma ciência, que procura estudar e
compreender o fenômeno da inteligência, e por outro um ramo
da engenharia, na medida em que procura construir instrumentos para apoiar a
inteligência humana. A I.A. é inteligência como computação, tenta simular o
pensamento dos peritos e os nossos fenômenos cognitivos.
No entanto,
a I.A. continua a ser a procura do modo como os seres humanos pensam, com o
objetivo de modelizar esse pensamento em processos computacionais, tentando
assim construir um corpo de explicações algorítmicas dos processos mentais
humanos. É isto o que distingue a I.A. dos outros campos de saber, ela coloca a
ênfase na elaboração de teorias e modelos da Inteligência como programas de
computador. Os estudos
em I.A. atualmente dividem-se em quatro ramos fundamentais. Distingamos assim
uma área ligada ao estudo das redes neuronais e ao conexionismo que se
relaciona também com a capacidade dos computadores aprenderem e reconhecerem
padrões. Um outro ramo ligado à biologia molecular na tentativa de construir
vida artificial. Um terceiro relacionado com a robótica, ligada à biologia e
procurando construir máquinas que alojem vida artificial. E finalmente o ramo
clássico da I.A. que se liga desde o início à Psicologia, desde os anos ’70 à epistemologia e desde os anos ’80 à
sociologia, e que tenta
representar na máquina os mecanismos de raciocínio e de procura. Mas onde
está a I.A.? Certamente ‘dentro dos agentes que são capazes de representar as
situações que enfrentam e de realizar ações possuindo processos para manipular
essas representações’. Mas estará ela no algoritmo, ou pelo contrário na
arquitetura de estados mentais? A construção
de máquinas inteligentes pressupõe a existência de estruturas simbólicas
(representação), a capacidade de elas poderem raciocinar (procura) e a
existência de conhecimentos (matéria prima). Assim o campo mais popular da I.A.
é sem dúvida o da engenharia do conhecimento pois é aí que se concebem os sistemas
periciais, que são capazes de representar conhecimentos e de raciocinar.
Uma outra
questão que se levantou desde os primeiros anos de I.A. foi se os computadores
seriam realmente capazes de aprender. Questão que, a par da questão da
representação de conhecimentos, e da capacidade das máquinas serem inteligentes
e capazes de raciocinar é um pilar da investigação em I.A.
segunda-feira, 19 de agosto de 2013
7 equações que governam o seu mundo
O alarme toca. Desligamos o despertador. São 6.30 da manhã…
Sem
sair da cama temos seis equações que conduzem a nossa vida. O chip de
memória que armazena a hora do relógio não poderia ter sido
concebido sem uma equação fundamental da mecânica quântica. Seu
tempo foi definido por um sinal de rádio que nunca teríamos sonhado de
inventar, se não fosse as quatro equações de James Clerk Maxwell, as
equações do eletromagnetismo. E o próprio sinal viaja de acordo com o
que é conhecido como a equação de onda.
Vivemos
num oceano escondido de equações. Estas estão no trabalho, nos
transportes, no sistema financeiro, detecção e prevenção, na saúde e na
criminalidade, na comunicação, na alimentação, na água, no aquecimento e
na iluminação. Agora vai para o chuveiro e beneficia das equações
utilizadas para regular o abastecimento e aquecimento da água. Os
cereais do pequeno almoço vem a partir de culturas que foram
criadas com a ajuda de equações estatísticas. Conduze para o trabalho e o
desenho aerodinâmico do seu carro está debaixo das equações de
Navier-Stokes que descrevem como o ar flui sobre e em torno da viatura.
Liga o seu sistema de navegação e é envolvido pela física quântica,
novamente, mais as leis de Newton do movimento e da gravidade, que
ajudaram a lançar os satélites de geoposicionamento e a definir as
suas órbitas. Esses satélites também usam equações geradoras de números
aleatórios dos sinais de temporização, equações trigonométricas para
calcular a localização, e da relatividade especial e geral para um
rastreamento preciso dos movimentos dos satélites, influenciados pela
gravidade da Terra.
Sem as equações, a
maioria da nossa tecnologia nunca teria sido inventada. Claro, as
invenções importantes como o fogo e a roda surgiram sem qualquer
conhecimento matemático. No entanto, sem equações, estariamos presos num
mundo medieval.
As equações vão
também muito além da tecnologia. Sem elas, não teríamos conhecimento da
física que rege as marés, as ondas que quebram na praia, o clima em
constante mudança, os movimentos dos planetas, as fusões nucleares que
ocorrem nas estrelas, as espirais das galáxias - a vastidão do universo
e nosso lugar nele.
Existem milhares
de equações importantes. As sete referidas aqui - a equação de
onda, quatro equações de Maxwell, a transformada de Fourier e equação de
Schrödinger - ilustram como as observações empíricas levaram às
equações que usamos tanto na ciência como na vida cotidiana.
A equação de onda
Primeiro, a equação de onda. Vivemos
num mundo de ondas. Nossos ouvidos detectam ondas de compressão no
ar como o som, e os nossos olhos detectam as ondas de luz. Quando um
terremoto atinge uma cidade, a destruição é causada por ondas
sísmicas que se deslocam através da Terra.
Matemáticos
e cientistas não podiam deixar de pensar sobre as ondas, mas o seu
ponto de partida veio das artes: como é que uma corda de violino cria um
som? A questão remonta ao antigo culto grego dos pitagóricos, que
descobriram que duas sequências do mesmo tipo e tensão teriam
comprimentos numa relação simples, tais como 2:1 ou 3:2, e
produziam notas que juntas criavam um som
extraordinariamente harmonioso. Relações mais complexas eram
discordantes e desagradáveis ao ouvido. Foi o matemático
suíço Johann Bernoulli, que começou a encontrar o sentido dessas
observações. Em 1727, ele considerou que uma corda de violino é um
modelo com um grande número de massas pontuais muito próximas e
espaçadas, ligadas entre si por molas. Ele usou as leis de Newton para
escrever as equações do movimento do sistema, e resolvê-las. A partir
das soluções, ele concluiu que a forma mais simples para uma corda
vibrante é uma curva sinusoidal. Há outros modos de vibração, bem como
curvas sinusoidais em que mais de uma onda se encaixa no comprimento da
corda, conhecidos pelos músicos como harmônicos.
Das Ondas para o Wireless
Quase
20 anos depois, Jean Le Rond d’Alembert seguiu um procedimento
semelhante, mas focou-se na simplificação das equações de movimento ao
invés das suas soluções. O resultado
foi uma equação elegante descrevendo como o formato da corda se altera
ao longo do tempo. Esta é a equação de onda, e estabelece que a
aceleração de qualquer pequeno segmento da corda é proporcional à
tensão agindo sobre ela. Isso implica que as ondas cujas frequências não
estão em razões simples produzem um ruído desagradável conhecido como
“batidas”. Esta é uma razão pela qual as relações numéricas simples dão
notas que soam harmoniosamente.
A
equação de onda pode ser modificada para lidar com fenómenos mais
complexos, confusos, como os terremotos. Versões sofisticadas da equação
de onda permitem aos sismólogos detectar o que se passa a centenas de
quilómetros abaixo de nossos pés. Eles podem mapear o movimento das
placas tectónicas da Terra, causadoras de terremotos e vulcões. O maior
prémio nessa área seria uma maneira confiável para prever terremotos e
erupções vulcânicas, e muitos dos métodos que estão a ser explorados são
apoiados na equação de onda.
As equações de Maxwell
Mas a visão mais influente da equação de onda emergiu do estudo das equações de Maxwell do
eletromagnetismo. Em 1820, a maioria das pessoas iluminavam as
suas casas com velas e lanternas, enviavam cartas e deslocavam-se em
carruagens puxadas por cavalos. Passados 100 anos, as casas e ruas
tinham iluminação elétrica, surge o telégrafo permitindo a transmissão
de mensagens através dos continentes e as pessoas começaram a conversar
entre si por telefone. A comunicação de rádio havia sido demonstrada em
laboratórios, e um empresário montou uma fábrica para
vender ”wirelesses” para o público.
Esta
revolução social e tecnológica foi desencadeada pelas
descobertas de dois cientistas. Em cerca
de 1830, Michael Faraday estabeleceu a física básica do
eletromagnetismo. Trinta anos depois, James Clerk Maxwell embarcou na
missão de formular a base matemática para as teorias e experiências de
Faraday.
Na
época, a maioria dos físicos que trabalhavam em eletricidade e
magnetismo estavam à procura de analogias com a gravidade, que eles
viam como uma força que atua entre corpos à distância. Faraday tinha uma
idéia diferente: para explicar a série de experiências que
conduziu em eletricidade e magnetismo, ele postulou que ambos
os fenómenos atravessam o espaço, mudam ao longo do tempo e podem ser
detectados pelas forças que produzem. Faraday colocou suas teorias em
termos de estruturas geométricas, como linhas de força magnética.
Maxwell reformula
estas ideias, por analogia com a matemática do fluxo de um
fluido. Raciocinou que as linhas de força eram análogas aos
caminhos seguidos pelas moléculas num fluido e que a força do
campo eléctrico ou magnético era análoga à velocidade do fluido. Em
1864 Maxwell tinha escrito quatro equações para as interações básicas
entre os campos elétricos e magnéticos. Duas dessas equações dizem-nos
como os campos são criados a partir de cargas. Para o campo magnético,
como não há carga magnética, as linhas de campo magnético não começam
nem terminam, ou seja, as linhas são como trajetórias fechadas. As
outras duas equações descrevem como os campos “circulam” em torno das
suas respectivas fontes: o campo magnético “circula” em torno de
correntes elétricas e de campos elétricos variantes com o decorrer do
tempo, conforme a lei de Ampère com
a correção do próprio Maxwell; campos elétricos “circulam” em torno de
campos magnéticos que variam com o tempo, conforme a lei de Faraday.
Mas
o que Maxwell fez a seguir é que foi surpreendente. Ao realizar algumas
manipulações simples das suas equações, conseguiu derivar a equação de
onda e deduziu que a luz deve ser uma onda eletromagnética. Isso, por si
só, foi uma notícia estupenda, ninguém tinha imaginado tal
relação fundamental entre a eletricidade, luz e magnetismo. E havia
mais. A luz vem em cores diferentes, correspondentes a diferentes
comprimentos de onda. Os comprimentos de onda que vemos
estão restringidos pela química dos nossos fotosensores existentes no
olho humano. As equações de Maxwell levaram a uma
previsão dramática - que ondas eletromagnéticas de todos os comprimentos
de onda deveriam existir. Alguns, com comprimentos de onda muito mais
longos do que podemos ver, transformariam o mundo: as ondas de rádio.
Em
1887, Heinrich Hertz demonstrou experimentalmente as ondas de rádio,
mas deixou de apreciar a sua aplicação mais revolucionária. Se pudesse
imprimir um sinal sobre uma onda, poderia falar-se para o mundo.
Nikola Tesla, Guglielmo Marconi e outros, transformaram o sonho em
realidade, e toda a panóplia de meios de comunicação modernos, de rádio
e televisão, radar, ligações em microondas para telemóveis, etc. E
tudo surgiu a partir de quatro equações e um par de cálculos curtos. As
equações de Maxwell não mudaram apenas o mundo, abriram um novo.
Tão
importante quanto o que as equações de Maxwell não descrevem é o que
não fazem. Embora as equações revelassem que a luz era uma onda, os
físicos logo descobriram que o seu comportamento era, por vezes em
desacordo com essa visão: Brilhar a luz num metal e criar eletricidade,
num fenómeno chamado de efeito fotoeléctrico. Fazia sentido apenas se a
luz se comportasse como uma partícula. Então, seria a luz uma onda ou
uma partícula? Na verdade, um pouco de ambos. A matéria foi feita a
partir de ondas quânticas, e um grupo coeso de ondas agiram como uma
partícula.
A equação de Schrödinger
Em 1927, Erwin Schrödinger escreveu uma equação para ondas quânticas.
Encaixava lindamente nas experiências enquanto pintava um retrato de
um mundo muito estranho, no qual as partículas fundamentais, como o
electrão, não são objectos bem definidos, mas nuvens de probabilidade.
Assim, teóricos descreveram todo o tipo de esquisitice quântica, como o
gato que está simultaneamente vivo e morto, e universos paralelos.
A
mecânica quântica não se limita a esses enigmas filosóficos. Quase
todos os aparelhos modernos - computadores, telemóveis, consolas de
jogos, carros, frigoríficos, fornos - contêm chips de memória baseado
no transistor, cujo funcionamento se baseia na mecânica quântica dos
semicondutores. Novas aplicações da mecânica quântica chegam quase
semanalmente. Os pontos quânticos - protuberâncias minúsculas
de um semicondutor - podem emitir luz de qualquer cor e são utilizados
para imagiologia biológica, onde substituem corantes tradicionais,
muitas vezes tóxicos. Engenheiros e físicos estão próximos do computador
quântico, que pode realizar muitos cálculos diferentes em paralelo.
Os
lasers são outra aplicação da mecânica quântica. São usados para ler
informações a partir de pequenos buracos ou marcas de CDs, DVDs e discos
Blu-ray. Astrônomos usam lasers para medir a distância da Terra à Lua.
Há quem defenda ser possível lançar veículos espaciais da Terra usando
um poderoso raio laser.
A transformada de Fourier
O
capítulo final nesta história vem de uma equação que nos ajuda a
entender as ondas. Ela começa em 1807,
quando Joseph Fourier desenvolveu uma equação para o fluxo de calor. Ele
apresentou um documento sobre o seu estudo na Academia Francesa de
Ciências, mas foi rejeitado. Em 1812, a academia teve como tema o Calor
no seu prêmio anual. Fourier apresentou um trabalho mais longo, revisto e
ganhou.
O
aspecto mais intrigante do artigo premiado de Fourier não foi
a equação, mas como ele a resolveu. O problema típico era o de
encontrar como a temperatura varia ao longo do tempo numa haste
fina, dado o perfil de temperatura inicial. Fourier poderia
resolver esta equação com facilidade se a variação da temperatura fosse
uma onda seno ao longo do seu comprimento, mas não era assim. Logo, ele
apresentou um perfil mais complicado como uma combinação de
curvas sinusoidais com diferentes comprimentos de onda, resolveu a
equação para cada componente da curva de senos, e adicionou estas
soluções em conjunto. Fourier afirmou que esse método funcionava para
qualquer problema, mesmo onde a temperatura sobe repentinamente de
valor. Tudo o que tinha a fazer era somar um número infinito
de contribuições a partir de curvas seno.
O resultado é a transformada de Fourier, uma equação
que trata um sinal variando no tempo como a soma de uma série de
componentes de curvas sinusoidais e calcula as suas amplitudes e
frequências.
Hoje,
a transformada de Fourier afecta as nossas vidas de inúmeras
formas. Por exemplo, podemos usá-lo para analisar o
sinal vibratório produzido por um terremoto e para calcular as
frequências em que a energia transmitida pelo chão a tremer é
maior. Outras aplicações incluem a remoção de ruído de gravações de
som antigos, encontrar a estrutura do DNA usando imagens de raios X,
melhorar a recepção do rádio e prevenção de vibrações indesejadas em
carros. Além disso, há uma que a maioria de nós sem querer tira proveito
de cada vez que tira uma fotografia digital.
Se
pensar em quanta informação é necessária para representar a cor e o
brilho de cada pixel numa imagem digital, vai descobrir que uma câmara
digital parece ter no seu cartão de memória cerca de 10 vezes mais dados
do que o cartão pode possivelmente conter. As câmaras usam a compressão
de dados JPEG, que combina cinco etapas de compressão diferentes. Uma
delas é uma versão digital da transformada de Fourier, que trabalha
com um sinal que não muda ao longo do tempo, mas através da imagem. A
matemática é praticamente idêntica. As outras quatro etapas reduzem os
dados ainda mais, para cerca de um décimo do valor original.
Estas
são apenas sete das muitas equações que encontramos todos os dias, sem
darmos conta delas. Mas o impacto das equações sobre a história vai
muito além. A equação verdadeiramente revolucionária pode ter um impacto
maior sobre a existência humana que todos os reis e rainhas,
cujas maquinações enchem nossos livros de história. Essa equação, acima
de tudo, que os físicos e cosmólogos adorariam descobrir, é
a teoria de tudo, a que unifica a mecânica quântica e a relatividade.
quarta-feira, 14 de agosto de 2013
CERN e o bosão de Higgs – Resumo dos resultados
Nos últimos dias muito se tem falado sobre o CERN e sobre o bosão de Higgs nos orgãos de comunicação social e na internet. Já outros colaboradores falaram sobre estes acontecimentos aqui, aqui, aqui, aqui e aqui. O bosão de Higgs é uma partícula fundamental no modelo padrão (modelo standard). A sua existência foi prevista há mais de 40 anos em trabalhos de Peter Higgs e outros físicos. Os resultados agora apresentados pelo CERN no dia 4 de Julho, na altura em que decorria a conferência internacional de física das altas energias (ICHEP2012), mostram que o LHC produziu uma nova partícula cujas características são, até agora, consistentes com o bosão de Higgs. Existe no entanto alguma precaução, dado que a quantidade de dados produzida ainda não ser suficiente para se garantir sem qualquer dúvida de que se está perante a descoberta do bosão de Higgs.
A conferência completa com a apresentação dos resultados poderá ser vista aqui:
Após a apresentação dos resultados houve uma conferência de imprensa que merece ser vista e que é bastante esclarecedora. Poderá ser vista aqui:
Recorde-se que houve um esforço enorme dos cientistas para se apresentar estes resultados a tempo da ICHEP2012 e como tal muitos dos resultados ainda são preliminares e precisam de ser “afinados”.
No LHC o bosão de Higgs poderá ser produzido através de colisões entre protões que viajam a velocidades próximas da velocidade da luz:
A seguinte imagem mostra diagramas de Feynman com alguns dos modos de produção do bosão de Higgs (H0)
Este bosão decai muito rapidamente em outras partículas antes de atingir os detectores. No entanto, o modelo padrão prevê quais são os modos possíveis de decaimento (os canais de decaimento) e as suas probablilidades. A imagem seguinte mostra alguns desses modos de decaimento e o excesso de eventos esperado para cada modo (a letra p corresponde a protões, h é a partícula de Higgs, as outras letras designam as partículas produzidas).
Na conferência foram apresentados resultados das duas experiências independentes CMS e Atlas. Os resultados são provenientes dos dados adquiridos em 2011 (energia de centro de massa de 7 TeV) e 2012 (energia de centro de massa de 8 TeV).
Experiência CMS:
A colaboração CMS estudou cinco dos canais de decaimento mais importantes do bosão. Três dos canais são decaimentos em pares de fotões (γγ) ou pares de partículas responsáveis pela interacção electrofraca, ZZ ou WW. Outros dois canais contêm fermiões: dois quarks “bottom” (bb) ou dois leptões tau (ττ). Para um bosão de Higgs com uma massa próxima de 125 GeV os canais com pares de bosões – γγ, ZZ e WW – são os mais promissores.
Espectro de massa invariante dos pares de fotões (γγ) seleccionados nos dados de CMS de 2011 e 2012. Note-se o pico por volta dos 125 Gev:
O sinal neste canal apresenta um valor cerca de 50% superior ao previsto pelo modelo padrão.
Espectro de massa invariante reconstruída nos diferentes canais com quatro leptões: 4e, 4μ e 2e2μ. Note-se o pico por volta dos 126 Gev:
A significância estatística do sinal, combinando os dados de todos os cinco canais, é de 4.9 sigma (5.0 sigma é requerido para se anunciar uma descoberta).
Se considerarmos apenas os dados dos dois canais com maior sensibilidade e com melhor resolução, canais γγ e ZZ, a significância estatística é de 5.0 sigma. A probabilidade de o sinal obtido se dever a uma flutuação estatística do ruído de fundo é de um em três milhões.
A massa da nova partícula foi determinada na experiência CMS como sendo de 125.3 +/- 0.6 GeV.
Experiência Atlas:
A experiência ATLAS concentrou os seus esforços em dois canais de decaimento: Higgs a decair em dois fotões ou em quatro leptões. Em ambos os canais, foi possível obter uma excelente resolução de massa. Ambos os canais mostram um excesso estatisticamente significativo à volta do mesmo valor: uma massa com cerca de 126 GeV. A combinação estatística destes e outros canais apresenta um valor de 5 sigma (suficiente para o anúncio de uma descoberta) para uma massa de 126,5 Gev. O canal de decaimento em dois fotões apresenta tal como no CMS um sinal superior ao esperado. No caso do detector Atlas o valor é o dobro do previsto pelo modelo padrão.
Distribuição da Massa para o canal de quatro leptões:
A probabilidade de o sinal se dever a uma flutuação estatística do ruído de fundo é de um em três milhões.
Da conferência e dos resultados obtidos fica a ideia de que apesar de todos estarem convencidos de que descobriram uma nova partícula, o facto de a quantidade de dados ainda não ser a desejada, faz com que ainda haja um elevado sentimento de precaução.
O Director Geral do CERN Rolf-Dieter Heuer acabou por exclamar: “Acho que o apanhámos! O que é que vocês pensam?”, ao que a assembleia respondeu com um tom de aprovação.
O Prof. João Seixas do Instituto Superior Técnico explicou num programa transmitido na TVI 24 Notícias a importância desta descoberta
Também na SIC Notícias a descoberta foi analisada pelo Prof. João Seixas
Resumindo:
- Não há dúvida que foi detectada uma nova partícula, que é um bosão. - Essa nova partícula decai de um modo consistente com a partícula de Higgs prevista pelo Modelo Padrão. - A quantidade de dados, embora seja suficiente para se anunciar a descoberta de uma nova partícula, e apesar de ser consistente com a hipótese do bosão de Higgs, ainda não chega para sossegar as mentes dos cientistas que por natureza costumam ser cépticos e cuidadosos. Para esta incerteza, contribui também o facto de o Modelo Padrão não prever uma massa exacta para o bosão de Higgs. Até ao final de 2012, a quantidade de dados recolhidos deverá mais do que duplicar o que permitirá tornar os resultados mais claros. - Há uma discrepância de cerca de 1 Gev na massa da partícula nos resultados das duas experiências independentes CMS e Atlas, mas é preciso lembrar que os resultados são preliminares e que a colaboração Atlas ainda não apresentou o cálculo exacto (com o erro associado) da massa da partícula. - Existe um valor superior ao previsto pelo modelo padrão no canal de decaimento em dois fotões em ambas as experiências. Só as experiências futuras é que irão determinar como irá evoluir este valor com a acumulação de novos dados. - Dado que existem diversos modelos teóricos, alguns com mais do que um bosão de Higgs, resta também saber em que esquema teórico é que esta partícula se irá encaixar.
terça-feira, 6 de agosto de 2013
Evento solar de grande proporção deve ocorrer nos próximos meses
Observações feitas por cientistas estadunidenses indicam que nos próximos quatro meses o campo magnético do Sol deve se inverter totalmente e produzir uma série de efeitos em cascata em todo o Sistema Solar, com possibilidade de mais tempestades geomagnéticas na Terra.
Atualmente, estamos praticamente no pico do Ciclo Solar 24, um período caracterizado pela alternância entre a alta e baixa atividade da estrela, que se repete a cada 11 anos. Quando o Sol atinge este momento máximo, seu dínamo interno se auto-organiza e seu campo magnético se inverte.
De acordo com o físico solar Todd Hoeksema, diretor do Observatório Solar Wilcox, da Universidade de Stanford, os polos solares são indicadores bastante precisos dessa mudança e desde 1976 foram registradas três grandes inversões na orientação do campo magnético polar do Sol. Se a sequência for mantida, a quarta reversão deve ocorrer até o final de 2013.
Essa reversão acontece de modo rápido, com o campo magnético polar enfraquecendo até chegar a zero. Em seguida emerge novamente, mas com a polaridade invertida. Segundo Phil Scherrer, também ligado à Stanford, apesar de ser um processo com diversas implicações de grande escala, esse é um evento natural e faz parte do ciclo solar.
A inversão do campo magnético do Sol é de fato um evento de grande magnitude e quando acontece produz ondas de polaridades magnéticas reversas que se deslocam por toda a heliosfera, além da orbita de Plutão.
Consequências
À medida que o Sol gira, seu campo magnético induz uma corrente elétrica de alguns bilionésimos de amperes por metro quadrado que se estende por uma extensa área projetada a partir do equador solar chamada "esteira de corrente". Apesar da intensidade ser pequena, a corrente flui através de uma região de 10 mil km de espessura e milhares de quilômetros de largura.
Durante a inversão de campo magnético, a esteira se torna muito ondulada e na medida em que a Terra orbita o Sol, todo o planeta mergulha para dentro e para fora dessa estrutura, o que pode provocar poderosas tempestades geomagnéticas na Terra.
Inversão a caminho
Os dados registrados pelo observatório Wilcox revelam que os dois hemisférios do sol estão fora de sincronia. Enquanto o norte já mudou de polaridade, o polo sul ainda não apresentou essa reversão, mas segundo Scherrer é apenas uma questão de tempo.
domingo, 4 de agosto de 2013
Lua Titã pode ajudar a explicar vida na Terra
A lua de Saturno é maior do que os planetas Mercúrio e Plutão e tem uma atmosfera 60 vezes mais densa do que a da Terra. Ou seja, é como se fosse um planeta. E certamente seria considerada um planeta, se orbitasse o Sol.
"A interação dos mais variados elementos que existem em Titã a tornam bastante parecida com o que a Terra era quando a vida começou a se formar aqui. Analisando os processos que acontecem em Titã, podemos entender mais sobre a origem da vida em nosso planeta", disse o astrônomo Ralph Lorenz, da Universidade do Arizona, que estuda Saturno há mais de uma década.
Entre julho e outubro, sondas da Nasa (agência espacial norte-americana) estarão chegando a Titã e enviarão imagens importantes sobre a superfície da lua que, de acordo com análises feitas inicialmente, contém metano, etano, nitrogênio e hidrogênio.
Cientistas também apostam na existência de um oceano gigantesco, sob a densa camada de gelo e rochas de Titã, com pelo menos 70 quilômetros de espessura. "Esses elementos, principalmente o nitrogênio, podem estar de alguma forma interagindo com o gelo da lua, dando origem a micróbios, ou seja, formas primitivas de vida", disse Lorenz.
Lorenz lembrou que hoje é um consenso entre os cientistas a existência de oceanos congelados em variados pontos do nosso sistema solar. "O desafio é achar água na forma líquida."
O cientista também lembrou que, daqui a 5 bilhões de anos, a lua de Saturno, por exemplo, pode ter características muito parecidas com as da Terra hoje em dia. "O sol vai esquentar muito, tornando a vida na Terra impossível, e Titã pode ser o lugar para se habitar", comparou.
Oceanos intergaláticos Outros pesquisadores presentes ao encontro salientaram a importância do estudo dos oceanos intergaláticos. "Eles podem nos ensinar muito sobre os nossos próprios oceanos", disse Peter Girguis, do Monterey Bay Aquarium Research Institute.
Segundo Girguis, a tecnologia para explorar os oceanos extraterrestres e os terrestres, em suas camadas mais profundas, é praticamente a mesma atualmente: uso de imagens, análise de elementos químicos ou de possíveis espécies.
"Os oceanos intergaláticos podem oferecer boas explicações sobre fenômenos que ainda não entendemos em nossos oceanos aqui, como por exemplo como os ventos são gerados e como ocorre o transporte de calor entre as diferentes camadas dos oceanos", concluiu.
sexta-feira, 2 de agosto de 2013
Meteorito que caiu na Rússia era parte de asteroide já conhecido
Um novo estudo mostra que o meteorito que caiu na cidade russa de Chelyabinsk no início do ano não era totalmente desconhecido. O objeto pode ter sido um dos inúmeros fragmentos do asteroide 2011 EO40, detectado dois anos antes e que ainda está orbitando o Sol.
No dia 15 de fevereiro de 2013, uma super bola de fogo rompeu o céu da pequena cidade de Chelyabinsk, na região central da Rússia, provocando uma violenta onda de choque que destruiu diversas construções e deixou centenas de pessoas feridas. Esse foi o maior acidente provocado por uma rocha espacial a atingir a Terra desde o evento de Tunguska, em 1908.
A queda do meteorito levantou uma série de suspeitas de que o objeto poderia ser algum fragmento pertencente ao asteroide 2012 DA14, que naquele mesmo dia fez uma aproximação verdadeiramente rasante do nosso planeta. No entanto, a órbita do asteroide e o ângulo de entrada do bólido eram completamente diferentes e essa possibilidade foi logo afastada.
Agora, utilizando métodos estatísticos e diversas simulações em computadores, os pesquisadores Carlos e Raul de la Fuente Marcos, da Universidade Complutense de Madrid, concluíram que a rocha de 10 mil toneladas que atingiu Chelyabinsk pode ter como origem o asteroide 2011 EO40 de 200 metros de comprimento, que já havia sido detectado dois anos antes e era classificado pelos cientistas como "Potencialmente Perigoso".
Para chegar a essa conclusão, a dupla de pesquisadores simulou diversas orbitas hipotéticas que cruzassem o caminho da Terra no momento da queda do meteoro. Em seguida buscaram na base de dados os asteroides que se encaixavam dentro dessas orbitas e encontraram como candidatos mais prováveis os objetos 2011 EO40 e 2007 BD7, sendo este último posteriormente descartado.
De posse desses dados, os irmãos Fuente Marcos simularam a desintegração de um objeto com o tamanho de 2011 EO40 e através do método estatístico conhecido como Monte Carlo concluíram que o asteroide poderia produzir fragmentos similares ao que atingiu Chelyabinsk, inclusive com hora e ângulo de impacto compatíveis.
2011 EO40 é um asteroide de 200 metros de comprimento pertencente à classe Apolo, cujas órbitas estão localizadas próximas à da Terra e portanto são candidatos potenciais a uma colisão com nosso planeta.
Se as afirmações dos Fuente Marcos estiverem corretas, 2011 EO40 não é uma rocha sólida, mas um aglomerado de fragmentos muito frágeis que ainda estão orbitando o Sol.
Na opinião dos cientistas, somente com novas observações será possível afirmar se 2011 EO40 pode ainda oferecer risco de novas colisões.
Para Jorge Zuluaga, que também vem estudando o impacto de Chelyabinsk junto à Universidade de Antioquia, na Colômbia, 2011 EO40 não representa mais ou menos risco que os outros objetos potencialmente perigosos já catalogados, mas que serão necessários novos estudos e observações para afirmações mais conclusivas.