sábado, 31 de agosto de 2013

Um ano já se passou e o INPC continua em funcionamento, desenvolvendo-se fisicamente e tecnologicamente com um único propósito; realizações de Pesquisas Científicas.
O INPC foi fundado dia 01/09/2012 em Araçatuba-SP. Poucos sabem, mas na verdade ele foi renomeado dia 01/09/2012, antes ele se chamava LPC (Laboratório de Pesquisas Científicas) então a palavra Laboratório foi substituída por Instituto ficando Instituto de Pesquisas Científicas.

Agradecemos a todos que curtiram nossa pagina no Facebook e que acompanham nossas notícias no blog (www.inpcata.blogspot.com) e que possamos levar a vocês mais conhecimento sobre a ciência que vivemos.

sexta-feira, 30 de agosto de 2013

Marte: Curiosity registra lua Phobos eclipsando o disco solar


Ninguém, até agora, observou um eclipse solar em Marte, mas com ajuda das câmeras do jipe-robô Curiosity dá para ter uma pequena ideia de como é esse espetáculo celeste. O evento registrado foi muito rápido e só cobriu a parte central do Sol, mas permitiu contemplar como é um eclipse visto do Planeta Vermelho.


Eclipse solar em Marte
As cenas foram obtidas no dia 17 de agosto de 2013 pelo instrumento óptico MastCam no topo do jipe-robô Curiosity e retrata em três frames a passagem da lua Phobos na frente do disco solar. O evento ocorreu próximo ao meio dia local, de modo que a câmera precisou ser apontada quase na direção vertical.
Diferente dos eclipses aqui na Terra onde o disco lunar pode encobrir totalmente o Sol, em Marte as coisas são um pouco diferentes. Lá, o tamanho angular de Phobos é bem menor que o do Sol, o que impede que o disco estelar fique totalmente encoberto pela passagem da lua marciana. Neste caso, o eclipse "total" do Sol por Phobos se assemelha a um eclipse do tipo anular, quando o Sol toma a forma de anel ou arco luminoso.
Além disso, devido à distância e velocidade orbital de Phobos, o eclipse registrado não é tão longo como na Terra. Nesta sequência, os frames foram obtidos com apenas três segundos de intervalo entre cada um.
Lua Phobos

Phobos
Phobos é a maior e mais próxima das duas luas marcianas. Orbita o planeta a apenas 5980 km de altitude e completa cada volta em 07h39m. Assim, Phobos nasce três vezes por dia no horizonte.

É um mundo bastante irregular, com 26 km de diâmetro e devido à baixa altitude orbital despenca sobre Marte cerca 2 metros por século. Neste ritmo, em 50 milhões de anos as forças gravitacionais romperão o satélite produzindo um anel de rochas e poeira em volta do planeta. Mas até lá, muitos eclipses ainda virão.

domingo, 25 de agosto de 2013

INTELIGÊNCIA ARTIFICIAL  
Existem dois pontos de partida para definir a I.A. - sonho e tecnologia.

Inteligência Artificial é hoje um domínio do conhecimento cada vez mais ‘na moda’. Dela fala-se, escreve-se, ouve-se falar, lê-se. Mas saberemos nós o que é na verdade esta ciência, o que estuda, que aplicações práticas tem? A verdade é que muitas vezes os nossos conhecimentos sobre Inteligência Artificial (I.A.) não vão além do ‘isso tem qualquer coisa a ver com computadores, não é?’
A Inteligência Artificial é por um lado uma ciência, que procura estudar e compreender o fenômeno da inteligência, e por outro um ramo da engenharia, na medida em que procura construir instrumentos para apoiar a inteligência humana. A I.A. é inteligência como computação, tenta simular o pensamento dos peritos e os nossos fenômenos cognitivos.
No entanto, a I.A. continua a ser a procura do modo como os seres humanos pensam, com o objetivo de modelizar esse pensamento em processos computacionais, tentando assim construir um corpo de explicações algorítmicas dos processos mentais humanos. É isto o que distingue a I.A. dos outros campos de saber, ela coloca a ênfase na elaboração de teorias e modelos da Inteligência como programas de computador.
Os estudos em I.A. atualmente dividem-se em quatro ramos fundamentais. Distingamos assim uma área ligada ao estudo das redes neuronais e ao conexionismo que se relaciona também com a capacidade dos computadores aprenderem e reconhecerem padrões. Um outro ramo ligado à biologia molecular na tentativa de construir vida artificial. Um terceiro relacionado com a robótica, ligada à biologia e procurando construir máquinas que alojem vida artificial. E finalmente o ramo clássico da I.A. que se liga desde o início à Psicologia, desde os anos ’70 à epistemologia e desde os anos ’80 à sociologia, e que tenta representar na máquina os mecanismos de raciocínio e de procura.
Mas onde está a I.A.? Certamente ‘dentro dos agentes que são capazes de representar as situações que enfrentam e de realizar ações possuindo processos para manipular essas representações’. Mas estará ela no algoritmo, ou pelo contrário na arquitetura de estados mentais?
A construção de máquinas inteligentes pressupõe a existência de estruturas simbólicas (representação), a capacidade de elas poderem raciocinar (procura) e a existência de conhecimentos (matéria prima). Assim o campo mais popular da I.A. é sem dúvida o da engenharia do conhecimento pois é aí que se concebem os sistemas periciais, que são capazes de representar conhecimentos e de raciocinar.

Uma outra questão que se levantou desde os primeiros anos de I.A. foi se os computadores seriam realmente capazes de aprender. Questão que, a par da questão da representação de conhecimentos, e da capacidade das máquinas serem inteligentes e capazes de raciocinar é um pilar da investigação em I.A.

segunda-feira, 19 de agosto de 2013

 7 equações que governam o seu mundo

O alarme toca. Desligamos o despertador. São 6.30 da manhã…
Sem sair da cama temos seis equações que conduzem a nossa vida. O chip de memória que armazena a hora do relógio não poderia ter sido concebido sem uma equação fundamental da mecânica quântica. Seu tempo foi definido por um sinal de rádio que nunca teríamos sonhado de inventar, se não fosse as quatro equações de James Clerk Maxwell, as equações do eletromagnetismo. E o próprio sinal viaja de acordo com o que é conhecido como a equação de onda.
Vivemos num oceano escondido de equações. Estas estão no trabalho, nos transportes, no sistema financeiro, detecção e prevenção, na saúde e na criminalidade, na comunicação, na alimentação, na água, no aquecimento e na iluminação. Agora vai para o chuveiro e beneficia das equações utilizadas para regular o abastecimento e aquecimento da água. Os  cereais do pequeno almoço vem a partir de culturas que foram criadas com a ajuda de equações estatísticas. Conduze para o trabalho e o desenho aerodinâmico do seu carro está debaixo das equações de Navier-Stokes que descrevem como o ar flui sobre e em torno da viatura. Liga o seu sistema de navegação e é envolvido pela física quântica, novamente, mais as leis de Newton do movimento e da gravidade, que ajudaram a lançar os satélites de geoposicionamento e a definir as suas órbitas. Esses satélites também usam equações geradoras de números aleatórios  dos sinais de temporização, equações trigonométricas para calcular a localização, e da relatividade especial e geral para um rastreamento preciso dos movimentos dos satélites, influenciados pela gravidade da Terra.
Sem as equações, a maioria da nossa tecnologia nunca teria sido inventada. Claro, as invenções importantes como o fogo e a roda surgiram sem qualquer conhecimento matemático. No entanto, sem equações, estariamos presos num mundo medieval.
As equações vão também muito além da tecnologia. Sem elas, não teríamos conhecimento da física que rege as marés, as ondas que quebram na praia, o clima em constante mudança, os movimentos dos planetas, as fusões nucleares que ocorrem nas estrelas, as espirais das galáxias - a vastidão do universo e nosso lugar nele.
Existem milhares de equações importantes. As sete referidas aqui - a equação de onda, quatro equações de Maxwell, a transformada de Fourier e equação de Schrödinger - ilustram como as observações empíricas levaram às equações que usamos tanto na ciência como na vida cotidiana.

A equação de onda

Primeiro, a equação de onda. Vivemos num mundo de ondas. Nossos ouvidos detectam ondas de compressão no ar como o som, e os nossos olhos detectam as ondas de luz. Quando um terremoto atinge uma cidade, a destruição é causada por ondas sísmicas que se deslocam através da Terra.
Matemáticos e cientistas não podiam deixar de pensar sobre as ondas, mas o seu ponto de partida veio das artes: como é que uma corda de violino cria um som? A questão remonta ao antigo culto grego dos pitagóricos, que descobriram que duas sequências do mesmo tipo e tensão teriam comprimentos numa relação simples, tais como 2:1 ou 3:2, e produziam notas que juntas criavam um som extraordinariamente harmonioso. Relações mais complexas eram discordantes e desagradáveis ao ouvido. Foi o matemático suíço Johann Bernoulli, que começou a encontrar o sentido dessas observações. Em 1727, ele considerou que uma corda de violino é um modelo com um grande número de massas pontuais muito próximas e espaçadas, ligadas entre si por molas. Ele usou as leis de Newton para escrever as equações do movimento do sistema, e resolvê-las. A partir das soluções, ele concluiu que a forma mais simples para uma corda vibrante é uma curva sinusoidal. Há outros modos de vibração, bem como curvas sinusoidais em que mais de uma onda se encaixa no comprimento da corda, conhecidos pelos músicos como harmônicos.

Das Ondas para o Wireless

Quase 20 anos depois, Jean Le Rond d’Alembert seguiu um procedimento semelhante, mas focou-se na simplificação das equações de movimento ao invés das suas soluções. O resultado foi uma equação elegante descrevendo como o formato da corda se altera ao longo do tempo. Esta é a equação de onda, e estabelece que a aceleração de qualquer pequeno segmento da corda é proporcional à tensão agindo sobre ela. Isso implica que as ondas cujas frequências não estão em razões simples produzem um ruído desagradável conhecido como “batidas”. Esta é uma razão pela qual as relações numéricas simples dão notas que soam harmoniosamente.
A equação de onda pode ser modificada para lidar com fenómenos mais complexos, confusos, como os terremotos. Versões sofisticadas da equação de onda permitem aos sismólogos detectar o que se passa a centenas de quilómetros abaixo de nossos pés. Eles podem mapear o movimento das placas tectónicas da Terra, causadoras de terremotos e vulcões. O maior prémio nessa área seria uma maneira confiável para prever terremotos e erupções vulcânicas, e muitos dos métodos que estão a ser explorados são apoiados na equação de onda.

As equações de Maxwell

Mas a visão mais influente da equação de onda emergiu do estudo das equações de Maxwell do eletromagnetismo. Em 1820, a maioria das pessoas iluminavam as suas casas com velas e lanternas, enviavam cartas e deslocavam-se em carruagens puxadas por cavalos. Passados 100 anos, as casas e ruas tinham iluminação elétrica, surge o telégrafo permitindo a transmissão de mensagens através dos continentes e as pessoas começaram a conversar entre si por telefone. A comunicação de rádio havia sido demonstrada em laboratórios, e um empresário montou uma fábrica para vender ”wirelesses” para o público.
Esta revolução social e tecnológica foi desencadeada pelas descobertas de dois cientistas. Em cerca de 1830, Michael Faraday estabeleceu a física básica do eletromagnetismo. Trinta anos depois, James Clerk Maxwell embarcou na missão de formular a base matemática para as teorias e experiências de Faraday.
Na época, a maioria dos físicos que trabalhavam em eletricidade e magnetismo estavam à procura de analogias com a gravidade, que eles viam como uma força que atua entre corpos à distância. Faraday tinha uma idéia diferente: para explicar a série de experiências que conduziu em eletricidade e magnetismo, ele postulou que ambos os fenómenos atravessam o espaço, mudam ao longo do tempo e podem ser detectados pelas forças que produzem. Faraday colocou suas teorias em termos de estruturas geométricas, como linhas de força magnética.
Maxwell reformula estas ideias, por analogia com a matemática do fluxo de um fluido. Raciocinou que as linhas de força eram análogas aos caminhos seguidos pelas moléculas num fluido e que a força do campo eléctrico ou magnético era análoga à velocidade do fluido. Em 1864 Maxwell tinha escrito quatro equações para as interações básicas entre os campos elétricos e magnéticos. Duas dessas equações dizem-nos como os campos são criados a partir de cargas. Para o campo magnético, como não há carga magnética, as linhas de campo magnético não começam nem terminam, ou seja, as linhas são como trajetórias fechadas. As outras duas equações descrevem como os campos “circulam” em torno das suas respectivas fontes: o campo magnético “circula” em torno de correntes elétricas e de campos elétricos variantes com o decorrer do tempo, conforme a lei de Ampère com a correção do próprio Maxwell; campos elétricos “circulam” em torno de campos magnéticos que variam com o tempo, conforme a lei de Faraday.
Mas o que Maxwell fez a seguir é que foi surpreendente. Ao realizar algumas manipulações simples das suas equações, conseguiu derivar a equação de onda e deduziu que a luz deve ser uma onda eletromagnética. Isso, por si só, foi uma notícia estupenda, ninguém tinha imaginado tal relação fundamental entre a eletricidade, luz e magnetismo. E havia mais. A luz vem em cores diferentes, correspondentes a diferentes comprimentos de onda. Os comprimentos de onda que vemos estão restringidos pela química dos nossos fotosensores existentes no olho humano. As equações de Maxwell levaram a uma previsão dramática - que ondas eletromagnéticas de todos os comprimentos de onda deveriam existir. Alguns, com comprimentos de onda muito mais longos do que podemos ver, transformariam o mundo: as ondas de rádio.
Em 1887, Heinrich Hertz demonstrou experimentalmente as ondas de rádio, mas deixou de apreciar a sua aplicação mais revolucionária. Se pudesse imprimir um sinal sobre uma onda, poderia falar-se para o mundo. Nikola Tesla, Guglielmo Marconi e outros, transformaram o sonho em realidade, e toda a panóplia de meios de comunicação modernos, de rádio e televisão, radar, ligações em microondas para telemóveis, etc. E tudo surgiu a partir de quatro equações e um par de cálculos curtos. As equações de Maxwell não mudaram apenas o mundo, abriram um novo.
Tão importante quanto o que as equações de Maxwell não descrevem é o que não fazem. Embora as equações revelassem que a luz era uma onda, os físicos logo descobriram que o seu comportamento era, por vezes em desacordo com essa visão: Brilhar a luz num metal e criar eletricidade, num fenómeno chamado de efeito fotoeléctrico. Fazia sentido apenas se a luz se comportasse como uma partícula. Então, seria a luz uma onda ou uma partícula? Na verdade, um pouco de ambos. A matéria foi feita a partir de ondas quânticas, e um grupo coeso de ondas agiram como uma partícula.

A equação de Schrödinger

Em 1927, Erwin Schrödinger escreveu uma equação para ondas quânticas. Encaixava lindamente nas experiências enquanto pintava um retrato de um mundo muito estranho, no qual as partículas fundamentais, como o electrão, não são objectos bem definidos, mas nuvens de probabilidade. Assim, teóricos descreveram todo o tipo de esquisitice quântica, como o gato que está simultaneamente vivo e morto, e universos paralelos.
A mecânica quântica não se limita a esses enigmas filosóficos. Quase todos os aparelhos modernos - computadores, telemóveis, consolas de jogos, carros, frigoríficos, fornos - contêm chips de memória baseado no transistor, cujo funcionamento se baseia na mecânica quântica dos semicondutores. Novas aplicações da mecânica quântica chegam quase semanalmente. Os pontos quânticos - protuberâncias minúsculas de um semicondutor - podem emitir luz de qualquer cor e são utilizados para imagiologia biológica, onde substituem corantes tradicionais, muitas vezes tóxicos. Engenheiros e físicos estão próximos do computador quântico, que pode realizar muitos cálculos diferentes em paralelo.
Os lasers são outra aplicação da mecânica quântica. São usados para ler informações a partir de pequenos buracos ou marcas de CDs, DVDs e discos Blu-ray. Astrônomos usam lasers para medir a distância da Terra à Lua. Há quem defenda ser possível lançar veículos espaciais da Terra usando um poderoso raio laser.

A transformada de Fourier

O capítulo final nesta história vem de uma equação que nos ajuda a entender as ondas. Ela começa em 1807, quando Joseph Fourier desenvolveu uma equação para o fluxo de calor. Ele apresentou um documento sobre o seu estudo na Academia Francesa de Ciências, mas foi rejeitado. Em 1812, a academia teve como tema o Calor no seu prêmio anual. Fourier apresentou um trabalho mais longo, revisto e ganhou.
O aspecto mais intrigante do artigo premiado de Fourier não foi a equação, mas como ele a resolveu. O problema típico era o de encontrar como a temperatura varia ao longo do tempo numa haste fina, dado o perfil de temperatura inicial. Fourier poderia resolver esta equação com facilidade se a variação da temperatura fosse uma onda seno ao longo do seu comprimento, mas não era assim. Logo, ele apresentou um perfil mais complicado como uma combinação de curvas sinusoidais com diferentes comprimentos de onda, resolveu a equação para cada componente da curva de senos, e adicionou estas soluções em conjunto. Fourier afirmou que esse método funcionava para qualquer problema, mesmo onde a temperatura sobe repentinamente de valor. Tudo o que tinha a fazer era somar um número infinito de contribuições a partir de curvas seno.
O resultado é a transformada de Fourier, uma equação que trata um sinal variando no tempo como a soma de uma série de componentes de curvas sinusoidais e calcula as suas amplitudes e frequências.
Hoje, a transformada de Fourier afecta as nossas vidas de inúmeras formas. Por exemplo, podemos usá-lo para analisar o sinal vibratório produzido por um terremoto e para calcular as frequências em que a energia transmitida pelo chão a tremer é maior. Outras aplicações incluem a remoção de ruído de gravações de som antigos, encontrar a estrutura do DNA usando imagens de raios X, melhorar a recepção do rádio e prevenção de vibrações indesejadas em carros. Além disso, há uma que a maioria de nós sem querer tira proveito de cada vez que tira uma fotografia digital.
Se pensar em quanta informação é necessária para representar a cor e o brilho de cada pixel numa imagem digital, vai descobrir que uma câmara digital parece ter no seu cartão de memória cerca de 10 vezes mais dados do que o cartão pode possivelmente conter. As câmaras usam a compressão de dados JPEG, que combina cinco etapas de compressão diferentes. Uma delas é uma versão digital da transformada de Fourier, que trabalha com um sinal que não muda ao longo do tempo, mas através da imagem. A matemática é praticamente idêntica. As outras quatro etapas reduzem os dados ainda mais, para cerca de um décimo do valor original.
Estas são apenas sete das muitas equações que encontramos todos os dias, sem darmos conta delas. Mas o impacto das equações sobre a história vai muito além. A equação verdadeiramente revolucionária pode ter um impacto maior sobre a existência humana que todos os reis e rainhas, cujas maquinações enchem nossos livros de história. Essa equação, acima de tudo, que os físicos e cosmólogos adorariam descobrir, é ​​a teoria de tudo, a que unifica a mecânica quântica e a relatividade.

quarta-feira, 14 de agosto de 2013

CERN e o bosão de Higgs – Resumo dos resultados

Nos últimos dias muito se tem falado sobre o CERN e sobre o bosão de Higgs nos orgãos de comunicação social e na internet. Já outros colaboradores falaram sobre estes acontecimentos aqui, aqui, aqui, aqui e aqui. O bosão de Higgs é uma partícula fundamental no modelo padrão (modelo standard). A sua existência foi prevista há mais de 40 anos em trabalhos de Peter Higgs e outros físicos. Os resultados agora apresentados pelo CERN no dia 4 de Julho, na altura em que decorria a conferência internacional de física das altas energias (ICHEP2012), mostram que o LHC produziu uma nova partícula cujas características são, até agora, consistentes com o bosão de Higgs. Existe no entanto alguma precaução, dado que a quantidade de dados produzida ainda não ser suficiente para se garantir sem qualquer dúvida de que se está perante a descoberta do bosão de Higgs.
A conferência completa com a apresentação dos resultados poderá ser vista aqui:
Após a apresentação dos resultados houve uma conferência de imprensa que merece ser vista e que é bastante esclarecedora. Poderá ser vista aqui:
Recorde-se que houve um esforço enorme dos cientistas para se apresentar estes resultados a tempo da ICHEP2012 e como tal muitos dos resultados ainda são preliminares e precisam de ser “afinados”.
No LHC o bosão de Higgs poderá ser produzido através de colisões entre protões que viajam a velocidades próximas da velocidade da luz:
A seguinte imagem mostra diagramas de Feynman com alguns dos modos de produção do bosão de Higgs (H0)
Este bosão decai muito rapidamente em outras partículas antes de atingir os detectores. No entanto, o modelo padrão prevê quais são os modos possíveis de decaimento (os canais de decaimento) e as suas probablilidades. A imagem seguinte mostra alguns desses modos de decaimento e o excesso de eventos esperado para cada modo (a letra p corresponde a protões, h é a partícula de Higgs, as outras letras designam as partículas produzidas).
Na conferência foram apresentados resultados das duas experiências independentes CMS e Atlas. Os resultados são provenientes dos dados adquiridos em 2011 (energia de centro de massa de 7 TeV) e 2012 (energia de centro de massa de 8 TeV).
Experiência CMS:
A colaboração CMS estudou cinco dos canais de decaimento mais importantes do bosão. Três dos canais são decaimentos em pares de fotões (γγ) ou pares de partículas responsáveis pela interacção electrofraca, ZZ ou WW. Outros dois canais contêm fermiões: dois quarks “bottom” (bb) ou dois leptões tau (ττ). Para um bosão de Higgs com uma massa próxima de 125 GeV os canais com pares de bosões – γγ, ZZ e WW – são os mais promissores.
Espectro de massa invariante dos pares de fotões (γγ) seleccionados nos dados de CMS de 2011 e 2012. Note-se o pico por volta dos 125 Gev:
O sinal neste canal apresenta um valor cerca de 50% superior ao previsto pelo modelo padrão.
Espectro de massa invariante reconstruída nos diferentes canais com quatro leptões: 4e, 4μ e 2e2μ. Note-se o pico por volta dos 126 Gev:
A significância estatística do sinal, combinando os dados de todos os cinco canais, é de 4.9 sigma (5.0 sigma é requerido para se anunciar uma descoberta).
Se considerarmos apenas os dados dos dois canais com maior sensibilidade e com melhor resolução, canais γγ e ZZ, a significância estatística é de 5.0 sigma. A probabilidade de o sinal obtido se dever a uma flutuação estatística do ruído de fundo é de um em três milhões.
A massa da nova partícula foi determinada na experiência CMS como sendo de 125.3 +/- 0.6 GeV.
Experiência Atlas:
A experiência ATLAS concentrou os seus esforços em dois canais de decaimento: Higgs a decair em dois fotões ou em quatro leptões. Em ambos os canais, foi possível obter uma excelente resolução de massa. Ambos os canais mostram um excesso estatisticamente significativo à volta do mesmo valor: uma massa com cerca de 126 GeV. A combinação estatística destes e outros canais apresenta um valor de 5 sigma (suficiente para o anúncio de uma descoberta) para uma massa de 126,5 Gev. O canal de decaimento em dois fotões apresenta tal como no CMS um sinal superior ao esperado. No caso do detector Atlas o valor é o dobro do previsto pelo modelo padrão.
Distribuição da Massa para o canal de quatro leptões:
A probabilidade de o sinal se dever a uma flutuação estatística do ruído de fundo é de um em três milhões.
Da conferência e dos resultados obtidos fica a ideia de que apesar de todos estarem convencidos de que descobriram uma nova partícula, o facto de a quantidade de dados ainda não ser a desejada, faz com que ainda haja um elevado sentimento de precaução.
O Director Geral do CERN Rolf-Dieter Heuer acabou por exclamar: “Acho que o apanhámos! O que é que vocês pensam?”, ao que a assembleia respondeu com um tom de aprovação.
O Prof. João Seixas do Instituto Superior Técnico explicou num programa transmitido na TVI 24 Notícias a importância desta descoberta
Também na SIC Notícias a descoberta foi analisada pelo Prof. João Seixas
Resumindo:
- Não há dúvida que foi detectada uma nova partícula, que é um bosão.
- Essa nova partícula decai de um modo consistente com a partícula de Higgs prevista pelo Modelo Padrão.
- A quantidade de dados, embora seja suficiente para se anunciar a descoberta de uma nova partícula, e apesar de ser consistente com a hipótese do bosão de Higgs, ainda não chega para sossegar as mentes dos cientistas que por natureza costumam ser cépticos e cuidadosos. Para esta incerteza, contribui também o facto de o Modelo Padrão não prever uma massa exacta para o bosão de Higgs. Até ao final de 2012, a quantidade de dados recolhidos deverá mais do que duplicar o que permitirá tornar os resultados mais claros.
- Há uma discrepância de cerca de 1 Gev na massa da partícula nos resultados das duas experiências independentes CMS e Atlas, mas é preciso lembrar que os resultados são preliminares e que a colaboração Atlas ainda não apresentou o cálculo exacto (com o erro associado) da massa da partícula.
- Existe um valor superior ao previsto pelo modelo padrão no canal de decaimento em dois fotões em ambas as experiências. Só as experiências futuras é que irão determinar como irá evoluir este valor com a acumulação de novos dados.
- Dado que existem diversos modelos teóricos, alguns com mais do que um bosão de Higgs, resta também saber em que esquema teórico é que esta partícula se irá encaixar.

terça-feira, 6 de agosto de 2013

Evento solar de grande proporção deve ocorrer nos próximos meses


Observações feitas por cientistas estadunidenses indicam que nos próximos quatro meses o campo magnético do Sol deve se inverter totalmente e produzir uma série de efeitos em cascata em todo o Sistema Solar, com possibilidade de mais tempestades geomagnéticas na Terra.
Inversão de polaridade do Sol

Atualmente, estamos praticamente no pico do Ciclo Solar 24, um período caracterizado pela alternância entre a alta e baixa atividade da estrela, que se repete a cada 11 anos. Quando o Sol atinge este momento máximo, seu dínamo interno se auto-organiza e seu campo magnético se inverte.
De acordo com o físico solar Todd Hoeksema, diretor do Observatório Solar Wilcox, da Universidade de Stanford, os polos solares são indicadores bastante precisos dessa mudança e desde 1976 foram registradas três grandes inversões na orientação do campo magnético polar do Sol. Se a sequência for mantida, a quarta reversão deve ocorrer até o final de 2013.
Essa reversão acontece de modo rápido, com o campo magnético polar enfraquecendo até chegar a zero. Em seguida emerge novamente, mas com a polaridade invertida. Segundo Phil Scherrer, também ligado à Stanford, apesar de ser um processo com diversas implicações de grande escala, esse é um evento natural e faz parte do ciclo solar.
A inversão do campo magnético do Sol é de fato um evento de grande magnitude e quando acontece produz ondas de polaridades magnéticas reversas que se deslocam por toda a heliosfera, além da orbita de Plutão.

Consequências
À medida que o Sol gira, seu campo magnético induz uma corrente elétrica de alguns bilionésimos de amperes por metro quadrado que se estende por uma extensa área projetada a partir do equador solar chamada "esteira de corrente". Apesar da intensidade ser pequena, a corrente flui através de uma região de 10 mil km de espessura e milhares de quilômetros de largura.

Durante a inversão de campo magnético, a esteira se torna muito ondulada e na medida em que a Terra orbita o Sol, todo o planeta mergulha para dentro e para fora dessa estrutura, o que pode provocar poderosas tempestades geomagnéticas na Terra.


Inversão a caminho
Os dados registrados pelo observatório Wilcox revelam que os dois hemisférios do sol estão fora de sincronia. Enquanto o norte já mudou de polaridade, o polo sul ainda não apresentou essa reversão, mas segundo Scherrer é apenas uma questão de tempo.

domingo, 4 de agosto de 2013

Lua Titã pode ajudar a explicar vida na Terra

A lua de Saturno é maior do que os planetas Mercúrio e Plutão e tem uma atmosfera 60 vezes mais densa do que a da Terra. Ou seja, é como se fosse um planeta. E certamente seria considerada um planeta, se orbitasse o Sol.
"A interação dos mais variados elementos que existem em Titã a tornam bastante parecida com o que a Terra era quando a vida começou a se formar aqui. Analisando os processos que acontecem em Titã, podemos entender mais sobre a origem da vida em nosso planeta", disse o astrônomo Ralph Lorenz, da Universidade do Arizona, que estuda Saturno há mais de uma década.

Entre julho e outubro, sondas da Nasa (agência espacial norte-americana) estarão chegando a Titã e enviarão imagens importantes sobre a superfície da lua que, de acordo com análises feitas inicialmente, contém metano, etano, nitrogênio e hidrogênio.
Cientistas também apostam na existência de um oceano gigantesco, sob a densa camada de gelo e rochas de Titã, com pelo menos 70 quilômetros de espessura. "Esses elementos, principalmente o nitrogênio, podem estar de alguma forma interagindo com o gelo da lua, dando origem a micróbios, ou seja, formas primitivas de vida", disse Lorenz.
Lorenz lembrou que hoje é um consenso entre os cientistas a existência de oceanos congelados em variados pontos do nosso sistema solar. "O desafio é achar água na forma líquida."
O cientista também lembrou que, daqui a 5 bilhões de anos, a lua de Saturno, por exemplo, pode ter características muito parecidas com as da Terra hoje em dia. "O sol vai esquentar muito, tornando a vida na Terra impossível, e Titã pode ser o lugar para se habitar", comparou.
Oceanos intergaláticos 
Outros pesquisadores presentes ao encontro salientaram a importância do estudo dos oceanos intergaláticos. "Eles podem nos ensinar muito sobre os nossos próprios oceanos", disse Peter Girguis, do Monterey Bay Aquarium Research Institute.
Segundo Girguis, a tecnologia para explorar os oceanos extraterrestres e os terrestres, em suas camadas mais profundas, é praticamente a mesma atualmente: uso de imagens, análise de elementos químicos ou de possíveis espécies.
"Os oceanos intergaláticos podem oferecer boas explicações sobre fenômenos que ainda não entendemos em nossos oceanos aqui, como por exemplo como os ventos são gerados e como ocorre o transporte de calor entre as diferentes camadas dos oceanos", concluiu.

sexta-feira, 2 de agosto de 2013

Meteorito que caiu na Rússia era parte de asteroide já conhecido


Um novo estudo mostra que o meteorito que caiu na cidade russa de Chelyabinsk no início do ano não era totalmente desconhecido. O objeto pode ter sido um dos inúmeros fragmentos do asteroide 2011 EO40, detectado dois anos antes e que ainda está orbitando o Sol.

Meteoro da Rússia

No dia 15 de fevereiro de 2013, uma super bola de fogo rompeu o céu da pequena cidade de Chelyabinsk, na região central da Rússia, provocando uma violenta onda de choque que destruiu diversas construções e deixou centenas de pessoas feridas. Esse foi o maior acidente provocado por uma rocha espacial a atingir a Terra desde o evento de Tunguska, em 1908.
A queda do meteorito levantou uma série de suspeitas de que o objeto poderia ser algum fragmento pertencente ao asteroide 2012 DA14, que naquele mesmo dia fez uma aproximação verdadeiramente rasante do nosso planeta. No entanto, a órbita do asteroide e o ângulo de entrada do bólido eram completamente diferentes e essa possibilidade foi logo afastada.
Agora, utilizando métodos estatísticos e diversas simulações em computadores, os pesquisadores Carlos e Raul de la Fuente Marcos, da Universidade Complutense de Madrid, concluíram que a rocha de 10 mil toneladas que atingiu Chelyabinsk pode ter como origem o asteroide 2011 EO40 de 200 metros de comprimento, que já havia sido detectado dois anos antes e era classificado pelos cientistas como "Potencialmente Perigoso".

Para chegar a essa conclusão, a dupla de pesquisadores simulou diversas orbitas hipotéticas que cruzassem o caminho da Terra no momento da queda do meteoro. Em seguida buscaram na base de dados os asteroides que se encaixavam dentro dessas orbitas e encontraram como candidatos mais prováveis os objetos 2011 EO40 e 2007 BD7, sendo este último posteriormente descartado.
De posse desses dados, os irmãos Fuente Marcos simularam a desintegração de um objeto com o tamanho de 2011 EO40 e através do método estatístico conhecido como Monte Carlo concluíram que o asteroide poderia produzir fragmentos similares ao que atingiu Chelyabinsk, inclusive com hora e ângulo de impacto compatíveis.
2011 EO40 é um asteroide de 200 metros de comprimento pertencente à classe Apolo, cujas órbitas estão localizadas próximas à da Terra e portanto são candidatos potenciais a uma colisão com nosso planeta.
Se as afirmações dos Fuente Marcos estiverem corretas, 2011 EO40 não é uma rocha sólida, mas um aglomerado de fragmentos muito frágeis que ainda estão orbitando o Sol.

Na opinião dos cientistas, somente com novas observações será possível afirmar se 2011 EO40 pode ainda oferecer risco de novas colisões.
Para Jorge Zuluaga, que também vem estudando o impacto de Chelyabinsk junto à Universidade de Antioquia, na Colômbia, 2011 EO40 não representa mais ou menos risco que os outros objetos potencialmente perigosos já catalogados, mas que serão necessários novos estudos e observações para afirmações mais conclusivas.