domingo, 9 de setembro de 2012

15 tecnologias à beira da extinção que vão surpreender você

Um número surpreendente de dispositivos e tecnologias que são normalíssimos hoje em dia está à beira da extinção, segundo o editor-chefe da seção on-line da revista “Laptop”, Avram Piltch.

De acordo com Piltch, seu filho terá tanta familiaridade com algumas das tecnologias habituais quanto os jovens têm com o Betamax, formato de gravação em vídeo, considerado algo que ninguém conseguiria viver sem na década de 1980.

Veja a lista, vislumbrada pelo jornalista norte-americano, das tecnologias que poderão virar peças de museu em um futuro não tão distante:

Internet com fio

Piltch ficou surpreso com uma colega de trabalho que disse não se lembrar dos tempos antes da internet banda-larga. Em algum momento, seus pais deveriam ter tido internet discada, mas ela era tão jovem que não conseguia se lembrar. Até a internet sem fio estar universalmente disseminada, creio que o filho de Piltch estará com 8 anos, mas ele nunca vai se lembrar de um mundo onde os consumidores pagam por conexões com fio. Já hoje, a tecnologia 4G nos proporciona velocidades boas de conexão, mas os preços ainda são restritivos. Em algum ponto dos próximos anos, as empresas vão compreender que dar antenas a todos é mais barato e prático do que manter redes de cabos de fibra ótica.

Câmeras e filmadoras

As câmeras dos smartphones estão aposentando as câmeras comuns. Ao contrário dos aparatos habituais, os quais carregamos só quando achamos que será necessário, os smartphones estão sempre conosco. Eles oferecem diferentes aplicativos e filtros, que podem melhorar a foto, e permitem que as fotos e os vídeos sejam compartilhados quase que instantaneamente. Mas as câmeras reflex (DSLR, na sigla em inglês) continuarão entre nós por mais alguns anos. Sua qualidade ainda é imbatível.

Telefones fixos

Em 2010, o Centro para Controle e Prevenção de Doenças americano mostrou que 26% das residências norte-americanas têm apenas telefones celulares. Em 2017, aproximadamente, apenas algumas pessoas apegadas às antiguidades continuarão a ter telefones fixos.

Computadores que demoram para inicializar

Esperar pela inicialização de um computador é uma das grandes frustrações da era dessas máquinas. Mas o filho de Piltch nunca experimentará desse sentimento, pois, segundo especialistas, raramente desligaremos nossos computadores. Ao invés disso, o deixaremos em modo de espera ou o colocaremos para hibernar. O que começa a se popularizar hoje, esse costume será mais que habitual daqui a alguns anos, já que atualizações não necessitarão da reinicialização para serem instaladas. E reiniciar o computador só vai levar alguns segundos, devido à tecnologia SSD. 

Sistemas operacionais do Windows

Quando o filho do jornalista norte-americano estiver pronto para ter seu primeiro computador, o Windows terá, muito provavelmente, acabado. O sistema operacional da Microsoft vai continuar existindo, como também o Mac OS X, mas diremos adeus à metáfora da janela, onde cada aplicação que você põe para rodar é mostrada em uma janela que tem título e outros detalhes característicos. A Microsoft já assinalou seu desejo de fazer desse formato passado, optando pelo Metro UI como base.

Discos rígidos

O primeiro computador de nosso personagem foi um TI 99, que utilizava fitas para armazenar dados. Desde então, a tecnologia SSD nos permite acabar com a antiga prática de armazenamento de dados em discos magnéticos giratórios. A tecnologia SSD não só é mais rápida como também mais durável.

Cinemas

Os profetas de plantão, como nosso jornalista em questão, dizem que o cinema vai morrer desde que a primeira TV foi vendida, mas, dessa vez, de acordo com Piltch, isso realmente pode acontecer. Primeiro motivo: as televisões com imagem em alta definição e com imagens em 3D estão ficando mais baratas. E a qualidade dos home theaters não perdem em nada para o cinema. Alguns estúdios têm liberado alguns filmes para serem assistidos em casa, mediante compra, no mesmo dia de suas estreias nos cinemas. Por isso, a tendência parece que vai continuar. Além disso, o custo de ir ao cinema está fora de controle, seja nos EUA ou no Brasil.

O mouse

Dentro de cinco anos, os custos para adicionar telas sensíveis ao toque serão tão pequenos que toda tela, seja de TV ou laptop, terá tal capacidade. Aparelhos mais precisos, os mouses não desaparecerão da noite para o dia, mas passarão a ser um método secundário.

Óculos 3D

Quando os primeiros filmes em 3D foram para as telas dos cinemas na década de 1950, todos eram obrigados a usar aqueles óculos peculiares. Desde então, eles têm se popularizado, de várias maneiras. A LG e a HTC já lançaram fones de ouvido e telas estereoscópicas em 3D que não são tão boas quanto home theaters, mas boas o suficiente para alguma diversão 3D. Dentro de 10 anos, aproximadamente, os aparelhos de TV poderão oferecer experiências em 3D sem os óculos.

Controle remoto

Quando Piltch era criança, a TV de sua família não tinha controle remoto. Eles tinham de levantar do sofá, atravessar a sala e mudar de canal. No futuro, ou usaremos nossos smartphones para isso ou uma combinação de gestos e comandos de voz.

Computadores de mesa

Com exceção de empreendimentos industriais e empresas, os computadores de mesa estarão acabados. Notebooks e laptops já dominam as vendas e essa tendência, bem prática, por sinal, deve continuar indefinidamente.

Números de telefone

O que você prefere: decorar e digitar números ou apenas selecionar um nome e pressionar um único botão? Isso já acontece nos serviços VoIP, como Skype, Google Talk e Facebook. No futuro, não pediremos números de telefone.

Horário nobre na televisão

Antigamente – não tão antigamente assim –, famílias e grupos de amigos se reuniam ao redor da TV, todas as semanas, para assistir episódios de suas séries ou novelas favoritas. Quando as fitas chegaram, era possível gravar os programas e assisti-los a qualquer momento. Hoje em dia, podemos vê-los pela TV ou pela internet, sem precisar sequer gravá-los, podendo assisti-los quando desejarmos.

Fax

Em nossa era dos e-mails, SMS e conexões 4G, só existe um motivo para os faxes existirem: algumas empresas e seus advogados só consideram algumas assinaturas válidas se estiverem em contratos e formulários. Mas novas alternativas podem tirar o fax de nossas mesas, como a impressão digital e as assinaturas digitais.

Discos ópticos (DVD)

A transformação já está ocorrendo a passos largos. Os DVDs estão sendo paulatinamente substituídos pelos Blu-rays.

Fonte: http://gizmodo.com/

Antares e suas nuvens

Foto: NASA

Antares é uma estrela gigante – ou melhor, uma supergigante vermelha. Ela possui cerca de 850 vezes o diâmetro do sol, é quinze vezes mais massiva, e dez mil vezes mais brilhante! Ela é a estrela mais brilhante na constelação de Escorpião e uma das mais brilhantes em nosso céu. 

Localizada a cerca de 550 anos-luz de nós, Antares é vista nessa imagem rodeada por uma nebulosa gasosa amarelada, que foi liberada por ela mesma. A radiação das estrelas azuis companheiras de Antares ajudam o gás a se expandir.

Fonte: http://nasa.gov/

Quando teremos computadores quânticos e porque eles serão importantes ferramentas?

Será que um dia vamos mesmo ter um? Será que a revolução causada por eles será tão profunda quando a do microchip? Eles estarão na mesa de cada cientista?
 
Bom, de certo modo, sim.
 
Primeiro de tudo, vamos dizer um pouco sobre o que esses computadores fazem. Resumidamente, eles exploram o fato de que os fótons ou átomos presos podem existir em múltiplos estados ou “superposições” ao mesmo tempo. A computação quântica pretende fazer cálculos em todas as superposições diferentes, de uma só vez. Isso torna o trabalho completamente seguro. 

Há alguns dias, dois estudos importantes foram divulgados: em um, uma equipe conseguiu realizar a primeira rede quântica, enviando qubits entre um laboratório e outro. No segundo, pesquisadores conseguiram emaranhar dois qubits – o que seria o núcleo mais simples de um computador quântico – em um semicondutor, o tipo de material que os fabricantes de computadores comuns já usam com facilidade. 

Tudo é meio confuso, mas por enquanto, o estado do campo é: computadores de pequena escala, em laboratórios, para resolver problemas simples. A maior parte dos pesquisadores afirma que a ideia de computadores grandes é plausível no papel, mas a fabricação é um desafio gigante. 
 
Pretende ter um em casa? Mesmo os pesquisadores mais otimistas acreditam que o computador quântico não vai substituir os nossos pessoais. 

As únicas aplicações que todos concordam seriam para quebrar códigos e criar simulações de sistemas naturais onde a mecânica quântica atua. 

Alguns dizem que um computador quântico até pode fazer as coisas clássicas de um computador comum, de maneira mais rápida e mais eficiente. Mas não faz sentido usá-lo dessa maneira. 

Já outros acreditam em um impulso quântico para os computadores comuns. Apesar de hoje eles serem desenhados para resolver um único problema, no futuro poderiam surgir computadores programáveis. A “máquina” não seria puramente quântica, mas mista. 

É estranho pensar porque alguém ia querer um computador quântico, que hoje é usado para resolver problemas matemáticos e da física, apenas para ver o Facebook. Mas é sempre válido lembrar que vários avanços tecnológicos parecem inúteis no começo, mas com mudanças e readaptações, podem se tornam objetos completamente obrigatórios. Veremos o que o futuro reserva.

Fonte: http://www.bbc.co.uk/news/science-environment/

Os 10 desastres naturais mais mortais da História

Desastres naturais violentos tem devastado a humanidade ao longo de séculos, mas tendo em vista que alguns deles aconteceram muito tempo atrás, os cientistas não são capazes de estimar o número de mortos. A ilha mediterrânea de Stroggli é um exemplo. Acredita-se que o lugar foi completamente destruído por uma erupção vulcânica e pelo tsunami que se seguiu. Embora o número de mortos permaneça incerto, o desastre parece ter devastado toda a civilização minoica em torno de 1500 aC.

Os desastres naturais mais mortais – que envolvem na maior parte terremotos e inundações e sobre os quais os historiadores podem fornecer o número preciso de mortes – já mataram um total estimado de 10 milhões de pessoas. 

A China lidera o ranking. Nada mais nada menos do que cinco dos dez desastres naturais que mais mataram até hoje ocorreram no país, incluindo os três mais mortíferos. No geral, o terremoto é o desastre que mais aparece: seis vezes. Os dois primeiros colocados da lista, porém, não são abalos sísmicos. Confira a lista, que vai dos menos até os mais mortíferos:

10 – Terremoto em Aleppo, na Síria
O abalo atingiu Aleppo, maior cidade da Síria na época, no dia 11 de outubro de 1.138. Com base em dados geológicos, as estimativas modernas dão ao terremoto a magnitude de 8,5 graus na Escala Richter. Registros históricos sugerem que aproximadamente 230 mil pessoas morreram, além dos grandes danos sofridos pela cidade. Aleppo se localiza no norte da Síria, numa área muito vulnerável a tremores. A cidade faz parte da região da Falha do Mar Morto, pois repousa sobre o limite entre a placa geológica da Arábia e a placa africana.

9 – Terremoto e tsunami no Oceano Índico
Um dia após o Natal de 2004, terremoto submarino de magnitude 9,3, com epicentro na costa oeste da Sumatra, na Indonésia, resultou em um devastador tsunami que atingiu as costas de vários países do sul e do sudeste da Ásia. O abalo sísmico originado no Oceano Índico provocou o tsunami que matou um número estimado entre 225 mil e 230 mil pessoas.

8 – Terremoto em Haiyuan, na China
O terremoto de 8,5 graus de magnitude atingiu a área do condado de Haiyuan, na província de Ningxia, na China, no dia 16 de dezembro de 1920. O abalo também é conhecido como “Terremoto de Gansu” porque a região da Ningxia era uma parte da província de Gansu na época. O desastre causou a morte de exatamente 235.502 pessoas, de acordo com o Catálogo de Danos por Terremotos no Mundo, que é mantido pelo Instituto Internacional de Sismologia e Engenharia Sísmica do Japão.

7 – Terremoto de Tangshan, na China
No 28 de julho de 1976, os habitantes da cidade industrial de Tangshano sofreram um dos piores terremotos do século 20. A cidade localizada em Hebei, na China, possuía na época uma população de aproximadamente um milhão de pessoas, que foram devastadas pelo tremor de magnitude 8. O governo chinês registrou no momento um número de mortes igual a 655 mil, mas esse dado foi posteriormente reestimado para cerca de 242 mil pessoas.

6 – Terremoto de Antioquia, na Turquia
O desastre em Antioquia ocorreu durante a primavera de meados de 526 d.C. A data exata é estimada entre os dias 20 e 29 de maio. O forte terremoto atingiu a Síria e Antioquia, uma cidade que ficava localizada perto do que é hoje a moderna Antakya, na Turquia. Cerca de 250 mil a 300 mil pessoas morreram em consequência do sismo, de acordo com os escritos históricos. Após o terremoto, um grande incêndio destruiu a maior parte dos edifícios que o desastre havia poupado.

5 – Ciclone da Índia
Em 25 de novembro de 1839, o que ficou conhecido como o “Ciclone da Índia” chegou à aldeia portuária de Coringa, localizado no estado de Andhra Pradesh, na Índia. O ciclone provocou uma onda de 40 metros, que destruiu grande parte da vila e a maioria dos navios perto da área. Cerca de 20 mil pessoas morreram afogadas no mar. Um total estimado de 300 mil pessoas perderam a vida em decorrência do ciclone.

4 – Ciclone Bhola
O pior ciclone já registrado na História, o Bhola, atingiu o Paquistão Oriental (o que é agora Bangladesh) e Oeste de Bengala, na Índia, no dia 12 de novembro de 1970, inundando grande parte das ilhas baixas do Ganges. Aproximadamente 500 mil pessoas morreram, principalmente por causa das inundações que resultaram da onda causada pelo ciclone ou ainda devido ao aumento do nível da água na costa.

3 – Terremoto de Shaanxi, na China
O dia 23 de janeiro, no longínquo ano de 1556, foi marcado pelo terremoto com o maior número de vítimas já registrado na História. O abalo ocorreu na província de Shaanxi e na província vizinha de Shanxi, localizadas no norte da China. O catastrófico terremoto teve uma magnitude estimada de 8 graus na Escala Richter e matou aproximadamente 830 mil pessoas. Acredita-se que 60% da população dessas províncias tenha morrido no desastre.

2 – Inundação do Rio Amarelo, na China
Esta foi a pior enchente única e o segundo pior desastre da História. Em setembro de 1887, o Rio Amarelo invadiu os diques na província chinesa de Henan. A enchente devastou 11 grandes cidades do país e centenas de aldeias, deixando milhões de desabrigados. As águas da enchente cobriram cerca de 130 mil quilômetros quadrados – área semelhante à da Grécia ou pouco menos que o estado do Amapá -, matando um número estimado de 900 mil a 2 milhões de pessoas.

1 – Inundações na China Central
O pior desastre natural da história foi o conjunto de enchentes que ocorreram entre julho e agosto de 1931, na região central da China. Na época, o rio Yangtze transbordou e causou uma série de inundações. Como resultado, um número estimado de 3,7 milhões de pessoas morreram de doenças, afogamentos e fome. De acordo com a Administração Nacional Oceânica e Atmosférica, mais de 51 milhões de pessoas, um quarto da população da China na época, foram direta ou indiretamente afetadas pelas inundações.

Fonte: http://hypescience.com/

Os 13 mais mortais naufrágios da história

Nós estamos no centésimo aniversário do naufrágio do Titanic, provavelmente o mais famoso de todos, graças a Hollywood. Mas poucos sabem que esse não foi o pior de todos. Para “comemorar” a ocasião, aqui vão os 13 mais mortais naufrágios da história:

13 – MS Estonia
Data: 24 de setembro, 1994
Local: Mar Báltico
Número de mortos: 852
O MS Estonia estava cruzando águas agitadas quando os passageiros começaram a ouvir barulhos metálicos. Em poucos minutos, as portas de carga quebraram, fazendo com que o deck inferior fosse inundado, pouco antes dos quatro motores pararem completamente. Apenas os que estavam no deck superior conseguiram sobreviver. 

12 – MV Bukoba
Data: 21 de maio, 1996
Local: Lago Vitória, Tanzânia
Número de mortos: 894
O MV Bukoba era uma balsa famosa pela regularidade. Não possuía coletes salva-vidas nem equipamentos contra incêndios. Mesmo assim a balsa sempre estava em movimento. Mas nesse dia, quando começou o trajeto, equipamentos grandes de cozinha, assim como pratos, talheres e panelas, começaram a cair e quebrar em um lado da balsa. O barulho assustou os passageiros, que correram para um lado do deck, fazendo o navio virar.

11 – HMT Royal Edward
Data: 13 de agosto, 1915
Local: Kandeliusa, Mar Egeu
Número de mortos: 935
O Royal Edward era um navio de passageiros, usado para transportar tropas britânicas durante a Primeira Guerra Mundial. Às 10 da manhã, ele foi atingido por dois torpedos alemães, e rapidamente enviou um sinal de SOS, antes de perder a energia. A popa afundou em apenas seis minutos. A maior parte dos homens estava nos decks inferiores, o que explica o grande número de mortos. 

10 – SS Hong Moh
Data: 3 de março, 1921
Local: Sul do Mar Chinês
Número de mortos: 1000
Em 1921, o navio de passageiros SS Hong Moh bateu nas Rochas Brancas, na Ilha de Lamock. O navio quebrou em duas partes; quando o primeiro bote de resgate chegou, três dias depois, a maior parte dos passageiros e tripulação já havia morrido. 

9 – RMS Empress of Ireland
Data: 29 de maior, 1914
Local: Pointe-au-Père, Quebec
Número de mortos: 1012
O navio canadense Empress of Ireland estava descendo o Rio Saint Lawrence sob forte neblina quando colidiu com outro navio. O Empress afundou rapidamente, ao contrário do outro, que não afundou. Esse foi por muito tempo o pior desastre marítimo da história canadense. A carcaça permanece a cerca de 40 metros de profundidade, o que permite que mergulhadores cheguem até ali – inclusive para roubar relíquias. 

8 – MS al-Salam Boccaccio 98
Data: 3 de fevereiro, 2006
Local: Mar Vermelho
Número de mortos: 1018
O al-Salam Boccaccio já deixou o porto com condições ruins de tempo. Um incêndio começou na sala de motores e a equipe começou a usar baldes de água do mar para tentar extinguir o fogo. O incêndio parou por algum tempo, mas logo começou novamente. O capitão tentou voltar para o porto, mas como os sistemas de drenagem de água pararam de funcionar, o navio virou. Ventos fortes e condições do tempo dificultaram o resgate.

7 – SS General Slocum
Data: 15 de junho, 1904
Local: East River, Nova York
Número de mortos: 1021
A balsa SS General Slocum estava carregando membros da Igreja Luterana-Evangélica para um picnic, quando um incêndio começou, na sala de lâmpadas. As chamas cresceram rapidamente, alimentadas pelo óleo e gasolina. O equipamento de segurança não estava em dia. Os coletes salva vidas queimaram e os botes estavam inacessíveis. No fim, os passageiros tiveram que pular, e aqueles que não sabiam nadar acabaram se afogando com as pesadas roupas da época.

6 – RMS Lusitânia
Data: 7 de maio, 1915
Local: Irlanda
Número de mortos: 1198
O Lusitânia saiu de Nova York carregando uma carga escondida de munições e contrabando para a Inglaterra, assim como passageiros civis. O navio afundou em apenas 18 minutos, após um ataque de torpedos. O evento gerou uma discussão se um navio de passageiros poderia ser considerado um alvo militar, já que era na época da grande guerra. 

5 – RMS Titanic
Data: 14 de abril, 1912
Local: Norte do Oceano Atlântico
Número de mortos: 1517
Quando saiu para sua viagem, o Titanic era o maior barco de todos. Como todos sabemos, ele bateu em um iceberg e afundou no meio do oceano, em rota para a Nova York. Foi sua primeira e única viagem. 

4 – SS Sultana
Data: 27 de abril, 1865
Local: Rio Mississipi
Número de mortos: 1547
O SS Sultana era um barco que cruzava o rio Mississipi usando como fonte de energia pás d’água, presas em grandes rodas. Ele afundou após a explosão de três das quatro caldeiras. Apesar de ser considerado o maior desastre marítimo da história americana, o evento teve pouca atenção na época porque o assassinato do presidente Abraham Licoln por John Wilkes Booth e o fim da Guerra Civil Americana haviam acontecido poucos dias antes. 

3 – MV Joola
Data: 26 de setembro, 2002
Local: Gâmbia
Número de mortos: 1863
O Joola, uma balsa governamental desenhada para carregar um máximo de 580 passageiros, tinha pelo menos dois mil a bordo quando partiu durante uma perigosa tempestade, em 2002. Ela afundou em apenas cinco minutos, matando quase todos. 

2 – SS Kiangya
Data: 4 de dezembro, 1948
Local: Rio Huangpu, norte de Shanghai
Número de mortos: 2750–3920
O Kiangya, um barco de passageiros repleto de fugitivos da Guerra Civil Chinesa, explodiu e afundou após bater no que se acredita ser uma mina deixada pela Marinha Imperial Japonesa. 

1 – MV Doña Paz
Data: 20 de dezembro, 1987
Local: Filipinas
Número de mortos: 1565
A maior parte dos passageiros do MV Doña Paz estava dormindo quando o navio colidiu com o MT Vector, um navio tanque que carregava 8.800 barris de gasolina e petróleo. A colisão gerou um incêndio no Vector que se espalhou para o Doña Paz, deixando os passageiros sem escolha a não ser pular nas águas infestadas de tubarões. As estimativas de mortos variam devido aos passageiros não identificados, podendo ser maior do que quatro mil, fazendo deste um dos mais mortais naufrágios da história. 

Fonte: http://gizmodo.com/

Partícula exótica em crise de identidade é observada pela primeira vez

Depois de tantos anos, a tão procurada partícula de Majorana finalmente foi encontrada. O feito é dos cientistas da Universidade Tecnológica de Delft, na Holanda, e da Fundação para Pesquisa Fundamental da Matéria, também nos países baixos.

Na década de 1930, o físico italiano Ettore Majorana deduziu da teoria quântica a possibilidade de uma partícula bastante especial existir: a partícula que é sua própria antipartícula. Essa seria o férmion de Majorana, que estaria bem na fronteira entre a matéria e a antimatéria.

Os resultados da pesquisa – financiada também pela Microsoft – foram publicados na revista “Science”, sob a liderança do físico Leo Kouwenhoven.

O férmion de Majorana é bastante interessante não só porque sua descoberta abre novas possibilidades para a física fundamental, mas também por ter um papel na cosmologia.

Uma teoria proposta há alguns anos defende que a matéria escura, que forma grande parte do universo, é composta pelos férmions de Majorana. 

Além disso, os cientistas acreditam que essas partículas possam ser fundamentais para a computação quântica. Tudo isso ainda é apenas especulação científica, mas, segundo os pesquisadores, computadores quânticos que utilizassem esses férmions seriam excepcionalmente estáveis e quase imunes a influências externas.

O grupo de pesquisadores conseguiu criar um dispositivo eletrônico em escala nano, no qual um par desses férmions “apareceram”.
 
Os especialistas fizeram isso combinando um fio nano, portanto extremamente pequeno, feito por colegas da Universidade Tecnológica de Eindhoven, na Holanda, com materiais supercondutores e com um campo magnético bastante forte.

“As medições da partícula não podem ser explicadas por outra razão que não seja a presença de um par de férmions de Majorana”, explica Kouwenhoven.

Embora o Grande Colisor de Hádrons não pareça ser tão sensível quanto necessário para detectar esses férmions, existe outra possibilidade: eles podem aparecer em nanoestruturas.

“A magia na mecânica quântica é que a partícula de Majorana criada dessa maneira é similar a outras observadas em um acelerador de partículas, embora sejam difíceis de compreender”, diz Kouwenhoven.

A vida de Ettore Majorana foi tão misteriosa quanto sua partícula. Em 1938, ele retirou todo o seu dinheiro do banco e desapareceu durante uma viagem de Palermo para Nápoles. Se ele se suicidou, se foi assassinado ou se viveu com uma identidade diferente, ainda é fato desconhecido. Certo é que nenhum traço de Majorana jamais foi encontrado. 

Fonte: http://www.sciencedaily.com/

Portais para outros Universos. Ciência ou Ficção?

CIENTISTAS AFIRMAM A EXISTÊNCIA DE PORTAIS PARA OUTROS UNIVERSOS

Os pesquisadores Panagiota Kanti, Burkhard Kleihaus e Jutta Kunz afirmam que portais espaços-temporais para outros universos são bem mais simples de serem construídos do que o especulado até agora e que não necessitam de matéria com energia negativa (ou antigravidade) para serem formados.

E ainda defendem que é bem provável que exista uma porção destes portais espalhados por aí, neste nosso lado do espaço, basta saber onde e como procurá-los.

O conceito de portal espaço-temporal tem como ponto de partida a teoria de Einstein, que preconiza que a gravidade nada mais é do que uma curvatura do espaço-tempo causada pela conjugação da massa-energia em valores astronômicos, como a encontrada em grandes corpos celestes, tais como planetas e estrelas, por exemplo.

Em 1916 o físico Ludwig Flamm defendeu que duas curvaturas espaços-temporais em coordenadas distintas poderiam se unir formando pontes ou conduítes, estudo também desenvolvido por Einstein e Nathan Rosen (a famosa ponte Einsten-Rosen citada no romance Contato de Carl Sagan) que aventaram que a única conexão oferecida para estas pontes no espaço-tempo seria para um universo paralelo, coisa difícil de defender naquela época.

Já em 1921, Theodor Kaluza e Oskar Klein propuseram que a gravidade ao invés de ser uma curvatura de um continuum quadridimensional (ou seja, três dimensões espaciais e uma temporal) como defendido por Einstein seria em verdade uma curvatura de um tecido espaço-tempo de cinco dimensões.

Foi em 1955 que o físico norte-americano John Wheeler retomou a ideia, porém demonstrando matematicamente a possibilidade teórica de conectar duas regiões do nosso próprio Universo, denominando esse conduíte de “whorm hole” — os célebres buracos de minhoca — valendo-se da tal matéria com energia negativa que produziria a tão sonhada antigravidade.

Mesmo com a consistência das teorias de Einstein que bravamente vem resistindo a muitos ataques e têm sido confirmadas por inúmeras observações de eventos cósmicos do espaço profundo, muitos cientistas acreditam que este conjunto coerente de teorias criado por Einstein seria uma particularização de uma teoria mais geral ainda, tendo em vista a dificuldade de se estabelecer uma “mecânica quântica da gravidade” e também explicar alguns poucos, porém importantes fenômenos cósmicos que lhes escapam, tais como a singularidade dos buracos negros.

Transcendendo o proposto por Kaluza-Klein, a teoria das cordas afirma que todas as quatro forças fundamentais do universo (elétrica, gravitacional, interação forte e interação fraca) podem ser explicadas pela curvatura de um continuum espaço-tempo de onze dimensões (dez coordenadas espaciais e uma temporal).

No proposto por Kleihaus, Panagiota Kanti e Jutta Kunz as seis dimensões espaciais adicionais que não percebemos por que são pequenas demais (menores que trilionésimos de milímetro) podem ser compactadas por campos de forças adicionais, entre eles o “dilaton”, proporcionando um termo adicional para se gerar uma “nova curvatura” que não necessite de antigravidade para ser criada.

Alguém atento poderia contrapor que este termo adicional resultado da compactação das seis dimensões submicroscópicas geraria um buraco de minhoca muito diminuto, impossível de ser observado.

No entanto o trio de cientistas afirma que a inflação do Universo pode ter aumentado esses buracos de minhoca a ponto de eles superarem a ordem de grandeza das dimensões humanas, como um pequeno círculo desenhado sobre uma bexiga vai aumentando seu raio à medida que a mesma aumenta seu volume quando for inflada.

“A inflação [do Universo] pode ter dilatado os minúsculos buracos negros que permeiam o tecido submicroscópico do espaço-tempo,” propõe Kleihaus, gerando uma “porta para outros universos”.

Esse assunto ainda vai render muita discussão no mundo acadêmico e da parte que me cabe uma boa fonte de inspiração para criar novas histórias de FC, tentando imaginar como seria a viagem por estes portais.

Enquanto isso, podemos nos valer das simulações dos “whorm holes” transitáveis para nosso próprio universo, criadas pelo astrofísico Andrew Hamilton, fundamentadas nas soluções de Reissner e Nordström propostas para as famosas equações de Einstein.

Fonte: http://hypescience.com/

Quais exames inúteis seu médico está solicitando?

Às vezes, os médicos são os principais responsáveis por pedir exames ou sugerir tratamentos desnecessários. Para economizar tempo e dinheiro, nove grandes grupos médicos, cada qual de uma especialidade, elaboraram uma lista.

Nela constam cinco exames e/ou tratamentos que poderiam ser evitados, sem retirar qualquer benefício médico dos pacientes. A iniciativa foi uma ideia de Howard Brody.

Depois de meses de análises por parte de comitês de especialistas, as nove primeiras especialidades a terem suas listas estabelecidas foram cardiologia, cardiologia nuclear, oncologia, radiologia, nefrologia, gastroenterologia, medicina de família, medicina geral e alergologia.

A importância dessas listas reside no fato de que tratamentos desnecessários podem acarretar péssimas consequências para a saúde do paciente, que, por exemplo, é exposto em excesso à radiação ou toma remédios além da conta.

Confira as listas!

Alergologia
  • Exames de imunoglobulina G (IgG) e uma bateria indiscriminada de testes de imunoglobulina E (IgE) devem ser evitados.
  • Não peça tomografia computadorizada da cavidade nasal e não prescreva antibióticos para rinossinusite aguda sem complicações.
  • Não faça testes diários de diagnóstico em pacientes com urticária crônica.
  • Em casos de infecção, não recomende a reposição de imunoglobulina, a menos que haja resposta dos anticorpos às vacinas terapêuticas.
  • Não diagnostique asma sem fazer espirometria.
Medicina de família
  • Caso sinta dores nas costas, não faça raio-X da região nas primeiras seis semanas, a menos que existam fatores de risco.
  • Não prescreva antibióticos para sinusite fraca ou moderada, a não ser que os sintomas durem sete dias ou mais, ou a menos que os sintomas piorem depois de uma pequena melhora clínica.
  • Não faça absorciometria de raios-X de dupla energia para casos de osteoporose em mulheres abaixo de 65 anos ou em homens abaixo de 70, sem fatores de risco.
  • Não peça eletrocardiogramas anualmente ou qualquer outro exame cardíaco para pacientes com baixo risco e sem sintomas.
  • Não faça o teste de Papanicolau em mulheres que tenham menos de 21 anos ou em mulheres que fizeram histerectomia por doenças não relacionadas a cânceres.
Cardiologia
  • Não faça exames cardíacos que possam ser estressantes ou não invasivos na avaliação inicial de pacientes sem sintomas cardíacos, a não ser que existam fatores de alto risco.
  • Não realize exames cardíacos que possam ser estressantes ou não invasivos em pacientes assintomáticos.
  • Não faça exames cardíacos que possam ser estressantes ou não invasivos, como uma avaliação de pré-operatório, em pacientes programados para passar por cirurgias não cardíacas de baixo risco.
  • Não faça ecocardiogramas como se fosse um exame de rotina para doenças assintomáticas de válvula nativa em pacientes adultos com nenhuma mudança dos sintomas.
  • Não faça colocação de stent de lesões não culprit durante angioplastia coronária para enfartos estáveis e sem complicações do tipo STEMI.
Medicina geral
  • Não realize eletrocardiograma em indivíduos assintomáticos e com baixo risco para doenças coronárias.
  • Não faça exames de imagens em pacientes com dores lombares não específicas.
  • Na avaliação de síncope simples (desmaio) e na avaliação neurológica normal, não realize tomografias computadorizadas ou ressonância magnética.
  • Em pacientes com baixa probabilidade de tromboembolismo venoso, obtenha a medida de D-dímero como um teste de diagnóstico inicial; não faça imagens computadorizadas como parte desse diagnóstico inicial.
  • Não realize radiografias pré-operatórias do peito na ausência de suspeita clínica de patologia intratoráxica.
Radiologia
  • Não faça exames computadorizados para dores de cabeça simples.
  • Não realize exames computadorizados para suspeita de embolia pulmonar sem probabilidade moderada ou alta (pré testada).
  • Evite raios-X do peito para pré-operatórios para pacientes ambulatoriais com histórico clínico e exames físicos normais.
  • Não faça tomografia computadorizada para avaliar suspeitas de apendicite em crianças até que o ultrassom seja considerado uma opção.
  • Não recomende exames computadorizados para cistos anexiais sem maiores perigos clínicos.
Gastroenterologia
  • Para tratamento farmacológico de pacientes com refluxo gastroesofágico, a terapia de supressão ácida deveria ser administrada na menor dose necessária, para atingir os objetivos terapêuticos.
  • Não repita imageamento para câncer colorretal (seja qual for o método) por 10 anos, depois de uma colonoscopia de alta qualidade ter dado negativo em indivíduos que tenham o fator de risco da idade.
  • Não repita colonoscopia por pelo menos cinco anos para pacientes que tenham um ou dois pólipos adenomatosos pequenos (menor que 1 centímetro), sem displasia.
  • Para o paciente que é diagnosticado com o esôfago de Barrett e que já fez duas endoscopias, que confirmam a ausência de displasia na biópsia, um exame de vigilância posterior não precisa ser feito em um período menor que três anos.
  • Para um paciente com síndrome da dor abdominal funcional, a tomografia computadorizada não deve ser repetida, a menos que haja mudança no quadro clínico.
Oncologia clínica
  • Não utilize terapias direcionadas ao câncer para pacientes com tumores sólidos e com as seguintes características: status de desempenho baixo (3 ou 4), nenhuma melhora de intervenções anteriores, não elegíveis para interferência cirúrgica e sem evidências clínicas de que tratamentos contra a doença poderão funcionar.
  • Não faça tomografia computadorizada, tomografia emissora de pósitron ou scan de radionuclídeo dos ossos, em níveis iniciais de câncer de próstata, com baixo risco de metástase.
  • Não faça tomografia computadorizada, tomografia emissora de pósitron ou scan de radionuclídeo dos ossos, em níveis iniciais de câncer de mama, com baixo risco de metástase.
  • Não realize testes com biomarcadores ou imageamentos para indivíduos assintomáticos, que trataram câncer de mama com terapia curativa.
  • Não use estimuladores das células brancas para prevenção primária ou neutropenia febril para pacientes com menos de 20% de risco de complicações.
Nefrologia
  • Não realize imageamentos rotineiros para detectar câncer em pacientes dialisados, que tem expectativas de vida limitadas sem qualquer sinal ou sintoma.
  • Não administre agentes estimulantes de eritropoiesis em pacientes com doença renal crônica, em que os níveis de hemoglobina sejam maiores ou iguais a 10g/L e que não tenham sintomas de anemia.
  • Evite drogas anti-inflamatórias não esteroidais em indivíduos com hipertensão e outras doenças cardíacas.
  • Não coloque cateteres centrais de inserção periférica em pacientes com doença renal crônica (do estágio III ao V), sem consultar um nefrologista.
  • Não inicie diálise crônica sem se assegurar que a decisão foi tomada em conjunto pelo paciente, sua família e seus médicos.
Cardiologia nuclear
  • Não faça imageamentos cardíacos ou angioplastia coronária em pacientes sem sintomas cardíacos, a não ser que tenham fatores de alto risco.
  • Não faça imageamentos cardíacos para pacientes com baixo risco.
  • Não realize imageamentos de radionuclídeos como parte de exames de rotina em pacientes assintomáticos.
  • Não faça imageamentos cardíacos, como avaliação pré-operatória, em pacientes que passarão por cirurgias não cardíacas de risco baixo ou intermediário.
  • Use métodos para reduzir a exposição à radiação em imageamentos cardíacos sempre que possível.
Fonte: http://www.nytimes.com/

Astrônomo encontra evidência de sistema com nove planetas

Um estudo conduzido pelo astrônomo Mikko Tuomi, da Universidade de Hertfordshire, no Reino Unido, revelou que o sistema planetário ao redor da estrela HD10180 pode ter mais planetas em sua órbita do que nosso sistema solar. 

Tuomi realizou sua análise na qualidade de membro da rede de pesquisas intitulada RoPACS – cujo enfoque é descobrir e estudar planetas extrassolares ao redor de estrelas frias.

Em 2010, os cientistas tinham provas de que a estrela só era orbitada por sete planetas. Mas, agora, o estudo de Tuomi indica a existência de 9 planetas. Os dois novos planetas são os classificados como planetas superquentes, com períodos orbitais de cerca de 10 a 68 dias.

A estrela da qual falamos está localizada há 130 anos-luz de nós, portanto não está no campo de visão das viagens espaciais, mas parece estar nas vizinhanças do sistema solar.

A descoberta é significativa e quebra um recorde, pois a maioria dos sistemas descobertos têm, de longe, menos planetas. Mas mais pesquisas se fazem necessárias para colocar o HD10180 como o sistema planetário mais rico de que se tem notícia. 

Fonte: http://www.sciencedaily.com/

Nosso universo pode não ser o primeiro – nem o último

A atual teoria amplamente aceita do começo vida e do universo diz que tudo que existe agora nasceu de um “pacote pequeno e apertado” a partir do qual houve a explosão conhecida como Big Bang, cerca de 13,7 bilhões de anos atrás. Essa explosão arremessou violentamente tudo à existência. 

Mas 13,7 bilhões anos para chegar onde estamos não é suficiente para alguns especialistas. O físico Roger Penrose tem uma teoria diferente: ele acredita poder provar que as coisas não são ou não foram tão simples assim.

Com base em uma evidência encontrada na radiação cósmica de fundo, o físico afirma que o Big Bang não foi o começo do universo, mas um em uma série de Big Bangs cíclicos, sendo que cada um desses Big Bangs gerou o seu próprio universo.

Apesar de haver teorias meio malucas, a ideia do físico parece ser relativamente possível. Ele afirma ter encontrado as provas de que precisava para sustentar sua hipótese do universo cíclico na radiação cósmica. A radiação cósmica de fundo deve ter começado a existir quando o universo tinha apenas 300 mil anos de idade, e por isso é tratada como uma espécie de registro do estado do universo naquele momento.

Pela estimativa do cientista, o nosso universo não é o primeiro, e mais importante, nem será a último. Na verdade, é esse alto grau de ordem aparentemente presente desde o nascimento do universo que levou o físico a essa linha de pensamento. 

O atual modelo do Big Bang não fornece um motivo para que um estado altamente ordenado e uma baixa entropia existissem no momento do nascimento do nosso universo, a menos que as coisas fossem colocadas em ordem antes de ocorrer o Big Bang.

De acordo com Penrose, cada universo retorna a um estado de baixa entropia à medida que se aproxima do dia final da sua expansão ao nada. Os buracos negros, devido ao fato de que sugam tudo o que encontram, passam suas vidas trabalhando para “limpar” a entropia do universo. E, conforme o universo se aproxima do seu fim, os buracos negros se evaporam, colocando as coisas de volta em um estado de ordem. Incapaz de se expandir mais, o universo “se colapsa” e volta a ser um sistema altamente organizado, pronto para disparar o próximo Big Bang.

O modelo atual do universo diz que qualquer variação de temperatura na radiação cósmica de fundo deve ser aleatória, mas o físico afirma ter encontrado círculos concêntricos muito claros dentro dessa radiação, sugerindo regiões onde a radiação tem faixas de temperatura muito menores. Essas seriam as evidências esféricas dos efeitos gravitacionais das colisões de buracos negros durante o universo anterior. Os círculos se encaixam bem em sua teoria, mas não são tão coerentes na teoria padrão do Big Bang.

Ainda assim, não é possível afirmar que a nova teoria seja mais verdadeira. O físico ainda tem que “ligar” algumas pontas soltas de seu trabalho, e provar alguns pressupostos. Seus estudos vão ser examinados cuidadosamente, e quem sabe um dia sua teoria pode vir a revolucionar os fundamentos da física moderna.

Fonte: http://hypescience.com/

A morte do universo está bem mais próxima do que imaginávamos

Carros ficam sem gasolina, estrelas ficam sem gás e galáxias são engolidas por buracos-negros. Enquanto isso o Universo e tudo o que há nele está acabando, ficando “gasto”. E pesquisadores descobriram que, na verdade, o Universo está 30 vezes mais gasto do que os astrônomos imaginavam.
 
Cientistas conseguiram calcular a entropia do Universo. Caso você não se lembre de suas aulas de física e química, entropia é a quantidade de energia que pode ser extraída de algo ou de um sistema – por exemplo, podemos medir a eficiência de um motor, quanta energia um combustível fornece ou, nesse caso, a desordem de um sistema.

Usando o tamanho e a quantidade de buracos negros conhecidos, os pesquisadores descobriram que o Universo contém 30 vezes mais entropia do que eles imaginavam. A descoberta também aponta que, por mais que galáxias, estrelas e tudo o mais que há no Universo contribua para a entropia e a desordem, são os buracos-negros supermassivos que são os maiores responsáveis.

Segundo os cientistas, essa descoberta tem fortes implicações na nossa vida e em uma possível vida extraterrestre. O Universo começou com uma entropia baixa e, de acordo com a segunda lei da termodinâmica, essa entropia foi aumentando desde então. Agora o próximo passo é descobrir a quantidade de energia disponível em vários cantos do Universo para calcular se, com essa quantidade de “combustível”, a vida é possível.

Fonte: http://www.sciencedaily.com/

Novas observações: o universo está expandindo como um balão gigante

Todo mundo sabe que o universo está expandindo. É fato consumado que essa expansão está acelerando. Mas novas medidas de galáxias brilhantes e distantes feitas por cientistas da Universidade de Tóquio, no Japão, através de lentes gravitacionais, indicam que o universo está “crescendo” como um balão gigante.

A primeira medida desse fenômeno, baseada em supernovas, foi feita na década de 1990, pelos pesquisadores laureados com o Prêmio Nobel de Física, em 2011. “Mas o método usado pelos laureados foi construído em cima de várias suposições, por isso se fazem necessárias checagens desses resultados, para dar mais robustez à conclusão”, explica Masamune Oguri, líder do grupo de pesquisa na Universidade de Tóquio.

Segundo Oguri, a expansão cósmica acelerada é um dos problemas centrais da cosmologia moderna, e tais resultados também ajudarão na compreensão da energia escura, que, de acordo com os cientistas, é a principal responsável pela aceleração da expansão do universo.

Mais informações precisas só serão informadas no periódico “Astronomical Journal”, onde os pesquisadores publicarão um artigo.

Fonte: http://www.livescience.com/

Aviões “bolha dupla” são o futuro da aviação?


Esse avião rechonchudo aí em cima é o D8, também chamado de “bolha dupla” pelos seus projetistas do Instituto de Tecnologia de Massachussetts (MIT, na sigla em inglês).

A Agência Espacial Norte-Americana (NASA) tem dado suporte a esse projeto, como também a outros, que prometem revolucionar as viagens comerciais aéreas, a fim de que, até 2035, tenhamos um avião com uma eficiência de 70%.

A ideia é ter uma fuselagem mais larga para ganhar maior sustentação. As asas serão mais finas e, assim, irão diminuir o peso e o arrasto da aeronave. Outro fator que contribuirá para isso são os motores terem sido levados para a traseira. E 50% da eficiência energética prometida vêm justamente dessas mudanças no design.

Além disso, as promessas dessa nova aeronave são: redução de 71 decibéis abaixo da norma atual de ruído, redução de 75% para as emissões de óxidos de nitrogênio – o que melhora a qualidade do ar, principalmente em torno dos aeroportos –, redução de 70% no consumo de combustível e capacidade de utilizar as pistas dos aeroportos de uma forma otimizada, o que permitirá que mais aviões utilizem as pistas.

Agora a NASA e o MIT testarão um modelo da “bolha dupla” em escala menor em um túnel subsônico de ar. Em até 33 anos, você poderá estar voando em um desses.

Fonte: http://hypescience.com/

Nova descoberta pode triplicar o número de estrelas conhecidas do universo

Segundo um novo estudo, estrelas chamadas de anãs vermelhas podem ser muito mais comuns do que se pensava, o suficiente para triplicar o número total de estrelas conhecidas no universo.

As anãs vermelhas são fracas, e tem apenas 10 a 20% de massa em comparação com outras estrelas como o sol. Sendo assim, os astrônomos não conseguiam detectá-las em outras galáxias além da Via Láctea e as vizinhas mais próximas.

Agora, os astrônomos usaram poderosos instrumentos científicos para detectar a assinatura das anãs vermelhas em oito enormes galáxias, chamadas elípticas, localizadas entre cerca de 50 milhões a 300 milhões de anos-luz de distância da Terra. Medir e quantificar a luz dessas estrelas incrivelmente fracas em galáxias além da Via Láctea é um avanço significativo para a astronomia.

As galáxias elípticas são algumas das maiores galáxias do universo. Os cientistas acreditam que a maior delas armazena mais de um trilhão de estrelas, em comparação com 400 bilhões de estrelas na Via Láctea.

Os resultados sugerem que pode haver de 5 a 10 vezes mais estrelas dentro de galáxias elípticas do que se pensava: as melhores estimativas são de cerca de 100 sextilhões, ou seja, um 1 com 23 zeros na frente, o que triplicaria o número total de estrelas conhecidas no universo.

Os pesquisadores, entretanto, alertam que o número total de estrelas do universo permanece obscuro. Inclusive, determinar a população total de estrelas no cosmos exigiria que se soubesse o número exato de galáxias, portanto a quantidade estimada continua sendo bastante incerta. 

Se os resultados forem confirmados, as anãs vermelhas são muito mais comuns do que o esperado, com as galáxias elípticas possuindo, cada uma, cerca de 20 vezes mais anãs vermelhas do que a Via Láctea. Ao todo, as anãs vermelhas poderiam formar pelo menos 80% do número total de estrelas, e pelo menos 60% de toda a massa encontrada nas estrelas.

Ou seja, as galáxias podem conter menos da substância misteriosa chamada “matéria escura”, já que anãs vermelhas contribuem com mais massa do que se imaginava. Mas para afirmar isso, é necessário rever as atuais estimativas da massa e da atividade de formação de estrelas de galáxias próximas e distantes.

As novas descobertas podem também aumentar o número de planetas que poderiam abrigar vida. O aumento do número de anãs vermelhas significa que pode ser maior o número de planetas que orbitam estrelas, que por sua vez aumenta o número de planetas potencialmente habitáveis.

Há possivelmente trilhões de Terras orbitando essas estrelas. Além disso, as anãs vermelhas até agora descobertas tem tipicamente mais de 10 bilhões de anos, tempo suficiente para que organismos complexos evoluam. Essa é uma das razões pela qual os cientistas estão tão interessados neste tipo de estrela. 

Fonte: http://www.livescience.com/space/

Matéria escura ainda mais obscura: novo estudo confunde cientistas

Novas medições de galáxias pequenas contradizem o melhor modelo que explica a matéria escura até agora. A descoberta complica ainda mais a imagem já misteriosa da matéria escura, que se acredita que ocupa 98% de toda a matéria do universo. 

A matéria escura, o material invisível que se pensa que permeia o universo, só pode ser indiretamente detectada através de sua atração gravitacional sobre a matéria normal que compõe estrelas e planetas.

Apesar de não saber exatamente o que é a matéria escura, os cientistas construíram um bom modelo para descrever seu comportamento. Esse modelo prevê que a matéria escura é composta por exóticas partículas lentas e frias que se agregam por causa da gravidade.

Esse modelo da matéria escura fria descreve muito bem como a matéria se comporta na maioria das situações. No entanto, a teoria não funciona quando é aplicada a galáxias anãs, onde a matéria escura aparece mais espalhada do que deveria ser, de acordo com o modelo.

Em um novo estudo, pesquisadores calcularam a distribuição da massa de duas galáxias anãs usando um novo método que não depende de qualquer teoria da matéria escura. Os cientistas estudaram as galáxias anãs Fornax e Escultor, que orbitam a Via Láctea.

As novas medições contradizem a vigente teoria da matéria escura porque, de acordo com ela, os centros de galáxias devem ser embalados com aglomerados densos de matéria invisível. Mas a matéria escura parece estar espalhada uniformemente por Fornax e Escultor, bem como em outras galáxias anãs cuja distribuição da massa foram medidas de outras maneiras.

Se uma galáxia anã fosse um pêssego, o modelo cosmológico padrão diria que a matéria escura deveria estar no centro, como um caroço. Mas, em vez disso, as duas galáxias anãs estudadas parecem “pêssegos sem caroço”. Essas medições sugerem que alguma parte do modelo teórico da matéria escura deve ser revisto.

Galáxias anãs, como Fornax e Escultor, são lugares especialmente bons para estudar a matéria escura, porque elas são quase inteiramente compostas disso, de acordo com o que acreditam os cientistas. Apenas 1% da matéria de uma galáxia anã é matéria normal que compõe estrelas.

Para determinar onde e quanto de matéria escura habita as galáxias anãs, os pesquisadores estudaram os movimentos de 1.500 a 2.500 estrelas visíveis que refletem as forças gravitacionais agindo sobre elas a partir da matéria escura.

Alguns pesquisadores sugerem que quando a matéria escura interage com a matéria normal, ela tende a se espalhar, diminuindo assim a densidade de matéria escura no centro das galáxias. No entanto, até agora, o modelo de matéria escura fria não prevê isso.

Ou a matéria normal afeta a matéria escura mais do que os cientistas pensavam, ou ela não é fria e lenta. Depois desse estudo, cientistas sabem ainda menos sobre a matéria escura do que conheciam antes.

Fonte: http://www.livescience.com/

Foto: Colisões galácticas e matéria escura


Parece uma junção entre o clássico Star Trek e uma balada da época disco, mas na verdade estamos vendo uma imagem da matéria escura e de gás quente no coração do aglomerado de galáxias Abell 520. 

A 2,4 bilhões de anos-luz da Terra, esse aglomerado se formou a partir do choque de uma série de aglomerados menores de galáxias. Nos escombros dessas colisões, os astrônomos encontram um núcleo enorme de galáxias brilhantes e uma fonte de estudo da matéria escura. 

Essa imagem combina registros de três diferentes telescópios, o Hubble, o Chandra e o do Havaí.

A cor natural das galáxias foi camuflada com a luz estelar laranja, e as áreas verdes representam as nuvens de gás quente que restaram da colisão. É a parte central azul do mapa que mostra a localização da maior parte da massa do Abell 520, com muito gás, mas poucas galáxias. Esse núcleo denso de matéria escura revela que as galáxias não estão ancoradas à matéria escura, como se pensava antes.

Fonte: http://www.newscientist.com/

Objeto misterioso deixa astrônomos sem palavras

Em um momento você não vê e noutro vê o objeto que está exatamente no meio do nada, aparentemente nem sequer dentro de uma galáxia. Até mesmo a causa das suas características espectrais é desconhecida. 

Em um artigo publicado na revista científica Astrophysical Journal, astrônomos disseram ter encontrado um novo tipo de coisa que eles não conseguiram entender.

Os cientistas do projeto Supernova Cosmological Project, da Universidade de Berkeley nos EUA, usaram o Telescópio Espacial Hubble para monitorar agrupamentos de galáxias procurando por supernovas. Em fevereiro de 2006, quando olhavam em direção à Constelação do Norte, o Hubble detectou um objeto que começou a brilhar. 

Ele continuou a brilhar por 100 dias e chegou a 21ª magnitude em duas cores próximas do infravermelho. Em seguida ele foi se apagando em uma escala de tempo similar, até que nada restou para ver. O objeto brilhou e apagou em um fator de ao menos 120 vezes, talvez mais.

O objeto misterioso não se comportou como nenhum tipo de supernova conhecida. Não é também uma galáxia detectável. “A forma da luz curva é inconsistente…”, disseram os pesquisadores. Eles gravaram três espectros do objeto e, segundo escreveram, os espectros “além se serem inconsistentes com todos os tipos conhecidos de supernovas, não mostraram compatibilidade com qualquer espectro” de uma grande e importante base de dados com uma vasta quantidade de objetos chamada Sloan Digital Sky Survey database. “Nós sugerimos que o [objeto] transitório pode pertencer a uma nova classe.”

Qual é a distância? Este seria certamente o primeiro passo para começar a desvendá-lo, mas a sua falta de movimento com relação a nós, chamado de movimento paralaxe, diz que ele não pode estar a menos de 130 anos-luz de distância. Porém, a falta de absorção de hidrogênio cósmico no seu espectro significa que também não pode estar mais distante do que 11 bilhões de anos-luz. É um intervalo considerável.

O artigo que tem como autor principal o pesquisador Kyle Barbary pode ser baixado aqui, com todos os detalhes.

Fonte: http://hypescience.com/

Matéria escura protege galáxias

O telescópio Hubble, da NASA, descobriu novas evidências de que galáxias estão contidas e protegidas por halos de matéria escura – a forma invisível de matéria que compõe a maior parte da massa do universo. 

A matéria escura é invisível, e ninguém sabe exatamente o que é, mas sua existência é comprovada pelo fato das galáxias se manterem juntas no universo. Alguma substância invisível vaga pelo espaço, concentrada em galáxias, gerando gravidade em quantidades além da matéria visível.

Olhando dentro do tumultuado coração do aglomerado de galáxias Perseu (localizado a 250 milhões de anos-luz), o Hubble descobriu uma grande população de galáxias pequenas que permaneceram intactas, enquanto galáxias maiores ao redor estão sendo despedaçadas pela força gravitacional de galáxias próximas.

“Estamos surpresos por encontrar tantas galáxias anãs no núcleo deste aglomerado, as quais estão sem nenhum sinal de distúrbio causado por gravidade”, disse o astrônomo Christopher Conselice, da Universidade de Nottingham, na Inglaterra, e líder das observações pelo Hubble. “Estas anãs são galáxias muito antigas, que estão no aglomerado há muito tempo. Se alguma coisa iria desintegrá-las, já teria acontecido. Há uma quantidade muito grande de matéria escura nelas, provavelmente”.

As galáxias anãs podem ter quantidades ainda maiores de matéria escura do que galáxias espirais, como a Via Láctea. “Com estes resultados, não podemos dizer se a matéria escura contida nas anãs é maior do que na Via Láctea”, afirmou Conselice. “Ainda que o fato das galáxias espirais serem destruídas em grupos, enquanto as anãs não o são, sugira que este é o caso”.

Proposta inicialmente há 80 anos atrás, a matéria escura é tida como a “cola” que mantém as galáxias unidas. Astrônomos sugerem que a matéria escura fornece uma estrutura para a formação das galáxias através da atração gravitacional.

Fonte: http://www.livescience.com/

Misteriosa estrutura oculta do universo é observada pela primeira vez


Os últimos dias estão sendo agitados no campo da astrofísica. A empolgação geral com a comprovação da existência do bóson de Higgs praticamente encobriu outra descoberta fascinante: a matéria escura foi identificada diretamente pela primeira vez.

Pesquisadores do Observatório da Universidade de Munique, na Alemanha, detectaram uma gigantesca cadeia de matéria escura entre dois super-aglomerados de galáxias, Abell 222 e Abell 223. Astrônomos já haviam pressuposto que o espaço entre as galáxias era composto por matéria escura e fria, mas ela nunca havia sido detectada diretamente. Essa descoberta ajudará os cientistas a entender a evolução do universo.

O universo é preenchido com filamentos de matéria escura, uma misteriosa substância que não pode ser vista. Cientistas sabem que essa obscura estrutura existe porque ela pode ser detectada através de sua atração gravitacional. Calcula-se que a matéria escura componha cerca de 83% da massa de nosso universo.

Alguns cientistas eram céticos com a possibilidade de detectar filamentos de matéria escura atualmente, acreditando que seria necessário esperar por telescópios mais avançados. Mas graças à geometria espacial rara desses dois aglomerados de galáxias, os cientistas alemães conseguiram detectar sinais do que é conhecido como lente gravitacional fraca. O efeito dessa lente gravitacional faz com que a luz de um objeto, como uma galáxia, apareça com sua imagem inclinada na Terra quando passa perto de um aglomerado massivo.

A estrutura de matéria escura encontrada aparece justaposta com a distribuição de matéria comum, o que permite uma comparação sem precedentes entre as duas fontes de gravidade. A matéria escura pode ser detectada porque a forte gravidade do filamento que une os dois aglomerados de galáxias – que ficam a 2,7 bilhões de anos-luz de distância da Terra – funciona como uma lente para a luz que vem de galáxias mais distantes em direção ao nosso planeta. Astrônomos usaram essa luz para calcular a massa e o formato do filamento.

A partir de raios-X emitidos pelo gás quente de matéria comum, cientistas descobriram que essa matéria compõe apenas 9% da massa do filamento. Outros 10% podem ser atribuídos às estrelas e galáxias visíveis. E o restante? A famosa matéria escura, que conecta aglomerados de galáxias pelo universo.

Entender a relação entre a matéria comum e a matéria escura pode ajudar os cientistas a entenderem como a matéria escura é formada, e consequentemente, entender a estrutura do universo. No futuro – não tão distante, esperamos – poderá ser possível descobrir o que compõe a obscura e misteriosa matéria escura.

Fonte: http://hypescience.com/

Cosmólogos vêem nascimento do Universo

As imagens, produzidas por cientistas na Universidade Durham, no Reino Unido, mostram “o advento cósmico” – a formação das primeiras grandes galáxias do universo quando ele tinha apenas 500 milhões de anos.
 
O advento cósmico começou quando grandes estrelas eram destruídas, logo após o big bang. As galáxias se formavam do resto dessas estrelas. 

As pesquisas conseguiram determinar, através de cálculos, quando e como essas galáxias apareceram, e toda a sua evolução até hoje, 13 bilhões de anos depois. Os cientistas esperam que suas descobertas os ajudem a conhecer mais sobre a “matéria escura”, substância misteriosa que, teoricamente, constitui 80% do universo.

A força gravitacional produzida pela matéria escura é essencial para a formação das galáxias. E, estudando seus efeitos, a comunidade científica espera entender o que a matéria escura realmente é, já que, até agora, pouco se sabe sobre o assunto.

Álvaro Orsi, que coordenou as pesquisas, afirma que a presença da matéria escura é a chave para a construção das galáxias. “Sem matéria escura, não estaríamos aqui” declara.

O co-autor da pesquisa, Dr. Carlton Baugh, explica como o sistema funciona: “colocamos no computador o que achamos ser uma ‘receita’ para a formação de uma galáxia e comparamos o que produzimos com as galáxias de verdade”.

O trabalho dos especialistas da Universidade Durham combinou simulações de como a matéria escura afeta a formação de corpos espaciais com modelos mostrando como a matéria normal, gases, por exemplo, se comportam. Sendo assim, eles puderam ver como as galáxias teriam chegado ao seu estado atual.

Fonte: http://www.sciencedaily.com/