Mostrando postagens com marcador Evidências. Mostrar todas as postagens
Mostrando postagens com marcador Evidências. Mostrar todas as postagens

domingo, 19 de maio de 2019

Atenção: veja os potenciais danos que as telas de LED fazem aos seus olhos


Segundo um novo relatório da ANSES (Agência Francesa de Alimentos, Saúde e Segurança Ambiental e Ocupacional), a luz azul da iluminação LED, cada vez mais usada em nossas casas, pode danificar a retina do olho e perturbar nossos ritmos biológicos e sono.

Novas evidências científicas confirmam os “efeitos fototóxicos” da exposição de curto prazo à luz azul de alta intensidade, bem como um aumento do risco de degeneração macular relacionada à idade após exposição crônica a fontes de baixa intensidade.

LED

A tecnologia LED consiste em um chip semicondutor posicionado em uma superfície refletiva; quando a eletricidade passa pelo semicondutor, luz é produzida.

Também chamada de luz azul, a tecnologia não é nova, mas está passando por um rápido desenvolvimento tecnológico e econômico.

Por muitos anos, LEDs foram usados ​​apenas em eletrônicos, mas agora são encontrados como parte integrante dos sistemas de iluminação em todo o mundo, especialmente porque usam significativamente menos eletricidade por lúmen do que muitas tecnologias tradicionais de iluminação.

A ANSES diferencia tipos de luz azul em seu relatório. Por exemplo, a iluminação LED doméstica “branca quente” tem riscos de fototoxicidade fracos, semelhantes à iluminação tradicional. No entanto, outras fontes de iluminação LED, incluindo as lanternas mais recentes, faróis de automóveis e alguns brinquedos produzem uma luz azul mais branca e mais “fria” que também é mais prejudicial.

Vantagens x desvantagens
Um estudo americano também descreveu o uso da luz azul como “cada vez mais proeminente” no mundo de hoje. O principal autor da pesquisa, Gianluca Tosini, da Escola de Medicina Morehouse em Atlanta (EUA), disse que a luz pode realmente danificar os olhos, mas apenas se os comprimentos de onda estiverem abaixo de 455 nanômetros e a intensidade for bastante alta.

“Existem fotorreceptores de luz azul na retina que se comunicam diretamente com o relógio circadiano do cérebro”, contou Tosini à CNN. “É verdade que a exposição à luz à noite afeta o sono e os ritmos circadianos, principalmente inibindo a síntese do hormônio melatonina, promotor do sono”.

No entanto, ele também disse que alguns estudos mostraram que a exposição à luz azul no meio do dia pode ter efeitos benéficos na medida em que aumenta o estado de alerta.
Janet Sparrow, professora de ciências oftálmicas da Universidade de Columbia (EUA), concorda, afirmando que a luz azul ajuda os indivíduos a manter os ritmos diários que permitem o sono.

Por outro lado, a retina “acumula moléculas fluorescentes geralmente referidas como lipofuscina”, explicou Sparrow. “Estes compostos tornam-se mais abundantes com a idade e são sensíveis à luz azul”. Evidências iniciais sugerem que essa sensibilidade à luz pode levar a respostas ópticas doentias a longo prazo.

E agora?
No geral, os cientistas estão convencidos de que a exposição à luz azul LED na faixa de 470 a 480 nanômetros por um período curto a médio (dias a semanas) não deve aumentar significativamente o risco de doença ocular, mas o mesmo não é necessariamente verdade para um período de tempo muito longo (meses a anos).

“Acredito que mais estudos são necessários sobre este tema”, completou Tosini.
Em última análise, a ANSES acredita que o limite máximo recomendado para a exposição a curto prazo à luz azul deve ser revisado para baixo, mesmo que a maioria das pessoas raramente consiga atingir esse nível. Crianças e adolescentes, cujos olhos não filtram totalmente a luz azul, são particularmente sensíveis aos danos da luz LED fria.

A agência também recomendou que apenas dispositivos LED de baixo risco estejam disponíveis para os consumidores, e que a luminosidade dos faróis dos carros seja reduzida. [CNN]


sábado, 23 de julho de 2016

Álcool é causa direta de 7 tipos de câncer: quanto é preciso beber para estar em risco?

Um estudo recente indicou que o consumo de álcool é causa direta de pelo menos sete tipos de câncer. Mesmo sem o conhecimento completo sobre os mecanismos biológicos de como essa relação se dá no organismo, os pesquisadores concluíram que há “evidências epidemiológicas”, ou seja, quando se é comprovado um padrão de ocorrência da doença em um determinado grupo de pessoas, que atestam o fato.

A pesquisa ainda concluiu aquilo que muita gente, acostumada a um drinque ali e um copo de cerveja aqui, tinha medo: o risco de desenvolver a doença é dividido inclusive com pessoas que consomem quantidades moderadas de bebidas alcóolicas. Te explicamos a seguir mais detalhes deste estudo e quais os tipos de câncer são associados.

Bebida alcoólica x câncer

O estudo foi publicado no jornal científico Addiction (em inglês) e tem sido divulgado largamente pela imprensa internacional. Isto porque ele não só associa a bebida alcoólica ao surgimento de cânceres entre os que consomem quantidades abusivas, como também entre as pessoas que ingerem baixos níveis de álcool.

Os maiores riscos estão associados aos que bebem em maior quantidade, mas uma carga considerável pode ser associada a pessoas que consomem o álcool em níveis baixo ou moderado. O alerta se aplica a todos, entretanto, "devido à distribuição do consumo de bebidas alcoólicas entre a população". "Assim, a redução no consumo de álcool de toda população mundial terá um efeito importante sobre a incidência destas condições, pois promover campanha somente aos que consomem em níveis altos tem potencial limitado".

A conclusão se deu depois de mais de dez anos de estudo e análise de dados de entidades como Fundação Internacional de Pesquisa do Câncer, Agência Internacional de Pesquisa de Câncer e da Organização Mundial de Saúde (OMS).

Tipos de câncer

Os sete tipos de câncer apresentados no estudo são:
orofaringe (de garganta);
laringe;
esôfago;
fígado;
cólon;
reto;
mama.

As estimativas apresentadas no artigo mostram que cerca de meio milhão de mortes por câncer foram causadas pelo álcool, ou seja, 5,8% das mortes por câncer em todo o mundo.
Há ainda um aumento de evidências científicas que mostram a relação do álcool com o câncer de pele, próstata e pâncreas.

Níveis seguros de álcool
A pesquisadora responsável pelo estudo, Jennier Connor, destaca ainda que a ideia de que alguns níveis de álcool no organismo podem ser benéficos, como a de que uma taça de vinho faz bem para a saúde, “é cada vez mais falsa ou irrelevante em comparação ao aumento de riscos de se ter um câncer”. Isto significa que, de acordo com o estudo, não há níveis seguros de consumo de bebida alcoólica para se evitar o câncer.

Reversão dos riscos
Como atenuante, é possível reverter os riscos de câncer de fígado, laringe e faringe ao parar de se ingerir bebida alcóolica. No caso do câncer de fígado, em que uma das causas comuns é o abuso de álcool, os riscos de uma pessoa desenvolver um tumor primário se reduzem em 7% ao ano. Depois de 23 anos sem beber, é como se essa pessoa nunca tivesse ingerido uma gota de álcool.


segunda-feira, 29 de fevereiro de 2016

5 tipos de “evidência” científica que você não vai acreditar que são baboseiras

Supostamente a justiça deve ser cega, de modo a não ser perturbada por detalhes superficiais. Ela paira acima de todos, pesando de forma imparcial as acusações contra as evidências, e descobrindo a verdade. Ou pelo menos é como deveria ser em um mundo ideal.
O problema com a máquina da justiça é que tem suas engrenagens emperradas por nós, humanos. E a evidência que parece ser a mais sólida pode acabar se revelando cheia de problemas.

5. Impressões digitais não são cientificamente confiáveis
As digitais parecem ser uma evidência sólida. Elas têm sido usadas desde o século 19 por que, até onde sabemos, elas são únicas, e servem para identificar quem tocou alguma coisa.
O problema é que as digitais podem não ser tão únicas. E mesmo que forem, existem muitas variáveis que podem fazer com que digitais diferentes se pareçam. O primeiro problema é a coleta – dificilmente se obtém uma digital bonitinha, geralmente ela é só parcial, e aí começam os problemas de identificação errada (você pode ter um conjunto de similaridades, e a chance é maior se o criminoso é alguém da tua família).
Mas mesmo que a digital obtida seja razoável, ainda tem o problema do profissional que faz o reconhecimento. Ele pode olhar para a tua foto e decidir que você tem cara de culpado. E digital de culpado também.

4. Registros de celulares são praticamente inúteis
No mundo real, rastrear pessoas pelos telefones tem menos a ver com triangular sinais antes que o assassino desligue, e mais com examinar os registros de ligação durante a fase de investigação.
Torres de transmissão podem rastrear a localização do seu celular dentro de um raio de 3 km. O que pode não ser suficiente para iniciar uma perseguição, mas é mais que suficiente para potencialmente arruinar um álibi.
Só que rastrear o telefone pelas torres é bastante impreciso. O celular nem sempre se conecta com a torre mais próxima, e as torres nem sempre tem o mesmo alcance, e há muita sobreposição.
Com isso, pessoas tem sido presas, principalmente nos Estados Unidos, sob a alegação de que os registros telefônicos colocavam ela “exatamente” em um lugar próximo da cena do crime, poucas horas antes ou depois do crime.

3. Análise de fios de cabelos é muito subjetiva
A análise de fios de cabelos encontrados na cena do crime parece ser uma ciência exata: compare a amostra com uma amostra retirada do suspeito e pronto, mais uma vitória para os nerds do laboratório!
O problema é que comparar amostras de cabelo é altamente subjetivo. Uma análise feita em 2012 sobre 268 casos de condenação baseada em amostras de cabelo descobriu que 95% das comparações tinham falhas graves.
Mesmo o FBI admitiu em 2015 que a grane maioria dos analistas na sua equipe de elite de investigadores forenses exageraram suas descobertas para ajudar os promotores a conseguir condenações – em centenas de casos por 46 estados do EUA, com dezenas dos condenados terminando no corredor da morte.

2. A ciência da investigação de incêndio é basicamente errada
Incêndios criminosos custam bilhões de dólares e ceifam centenas de vidas, anualmente, nos EUA. Os peritos que examinam os restos do incêndio têm um aparato de metodologias complexas e um vasto conhecimento de química, e parecem capazes de descobrir coisas incríveis com os menores indícios.
Só que a vida real é um pouco diferente. A ciência na qual se baseia a análise de cenas de incêndio é muito falha, e baseada em bobagens, em vez de conhecimento científico. Pior, alguns investigadores fazem de tudo para não se atualizar com as descobertas científicas. Um estudo de 2004, feito por pesquisadores da Universidade de Cambridge, estimou que milhares de pessoas foram falsamente condenadas nos últimos 50 anos pelos peritos em incêndios.
Alguns investigadores baseiam seus métodos em uma coleção de regrinhas, alguns tipos de danos ou padrões de queima que eles acham que significam automaticamente um incêndio criminoso. Só que as pesquisas científicas recentes mostram que estes sinais que antes eram tidos como indícios seguros de um incêndio criminoso podem também acontecer durante incêndios acidentais.
Um destes sinais “seguros” é um padrão de rachaduras em vidraças, que está associado à um incêndio que aquece muito rápido, o que pode indicar o uso de um acelerador. Só que foi descoberto que se a janela for resfriada rapidamente, como quando a água da mangueira de incêndio atinge uma vidraça quente, o mesmo padrão de rachaduras aparece.

1. Testemunhas especialistas não são isentas e frequentemente entram em contradição
O sistema judicial americano se baseia muito no testemunho de especialistas. Afinal de contas, eles podem retirar sentido de uma situação complicada, e fazer alguma declaração apoiada na autoridade profissional. Só que eles nem sempre (quase nunca?) dão uma opinião honesta baseada apenas em fatos e na ciência.
E este é um fato tão sabido que o sistema judicial de lá já conta com isto. Se defesa e acusação apresentam seus próprios especialistas, e eles não concordam em alguma coisa, o juiz pode convocar seu próprio especialista para escolher qual dos especialistas deve ser levado em conta.
E os especialistas não respondem por suas afirmações. Eles estão apenas dando sua opinião e se ela estiver errada, bom, estar errado não é crime. E na maioria das vezes os especialistas sequer estão cientes do erro, já que ele é resultado de um viés inconsciente. A opinião do especialista acaba distorcida por que ele acaba tentando agradar a parte que o contratou, e isto geralmente é inconsciente. [Cracked]


sábado, 30 de maio de 2015

10 catástrofes naturais que os cientistas já previram para o futuro próximo

Todos os anos, nos deparamos com notícias de novos furacões, tornados, terremotos e outros desastres naturais atingindo o mundo. Embora algumas áreas sejam afetadas com mais frequência por estas catástrofes naturais do que outras, a maioria das pessoas teme condições meteorológicas extremas – aqui no Brasil, podemos não ter vulcões entrando em erupção, mas sofremos constantemente com enchentes, deslizamentos e secas.

Os cientistas que estudam essas catástrofes têm previstos grandes tempestades e outras ocorrências há séculos. Dentro do século XXI, muitos fizeram previsões de grandes eventos que devem ocorrer nos futuros próximo e distante. Abaixo, estão dez desastres naturais que, de acordo com evidências científicas, podem ocorrer a qualquer momento.

10. Incêndios florestais – EUA, 2015-2050
Cientistas ambientais da Escola de Engenharia e Ciências Aplicadas (SEAS) de Harvard preveem que, até 2050, os incêndios sazonais que ocorrem nos EUA durarão três semanas a mais, produzirão duas vezes mais fumaça e queimarão uma área maior a cada ano. Ao mesmo tempo, o Instituto Norte-Americano de Pesquisa Geológica e o Serviço Florestal do país registraram que, desde 1999, a área queimada por incêndios florestais nos EUA triplicou de 2,2 para 6,4 milhões por ano, o que significa que muito mais do país estará em chamas em um futuro próximo.
O que conduziu a este dramático aumento no risco de incêndio? A resposta, de acordo com a SEAS, é a mudança climática gradual, o que elevou a temperatura da Terra, criando condições que geram incêndios maiores e mais ferozes. Loretta J. Mickley, pesquisadora sênior de química atmosférica da Escola, afirmou que a temperatura será o maior determinante de futuros incêndios. Quanto mais quente, mais provável é que um incêndio vá começar. Ironicamente, o problema foi exacerbado por algumas campanhas que queriam extinguir todos os incêndios florestais, interrompendo o ciclo natural de incêndios que limpa a vegetação rasteira das florestas. Com 30 mil a 50 mil incêndios florestais previstos para ocorrer anualmente, os EUA poderão em breve estar enfrentando sua própria versão do Inferno na Terra.

9. Explosão do Vulcão Bardarbunga – Islândia, 2014
Ok, não está no futuro, mas esta previsão se concretizou algumas semanas depois ter sido feita.
Em agosto de 2014, o Escritório Meteorológico Islandês aumentou o nível de risco para uma possível erupção do Bardarbunga, um vulcão localizado na segunda montanha mais alta da Islândia. O aumento deveu-se a centenas de terremotos que ocorreram ao redor do local ao longo de vários dias, um forte sinal de uma possível erupção vulcânica. Os cientistas começaram a prever o que poderia ocorrer se Bardarbunga entrasse em erupção. Alguns disseram que o gelo ao redor do vulcão iria derreter, provocando inundações. Outros disseram que poderia causar erupções adicionais ao longo de fissuras de 100 metros de comprimento no sudoeste da Islândia, acordando o vulcão Torfajokull, que iria destruir vários grandes rios que servem como fonte de energia hidrelétrica no país.
Em 23 de agosto de 2014, o vulcão entrou em erupção debaixo da geleira Dyngjujokull. Ao longo da próxima semana, milhares de terremotos ocorreram perto do Bardarbunga e na área ao redor, e em 31 de agosto, sua fissura Holuhraun entrou em erupção. A fissura Holuhraun irrompeu por seis meses, terminando de expelir material vulcânico oficialmente em 28 de fevereiro de 2015. A fissura liberou a cada cinco minutos, em média, lava suficiente para encher um estádio de futebol americano. No final, o vulcão produziu 1,5 quilômetros cúbicos de lava e criou um campo de lava de 86 quilômetros quadrados, tornando a erupção do Bardarbunga de 2014 a maior erupção islandesa desde a da fissura Laki de Bardarbunga em 1783.

8. Megaterremoto – Chile, 2015-2065
Em 1 de abril de 2014, um terremoto de magnitude 8,2 ocorreu a 97 quilômetros da costa noroeste de Chile, perto da cidade de Iquique, causando deslizamentos de terra e um tsunami que atingiu a costa. Este terremoto criou a possibilidade de um terremoto ainda maior atingir o país em um futuro próximo, devido à localização do tremor.
O terremoto de Iquique surgiu de uma zona de subducção, onde uma placa tectônica, a Placa de Nazca, está mergulhando debaixo de outra, a Placa Sul-Americana. Esta zona de subducção se encontra dentro do “Anel de Fogo”, um arco no Pacífico contendo 75% dos vulcões ativos do mundo, o que causa grande parte da atividade sísmica do mundo. Quando uma placa tectônica se desloca sob outra, as falhas podem ser submetidas a grandes quantidades de estresse, e qualquer liberação de tensão gera atividade sísmica, ou seja, terremotos. O de abril de 2014 foi um “megaterremoto”, ou um grande terremoto causado pela liberação de tensão de uma zona de subducção. Somente 33% da tensão na falha foi aliviada, deixando o resto para ser dispensado ​​num futuro próximo.

7. Terremoto gêmeo – Japão, 2017
Masaaki Kimura, sismólogo e professor emérito de geologia submarina na Universidade de Ryukyus, no Japão, está prevendo que outro terremoto de magnitude 9,0, muito parecido com o terremoto de Tohoku de 2011, ocorrerá no país em 2017. Em 11 de março de 2011, o terremoto de magnitude 9,0 atingiu Tohoku a 372 km da costa nordeste de Tóquio e criou um tsunami com ondas de 9 metros que atingiram o Japão. Kimura afirmou que ele previu o terremoto de Tohoku quatro anos antes do acontecido, mas a sua previsão e as evidências foram ignoradas pelo Congresso de Ciência do Pacífico.
Suas hipóteses são baseadas em seu conceito de “olhos de terremoto”, regiões que têm muitos pequenos terremotos que são comumente ignorados. O especialista acredita que esses olhos de terremoto são os melhores preditores de onde e quando um grande terremoto ocorrerá. Esses indicadores são uma parte de seu método de previsão de terremotos a curto prazo de quatro etapas, apelidado de “método de Kimura”. Ele é atualmente o único método de previsão de terremotos em uso, no entanto, não foi bem testado por seus pares científicos.
Kimura acredita que o novo terremoto começará nas Ilhas Izu e terá uma magnitude de 9,0. Este também causaria um tsunami que atingiria o Japão de uma forma muito semelhante ao de Tohoku.

6. Erupção do Monte Fuji – Japão, 2015-2053
Quando o terremoto de Tohoku mudou a massa terrestre do Japão, 20 dos 110 vulcões ativos no país mostraram aumento da atividade sísmica, levando especialistas a acreditar que um deles pode entrar em erupção a qualquer momento. A Agência Meteorológica do Japão monitora a atividade sísmica e vulcões ativos no Japão. Destes 110 vulcões, 47 são considerados “ativos”, o que significa que surgiram nos últimos 10 mil anos e/ou vomitam gases. Os cálculos mostram que o Japão deve ter uma grande erupção vulcânica a cada 38 anos. Atualmente, 15 “eventos vulcânicos” acontecem anualmente.
Na lista dos 47 vulcões ativos japoneses está o Monte Fuji, o mais alto vulcão do Japão com 3.773 metros de altura. Em julho de 2014, uma equipe científica francesa e japonesa divulgou um relatório afirmando que o Fuji é um dos vulcões mais susceptíveis de entrar em erupção, causando preocupação para muitos cidadãos japoneses. O Monte Fuji está localizado a apenas 100 km de Tóquio. Se entrasse em erupção, seria necessário fazer a evacuação de emergência de 750 mil pessoas de Tóquio. A cidade provavelmente ficaria coberta de cinzas.

5. Terremoto e tsunami – Oregon, 2015-2065
Pelos esforços conjuntos de mais de 150 peritos voluntários, a Comissão Consultiva de Política de Segurança Sísmica de Oregon prevê que um terremoto de magnitude entre 8 e 9 e um tsunami subsequente irá ocorrer ao largo da costa do estado norte-americano do Oregon, nos próximos 50 anos. As grandes questões são: quando isso vai acontecer exatamente e se o Oregon vai estar preparado.
A possível fonte dessa catastrófica combinação de terremoto e tsunami é a zona de subducção de Cascadia, uma rachadura de 1.287 quilômetros a 97 km da costa do Oregon. As placas tectônicas continentais de Juan de Fuca e Norte-Americana criam esta zona de subducção, que é considerada a “mais silenciosa do mundo”. Porém, atualmente acredita-se que ela esconda um dos maiores eventos sísmicos do século. Esta ocorrência está prevista desde 2010; a Comissão afirma agora que isso vai ocorrer, inevitavelmente. Este terremoto e tsunami previsto mataria mais de 10 mil pessoas, possivelmente dividiria partes da Costa Oeste e custaria 32 bilhões dólares em danos aos EUA.

4. Submersão da Costa Leste – EUA, 2050-2100
Em outubro de 2012, o furacão Sandy deixou várias cidades debaixo d’água e, devido à sua força, é considerada uma tempestade de aberração que só ocorreria uma vez a cada 700 anos, de acordo com a NASA. No entanto, as tendências atuais do nível do mar ao longo da costa leste dos Estados Unidos podem deixar as principais cidades da região debaixo d’água até 2050.
Um estudo de 2012 feito pelo professor emérito do Instituto de Ciência Marinha de Virginia John Boon afirmou que mudanças significativas no nível do mar ao longo da costa leste de Key West, na Flórida, até Newfoundland, no Canadá, começaram por volta de 1987. Seu estudo mostra que o nível do mar está aumentando 0,3 milímetros por ano. Este estudo se encaixa em outro, do Instituto Norte-Americano de Pesquisa Geológica, realizado por cientistas na Flórida, que afirma que o nível do mar da costa leste está aumentando três ou quatro vezes mais rápido do que em qualquer outro lugar no mundo.
Atualmente, as zonas costeiras no nordeste dos EUA são consideradas em maior risco devido aos maiores valores de propriedade e zonas costeiras construídas em lugares como Nova York, que podem ser inundadas em 2050. O nível do mar de Nova York deverá aumentar 79 centímetros até 2050, deixando 25% da cidade em perigo de se transformar em uma planície de inundação. Cerca de 800 mil pessoas vivem na zona alvo de inundação. Em 2050, 97% das usinas de Nova York vão estar lá também. É por isso que o ex-prefeito de Nova York Michael Bloomberg propôs um sistema de inundação de US$ 20 bilhões para a cidade em 2013, antes de deixar o cargo, mas este plano não foi posto em ação.

3. O maior tsunami já visto – Caribe, data desconhecida
Se você se assustou com os desastres que já mostramos, prepare-se que o pior ainda está por vir. Simon Day, da University College London, e Steven Ward, da Universidade da Califórnia em Santa Cruz, preveem que o vulcão Cumbre Vieja, nas Ilhas Canárias, vá entrar em erupção e criar o maior tsunami da história. Em seu artigo conjunto sobre o tema, lançado em 2001, Day e Ward levantaram a hipótese de que uma ruptura na estrutura do vulcão ocorreu durante sua última erupção, fazendo com que o lado esquerdo tenha se tornado particularmente instável.
Se o Cumbre Vieja entrar em erupção novamente, o seu lado esquerdo se transformaria em um deslizamento de terra que causaria o maior tsunami na história da humanidade. Eles deduziram que a onda monstruosa avançaria a 800 quilômetros por hora, com 100 metros de altura em seu primeiro impacto com a terra, e chegaria à Flórida nove horas depois de ser criada. Day e Ward preveem que tsunamis atingiriam lugares distantes entre si como a Inglaterra, a Flórida e o Caribe.
Vale notar, no entanto, que essa é a pior situação possível. Se um deslizamento de terra causado por uma erupção na Cumbre Vieja vier a acontecer, é mais provável que toda aquela massa de terra não cairia no mar de uma só vez. Um deslizamento de terra mais fragmentado poderia não causar um tsunami recorde. No entanto, se o seu próximo investimento imobiliário vai ser uma casa na costa do sul dos EUA, da Inglaterra ou do Caribe, pode ser uma boa reconsiderar a ideia.

2. O “Big One” – Califórnia, 2015-2045
O Serviço Geológico dos EUA aumentou a probabilidade de um terremoto de magnitude 8 ou maior atingir a Califórnia nas próximas décadas. O “Big One” refere-se ao terremoto que muitos californianos estavam esperando com a respiração suspensa durante anos. Cientistas afirmam que um terremoto de magnitude 8 ou maior tem uma chance de 7% de ocorrer nos próximos 30 anos. As chances da região ser atingida por um terremoto de magnitude entre 6,5 e 7 sobe para 30%.
Se fosse para esse fenômeno acontecer, a causa mais provável seria a ruptura da falha de San Andreas, que vai do interior do sul da Califórnia até Los Angeles, mas há alguma especulação quanto a falha ser o epicentro do tremor. Alguns relatórios especificam que o Big One se originará da falha de Hayward, próxima da área da baía de San Francisco.
Não importa de onde o terremoto vier, a previsão é de que ele devaste toda a Califórnia e outras partes da Costa Oeste. Um “cenário realista de crise” utilizado para o planejamento de emergência foi criado por 300 cientistas e detalha a ocorrência e os danos do terremoto através de projeções de computador baseadas em dados históricos. O computador prevê que o terremoto irá produzir ondas de choque que viajariam a 11,6 mil quilômetros por hora, danificando gravemente as principais rodovias e prédios. No geral, a maior preocupação para qualquer terremoto de grande impacto são os incêndios, devido à quantidade de vegetação seca que poderia transformar qualquer pequeno incêndio em um inferno de fogo.
A Casa Branca concedeu US$ 5 milhões a uma equipe da Universidade de Tecnologia da Califórnia, da Universidade da Califórnia em Berkeley e da Universidade de Washington, que está desenvolvendo um sistema de alerta precoce de terremoto para informar as pessoas um minuto antes de um terremoto atingir o estado. Atualmente, o sistema só é capaz de lançar um alerta 10 segundos antes do início de um terremoto.

1. Grande tempestade solar – 2015-2025
O maior desastre natural que poderia afetar a Terra no futuro próximo nem sequer nasceria no nosso planeta; ele vem do sol.
O sol tem um “ciclo de atividade”, o que significa que tem diminuição ou aumento da atividade, tais como erupções solares e manchas solares, dependendo do seu tempo em um ciclo particular. A grande explosão mais recente da atividade solar ocorreu em julho de 2012, quando uma ejeção de massa coronal (EMC) passou pela órbita da Terra e acertou a estação espacial STEREO-A. Uma tempestade solar geralmente tem uma labareda solar, altos níveis de radiação UV, partículas energéticas que destroem os componentes eletrônicos cruciais de satélites e muitas EMCs. A labareda solar de 2012 atingiu a estação espacial, mas foi apenas uma semana de diferença que evitou com que ela atingisse a Terra.
Esse golpe de sorte da Terra pode não se repetir no futuro próximo, de acordo com Pete Riley, cientista do Instituto de Ciência Preditiva. Depois de analisar os registros de tempestades solares dos últimos 50 anos, seus cálculos concluíram que há uma chance de 12% de uma grande tempestade solar atingir a Terra nos próximos 10 anos. Se isso vier a acontecer, interferiria potencialmente com sistemas de rádio, GPS e comunicações por satélite, afetando o uso de milhões de produtos eletrônicos em todo o mundo. Redes de energia também seriam afetadas devido à sobretensão provocada pelas partículas energéticas, possivelmente causando grandes apagões em todo o mundo – de forma semelhante ao que ocorreu em Quebec em 1989. Os custos econômicos são estimados em US$ 1 a 2 trilhões no primeiro ano do impacto, sendo que uma recuperação completa levaria entre 4 e 10 anos, de acordo com o Conselho Nacional de Pesquisa.
Mesmo que essa catástrofe ocorra, segundo o pesquisador Robert Rutledge e o escritório de previsão do Centro de Previsão do Clima Espacial da Administração Oceânica e Atmosférica Nacional dos EUA, ela pode não ser tão impactante como alguns estão prevendo. Mais uma vez, as previsões que estão sendo feitas abordam o ponto de vista da “pior situação possível” e são apenas uma advertência. Dito isto, as grandes empresas de energia e serviços de emergência em todo o mundo estão cientes dos efeitos da atividade solar e estão investindo pesadamente para se defender contra eles. [Listverse]

Fonte: http://hypescience.com/10-catastrofes-naturais-que-devem-estar-no-nosso-futuro-proximo/ - Autor: Jéssica Maes

domingo, 18 de março de 2012

Aumentam evidências de que a meditação fortalece o cérebro

Cérebro dobrado

A Universidade da Califórnia, em Los Angeles, possui um projeto continuado e aprofundado de pesquisas sobre a meditação.

Os resultados mais recentes haviam demonstrado que a meditação de certa forma "engrossa" o cérebro - de uma forma positiva - reforçando as conexões elétricas no cérebro inteiro.

Mas parece que não é apenas isso.

Segundo a Dra. Eileen Luders, especialista em neuroimagens, pessoas que praticam a meditação continuadamente têm grandes quantidades de girificação, as "dobraduras" do córtex, otimizando o funcionamento do cérebro.

Girificação

A girificação, ou dobragem cortical, é o processo pelo qual a superfície do cérebro - o chamado córtex cerebral - sofre alterações para criar fendas estreitas e dobras, chamado sulcos e giros.

O córtex cerebral está associado com processos como memória, atenção, pensamento e consciência. A formação de mais sulcos e giros otimiza o processamento neural.

O resultado da maior girificação é que o cérebro se torna capaz de processar informações mais rapidamente, além de um reforço na formação das memórias e melhoria na capacidade de tomar decisões.

Melhora com os anos

A pesquisadora encontrou ainda uma correlação direta entre o índice de girificação e o número de anos que as pessoas praticam meditação.

"Em vez de simplesmente comparar o cérebro dos meditadores e dos não-meditadores, nós queríamos ver se há uma ligação entre a intensidade da prática da meditação e a extensão das modificações no cérebro," disse Luders.

E as diferenças encontradas foram marcantes.

Isto, segundo ela, é uma comprovação adicional da neuroplasticidade, a capacidade do cérebro em se adaptar fisiologicamente em resposta a mudanças no ambiente.

A pesquisa foi publicada na revista Frontiers in Human Neuroscience.

Fonte: http://www.diariodasaude.com.br/news.php?article=meditacao-fortalece-cerebro&id=7548&nl=nlds - Imagem: LONI/UCLA