sábado, 21 de maio de 2016

BRICs


O que são os Brics?


Brics é uma sigla que se refere a Brasil, Rússia, Índia, China e África do Sul, que se destacaram no cenário mundial pelo rápido crescimento das suas economias em desenvolvimento. O acrônimo foi cunhado e proeminentemente usado pelo economista Jim O'Neill, chefe de pesquisa em economia global do grupo financeiro Goldman Sachs, em 2001.

Ao contrário do que algumas pessoas pensam, estes países não compõem um bloco econômico, apenas compartilham de uma situação econômica com índices de desenvolvimento e situações econômicas parecidas. Em Dezembro de 2010, a Bric convidou formalmente a África do Sul para se unir ao grupo. O convite foi feito por Yang Jiechi, que ocupa a Presidência rotatória do grupo. E a sigla ganhou um S, para África do Sul.


O crescimento dos Brics


O processo de desenvolvimento econômico dos Brics é crescente, e já vem influenciando algumas decisões mundiais como na reunião da OMC em 2005, quando os países em desenvolvimento, liderados por Brasil e Índia, juntaram-se aos países subdesenvolvidos para impor a retirada dos subsídios governamentais pela União Europeia e pelos Estados Unidos, e a redução das tarifas de importação.

Além disso, muito mais que possibilidades de crescimento, os Brics são vistos como um grupo com potencial para "mudar o mundo", seja pelas ameaças ou oportunidades que representam do ponto de vista econômico, social e político.

Muitas agências e analistas internacionais já estão de olho nos Brics , e começam a sugerir que os investidores prestem mais atenção às oportunidades apresentadas por estes países. Investimentos nas áreas produtivas e nas perspectivas atuais e futuras de seus mercados consumidores. Pois em termos demográficos, temos os dois países mais populosos do planeta e os outros dois de populações consideráveis. A China representa, sozinha, mais de um quinto da população mundial, seguida de perto pela Índia (17,5%) e, bem mais longe, pelo Brasil (2,9%) e pela Rússia (2,2%).

Segundo a análise da Goldman Sachs, uma vez que estão em rápido desenvolvimento, supõem-se que em 2050, o conjunto das economias dos Brics possa fazer sombra ao conjunto das economias dos países mais ricos do mundo atual. Afinal os quatro países juntos representam, atualmente, mais de um quarto da área terrestre do planeta, sendo 17 milhões de km2 da Rússia, 3,2 milhões de km2 da Índia, passando pelos 9,3 milhões de km2 da China e pelos 8,5 milhões de km2 do Brasil; além de 40% da população mundial.

O Goldman Sachs diz que os BRICs não se organizam em um bloco econômico ou uma associação de comércio formal, como ocorre no caso da União Europeia. Mas ele aponta fortes indícios de que "os quatro países do Bric têm procurado formar um "clube político" ou uma "aliança", e assim estão convertendo "seu crescente poder econômico em uma maior influência geopolítica." Em 16 de junho de 2009, os líderes dos países do Bric realizaram sua primeira reunião, em Ecaterimburgo, Rússia, e redigiram uma declaração pedindo pelo estabelecimento de uma ordem mundial multipolar.



Trajetória dos Brics

Nos últimos dois séculos a trajetória dos Brics foi desigual. Suas relações recíprocas nos últimos 50 anos foram laterais, podendo ser considerada uma exceção, a Rússia e a China, pois durante a fase da construção do socialismo em território chinês, as relações se estreitaram. Enquanto que no cenário da economia mundial dos últimos 20 anos, os Brics interagiram pouco, enquanto que entre os países do grupo houve uma maior interação.

Também devemos salientar que existem muitas diferenças entre os Brics . Podemos citar o exemplo da Rússia, Índia e China que são grandes potências militares, e sempre engajados em termos armamentistas. Bem diferente do Brasil, que nunca seguiu essa linha. Já a África do Sul teve um programa nuclear na década de 70, mas desmantelou o programa em 1991, após assinar Tratado de Não-Proliferação de Armas Nucleares.

Além disso dois membros do Brics, Rússia e China, são membros permanentes do Conselho de Segurança das Nações Unidas. Enquanto que os outros dois membros, Brasil e Índia, integram as Nações G4, cujo objetivo é ter um lugar permanente no Conselho de Segurança das Nações Unidas. A África do Sul foi um membro não-permanente do Conselho de Segurança das Nações Unidas entre 2007 e 2008, e gerou polêmica ao votar contra uma resolução criticando o governo de Myanmar em 2006 e contra a aplicação de sanções contra o Zimbabué, em 2008. Os Brics também diferem entre si, em outros quesitos como recursos naturais, graus de industrialização e capacidade de impacto na economia mundial.

domingo, 15 de maio de 2016

A Nasa descobre 1.284 novos planetas fora do Sistema Solar – 9 habitáveis

A Nasa anunciou nesta terça-feira a descoberta de 1.284 novos planetas fora do Sistema Solar – é o maior conjunto de novos planetas já anunciado, de uma só vez, pela agência espacial. Eles foram vistos pelo telescópio espacial Kepler e, do total, 550 planetas podem ser rochosos, como a Terra, e nove deles estão em zona potencialmente habitável – ou seja, ficam a uma distância tal de suas estrelas que possibilitam a ocorrência de temperaturas ideais para que exista água líquida sobre a superfície, principal condição para o surgimento de vida. Com esses nove, atualmente são 21 os planetas potencialmente habitáveis já identificados no Universo – os melhores candidatos a uma “nova Terra”.

“Este anúncio mais do que duplica o número de exoplanetas descobertos pelo telescópio Kepler”, afirmou Ellen Stofan, cientista-chefe da agência espacial americana, em um comunicado. “Isso nos dá esperança de que em algum lugar lá fora, em torno de uma estrela muito parecida com a nossa, poderemos, eventualmente, descobrir uma outra Terra.”

Candidatos a Terra – A análise foi publicada nesta terça-feira no periódico Astrophysical Journal e feita com 4.302 “candidatos a planeta”, nome que recebem os dados do telescópio que indicam a probabilidade da existência de um planeta orbitando uma estrela fora do Sistema Solar. Por meio de uma nova metodologia estatística, o astrofísico Timothy Morton, da Universidade Princeton, nos Estados Unidos, conseguiu analisar um grupo grande de candidatos de uma só vez.

Com o novo método, Morton verificou que 1.284 têm uma probabilidade maior que 99% de serem planetas, enquanto 1.327 requerem mais estudos para serem verificados como planetas. O estudo validou ainda 984 candidatos que já haviam sido verificados como planetas por outras técnicas e descartou a existência de 707 planetas, que devem ser algum outro tipo de evento astronômico.

Essas análises são possíveis porque o observatório espacial Kepler, lançado em 2009, monitora 150.000 estrelas em busca de sinais de planetas, particularmente aqueles que poderiam ser capazes de sustentar a vida. O instrumento capta o escurecimento da luz da estrela, conhecido como trânsito, cada vez que um planeta passa orbitando diante dela. É um evento semelhante ao trânsito de Mercúrio que pode ser observado nesta semana – o telescópio percebe a diminuição da luminosidade da estrela quando algum objeto passa por ela.

Dos cerca de 5.000 candidatos a planetas encontrados até agora, mais de 3.200 já foram verificados pelos cientistas – 2.325 deles foram descobertos pelo Kepler.
Fonte: Com informações da Veja

domingo, 8 de maio de 2016

Teste seus conhecimentos sobre os Biomas Brasileiros

Geografia - Biomas brasileiros


Veja como andam seus conhecimentos sobre as diversas paisagens do Brasil e suas características com esse simulado sobre os biomas brasileiros no link abaixo:
http://guiadoestudante.abril.com.br/estudar/simulados/geografia-biomas-brasileiros-685154.shtml

Poluição eletromagnética


Elas estão espalhadas na atmosfera e ninguém as vê, isso não quer dizer, no entanto, que as ondas eletromagnéticas sejam inofensivas. Emitida por equipamentos elétricos e eletrônicos, esse tipo de energia ocupa o espaço, atravessa qualquer tipo de matéria viva ou inorgânica e produz uma poluição imperceptível, capaz de influenciar o comportamento celular do organismo humano.
O uso da energia elétrica e eletromagnética tornou-se tão arraigado no cotidiano das grandes cidades, que já não é possível se privar do contato com elas. Além dos telefones celulares, os aparelhos eletrodomésticos e as linhas de alta tensão estão por toda parte. “Vivemos em um micro-ondas gigante”, diz o cientista, pesquisador do Sistema Integrado da Terra, ­ filósofo noosférico e engenheiro de sistemas de teleautomação Boris Petrovic, ao alertar sobre o impacto da presença dos campos e das radiações eletromagnéticas.
Petrovic explica que o corpo humano não foi preparado para lidar com as interferências das radiações e dos campos eletromagnéticos. O engenheiro esclarece que tanto os celulares quanto qualquer outro tipo de comunicação sem ­ o – como Wi-­fi e bluetooth – utilizam ondas de radiofrequência para transmitir dados ou voz. Essas ondas são de comprimento muito baixo e são chamadas de micro-ondas. Essa tecnologia é a mesma dos fornos de micro-ondas, usados para aquecer alimentos por atrito das moléculas de água.
O enfraquecimento do sistema imunológico, segundo o engenheiro, é a consequência mais grave da poluição eletromagnética. O efeito nocivo ocorre quando o campo elétrico dessas tecnologias interfere na bioeletricidade natural do corpo humano. Boris explica que os sintomas variam de dores de cabeça e irritabilidade a diversos tipos de câncer. “As consequências são mais evidentes em pessoas que apresentam eletrossensibilidade, mas, por ser de natureza cumulativa, esse tipo de poluição afeta a todos”, explica o pesquisador.



AS ANTENAS E AS MORTES POR CÂNCER
Um estudo referência no mundo foi realizado em Belo Horizonte, pela professora da faculdade de Ciências Médicas de Minas Gerais Adilza Dode. A tese de doutorado de Adilza evidencia mortes por câncer ao redor de antenas de telefonia celular na capital mineira. Analisando dados entre 1996 e 2006, a pesquisadora estudou 5 mil casos de morte por câncer e constatou que mais de 80% das vítimas moravam a uma distância de até 500 metros das antenas.
Segundo Adilza, os padrões permitidos no Brasil são os mesmos adotados pela Comissão Internacional de Proteção Contra Radiações Não Ionizantes (Icnirp), normatizados em legislação Federal de maio de 2009. “Até hoje, ninguém sabe quais são os limites de uso inócuos à saúde. Os padrões adotados pelo Brasil são inadequados. Eles foram redigidos com o olhar da tecnologia, da e­ ciência e da redução de custos, e não com base em estudos epidemiológicos”, assegura.
"Há mais de dez anos, surgem apelos da comunidade científi­ca para conscientização dos riscos da poluição eletromagnética"


OMS RECOMENDA A REDUÇÃO DE USO
Em 2010, a Food and Drug Administration (FDA), órgão de saúde dos Estados Unidos, divulgou um comunicado a­firmando que, apesar do aumento drástico no uso de telefone celular, as ocorrências de câncer no cérebro não aumentaram entre 1987 e 2005.
Diante da insegurança acerca dos impactos, em 2011, a Organização Mundial da Saúde divulgou um documento no qual classi­fica a radiação eletromagnética como “potencialmente cancerígena” e recomenda a redução das emissões “tanto quanto possível”. ‑
Quatro anos antes, o grupo de trabalho criado pela OMS para discutir o assunto publicou um documento no qual lista recomendações sobre exposições de curto até longo prazo. Para longo prazo, as indicações são de que o governo e a indústria devem monitorar a ciência e promover programas de pesquisa para desenvolver mais evidências sobre o tema. Segundo a OMS, há lacunas no conhecimento do assunto. A publicação ainda recomenda que, quando construídas novas instalações e projetados novos equipamentos, formas de baixo custo para a redução de campos devem ser exploradas.
Em relação a exposições de curto prazo, recomendações internacionais de exposição foram desenvolvidas para proteger os trabalhadores e o público contra estes efeitos e devem ser adotadas pelos responsáveis pelo desenvolvimento de políticas. Programas de proteção contra a poluição eletromagnética devem incluir medicação de exposição a fontes que excedam os valores-limite recomendados.


CIENTISTAS QUESTIONAM PARÂMETROS
Há mais de dez anos, surgem apelos da comunidade científica para conscientização dos riscos da poluição eletromagnética. O Painel Cientí­fico de Seletun (2011), organizado em Oslo, na Noruega, contou com a participação de cientistas de cinco países e teve como resultado uma série de recomendações para os governos. Entre outras conclusões, o Painel descon­fia dos parâmetros de exposição tidos como seguros pela Comissão Internacional de Proteção Contra Radiações Não Ionizantes (Icnirp) e usados pela Organização Mundial de Saúde (OMS).
O Painel estabelece em 0,1 μT (MicroTesla – unidade usada para medir campos magnéticos) como limite de exposição no período de 24 horas. Dessa forma, o recomendado passa a ser 1 mil a 10 mil vezes menor do que o atual. De acordo com os cientistas, os números da Icnirp foram de­finidos pelo olhar da tecnologia e redução de custos, sem ter como base estudos do impacto na saúde humana e no ambiente.
Após tomar conhecimento dos malefícios da exposição contínua a campos eletromagnéticos, um grupo de moradores do Alto de Pinheiros, localizado na zona oeste da cidade de São Paulo, moveu uma ação judicial contra a empresa AES Eletropaulo.

Edgar Melo

sexta-feira, 6 de maio de 2016

Falha de San Andreas

A terra treme e os arranha-céus do distrito financeiro de Los Angeles desmoronam, prendendo milhares sob os escombros.

Um tsunami de proporções bíblicas adentra a baía de São Francisco, engolindo, por sua vez, a famosa ponte Golden Gate, antes de arrasar a cidade californiana.
Esses são dois dos cenários terríveis que mostram o filme catástrofe Terremoto - A Falha de San Andreas (2015).

Seu roteiro gira em torno das consequências devastadoras de um terremoto na falha que dá nome ao filme e traz caos e destruição à costa oeste americana.

A premissa é projetada para agradar os amantes do cinema de desastre, mas, quando se trata de terremotos, a linha que separa realidade e ficção é muito tênue.

Em declarações citadas no jornal Los Angeles Times, cientistas advertiram na Conferência Nacional sobre Terremotos, realizada na cidade californiana de Long Beach, que a seção sul da falha de San Andreas está "carregada e pronta" para provocar um grande terremoto.

Um terremoto na seção sul da falha de San Andreas teria um impacto direto em Los Angeles

O trecho sul

A falha de San Andreas, que atravessa a Califórnia de norte a sul ao longo de 1,3 mil quilômetros e delimita a parte norte-americana da placa do Pacífico, é uma das mais estudadas no mundo, uma vez que está quase inteiramente na superfície da terra.

Ela foi a causa do devastador terremoto de magnitude 7,8 que destruiu grande parte de São Francisco em 1906, matando mais de 3 mil pessoas.

Embora a premissa extrema de Terremoto seja mais ficção científica do que cenário real, o fato é que o blockbuster foi um lembrete de que, mais cedo ou mais tarde, a falha voltará a afetar as mais de 38 milhões de pessoas que vivem em suas imediações precisam estar preparadas.

O que mais preocupa os cientistas é a seção sul da falha, que não produz um terremoto há cerca de 300 anos, embora os registros geológicos indiquem que ela causaria um grande terremoto a cada 150 anos.

Estimativas mais conservadoras apontam que, se houvesse um terremoto de magnitude 7,8 na escala Richter nessa seção - o que teria um impacto direto em Los Angeles, a segunda cidade mais populosa dos Estados Unidos -, cerca de 2 mil pessoas morreriam e haveria mais de 50 mil feridos Os danos materiais superariam os US$ 200 bilhões.

"A informação com que nós, cientistas, trabalhamos indica que o extremo sul da falha de San Andreas é onde é mais provável que se produza um grande terremoto nos próximos 30 anos", disse Jennifer Andrews, sismólogo o Instituto de Tecnologia da Califórnia (Caltech), à BBC Mundo.

De acordo com Andrews, "a parte do meio da falha quebrou cerca de 160 anos atrás e a parte norte, em 1906, provocando os tremores de terra em São Francisco".

"A parte sul da falha não se rompeu em três séculos e sabemos que durante este tempo a tensão tem se acumulado."

Grande impacto

A especialista observa que "no passado, os terremotos na Califórnia tiveram impacto limitado, porque a densidade da população desse território era muito baixa."

"Hoje as coisas seriam muito diferentes porque em áreas como no sul da Califórnia vivem milhões de pessoas."

"O impacto de grandes terremotos seria importante. Ele iria destruir muitos prédios e causaria a perda de serviços básicos como água, eletricidade ou transporte."

"Nas últimas décadas, tem-se trabalhado para fazer uma cidade como Los Angeles mais segura para enfrentar um grande terremoto, mas há muitos edifícios que foram construídos antes da década de 70, quando os novos regulamentos sísmicos foram introduzidos."

Andrews também assinala que no sul da Califórnia há mais de 300 falhas e há temores de que um grande terremoto na de San Andreas faça com que as outras se quebrem também, causando danos ainda maiores.

Ela acredita que filmes como Terremoto servem para lembrar os moradores da costa oeste dos Estados Unidos que se trata de uma área de alta atividade sísmica "e, por isso, eles devem estar preparados para a inevitabilidade de um terremoto."

Os últimos grandes sismos que abalaram a Califórnia foram o de Northridge (6,7 graus) em 1994, que deixou 57 mortos na área de Los Angeles, e o de Loma Prieta (6,9 graus), que tirou a vida de 67 pessoas em San Francisco, em 1989.

Esse último fez com que no norte da Califórnia fossem introduzidas novas regulamentações, obrigando o reforço de estruturas construídas com concreto armado, muitas das quais abrigavam escolas e hospitais.

Mas foi só no final de 2014 que a prefeitura de Los Angeles propôs um regulamento semelhante, o que implicaria um investimento de centenas de milhões de dólares para adequar sua infraestrutura.

Todos os anos, os californianos participam de treinamentos para caso de terremoto

Sistema de alerta

Para os especialistas, agora é essencial que as autoridades levem a sério o desenvolvimento de um sistema antecipado de alerta de terremotos.

O sistema, que há anos já foi instalado com sucesso em países como Japão e México - e que na Califórnia tem como desafio a ausência de verbas -, consiste em uma rede de sensores que detectam o início de um terremoto com até 40 segundos antecedência, o que ajudaria a alertar as autoridades e a população.

"Infelizmente neste país muitas vezes a vontade de melhorar as coisas só vem depois de um desastre", disse à BBC Peggy Hellweg, chefe de operações do Laboratório Sismológico Berkeley, no norte da Califórnia.

"Um sistema de alerta precoce seria muito útil. Ele seria capaz de parar trens para evitar descarrilamento e o tráfego de carros nas pontes. Poderia alertar os hospitais. Também avisaria as pessoas para que pudessem se proteger, ficando sob uma mesa ou, se houvesse tempo suficiente, saísse dos edifícios", disse o especialista.

O terremoto de 7,8 graus que destruiu grande parte de São Francisco em 1906 matou mais de 3.000 pessoas

De acordo com Hellweg, os sismólogos na Califórnia realizam suas pesquisas com poucos recursos e, para que pudessem fazer bem o seu trabalho, "teriam que investir muito mais dinheiro".

"Nossos sistemas de alerta de terremoto deveriam ser melhores. Não temos sensores em todos os lugares onde eles são necessários. Não temos uma infraestrutura robusta."

Hellweg acredita que há partes do sistema de prevenção de terremotos que estão funcionando moderadamente na Califórnia, mas outras nem tanto.

"Os serviços de emergência - pessoas que respondem aos desastres naturais, como os bombeiros ou a polícia - estão relativamente bem preparados. Aqueles que não estão preparados são os cidadãos e as empresas", disse o especialista, que atribui isso ao fato de que há tempos não ocorre um grande terremoto na Califórnia - "o que tornou as pessoas complacentes".
BBC Brasil

domingo, 1 de maio de 2016

Como se formam os ciclones


Os ciclones são fenômenos naturais que provocam ventos com velocidade superior a 200 quilômetros por hora, além de fortes chuvas, causando grandes transtornos por onde passa. São redemoinhos atmosféricos que giram em torno de um centro de baixa pressão, atingindo as regiões equatoriais e, principalmente, as tropicais.
A formação dos ciclones ocorre sobre as águas quentes dos oceanos. O aquecimento de uma determinada superfície origina um centro de baixa pressão atmosférica, proporcionando condições favoráveis para o desenvolvimento dos ciclones.
Dependendo da localização e de sua intensidade, o ciclone pode receber outras nomenclaturas, como furacão, tufão, tempestade tropical, tempestade ciclônica, depressão tropical ou simplesmente ciclone. Quando esse fenômeno ocorre no oceano Atlântico, por exemplo, ele é chamado de furacão; já no oceano Pacífico, o ciclone recebe o nome de tufão.

A movimentação da massa de nuvens e dos ventos de um ciclone varia conforme o Hemisfério onde o fenômeno se desenvolve: sentido horário no Hemisfério Sul e sentido anti-horário no Hemisfério Norte. Essa característica é determinada pela aceleração da força de Coriolis.
Conforme a velocidade que os ventos atingem, os ciclones se enquadram em diferentes categorias:
Categoria 1 (intensidade mínima): ventos entre 118 Km/h e 152 Km/h.
Categoria 2 (intensidade moderada): ventos entre 153 Km/h e 176 Km/h.
Categoria 3 (intensidade forte): ventos entre 177 Km/h e 208 Km/h.
Categoria 4 (intensidade extrema): ventos entre 209 Km/h e 248 Km/h.
Categoria 5 (intensidade catastrófica): ventos com velocidade superior a 249 Km/h.
Por Wagner de Cerqueira e Francisco

Acesse o link abaixo para observação de infográfico sobre os ciclones: