quinta-feira, 28 de maio de 2015

China passa a buscar água doce no mar...


Em 2011, a China lançou um plano quinquenal com uma série de ações para economizar água. A principal medida, avaliada em US$ 62 bilhões, é o desvio de rios para atender às demandas de água e energia das províncias no norte e oeste do país. Quando for concluído em 2050, o projeto unirá os rios Amarelo, Huaihe, Yangtze e Haihe e desviará anualmente 44,8 bilhões de metros cúbicos do sul para o norte árido do país.
O projeto tem sido criticado por ambientalistas, que afirmam que as águas do rio Yangtze continuarão poluídas no fim do percurso, mesmo após passar por etapas de tratamento. Críticos também alegam que o sul do país está se tornando mais seco e que em breve não poderá abrir mão de suas águas em benefício do norte.

quarta-feira, 27 de maio de 2015

Judiciário discute planejamento sustentável...



O II Seminário de Planejamento Estratégico Sustentável do Poder Judiciário acontece de 28 a 29 deste mês, no auditório externo do Superior Tribunal de Justiça (STJ), em Brasília. O evento, realizado pelo STJ e com apoio do Ministério do Meio Ambiente (MMA), por meio da Agenda Ambiental na Administração Pública (A3P), tem o objetivo de contribuir para o aprimoramento da gestão socioambiental no planejamento estratégico dos tribunais e de outros órgãos públicos.
As inscrições podem ser feitas até esta quarta-feira (27) pelo e-mail eventos@stj.jus.br com o envio dos seguintes dados: nome completo, instituição em que trabalha, cargo, telefone e e-mail. O certificado de participação será encaminhado eletronicamente. Serão abordados temas como sustentabilidade na administração pública, legislação ambiental, gestão hídrica no Brasil, inserção de critérios de sustentabilidade nas compras públicas, consumo consciente e eficiência energética.
Participação - A ministra do Meio Ambiente, Izabella Teixeira, fará a abertura do evento, ao lado de outras autoridades, às 9h. Na seqüência, o secretário executivo do MMA, Francisco Gaetani, fará palestra sobre os desafios da sustentabilidade na administração pública.
No período da tarde, a gerente de projeto do Departamento de Cidadania e Responsabilidade Socioambiental Ana Carla Almeida falará sobre o impacto do consumo nas compras públicas, abordando o programa A3P do MMA que tem como meta estimular ações sustentáveis nos órgãos públicos.

sexta-feira, 22 de maio de 2015

Cientistas estudam superbactérias antárticas para novos antibióticos...



Cientistas chilenos estudam “superbactérias” extraídas da Antártica que, por sua resistência a condições extremas, seriam chave para derrubar a crescente resistência aos antibióticos, segundo pesquisa apresentada nesta quarta-feira (20) em Santiago.
Após analisar 80 amostras de solo antártico, extraídas em duas viagens, em 2014 e 2015, foram identificadas mais de 200 bactérias de espécies como Pseudomonas e Staphylococcus, que têm “um amplo potencial de aplicação em medicina”, explicou Maria Soledad Pavlov, doutorando em biotecnologia da Universidade Católica de Valparaíso e integrante da equipe de pesquisas.
Os organismos microbianos que “geram estratégias para competir e sobreviver” ao clima extremo do continente branco seriam a chave para a criação de “antibióticos que tenham capacidades antimicrobianas diferentes das atuais”, o que permitiria quebrar a atual resistência de algumas bactérias.
“Estamos tentando gerar um produto biotecnológico interessante a partir destas bactérias antárticas, que possam suprir esta falta severa de antibióticos”, disse Pavlov.
Resistência a medicamentos – Segundo o estudo, o uso excessivo de antibióticos provocou o aparecimento de bactérias resistentes, muito difíceis de controlar com os atuais medicamentos ou antibióticos convencionais.
A pesquisa chilena, desenvolvida com o apoio do Instituto Antártico Chileno (INACH), coletou amostras no arquipélago das Shetland do Sul e em setores continentais da Antártica, próximos às bases chilenas.
Na etapa inicial da pesquisa, Pavlov advertiu que seriam necessários 10 a 15 anos mais de estudos para poder usar o composto antimicrobiano gerado em medicina humana, enquanto que, para utilizá-lo em agricultura, o tempo diminui e seriam suficientes mais cinco anos de laboratório.

quarta-feira, 20 de maio de 2015

Engenheira ambiental Marilene Ramos é a nova presidente do Ibama...



A ministra do Meio Ambiente, Izabella Teixeira, deu posse na quinta-feira (14) à nova presidente do Instituto Brasileiro de Meio Ambiente e Recursos Naturais Renováveis (Ibama), Marilene Ramos. O tom da cerimônia foi o chamamento da equipe técnica para enfrentar os desafios brasileiros no atendimento às demandas do desenvolvimento econômico com a garantia da conservação ambiental, qualidade de vida e equilíbrio do planeta.
“Trabalhamos com gestão de resultados, para uma sociedade que paga R$ 1,3 bilhão por ano para o funcionamento do Ibama”, afirmou Izabella Teixeira. Ela comentou que as demandas exigem ainda mais recursos, mas que os investimentos podem ser realizados por meio de parcerias, e citou ações desenvolvidas pelo Ministério do Meio Ambiente com o Ministério dos Transportes e muitas vezes com a participação de agências reguladoras do Governo Federal.
Em um auditório lotado não apenas por funcionários do órgão ambiental, mas por representantes de setores produtivos como a Petrobras, o setor elétrico, de saneamento e organizações não-governamentais, a ministra recomendou que a nova presidente dialogue com os diversos segmentos do País, citando o Ministério Público, o Congresso Nacional e governantes dos Estados.
Izabella Teixeira destacou também as conquistas alcançadas na gestão de Volney Zanardi, que é funcionário da Agência Nacional de Águas (ANA) e, antes de ser presidente do Ibama, atuou na Secretaria-Executiva do MMA.
Marilene Ramos disse que assume o cargo com o objetivo de colocar o Ibama no centro das estratégias de desenvolvimento sustentável. “As políticas públicas e ambientais devem caminhar no mesmo rumo”. Ela é engenheira ambiental e especialista em gestão de recursos hídricos. Já foi presidente do Instituto Estadual do Ambiente do Rio de Janeiro, secretaria de Estado do Ambiente e presidente da Fundação Superintendência Estadual de Rios e Lagoas. Em 2008, ela recebeu o Prêmio Brasil de Meio Ambiente, categoria Destaque Estadual, conferido pelo Jornal do Brasil.
Conquistas - Volney Zanardi esteve três anos à frente do Ibama. Um dos pontos de destaque de sua gestão foi a reorganização de procedimentos que resultaram em maior eficiência dos mecanismos de punição aos infratores (que tenham cometido danos ao meio ambiente), com impactos positivos na arrecadação, que passou de R$ 255,7 milhões para R$ 419 milhões, entre 2011 e 2014. Conquista que também foi reforçada pelo secretário-executivo do MMA, Francisco Gaetani, enfatizando que o grande desafio é dar continuidade às mudanças já incrementadas.

terça-feira, 19 de maio de 2015

Pesquisadores brasileiros inventam plástico comestível feito de frutas...




Pesquisadores da Embrapa Instrumentação, de São Carlos (SP), desenvolveram uma série de películas comestíveis que funcionam como plástico. Os sabores incluem espinafre, mamão, goiaba e tomate, mas a técnica permite que outros sabores sejam desenvolvidos. O trabalho recebeu financiamento de R$ 200 mil e o material, além de ser biodegradável, pode ser utilizado no preparo dos alimentos. Dessa forma, uma pizza que esteja embalada com o material pode ir ao forno diretamente, assim como outros alimentos. A película pode, inclusive, ser utilizada como parte do tempero.
A matéria-prima é composta por água, polpa de fruta e carboidratos vegetais. No meio ambiente, se descartado, o “plástico” se decompõe em três meses e pode ser utilizado como adubo, ou mesmo descartado na rede de esgoto, sem prejuízos. Além disso, ele tem capacidade de conservar os alimentos pelo dobro do tempo. O plástico convencional, por sua vez, demora 400 anos para se decompor.
O projeto de plástico comestível utilizando frutas é o primeiro a ser desenvolvido no mundo e abre um imenso campo a ser explorado pela indústria de embalagens. Segundo o chefe-geral da Embrapa Instrumentação, Luiz Henrique Capparelli Mattoso, que coordenou a pesquisa, o material pode ser utilizado também gastronomicamente. “Aves envoltas em sacos que contêm o tempero em sua composição, sachês de sopas que podem se dissolver com seu conteúdo em água fervente e muitas outras possibilidades”, explicou.
Outras possibilidades levantadas pelo pesquisador incluem goiabadas vendidas em plásticos feitos de goiaba, sushis envolvidos com filmes comestíveis no lugar das tradicionais algas, perus vendidos em sacos feitos de laranja, que vão direto ao forno, e geleias em formato de ursinhos, só que elaboradas com frutas naturais.
O pesquisador informa ainda que o plástico comestível tem ainda a vantagem de reaproveitar alimentos rejeitados pelas indústrias e vegetais que deixam de ser comercializados por não apresentarem bom aspecto visual, mesmo estando em condições de consumo. “Esses vegetais que iriam estragar na prateleira podem ser matéria-prima para a embalagem comestível”, acredita o especialista.
De acordo com o doutorando Marcos Vinicius Lorevice, que participa do projeto, ainda não há prazo para que a inovação chegue ao mercado, mas já há empresas interessadas em produzir o filme comestível em escala industrial.
Características – O material tem características físicas semelhantes aos plásticos convencionais, como resistência e textura, e tem igual capacidade de proteger alimentos. Além disso, o “plástico orgânico” apresentou propriedades mecânicas superiores aos plásticos sintéticos. Em laboratório, os produtos se mostraram mais resistentes ao impacto, além de serem três vezes mais rígidos que os plásticos sintéticos.
A maior diferença, entretanto, está na matéria-prima. O plástico comestível é feito basicamente de alimento desidratado misturado a um nanomaterial que tem a função de dar liga ao conjunto. “O maior desafio dessa pesquisa foi encontrar a formulação ideal, a receita de ingredientes e proporções para que o material tivesse as características de que precisávamos”, explica o engenheiro de materiais José Manoel Marconcini, pesquisador da Embrapa que também participou do projeto.
Processo de produção – O plástico foi desenvolvido após duas décadas de trabalho e o processo de produção é considerado simples. Primeiramente, a matéria-prima, como frutas e verduras, é transformada em uma pasta. A seguir, os pesquisadores adicionam componentes para dar liga no material e o colocam em uma fôrma transparente, que será levada a uma câmara que emite raios ultravioleta. Após poucos minutos, a película sai da máquina pronta para ser consumida.
O líder da Rede de Pequisa de Nanotecnologia para Agronegócio da Embrapa, Cauê Ribeiro, conta que, depois de passar pelos raios ultravioleta, o plástico recebe o último processamento e toma forma de filme. “O nosso plástico tem características similares aos filmes convencionais, ou seja, ajuda a diminuir a passagem de gases e evita o contato com outros organismos”, destacou.
O resultado é um alimento completamente desidratado com a vantagem de manter suas propriedades nutritivas. Os pesquisadores adicionaram, ainda, quitosana, um polissacarídeo formador da carapaça de caranguejos, com propriedades bactericidas – o que pode aumentar o tempo de prateleira dos alimentos. “Dessa forma, temos um plástico facilmente degradável e que fornece proteção superior aos alimentos, além de poder ser utilizado para dar sabor”, finaliza.

segunda-feira, 18 de maio de 2015

Geladeira eficiente consome menos energia e pode esquentar água de chuveiro...




Uma geladeira que resfria os alimentos, esquenta a água do chuveiro e das torneiras e ainda gasta menos energia em seu funcionamento. Parece magia, mas esse sistema já é real. Ele foi desenvolvido e patenteado por pesquisadores da USP (Universidade de São Paulo) e pode chegar ao mercado em breve.
“O calor gerado pela geladeira vai para o ambiente e é dissipado. Com o sistema, esse calor deixa de ser perdido e é utilizado para esquentar a água”, comenta o professor José Roberto Simões Moreira, coordenador do Laboratório de Sistemas Energéticos Alternativos do Departamento de Engenharia Mecânica da Poli.
Para entender como funciona o sistema, é preciso entender o funcionamento da geladeira: o processo de circulação refrigerante é feito através de um gás, que é aspirado pelo compressor e comprimido, o que resulta em aumento da pressão e temperatura do gás. Esse gás prossegue para um condensador — uma espécie de serpentina que fica na parte posterior da geladeira doméstica, onde o calor é dissipado, e assim a geladeira é gelada.
A energia térmica liberada pela geladeira pode chegar a 60 °C. “Inserimos um tanque de água entre o compressor e o condensador permitindo, assim, que o calor do gás quente fosse transferido para a água em vez de ser dissipado para o ambiente em que se encontra a geladeira”, acrescenta.
O sistema deve custar ao consumidor cerca de R$ 200, se houver fabricação industrial. De forma artesanal, o custo estimado para a instalação seria de R$ 400. O uso pode ser para geladeiras residenciais e comerciais.
Projeto – A pesquisa, coordenada por Simões, durou oito meses e teve a parceria do aluno de graduação Lucas Zuzarte. Segundo os pesquisadores, o invento pode, em teoria, ser utilizado em todos os refrigeradores do País, número estimado em 50 milhões pelo IBGE (Instituto Brasileiro de Geografia e Estatística).
Nos testes em laboratório, feitos com uma geladeira comercial de 565 litros e um tanque de 25 litros de água acoplado ao sistema, a temperatura final da água chegou a 55º C, com aumento médio de 5º C por hora. Quanto mais o equipamento é utilizado, mais rápido e intenso é o aquecimento. “Se formos levar em conta o custo para aquecimento dessa quantidade de água por mês, a economia seria de aproximadamente R$ 35 ao mês”, disse.
Consumo – Outra vantagem do sistema é que ele melhora o desempenho da geladeira e diminui o consumo de energia elétrica. Nos testes, o coeficiente de performance do refrigerador, que mensura sua eficiência energética, aumentou mais de 13%. Já o consumo de energia do compressor caiu entre 7% e 18%.
“Além de garantir água quente, a instalação do equipamento melhora o desempenho da geladeira. Além disso, ele pode diminuir o consumo de ar condicionado, já que o calor que iria para o ambiente e aumentaria a temperatura do local onde a geladeira está”, garante.
Potência – Simões pondera que o processo é mais eficiente em refrigeradores comerciais por causa da potência dos aparelhos. “Creio que para restaurantes, lojas de conveniência de postos combustíveis e outros pontos comerciais do gênero será uma inovação muito bem vinda, porque pode otimizar a economia de energia de fato, mas em residências sua aplicação também é viabilizada”.
Além disso, o sistema tem como vantagem ser fácil e barato de instalar. “Pode ser facilmente instalado por qualquer técnico de refrigeração”, diz. Trata-se, basicamente, de um tanque, que no caso dos testes foi feito em aço inox, mas pode ser confeccionado com material mais barato, e alguns tubos de cobre e de PVC.
Mercado – Simões acredita que, como a patente já foi concedida e as pesquisas demonstraram todo o potencial de aplicação do sistema, é possível que a inovação chegue efetivamente ao mercado em alguns meses. Segundo ele, a indústria levaria menos de três meses para fazer as adaptações necessárias e o desenvolvimento final do produto.
“Em princípio, a ideia é apresentar o sistema aos fabricantes de geladeiras, que teriam condições de oferecê-lo como opcional na compra do aparelho”, conta.

sexta-feira, 15 de maio de 2015

Barcelona planeja ponte que ‘come’ poluição...



Uma ponte que decompõe e ‘devora’ rapidamente mofo, sebo, fuligem, fumaça de cigarro e outros componentes, melhorando a qualidade do ar ao seu redor.
Mágica? Longe disso. Trata-se de um projeto de arquitetos espanhóis para reformar a ponte Sarajevo na cidade de Barcelona.
Segundo Toni Casamor, do escritório de arquitetura espanhol BCQ, a ponte será reconstruída com um cimento mesclado a aditivos que fazem essa filtragem que mitiga a poluição ambiental.
“O processo funciona como uma planta durante a fotossíntese, no sentido que consome o CO2 (dióxido de carbono) e regenera o ar ao seu redor”, explicou Casamor à BBC Mundo.
Segundo ele, será usando um concreto conhecido como fotocatalítico, que “filtra” a poluição absorvendo os raios ultravioletas e transformam contaminantes em elementos inócuos à saúde humana.
Por definição, a fotocatálise é o aumento da velocidade de uma reação química pelo efeito da luz de outras energias radiantes. O conceito de fotocatálise é conhecido há anos, mas seu uso aliado ao cimento é algo recente.
E assim, a nova ponte deve decompor elementos alergênicos, algas, bactérias e óxido de nitrogênio produzidos pelo combustível de automóveis.
A ponte também terá luminárias LED alimentadas por painéis solares e estruturas com jardins.
Valor – Casamor explica que o projeto sairá um pouco mais caro que o normal. “Como ele inclui um aditivo que é adicionado ao cimento, isso custa mais. É difícil estimar o valor porque há vários fatores a ser considerados, mas sai cerca de 15% mais caro.”
O processo também é considerado autolimpante porque, para ocorrer, não requer químicos nocivos para o ambiente.
Também estão sendo desenvolvidos vidros com essas mesmas características.
O uso de materiais fotocatalíticos vem sendo bastante estudado e, até o momento, está sendo considerado um método eficiente para melhorar a qualidade do ar em áreas poluídas.
Essa tecnologia está sendo testada na sede da companhia aérea Air France, no aeroporto de Roisyy-Charles de Gaulle, em Paris; em uma delegacia em Burdeos, também na França, além de em uma igreja em Roma, Itália. 

quarta-feira, 13 de maio de 2015

Como a ciência mede um terremoto?



O noticiário sobre os terremotos do Nepal novamente traz à tona termos técnicos para explicar a intensidade de tremores.

Existem escalas criadas por geólogos para descrever o que se conhece como a “magnitude” deste tipo de evento.

A mais usada delas é a MW, que se baseia na energia liberada por um terremoto. Trata-se de uma escala aberta (não de zero a dez), que começa em 2,5. Esta é a magnitude da maioria dos tremores que ocorrem a cada ano – insignificante para ser percebida por pessoas, mas que é captada por instrumentos que medem as vibrações causadas pelos terremotos (sismógrafos).

Momento do tremor – Para fazer este cálculo, cientistas levam em consideração variáveis como o movimento de uma falha geológica e a força requerida para movê-la.

A escala é logarítmica. Isso significa que para cada número inteiro “aumentado”, a diferença de força de um terremoto cresce consideravelmente: um tremor 6, por exemplo, libera 32 vezes mais energia que um 5. Um tremor de magnitude 7, em que começa a destruição mais severa por terremotos, é mil vezes mais “forte” que um 5.

Um terremoto de magnitude 8, por exemplo, libera força equivalente a seis milhões de toneladas de dinamite.

O tremor que causou o catastrófica tsunami de 2004 na Ásia foi o terceiro mais forte medido desde 1900 – mediu 9,3.

Segundo o Serviço Geológico Americano, há pelo menos 20 grandes terremotos no mundo a cada ano.

Mas a devastação causada por terremotos não depende somente de sua magnitude, mas sim do planejamento das autoridades e mesmo das condições sócio-econômicas das regiões afetadas.

Em fevereiro de 2010, por exemplo, o Chile foi atingido por um terremoto de 8,8. Menos de 1 mil pessoas morreram, pois o país tem um sistema de reposta para emergências desenvolvido por causa de uma longa história de tremores, o que inclui o maior já registrado (9,5, em 1960).

No entanto, também em 2010, mais de 200 mil pessoas morreram no Haiti quando um tremor de magnitude 7,0 atingiu a capital, Porto Príncipe.

Já o Nepal, em apenas três semanas, foi atingido por dois tremores. O primeiro, de 7,8 de magnitude, matou mais de 8 mil pessoas no final de abril.

Nesta terça-feira, o país foi atingido por um tremor de magnitude 7,3 que deixou dezenas de mortos e centenas de feridos.

terça-feira, 12 de maio de 2015

Nível do mar está aumentando mais rapidamente, diz estudo...



A elevação do nível do mar em todo o mundo acelerou ao longo da última década, ao contrário do que indicavam estimativas anteriores – é o que aponta um estudo publicado nesta segunda-feira (11) pela revista “Nature Climate Change”.
Estudos precedentes baseados em dados de satélite mostraram que a alta do nível dos oceanos nos últimos dez anos tinha desacelerado com relação à década anterior.
Mas eles não incluíam possíveis imprecisões dos instrumentos utilizados, que não levavam em conta especialmente o movimento vertical da Terra para o cálculo do nível do mar.
O movimento vertical da Terra é um movimento ascendente natural da superfície terrestre, o que pode ocorrer, por exemplo, durante tremores ou acomodação de terra.
A equipe liderada pelo pesquisador Christopher Watson, da Universidade da Tasmânia (Austrália), tem trabalhado para identificar e corrigir imprecisões das medições por satélite.
Para isso, os pesquisadores combinaram as medições do movimento vertical da Terra realizadas por GPS com dados fornecidos por hora por uma rede maior de marégrafos, instalados nos oceanos do mundo.
Segundo os pesquisadores, entre 1993 e meados de 2014, o aumento global do nível do mar foi menor do que o estimado anteriormente, de 2,6-2,9 milímetros por ano, com uma margem de erro de mais ou menos 0,4 milímetros, e não de 3,2 milímetros.
Dos seis primeiros anos deste período (1993-1999), os pesquisadores revisaram a redução das estimativas de 0,9 para 1,5 milímetros ao ano.
No entanto, de acordo com eles, o aumento tem se acelerado desde a virada do século.
Segundo os autores do estudo, esta “aceleração é maior do que a observada (na década anterior), mas está de acordo com a aceleração causada pelo derretimento das calotas polares na Groenlândia e no Atlântico ocidental durante este período, assim como as previsões do IPCC”.
Segundo o Painel Intergovernamental sobre Mudanças Climáticas (IPCC), o nível global do mar subiu 19 centímetros entre 1901 e 2010, uma média de 1,7 milímetros por ano.
O IPCC prevê um aumento do nível do mar de 26 a 82 centímetros até 2100 em comparação com o final do século 20. 

sexta-feira, 8 de maio de 2015

Estudo mostra que humanos também provocam terremotos...



Um relatório feito nos Estados Unidos sobre áreas suscetíveis a terremotos confirmou uma suspeita conservada por sismólogos nos últimos anos: os estados localizados no centro do país têm mais chances de registrar tremores do que as cidades conhecidas por serem propensas a esse tipo de atividade sísmica na Costa Oeste americana e a culpa é da atividade humana. As informações são do IFL Science.
É a primeira vez que o Serviço Geológico dos Estados Unidos tenta estimar a escala de movimentos terrestres gerados pela ação do homem. Contudo, aponta o estudo, ela provocou, até o momento, poucos e pequenos danos, incapazes de serem detectados sem equipamentos sensíveis. Mas ninguém descarta a possibilidade de enfrentarmos terremotos induzidos pelo homem de até magnitude 7.
A injeção de água e outros produtos químicos para quebrar rochas e extrair combustíveis fósseis pode provocar falhas, mas de acordo com o Serviço Geológico dos EUA, essa atividade de injetar líquido sob alta pressão para forçar a a abertura de fissuras existentes e extrair petróleo ou gás não é em si a causa dos tremores, mas sim a eliminação de águas residuais sobre as rochas mais profundas.
Foi registrado em 2011, na cidade de Prague, em Oklahoma – situada no coração de uma das zonas que mais sofrem com esse tipo de atividade – um terremoto de magnitude 5.6 na Escala Richter. Na ocasião, duas pessoas ficaram feridas e 14 casas foram destruídas. As causas do fenômeno ainda são discutidas na Justiça, mas um jornal especializado em geologia atribuiu a culpa da ocorrência do terremoto à injeção de líquido. O governo, contudo, se recusou a limitar a atividade.
O novo relatório, contudo, descreve pela primeira vez “como terremotos induzidos por injeção podem ser incorporados em mapas de risco sísmico nos Estados Unidos”, segundo o geólogo Mark Petersen. “Esses terremotos estão ocorrendo com uma frequência nunca vista até então e representam um risco muito maior para as pessoas que vivem nas proximidades.” 

quinta-feira, 7 de maio de 2015

Fiordes são aliados naturais contra as mudanças climáticas, aponta estudo...


Os fiordes (grandes entradas de mar entre montanhas) que existem em locais como o Alasca e a Noruega absorvem o carbono possivelmente prejudicial à atmosfera, o que os torna um aliado natural na compensação das mudanças climáticas provocadas pela ação humana. As informações fazem parte de um estudo apresentado na segunda-feira (4) na revista “Nature Geoscience”.
Os fiordes cobrem somente 0,1% da superfície oceânica do mundo, mas representam 11% do carbono orgânico em plantas, solos e rochas que são enterrados em sedimentos marítimos todos os anos, após serem levados da terra pelos rios, mostrou a pesquisa.
As entradas de mar ao longo de penhascos, esculpidas por geleiras de sucessivas eras glaciais, são classificadas como “um dos maiores pontos do oceano para o enterro de gás carbônico, baseado na massa do carbono enterrado por unidade de área”, de acordo com a equipe de cientistas liderada pelos Estados Unidos.
As descobertas ampliam o conhecimento sobre como o carbono, estrutura essencial para a vida na Terra, tem ciclos na natureza, e pode ajudar no combate às mudanças climáticas. Em sua forma gasosa, o dióxido de carbono é o maior causador do efeito-estufa, responsável por aumentar o aquecimento global.
Os fiordes são especialmente bons em armazenar carbono porque são fundos, recebem fluxos intensos de águas repletas de carbono de rios, e possuem águas calmas e oxigenadas, nas quais o carbono afunda.
Estima-se que mundialmente os fiordes absorvam 18 milhões de toneladas de carbono por ano, de acordo com o estudo que observou fiordes nas nações nórdicas, Groelândia, Canadá, Alasca, Chile, Nova Zelândia e Antártica.

segunda-feira, 4 de maio de 2015

Com bolhas de sabão e ponteira a laser, cientistas criam ’sol artificial’...


Com água, detergente para lavar louça e uma ponteira a laser, daquelas usadas em palestras, o casal de físicos Adriana e Alberto Tufaile criou um modelo experimental e forneceu uma nova explicação para um fenômeno natural que fascina a humanidade há pelo menos 2,3 mil anos, desde os tempos de Aristóteles: o aparecimento de um conjunto de efeitos luminosos em torno do Sol denominado tecnicamente parélio. Em zonas frias, a luz solar interage com pequenos cristais de gelo em suspensão na atmosfera e, sob certas condições, faz surgir pares de manchas brilhantes (os chamados falsos sóis ou cães de Sol), um halo (círculo parélico) e linhas retas (pilares do Sol) ao redor do astro. Em ocasiões ainda mais raras, essas formações também ocorrem nos arredores da Lua.
Os professores do Laboratório de Matéria Mole da Escola de Artes, Ciências e Humanidades (EACH) da Universidade de São Paulo (USP), campus da zona leste, realizavam em meados de 2013 ensaios sobre o espalhamento da luz em espuma formada por sabão, um dos seus campos de estudo, quando se depararam com essa mesma série de figuras projetadas ao fundo do experimento. “Não tínhamos ideia do que poderia ser”, diz Alberto. “Fizemos uma longa pesquisa e o único fenômeno semelhante era o parélio, que não conhecíamos.” A descoberta foi relatada em artigo publicado em 9 de dezembro na versão eletrônica da revista científica Physics Letters A. “Até hoje as explicações para o fenômeno atmosférico só levaram em conta a ótica geométrica, que trata a luz como partícula e segue as ideias de Newton”, afirma Adriana. “Mas nosso estudo sugere que o círculo parélico é fruto principalmente da característica ondulatória da luz.”
As figuras praticamente análogas às manchas brilhantes, linhas retas e círculo que se formam ao redor do Sol foram observadas em laboratório quando os físicos iluminaram com o feixe de laser a chamada borda de Plateau, exatamente o ponto de contato entre três finos filmes de bolhas de detergente. A região de intersecção recebe esse nome em homenagem ao físico belga Joseph Plateau. No século XIX, ele observou que as bolhas sempre se encontram em trios e formam uma espécie de quina, que sustenta suas tênues paredes. Mudando o ângulo de incidência da luz sob a borda de Plateau, formada no interior de uma caixa de acrílico fechada (célula de Hele-Shaw) que abriga uma solução de água e detergente, Adriana e Alberto notaram que apareciam mais ou menos figuras, de diferentes tamanhos e com distinta nitidez. Intrigada com o padrão luminoso gerado pelo laser no experimento feito na USP Leste, Adriana resolveu um dia tentar reproduzir o ensaio em casa. Botou água com sabão em um pires, agitou a mistura para formar bolhas e apontou uma ponteira de laser na direção da borda de Plateau, o ponto de encontro de três filmes de espuma. Não deu outra: as manchas luminosas, as linhas e o círculo surgiram na parede de sua casa. “Em ambiente aberto, a borda de Plateau se desfaz mais rapidamente”, explica a física. “Por isso usamos a célula de Hele-Shaw.”
Uma das chaves para entender a similaridade entre os dois fenômenos, o atmosférico e o das bolhas de sabão, está ligada à simetria extremamente parecida dos cristais de neve e das bordas de Plateau, segundo a dupla da USP, cujos estudos fazem parte do Instituto Nacional de Ciência e Tecnologia de Fluidos Complexos (INCT-FCx), financiado pela FAPESP e Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). Os cristais têm formato hexagonal e as bordas são triangulares. Essas duas figuras geométricas exibem uma íntima relação: um hexágono regular pode ser visto também como a junção de seis triângulos equiláteros. Portanto, ao incidir sobre essas duas estruturas, a luz do Sol ou a do laser se espalha de acordo com o mesmo princípio. “É muito difícil estudar em detalhes a formação das imagens nesse raro fenômeno atmosférico”, explica Alberto. “E capturar os cristais de gelo envolvidos no fenômeno é praticamente impossível.” Como tinham identificado um análogo do parélio do Sol em seus ensaios com bolhas de detergente e laser, o casal de pesquisadores decidiu investigar a fundo o mecanismo por trás da formação desse padrão de imagens luminosas.
Depois de repetir o experimento várias vezes no laboratório, usando inclusive lasers de três cores diferentes (verde, azul e vermelho) para se certificar de que o comprimento de onda de luz não interferia no resultado, e estudar a literatura científica sobre o fenômeno atmosférico, Adriana e Alberto chegaram à conclusão de que a explicação das figuras formadas passava essencialmente pelo caráter ondulatório da luz. Mais especificamente eles acreditam que, ao se chocar com o ponto de encontro das três bolhas de sabão, o feixe de laser espalha a luz por meio de dois processos similares, interferência e difração, em especial o segundo. A difração é um fenômeno visto durante a propagação de diferentes tipos de ondas, como as sonoras, as eletromagnéticas e até as formadas na água. Ocorre quando o som ou a luz encontra um obstáculo ou uma fenda de dimensões diminutas, mais ou menos do mesmo tamanho do seu comprimento de onda, e esse choque altera o seu ângulo de propagação. O resultado da difração é provocar um desvio no caminho do feixe de ondas ou o seu espalhamento. O fenômeno é mais fácil de ser observado com as ondas sonoras, maiores do que as da luz visível.
No caso do laser que ilumina as bolhas de sabão, o feixe de luz incide sobre a borda de Plateau, uma região de alguns nanômetros de comprimento que forma um pequeno tubo triangular capaz de espalhar a luz. A luz chega no ponto de junção das três bolhas na forma de um único feixe de laser, reto e concentrado. Depois de se chocar com o tênue obstáculo, ela dá origem a uma série de feixes menos potentes e mais finos que vão formar o padrão luminoso associado ao fenômeno. Uma parte do laser inicial praticamente passa reto pela borda e origina, numa superfície branca situada atrás do experimento, um ponto luminoso mais forte, o equivalente ao Sol original que se vê na versão atmosférica do fenômeno. A luz dessa mancha se reflete nas bolhas de sabão e produz duas ou quatro imagens espelhadas, menos vigorosas que a original, os tais falsos sóis no caso da ocorrência celeste. “É interessante notar que esses pontos luminosos sempre se formam sobre a linha que delimita o círculo”, afirma Adriana.
Até esse ponto, a explicação da dupla de brasileiros é mais ou menos igual às ideias de outros pesquisadores para dar conta do parélio solar. Sua contribuição ganha importância quando eles introduzem a questão da difração da luz causada por finos filmes de espuma. As linhas retas, em geral três, que cortam o ponto principal, o “sol original” do experimento, são formadas pela difração de parte da luz que incide na estrutura triangular da borda de Plateau. É como se a parede de cada uma das três bolhas que se encontram encostadas umas nas outras desse origem a uma linha reta. Para que também o halo do fenômeno se forme, é necessário um requisito extra: o laser tem de incidir de forma oblíqua na borda de Plateau. Dessa forma, outra fração da onda de luz difratada se espalha num formato cônico, formando assim um círculo perfeito. “Nossa explicação é mais simples do que as outras teorias que usam apenas reflexão e refração da luz, e não seu caráter ondulatório, para explicar o fenômeno atmosférico”, diz Alberto.
O Sol e suas réplicas de menor intensidade são uma ocorrência celeste que tem fascinado o homem há tempos, de acordo com registros escritos e até representações pictóricas desse evento. No século IV a. C., Aristóteles faz referência a esse tipo de evento no livro Meteorológica. Considerado como a primeira representação de Estocolmo, o quadro Vädersolstavlan, de 1535, retrata o fenômeno em sua plenitude nos céus da capital sueca. Ainda no século XVI, o dramaturgo inglês William Shakespeare faz referência ao parélio na terceira parte da peça Henrique VI. O francês René Descartes foi a Roma em 1629 para ver o fenômeno e também escreveu a respeito dele. Em alguns momentos, certas culturas chegaram a associar a ocorrência do parélio com a iminência de guerra. Adriana e Alberto, quando viram a versão a laser e com bolhas de sabão do fenômeno em seu laboratório na USP Leste, avaliaram que estavam diante de um interessante – e milenar – tema de pesquisa.