sexta-feira, 30 de abril de 2010

Iluminação com LEDs produz vegetais mais saudáveis

Cientistas da Lituânia descobriram que uma iluminação à base de LEDs, aplicado durante apenas três dias, é capaz de melhorar a qualidade nutricional de verduras e legumes, principalmente dos vegetais verdes folhosos.
A tecnologia com tratamento dos vegetais com luz poderá ser aplicada em estufas para reforçar os nutrientes dos vegetais no período pré-colheita.
Nitratos e nutrientes – O experimento foi feito em plantações de alface, orégano e cebolinha. Os vegetais foram cultivados em estufa, sob luz ambiente, com um reforço de iluminação noturna com uma lâmpada de vapor de sódio.
Nos três dias anteriores à colheita, os vegetais receberam a iluminação noturna de um conjunto de diodos emissores de luz, os LEDs, lâmpadas de estado sólido de baixo consumo de energia, do mesmo tipo encontrado na maioria dos aparelhos eletrônicos.
O resultado foi uma redução no nível de nitratos nos vegetais que variou de 44 a 65%.
O maior nível de redução dos nitratos foi verificado nas plantações de alface cultivado por hidroponia. Depois de um tratamento de três dias sob a luz de LEDs vermelhos, os testes mostraram uma redução de 65% na concentração de nitratos.
Além de diminuir a concentração de nitratos danosos à saúde, o fluxo de fótons de alta densidade gerado pelos LEDs também elevou os níveis de nutrientes dos vegetais.
Plantas iluminadas com LEDs – Segundo Giedre Samuoliene, coordenador da pesquisa, a tecnologia é diferente da já difundida prática das lâmpadas de sódio de alta pressão.
Os iluminadores de estado sólido limitam a quantidade de calor radiante, já que os LEDs têm luz fria, permitindo uma maior intensidade na fotossíntese.
Além disso, a técnica exige apenas um tratamento curto, pouco antes da colheita, em vez de uma iluminação durante o ciclo completo da cultura.
O investimento inicial na aquisição dos iluminadores de LED pode ser caro, afirma Samuoliene, mas a técnica é economicamente viável porque o tratamento é aplicado durante apenas 10% do tempo da cultura, com um baixíssimo consumo de energia.
Há também a perspectiva das vantagens de um eventual sobre-preço pelo fornecimento de vegetais mais saudáveis.

Fonte: Site Inovação Tecnológica

Grandes fabricantes mostram seus modelos de carros “verdes” em Pequim

As grandes marcas mundiais de veículos aproveitaram o Salão de Automóvel de Pequim para apresentar seus modelos “verdes”, que podem se tornar, em curto prazo, um dos melhores produtos à venda no mercado chinês, o maior do mundo.
A maior fabricante chinesa, SAIC, expôs seu carro elétrico, durante o salão que abriu na terça-feira (27) e vai até domingo (2).
Dos mil modelos expostos, 95 são elétricos ou híbridos – produzidos pela SAIC, por sua concorrente chinesa BYD e a americana General Motors.
A GM apresentou o Volt, um carro elétrico que deve ser lançado no mercado em 2011. A BYD, que tem como principal acionista é o milionário americano Warren Buffett, lançou o modelo E6, que funciona somente com eletricidade.
A Beijing Automotive Industry Holding Co anunciou que pretende investir 3,7 milhões de yuans (542 milhões de dólares) no desenvolvimento de veículos com fontes de energia alternativas, reafirmando a importância desse setor para a China.
No entanto, para os analistas o verdadeiro desenvolvimento de veículos alternativos na China ainda enfrenta dificuldades.
O governo decepcionou aqueles que esperavam, em janeiro, o anúncio de subsídios para o setor, que permitiriam baixar os preços para o consumidor chinês.
Preços elevados, autonomia reduzida e falta de postos de recarga de bateria limitam as vendas, explica Finbarr O’Neill, presidente da sociedade de consultores JD Power and Associates.
Menos de 4 mil carros híbridos (movidos a eletricidade e gasolina) foram negociados na China no ano passado e a venda de veículos elétricos foi quase inexistente, acrescentou.
No total, 13,64 milhões de carros foram vendidos na China em 2009, o que fez do país o primeiro no mercado do mundo, ultrapassando os Estados Unidos.
Os chineses seguem preferindo modelos de alto consumo de gasolina, embora no ano passado os modelos menores tenham tido maior aceitação, graças aos incentivos fiscais.
O alto valor dos veículos elétricos se deve ao custo das suas baterias recarregáveis, que os encarecem em 10 mil a 15 mil dólares.
“Não acredito que a maioria dos compradores esteja disposta a pagar mais para ter um carro mais ecológico”, destacou Finbarr O’Neill. “Sem subsídios, empresas como a BYD terão muitos problemas para alcançar uma massa crítica” na produção.
A China quer reduzir seu consumo e sua dependência energética, assim como seus graves problemas de poluição. Por isso, espera-se que o desenvolvimento de tecnologias ecológicas e carros “verdes” represente de 10% a 15% das vendas até 2020.
Desde 2006, o governo e as fabricantes de automóveis chinesas investiram pelo menos 10 milhões de yuans no desenvolvimento de veículos movidos com fontes de energia alternativas ao combustível. Desse montante, 1,1 milhão foi dado pelo governo, segundo o ministério das Indústrias e Tecnologias da Informação.
Apesar deste lento desempenho, a previsão segue otimista. Better Place, uma sociedade californiana que instala postos de recarga para veículos elétricos, vislumbra um bom mercado na China. No sábado, firmou um acordo com a fabricante chinesa Chery para desenvolver os primeiros protótipos.

Fonte: G1

Mais cana com menos queima

O Estado de São Paulo registrou, nos últimos anos, uma rápida expansão na produção de cana-de-açúcar, em consequência principalmente do aumento da demanda por etanol para atender ao mercado de veículos flex no país.
De 2003 a 2009, a área total do cultivo da cana disponível para a colheita no Estado saltou de 2,57 milhões para 4,89 milhões de hectares, segundo dados do mais recente relatório feito pelo Instituto Nacional de Pesquisas Espaciais (INPE), em São José dos Campos (SP).
O dado mais expressivo – do ponto de vista ambiental – é que pela primeira vez mais da metade da colheita foi realizada sem queima. O relatório referente à safra de 2009/2010 mostra que cerca de 56% da colheita foi realizada sem queima, contra 44% em que se utilizou o recurso. Na safra de 2006/2007, a colheita sem queima beirou os 34%.
De acordo com Bernardo Rudorff, pesquisador do INPE, se o ritmo for mantido, a meta estabelecida pelo Protocolo Agroambiental do Setor Sucroalcooleiro, assinado em 2007 entre o Governo do Estado de São Paulo e a União da Indústria de Cana de Açúcar (Unica) – que prevê a eliminação gradativa da queima da cana-de-açúcar até 2017 –, será cumprida, mesmo com a expansão da produção. Para as áreas com declive inferior a 12%, que permite a mecanização da colheita, o prazo termina em 2014.
“É claro que a expansão envolve questões complexas que impõem alguns limites, como condições favoráveis de mercado e investimento em maquinário, mas a pressão do protocolo está produzindo um resultado muito positivo no Estado e mostra que o objetivo de eliminar totalmente o procedimento de queima pode ser atingido até a data limite”, disse à Agência FAPESP.
Rudorff coordena o Projeto Temático recém-aprovado, intitulado “Impactos ambientais e socioeconômicos associados com a produção de etanol de cana-de-açúcar no centro-sul do Brasil”, que será desenvolvido no âmbito do Programa FAPESP de Pesquisa em Bionergia (BIOEN).
O grupo de pesquisadores vem monitorando, desde 2003, a área de cultivo, o tipo de colheita – com ou sem queima – e a mudança de uso e cobertura da terra decorrente da expansão do cultivo da cana-de-açúcar no Estado de São Paulo. A partir dos dados obtidos são gerados mapas que auxiliam a Secretaria Estadual do Meio Ambiente.
“A partir de 2009, iniciamos uma avaliação mensal da colheita e disponibilizamos os mapas para a secretaria, que, com isso, sabe do percentual e da localização das áreas queimadas. Antes disso, gerávamos um único mapa mostrando tudo o que havia sido colhido com e sem queima durante a safra”, disse Daniel Alves Aguiar, doutorando do programa de pós-graduação e integrante do projeto Canasat do INPE.
Em novo estudo publicado na revista Remote Sensing, os pesquisadores do INPE divulgaram os números referentes à safra de 2008/2009. De 2003 a 2008, a área de produção foi ampliada em 1,88 milhão de hectares. Entretanto, o ritmo de crescimento caiu nas últimas safras. Na safra anterior a 2008, a expansão foi de mais de 1,2 milhão de hectares, em 2008 o aumento foi de pouco mais 320 mil e, na safra 2009/2010, ficou em cerca de 100 mil hectares.
“Uma das explicações é que, com a crise econômica mundial – que afetou todos os setores da economia –, a produção da cana também foi atingida e a produção seguiu um ritmo mais lento nos dois últimos anos”, disse Aguiar, co-autor do artigo.
“No artigo, usamos como referência a safra de 2008 porque o objetivo era apresentar a metodologia que utilizamos que consiste em técnicas de interpretação de imagens de sensoriamento remoto e geoprocessamento”, explicou.
De acordo com o trabalho, a maior expansão de área com cana ocorreu no oeste paulista, que compreende as regiões de São José do Rio Preto, Araçatuba e Presidente Prudente.
“A expansão da cana nessas regiões se deu principalmente sobre as pastagens. E uma das críticas era que o aumento do cultivo da cana poderia comprometer a produção de outras culturas, como soja e milho, e promover uma diminuição do rebanho bovino no Estado”, disse Aguiar.
“São Paulo perdeu muita área que tradicionalmente era de pastagem para a cana-de-açúcar, mas, no entanto, o gado não diminuiu. Isso se deve à otimização do uso do espaço e ao investimento do setor pecuário em tecnologia”, disse Rudorff.
Na safra de 2009/2010, 2,27 milhões de hectares foram colhidos sem a queima da palha, enquanto 1,8 milhão foi colhido com a queima. O mapeamento mostra ainda que as regiões administrativas de Barretos, de Campinas e Central – tradicionais no cultivo da cana – foram as que apresentaram maior porcentagem sem queima, com 61,4%, 60,7% e 61,2%, respectivamente.
Apenas duas regiões, de Marília (56,3%) e de Presidente Prudente (50,8%), tiveram mais área colhida com queima do que sem. “Nesse sentido, o sensoriamento remoto tem importância fundamental para o cumprimento do protocolo”, destacou Aguiar.
Interpretação das imagens – Segundo os pesquisadores, o método utilizado consiste em monitorar o modo de colheita a partir da interpretação visual e do processamento digital das imagens. Mas, ressalta, a metodologia tem uma limitação.
“Para resultados satisfatórios é preciso contar com diversas imagens livres de nuvens durante o período de colheita. Por isso, utilizamos imagens de sensores com características diferentes”, disse Aguiar.
Segundo ele, o mais importante é obter imagens em períodos específicos em que a cana seja mais fácil de ser identificada. O mapeamento do cultivo da cana requer que sejam adquiridas imagens em janeiro, fevereiro e março da safra corrente e setembro e outubro do ano anterior.
“O plantio da cana-de-açúcar é geralmente feito nos meses de março e abril e em outubro elas já começam a aparecer em imagens de satélite. De janeiro a março do ano seguinte é o período em que a cana está mais vigorosa e fácil de ser identificada”, explicou o pesquisador.
Já para a colheita as imagens são adquiridas de abril a dezembro, período tradicional de colheita no Estado de São Paulo. Mas em dezembro, quando começam a aparecer mais nuvens, o trabalho se torna mais complicado.
“O foco principal do artigo que publicamos foi mostrar que a técnica de sensoriamento remoto pode ser utilizada para monitorar vários aspectos do cultivo da cana e tem tido um efeito positivo fora do país. Em discussões ambientais, o Brasil é lembrado por monitorar o cultivo”, disse Rudorff.
O estudo feito no INPE destaca que as metas do Protocolo Agroambiental do Setor Sucroalcooleiro não são para os municípios, mas para o setor como um todo. “O produtor que atingir as metas receberá um selo agroambiental. A ideia é que esse selo possa servir como um ingresso para o mercado externo”, disse Aguiar.

Fonte: Alex Sander Alcântara/ Agência Fapesp

quarta-feira, 28 de abril de 2010

Bioeletricidade: energia é captada diretamente das plantas

Recentemente, cientistas franceses construíram uma biocélula capaz de aproveitar um composto intermediário da fotossíntese das plantas para gerar eletricidade.
Agora, cientistas da Universidade de Stanford, nos Estados Unidos, foram além, e capturaram a eletricidade diretamente das plantas, sem a necessidade de uma biocélula.
Bioeletricidade – A fonte da energia usada pelos pesquisadores de Stanford também é a fotossíntese.
Mas, em vez de hackearem as folhas das plantas, eles literalmente plugaram um fio nas células de algas marinhas responsáveis pela fotossíntese e capturaram diretamente o fluxo de elétrons que elas produzem.
“Nós acreditamos sermos os primeiros a extrair elétrons de células de plantas vivas,” diz o Dr. WonHyoung Ryu, coordenador da pesquisa, destacando que o experimento pode ser o primeiro passo rumo à geração de bioeletricidade de alta eficiência.
Roubando elétrons – Ryu e seus colegas desenvolveram um nanoeletrodo ultra fino, feito de ouro, inicialmente projetado para sondar células vivas individuais.
Eles inseriram cuidadosamente os eletrodos através das membranas das células de algas. As células “abraçaram” os eletrodos, selando a membrana ao seu redor, o que as permite manterem-se vivas por algum tempo.
Os eletrodos coletam os elétrons no interior das células fotossintetizadoras e os transmitem para o exterior, criando uma pequena corrente elétrica.
“Nós continuamos nos estágios científicos da pesquisa,” alerta Ryu. “Nós estamos lidando com células individuais para provar que podemos colher os elétrons.”
Cloroplastos – As plantas usam a fotossíntese para converter a energia da luz em energia química, que é armazenada nos açúcares que elas utilizam como alimento.
Esse processo acontece nos cloroplastos, verdadeiras usinas de força das células, onde são produzidos os açúcares e que são também os responsáveis pela cor verde das folhas e das algas.
Nos cloroplastos, a água é quebrada em oxigênio, prótons e elétrons. A luz do Sol penetra no interior do cloroplasto e excita os elétrons para um nível de energia mais alto, o que faz com que ele seja prontamente capturado por uma proteína.
Os elétrons passam por uma série de proteínas, que sucessivamente capturam mais e mais de sua energia para sintetizar os açúcares – até que toda a energia dos elétrons seja gasta.
Geração de energia sem liberação de carbono – Neste experimento, os cientistas interceptaram os elétrons assim que eles foram excitados pela luz, quando estavam em seu nível mais alto de energia.
O resultado, destacam eles, é uma produção de eletricidade que não libera carbono na atmosfera. O único subproduto da fotossíntese são os prótons e o oxigênio.
“Esta é potencialmente uma das fontes de energia mais limpas para a geração de eletricidade. Mas a questão é, será ela economicamente viável,” pergunta-se Ryu.
Nanoenergia – Cada célula de alga produz 1 picoampere – uma quantidade de energia tão pequena que seria necessário plugar eletrodos em 1 trilhão de células fotossintetizadoras para gerar a energia disponível em uma pilha AA.
Ainda assim, a eficiência na conversão da energia luminosa em eletricidade atinge 20% – equivalente à das células solares fotovoltaicas. Mas os cientistas afirmam que, teoricamente, deve ser possível se aproximar dos 100% de eficiência.
O problema mais sério, contudo, é que as células morrem depois de uma hora. Os cientistas ainda não sabem se elas morrem por causa de vazamentos na membrana celular ao redor do eletrodo ou se é porque elas estão perdendo a energia que seria necessária aos seus processos vitais.
O próximo passo da pesquisa é aprimorar os eletrodos para que a célula possa viver mais tempo. Eletrodos maiores deverão conseguir capturar mais eletrodos. E cloroplastos maiores podem capturar mais energia por área.

Fonte: Site Inovação Tecnológica



Robô submarino tira energia da variação de temperatura do oceano

Pesquisadores norte-americanos apresentaram o primeiro robô submarino alimentado inteiramente pela energia termal do oceano.
A alimentação inteiramente natural e renovável dá ao novo robô uma autonomia virtualmente ilimitada, permitindo-lhe coletar dados científicos nos oceanos por muito mais tempo do que os veículos subaquáticos robóticos usados hoje.
O Solo-Trec (Sounding Oceanographic Lagrangrian Observer Thermal RECharging) foi criado por um consórcio de engenheiros da NASA, da Marinha norte-americana e de várias universidades.
Energia ilimitada – O robô Solo-Trec utiliza um novo sistema de captura de energia que recarrega suas baterias aproveitando as diferenças de temperatura naturais encontradas em diferentes profundidades do oceano.
“As pessoas sonham há muito tempo com uma máquina que produza mais energia do que consome e que funcione indefinidamente,” brinca Jack Jones, do Laboratório de Propulsão a Jato, da NASA.
“Embora isto não seja um moto contínuo verdadeiro, já que nós de fato consumimos energia do meio ambiente, o protótipo que demonstramos é capaz de monitorar continuamente o oceano sem que o fornecimento de energia imponha um limite à sua vida útil.” diz Jones.
Como o novo sistema de recarregamento é escalável, podendo ser usado em robôs de várias dimensões, os cientistas acreditam ter encontrado a solução definitiva para lançar uma nova geração de robôs autônomos capazes de monitorarem os oceanos indefinidamente, coletando dados para estudos climáticos, para exploração e para estudo da vida marinha.
Materiais de alteração de fase – Segundo os pesquisadores, a chave para o recarregamento termal das baterias do robô submarino é a cuidadosa seleção de substâncias parecidas com ceras, chamadas materiais de alteração de fase.
Esses materiais de alteração de fase ficam contidos em 10 tubos externos. Quando o robô está na superfície, onde as temperaturas são mais elevadas, o material se funde e expande. Quando o robô mergulha, atingindo zonas onde as temperaturas são mais baixas, o material se solidifica e contrai.
A expansão da cera pressuriza um compartimento de óleo, situado no alto dos tubos. Periodicamente, o óleo aciona um motor hidráulico, que gera energia e recarrega as baterias do robô.
Além de fazer funcionar a parte eletrônica, a energia das baterias recarregáveis aciona o sistema hidráulico de flutuação. Esse sistema hidráulico altera o volume do Solo-Trec – e, por decorrência, sua flutuabilidade – permitindo que ele se mova verticalmente com grande precisão.
No conjunto, os 10 tubos contêm uma quantidade de cera de alteração de fase suficiente para gerar a energia necessária para alimentar o robô. Para alimentar robôs maiores, é necessário apenas construir tubos maiores ou adicionar um maior número deles. O protótipo do Solo-Trec pesa 84 quilogramas.
Recarregamento termal – Para testar o novo sistema de recarregamento termal, o protótipo do Solo-Trec completou 300 mergulhos até uma profundidade de 500 metros.
O sistema gera 1,7 watt/hora, ou 6.100 joules de energia por mergulho.
Isso é suficiente para alimentar, além da bomba de controle de flutuação, todos os instrumentos científicos do robô mergulhador, o receptor GPS e os equipamentos de comunicação via satélite.
Robôs submarinos de monitoramento – Os robôs submarinos de monitoramento são programados para mergulhar e emergir de forma controlada. Enquanto estão mergulhando ou emergindo, seus sensores vão coletando as informações sobre temperatura, salinidade, correntes marinhas etc.
Eles precisam sempre emergir de tempos em tempos para transmitir os dados coletados, o que é normalmente feito por meio de uma conexão via satélite.
Mas o Solo-Trec aproveita os mergulhos também para recarregar suas baterias.
Embora já existam robôs submarinos pesquisando todos os oceanos da Terra, pesquisas recentes revelaram a necessidade de literalmente aprofundar essas pesquisas, uma vez que os cientistas não conseguiram ainda encontrar onde está se acumulando o calor do aquecimento global, mas eles desconfiam que esse calor perdido possa estar na parte mais profunda do oceano.

Fonte: Site Inovação Tecnológica



terça-feira, 27 de abril de 2010

Reações da atmosfera ao excesso de dióxido de carbono

O gás carbônico é o principal subproduto da queima dos combustíveis fosseis para obtenção de energia.
Não há como obter energia a partir da matéria orgânica sem gerar gás carbônico.
O gás carbônico é mais denso que a mistura gasosa que compõe a atmosfera, por isso, a tendência do referido gás é permanecer nas camadas mais baixas da atmosfera. A mistura do gás carbônico com os gases atmosféricos só acontece devido à variação da pressão, ventilação, movimentação dos mares e oceanos, movimentação da terra, ventos, chuvas e calor solar. Se não houvesse a “intervenção” destes agentes naturais, a vida animal já estaria extinta por asfixia.
O gás carbônico é isolante térmico, não é tóxico, é inerte, mas por ser mais denso que o ar, expulsa o oxigênio dos ambientes mais baixos, ocupando seus espaços, podendo provocar a asfixiante.
Os grandes centros produzem gigantescos volumes aquecidos de gás carbônico, que pelos motivos expostos, ficam estacionados no local de sua geração, formando bolsões térmicos sobre o local de origem com pouca ou nenhuma, dissipação ou movimentação.
Imaginemos o estrago que um bolsão térmico, contendo baixas temperaturas, faz quando rompe um grande volume de massa de gás carbônico aquecida. Pode-se fazer uma experiência bastante simples, enchendo duas bexigas de borracha, dessas usadas em festas infantis. Coloque uma na geladeira e outra deixe a temperatura ambiente ou, melhor ainda, sob o sol quente. Após meia hora, pressione uma contra a outra, fazendo com que se rompam simultaneamente. Observaremos a formação de gotículas de água se precipitam imediatamente.
Fenômeno parecido acontece freqüentemente ao nosso redor. Por exemplo, a cidade de São Paulo, após um dia inteiro, recebendo a descarga de gás carbônico e vapores aquecidos durante todo dia. A atmosfera local está aquecida e saturada de gases, principalmente de gás carbônico. Não nos esqueçamos que São Paulo fica localizada num planalto bem acima do nível do mar, e a massa fria que vem do sul, à medida que caminha, vai-se aquecendo e as moléculas aquecidas tendem a procurar os pontos mais altos.
Quando as duas massas de gases se encontram, a quente que está estacionária e a fria que está chegando, invadindo a massa mais quente, acontece uma rápida precipitação atmosférica, as águas se precipitam de uma só vez, provocando enchentes catastróficas. Quanto mais gás carbônico na atmosfera, pior será a situação.
O gás carbônico dificulta a mobilidade dos gases por ser mais denso, formando barreiras, impedindo a mistura e homogeneização dos gases e vapores e a conseqüente irregular distribuição da umidade, concentrando-a em determinados locais e áreas diferentes, daí as chuvas mal distribuídas, muitas vezes no centro de São Paulo chove torrencialmente e num subúrbio, a alguns quilômetros de distancia, o sol brilha.
Esse fenômeno pode ser local ou global, é o efeito estufa. O efeito estufa está acabando com a vida no planeta, alterando o habitat e as condições de vida na terra. O calor não se dissipa, não há um equilíbrio térmico, resultando na sensação de frio ou calor excessivo.
O calor recebido do sol e o calor retido nos bolsões térmicos são somatórios, cumulativos e não há uma troca térmica com a irradiação natural para o espaço, devido ao bloqueio formado pelo excesso de gás carbônico, havendo uma tendência a um aumento contínuo do calor, facilmente explicável, pois a cada segundo, o mundo queima mil barris de petróleo, mais ou menos 160.000 litros.
Soluções existem para se resolver o problema do efeito estufa, (excesso de gás carbônico na atmosfera), inclusive, criando condições de continuar com a utilização da matriz energética atual, basta para tanto, vontade política e disposição de se gastar um pouquinho dos lucros auferidos pela industria petroquímica para reciclar o gás carbônico, ou melhor, devolve-lo às sua origens.

Autor: Antonio Germano Gomes Pinto
Engenheiro Químico, Químico Industrial, Bacharel em Química com Atribuições Tecnológicas, Licenciado em Química, Especialista em Recursos Naturais com ênfase em Geologia, Geoquímico, Especialista em Gestão e Tecnologia Ambiental, Perito Ambiental, Auditor Ambiental e autor de duas patentes registradas no INPI, no Merco Sul, na UE, na World Intellectual Property Organization e em grande número de países.













sábado, 24 de abril de 2010

Biocombustíveis causam quatro vezes mais emissões de CO2 que a gasolina comum

O impacto analisado pelo estudo da Comissão Europeia não leva apenas em conta a queima do combustível, mas todo o processo envolvido na produção
Combustíveis feitos a partir de soja têm o poder de causar quatro vezes mais impacto no ambiente que a gasolina ou diesel comum. A novidade faz parte de um relatório da Comissão Europeia, segundo o jornal Telegraph de quinta-feira (22).
A emissão quatro vezes maior de CO2 (dióxido de carbono), um dos principais gases responsáveis pelo efeito estufa, é mais uma polêmica que envolve a produção de biocombustíveis. Esse tipo de produto é considerado por muitos especialistas como responsável por provocar escassez de alimentos nos países onde as áreas de plantio para arroz e trigo passaram a ser substituídas por campos de soja ou cana-de-açúcar.
O problema se agrava nos Estados Unidos porque a terra usada na produção de soja para alimentação animal está sendo agora ocupada com foco na demanda pelos biocombustíveis, fazendo com que sejam necessárias mais espaços para o plantio em grandes países exportadores, como o Brasil.
As menores emissões indiretas são as que acontecem a partir do bioetanol feito com cana-de-açúcar ou beterraba e óleo de palma do sudoeste asiático, mas mesmo assim causam danos por muitas vezes estarem ligadas ao desmatamento.
O relatório indica que o assunto é complexo e exige mais análises, mas Kenneth Richter, da ONG (Organização Não Governamental) Amigos da Terra, a conclusão é que os biocombustíveis não são a resposta para combater as alterações climáticas. “A maioria dos processos usados na produção dos biocombustíveis produz mais emissões que os combustíveis fósseis, portanto as ações que estão em curso na Europa deveriam ser feitas de maneira diferente.”
A União Europeia estabeleceu uma meta de substituir pelo menos 10% dos combustíveis mais comuns por aqueles baseados em fontes renováveis até 2020.

Fonte: Portal R7



sexta-feira, 23 de abril de 2010

Cocô de baleia ajuda a sequestrar carbono no mar

Salvar baleias ameaçadas de extinção pode aumentar a capacidade de armazenamento de carbono no oceano Antártico, segundo novo estudo sobre as fezes do mamífero. Os excrementos despejam enormes quantidades de ferro no mar, o que impulsiona o crescimento do fitoplâncton, sequestrador de carbono.
O autor da pesquisa, Stephen Nicol, da Divisão Antártica Australiana com sede em Kingston, na Tasmânia, encontrou grande quantidade de ferro no cocô das baleias. Ele considera que a caça comercial dos animais pode ter sido responsável pela diminuição de cerca de 12% de ferro na superfície do Antártico.
Estudos anteriores mostram que o ferro é crucial para a saúde do oceano porque o plâncton precisa dele para crescer. “Se você adicionar ferro solúvel no oceano, obtém o crescimento do fitoplâncton instantaneamente”, disse o pesquisador. A quantidade de ferro nas fezes significa que proteger as baleias da Antártida poderia inchar as populações de fitoplâncton, que absorvem o dióxido de carbono.
O krill antártico (Euphausia superba) – pequeno crustáceo – serve de alimento para os fitoplânctons, concentrando o ferro em seus tecidos. Por sua vez, as baleias se alimentam deles.
Rações de ferro – Uma pesquisa anterior levantou que as baleias reciclam o ferro do oceano se alimentando da substância encontrado no krill e, posteriormente, liberando-a nas fezes para os plânctons. Mas até este estudo, ninguém havia analisado o excremento dos mamíferos para constatar se eles continham significativa quantidade de ferro.
A equipe de Nicol analisou 27 amostras de quatro espécies de baleias e descobriu que nas fezes de um animal média existe 10 milhões de vezes mais ferro do que na água do mar da Antártida.
Os pesquisadores confirmaram que o ferro veio do krill, pela análise do teor da substância em todo o crustáceo e da amostra do material genético do DNA das fezes. “Nós confirmamos que a grande maioria do ferro no cocô veio do krill”, explicou o autor.
Comedores de Big Mac – Pelas estimativas da população de baleias no oceano Antártico antes da caça comercial que teve início no começo do século passado, Nicol levantou que os mamíferos – agora em perigo – consumiam cerca de 190 milhões de toneladas de krill todos os anos e produziam 7.600 toneladas de fezes ricas em ferro.
De acordo com o autor da pesquisa, populações maiores teriam produzido mais ferro, causando o aumento do número de fitoplânctons e krill.
“Proteger as baleias implica no lento recomeço do sistema”, disse ele. “E isso acabará por aumentar a quantidade de CO2 que o oceano Antártico pode sequestrar.”
David Raubenheimer, pesquisador de ecologia nutricional marinha da Universidade Massey, em Auckland, Nova Zelândia, afirmou que as descobertas são importantes e convincentes. “Elas destacam um papel ecológico específico para as baleias nos oceanos diferente do seu carisma.”
Peter Gill, ecologista da universidade de Deakin em Warrnambool, na Austrália, chama a pesquisa de “excitante”. “Muitas baleias foram retiradas dos mares antes que pudéssemos compreender a ecologia do oceano”, disse. “É emocionante quando podemos reconstruir o passado e percebemos que todas as peças se encaixam.”

Fonte: Folha Online



Estudo indica ligação entre as taxas de nitrogênio e de carbono no ambiente.

Uma nova pesquisa, que investigou o crescente problema da poluição por nitrogênio, indica que as taxas globais de nitrogênio e de carbono no meio ambiente estão intimamente ligadas.
Segundo os autores, o estudo pode auxiliar no desenvolvimento de estratégias para ajudar a mitigar problemas regionais que vão de corpos d’água contaminados a impactos na saúde humana. O trabalho foi publicado na edição desta quinta-feira (22) da revista Nature.
A pesquisa observou que nitratos – uma forma do nitrogênio – no ambiente exibem uma relação consistente, não linear e inversa com o carbono orgânico. O acúmulo de nitratos em rios, lagos e oceanos é uma consequência do uso de fertilizantes artificiais e tem causado problemas ambientais.
Philip Taylor e Alan Townsend, do Departamento de Ecologia e Biologia Evolucionária da Universidade do Colorado, nos Estados Unidos, verificaram que a proporção entre nitratos e carbono é resultado de processos microbianos que ocorrem em praticamente todos os ecossistemas.
Os pesquisadores analisaram dados de regiões tropicais, temperadas e polares, além de áreas conhecidas pela poluição por nitrogênio, como o golfo do México, o mar Báltico e a baía de Chesapeake (Estados Unidos).
“Desenvolvemos um novo modelo para explicar como e por que o carbono e o nitrogênio estão tão intimamente relacionados. Os resultados ajudam a explicar por que a presença de nitratos é tão elevada em alguns corpos d’água e reduzida em outros”, disse Taylor.
Apesar de o gás nitrogênio ser abundante na atmosfera, trata-se de uma forma não reativa e indisponível para a maior parte da vida no planeta. Mas, no início do século 20, entrou em cena um processo para transformar o nitrogênio em amônia, o principal ingrediente dos fertilizantes sintéticos usados na agricultura.
Atualmente são produzidos mais de 180 milhões de toneladas de fertilizantes por ano no mundo, sendo que a maior parte migra das plantações para a atmosfera, rios e oceanos.
O resultado é um conjunto de problemas ambientais que incluem o aumento de algas tóxicas, a “morte” de águas costeiras e sérios impactos na saúde humana – a presença de concentrações elevadas de nitratos na água consumida por humanos aumenta os riscos de desenvolver doenças como câncer, diabetes e Alzheimer.
“Em resumo, em locais em que a presença de carbono orgânico tem níveis suficientes, os nitratos são mantidos em níveis baixos. Ao usarmos dados disponíveis, poderemos fazer avaliações de quando e onde a poluição por nitratos pode se manifestar”, disse Townsend.

Fonte: Agência Fapesp



quarta-feira, 14 de abril de 2010

Plano europeu de energia limpa coloca Espanha e França na liderança

A União Européia (UE) precisará investir 52 bilhões de euros ao ano (US$ 70 bilhões) até 2020 em energias limpas, cujo desenvolvimento Espanha e França foram convocadas a liderar, revela um relatório que publicado nesta terça-feira (13), em Bruxelas, Bélgica.
As energias solar e eólica serão os principais substitutos do petróleo, gás e carvão até 2050, indica o informe, elaborado pela Fundação Européia para o Clima, que será entregue à Comissão Européia.
Em suas previsões, a fundação estima que a Espanha reafirme o papel de principal produtor europeu de energia solar, além de servir de território de trânsito para a produção do norte da África com destino ao norte da Europa.
A França, por sua vez, deverá se encarregar da produção de boa parte da energia eólica da UE e, devido à sua localização geográfica central, vai fazer as conexões entre a eletricidade produzida na Espanha e no Reino Unido, rumo ao norte e ao leste do continente.
A rede existente entre Espanha e França tem atualmente capacidade de 1 GW e, segundo o estudo, deverá chegar a 47 GW em 2050.
Os investimentos chegarão a 52 bilhões de euros anuais, ou seja, 2,5% do valor total dos gastos anuais da UE acrescenta o documento.
A UE se comprometeu a reduzir suas emissões de gases de efeito estufa em 80% até 2050 e fixou um objetivo triplo para 2020: reduzir em 20% suas emissões com relação a 1990, elevar para 20% o peso das energias renováveis no consumo de energia e efetuar uma economia energética também de 20%.

Fonte: Folha Online





Fotossíntese artificial: vírus é usado para quebrar molécula de água

Pesquisadores do MIT, nos Estados Unidos, descobriram uma nova forma para imitar o processo por meio do qual as plantas usam a luz do Sol para quebrar as moléculas de água.
Enquanto as plantas usam o mecanismo para gerar compostos úteis ao seu próprio crescimento, os pesquisadores estão mais interessados em capturar o hidrogênio e utilizá-lo como combustível.
Além de alimentar carros a hidrogênio, que não emitem poluentes, a técnica poderia resolver o maior entrave ao uso da energia solar: o fato de que ela somente gera energia quando o sol está brilhando.
Se esta energia for usada para gerar hidrogênio, o gás poderá ser armazenado e usado para gerar eletricidade à noite ou quando for necessário.
Oxidação da água – A chamada fotossíntese artificial é um objetivo longamente perseguido pelos cientistas.
A reação de quebra da molécula de água pode ser vista como duas “meias reações”: a reação que libera a molécula de hidrogênio e a reação que libera o átomo de oxigênio.
Esta última, conhecida como reação de oxidação da água, é de longe a mais complicada. Foi por isto que a equipe da professora Angela Belcher resolveu concentrar-se nela.
E, em vez de copiar os componentes que as plantas utilizam como as maioria das pesquisas na área fazem, Belcher e seus colegas decidiram copiar os métodos das plantas – nas células dos vegetais, pigmentos naturais absorvem a luz do Sol, enquanto os catalisadores promovem a reação de quebra da molécula de água.
Vírus da fotossíntese artificial – Para copiar a técnica das plantas, os cientistas modificaram um vírus, transformando-o numa espécie de suporte biológico capaz de montar os componentes necessários – pigmentos e catalisadores – para quebrar as moléculas de água.
O vírus bacteriano, chamado M13, é um vírus comum e que não causa danos ao ser humano. Ele foi utilizado para atrair e ligar-se a moléculas de óxido de irídio, um catalisador, e a porfirinas de zinco, que são pigmentos biológicos.
Ao capturar as duas moléculas, os vírus transformaram-se em uma espécie de fio, que funciona como um suporte para manter os pigmentos e os catalisadores no espaçamento adequado para sustentar a reação.
Para evitar que os fios se aglomerassem, os pesquisadores os recobriram com um gel, mantendo uma estabilidade e sua eficiência em quebrar as moléculas de água.
Gargalo da fotossíntese artificial – “Nós usamos os mesmos componentes que outros pesquisadores já vinham usando, mas nós usamos a biologia para organizá-los para nós, e assim obtivemos uma maior eficiência,” explica a Dra. Belcher.
Ao usar os vírus para montar o sistema de forma autônoma, a eficiência da produção de oxigênio – a meia-reação de oxidação da água – aumentou em quatro vezes, um progresso extremamente significativo justamente na parte que é considerada o gargalo da fotossíntese artificial.
Captura do hidrogênio – Como os pesquisadores trabalham até agora apenas na parte mais difícil da reação, os átomos de hidrogênio liberados pelos nanofios virais se quebram em seus prótons e elétrons.
O próximo passo da pesquisa, que já está em andamento, é justamente fazer a outra meia-reação, conseguindo reaver os átomos de hidrogênio.
Os cientistas também estão tentando encontrar um catalisador mais simples e mais barato do que o irídio, que não seria de utilização viável em um sistema em larga escala por ser extremamente raro e muito caro.
Há poucos dias, outra equipe anunciou o desenvolvimento de um catalisador não-biológico que atua também nesta meia-reação mais problemática de oxidação da água – veja Catalisador bioinspirado acelera busca por combustível solar.

Fonte: Site Inovação Tecnológica

segunda-feira, 12 de abril de 2010

Descoberto elemento 117 da Tabela Periódica

Uma equipe internacional de cientistas da Rússia e dos Estados Unidos descobriu o mais novo elemento da Tabela Periódica, o elemento 117.
“A descoberta do elemento 117 é o ponto alto de um percurso de uma década de pesquisas para expandir a Tabela Periódica e escrever o próximo capítulo nas pesquisas sobre elementos pesados,” disse Yuri Oganessian, coordenador da equipe.
Seis átomos – A equipe encontrou o elemento 117 medindo padrões de decaimento observados depois que um alvo de berquélio radioativo foi bombardeado com íons de cálcio, no ciclotron JINR, em Dubna, na Rússia.
O experimento produziu seis átomos do elemento 117 depois de bombardearem o alvo continuamente por 150 dias.
Para cada átomo, a equipe observou o decaimento alfa do elemento 117 para 115, depois para 113, e assim por diante, até que seu núcleo passasse por um processo de fissão, dividindo-se em dois elementos mais leves.
O elemento 117 era o último elemento que faltava na linha sete da Tabela Periódica.
Ilha de estabilidade química – No total, foram produzidos 11 novos isótopos “ricos em nêutrons”, levando os pesquisadores mais perto da suposta “ilha de estabilidade” dos elementos superpesados.
A ilha de estabilidade é um termo da física nuclear que se refere à possível existência de uma região além da Tabela Periódica atual, onde novos elementos superpesados, com números especiais de prótons e nêutrons, apresentariam uma maior estabilidade.
Essa ilha estenderia a Tabela Periódica para acomodar elementos ainda mais pesados e isótopos com meia-vida mais longa, permitindo a realização de reações químicas com eles.
Em busca da ilha de estabilidade, os pesquisadores inicialmente ignoraram o elemento 117 devido à dificuldade em obter o material-alvo berquélio.
Agora ele foi obtido em uma irradiação contínua, durante 250 dias, no mais poderoso fluxo de nêutrons do mundo, no Laboratório Oak Ridge, nos Estados Unidos, o que resultou em 22 miligramas de berquélio.
O padrão de decaimento dos novos isótopos, observado neste experimento, demonstrou a tendência constante de aumento da estabilidade conforme os cientistas se aproximam da teórica ilha de estabilidade química, reforçando as evidências de sua existência real.
Mudanças na Tabela Periódica – Esta descoberta eleva para seis o total de novos elementos descobertos pela mesma equipe – 113, 114, 115, 116, 117 e 118, o elemento mais pesado até hoje. Desde 1940, 26 novos elementos acima do urânio foram adicionados à Tabela Periódica.
Agora começa o processo para dar nome ao elemento 117. O último elemento oficialmente batizado pela União Internacional de Química Pura e Aplicada (IUPAC) foi o 112. Os demais continuam sendo discutidos.
Há poucos dias, outros cientistas anunciaram a descoberta de núcleos atômicos compostos de antimatéria que poderão mudar ainda mais a Tabela Periódica, dando- lhe um aspecto tridimensional.

Fonte: Site Inovação Tecnológica



Tecnologia permite a verificação do controle de qualidade de etanol

Uma pesquisa realizada pelo Instituto de Química, IQ, da Universidade Estadual de Campinas, Unicamp, apresentou três novas metodologias para controle de qualidade do etanol combustível.
Com a técnica de cromatografia de íons, o pesquisador Jailson Cardoso Dias desenvolveu seu estudo de doutorado pelo IQ. Uma das técnicas foi criada para a determinação de compostos aniônicos e as outras para íons metálicos, incluindo metais pesados e de transição, de acordo com o Dias.
Foram realizados diferentes procedimentos de otimização, tanto da parte de separação cromatográfica quanto do tratamento dos dados. Em cerca de 30 minutos é possível determinar se há presença desses materiais no produto analisado. Pela primeira vez foi considerada a presença de ferro no bioetanol.
A resolução ANP nº 36, de 2005, estabelece normas relacionadas aos parâmetros de qualidade do etanol no país. De acordo com o pesquisador, as novas metodologias contemplam um maior número de contaminantes, o que significa um avanço, em relação às substâncias que são especificadas na resolução atual.
A contaminação dos combustíveis pode ocorrer desde o período da produção, até a estocagem. Dias avalia a importância de um rigoroso processo de controle de qualidade. “Esse controle, principalmente para a exportação, deve ser mais rigoroso com essa matriz energética”, disse.
O trabalho foi desenvolvido em colaboração com o Centro Australiano de Pesquisa em Ciência da Separação, Australian Centre for Research on Separation Science – Across, que fica na Escola de Química da Universidade da Tasmânia, na Austrália.

Fonte: Danielle Jordan / Ambientebrasil



domingo, 11 de abril de 2010

Celular Samsung é movido à energia solar

É viável ter um celular carregado com energia solar? O INFOLAB testou o primeiro modelo desse tipo vendido no Brasil, o Samsung E1107, e concluiu que esse recurso deve ser usado como um complemento, útil para quem passa boa parte do dia ao ar livre, longe da tomada por muito tempo. Quando carregamos o aparelho na energia elétrica, ele aguentou firme por quase 12 horas em conversação, um número bem expressivo. Por ser um celular basicão, o preço agrada. Ele custa 129 reais.
A própria Samsung alerta no manual que o carregamento solar é uma função auxiliar, ou seja, não dá para abandonar o carregador. Fizemos dois testes distintos. Carregado na tomada, o celular aguentou 713 minutos em ligações. Já depois de um banho de sol de cerca de uma hora, falamos apenas 11 minutos e 25 segundos. É um tempo razoável para ligações emergenciais, mas que não é suficiente nem para tirar a bateria do nível mínimo.
Nas configurações, o Samsung E1107 é espartano. Tanto que seus destaques são rádio FM e lanterna. O aparelho traz o básico: agenda, calendário, despertador e dois games. Ele também faz chamadas falsas, para quem deseja se livrar dos chatos, e pode ser rastreado em caso de perda ou roubo. Mas nada de câmera, tocador de música, slot para cartão de memória ou browser.
A tela LCD de apenas 1,5 polegada do modelo é pequena para quem já se acostumou aos visores maiores dos celulares atuais. Já o teclado possui teclas bem separadas e a digitação de mensagens é prática. Fininho e leve, com apenas 76 gramas, esse modelo tem a cara dos telefones básicos de anos atrás. Sua saída de fone de ouvido é proprietária.

Fonte: Info Online

sábado, 10 de abril de 2010

Telhado inteligente economiza energia em todas as estações

Cubra a sua casa com um telhado claro, capaz de refletir a luz solar, e você terá efeitos opostos conforme a estação. A casa ficará fria no verão, diminuindo a necessidade do ar condicionado, mas ficará gelada no inverno, aumentando o uso do aquecedor.
Escolha telhas pretas e o resultado será inverso, com uma casa quentinha no inverno mas tórrida no verão.
Ou seja, mesmo querendo aderir a uma construção mais ambientalmente correta, será difícil escapar do consumo de energia numa ou noutra estação. Não dá para ter as duas coisas ao mesmo tempo.
"Telhado inteligente" - Mas essa situação se refere apenas aos telhados "burros" atuais, cuja única propriedade variável é a capacidade de absorção ou reflexão da luz solar dadas pela sua cor.
Um grupo de engenheiros dos Estados Unidos lançou agora o conceito de "telhado inteligente", capaz de "ler" um termômetro e ajustar suas propriedades de acordo com a temperatura.
Fabricado com um material derivado do óleo de cozinha usado, o revestimento muda automaticamente de característica, passando para a reflexão ou para a absorção do calor solar quando a temperatura exterior atinge um valor específico predeterminado, que pode ser ajustado às condições climáticas locais.
Telhados revestidos com o novo material serão capazes de refletir a abrasadora luz do Sol do verão, diminuindo os gastos com ar condicionado. Durante o inverno, o material passa a absorver o calor, ajudando a aquecer o interior da residência e diminuindo os gastos com aquecimento.
Biorrevestimento - "Este é um dos materiais de revestimento de coberturas mais inovadores e práticos desenvolvidos até hoje," afirma o Dr. Ben Wen, líder do projeto de pesquisa.
"Este biorrevestimento de telhado inteligente, em comparação com um telhado tradicional, é capaz de reduzir os custos de aquecimento e de refrigeração ao mesmo tempo, uma vez que ele responde ao ambiente externo. Além disso, proporcionará um novo uso para milhões de litros de óleo usado," diz ele.
Os testes mostraram que revestir um telhado com a cobertura à base de óleo reciclado pode reduzir a temperatura das telhas de 50 a 80% nos meses mais quentes do ano.
Durante o inverno, o revestimento pode aumentar a temperatura do telhado em até 80 por cento em comparação com os telhados tradicionais.
"Mesmo que a temperatura do teto seja reduzida ou aumentada em uns poucos graus, dependendo da temperatura exterior, essa mudança pode fazer uma grande diferença na conta de energia", argumenta Wen.
Processamento do óleo de cozinha - Para fabricar o revestimento, o óleo de cozinha usado é transformado em um polímero líquido que endurece após a aplicação. Ao contrário do óleo descartado, que pode trazer consigo o cheiro das frituras, o polímero resultante é praticamente inodoro.
Os fabricantes poderão produzi-lo em qualquer tonalidade, variando do claro ao preto, dependendo dos aditivos usados. Segundo Wen, mesmo sendo um plástico, o material é não-inflamável e atóxico.
Wen adverte contra tentativas de jogar óleo de cozinha usado sobre o telhado na tentativa de conseguir um efeito similar. Isso porque o óleo de cozinha comum não irá se transformar em um polímero e não irá endurecer, além de não conter o ingrediente para controlar os níveis de luz infravermelha e ainda representar um risco de incêndio para a casa.
O próximo passo da pesquisa é monitorar a durabilidade do material. Embora falem em "vários anos", os pesquisadores afirmam que a cobertura poderá ser reaplicada se deteriorar.
Eles esperam ter o produto pronto para comercialização dentro de três anos.
 
Fonte: Inovação Tecnológica

sexta-feira, 9 de abril de 2010

Satélite europeu para estudar mudança climática é lançado

O satélite europeu CryoSat, dispositivo desenhado para estudar a mudança climática, foi lançado nesta quinta-feira (8) a partir da base de Baikonur, no Cazaquistão, e deve entrar em órbita às 11h13 no horário de Brasília.
O lançamento ocorreu às 10h57 no horário de Brasília com a ajuda de um foguete russo Dnieper, informou a Agência Espacial Européia em Moscou. O foguete é um míssil balístico intercontinental reconvertido.
O satélite, réplica de um aparelho similar perdido durante o lançamento em 2005, deve se separar do foguete para situar-se na órbita prevista às 11h13, no horário de Brasília.
Com 720 quilos, o equipamento funcionará durante três anos, prorrogáveis por outros dois, em uma órbita polar à altura de 717 quilômetros, com 92 graus de inclinação com relação à linha do equador.
CryoSat foi criado dentro de programa da ESA “Planeta Vivo” e está destinado para medir a grossura e a superfície da camada de gelo na Antártida, Groenlândia, Islândia e as áreas oceânicas a altas latitudes, assim como para observar geleiras em alto-mar e em terra.
Os cientistas acompanharam as mudanças dos campos de gelo para investigar o efeito que tem sobre o aquecimento climático global, segundo a ESA.
O lançamento, inicialmente previsto para 25 de fevereiro, foi adiado para melhorar a confiabilidade da manobra de localização do satélite em órbita.
O anterior satélite CryoSat foi lançado a partir da base de Plesetsk, no norte europeu da Rússia, em outubro de 2005, mas se perdeu devido a um erro no software do sistema de comando do foguete portador.

Fonte: G1



CNPq passa a autorizar coleta de fauna e flora e substitui ministério ambiental

Os pesquisadores já podem solicitar autorização de acesso ao patrimônio genético brasileiro, ou seja amostras de espécies animais e vegetais do país, anunciou o CNPq – Conselho Nacional de Desenvolvimento Científico e Tecnológico – nesta quinta-feira (8).
Após a fase de testes, a instituição colocou no ar o formulário online próprio para as solicitações. A ação integra o Sistema de Autorização de Acesso ao Patrimônio Genético, desenvolvido especificamente para esta finalidade.
As autorizações antes eram de responsabilidade do Ministério do Meio Ambiente. Cientistas costumavam reclamar que eram tratados como biopiratas.
O acesso à biodiversidade brasileira e aos seus recursos genéticos é um problema histórico para os cientistas, o que atrapalha muito as pesquisas, segundo eles. Licenças chegavam há demorar 2 anos para sua emissão.
Segundo o ministro da Ciência e Tecnologia, Sergio Rezende, o novo sistema facilitaria o acesso.
Projeto – A autorização do CNPq será concedida às instituições que realizam pesquisas nas áreas biológicas e afins, mediante a apresentação de projeto de pesquisa que descreva as atividades de acesso e de remessa das amostras de componentes do patrimônio genético brasileiro.
O projeto deverá ser coordenado por pesquisador com experiência no assunto.
As orientações para solicitar a autorização e preenchimento do formulário online estão em página específica do site do CNPq.
Para gerenciar a nova atribuição, o CNPq criou a Coordenação do Sistema de Autorização de Acesso ao Patrimônio Genético, vinculada à Diretoria de Programas Temáticos e Setoriais.
Mais informações podem ser obtidas pelo e-mail apg@cnpq.br ou telefone 0/xx/61/2108-4024.

Fonte: Folha Online

quinta-feira, 8 de abril de 2010

Etanol para o espaço

O Brasil acumula um atraso de meio século na propulsão de foguetes espaciais em relação aos norte-americanos e russos. Para tentar dar um impulso no setor, há cerca de 15 anos o país iniciou um programa de pesquisa em propulsão líquida e que tem como base o etanol nacional.
O desafio do programa, liderado pelo Instituto de Aeronáutica e Espaço (IAE), é movimentar futuros foguetes com um combustível líquido que seja mais seguro do que o propelente à base de hidrazina empregado atualmente. Esse último, cuja utilização é dominada pelo país, é corrosivo e tóxico.
O desafio da busca por um combustível “verde” e nacional também conta com o apoio de um grupo particular de pesquisadores, formado em parte por engenheiros que cursam ou cursaram o mestrado profissional em engenharia aeroespacial do IAE – realizado em parceria com o Instituto Tecnológico da Aeronáutica e com o Instituto de Aviação de Moscou.
Liderado pelo engenheiro José Miraglia, professor da Faculdade de Tecnologia da Informação (FIAP), o grupo se uniu para desenvolver propulsores de foguetes que utilizem propelentes líquidos e testar tais combustíveis.
“Os propelentes líquidos usados atualmente no Brasil estão restritos à aplicação no controle de altitude de satélites e à injeção orbital. Eles têm como base a hidrazina e o tetróxido de nitrogênio, ambos importados, caros e tóxicos”, disse Miraglia à Agência FAPESP.
Miraglia coordena o projeto “Desenvolvimento de propulsor catalítico propelente utilizando pré-misturados”, apoiado pelo Programa FAPESP Pesquisa Inovativa em Pequenas Empresas (PIPE).
Na primeira fase do projeto, o grupo, em parceria com a empresa Guatifer, testou motores e foguetes de propulsão líquida com impulso de 10 newtons (N), com o objetivo de avaliar propelentes líquidos pré-misturados à base de peróxido de hidrogênio combinado com etanol ou querosene.
“Os testes mostraram que o projeto é viável tecnicamente. Os propulsores movidos com uma mistura de peróxido de hidrogênio e etanol, ambos produzidos em larga escala no Brasil e a baixo custo, apresentaram o melhor rendimento”, disse.
Segundo Miraglia, a mistura apresenta algumas vantagens em relação à hidrazina ou ao tetróxido de nitrogênio, usados atualmente. “Ela é muito versátil, podendo ser utilizada como monopropelente e como oxidante em sistemas bipropelentes e pré-misturados. O peróxido de hidrogênio misturado com etanol apresenta densidade maior do que a maioria dos propelentes líquidos, necessitando de menor volume de reservatório e, consequentemente, de menor massa de satélite ou do veículo lançador, além de ser compatível com materiais como alumínio e aço inox”, explicou.
Na segunda fase do projeto, o grupo pretende construir dois motores para foguetes de maior porte, com 100 N e 1000 N. “Nossa intenção é construir um foguete suborbital de sondagem que atinja os 100 quilômetros de altitude e sirva para demonstrar a tecnologia”, disse.
A empresa também está em negociações para uma eventual parceria com o IAE no projeto Sara (Satélite de Reentrada Atmosférica), cujo objetivo é enviar ao espaço um satélite para o desenvolvimento de pesquisas em diversas áreas e especialidades, como biologia, biotecnologia, medicina, materiais, combustão e fármacos.
“Nosso motor seria utilizado na operação de reentrada para desacelerar a cápsula quando ela ingressar na atmosfera. Atualmente, não existe no Brasil foguete de sondagem a propelente líquido. Todos utilizam propelentes sólidos”, disse.
Kits educativos – O grupo também pretende produzir motores para foguetes de sondagem que tenham baixo custo. “Eles seriam importantes para as universidades, com aplicações em estudos em microgravidade e pesquisas atmosféricas, por exemplo”, disse Miraglia.
Em trabalhos de biotecnologia em microgravidade, por exemplo, pesquisas com enzimas são fundamentais para elucidar processos ligados a reações, fenômenos de transporte de massa e calor e estabilidade das enzimas. Tais processos são muito utilizados nas indústrias de alimentos, farmacêutica e química fina, entre outras.
“Queremos atingir alguns nichos, ou seja, desenvolver um foguete movido a propelente líquido que se possa ajustar à altitude e ser reutilizável. Esse é outro ponto importante, porque normalmente um foguete, depois de lançado, é descartado”, disse.
O grupo já construiu um motor de 250 N, que será utilizado em testes. Como forma de difundir e reunir recursos para o projeto, a empresa comercializa kits de minifoguetes e material técnico. “São direcionados principalmente para estudantes”, disse Miraglia.
No site www.foguete.org, a empresa oferece também apostilas técnicas e livros digitais sobre foguetes com informações sobre astronáutica, exploração espacial e aerodinâmica.

Fonte: Alex Sander Alcântara/ Agência Fapesp

Avião a energia solar decola para 1º voo teste na Suíça

O Solar Impulse, avião com motor alimentado por energia solar, decolou nesta quarta-feira (7) da base militar de Payerne (oeste da Suíça) para um voo de cerca de duas horas.
A aeronave, com uma envergadura similar a de um Airbus A340 (63,4 metros de comprimento), mas que não pesa mais que um carro (1.600 quilos), percorreu quase um quilômetro a 45 km/h antes de decolar às 10h28 (5h28 de Brasília).
Com propulsão de quatro motores elétricos com uma potência de 10 cavalos de força cada um, o Solar Impulse, pilotado pelo alemão Markus Scherdel, subiu lentamente até alcançar 1.000 metros de altitude.
As asas do avião estão cobertas por 12.000 células fotovoltaicas que alimentam de energia os quatro motores elétricos e permitem recarregar as baterias de lítio de 400 quilos.
“É um momento muito importante depois de sete anos de trabalho”, disse antes do lançamento André Borschberg, um dos diretores do projeto.

Fonte: Folha Online

quarta-feira, 7 de abril de 2010

Técnica com laser torna fibras de carbono melhores e mais baratas

As fibras de carbono são leves, extremamente resistentes e não sofrem do grande mal dos metais, a corrosão.
É por isto que elas são usadas para a fabricação de carros de corrida, barcos, aviões e uma grande variedade de artigos esportivos.
O único inconveniente das fibras termoplásticas – uma categoria mais genérica, que inclui desde as fibras de vidro e até as novíssimas fibras de nanotubos de carbono – é que elas são caras, em razão, sobretudo de um processo de fabricação demorado e trabalhoso.
Fabricação das fibras de carbono – Todo o processo começa com a fabricação das fibras de carbono – as fibras propriamente ditas são incorporadas em uma resina que pode ser fundida. Este aglomerado de fibras de carbono e resina é fabricado na forma de fitas, que saem da fábrica na forma de rolos.
Hoje, essas fitas são cortadas e colocadas em camadas sucessivas para formar a peça que se deseja fabricar.
O problema é que as peças de fibras termoplásticas têm que ser fabricadas dentro de um molde especial, no qual é possível gerar um vácuo para impedir a formação de bolhas no interior das fibras.
Depois, a peça inteira deve ser colocada dentro de um forno gigantesco para curar – quanto maior a peça, maior é o forno necessário.
Laser infravermelho – Agora, cientistas do Instituto Fraunhofer, na Alemanha, desenvolveram uma técnica que utiliza raios laser para montar as peças de fibra, criando um processo que é extremamente rápido e tem o potencial para ser várias ordens de grandeza mais barato.
Em vez de colocar todas as camadas juntas, usando ar quente, e levar tudo ao forno, um raio laser infravermelho é usado para fundir as diversas camadas. A aplicação de uma potência precisamente controlada permite que cada fita de fibra de carbono funda e grude na camada inferior rapidamente.
Como é necessário calor suficiente apenas para a fusão de uma única camada de cada vez, gasta-se menos energia e a peça resfria-se rapidamente.
“Tudo o que precisamos para isso é de um laser que emite luz infravermelha,” explica o Dr. Wolfgang Knapp, que coordenou o desenvolvimento da nova técnica. “O laser infravermelho derrete a superfície dos componentes plásticos. Se você comprimi-los quando eles ainda estão fluidos e, em seguida, deixar endurecer, então o resultado é uma colagem extraordinariamente estável.”
Peças de fibra de carbono – Segundo o Dr. Knapp, como são utilizadas em aplicações de ponta, principalmente em veículos esportivos e na indústria aeroespacial, as peças de fibra de carbono devem apresentar um nível de segurança de 200% em relação à resistência nominal exigida.
Os possíveis usos dos feixes de laser infravermelho na produção e transformação dos termoplásticos reforçados com fibras são virtualmente ilimitadas, segundo o pesquisador: “As novas técnicas de adesão são adequadas para todos os materiais termoplásticos que são submetidos a tensões extremas,” diz ele.
Apesar de estar em escala de protótipo, a nova técnica de fabricação de peças de fibra de carbono já chamou a atenção da indústria. Segundo o Dr. Knapp, o laboratório já conta com pedidos antecipados de licenciamento da tecnologia.

Fonte: Site Inovação Tecnológica

Pesquisadores nos EUA, entre os quais um brasileiro, dizem ter encontrado uma maneira de tornar a energia dos ventos muito mais confiável.
O plano é distribuir turbinas ao longo de pouco mais de 1.000 km da costa americana, interligando esses “supermoinhos” de maneira que não haja grandes flutuações na produção de eletricidade mesmo quando o tempo no litoral muda.
A equipe, liderada por Willett Kempton, da Universidade de Delaware, simulou a ideia usando cinco anos de dados, obtidos em 11 estações meteorológicas da Costa Leste dos EUA.
E a coisa parece funcionar, conforme detalha o artigo do grupo na edição desta semana da prestigiosa revista científica “PNAS”. Pode ser um caminho para tirar do papel a promessa de eletricidade “limpa” trazida pela energia eólica.
Trata-se, aliás, de uma promessa das mais sedutoras. Levando em conta apenas os ventos que sopram nos continentes, calcula-se que o potencial eólico do planeta alcance 72 TW (terawatts) de energia, enquanto todas as necessidades energéticas da Terra hoje podem ser satisfeitas com 13 TW.
De lua – Aproveitar os ventos em áreas litorâneas, por meio de turbinas flutuantes, pode ser mais vantajoso ainda, já que tanto a intensidade quanto a frequência dos ventos tende a ser maior.
Contudo, tanto no mar quanto em terra firme, um dos principais desafios para explorar esse potencial e deixar de lado fontes de energia poluidoras e causadoras do aquecimento global, como as termelétricas, é garantir que o vento não deixe a rede elétrica na mão.
Se cada central eólica for usada isoladamente, o sistema elétrico teria de absorver flutuações bruscas e indesejáveis oriundas da falta de vento ou do excesso durante tempestades.
Na simulação feita pela equipe de Delaware, que inclui o oceanógrafo brasileiro Felipe Mendonça Pimenta, os pesquisadores mostram que é possível superar esse problema dispondo as turbinas eólicas de norte a sul da costa atlântica americana e conectando-as numa única grande rede.
Solução – O tamanho da rede mostraram eles, é importante: em distâncias superiores a 1.000 km, é possível escapar das flutuações locais nos ventos, já que, em pelo menos em algum ponto do sistema, haverá ventanias suficientes para produzir energia.
De acordo com o estudo, embora a rede esteja sujeita a altos e baixos mesmo assim, as variações quase nunca serão radicais o suficiente para que haja um excesso muito grande ou uma falta muito grande de energia. A distância entre as pontas da rede também permitiria mais planejamento na distribuição de energia.
O motivo é simples: enquanto uma variação da intensidade dos ventos é “sentida” numa das pontas da rede, outras áreas podem ir se adaptando à variação com relativa calma conforme a mudança de tempo se aproxima.
E quanto ao custo de unir uma imensa região da costa americana por meio de grandes cabos elétricos? Os cientistas calculam que montar a rede custaria, proporcionalmente, mais ou menos a mesma coisa que ligar cada unidade geradora ao sistema elétrico tradicional. Seria, portanto, viável.

Fonte: Folha Online



terça-feira, 6 de abril de 2010

Plásticos condutores podem derrubar preços dos painéis solares

Uma nova técnica de fabricação de plásticos condutores de eletricidade, pode ser um caminho promissor para reduzir o custo de fabricação de painéis solares e para viabilizar a fabricação de inúmeros outros gadgets mais cômodos de se usar.
Os plásticos translúcidos, maleáveis e capazes de conduzir eletricidade como se fossem metais representam uma alternativa de baixo custo ao óxido de índio-estanho, o caríssimo material utilizado atualmente nos painéis solares.
“Os polímeros condutores [plásticos] estão por aí há bastante tempo, mas processá-los para fabricar alguma coisa útil degrada sua capacidade de conduzir eletricidade,” afirma Yueh-Lin Loo, da Universidade de Princeton, nos Estados Unidos. “Nós descobrimos como evitar esse inconveniente. Nós podemos moldar o plástico em formas úteis, mantendo sua alta condutividade.”
Perda de condutividade – A área da eletrônica orgânica é promissora tanto para a produção de novos tipos de dispositivos eletrônicos quanto para o desenvolvimento de novas formas de produção das tecnologias existentes.
Mas ela tem sido prejudicada pela “misteriosa” perda de condutividade que ocorre quando esses plásticos à base de carbono – daí o termo “orgânico” – são moldados.
Agora, o grupo internacional de pesquisadores descobriu que dar flexibilidade aos plásticos condutores tem um efeito oposto sobre sua estrutura atômica, aprisionando-a em blocos rígidos que impedem que a corrente elétrica flua.
Transístor de plástico – Assim que desvendaram a origem do problema, Loo e seus colegas desenvolveram uma maneira de relaxar a estrutura do plástico tratando-o com um ácido depois que o material já foi moldado na forma desejada.
Usando esta técnica, eles construíram um transistor de plástico, o componente fundamental da eletrônica, usado para amplificar os sinais eletrônicos e para funcionar como uma chave liga-desliga para a corrente elétrica.
Os eletrodos do transístor foram depositados sobre a superfície de silício por uma técnica de impressão, de forma similar à que uma impressora jato-de-tinta utiliza para depositar a tinta sobre o papel – com a diferença de que a “tinta” usada era o polímero condutor de eletricidade.
Atualmente, a eletricidade gerada pelas células solares plásticas, ou orgânicas, é coletada por um fio metálico transparente, feito com óxido de índio-estanho. O condutor deve ser transparente para que a luz solar possa passar através dele e atingir os materiais que realmente absorvem os fótons.
Circuitos eletrônicos impressos – “Ser capaz de essencialmente pintar circuitos eletrônicos é algo muito significativo. Você poderia distribuir os plásticos condutores em cartuchos, como se vende hoje tinta da impressora, e você não precisa de máquinas exóticas para imprimir os padrões,” disse Loo, ressaltando que isso torna a fabricação em série de circuitos eletrônicos tão rápido e barato quanto imprimir um jornal.
Isso permitiria, por exemplo, uma dupla redução no custo das células solares – tanto pela sua fabricação em rolos, em alta velocidade, quanto pela substituição do óxido de índio-estanho por um plástico de custo muito mais baixo.
Esse óxido é um subproduto da mineração de outros metais, e vem tendo sua demanda extremamente elevada nos últimos anos porque ele é essencial para a fabricação de telas planas, seja para televisores, telefones celulares ou outros aparelhos. Isto tem praticamente contrabalançado todos os avanços técnicos na fabricação de células solares, impedindo que seus preços caiam.
“O custo do óxido de índio-estanho está subindo rapidamente,” disse Loo. “Para reduzir os custos das células solares orgânicas, temos de encontrar um substituto para ele. Nossos plásticos condutores deixam a luz solar passar, tornando-se uma alternativa viável.”
Indicador de infecção – Os pesquisadores afirmam que os plásticos condutores também podem substituir outros metais caros usados em outros dispositivos eletrônicos, como nas tão esperadas telas flexíveis e enroláveis.
Além disso, os cientistas estão começando a explorar a utilização dos plásticos condutores na fabricação de sensores biomédicos capazes de mudar de cor se uma pessoa tiver uma infecção.
Por exemplo, esses plásticos passam de amarelo para verde quando expostos ao óxido nítrico, um composto químico produzido nas infecções de ouvido que ocorrem tão frequentemente em crianças.

Fonte: Site Inovação Tecnológica

Mini geradores tiram energia das vibrações do meio ambiente

Minúsculos geradores desenvolvidos na Universidade de Michigan, nos Estados Unidos, são capazes de produzir eletricidade suficiente para alimentar relógios de pulso, marcapassos, sensores sem fios ou diversos outros aparelhos de baixo consumo de energia.
Ao contrário das pilhas comuns, que utilizam reações químicas, ou mesmo das pilhas recarregáveis, que exigem novas cargas periódicas, os minigeradores produzem energia a partir das vibrações presentes no meio ambiente.
Estas vibrações estão presentes em quase toda parte - no andar do ser humano, por exemplo - mas são mais intensas nas áreas urbanas, onde são produzidas pelo tráfego de automóveis em viadutos e pontes ou pelo funcionamento das máquinas nas fábricas.
Mini geradores - A geração de energia a partir de vibrações teve um impulso recente com o trabalho de cientistas da Universidade de Duke, também nos Estados Unidos, que demonstraram ser possível gerar energia a partir de vibrações de freqüências variáveis.
Até então, quase todos os dispositivos semelhantes apresentavam capacidades mais limitadas porque dependiam de movimentos previsíveis e regulares.
Uma borracha que gera energia e nanofios que exploram a energia mecânica do ambiente estão entre os desenvolvimentos mais promissores na área.
Geradores piezoelétricos - Os pesquisadores agora construíram três protótipos de geradores alimentados por vibração, e já estão preparando um quarto, de maior eficiência.
Nos dois primeiros, a conversão de energia é realizada através da indução eletromagnética, com uma bobina móvel, que oscila sob a ação das vibrações, ficando submetida a um campo magnético variável. Este é um processo semelhante ao dos grandes geradores que estão funcionamento em todas as usinas elétricas, qualquer que seja a fonte de energia cinética para seu acionamento.
Já o minigerador mais recente, e o menor de todos, mede cerca de 1 centímetro cúbico, usa um material piezoelétrico - um tipo de material que produz eletricidade quando sofre uma ação mecânica.
O minigerador produzir até 0,5 miliwatt (ou 500 microwatts) a partir das vibrações normais de um ser humano movimentando-se no dia a dia. Embora pareça pouco, essa energia é muito mais do que o necessário para alimentar um relógio de pulso, que consome entre 1 e 10 microwatts, ou um marcapasso, que gasta entre 10 e 50 microwatts.
Pilhas do futuro - Para avaliar o potencial da tecnologia, basta imaginar se cada pilha vendida hoje no comércio funcionasse com base nesse princípio, gerando energia indefinidamente, sem precisar recarregar e com uma vida útil avaliada em décadas.
O alívio sobre a matriz energética nacional que uma grande quantidade desses minigeradores piezoelétricos poderia permitir ainda não foi calculado, mas certamente equivaleria a várias usinas.
Os minigeradores, contudo, ainda produzem significativamente menos energia do que as pilhas e terão que evoluir bastante para alimentar dispositivos maiores.
Até lá, sua aplicação principal será na alimentação de sensores, que estão se espalhando com os conceitos de edifícios inteligentes e também para o monitoramento ambiental em larga escala e de forma contínua.
"Há uma questão fundamental que precisa ser respondida, que é como alimentar os dispositivos eletrônicos sem fios que estão se tornando onipresentes," disse Khalil Najafi, que está desenvolvendo os minigeradores juntamente com seu colega Tzeno Galchev. "Há muita energia por aí, sob a forma de vibrações, que pode e deve ser aproveitada."

Fonte: Site Inovação Tecnológica