quinta-feira, 2 de setembro de 2010

YeZ: carro chinês absorve CO2 do ar

O mais novo protótipo de veículo ecológico da China, o YeZ, é totalmente movido a energias limpas: além de produzir energia solar e eólica, o carro absorve CO2 para gerar eletricidade e o devolve para o ar em forma de oxigênio
Uma montadora chinesa levou ao pé da letra o conceito de carro ecológico e criou este carro-folha. O veículo foi projetado para funcionar como uma planta, ou seja, ele absorve CO2 e libera oxigênio na atmosfera. A ideia é criar um veículo para 2030 que realize o mesmo trabalho que as plantas fazem durante a fotossíntese.

Fonte: mundoesolucoes.com






O veículo YeZ (palavra que em mandarim significa folha) seria movido a energias limpas: o teto absorveria energia solar e as rodas teriam pás para gerar energia eólica. Mas a grande sacada é que o veículo de dois lugares conseguiria remover dióxido de carbono do ar, grande vilão do aquecimento global, com uma liga mista (orgânica e metálica) capaz de absorver CO2 e água, transformando-os em eletricidade armazenada em uma bateria de lítio. Estamos esperando essa folha brotar.

segunda-feira, 30 de agosto de 2010

Umidade elétrica

Durante muito tempo a ciência considerava que a gotículas de água presentes na atmosfera eram eletricamente neutras, assim permanecendo mesmo depois de entrar em contato com as cargas elétricas de partículas dispersas no ar.
Mas um experimento realizado por cientistas brasileiros demonstrou que a água na atmosfera pode adquirir cargas elétricas e transferi-las para outros materiais. A descoberta abre caminho para o futuro desenvolvimento de dispositivos capazes de coletar eletricidade diretamente do ar, utilizando-a para abastecer residências, fábricas ou veículos, por exemplo.
Partículas minúsculas de sílica e de fosfato de alumínio foram utilizadas no experimento. A equipe coordenada por Fernando Galembeck, professor titular do Instituto de Química da Universidade Estadual de Campinas (Unicamp), demonstrou que, na presença de alta umidade, a sílica se torna mais negativamente carregada, enquanto o fosfato de alumínio ganha carga positiva. A eletricidade proveniente da umidade foi denominada pelos cientistas como “higroeletricidade”.
“Com um dispositivo simples, conseguimos verificar que é possível gerar voltagem a partir da umidade do ar. Essa prova conceitual poderá abrir caminho, no futuro, para que se possa usar a eletricidade da atmosfera como uma fonte de energia alternativa. Mas ainda não podemos prever quanto tempo levará para desenvolver uma tecnologia desse tipo”, disse Galembeck à Agência Fapesp.
O pesquisador, que coordena o Instituto Nacional de Ciência e Tecnologia (INCT) em Materiais Complexos Funcionais, apresentou os resultados do estudo na última quarta-feira (25), durante a reunião da American Chemical Society (ACS), em Boston, nos Estados Unidos. O INCT de Materiais Complexos tem apoio da Fapesp e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).
Segundo Galembeck, relatos experimentais do século 19 já associavam a interface ar-água a fenômenos eletrostáticos. O britânico William Thomson, conhecido como Lord Kelvin (1824-1907), idealizou um equipamento que ele denominou “condensador de gotas de água” para reproduzir o fenômeno experimentalmente. Mas, até hoje, a ciência não havia sido capaz de descrever os mecanismos do acúmulo e da dissipação das cargas elétricas na interface ar-água.
“Mostramos que a adsorção do vapor de água sobre superfícies de materiais isolantes ou de metais isolados – protegidas em um ambiente blindado e aterrado – leva à acumulação de cargas elétricas sobre o sólido, em uma intensidade que depende da umidade relativa do ar, da natureza da superfície usada e do tempo de exposição”, disse Galembeck.
O aumento das cargas elétricas acumuladas é ainda mais acentuado quando são usados substratos líquidos ou isolantes sólidos, sob a ação de campos externos, conforme a umidade relativa do ar se aproxima de 100%.
De acordo com Galembeck, a descoberta foi um resultado inesperado de uma longa série de estudos relacionados a dois tipos de microscopia de materiais não-isolantes, especialmente polímeros.
“Estávamos trabalhando com microscopia eletrônica de transmissão – que nos permitia montar um mapa da composição química de determinados materiais em escala nanométrica – e com microscopia de varredura, que fornecia um mapa das propriedades e do potencial elétrico desses materiais”, explicou.
O interesse da equipe estava inicialmente limitado aos materiais. “Mas, ao obter esses mapas, começamos a observar muitos fenômenos que não estavam na literatura. Havia, em especial, heterogeneidades inesperadas nas distribuições de cargas elétricas. Embora não fossem contrários a estudos anteriores, os resultados do nosso trabalho iam contra concepções amplamente difundidas. Era preciso entender o que estávamos observando e isso me levou a estudar mais sobre eletrostática”, disse.
Aprofundando as pesquisas, Galembeck percebeu que havia imensas polêmicas na literatura sobre o tema. Apesar disso, essas discussões não estavam no foco dos debates científicos.
“Percebi que havia muitas lacunas, algumas delas muito grandes. Alguns autores se referiam a essas lacunas, mas não conseguiam despertar muita atenção da comunidade científica. Continuei estudando, até que, em 2005, um trabalho de pós-graduação de um aluno gerou a hipótese de trabalho de que existe troca de cargas com a atmosfera”, disse.
No decorrer desse trabalho, o grupo da Unicamp percebeu que, além da sílica e do fosfato de alumínio, alguns metais também adquiriam carga. “A partir daí fizemos também experimentos com os metais. Esse trabalho já começou a gerar resultados também. A primeira publicação saiu na semana passada, na edição on-line da revista Langmuir”, disse.
Longo caminho para a tecnologia
Segundo Galembeck, há um longo caminho pela frente para que essa demonstração de conceito se transforme um dia em aplicações tecnológicas, como dispositivos que coletem a eletricidade do ar e a direcionem para equipamentos elétricos nas casas, de forma semelhante aos painéis que transformam a luz solar em energia.
“De um ponto de vista conservador, eu diria que estamos mais ou menos no ponto em que a energia fotovoltaica estava no começo do século 20. Sabemos que hoje a energia solar tem algumas aplicações, mas a maior parte delas ainda tem alto custo. De uma perspectiva mais otimista, eu diria que o uso da higroeletricidade dependerá essencialmente do desenvolvimento de novos materiais, que é cada vez mais acelerado com os recursos da nanotecnologia”, apontou.
No momento, os cientistas têm duas tarefas principais para fazer com que um dia a nova tecnologia se torne realidade: a identificação dos melhores materiais e a obtenção de dados para fazer a modelagem dos dispositivos.
“Estamos agora trabalhando no levantamento de dados a partir dos materiais que sabemos que funcionam. Por enquanto, são materiais simples como alumínio, aço inox e latão cromado”, disse. Provavelmente, não serão esses os materiais usados nos dispositivos do futuro, mas o fundamental agora é fazer o levantamento de dados”, disse.
Quando tiverem concluído o levantamento de dados para a modelagem de dispositivos, segundo Galembeck, os cientistas terão boas perspectivas em relação a duas questões fundamentais: quanta energia poderá ser produzida com a higroeletricidade e quais são as propriedades necessárias para os materiais que serão utilizados nos dispositivos.
“Há duas semanas começamos a fazer o trabalho de levantamento de dados para a modelagem. Começamos também a fazer experimentos com a modificação da superfície dos metais. Há uma infinidade de possibilidades para explorar. A dificuldade está em determinar em quais delas devemos nos concentrar”, disse.

Fonte: Fábio de Castro/ Agência Fapesp

As usinas eólicas deverão quintuplicar sua capacidade instalada para geração de energia elétrica até 2013. A previsão é do presidente da Associação Brasileira de Energia Eólica (Abeeólica), Ricardo de Maya Simões. O setor venceu a maioria dos lances dos dois leilões (de energia de reserva e de fontes renováveis) feitos pela Agência Nacional de Energia Elétrica (Aneel) esta semana, na capital paulista.
O setor, que hoje tem 744 megawatts (MW) de capacidade instalada, e ainda 1.806 MW em processo de instalação, terá mais 2.047 MW até 2013, resultado dos contratos fechados nos leilões, totalizando 4597 MW.
“Hoje está próximo a mil megawatts [de capacidade instalada]. Ano que vem, será 1.300 MW, 2012 teremos 3,1 mil MW, e em 2013 mais cinco 5 mil MW de capacidade instalada”, disse Simões.
Nos dois dias de pregão, iniciado quarta-feira (25), a energia produzida pelas usinas de bagaço de cana (biomassa) foram comercializadas, em média a R$ 144,20 o megawatt-hora (MWh), a energia eólica – a mais barata – a R$ 130,86, e a das pequenas centrais hidrelétricas (PHC) a R$ 141,93 o MWh.
De toda a energia negociada, as usinas eólicas ficaram com 70% (25% com as de biomassa e 5% com as PCH). Para Simões, o avanço do setor pode ser explicado pelo desempenho da economia brasileira diante de um cenário desaquecido da econômica mundial no pós crise.
“Você tem claramente a economia mundial desaquecida, e o Brasil crescendo a taxas bem interessantes, que faz com que os grandes fabricantes mundiais de máquinas estejam olhando o país como oportunidade da expansão das suas operações. Também vemos que empresariado está entendendo que a descarbonização da economia gera oportunidade de negócios”, afirmou.

Fonte: Bruno Bocchini/ Agência Brasil

Chip ajuda em rastreamento eletrônico de madeira no Mato Grosso

O Estado de Mato Grosso começou a testar neste fim de semana a instalação de chips eletrônicos para monitorar a exploração de árvores em áreas de manejo florestal.
O sistema, segundo o governo do Estado, permitirá rastrear a madeira que é extraída, dificultando fraudes relacionadas com a extração ilegal em áreas indígenas e de preservação.
O programa piloto do manejo florestal eletrônico começou a ser implantado há seis meses em uma fazenda de Nova Mutum (a 245 km de Cuiabá). Mais de 4.000 árvores receberam chips contendo dados como espécie, diâmetro, altura e localização.
O objetivo, diz a Sema (Secretaria Estadual de Meio Ambiente), é conseguir acompanhar eletronicamente a extração legalizada e o transporte da tora até a indústria madeireira.
“Vamos testar tudo: segurança do sistema, viabilidade econômica e condições operacionais de implantação”, disse Julio Bachega, secretário-adjunto de Mudanças Climáticas da Sema. O modelo prevê que os chips sejam bancados pelo interessado no manejo, ao custo de R$ 2 cada um. Em grandes quantidades, diz a Sema, o valor cai para até R$ 0,25.
“Os chips serão fornecidos pela Sema e só poderão ser cadastrados no sistema se estiverem dentro da área previamente autorizada para manejo”, diz Bachega.
Antes de cada derrubada, o produtor precisará informar ao sistema o destino da madeira. “O chip original fica no toco da árvore cortada, e uma cópia segue no tronco até o destino autorizado e georreferenciado.”
As informações irão compor um banco de dados estadual da exploração florestal legalizada no Estado, o que irá favorecer a fiscalização tanto do manejo em campo quanto do transporte.
“Quando for auditar a área de manejo, a fiscalização poderá saber a posição exata de cada árvore autorizada para corte. Na estradas, por meio de antenas leitoras dos chips, será possível implantar barreiras digitais.”
Credibilidade - Embora possa representar um aumento nos custos de produção, a implantação do sistema é vista com otimismo por representantes da indústria madeireira do Estado.
O Cipem (Centro das Indústrias Produtores e Exportadoras de Madeira), que reúne oito sindicatos e participa da implantação do programa piloto, diz que o chip trará “credibilidade” ao setor.
“A origem legal da matéria-prima é um diferencial”, diz o presidente do Cipem, João Carlos Baldasso.
No primeiro semestre de 2010, segundo o Cipem, o setor florestal de Mato Grosso exportou quase US$ 60 milhões – um aumento de 16% em relação ao mesmo período do ano passado.
“Se pudermos mostrar que temos o controle da origem da madeira, teremos nas mãos uma ferramenta para ampliar o nosso papel no mercado”, afirma Baldasso.

Fonte: Rodrigo Vargas/ Folha.com

Especialista defende rede de monitoramento para conter avanço do mar

A criação de uma rede de monitoramento contínuo do mar, que envolve marés fora da baía, mudanças de direção de ondas e tempestades, pode ser um elemento preventivo à elevação do nível das águas dos oceanos, em função do aquecimento global. A tese é defendida pelo pesquisador da Universidade Federal do Rio de Janeiro (UFRJ), Dieter Muehe.
O professor é um dos palestrantes do seminário Aquecimento Global e seus Impactos no Rio de Janeiro com a Elevação do Nível do Mar, que o Conselho Regional de Corretores de Imóveis (Creci/RJ) promove na terça-feira (31). O encontro faz parte do Movimento Ação e Cidadania, cujo tema central é a Sustentabilidade e o Mercado Imobiliário.
Ele explicou à Agência Brasil que o monitoramento deve começar a ser feito de maneira imediata, uma vez que os resultados são observados somente após algumas décadas. Imagens de satélites, embora caras, podem facilitar esse monitoramento, de acordo com o especialista em vulnerabilidade costeira.
A partir dessa rede de monitoramento, poderão ser elaboradas políticas públicas para prevenir ou, pelo menos, minimizar os problemas decorrentes do aquecimento global. “Políticas públicas só vão ter respaldo a partir de informações.”
Na avaliação do especialista o risco é maior quanto às enchentes. “Tem que ter uma política pública no sentido de prevenir inundações e identificar quais seriam as áreas em que se poderia permitir ou não a expansão. Esse é um ponto importante para o futuro da ocupação das regiões, principalmente de baixadas.”
O problema mais imediato da elevação do nível do mar é a erosão nas praias, que podem perder areia. Isso ocorre em especial com as praias urbanas. “As praias urbanas são um problema por causa dos muros. E a linha de costa não consegue se adaptar à nova posição. Você acabaria erodindo as pistas de rolamento e teria que fazer ou obra dura, que é menos favorável, ou então aterro artificial de praias, como já se fez em Copacabana, Flamengo e Leblon”, expôs.
Dieter Muehe esclareceu, contudo, que em cidades onde se paga impostos mais elevados, poderia ser criado um fundo para que não faltem recursos quando for necessário. “Tem que recuperar a areia que foi perdida. E, em alguns lugares, esse aterro teria que ser feito com urgência, até anualmente”. O benefício compensaria, segundo ele, os gastos que fossem efetuados.
Muehe defendeu, também, a criação de uma agência reguladora que centralize esses estudos e seja capaz de interpretar os dados medidos, de forma que o trabalho tenha garantia de continuidade.

Fonte: Alana Gandra/ Agência Brasil

segunda-feira, 23 de agosto de 2010

Estudo detecta mancha de óleo de 35 km no golfo do México

Oceanógrafos americanos detectaram uma grande massa de hidrocarbonetos se estendendo sobre ao menos 35 km, a mais de 900 metros abaixo da superfície da água no golfo do México, originária do vazamento da BP, segundo um trabalho publicado nesta quinta-feira (19).
Os pesquisadores do Woods Hole Oceanographic Institution (WHOI), o maior instituto privado de estudos oceanográficos sem fins lucrativos do mundo, comprovaram que o petróleo é proveniente da maré negra resultante da explosão, no dia 20 de abril, da plataforma Deepwater Horizon. A “nuvem” de petróleo submarina, em parte diluída, era até o momento imperceptível e vem causando polêmica.
O escape do poço da BP, a 1.500 metros de profundidade, foi interrompido em meados de julho, após 4,9 milhões de barris terem sido derramados no oceano.
Os pesquisadores também observaram que a biodegradação deste petróleo estava em curso graças aos micróbios que vivem em grandes profundidades, mas que este processo é relativamente lento.
A mancha foi detectada durante uma expedição científica entre os dias 19 e 28 de junho e mede 35 km de comprimento, 1,9 km de largura e tem mais de 200 metros de altura, podendo resistir por mais tempo.
“Não apenas demonstramos que existe uma mancha de petróleo no golfo do México, como também determinados sua origem e sua composição”, destacou Richard Camilli do WHOI, chefe da expedição científica e principal autor do estudo publicado na revista americana “Science”, nesta semana.
“Até o momento, a massa era considerada como teoria”, acrescentou, precisando que ela não é composta de “petróleo puro”, tendo também variados componentes do óleo.
As análises cromatográficas de amostras confirmaram a presença de benzeno, tolueno (um dissolvente), etilbezeno e xileno.
A mancha mostra que o petróleo “ficará no oceano por mais tempo do que pensávamos”, enfatizou o oceanógrafo.

Fonte: Folha.com

BP vai “matar” poço no começo de setembro, prevê cronograma

http://agoraeco.blogspot.com/2010/08/bp-vai-matar-poco-no-comeco-de-setembro.htmlA petrolífera britânica BP deve executar na semana de 6 de setembro a operação destinada a “matar” definitivamente o poço de petróleo danificado no golfo do México, disse nesta quinta-feira (19) a principal autoridade norte-americana envolvida no assunto.
Em entrevista à CNN, o almirante reformado Thad Allen afirmou que, conforme o novo cronograma definido em conjunto com a BP, a operação será realizada na semana posterior ao feriado norte-americano do Dia do Trabalho, que será na segunda-feira, 6 de setembro.
No dia anterior, ele havia dito, no entanto, que não seriam marcadas novas datas limite para acabar com o desastre.
A BP está terminando de perfurar uma galeria auxiliar a partir da qual irá jogar lama e cimento para “sufocar por baixo” o poço avariado.
Semanas atrás a empresa já havia conseguido interromper provisoriamente o pior vazamento de petróleo no mar na história, sufocando-o “por cima.”
Mas técnicos temiam que a nova operação, gerando pressão dentro do poço danificado, poderia liberar no ambiente cerca de 800 mil litros de óleo que podem ter ficado retidos entre o duto do poço e a parede de rocha ao seu redor. Havia preocupação também de que ocorressem danos a uma válvula defeituosa, crucial na investigação do acidente, ocorrido em 20 de abril.
“Nas últimas 40 horas, concordamos com uma sequência de ações que eu vou orientar a BP a executar, a começar por esvaziar a atual válvula, na verdade procurando material que poderia nos causar problemas, agindo para instalar uma nova válvula e, então, causando a morte por baixo”, disse Allen.
“Isso nos permitirá resistir a qualquer pressão que seja gerada”, afirmou. “Se tudo isso se alinhar, devemos ver algo na semana após o Dia do Trabalho.”

Fonte: Folha.com

Cientistas descobrem tataravó da Grande Barreira de Corais

A apenas 600 metros da Grande Barreira de Corais, o maior recife de corais do mundo, localizado nas águas da Austrália, encontra-se um recife menos espetacular, mas muito mais mais antigo.
A primeira pista da existência desse recife apareceu em 2007, quando medições sísmicas e de sonares revelou estranhas lagoas e formações montanhosas no leito do mar.
As medições foram confirmadas em fevereiro deste ano, quando uma equipe internacional extraiu 34 núcleos de sedimento desses locais no fundo do mar, revelando um recife de corais fossilizado que penetra 110 metros sob o leito do mar.
Datação preliminar desses núcleos indica que o coral tem cerca de 169 mil anos.
“Esta é a tataravó da Grande Barreira de Corais”, disse John Pandolfi, da Universidade de Queensland.
Segundo ele, trata-se de uma importante descoberta que deve trazer novas informações sobre a formação de recifes de corais.
Acreditava-se que a Grande Barreira de Corais encontra-se assentada sobre um recife morto e mais velho. Mas 110 metros abaixo do recife vivo há apenas rochas.
Corais precisam de luz para viver, e Pandolfi agora pensa que, quando o nível do mar subiu na última Era do Gelo, ele ameaçou eliminar a iluminação do recife antigo. Por causa disso, algumas larvas teriam populado águas mais rasas e semeado o recife hoje existente.
A descoberta do fóssil foi divulgada por Jody Webster, da Universidade de Sydney, em uma conferência na Alemanha em julho.

Fonte: Folha.com

quinta-feira, 19 de agosto de 2010

Fazendeiro cria minivacas nos EUA que produziriam menos gás metano

Um fazendeiro nos Estados Unidos está criando vacas em miniatura que teriam menos impacto sobre o meio ambiente.
O gado de pecuária é responsável por grande parte das emissões de metano no mundo, um dos gases que mais contribui para o aquecimento global.
Hoje há 26 raças de “minivacas” no mundo. Na maior delas, as vacas têm pouco mais de um metro de altura. Algumas vacas chegam a medir menos de 80 centímetros.
“Quando comecei a experimentar a criação deste gado em miniatura, todo mundo pensou que eu estava louco”, disse à BBC o professor e fazendeiro Richard Gradwohl, que desenvolveu 18 das 26 raças em seu centro de pesquisa.
Impacto ambiental – Seu objetivo inicial era criar os animais para abastecer sete mercados diferentes, mas logo que começou a trabalhar com o gado ele percebeu que poderia haver uma redução do impacto ambiental da sua atividade.
“Depois de investigar durante muitos anos, descobrimos que elas produzem muito menos metano”, diz Gradwohl. Segundo o professor, dez vacas em miniatura geram o mesmo metano de uma vaca de tamanho normal.
“Além disso, em um terreno de cinco hectares, onde cabem duas vacas, entram dez minivacas”, afirma.
O rendimento de cada hectare por quilo de carne também é maior. Isso acontece devido à relação entre o peso do animal vivo e a quantidade de carne comestível.
“Quando uma vaca de 450 quilos vai ao matadouro, ela perde cerca de 40% em ossos, cabeça e órgãos internos. O gado perde então uns 270 quilos. Quando se converte isso em carne comestível, se perde outros 20%. E finalmente ela acaba com 21 quilos”, explica Gradwohl.
“Em um animal pequeno, se perde muito menos. A vaca pesa 270 quilos. Quando vai ao matadouro, em vez de perder 40% do peso, ela perde apenas 30%, e quando se converte isso em carne comestível, em vez de 20%, se perde 15%. Então um animal pequeno pode produzir até 160 quilos de carne comestível.”
Ao aumentar o rendimento por hectare, os ranchos precisam de menos terreno para produzir a mesma quantidade de carne.
Nos Estados Unidos, onde o consumo de carne bovina por peso é de 43 quilos – há apenas 20 mil minivacas.

Fonte: G1

terça-feira, 1 de junho de 2010

Vazamento segue e EUA já falam em “esperar pelo pior”

Após o fracasso de sua operação para conter o vazamento de petróleo no golfo do México, a BP anunciou ontem um novo plano, enquanto admite que não conseguirá fazer o vazamento parar nas próximas semanas.
“Se conseguirmos conter o fluxo do poço até agosto, fazendo com que não se derrame mais óleo no mar, será uma saída positiva”, disse Bob Dudley, diretor-geral da BP, após constatar que a tentativa de injetar resíduos sólidos no poço não havia conseguido deter o óleo.
Essa estratégia, chamada de “top kill”, foi abandonada em definitivo. “Estamos decepcionados. Não fomos capazes de controlar o fluxo do poço. O vazamento foi enorme”, disse Dudley. A BP tinha dito antes que o “top kill” tinha entre 60% e 70% de chance de funcionar.
Enquanto isso, Carol Browner, conselheira sênior de Barack Obama na área ambiental, disse que o governo está “se preparado para o pior”. Ela disse que “o povo americano precisa saber” que a Casa Branca está preocupada com a possibilidade de o problema não se resolver nos próximos meses.
Pelo menos 80 milhões de litros do combustível fóssil foram derramados no mar desde o desastre começou, há cinco semanas.
Browner reafirmou que o desastre ambiental é “provavelmente o pior que já enfrentamos neste país”, deixando para trás o derramamento de óleo provocado pelo petroleiro Exxon Valdez, no Alasca, em 1989.
Tente outra vez - A BP tentará agora usar uma cúpula de contenção similar à utilizada no início de maio. Ela falhou porque cristais de gelo se formaram, impedindo que o petróleo fosse canalizado a uma plataforma na superfície.
Segundo Dudley, o fracasso trouxe lições para os engenheiros que poderiam ser utilizadas na nova cúpula.
O chefe das operações da BP, Doug Suttles, admite, porém, que mesmo se a operação for bem sucedida, só poderá conter parte do petróleo. Isso porque os engenheiros perceberam que não será possível fazer uma cúpula com um encaixe perfeito, que canalize todo o petróleo.
Por isso, a empresa está fazendo novas perfurações. A ideia é canalizar o petróleo por um poço secundário, fazendo com que a pressão do reservatório diminua e o vazamento se reduza até parar.
Essas perfurações vão levar, porém, pelo menos dois meses até ficarem prontas. A conselheira de Obama reforçou que o governo está pressionando a BP para que elas saiam o quanto antes.

Fonte: Folha.com

Cientistas alertam para “desastre invisível” no golfo do México

Um grupo de cientistas independentes e funcionários do governo americano afirmou nesta segunda (31) que o vazamento no golfo do México representa um desastre não só para a vida na superfície do mar mas também em suas profundezas, afetando desde gigantescas baleias cachalotes até o minúsculo plâncton.
Grupos de animais de marinhos emergem todas as noites de águas profundas para águas mais rasas para alimentar-se de outros peixes. Espécies que vivem próximo à superfície, como camarões e vermelhos, servem de alimento para muitos desses animais das profundezas. A presença de óleo tanto em águas rasas quanto em águas profundas pode alterar esse equilíbrio ecológico.
Além disso, algumas dessas espécies estão em sua época anual de procriação. Ovos expostos ao óleo tornam-se rapidamente inviáveis, e os animais que conseguirem nascer, poderão morrer de fome com a queda na quantidade de plâncton disponível.
“Todo peixe e invertebrado que entra em contato com o óleo está provavelmente morrendo”, afirmou Prosanta Chakrabarty, biólogo de peixes da Universidade Estadual da Louisiana.
Em 2009, Chakrabarty descobriu duas novas espécies de peixes-morcego vivendo a cerca de 48 quilômetros da costa da Louisiana, próximo à região região onde a plataforma Deepwater Horizon, operada pela BP, afundou no dia 24 de abril.
É possível que, quando o artigo científico de Chakrabarty descrevendo a descoberta aparecer publicado na edição de agosto do “Journal of Fish Biology”, as duas espécies estejam seriamente ameaçadas ou até extintas.
Segundo pesquisadores, pelo menos duas grandes colunas de óleo foram encontradas a centenas de metros abaixo da superfície, abrangendo uma área de quilômetros.
Executivos da petrolífera BP, no entanto, negam o espalhamento de óleo sob a superfície. O diretor-executivo da BP, Tony Hayward, disse que o óleo naturalmente sobe à superfície e que qualquer óleo encontrado nas profundezas encontra-se em seu curso para a superfície.

Fonte: Folha.com

Desastre ambiental nos EUA pode elevar custos do pré-sal, diz Eike Batista

O vazamento de petróleo em um poço da BP (British Petroleum) no golfo do México poderá aumentar os custos de extração na região pré-sal do Brasil, afirmou nesta segunda-feira (31) o bilionário Eike Batista, presidente do grupo EBX, holding que congrega empresas como a OGX, do setor de petróleo.
“Aumentaria o custo com certeza, mas numa dimensão que não inviabilizaria o retorno ao investimento”, declarou ao ser questionado sobre o assunto em um evento em São Paulo.
Especialistas no país alertaram, após o vazamento no golfo, que o Brasil deveria tomar medidas preventivas para evitar acidentes como aquele na área de exploração da BP, já que os equipamentos utilizados pela indústria atualmente poderiam não ser adequados às profundidades maiores do pré-sal.

Fonte: Folha.com

quarta-feira, 26 de maio de 2010

De vilão a herói, é esta a realizada do chuveiro elétrico

De vilão a herói é este o caminho do chuveiro elétrico. Tido como o principal vilão da conta de luz e presente em 73% dos lares brasileiros, seu status muda devido a uma pesquisa do Centro Internacional de Referência em Reuso da Água (CIRRA), da Escola Politécnica da USP, que mostra que tomar banho neste modelo de aparelho é mais econômico do que em equipamentos dotados de aquecedores solares e a gás.
A base para os dados apresentados no estudo foi de um banho de oito minutos, com o chuveiro elétrico o custo médio é de R$ 0,30. O mesmo banho sai por R$ 0,46 com aquecedores solares tradicionais, ou seja, 53% mais caro. Com aquecedores a gás, o custo é de R$ 0,59 (96% a mais). Com um boiler elétrico, ao custo de R$ 1,08 o mesmo banho sai 260% mais caro do que o chuveiro elétrico.
A conclusão sobre a “economia” dos chuveiros elétricos se veio através do consumo de água dos diversos sistemas de aquecimento. De acordo com o estudo, a média anual do consumo de água no chuveiro elétrico foi de 4,2 litros por minuto. Mas no aquecedor a gás, a média foi de 8,7 litros por minuto. Ou seja, 107% maior que o consumo do chuveiro elétrico. Já o aquecedor solar obteve uma média de 8,4 litros por minuto (100% maior do que o chuveiro elétrico) e o boiler elétrico, 8,5 litros por minuto (102% maior do que o chuveiro elétrico).
Os resultados fazem parte do estudo Avaliação do consumo de insumos (água, energia elétrica e gás) em chuveiro elétrico, aquecedor a gás, chuveiro híbrido solar, aquecedor solar e aquecedor de acumulação elétrico, a pesquisa teve apoio do Grupo de Chuveiros Elétricos da Associação Brasileira da Indústria Elétrica e Eletrônica (Abinee).
Com a afirmação de que os antigos vilões agora são heróis, é importante distinguir que o fato de um aparelho elétrico fornecer energia mais barata que as formas renováveis, não isenta o efeito positivo ao meio ambiente em que estas alternativas são usadas em outros casos.



Energia eólica cresce no Brasil

Neste mês de maio o Conselho Global de Energia Eólica (GWEC) afirmou que a capacidade desse tipo de energia no Brasil cresceu mais do que o dobro da média mundial: 31%.
A capacidade de geração de energia eólica no Brasil aumentou 77,7% em 2009, em relação ao ano anterior. Com isso, o país passou a ter uma capacidade instalada de 606 megawatts (MW), contra os 341 MW de 2008.
O crescimento brasileiro foi maior, que o dos Estados Unidos (39%), da Índia (13%) e o da Europa (16%), mas inferior que o da China, cuja capacidade de geração ampliou-se em 107% e da média da América Latina, cujo aumento foi de 95%, puxado, em grande parte, pelas expansões de capacidade do México (137%), Chile (740%), da Costa Rica (67%) e Nicarágua (que saiu de zero para 40 MW).
O Brasil responde por cerca da metade da capacidade instalada na América Latina, mas representa apenas 0,38% do total mundial. Para o diretor-executivo da Associação Brasileira de Energia Eólica (ABEEólica), Pedro Perrelli, o desenvolvimento do parque eólico do país só não é maior porque o Brasil tem muita capacidade hidrelétrica instalada e potencial.
Segundo ele, apesar disso, o Brasil tem ainda muito terreno para crescer na energia eólica. A energia eólica é importante, porque ela é complementar a esse potencial hidráulico. Inclusive porque ela não consome água, que é um bem cada vez mais escasso e vai ficar cada vez mais controlado, disse Perrelli.
De acordo com a ABEEólica, a capacidade instalada de energia eólica no Brasil deve crescer ainda mais nos próximos anos. Isso porque um leilão realizado no ano passado comercializou 1.805 MW que devem ser entregues até 2012.

sexta-feira, 30 de abril de 2010

Iluminação com LEDs produz vegetais mais saudáveis

Cientistas da Lituânia descobriram que uma iluminação à base de LEDs, aplicado durante apenas três dias, é capaz de melhorar a qualidade nutricional de verduras e legumes, principalmente dos vegetais verdes folhosos.
A tecnologia com tratamento dos vegetais com luz poderá ser aplicada em estufas para reforçar os nutrientes dos vegetais no período pré-colheita.
Nitratos e nutrientes – O experimento foi feito em plantações de alface, orégano e cebolinha. Os vegetais foram cultivados em estufa, sob luz ambiente, com um reforço de iluminação noturna com uma lâmpada de vapor de sódio.
Nos três dias anteriores à colheita, os vegetais receberam a iluminação noturna de um conjunto de diodos emissores de luz, os LEDs, lâmpadas de estado sólido de baixo consumo de energia, do mesmo tipo encontrado na maioria dos aparelhos eletrônicos.
O resultado foi uma redução no nível de nitratos nos vegetais que variou de 44 a 65%.
O maior nível de redução dos nitratos foi verificado nas plantações de alface cultivado por hidroponia. Depois de um tratamento de três dias sob a luz de LEDs vermelhos, os testes mostraram uma redução de 65% na concentração de nitratos.
Além de diminuir a concentração de nitratos danosos à saúde, o fluxo de fótons de alta densidade gerado pelos LEDs também elevou os níveis de nutrientes dos vegetais.
Plantas iluminadas com LEDs – Segundo Giedre Samuoliene, coordenador da pesquisa, a tecnologia é diferente da já difundida prática das lâmpadas de sódio de alta pressão.
Os iluminadores de estado sólido limitam a quantidade de calor radiante, já que os LEDs têm luz fria, permitindo uma maior intensidade na fotossíntese.
Além disso, a técnica exige apenas um tratamento curto, pouco antes da colheita, em vez de uma iluminação durante o ciclo completo da cultura.
O investimento inicial na aquisição dos iluminadores de LED pode ser caro, afirma Samuoliene, mas a técnica é economicamente viável porque o tratamento é aplicado durante apenas 10% do tempo da cultura, com um baixíssimo consumo de energia.
Há também a perspectiva das vantagens de um eventual sobre-preço pelo fornecimento de vegetais mais saudáveis.

Fonte: Site Inovação Tecnológica

Grandes fabricantes mostram seus modelos de carros “verdes” em Pequim

As grandes marcas mundiais de veículos aproveitaram o Salão de Automóvel de Pequim para apresentar seus modelos “verdes”, que podem se tornar, em curto prazo, um dos melhores produtos à venda no mercado chinês, o maior do mundo.
A maior fabricante chinesa, SAIC, expôs seu carro elétrico, durante o salão que abriu na terça-feira (27) e vai até domingo (2).
Dos mil modelos expostos, 95 são elétricos ou híbridos – produzidos pela SAIC, por sua concorrente chinesa BYD e a americana General Motors.
A GM apresentou o Volt, um carro elétrico que deve ser lançado no mercado em 2011. A BYD, que tem como principal acionista é o milionário americano Warren Buffett, lançou o modelo E6, que funciona somente com eletricidade.
A Beijing Automotive Industry Holding Co anunciou que pretende investir 3,7 milhões de yuans (542 milhões de dólares) no desenvolvimento de veículos com fontes de energia alternativas, reafirmando a importância desse setor para a China.
No entanto, para os analistas o verdadeiro desenvolvimento de veículos alternativos na China ainda enfrenta dificuldades.
O governo decepcionou aqueles que esperavam, em janeiro, o anúncio de subsídios para o setor, que permitiriam baixar os preços para o consumidor chinês.
Preços elevados, autonomia reduzida e falta de postos de recarga de bateria limitam as vendas, explica Finbarr O’Neill, presidente da sociedade de consultores JD Power and Associates.
Menos de 4 mil carros híbridos (movidos a eletricidade e gasolina) foram negociados na China no ano passado e a venda de veículos elétricos foi quase inexistente, acrescentou.
No total, 13,64 milhões de carros foram vendidos na China em 2009, o que fez do país o primeiro no mercado do mundo, ultrapassando os Estados Unidos.
Os chineses seguem preferindo modelos de alto consumo de gasolina, embora no ano passado os modelos menores tenham tido maior aceitação, graças aos incentivos fiscais.
O alto valor dos veículos elétricos se deve ao custo das suas baterias recarregáveis, que os encarecem em 10 mil a 15 mil dólares.
“Não acredito que a maioria dos compradores esteja disposta a pagar mais para ter um carro mais ecológico”, destacou Finbarr O’Neill. “Sem subsídios, empresas como a BYD terão muitos problemas para alcançar uma massa crítica” na produção.
A China quer reduzir seu consumo e sua dependência energética, assim como seus graves problemas de poluição. Por isso, espera-se que o desenvolvimento de tecnologias ecológicas e carros “verdes” represente de 10% a 15% das vendas até 2020.
Desde 2006, o governo e as fabricantes de automóveis chinesas investiram pelo menos 10 milhões de yuans no desenvolvimento de veículos movidos com fontes de energia alternativas ao combustível. Desse montante, 1,1 milhão foi dado pelo governo, segundo o ministério das Indústrias e Tecnologias da Informação.
Apesar deste lento desempenho, a previsão segue otimista. Better Place, uma sociedade californiana que instala postos de recarga para veículos elétricos, vislumbra um bom mercado na China. No sábado, firmou um acordo com a fabricante chinesa Chery para desenvolver os primeiros protótipos.

Fonte: G1

Mais cana com menos queima

O Estado de São Paulo registrou, nos últimos anos, uma rápida expansão na produção de cana-de-açúcar, em consequência principalmente do aumento da demanda por etanol para atender ao mercado de veículos flex no país.
De 2003 a 2009, a área total do cultivo da cana disponível para a colheita no Estado saltou de 2,57 milhões para 4,89 milhões de hectares, segundo dados do mais recente relatório feito pelo Instituto Nacional de Pesquisas Espaciais (INPE), em São José dos Campos (SP).
O dado mais expressivo – do ponto de vista ambiental – é que pela primeira vez mais da metade da colheita foi realizada sem queima. O relatório referente à safra de 2009/2010 mostra que cerca de 56% da colheita foi realizada sem queima, contra 44% em que se utilizou o recurso. Na safra de 2006/2007, a colheita sem queima beirou os 34%.
De acordo com Bernardo Rudorff, pesquisador do INPE, se o ritmo for mantido, a meta estabelecida pelo Protocolo Agroambiental do Setor Sucroalcooleiro, assinado em 2007 entre o Governo do Estado de São Paulo e a União da Indústria de Cana de Açúcar (Unica) – que prevê a eliminação gradativa da queima da cana-de-açúcar até 2017 –, será cumprida, mesmo com a expansão da produção. Para as áreas com declive inferior a 12%, que permite a mecanização da colheita, o prazo termina em 2014.
“É claro que a expansão envolve questões complexas que impõem alguns limites, como condições favoráveis de mercado e investimento em maquinário, mas a pressão do protocolo está produzindo um resultado muito positivo no Estado e mostra que o objetivo de eliminar totalmente o procedimento de queima pode ser atingido até a data limite”, disse à Agência FAPESP.
Rudorff coordena o Projeto Temático recém-aprovado, intitulado “Impactos ambientais e socioeconômicos associados com a produção de etanol de cana-de-açúcar no centro-sul do Brasil”, que será desenvolvido no âmbito do Programa FAPESP de Pesquisa em Bionergia (BIOEN).
O grupo de pesquisadores vem monitorando, desde 2003, a área de cultivo, o tipo de colheita – com ou sem queima – e a mudança de uso e cobertura da terra decorrente da expansão do cultivo da cana-de-açúcar no Estado de São Paulo. A partir dos dados obtidos são gerados mapas que auxiliam a Secretaria Estadual do Meio Ambiente.
“A partir de 2009, iniciamos uma avaliação mensal da colheita e disponibilizamos os mapas para a secretaria, que, com isso, sabe do percentual e da localização das áreas queimadas. Antes disso, gerávamos um único mapa mostrando tudo o que havia sido colhido com e sem queima durante a safra”, disse Daniel Alves Aguiar, doutorando do programa de pós-graduação e integrante do projeto Canasat do INPE.
Em novo estudo publicado na revista Remote Sensing, os pesquisadores do INPE divulgaram os números referentes à safra de 2008/2009. De 2003 a 2008, a área de produção foi ampliada em 1,88 milhão de hectares. Entretanto, o ritmo de crescimento caiu nas últimas safras. Na safra anterior a 2008, a expansão foi de mais de 1,2 milhão de hectares, em 2008 o aumento foi de pouco mais 320 mil e, na safra 2009/2010, ficou em cerca de 100 mil hectares.
“Uma das explicações é que, com a crise econômica mundial – que afetou todos os setores da economia –, a produção da cana também foi atingida e a produção seguiu um ritmo mais lento nos dois últimos anos”, disse Aguiar, co-autor do artigo.
“No artigo, usamos como referência a safra de 2008 porque o objetivo era apresentar a metodologia que utilizamos que consiste em técnicas de interpretação de imagens de sensoriamento remoto e geoprocessamento”, explicou.
De acordo com o trabalho, a maior expansão de área com cana ocorreu no oeste paulista, que compreende as regiões de São José do Rio Preto, Araçatuba e Presidente Prudente.
“A expansão da cana nessas regiões se deu principalmente sobre as pastagens. E uma das críticas era que o aumento do cultivo da cana poderia comprometer a produção de outras culturas, como soja e milho, e promover uma diminuição do rebanho bovino no Estado”, disse Aguiar.
“São Paulo perdeu muita área que tradicionalmente era de pastagem para a cana-de-açúcar, mas, no entanto, o gado não diminuiu. Isso se deve à otimização do uso do espaço e ao investimento do setor pecuário em tecnologia”, disse Rudorff.
Na safra de 2009/2010, 2,27 milhões de hectares foram colhidos sem a queima da palha, enquanto 1,8 milhão foi colhido com a queima. O mapeamento mostra ainda que as regiões administrativas de Barretos, de Campinas e Central – tradicionais no cultivo da cana – foram as que apresentaram maior porcentagem sem queima, com 61,4%, 60,7% e 61,2%, respectivamente.
Apenas duas regiões, de Marília (56,3%) e de Presidente Prudente (50,8%), tiveram mais área colhida com queima do que sem. “Nesse sentido, o sensoriamento remoto tem importância fundamental para o cumprimento do protocolo”, destacou Aguiar.
Interpretação das imagens – Segundo os pesquisadores, o método utilizado consiste em monitorar o modo de colheita a partir da interpretação visual e do processamento digital das imagens. Mas, ressalta, a metodologia tem uma limitação.
“Para resultados satisfatórios é preciso contar com diversas imagens livres de nuvens durante o período de colheita. Por isso, utilizamos imagens de sensores com características diferentes”, disse Aguiar.
Segundo ele, o mais importante é obter imagens em períodos específicos em que a cana seja mais fácil de ser identificada. O mapeamento do cultivo da cana requer que sejam adquiridas imagens em janeiro, fevereiro e março da safra corrente e setembro e outubro do ano anterior.
“O plantio da cana-de-açúcar é geralmente feito nos meses de março e abril e em outubro elas já começam a aparecer em imagens de satélite. De janeiro a março do ano seguinte é o período em que a cana está mais vigorosa e fácil de ser identificada”, explicou o pesquisador.
Já para a colheita as imagens são adquiridas de abril a dezembro, período tradicional de colheita no Estado de São Paulo. Mas em dezembro, quando começam a aparecer mais nuvens, o trabalho se torna mais complicado.
“O foco principal do artigo que publicamos foi mostrar que a técnica de sensoriamento remoto pode ser utilizada para monitorar vários aspectos do cultivo da cana e tem tido um efeito positivo fora do país. Em discussões ambientais, o Brasil é lembrado por monitorar o cultivo”, disse Rudorff.
O estudo feito no INPE destaca que as metas do Protocolo Agroambiental do Setor Sucroalcooleiro não são para os municípios, mas para o setor como um todo. “O produtor que atingir as metas receberá um selo agroambiental. A ideia é que esse selo possa servir como um ingresso para o mercado externo”, disse Aguiar.

Fonte: Alex Sander Alcântara/ Agência Fapesp

quarta-feira, 28 de abril de 2010

Bioeletricidade: energia é captada diretamente das plantas

Recentemente, cientistas franceses construíram uma biocélula capaz de aproveitar um composto intermediário da fotossíntese das plantas para gerar eletricidade.
Agora, cientistas da Universidade de Stanford, nos Estados Unidos, foram além, e capturaram a eletricidade diretamente das plantas, sem a necessidade de uma biocélula.
Bioeletricidade – A fonte da energia usada pelos pesquisadores de Stanford também é a fotossíntese.
Mas, em vez de hackearem as folhas das plantas, eles literalmente plugaram um fio nas células de algas marinhas responsáveis pela fotossíntese e capturaram diretamente o fluxo de elétrons que elas produzem.
“Nós acreditamos sermos os primeiros a extrair elétrons de células de plantas vivas,” diz o Dr. WonHyoung Ryu, coordenador da pesquisa, destacando que o experimento pode ser o primeiro passo rumo à geração de bioeletricidade de alta eficiência.
Roubando elétrons – Ryu e seus colegas desenvolveram um nanoeletrodo ultra fino, feito de ouro, inicialmente projetado para sondar células vivas individuais.
Eles inseriram cuidadosamente os eletrodos através das membranas das células de algas. As células “abraçaram” os eletrodos, selando a membrana ao seu redor, o que as permite manterem-se vivas por algum tempo.
Os eletrodos coletam os elétrons no interior das células fotossintetizadoras e os transmitem para o exterior, criando uma pequena corrente elétrica.
“Nós continuamos nos estágios científicos da pesquisa,” alerta Ryu. “Nós estamos lidando com células individuais para provar que podemos colher os elétrons.”
Cloroplastos – As plantas usam a fotossíntese para converter a energia da luz em energia química, que é armazenada nos açúcares que elas utilizam como alimento.
Esse processo acontece nos cloroplastos, verdadeiras usinas de força das células, onde são produzidos os açúcares e que são também os responsáveis pela cor verde das folhas e das algas.
Nos cloroplastos, a água é quebrada em oxigênio, prótons e elétrons. A luz do Sol penetra no interior do cloroplasto e excita os elétrons para um nível de energia mais alto, o que faz com que ele seja prontamente capturado por uma proteína.
Os elétrons passam por uma série de proteínas, que sucessivamente capturam mais e mais de sua energia para sintetizar os açúcares – até que toda a energia dos elétrons seja gasta.
Geração de energia sem liberação de carbono – Neste experimento, os cientistas interceptaram os elétrons assim que eles foram excitados pela luz, quando estavam em seu nível mais alto de energia.
O resultado, destacam eles, é uma produção de eletricidade que não libera carbono na atmosfera. O único subproduto da fotossíntese são os prótons e o oxigênio.
“Esta é potencialmente uma das fontes de energia mais limpas para a geração de eletricidade. Mas a questão é, será ela economicamente viável,” pergunta-se Ryu.
Nanoenergia – Cada célula de alga produz 1 picoampere – uma quantidade de energia tão pequena que seria necessário plugar eletrodos em 1 trilhão de células fotossintetizadoras para gerar a energia disponível em uma pilha AA.
Ainda assim, a eficiência na conversão da energia luminosa em eletricidade atinge 20% – equivalente à das células solares fotovoltaicas. Mas os cientistas afirmam que, teoricamente, deve ser possível se aproximar dos 100% de eficiência.
O problema mais sério, contudo, é que as células morrem depois de uma hora. Os cientistas ainda não sabem se elas morrem por causa de vazamentos na membrana celular ao redor do eletrodo ou se é porque elas estão perdendo a energia que seria necessária aos seus processos vitais.
O próximo passo da pesquisa é aprimorar os eletrodos para que a célula possa viver mais tempo. Eletrodos maiores deverão conseguir capturar mais eletrodos. E cloroplastos maiores podem capturar mais energia por área.

Fonte: Site Inovação Tecnológica



Robô submarino tira energia da variação de temperatura do oceano

Pesquisadores norte-americanos apresentaram o primeiro robô submarino alimentado inteiramente pela energia termal do oceano.
A alimentação inteiramente natural e renovável dá ao novo robô uma autonomia virtualmente ilimitada, permitindo-lhe coletar dados científicos nos oceanos por muito mais tempo do que os veículos subaquáticos robóticos usados hoje.
O Solo-Trec (Sounding Oceanographic Lagrangrian Observer Thermal RECharging) foi criado por um consórcio de engenheiros da NASA, da Marinha norte-americana e de várias universidades.
Energia ilimitada – O robô Solo-Trec utiliza um novo sistema de captura de energia que recarrega suas baterias aproveitando as diferenças de temperatura naturais encontradas em diferentes profundidades do oceano.
“As pessoas sonham há muito tempo com uma máquina que produza mais energia do que consome e que funcione indefinidamente,” brinca Jack Jones, do Laboratório de Propulsão a Jato, da NASA.
“Embora isto não seja um moto contínuo verdadeiro, já que nós de fato consumimos energia do meio ambiente, o protótipo que demonstramos é capaz de monitorar continuamente o oceano sem que o fornecimento de energia imponha um limite à sua vida útil.” diz Jones.
Como o novo sistema de recarregamento é escalável, podendo ser usado em robôs de várias dimensões, os cientistas acreditam ter encontrado a solução definitiva para lançar uma nova geração de robôs autônomos capazes de monitorarem os oceanos indefinidamente, coletando dados para estudos climáticos, para exploração e para estudo da vida marinha.
Materiais de alteração de fase – Segundo os pesquisadores, a chave para o recarregamento termal das baterias do robô submarino é a cuidadosa seleção de substâncias parecidas com ceras, chamadas materiais de alteração de fase.
Esses materiais de alteração de fase ficam contidos em 10 tubos externos. Quando o robô está na superfície, onde as temperaturas são mais elevadas, o material se funde e expande. Quando o robô mergulha, atingindo zonas onde as temperaturas são mais baixas, o material se solidifica e contrai.
A expansão da cera pressuriza um compartimento de óleo, situado no alto dos tubos. Periodicamente, o óleo aciona um motor hidráulico, que gera energia e recarrega as baterias do robô.
Além de fazer funcionar a parte eletrônica, a energia das baterias recarregáveis aciona o sistema hidráulico de flutuação. Esse sistema hidráulico altera o volume do Solo-Trec – e, por decorrência, sua flutuabilidade – permitindo que ele se mova verticalmente com grande precisão.
No conjunto, os 10 tubos contêm uma quantidade de cera de alteração de fase suficiente para gerar a energia necessária para alimentar o robô. Para alimentar robôs maiores, é necessário apenas construir tubos maiores ou adicionar um maior número deles. O protótipo do Solo-Trec pesa 84 quilogramas.
Recarregamento termal – Para testar o novo sistema de recarregamento termal, o protótipo do Solo-Trec completou 300 mergulhos até uma profundidade de 500 metros.
O sistema gera 1,7 watt/hora, ou 6.100 joules de energia por mergulho.
Isso é suficiente para alimentar, além da bomba de controle de flutuação, todos os instrumentos científicos do robô mergulhador, o receptor GPS e os equipamentos de comunicação via satélite.
Robôs submarinos de monitoramento – Os robôs submarinos de monitoramento são programados para mergulhar e emergir de forma controlada. Enquanto estão mergulhando ou emergindo, seus sensores vão coletando as informações sobre temperatura, salinidade, correntes marinhas etc.
Eles precisam sempre emergir de tempos em tempos para transmitir os dados coletados, o que é normalmente feito por meio de uma conexão via satélite.
Mas o Solo-Trec aproveita os mergulhos também para recarregar suas baterias.
Embora já existam robôs submarinos pesquisando todos os oceanos da Terra, pesquisas recentes revelaram a necessidade de literalmente aprofundar essas pesquisas, uma vez que os cientistas não conseguiram ainda encontrar onde está se acumulando o calor do aquecimento global, mas eles desconfiam que esse calor perdido possa estar na parte mais profunda do oceano.

Fonte: Site Inovação Tecnológica



terça-feira, 27 de abril de 2010

Reações da atmosfera ao excesso de dióxido de carbono

O gás carbônico é o principal subproduto da queima dos combustíveis fosseis para obtenção de energia.
Não há como obter energia a partir da matéria orgânica sem gerar gás carbônico.
O gás carbônico é mais denso que a mistura gasosa que compõe a atmosfera, por isso, a tendência do referido gás é permanecer nas camadas mais baixas da atmosfera. A mistura do gás carbônico com os gases atmosféricos só acontece devido à variação da pressão, ventilação, movimentação dos mares e oceanos, movimentação da terra, ventos, chuvas e calor solar. Se não houvesse a “intervenção” destes agentes naturais, a vida animal já estaria extinta por asfixia.
O gás carbônico é isolante térmico, não é tóxico, é inerte, mas por ser mais denso que o ar, expulsa o oxigênio dos ambientes mais baixos, ocupando seus espaços, podendo provocar a asfixiante.
Os grandes centros produzem gigantescos volumes aquecidos de gás carbônico, que pelos motivos expostos, ficam estacionados no local de sua geração, formando bolsões térmicos sobre o local de origem com pouca ou nenhuma, dissipação ou movimentação.
Imaginemos o estrago que um bolsão térmico, contendo baixas temperaturas, faz quando rompe um grande volume de massa de gás carbônico aquecida. Pode-se fazer uma experiência bastante simples, enchendo duas bexigas de borracha, dessas usadas em festas infantis. Coloque uma na geladeira e outra deixe a temperatura ambiente ou, melhor ainda, sob o sol quente. Após meia hora, pressione uma contra a outra, fazendo com que se rompam simultaneamente. Observaremos a formação de gotículas de água se precipitam imediatamente.
Fenômeno parecido acontece freqüentemente ao nosso redor. Por exemplo, a cidade de São Paulo, após um dia inteiro, recebendo a descarga de gás carbônico e vapores aquecidos durante todo dia. A atmosfera local está aquecida e saturada de gases, principalmente de gás carbônico. Não nos esqueçamos que São Paulo fica localizada num planalto bem acima do nível do mar, e a massa fria que vem do sul, à medida que caminha, vai-se aquecendo e as moléculas aquecidas tendem a procurar os pontos mais altos.
Quando as duas massas de gases se encontram, a quente que está estacionária e a fria que está chegando, invadindo a massa mais quente, acontece uma rápida precipitação atmosférica, as águas se precipitam de uma só vez, provocando enchentes catastróficas. Quanto mais gás carbônico na atmosfera, pior será a situação.
O gás carbônico dificulta a mobilidade dos gases por ser mais denso, formando barreiras, impedindo a mistura e homogeneização dos gases e vapores e a conseqüente irregular distribuição da umidade, concentrando-a em determinados locais e áreas diferentes, daí as chuvas mal distribuídas, muitas vezes no centro de São Paulo chove torrencialmente e num subúrbio, a alguns quilômetros de distancia, o sol brilha.
Esse fenômeno pode ser local ou global, é o efeito estufa. O efeito estufa está acabando com a vida no planeta, alterando o habitat e as condições de vida na terra. O calor não se dissipa, não há um equilíbrio térmico, resultando na sensação de frio ou calor excessivo.
O calor recebido do sol e o calor retido nos bolsões térmicos são somatórios, cumulativos e não há uma troca térmica com a irradiação natural para o espaço, devido ao bloqueio formado pelo excesso de gás carbônico, havendo uma tendência a um aumento contínuo do calor, facilmente explicável, pois a cada segundo, o mundo queima mil barris de petróleo, mais ou menos 160.000 litros.
Soluções existem para se resolver o problema do efeito estufa, (excesso de gás carbônico na atmosfera), inclusive, criando condições de continuar com a utilização da matriz energética atual, basta para tanto, vontade política e disposição de se gastar um pouquinho dos lucros auferidos pela industria petroquímica para reciclar o gás carbônico, ou melhor, devolve-lo às sua origens.

Autor: Antonio Germano Gomes Pinto
Engenheiro Químico, Químico Industrial, Bacharel em Química com Atribuições Tecnológicas, Licenciado em Química, Especialista em Recursos Naturais com ênfase em Geologia, Geoquímico, Especialista em Gestão e Tecnologia Ambiental, Perito Ambiental, Auditor Ambiental e autor de duas patentes registradas no INPI, no Merco Sul, na UE, na World Intellectual Property Organization e em grande número de países.













sábado, 24 de abril de 2010

Biocombustíveis causam quatro vezes mais emissões de CO2 que a gasolina comum

O impacto analisado pelo estudo da Comissão Europeia não leva apenas em conta a queima do combustível, mas todo o processo envolvido na produção
Combustíveis feitos a partir de soja têm o poder de causar quatro vezes mais impacto no ambiente que a gasolina ou diesel comum. A novidade faz parte de um relatório da Comissão Europeia, segundo o jornal Telegraph de quinta-feira (22).
A emissão quatro vezes maior de CO2 (dióxido de carbono), um dos principais gases responsáveis pelo efeito estufa, é mais uma polêmica que envolve a produção de biocombustíveis. Esse tipo de produto é considerado por muitos especialistas como responsável por provocar escassez de alimentos nos países onde as áreas de plantio para arroz e trigo passaram a ser substituídas por campos de soja ou cana-de-açúcar.
O problema se agrava nos Estados Unidos porque a terra usada na produção de soja para alimentação animal está sendo agora ocupada com foco na demanda pelos biocombustíveis, fazendo com que sejam necessárias mais espaços para o plantio em grandes países exportadores, como o Brasil.
As menores emissões indiretas são as que acontecem a partir do bioetanol feito com cana-de-açúcar ou beterraba e óleo de palma do sudoeste asiático, mas mesmo assim causam danos por muitas vezes estarem ligadas ao desmatamento.
O relatório indica que o assunto é complexo e exige mais análises, mas Kenneth Richter, da ONG (Organização Não Governamental) Amigos da Terra, a conclusão é que os biocombustíveis não são a resposta para combater as alterações climáticas. “A maioria dos processos usados na produção dos biocombustíveis produz mais emissões que os combustíveis fósseis, portanto as ações que estão em curso na Europa deveriam ser feitas de maneira diferente.”
A União Europeia estabeleceu uma meta de substituir pelo menos 10% dos combustíveis mais comuns por aqueles baseados em fontes renováveis até 2020.

Fonte: Portal R7



sexta-feira, 23 de abril de 2010

Cocô de baleia ajuda a sequestrar carbono no mar

Salvar baleias ameaçadas de extinção pode aumentar a capacidade de armazenamento de carbono no oceano Antártico, segundo novo estudo sobre as fezes do mamífero. Os excrementos despejam enormes quantidades de ferro no mar, o que impulsiona o crescimento do fitoplâncton, sequestrador de carbono.
O autor da pesquisa, Stephen Nicol, da Divisão Antártica Australiana com sede em Kingston, na Tasmânia, encontrou grande quantidade de ferro no cocô das baleias. Ele considera que a caça comercial dos animais pode ter sido responsável pela diminuição de cerca de 12% de ferro na superfície do Antártico.
Estudos anteriores mostram que o ferro é crucial para a saúde do oceano porque o plâncton precisa dele para crescer. “Se você adicionar ferro solúvel no oceano, obtém o crescimento do fitoplâncton instantaneamente”, disse o pesquisador. A quantidade de ferro nas fezes significa que proteger as baleias da Antártida poderia inchar as populações de fitoplâncton, que absorvem o dióxido de carbono.
O krill antártico (Euphausia superba) – pequeno crustáceo – serve de alimento para os fitoplânctons, concentrando o ferro em seus tecidos. Por sua vez, as baleias se alimentam deles.
Rações de ferro – Uma pesquisa anterior levantou que as baleias reciclam o ferro do oceano se alimentando da substância encontrado no krill e, posteriormente, liberando-a nas fezes para os plânctons. Mas até este estudo, ninguém havia analisado o excremento dos mamíferos para constatar se eles continham significativa quantidade de ferro.
A equipe de Nicol analisou 27 amostras de quatro espécies de baleias e descobriu que nas fezes de um animal média existe 10 milhões de vezes mais ferro do que na água do mar da Antártida.
Os pesquisadores confirmaram que o ferro veio do krill, pela análise do teor da substância em todo o crustáceo e da amostra do material genético do DNA das fezes. “Nós confirmamos que a grande maioria do ferro no cocô veio do krill”, explicou o autor.
Comedores de Big Mac – Pelas estimativas da população de baleias no oceano Antártico antes da caça comercial que teve início no começo do século passado, Nicol levantou que os mamíferos – agora em perigo – consumiam cerca de 190 milhões de toneladas de krill todos os anos e produziam 7.600 toneladas de fezes ricas em ferro.
De acordo com o autor da pesquisa, populações maiores teriam produzido mais ferro, causando o aumento do número de fitoplânctons e krill.
“Proteger as baleias implica no lento recomeço do sistema”, disse ele. “E isso acabará por aumentar a quantidade de CO2 que o oceano Antártico pode sequestrar.”
David Raubenheimer, pesquisador de ecologia nutricional marinha da Universidade Massey, em Auckland, Nova Zelândia, afirmou que as descobertas são importantes e convincentes. “Elas destacam um papel ecológico específico para as baleias nos oceanos diferente do seu carisma.”
Peter Gill, ecologista da universidade de Deakin em Warrnambool, na Austrália, chama a pesquisa de “excitante”. “Muitas baleias foram retiradas dos mares antes que pudéssemos compreender a ecologia do oceano”, disse. “É emocionante quando podemos reconstruir o passado e percebemos que todas as peças se encaixam.”

Fonte: Folha Online



Estudo indica ligação entre as taxas de nitrogênio e de carbono no ambiente.

Uma nova pesquisa, que investigou o crescente problema da poluição por nitrogênio, indica que as taxas globais de nitrogênio e de carbono no meio ambiente estão intimamente ligadas.
Segundo os autores, o estudo pode auxiliar no desenvolvimento de estratégias para ajudar a mitigar problemas regionais que vão de corpos d’água contaminados a impactos na saúde humana. O trabalho foi publicado na edição desta quinta-feira (22) da revista Nature.
A pesquisa observou que nitratos – uma forma do nitrogênio – no ambiente exibem uma relação consistente, não linear e inversa com o carbono orgânico. O acúmulo de nitratos em rios, lagos e oceanos é uma consequência do uso de fertilizantes artificiais e tem causado problemas ambientais.
Philip Taylor e Alan Townsend, do Departamento de Ecologia e Biologia Evolucionária da Universidade do Colorado, nos Estados Unidos, verificaram que a proporção entre nitratos e carbono é resultado de processos microbianos que ocorrem em praticamente todos os ecossistemas.
Os pesquisadores analisaram dados de regiões tropicais, temperadas e polares, além de áreas conhecidas pela poluição por nitrogênio, como o golfo do México, o mar Báltico e a baía de Chesapeake (Estados Unidos).
“Desenvolvemos um novo modelo para explicar como e por que o carbono e o nitrogênio estão tão intimamente relacionados. Os resultados ajudam a explicar por que a presença de nitratos é tão elevada em alguns corpos d’água e reduzida em outros”, disse Taylor.
Apesar de o gás nitrogênio ser abundante na atmosfera, trata-se de uma forma não reativa e indisponível para a maior parte da vida no planeta. Mas, no início do século 20, entrou em cena um processo para transformar o nitrogênio em amônia, o principal ingrediente dos fertilizantes sintéticos usados na agricultura.
Atualmente são produzidos mais de 180 milhões de toneladas de fertilizantes por ano no mundo, sendo que a maior parte migra das plantações para a atmosfera, rios e oceanos.
O resultado é um conjunto de problemas ambientais que incluem o aumento de algas tóxicas, a “morte” de águas costeiras e sérios impactos na saúde humana – a presença de concentrações elevadas de nitratos na água consumida por humanos aumenta os riscos de desenvolver doenças como câncer, diabetes e Alzheimer.
“Em resumo, em locais em que a presença de carbono orgânico tem níveis suficientes, os nitratos são mantidos em níveis baixos. Ao usarmos dados disponíveis, poderemos fazer avaliações de quando e onde a poluição por nitratos pode se manifestar”, disse Townsend.

Fonte: Agência Fapesp



quarta-feira, 14 de abril de 2010

Plano europeu de energia limpa coloca Espanha e França na liderança

A União Européia (UE) precisará investir 52 bilhões de euros ao ano (US$ 70 bilhões) até 2020 em energias limpas, cujo desenvolvimento Espanha e França foram convocadas a liderar, revela um relatório que publicado nesta terça-feira (13), em Bruxelas, Bélgica.
As energias solar e eólica serão os principais substitutos do petróleo, gás e carvão até 2050, indica o informe, elaborado pela Fundação Européia para o Clima, que será entregue à Comissão Européia.
Em suas previsões, a fundação estima que a Espanha reafirme o papel de principal produtor europeu de energia solar, além de servir de território de trânsito para a produção do norte da África com destino ao norte da Europa.
A França, por sua vez, deverá se encarregar da produção de boa parte da energia eólica da UE e, devido à sua localização geográfica central, vai fazer as conexões entre a eletricidade produzida na Espanha e no Reino Unido, rumo ao norte e ao leste do continente.
A rede existente entre Espanha e França tem atualmente capacidade de 1 GW e, segundo o estudo, deverá chegar a 47 GW em 2050.
Os investimentos chegarão a 52 bilhões de euros anuais, ou seja, 2,5% do valor total dos gastos anuais da UE acrescenta o documento.
A UE se comprometeu a reduzir suas emissões de gases de efeito estufa em 80% até 2050 e fixou um objetivo triplo para 2020: reduzir em 20% suas emissões com relação a 1990, elevar para 20% o peso das energias renováveis no consumo de energia e efetuar uma economia energética também de 20%.

Fonte: Folha Online





Fotossíntese artificial: vírus é usado para quebrar molécula de água

Pesquisadores do MIT, nos Estados Unidos, descobriram uma nova forma para imitar o processo por meio do qual as plantas usam a luz do Sol para quebrar as moléculas de água.
Enquanto as plantas usam o mecanismo para gerar compostos úteis ao seu próprio crescimento, os pesquisadores estão mais interessados em capturar o hidrogênio e utilizá-lo como combustível.
Além de alimentar carros a hidrogênio, que não emitem poluentes, a técnica poderia resolver o maior entrave ao uso da energia solar: o fato de que ela somente gera energia quando o sol está brilhando.
Se esta energia for usada para gerar hidrogênio, o gás poderá ser armazenado e usado para gerar eletricidade à noite ou quando for necessário.
Oxidação da água – A chamada fotossíntese artificial é um objetivo longamente perseguido pelos cientistas.
A reação de quebra da molécula de água pode ser vista como duas “meias reações”: a reação que libera a molécula de hidrogênio e a reação que libera o átomo de oxigênio.
Esta última, conhecida como reação de oxidação da água, é de longe a mais complicada. Foi por isto que a equipe da professora Angela Belcher resolveu concentrar-se nela.
E, em vez de copiar os componentes que as plantas utilizam como as maioria das pesquisas na área fazem, Belcher e seus colegas decidiram copiar os métodos das plantas – nas células dos vegetais, pigmentos naturais absorvem a luz do Sol, enquanto os catalisadores promovem a reação de quebra da molécula de água.
Vírus da fotossíntese artificial – Para copiar a técnica das plantas, os cientistas modificaram um vírus, transformando-o numa espécie de suporte biológico capaz de montar os componentes necessários – pigmentos e catalisadores – para quebrar as moléculas de água.
O vírus bacteriano, chamado M13, é um vírus comum e que não causa danos ao ser humano. Ele foi utilizado para atrair e ligar-se a moléculas de óxido de irídio, um catalisador, e a porfirinas de zinco, que são pigmentos biológicos.
Ao capturar as duas moléculas, os vírus transformaram-se em uma espécie de fio, que funciona como um suporte para manter os pigmentos e os catalisadores no espaçamento adequado para sustentar a reação.
Para evitar que os fios se aglomerassem, os pesquisadores os recobriram com um gel, mantendo uma estabilidade e sua eficiência em quebrar as moléculas de água.
Gargalo da fotossíntese artificial – “Nós usamos os mesmos componentes que outros pesquisadores já vinham usando, mas nós usamos a biologia para organizá-los para nós, e assim obtivemos uma maior eficiência,” explica a Dra. Belcher.
Ao usar os vírus para montar o sistema de forma autônoma, a eficiência da produção de oxigênio – a meia-reação de oxidação da água – aumentou em quatro vezes, um progresso extremamente significativo justamente na parte que é considerada o gargalo da fotossíntese artificial.
Captura do hidrogênio – Como os pesquisadores trabalham até agora apenas na parte mais difícil da reação, os átomos de hidrogênio liberados pelos nanofios virais se quebram em seus prótons e elétrons.
O próximo passo da pesquisa, que já está em andamento, é justamente fazer a outra meia-reação, conseguindo reaver os átomos de hidrogênio.
Os cientistas também estão tentando encontrar um catalisador mais simples e mais barato do que o irídio, que não seria de utilização viável em um sistema em larga escala por ser extremamente raro e muito caro.
Há poucos dias, outra equipe anunciou o desenvolvimento de um catalisador não-biológico que atua também nesta meia-reação mais problemática de oxidação da água – veja Catalisador bioinspirado acelera busca por combustível solar.

Fonte: Site Inovação Tecnológica

segunda-feira, 12 de abril de 2010

Descoberto elemento 117 da Tabela Periódica

Uma equipe internacional de cientistas da Rússia e dos Estados Unidos descobriu o mais novo elemento da Tabela Periódica, o elemento 117.
“A descoberta do elemento 117 é o ponto alto de um percurso de uma década de pesquisas para expandir a Tabela Periódica e escrever o próximo capítulo nas pesquisas sobre elementos pesados,” disse Yuri Oganessian, coordenador da equipe.
Seis átomos – A equipe encontrou o elemento 117 medindo padrões de decaimento observados depois que um alvo de berquélio radioativo foi bombardeado com íons de cálcio, no ciclotron JINR, em Dubna, na Rússia.
O experimento produziu seis átomos do elemento 117 depois de bombardearem o alvo continuamente por 150 dias.
Para cada átomo, a equipe observou o decaimento alfa do elemento 117 para 115, depois para 113, e assim por diante, até que seu núcleo passasse por um processo de fissão, dividindo-se em dois elementos mais leves.
O elemento 117 era o último elemento que faltava na linha sete da Tabela Periódica.
Ilha de estabilidade química – No total, foram produzidos 11 novos isótopos “ricos em nêutrons”, levando os pesquisadores mais perto da suposta “ilha de estabilidade” dos elementos superpesados.
A ilha de estabilidade é um termo da física nuclear que se refere à possível existência de uma região além da Tabela Periódica atual, onde novos elementos superpesados, com números especiais de prótons e nêutrons, apresentariam uma maior estabilidade.
Essa ilha estenderia a Tabela Periódica para acomodar elementos ainda mais pesados e isótopos com meia-vida mais longa, permitindo a realização de reações químicas com eles.
Em busca da ilha de estabilidade, os pesquisadores inicialmente ignoraram o elemento 117 devido à dificuldade em obter o material-alvo berquélio.
Agora ele foi obtido em uma irradiação contínua, durante 250 dias, no mais poderoso fluxo de nêutrons do mundo, no Laboratório Oak Ridge, nos Estados Unidos, o que resultou em 22 miligramas de berquélio.
O padrão de decaimento dos novos isótopos, observado neste experimento, demonstrou a tendência constante de aumento da estabilidade conforme os cientistas se aproximam da teórica ilha de estabilidade química, reforçando as evidências de sua existência real.
Mudanças na Tabela Periódica – Esta descoberta eleva para seis o total de novos elementos descobertos pela mesma equipe – 113, 114, 115, 116, 117 e 118, o elemento mais pesado até hoje. Desde 1940, 26 novos elementos acima do urânio foram adicionados à Tabela Periódica.
Agora começa o processo para dar nome ao elemento 117. O último elemento oficialmente batizado pela União Internacional de Química Pura e Aplicada (IUPAC) foi o 112. Os demais continuam sendo discutidos.
Há poucos dias, outros cientistas anunciaram a descoberta de núcleos atômicos compostos de antimatéria que poderão mudar ainda mais a Tabela Periódica, dando- lhe um aspecto tridimensional.

Fonte: Site Inovação Tecnológica



Tecnologia permite a verificação do controle de qualidade de etanol

Uma pesquisa realizada pelo Instituto de Química, IQ, da Universidade Estadual de Campinas, Unicamp, apresentou três novas metodologias para controle de qualidade do etanol combustível.
Com a técnica de cromatografia de íons, o pesquisador Jailson Cardoso Dias desenvolveu seu estudo de doutorado pelo IQ. Uma das técnicas foi criada para a determinação de compostos aniônicos e as outras para íons metálicos, incluindo metais pesados e de transição, de acordo com o Dias.
Foram realizados diferentes procedimentos de otimização, tanto da parte de separação cromatográfica quanto do tratamento dos dados. Em cerca de 30 minutos é possível determinar se há presença desses materiais no produto analisado. Pela primeira vez foi considerada a presença de ferro no bioetanol.
A resolução ANP nº 36, de 2005, estabelece normas relacionadas aos parâmetros de qualidade do etanol no país. De acordo com o pesquisador, as novas metodologias contemplam um maior número de contaminantes, o que significa um avanço, em relação às substâncias que são especificadas na resolução atual.
A contaminação dos combustíveis pode ocorrer desde o período da produção, até a estocagem. Dias avalia a importância de um rigoroso processo de controle de qualidade. “Esse controle, principalmente para a exportação, deve ser mais rigoroso com essa matriz energética”, disse.
O trabalho foi desenvolvido em colaboração com o Centro Australiano de Pesquisa em Ciência da Separação, Australian Centre for Research on Separation Science – Across, que fica na Escola de Química da Universidade da Tasmânia, na Austrália.

Fonte: Danielle Jordan / Ambientebrasil



domingo, 11 de abril de 2010

Celular Samsung é movido à energia solar

É viável ter um celular carregado com energia solar? O INFOLAB testou o primeiro modelo desse tipo vendido no Brasil, o Samsung E1107, e concluiu que esse recurso deve ser usado como um complemento, útil para quem passa boa parte do dia ao ar livre, longe da tomada por muito tempo. Quando carregamos o aparelho na energia elétrica, ele aguentou firme por quase 12 horas em conversação, um número bem expressivo. Por ser um celular basicão, o preço agrada. Ele custa 129 reais.
A própria Samsung alerta no manual que o carregamento solar é uma função auxiliar, ou seja, não dá para abandonar o carregador. Fizemos dois testes distintos. Carregado na tomada, o celular aguentou 713 minutos em ligações. Já depois de um banho de sol de cerca de uma hora, falamos apenas 11 minutos e 25 segundos. É um tempo razoável para ligações emergenciais, mas que não é suficiente nem para tirar a bateria do nível mínimo.
Nas configurações, o Samsung E1107 é espartano. Tanto que seus destaques são rádio FM e lanterna. O aparelho traz o básico: agenda, calendário, despertador e dois games. Ele também faz chamadas falsas, para quem deseja se livrar dos chatos, e pode ser rastreado em caso de perda ou roubo. Mas nada de câmera, tocador de música, slot para cartão de memória ou browser.
A tela LCD de apenas 1,5 polegada do modelo é pequena para quem já se acostumou aos visores maiores dos celulares atuais. Já o teclado possui teclas bem separadas e a digitação de mensagens é prática. Fininho e leve, com apenas 76 gramas, esse modelo tem a cara dos telefones básicos de anos atrás. Sua saída de fone de ouvido é proprietária.

Fonte: Info Online

sábado, 10 de abril de 2010

Telhado inteligente economiza energia em todas as estações

Cubra a sua casa com um telhado claro, capaz de refletir a luz solar, e você terá efeitos opostos conforme a estação. A casa ficará fria no verão, diminuindo a necessidade do ar condicionado, mas ficará gelada no inverno, aumentando o uso do aquecedor.
Escolha telhas pretas e o resultado será inverso, com uma casa quentinha no inverno mas tórrida no verão.
Ou seja, mesmo querendo aderir a uma construção mais ambientalmente correta, será difícil escapar do consumo de energia numa ou noutra estação. Não dá para ter as duas coisas ao mesmo tempo.
"Telhado inteligente" - Mas essa situação se refere apenas aos telhados "burros" atuais, cuja única propriedade variável é a capacidade de absorção ou reflexão da luz solar dadas pela sua cor.
Um grupo de engenheiros dos Estados Unidos lançou agora o conceito de "telhado inteligente", capaz de "ler" um termômetro e ajustar suas propriedades de acordo com a temperatura.
Fabricado com um material derivado do óleo de cozinha usado, o revestimento muda automaticamente de característica, passando para a reflexão ou para a absorção do calor solar quando a temperatura exterior atinge um valor específico predeterminado, que pode ser ajustado às condições climáticas locais.
Telhados revestidos com o novo material serão capazes de refletir a abrasadora luz do Sol do verão, diminuindo os gastos com ar condicionado. Durante o inverno, o material passa a absorver o calor, ajudando a aquecer o interior da residência e diminuindo os gastos com aquecimento.
Biorrevestimento - "Este é um dos materiais de revestimento de coberturas mais inovadores e práticos desenvolvidos até hoje," afirma o Dr. Ben Wen, líder do projeto de pesquisa.
"Este biorrevestimento de telhado inteligente, em comparação com um telhado tradicional, é capaz de reduzir os custos de aquecimento e de refrigeração ao mesmo tempo, uma vez que ele responde ao ambiente externo. Além disso, proporcionará um novo uso para milhões de litros de óleo usado," diz ele.
Os testes mostraram que revestir um telhado com a cobertura à base de óleo reciclado pode reduzir a temperatura das telhas de 50 a 80% nos meses mais quentes do ano.
Durante o inverno, o revestimento pode aumentar a temperatura do telhado em até 80 por cento em comparação com os telhados tradicionais.
"Mesmo que a temperatura do teto seja reduzida ou aumentada em uns poucos graus, dependendo da temperatura exterior, essa mudança pode fazer uma grande diferença na conta de energia", argumenta Wen.
Processamento do óleo de cozinha - Para fabricar o revestimento, o óleo de cozinha usado é transformado em um polímero líquido que endurece após a aplicação. Ao contrário do óleo descartado, que pode trazer consigo o cheiro das frituras, o polímero resultante é praticamente inodoro.
Os fabricantes poderão produzi-lo em qualquer tonalidade, variando do claro ao preto, dependendo dos aditivos usados. Segundo Wen, mesmo sendo um plástico, o material é não-inflamável e atóxico.
Wen adverte contra tentativas de jogar óleo de cozinha usado sobre o telhado na tentativa de conseguir um efeito similar. Isso porque o óleo de cozinha comum não irá se transformar em um polímero e não irá endurecer, além de não conter o ingrediente para controlar os níveis de luz infravermelha e ainda representar um risco de incêndio para a casa.
O próximo passo da pesquisa é monitorar a durabilidade do material. Embora falem em "vários anos", os pesquisadores afirmam que a cobertura poderá ser reaplicada se deteriorar.
Eles esperam ter o produto pronto para comercialização dentro de três anos.
 
Fonte: Inovação Tecnológica

sexta-feira, 9 de abril de 2010

Satélite europeu para estudar mudança climática é lançado

O satélite europeu CryoSat, dispositivo desenhado para estudar a mudança climática, foi lançado nesta quinta-feira (8) a partir da base de Baikonur, no Cazaquistão, e deve entrar em órbita às 11h13 no horário de Brasília.
O lançamento ocorreu às 10h57 no horário de Brasília com a ajuda de um foguete russo Dnieper, informou a Agência Espacial Européia em Moscou. O foguete é um míssil balístico intercontinental reconvertido.
O satélite, réplica de um aparelho similar perdido durante o lançamento em 2005, deve se separar do foguete para situar-se na órbita prevista às 11h13, no horário de Brasília.
Com 720 quilos, o equipamento funcionará durante três anos, prorrogáveis por outros dois, em uma órbita polar à altura de 717 quilômetros, com 92 graus de inclinação com relação à linha do equador.
CryoSat foi criado dentro de programa da ESA “Planeta Vivo” e está destinado para medir a grossura e a superfície da camada de gelo na Antártida, Groenlândia, Islândia e as áreas oceânicas a altas latitudes, assim como para observar geleiras em alto-mar e em terra.
Os cientistas acompanharam as mudanças dos campos de gelo para investigar o efeito que tem sobre o aquecimento climático global, segundo a ESA.
O lançamento, inicialmente previsto para 25 de fevereiro, foi adiado para melhorar a confiabilidade da manobra de localização do satélite em órbita.
O anterior satélite CryoSat foi lançado a partir da base de Plesetsk, no norte europeu da Rússia, em outubro de 2005, mas se perdeu devido a um erro no software do sistema de comando do foguete portador.

Fonte: G1



CNPq passa a autorizar coleta de fauna e flora e substitui ministério ambiental

Os pesquisadores já podem solicitar autorização de acesso ao patrimônio genético brasileiro, ou seja amostras de espécies animais e vegetais do país, anunciou o CNPq – Conselho Nacional de Desenvolvimento Científico e Tecnológico – nesta quinta-feira (8).
Após a fase de testes, a instituição colocou no ar o formulário online próprio para as solicitações. A ação integra o Sistema de Autorização de Acesso ao Patrimônio Genético, desenvolvido especificamente para esta finalidade.
As autorizações antes eram de responsabilidade do Ministério do Meio Ambiente. Cientistas costumavam reclamar que eram tratados como biopiratas.
O acesso à biodiversidade brasileira e aos seus recursos genéticos é um problema histórico para os cientistas, o que atrapalha muito as pesquisas, segundo eles. Licenças chegavam há demorar 2 anos para sua emissão.
Segundo o ministro da Ciência e Tecnologia, Sergio Rezende, o novo sistema facilitaria o acesso.
Projeto – A autorização do CNPq será concedida às instituições que realizam pesquisas nas áreas biológicas e afins, mediante a apresentação de projeto de pesquisa que descreva as atividades de acesso e de remessa das amostras de componentes do patrimônio genético brasileiro.
O projeto deverá ser coordenado por pesquisador com experiência no assunto.
As orientações para solicitar a autorização e preenchimento do formulário online estão em página específica do site do CNPq.
Para gerenciar a nova atribuição, o CNPq criou a Coordenação do Sistema de Autorização de Acesso ao Patrimônio Genético, vinculada à Diretoria de Programas Temáticos e Setoriais.
Mais informações podem ser obtidas pelo e-mail apg@cnpq.br ou telefone 0/xx/61/2108-4024.

Fonte: Folha Online