domingo, março 13, 2011
O "teste" sísmico japonês à segurança das centrais eléctricas - AUTO-CRÍTICA
Em primeiro lugar quanto ao número de mortos causados pelo sismo, e na comparação que fiz com o Haiti.
Dei como definitivos os mil mortos que aparentemente as autoridades japonesas, segundo os media, anunciavam, quando a experiência haitiana já devia ter ensinado que, imediatamente a seguir a um cataclismo destes, com as comunicações cortadas, as estradas destruídas e uma imensa confusão e estupefacção nos sobreviventes, todos estes pensam que nas povoações e bairros vizinhos se estará tão vivo como eles - e, só depois e a pouco e pouco, se vai percebendo a verdadeira dimensão da tragédia.
Aconteceu no Haiti no ano passado: primeiro eram alguns milhares de mortos, depois talvez umas dezenas de milhar, e só ao fim de uma semana se soube a verdadeira dimensão da tragédia, que ainda continuou a matar os soterrados e esfaimados e feridos por vários dias, até se chegar ao horrível número de 316 mil mortos!!!
Aliás, e ainda por cima, para confirmação da minha estupidez, o mesmo cenário de conhecimento progressivamente crescente do número de mortes já tinha acontecido com o tsunami de 2004 na Tailândia e na Indonésia!...
Dos 665 mortos imediatos e mil estimados logo depois do sismo japonês, fala-se agora em dez mil, mas provavelmente serão algumas dezenas de milhar. Há navios e comboios que desapareceram, numa pequena cidade a norte não se sabe de metade da população de vinte mil pessoas, e as "várias" casas varridas pela enxurrada resultante do rebentamento da barragem de Honshu são agora "muitas" casas! Só daqui a uma semana, provavelmente, se terá uma verdadeira noção da catástrofe!
Depois, há as réplicas.
No Haiti houve 6 réplicas. Aqui registaram-se 80, e algumas delas atingindo quase os 7 pontos na escala de Richter, isto é, quase tanto como o próprio sismo do Haiti!
E, ao que diz a TEPCO, terá sido uma dessas réplicas, de intensidade 6.7, que neutralizou os trabalhos de introdução da última barra de grafite no reactor nº 1 de Fukushima I e que terá avariado os sistemas de emergência montados para a refrigeração dos reactores nº 1 e 2 da Central.
Quanto a isto, entretanto, cometi uma precipitação adicional: dei como definitivos os comunicados da TEPCO, quando o das 5 PM de ontem, que dava como colocada a última barra de grafite, foi depois retirado pela empresa para anunciar no seu lugar a explosão do circuito de água pressurizada do reactor na sequência da réplica sísmica ocorrida durante os trabalhos.
Ora sem dúvida que a situação no reactor nº1, e talvez também no nº 2, de Fukushima I, é grave. O rebentamento do circuito de água pressurizada, que com toda a probabilidade ocorreu, destruiu como em Chernobyl a cobertura do edifício - exactamente uma das situações para que as novas nucleares de III geração são projectadas e construídas para que não suceda. Mas Fukushima I é a mais velha das nucleares japonesas, da mesma geração tecnológica de Chernobyl e Three Miles Island, projectada nos anos 60 e cujos 6 reactores foram montados nos anos 70.
O reactor nº 1, agora na eminência de ter o seu sarcófago de aço derretido, foi o primeiro montado no Japão, em 1971 - há 40 anos!
Há uma semelhança entre um reactor nuclear e um avião: ambos não podem simplesmente desligar os motores, em caso de necessidade. Tal como um avião tem que aterrar primeiro, e só depois pode desligar os motores senão cai e destrói-se, um reactor nuclear tem que primeiro introduzir as barras de grafite que abafam a reacção nuclear e só depois pode desligar gradualmente a circulação da água pressurizada, senão a produção de calor continua até à destruição do reactor. São dois produtos da inventividade humana cuja segurança assenta inteiramente na operacionalidade da tecnologia com que foram feitos. Como engenheiro, confesso, essa é uma das razões porque gosto tanto de aviões e da energia nuclear...
Mas tudo indica que se trava uma luta desesperada para impedir que o sarcófago derreta, deitando-lhe água e ácido bórico para cima em substituição da refrigeração (e modeação da reacção nuclear) que o circuito de água pressurizada obviamente deixou de cumprir. O objectivo é, evidentemente, impedir que o seu conteúdo saia para a atmosfera, mas que já haverá fugas no interior da central é patente: a presença de césio é uma prova irrefutável, e já houve um trabalhador hospitalizado por dose excessiva de radiações!
O reactor nº 1 está condenado, e esperemos que o seu vizinho nº 2 esteja em melhor estado. Mas o Japão é um país aberto e que pediu de imediato a ajuda internacional, ao contrário da URSS de 1986 em que Chernobyl aconteceu, e por isso acredito que o problema acabe por ser definitivamente controlado e os estragos contidos ao interior da Central.
O Japão está a ser submetido a uma provação terrível que só posso desejar nunca venha a acontecer em Portugal. Quando por cá acontecer uma coisa semelhante (o terramoto de 1755 foi de intensidade parecida, àparte as réplicas), receio que a mortalidade e a destruição sejam mais comparáveis às do Haiti que às do Japão, e num caso desses o estado em que ficarem as centrais eléctricas não será das preocupações mais prioritárias, no meio de toda a devastação...!
Entretanto, este evento mostra as consequências da hipocrisia que tem vindo a nortear muito do Ocidente quanto à política de energia nuclear: por um lado vários países evitam a construção de centrais novas, modernas e muitíssimo mais seguras, de III geração, mas ao mesmo tempo vão prolongando a vida destas antigas de II geração, já com 40 anos e mais, projectadas e construídas sem incorporarem os ensinamentos destes acidentes! É como se por medo de se andar de carro não se comprasse um destes automóveis modernos com ABS e controlo automático de estabilidade, cintos de segurança com pré-tensores, habitáculo indeformável e zonas programadas de deformação no chassis mas, depois, porque se continua a precisar de andar de carro, se continuasse a usar os feitos há 40 anos e que não têm nada disso...
E, retomando a analogia com os aviões, as centrais de III geração têm ou motores e sistemas de controlo extra e redundantes, como os modernos aviões (solução EPR francesa), ou capacidade de planarem até aterrarem em segurança mesmo sem motores (solução APR americana).
O certo é que, com os progressos tecnológicos que muito devem aos acidentes do passado, andar de avião é hoje muito mais seguro que andar de automóvel.
E, no caso das centrais eléctricas do Japão e do seu "teste" sísmico, veremos, no fim, se morreram mais pessoas devido a este acidente em Fukushima I ou ao rebentamento da barragem da central hidroeléctrica do nordeste, região sobre cujas perdas ainda pouco se sabe.
sábado, março 12, 2011
O "teste" sísmico japonês à segurança das centrais eléctricas
O sismo que recentemente matou centenas de milhar de pessoas no Haiti foi bastante mais fraco (7.2), mas o que em 1755 devastou Lisboa e o Sul de Portugal teve uma intensidade semelhante (8.6 na escala de Richter - ver a figura ao lado para comparação).
Com o sismo actual, o eixo do planeta deslocou-se 10 cm e o período de rotação da Terra reduziu-se em 1.6 micro-segundos. Foi um fenómeno de tal energia que também chegaram tsunamis à costa americana, causando pelo menos um morto, a milhares de km de distância!
O Japão é um país extraordinariamente civilizado e em que os sismos (há em média um, fraquinho, a cada 5 minutos) são bem estudados e as normas de projecto das construções são rigorosas. Além disso a corrupção é reduzida e o povo altamente educado e cívico (até andam de máscara quando se constipam, para não contagiarem as outras pessoas). Mas, apesar disso tudo estar bem patente na diferença de mortalidade entre o que acabou de acontecer lá e o morticínio do Haiti, o Homem continua a ser mortal e a Natureza cataclísmica.
A destruição industrial causada pelo sismo de ontem foi tal que a cotação do barril de petróleo caiu imediatamente 3 dólares. Há uma refinaria perto de Tóquio e um complexo petroquímico em Sendai a arderem, falhas generalizadas de electricidade e de tele-comunicações, e... centrais eléctricas gravemente danificadas!
Entre as centrais danificadas, pouco se sabe ainda sobre a hidroeléctrica das montanhas da ilha de Honsu cuja barragem rebentou e que, na enxurrada resultante, arrastou "várias" casas. Mas o Japão só tem pequenas hidroeléctricas de montanha, e cerca de 1/3 da sua electricidade é produzida por... 54 reactores nucleares! E mais 2 em construção e mais 12 planeados...
Temos assim que, portanto, as centrais nucleares do Japão acabam de ser submetidas ao ultimate teste sísmico! As centrais nucleares e as hidroeléctricas, embora estas sejam lá pouco expressivas...
Ora as últimas notícias nos media parecem indicar que o pior acidente que pode suceder num reactor nuclear, o da explosão do circuito de água pressurizada que modera a intensidade da cisão nuclear e que transfere o calor gerado para as turbinas geradoras, poderá ter acontecido há poucas horas num dos reactores da central de Fukushima I.
Como expliquei resumidamente aqui, é a água que modera a cisão nuclear em cadeia num reactor normal, desacelerando os neutrões que cindem os núcleos dos átomos de urânio 235. Modera-a, absorvendo a respectiva energia e aquecendo, e é esse calor que é depois levado, a alta pressão e temperatura, para o circuito de aquecimento da água das turbinas geradoras.
Se essa água deixar de circular, ou se se reduzir devido a uma fuga, a sua temperatura sobe até que a respectiva pressão rebenta com a canalização que a contém, e em geral com isso também danifica o reactor, expondo o respectivo conteúdo e misturando-o com o vapor de água libertado. Daí resultam as nuvens de vapor radioactivo que, em Chernobyl e segundo algumas notícias também agora em Fukushima I, se soltam para a atmosfera se se puderem escapar do edifício que contém o reactor - o que é mais provável se o próprio rebentamento das canalizações de água pressurizada destruir a cúpula desse edifício.
Os media estão atentíssimos ao que se está a passar, e já ouvi notícias dando conta de que a cúpula do edifício de Fukushima I teria mesmo rebentado, como em Chernobyl! Porém, a TEPCO (a EDP lá do sítio) está a publicar hora a hora comunicados sobre a situação e não confirma nada disso! Com efeito, o último comunicado, publicado há minutos, informa já estar tudo sob controlo!
Sim, o sistema de circulação da água pressurizada avariou, assim como os 12 geradores Diesel de emergência (Raquel: preste atenção aos Diesel para a sua Tese!), mas o único reactor em que uma das barras de grafite que controlam o reactor (absorvendo os neutrões) não era certo já estar no sítio certo 2 horas atrás era o nº 1 (daí para cá o assunto já foi resolvido). E, entretanto, com água extra a ser injectada para manter a temperatura e a reacção sob controlo!
Ora este detalhe técnico (o reactor nº 1 de Fukushima I) que aqui menciono não é irrelevante; é que é precisamente o reactor mais antigo dos 54 que o Japão tem, construído há já 40 anos (1971), antes do incidente de Three Mile Islands e o acidente de Chernobyl terem levado a rever todo o projecto das centrais nucleares subsequentes!
Como explico no texto que escrevi em 2009, foi para garantir o controlo destas situações que se evoluiu para a III geração de centrais nucleares, as que agora se fabricam, e que , entre outras medidas extremas de segurança, têm o reactor contido numa dupla casamata à prova de fusão do mesmo!
Vamos ver atentamente como evolui a situação.
Até ao momento a TEPCO dá conta de alguns trabalhadores feridos e um provavelmente morto durante os trabalhos de emergência em curso em Fukushima I, mas nenhum por radioactividade.
Entretanto, continua a não se saber o número de mortos causados pelo rebentamento da barragem da central hidroeléctrica, e que não parece interessar os media... mas que me deixa a pensar: e se, num terramoto semelhante por cá, rebentassem alguma ou algumas das novas hidroeléctricas dos afluentes do Douro, que aconteceria ao Porto?
sexta-feira, agosto 27, 2010
Ainda sobre as normas de segurança nos trabalhos em Alta Tensão
Não é fácil encontrar os números, mas noutras publicações desse Ministério é possível verificar que o número de mortos anuais por acidentes nas empresas de energia tem sido, em média anual, de 2. O número de incapacitados é bem maior.
Como referi aqui, as normas de segurança existentes, copiadas caninamente das normas europeias pelo nosso Estado, estão erradas. Mandam ligar à terra as linhas susceptíveis de ficarem em tensão, durante os trabalhos de manutenção, o que é inútil.
O que se deve fazer está explicado na figura que aqui insiro, retirada de uma publicação americana que mostra também como por lá os textos são escritos para serem realmente entendidos pelos principais interessados, ou seja, as potenciais vítimas, os trabalhadores!
A "grounding bar around pole" justifica-se lá por os postes serem de madeira. Aqui bastaria ligar à armação férrea dos postes de cimento, que aliás têm pinos acessíveis para isso.
* Indo um pouco mais fundo na explicação técnica (hoje os leitores não técnicos poderão neste momento fechar a window), a questão é que a resistência eléctrica de uma vara enterrada no solo é muito aproximadamente ró/L, sendo "ró" a resistividade do solo e L o comprimento da vara. Como "ró" anda em média à volta de 150 ohm (mas pode ser muito mais) e L é de 2 metros no máximo, resulta que a tal resistência anda em torno de 75 ohm., pelo menos. A "impedância homopolar da rede" é em geral muito menor, pelo que em caso de colocação acidental em tensão a maior parte dessa tensão aparece aos terminais da vara e, portanto, da linha a que ela e o trabalhador estão ligados. O que significa que é como se a vara e sua ligação não estivessem lá, para efeitos práticos e de segurança do trabalhador.
Outro ponto que a figura acima ilustra é que dos 3 condutores de fase só deve descer um cabo. Os equipamentos franceses que cá se usam fazem descer 3, um por fase, e só se ligam no ponto comum que liga à vara (vd. figura ao lado). Assim, se as 3 fases forem acidentalmente postas em tensão, como será mais provável, existirá um curto-circuito trifásico que cria tremendas forças entre os cabos e os tendem a arrancar do ponto comum de ligação à vara.
Isto faz-se assim em toda a Europa ocidental há muitas décadas, mas nos EUA o assunto foi re-estudado e chegaram às conclusões óbvias que aqui mostro.
Óbvias depois de explicadas, claro...:-)
Não deixa de ser espantoso, entretanto, que em toda a Europa não seja conhecida uma única voz que tenha, até agora, questionado esta prática e a norma que a institucionaliza (norma CENELEC 50110-1, revista em 2004)!
terça-feira, junho 22, 2010
Minority Report e os chips nos carros
A ideia não tem nada de inexequível. O Google "aprende" os nossos hábitos e gostos e antecipa-se a escrever por completo o nome do que queremos procurar na net. E todos sabem como é fácil hoje em dia cruzar toda a informação do que compramos por meios electrónicos para nos fazer os "profiles" comerciais. O Fisco também já o faz.
No filme, um dia a polícia aparece de surpresa em casa do "herói" para o prender porque sabe, pelo seu perfil, que ele vai cometer um crime. E assim, antecipa-se, evitando esse crime.
Vem isto a propósito da ideia deste Governo de montar chips em todos os automóveis. Para quê, ainda não acharam sequer precisarem de o explicar. As SCUT deram-lhes agora um pretexto para tentar justificá-los.
É claro, tenho quase a certeza, que por detrás da ideia está essencialmente mais um negócio "decretino". Alguém fez as contas de como ficaria rico se vendesse uns milhões de chips em Portugal, provavelmente feitos na China, e nada melhor que um Decreto governamental para obrigar os cidadãos a comprá-lo!
Mas a ideia de um dia a polícia me aparecer em casa ou onde eu estiver, sabe-se lá se por bons motivos ou se apenas porque me querem tramar (como no filme), não me agrada.
Por isso, eu jamais usarei esse chip! E se vier a ser incorporado nos carros novos, quando comprar o próximo hei-de arrancá-lo!
E se vier a ser obrigatório, o máximo que me imagino a fazer é levá-lo comigo só nas viagens em que tenha de passar pelas tais portagens electrónicas, se não houver outras, e depois voltar a pô-lo numa gaveta de uma cave funda!
Mas para não ter mais uma coisa que me aborreça, espero bem que o Parlamento chumbe liminarmente essa ideia na quinta-feira - e de modo a que ela não renasça tão cedo!
quinta-feira, fevereiro 11, 2010
A ideologia ecotópica europeia que está por detrás de toda a nossa delirante política energética
Com a devida vénia ao Rerum Natura, e o meu respeito pelo Prof. Delgado Domingos, transcrevo aqui por inteiro a referida entrevista, dada a importância político-científica que lhe atribuo.
O fracasso e a humilhação da União Europeia em Copenhaga
O Público de 24.12.2009 publicou nas páginas centrais do suplemento P2 um esclarecedor artigo de Viriato Soromenho Marques (VSM) intitulado “De Copenhaga rumo ao México a União Europeia pode fazer a diferença”. O desfecho da conferência de Copenhaga era previsível pelos motivos que indiquei (J.Negócios 3.11.2009, Expresso Online 30.11.2009). Os que sempre vangloriaram a liderança da UE na questão das alterações climáticas confrontam-se agora com o facto de o acordo de que a COP15 tomou conhecimento em Copenhaga ter sido sobretudo uma humilhação para a UE, pois a realidade virtual que criou e liderou não lhe deu sequer acesso à mesa onde o acordo foi negociado.
Rumo ao México, a UE pode fazer efectivamente a diferença se capitalizar no que de pioneiro e muito relevante trouxe para a sustentabilidade ambiental e sobretudo energética, e na ajuda aos países mais pobres. Para isso, tem de reconhecer que a sensibilização/mobilização pública conseguida com o alarmismo climático está esgotada e é contraproducente. Esse alarmismo, baseado num pseudo-consenso científico, levou à defesa de cortes nas emissões de CO2, impossíveis de realizar sem devastadoras consequências económicas e sociais. Efectivamente, e segundo VSM, “num impressionante estudo que procura aliar ciência dura e diplomacia, o Conselho Federal Alemão para a Mudança Global (WBGU), dirigido pelo eminente físico Hans Joachim Schellnhuber“ (que se propunha ser o guião para as negociações em Copenhaga), concluía-se que, até 2015-2020, o consumo de combustíveis fósseis teria de estabilizar para vir a desaparecer dentro de 40 anos. Portugal, p. ex., teria de reduzir cerca de 7 vezes o seu consumo actual de combustíveis fósseis até 2050 e para a maioria dos países desenvolvidos esse consumo per capita teria de regredir para valores próximos do primeiro quartel do século XX. Tendo em conta que as energias fósseis constituem o maior sector da economia mundial (de que representam cerca de 8%), o seu desaparecimento em 3 ou 4 décadas, para ser substituído por energias renováveis, mesmo admitindo que era financeiramente viável, seria fisicamente impossível, tendo meramente em conta o tempo necessário para a concretização de soluções tecnológicas já conhecidas. Por este, entre outros motivos, o acordo legalmente vinculativo defendido pela UE/ONU e a maioria das ONGs não poderia ser cumprido. E quem o quisesse honestamente cumprir, não o poderia assinar. Não admira, por isso, que a UE nem sequer tenha sido convidada a participar na negociação do documento que posteriormente subscreveu.
Mas será que tal acordo significou mesmo a “incapacidade da comunidade internacional (...) prevenir a primeira mudança da estrutura ecológica e ontológica do Planeta causada pela acção humana” como afirma VSM? Não me parece, porque o pilar fundamental deste tipo de argumentação é uma grosseira adulteração das implicações do conhecimento científico fundamental e básico (*), em torno do qual o consenso é inequívoco.
“Fazer batota com as leis da física ...”
Alterações Climáticas e Aquecimento Global foram vulgarizados como sinónimos, e o passo seguinte foi atribuir erradamente o aquecimento global (quase exclusivamente) às emissões de CO2eq. Invocou-se, para isso, um difuso consenso científico, no qual nunca ficou claro a que fenómenos ou leis físicas se referia. Existe, efectivamente, há décadas, indiscutível consenso científico quanto ao facto de o CO2 ter um efeito de estufa e de o vapor de água ter um efeito de estufa muito maior. Mas tal consenso não existe quanto à relação quantitativa entre o aumento da concentração CO2eq na atmosfera e a elevação da temperatura média global do ar junto à superfície (ETMGAJS). Segundo o próprio relatório cientifico do IPCC, considerado como referência fundamental, (ARA4WG1,p. 114), a ETMGAJS devida a uma duplicação da concentração em CO2 na atmosfera tanto poderia ser de 1,9ºC como de 5.9ºC (dependendo do modo como se considera o efeito das nuvens). Na relação habitualmente considerada (*) a ETMGAJS é proporcional ao logaritmo da concentração da atmosfera em CO2. A constante de proporcionalidade, a chamada sensibilidade climática, varia entre ~2 e 4,5 e em relação a ela o IPCC afirma(ARA4WG1, p. 640) que:
“a set of model metrics that might be used to narrow the range of plausible climate change feedbacks and climate sensitivity has yet to be developed”
Ou seja, o próprio IPCC reconhece que não se sabe qual o valor a escolher para a sensibilidade climática. O IPCC não sabe mas os proponentes de cortes radicais, como os referidos, actuam como se soubessem. Para isso, partem das conclusões que querem obter e escolhem o valor da sensibilidade climática que mais lhes convêm, não se coibindo sequer de invocar um suposto consenso, ou mesmo de citar o IPCC, se for conveniente. A verdade é que, por exemplo, o IPCC nunca recomendou 2ºC como aumento de temperatura a não exceder, tal como nunca recomendou um limite de emissões para o conseguir. Um e outros valores são decisões políticas (não científicas!) da UE.
Em resumo: a argumentação da UE tem por base uma batota com as leis da Física. Uma batota que consiste em apresentar (como consequência de leis físicas fundamentais) uma relação quantificada entre emissões de CO2eq e aumento de temperatura média, que só pode ser obtida com grosseiras simplificações e factores numéricos politicamente escolhidos (*)!
O limite dos 2ºC e os modelos climáticos
O acordo em Copenhaga fixou em 2ºC o aumento de temperatura média a não ultrapassar. Esse valor justifica-se, nomeadamente, porque um aumento de 2ºC se teria verificado durante o chamado período quente medieval sem que tivesse ocorrido qualquer desastre climático. Aliás, muitos dos indícios indirectos que hoje se invocam para defender que existe aquecimento (antecipação das florações na Primavera, migrações de fauna e flora, etc) são a réplica do que a História nos diz ter existido naquele período. Foi também durante este período que os vikings colonizaram a Groenlândia (“Greenland” =Terra Verde).
Não associar um aumento da temperatura de 2ºC a um aumento quantificado de emissões de CO2eq, é uma decisão aceitável, tendo em conta os dados das observações existentes. De facto, aceitando como válidos os valores de referência utilizados pelo IPCC, houve um aquecimento médio global nos últimos 150 anos que não ultrapassou os 0.8ºC. Houve um aquecimento entre ~1900 e ~1945, seguido de arrefecimento entre ~1945 e ~1975. E voltou a aquecer entre ~1975 e ~1988. Desde 1998 não há aquecimento. As taxas de aumento de temperatura por década foram maiores nos períodos antes de 1945 do que depois de 1975. Durante todo este período, a concentração de CO2eq na atmosfera nunca parou de aumentar. A relação directa e quantificada entre CO2eq e aumento de temperatura (utilizada pelos alarmistas) não é validada pelas observações. Para o ser, deveria ser capaz (e não é) de reproduzir a evolução das temperaturas, em cada uma de 2 ou 3 décadas, adoptando a mesma sensibilidade climática. Se os modelos climáticos actuais não conseguem sequer reproduzir, de modo aceitável, a evolução verificada nos últimos 50 anos, a única conclusão a extrair é a de que tais modelos são inadequados para prever alterações climáticas com décadas de antecedência, mesmo em termos de probabilidades fiáveis. Utilizá-los como único fundamento de políticas ou acordos internacionais legalmente vinculativos é, no mínimo, um contra-senso.
Conclusão
Ninguém pode seriamente negar a existência de um aquecimento global nos últimos 150 anos. Mas esse aquecimento não ultrapassou 0.8ºC e não se pode garantir, com fundamento sólido, qual a evolução futura. Embora haja fenómenos climáticos que se podem associar ao aquecimento, atribuir tudo ao aumento da concertação de CO2eq na atmosfera é um absurdo. É muito mais honesto reconhecer que se não conhecem todas as causas do que inventar as fantasias catastróficas de que a comunicação social e algumas ONGs tanto gostam, mas que só levam ao descrédito.
Se a UE quer, de facto, liderar, tem de dar o exemplo de uma fundamentação científica das suas propostas sem contaminações políticas (que deram o climagate), e de medidas exigentes, exequíveis e verificáveis. Se está de facto preocupada com as alterações climáticas de origem humana (e deve estar) não precisa de invocar os resultados pouco fiáveis dos modelos climáticos actuais para actuar em profundidade na reforma do seu sistema energético, porque tal reforma é exigida pela competitividade económica e pela sua dependência de fontes de energia inseguras e insustentáveis. Se está de facto preocupada, deve acabar com a hipocrisia do mercado do carbono e da contabilidade de Quioto e substituí-la pelos instrumentos regulatórios e fiscais de que tem grande experiência. Grande parte da lista do que pode e deve fazer já foi enunciado/iniciado a pretexto de aquecimento global. Manter o que se justifica por si próprio, sem ter de recorrer à ameaça de catástrofes climáticas é o pequeno grande passo que a UE tem de dar para recuperar a credibilidade perdida e uma liderança real.
(*) http://jddomingos.ist.utl.pt
(**) Referimo-nos à Elevação da Temperatura Média Global do Ar Junto à Superfície( ETMAJS) quando se diz, por simplicidade, “aquecimento global” , “elevação da temperatura média” “ou aumento da temperatura”
domingo, janeiro 31, 2010
Uma reflexão masculina heterodoxa da história da monogamia :-)
Como muitos saberão, há muitos investigadores que se têm interessado pelo estudo evolutivo de alguns marcadores genéticos, em particular dos haplótipos, umas combinações de alelos ou genes com variantes que determinam, por exemplo, as diferentes cores de olhos ou de cabelo entre indivíduos. É a partir dessas investigações que, por exemplo, se chega à conclusão de uma origem única para a nossa espécie no corno de África, de onde aliás partiram várias vagas de humanos, a última das quais, a nossa (Homo Sapiens), há cerca de 40-50 mil anos. Estudos similares na linguística chegam às mesmas conclusões, o que não é de surpreender visto os dialectos se desenvolverem em comunidades mais ou menos fechadas que tendem naturalmente também para a afinidade genética.
Basicamente esta linha de pensamento considera que numa dada comunidade de onde se separe um sub-conjunto de indivíduos, este sub-conjunto é portador de apenas parte da diversidade genética do grupo original, de modo que à medida que vai ocorrendo a "sub-especiação" a homogeneidade genética dos novos sub-grupos aumenta. Por conseguinte, os grupos com maior diversidade genética serão os mais antigos, e os com menor os mais recentes.
Como noutras áreas da Ciência, porém, esta teoria (ou da origem única) é controversa e tem a oposição dos que defendem uma origem multi-regional da espécie, com múltiplos cruzamentos ao longo do tempo. Porém, à medida que a informática e o estudo do genoma permite o tratamento de volumes cada vez maiores de dados genéticos de diferentes populações, a teoria da origem única tem vindo a ganhar terreno enfraquecendo os argumentos da teoria da origem múltipla. As consequências ideológicas destas duas teorias permitem compreender porque é tão acesa a luta entre elas: a teoria da origem múltipla aponta para uma natureza humana originalmente boa e tolerante às diferenças, mais tarde pervertida pelas estruturas sociais da civilização, enquanto a teoria da origem única aponta para a supremacia de uma única linhagem original, sem cruzamentos entre sub-espécies substancialmente diferentes e com a eliminação das menos aptas (não forçosamente pela guerra, entenda-se).
Um exemplo típico desta polémica é a que foi despoletada pela descoberta em 1998 do nosso célebre "menino de Lapedo", que o arqueólogo João Zilhão e outros defendem constituir uma prova do cruzamento de Neanderthais com Homo Sapiens, há uns 25 mil anos (a península ibérica foi o último lugar onde viveram Neanderthais, até há 25-30 mil anos), mas outros argumentam ser impossível ainda haver traços morfológicos de Neanderthal muitas gerações depois desta sub-espécie humana ter desaparecido. Um projecto de sequenciação do Genoma do Neanderthal, entretanto, tem vindo a reforçar a hipótese de que não haverá, de facto, traços genéticos dessa sub-espécie na nossa. Note-se que, segundo a teoria da origem única, terão havido várias vagas migratórias originais de África de espécies humanas, mas só a última vingou. A nossa, obviamente.
Muitos destes estudos centram-se no ADN mitocondrial, que quase só se propaga por via materna, ou no do cromossa Y, que só se propaga por via paterna, embora em ambos se usem modelos de "relógios moleculares" para temporizar (estatisticamente) as mutações e, retrospectivamente, origens ancestrais das populações.
Entretanto, um dado assente é que o advento da agricultura e, com ela, a "1ª vaga" de explosão demográfica humana (a 2ª ocorreu com a industrialização e a 3ª estará em curso com a revolução do conhecimento), deu-se no Próximo Oriente e propagou-se daí pela Europa. A "1ª vaga" correspondeu à chegada do Neolítico e com ela à superação do Paleolítico, dominado pela caça e pela apanha do que a Natureza proporcionasse, e ocorreu há cerca de 10 mil anos, chegando à ponta da Europa mais afastada do Médio Oriente, a Irlanda, há uns 6 mil anos (e cá há uns 8 mil). Muito antes disto e praticamente logo que aparecera, a nossa espécie dedicara-se a realizar "crimes contra a biodiversidade" do planeta, depradando até à extinção muitas das grandes espécies que encontrou, dos mamutes norte-americanos aos cangurus gigantes da Austrália.
Se a propagação da 1ª vaga foi por via cultural (conversa e aprendizagem) ou por migrações (deslocação pessoal) tem sido uma questão em aberto entre os investigadores.
Ora acaba de ser publicado um estudo envolvendo um largo conjunto de investigadores europeus de diferentes países que demonstra que há uma extrema coincidência entre a conhecida propagação da agricultura na Europa, de Sudeste para Noroeste, e a presença de um marcador específico no cromossa Y dos homens - e essa coincidência é no sentido de a maioria dos homens europeus, cerca de 80%, descenderem dos mesmos "avôs", ou antepassados masculinos. O que não se verifica quanto aos marcadores genéticos de origem feminina. Estes novos resultados parecem corrigir as conclusões obtidas há uma década e que apontavam para uma maior diversidade de origens masculinas, embora já então fosse evidente elas não coincidirem com as femininas.
Quer isto dizer que com o advento da agricultura, foram os homens agrícolas que predominantemente se reproduziram, com mulheres locais (paleolíticas). O que aponta para a regra da poligamia ter acompanhado a 1ª vaga.
Aliás, outros estudos genéticos recentes do mesmo género também já apontavam para o facto de sermos todos descendentes de um número reduzido de homens, muito menor que do número de mulheres.
Estas conclusões parecem dar razão à opinião de um amigo meu, segundo a qual há uma alienação na busca masculina de sucesso social e riqueza como fim último da existência, visto o verdadeiro fim natural desta ser o da posse do maior número possível de mulheres, com vista à maximização da reprodução dos genes masculinos. E, invocando o exemplo de muitas espécies animais, nota ele que verificando-se aí a existência de machos dominantes que após acesa competição logram o "the winner takes it all", isso é a forma como a Natureza procede ao apuramento dos genes que garantem a adaptação evolutiva permanente ao ambiente - por via da competição entre os machos e pela reprodução apenas dos dominantes. Aliás, do ponto da vista da Natureza os machos não teriam mesmo mais nenhum papel.
Embora admita que o cromossoma Y é o que mais mutações tem sofrido e que será predominantemente através dele que a evolução genética se processa nos mamíferos, a mim sempre me pareceu que esta teoria dos machos dominantes e polígamos era uma generalização abusiva das práticas dos herbívoros, que vivem, de facto, em grandes grupos (de fêmas, crias, e um macho dominante). Nos carnívoros, porém, que são muito mais inteligentes que os herbívoros, as práticas "familiares" são diferentes. Há só uma regra comum: os machos não toleram crias alheias, o que cria um curioso fundamento para o regime "familiar" dos leões, por exemplo: as leoas acarinham o seu leão macho porque é ele que lhes protege as crias contra os outros machos de fora da "família" - mesmo que esse macho tenha ganho o seu estatuto matando as crias anteriores da leoa! Mas, nos carnívoros, as coisas são de facto diferentes, e mesmo nas poucas espécies que constituem grandes grupos, como as dos eficazes canídeos, ou há também uma fêmea dominante que também mata as crias das outras fêmeas e forma um casal real, como nos lobos, ou são mesmo as fêmas que são dominantes, como nas temíveis hienas.
Seja como for, a revelação de que o número dos nossos antepassados masculinos é muito menor que que o dos femininos parece apontar para a predominância do paradigma sexual dos chimpanzés sobre o dos bonoboos na nossa ancestralidade, o que para quem se imagina um macho dominante nesses tempos antigos pode parecer interessante, mas a quem eu notaria que, probabilisticamente, se fossem machos transportados no tempo para essa antiguidade seria bastante mais provável, pela simples lógica dos números, que pertencessem ao maioritário conjunto dos excluídos, e não ao da minoria dominante. Uma lógica similar à que se pode aplicar às bonitas histórias sobre príncipes e cavaleiros antigos e em que gostamos de nos imaginar a viver como eles, mas em que a simples lógica dos números nos indica ser muito mais provável sermos os seus miseráveis criados ou servos da gleba, se fossemos transportados para tais cenários.
E vem isto tudo a propósito do advento da monogamia, ocorrida há uns 5 mil anos, depois de bem assente a revolução neolítica e quando as cidades se erigiram em civilizações, com Estado, leis e escrita. Monogamia tratada legislativamente em detalhe no Código de Hamurabi, regulada nos 10 Mandamentos judaicos e imposta, claro, pelo cristianismo.
E a conjectura que me traz aqui é esta: hoje, que graças à invenção da pílula e ao facto da 3ª vaga ser partilhada pelas mulheres, temos vindo a viver uma nova revolução sexual, a das mulheres, há muito quem olhe para a monogamia tradicional como um ferrolho da liberdade. Porém, a monogamia veio trazer a cada homem o direito de ter uma mulher, quando antes essa propriedade seria exclusiva de chefes e reis, que as tinham a todas, a julgar pela descendência que deixaram (incluindo nós).
Ou seja: a monogamia, longe de ter sido um ferrolho à liberdade pessoal masculina, foi de facto uma grande evolução democrática e uma importante limitação do poder dos chefes e reis.
Para os homens, claro.
Para as mulheres, a democratização sexual teria que esperar mais 5 mil anos e ainda não foi aceite pelos muçulmanos, razão maior da guerra mundial em curso e apesar de uma amiga minha defender, talvez com algum exagero, que "no fundo de cada homem há sempre um muçulmano recalcado"... :-)
segunda-feira, janeiro 18, 2010
O futuro nuclear - um devaneio em jeito de nota
Gostaria, por isso, de notar que há diferentes estádios de experiência demonstrada nestas tecnologias, e portanto nas janelas temporais em causa.
A cisão dos átomos de Urânio 235 é usada em reactores industriais há 54 anos!...
Presentemente (desde 1996) está-se na 3ª geração de centrais deste tipo, que se distinguem das anteriores basicamente pelo aperfeiçoamento construtivo - especialmente quanto a segurança.
A transmutação do 138 vezes mais abundante Urânio 238 em Plutónio, e a cisão dos átomos deste, é a base das centrais de 4ª geração. A sua disponibilidade comercial é prevista para dentro de 20 anos, mas este atraso não decorre de haver algum problema técnico por resolver, dado que já houve várias grandes centrais prototípicas em funcionamento, nomeadamente no Japão e em França, e há ainda uma na Rússia. Os problemas que existem respeitam à fiabilidade a longo prazo das centrais e à questão da possível proliferação do Plutónio que geram e que consomem. E é isto que se espera que leve 20 anos a resolver, mas é um prazo que depende muito do empenho que a comunidade internacional colocar no projecto.
A fusão nuclear controlada, pelo contrário, é algo que ainda tem problemas sem solução técnica provada. Há um grande projecto internacional que já escolheu a França para recipiente da primeira instalação prototípica de grande potência (e de que a figura mostra o aspecto geral), mas a construção dessa central está demorada. Talvez lá para 2020 esteja pronta, mas daí até ser possível industrializar esse tipo de centrais para a produção de energia várias décadas deverão passar.
No entanto, gostaria de partilhar convosco um devaneio meu: supondo que o ITER começa a funcionar em 2020, que em 2040 o confinamento dos plasmas quentes está dominado para aplicação industrial e que portanto se começam a construir centrais de fusão, gostaria de devanear com a possibilidade de, uns 50 anos depois, lá para o fim do século, a fusão nuclear de outros materiais além do Hidrogénio já ser possivel de forma controlada.
E então, por volta de 2100, poder-se-ão construir as primeiras grandes naves interestelares que nos poderão levar aos exoplanetas de que na altura já se conhecerão muitos de tipo terrestre, e em que cada viagem levará (para os que nela forem) basicamente sempre 2 anos: 1 para acelerar até perto da velocidade da luz, e outro para a desaceleração subsequente.
Obviamente, isso requer uma energia que só reactores de fusão nuclear, eventualmente alimentados pela própria poeira do espaço, poderão produzir.
Isto, naturalmente, se não nos aniquilarmos mutuamente nem regredirmos a uma nova Idade Média, entretanto.
segunda-feira, janeiro 04, 2010
Um gosto de leitura, para quem gosta de Ciência
Dias depois, um jovem e ambicioso investigador ambientalista com um curriculum auto-laudatório surpreendente, Prof. convidado da cátedra "Rui Nabeiro" da Universidade de Évora de cujo reitor é filho, decidiu atacar Delgado Domingos no mesmo Expresso.
E, no seguimento, o Prof. Delgado Domingos deu-se ao trabalho de replicar com uma carta que esse jovem investigador publicou no seu blog.
Esta carta é um prazer de leitura, para quem já fez Investigação com modelos matemáticos computacionais e conhece a tentação de os "martelar" para que as suas previsões batam certo com a realidade. Pode ser lida aqui. Fica-se a perceber muita coisa e só tenho pena que um texto tão pedagógico se possa vir a perder...
sábado, novembro 07, 2009
Um Físico português que dá cartas sobre a estranha gravidade do Universo
O problema resulta de, observando a forma das galáxias, se constatar que ela é incompatível com a quantidade de massa visível nas mesmas. Resumidamente, as zonas mais distantes dos seus centros rodam a uma velocidade tal que mantém as galáxias como se fossem, no seu todo, um corpo relativamente rígido, o que significa que, para essas zonas mais periféricas, que rodam mais depressa que as interiores, existirá uma atracção gravitacional para o interior muito grande - de facto, muito maior que a explicável pela quantidade de massa existente nesse interior. Pelo menos da massa visível.
Feitas contas, calcula-se que o referido fenómeno só é possível se a massa existente no interior das órbitas dessas zonas periféricas for pelo menos 6 vezes maior que a observável (e até 20 vezes, se se considerarem efeitos mais afastados!). Mas, como tal massa não é observável, diz-se que provém de uma misteriosa matéria negra (há quem a diga "transparente").
Há muito que há quem suponha que essa massa seria constituída por neutrinos, mas a contagem destes tem-se mostrado elusiva.
Outra teoria, mais especulativa mas mais fascinante, considera a possibilidade de esse efeito gravitacional extra provir de universos paralelos, existentes nas outras dimensões que a teoria das membranas conjectura existirem, e que o campo gravítico seria capaz de "atravessar" a separação entre universos. Convém notar que essas dimensões extra da teoria das membranas (ou das cordas) são muito pequenas, pelo que tais Universos existiriam quase sobrepostos ao nosso, uma espécie de mundos de espíritos, onde poderão até estar o Céu e o Inferno...
Mas há outra hipótese explicativa para o referido efeito gravitacional.
Essa hipótese é a de que lei da atracção universal de Newton está incompleta. Faltam-lhe termos quadráticos e de ordem superior, mas com constantes tão pequenas que tais termos só se fazem sentir para distâncias muito grandes, precisamente as das ordens de grandeza das distâncias galácticas e inter-galácticas.
Ajustando valores nesses termos de ordem superior, consegue-se explicar quase tudo (mas não tudo) dos fenómenos observados que geralmente se atribuem à elusiva matéria negra.
Porém, se a lei da atracção universal contém de facto termos de ordem superior, então há outras teorias da Física que têm de ser revistas. E a principal delas é a teoria da relatividade.
Pedro Gil Ferreita é, talvez, o Físico mundial que melhor tem estudado esta questão - e isto não é uma opinião da propaganda do "Portugal positivo", mas sim da Scientific American. E, como a Scientific American reconhece, uma conlusão essencial do Pedro Ferreira é a de que é possível ajustar a teoria da relatividade para uma lei da atracção gravitacional diferente da de Newton, mas á custa da consideração, nessa teoria, de campos de forças... negros! Ou seja, de campos de forças adicionais aos que conhecemos, de uma natureza tão elusiva como a da matéria negra.
A Física tem acumulado nas últimas décadas uma grande quantidade de dados observados para os quais não existe explicação teórica satisfatória e muito menos comprovada.
Na última década, à estranha forma das galáxias que levou à ideia da matéria negra, juntou-se a constatação de que a expansão das galáxias, em vez de estar a desacelerar como era suposto, pelo efeito da atracção gravitacional, está a ...acelerar! O que é explicado pela existência de um campo de forças, ou energia... negra! Ou seja: pura e simplesmente não há explicação!
Se a História permite extrapolações, a Humanidade está á beira de um salto revolucionário na Física.
E, seja quem for o próximo Einstein, Pedro Ferreira terá sempre sido um contribuinte importante dessa revolução que se avizinha.
quarta-feira, setembro 16, 2009
O sonho da razão
Do lado oposto estão os que não reconhecem sequer a existência de alterações climáticas antropogénicas e até que haja algum aquecimento global em curso, que raciocinam como os criacionistas e que combatem "a grande conspiração do lobby ecológico", que odeiam de morte Al Gore e que, por alusões ouvidas na TV, concluo terem a concordância ideológica do PNR.
Existe também outra luta extremada, no que respeita às opções energéticas e obviamente associadas a interesses económicos mas também de protagonismo.
De um lado estão os militantes das energias renováveis, desde há uns anos dominando o panorama nacional e até o europeu, e cujos excessos tenho procurado mostrar.
Do lado oposto estão os advogados da opção nuclear, sobre a qual ainda não me debrucei aqui mas que tenho em agenda para breve, quando concluir algumas recolhas de dados que tenho em curso. De momento não emito nenhum juízo de valor; apenas constato que o que defendem é inaceitável para os ecotópicos e dificilmente aceitável também pela maioria dos Governos da União Europeia.
Entre estas lutas de extremos de ideologia e de interesses, sinto-me por vezes na pele de Azaña entre a FAI e a Falange, nos anos 30, cujo "sonho da razão" foi ignorado por quase toda a gente, na altura, e que teve de esperar 40 anos e meio milhão de mortos numa guerra inútil para ver Espanha adoptá-lo...
Espanha na véspera da guerra civil, por Dali
Eu não pretendo ser um especialista em climatologia. E é precisamente por isso que confio nas posições da ONU nesta matéria, e do seu Painel Inter-Governamental para as Alterações Climáticas (IPCC). Em quem haveria de confiar? Além disso parece-me plausível que o tremendo crescimento da população humana sobre um planeta finito o afecte. Como os vírus, que são pequeníssimos mas podem multiplicar-se ao ponto de matar o hospedeiro... E é aliás essa a explicação principal do próprio IPCC, que atribui metade do Aquecimento Global ao crescimento da população. A outra metade atribui-a à melhoria de vida dessa população crescente.
E depois, não me venham dizer que nos últimos 15 anos o Árctico está a arrefecer e que as observações da NASA que Al Gore nos divulgou são "tretas", que também não tenho paciência para quem nega o darwinismo!
Que haverá enviesamento nos editores das revistas científicas que recusam publicar o que saia do que se torna "politicamente correcto" nesta matéria, acredito. Ainda há dias vi no canal Odisseia a história de como a demonstração experimental de que a variação periódica da radiação cósmica afectava a formação de nuvens e, com isso, a reflexão da radiação solar e da temperatura na Terra, só conseguiu ser publicada à 4ª revista tentada (embora depois o assunto tenha sido largamente investigado concluindo-se que o tal efeito não podia explicar o Aquecimento Global em curso).
Muitos investigadores têm a experiência de como descobertas científicas que se chocam com consensos estabelecidos nos comités decisórios das revistas são em regra rejeitadas, inicialmente. E também sabemos que o mundo dos cientistas não é puro e isento: tem todos os defeitos de qualquer comunidade de humanos e é sobretudo dependente de quem financia as investigações, que, no que respeita à Ciência sem aplicação comercial, ou seja, no que respeita a financiamentos públicos, geralmente escolhe o que financia em função das modas e das crenças dominantes...
Por outro lado, há evidentes lobbies económicos e políticos por detrás das posições científicas que têm repercussões políticas.
As grandes petrolíferas começaram por negar o Aquecimento global e por convencer Bush que ele não existia - embora depois tenham concluído do interesse em passarem para o lobby contrário, onde agora se encontram promovendo as renováveis (para os media) e até financiando-as (como a BP Solar). Os criacionistas são, em geral, propensos a acreditar que se Deus fez o mundo como ele é, não o ia depois deixar aquecer (embora o senador McCain já não alinhasse nessas visões à Bush).
Mas também há lobbies das renováveis! E que cavalgam a onda ideológica "verde" para ganhar muito dinheiro à custa dos contribuintes!
Porém, e apesar de tudo isto e no que respeita à climatologia, acredito que é ainda dentro da sua comunidade científica que as visões divergentes têm de se confrontar. É assim que a Investigação científica funciona e sempre funcionou, mesmo quando os "good guys" são transitoriamente desprezados. Até Einstein, em 1927, se riu do jesuíta Lemaître e disse que o conhecimento de Física deste era "abominável", por ele lhe ter escrito a notar que da sua teoria da relatividade se deduzia ter havido um Big Bang e portanto uma origem do Universo, dois anos antes de Hubble constatar o desvio para o vermelho da luz das galáxias mais distantes...
Mas é curioso ver como ecotópicos e criacionistas se equivalem na psicologia e atitudes.
Os criacionistas negam o Aquecimento global e dizem que tudo o que se publica cientificamente sobre isso não passa de uma grande conspiração dos ecologistas e de interesses de lobbies industriais ligados às renováveis.
Mas há um outro domínio em que exactamente o mesmo comportamento se vê à esquerda, nos que afirmam teimosamente a existência de malefícios para a saúde pública resultantes das "radiações electromagnéticas" das linhas de Alta Tensão e que recusam terminantemente as posições da OMS (uma instituição tão da ONU como o IPCC) sobre o assunto, bem como toda a ciência que se publica sobre o assunto, acusando-a de estar vendida ao lobby das "eléctricas"...!
O Sonho da Razão é difícil de defender, neste mundo terreno de paixões...!
quinta-feira, julho 02, 2009
Cálculo do risco de morte com a nova gripe
Número de casos detectados até dia 6: 94500; número de mortes: 429; taxa de mortalidade da doença: 0,4%. Dados da OMS disponíveis aqui.
• Mortalidade anual, no mundo, da gripe vulgar: de ¼ a ½ milhão. Sim, a gripe vulgar mata! Aqui. Afecta 10 a 20% da população, todos os anos.
• Taxa de mortalidade da gripe vulgar todos os anos, em média: 0,1%.
• Taxa de mortalidade da gripe de 1918: de 2,5 a 10%. Aqui. Em Portugal terão morrido então mais de 60 mil pessoas, na altura. Afectou 50% da população mundial de 1600 milhões e matou de 20 a 40 milhões, mais que a Grande Guerra, que estava a acabar na altura. Estatísticas recentes avaliam mesmo em de 50 a 100 milhões o número de mortes, equiparáveis aos da peste negra medieval, e que em certas regiões a mortalidade terá atingido os 20%.
Portanto, a gripe A é mais parecida com uma gripe vulgar (quiçá 4 vezes mais mortal) do que com a gripe de 1918, que foi 25 a 100 vezes mais letal (e muito mais contagiosa).
Na verdade, parece similar em letalidade à gripe asiática de 1957, também altamente contagiosa, e que terá matado 1 milhão de pessoas em todo o Mundo.
Será uma gripe "forte", comparando-a com as usuais, mas ainda não é "A grande gripe" por que se espera há anos e se sabe ser inevitável. Esta é só um ensaio, um teste à capacidade de resposta da globalização instantânea da informação.
Uma incompreensão frequente é que a gripe raramente mata por si mesma, o que pode levar a euforias pouco sensatas. A gripe mata sobretudo pelas consequências que provoca o seu enfraquecimento geral da resposta imunitária, e mata as mais das vezes com as pneumonias subsequentes.
Entretanto, é interessante que exista por cá uma memória popular das gripes asiática de 1957 e da de Hong-Kong de 1969. A mãe de uma amiga minha, que vivia numa aldeia perto de Coimbra, lembra-se de haver "casas inteiras com a gente acamada", em 1957...






