« Les médisants ressemblent aux malheureux qui n'ont pas eu leur part d'événements et doivent mener aux dépens de leurs voisins une existence parasitaire. »
La Cour de justice européenne redonne espoir aux producteurs de semences paysannes
Les mois passés ont été rudes pour les défenseurs des semences paysannes. Le Sénat a en effet examiné un texte qui pourrait instaurer une « contribution volontaire obligatoire » aux paysans, les interdisant ainsi de ressemer leurs propres semences ou de les échanger. Cette semaine pourrait cependant marquer un tournant significatif, et ce grâce à la Cour européenne de justice. Celle-ci a émis des conclusions assez positives dans le cadre de l'affaire Kokopelli-Graines Baumaux.
Depuis 2005, la société de commercialisation de semences Graines Baumaux, basée à Nancy, poursuit l'association Kokopelli en justice pour concurrence déloyale. Il s'avère en effet que cette association commercialise des semences paysannes, souvent oubliées et biologiques, qui ne sont pas toutes référencées au Catalogue commun des variétés. La réglementation veut en effet que toute semence commercialisée doit être enregistrée dans ce catalogue.
Graines Baumaux accuse l'association de refuser d'ajouter ses variétés de semences au registre officiel. Cela démontre soit une mauvaise foi assurée, soit une bien grande méconnaissance des conditions requises afin d'enregistrer une semence au registre. La variété doit en effet faire preuve de rendement. Or, les producteurs de semences paysannes ne se reconnaissent pas dans ce schéma productiviste, et préfèrent de loin assurer une agriculture plus sobre et plus respectueuse de l'environnement. Les nouvelles variétés hybrides sont d'ailleurs souvent conçues non pas sur des critères de goût mais de résistance (des tomates plus fermes pour supporter les longs voyages par exemple), et c'est cette idée même de l'agriculture qui va à l'encontre des semences paysannes. Non seulement la variété doit, pour être référencée au Catalogue commun des variétés, répondre à des exigeances de rendement, mais elle doit également faire face à des contraintes technologiques (tout ce qui n'est pas adapté aux transformations industrielles et à la grande distribution). Comme le précise Guy Kastler, délégué général du réseau Semences Paysannes : « Ainsi, les plantes sélectionnées pour des systèmes agraires diversifiés bio ou à faible intrants, des transformations artisanales et une distribution de proximité ne peuvent accéder au rang de « variétés ». Et quand bien même elles pourraient répondre à ces exigences techniques, il est impossible d'assumer le coût de l'inscription pour des variétés dont le volume de semences échangées reste faible car essentiellement locales».
Les semences paysannes correspondent à une tradition de longue date. Avec l'arrivée du registre officiel, elles ont aujourd'hui presque toutes disparu afin de laisser place à des variétés de semences hybrides et à des variétés dîtes « pures ». Il n'est pas nécessaire de préciser que cela entraîne une perte inévitable de biodiversité.
Des associations (représentées par le réseau Semences Paysannes) comme Kokopelli se veulent aujourd'hui pourfendeuse de la cause des semences paysannes et agissent sur plusieurs fronts. Kokopelli milite ainsi depuis près de 20 ans "pour préserver une partie de la biodiversité alimentaire, pour produire des semences bios, pour accompagner les autonomies semencières, pour promouvoir l'agro-écologie tempérée et tropicale, pour distribuer des semences bios dans les pays du Tiers-Monde...". Il est difficile d'y voir ici une quelconque mauvaise intention envers les consommateurs, comme le laisse entendre Graines Baumaux.
Aujourd'hui, lorsque l'on veut défendre ces variétés, on se retrouve dans l'obligation d'être hors-la-loi, puisque le registre ne reconnaît pas les semences à faible rendement. Des entreprises comme Graines Baumaux sautent alors sur l'occasion et s'acharnent sur de petites associations, sans grandes ressources et sans grand pouvoir de défense.
La Cour de Cassation avait jugé en 2008 que l'association Kokopelli se trouvait en tort, et l'avait soumise à une peine de 17 000 euro et à une interdiction de commercialiser des semences paysannes anciennes, oubliées ou encore biologiques. En dernier recours, l'association a porté le dossier devant la Cour européenne de justice, qui se veut apparemment plus clémente. Le 23 janvier dernier, elle a en effet estimé, dans les conclusions de l'avocate générale Mme Juliane Kokott, que cette interdiction était « disproportionnée ».
En effet, quelle est la légitimité de ces restrictions, alors qu'il existe aujourd'hui des partenariats entre l'INRA et les paysans sélectionneurs de semences ? Quelle légitimité dans une société qui tend de plus en plus vers un retour à la terre, à un savoir-faire d'antan ? Quelle légitimité dans une société qui refuse (du moins en France) encore catégoriquement le concept de la biotechnologie dans les assiettes ?
Si l'idée d'une acceptation totale et immédiate des semences paysannes est utopique, les conclusions de la Cour européenne de justice laissent croire à une évolution des mentalités. Si par la suite la Cour ne rejette pas les conclusions de cette avocate, espérons que cette affaire sera le pilier d'une véritable jurisprudence en matière de défense des producteurs de semences rares et oubliées. Car contrairement aux semences enregistrées, celles-ci sont un bien commun, et n'appartiennent à aucune grande multinationale.
Un cadre juridique s'avère également indispensable afin de ne pas exclure les producteurs de semences paysannes du circuit agricole. Cela passera notamment par une juste rémunération de leur travail dans le cadre de la PAC.
Un gigantesque "continent" de déchets se forme dans le Pacifique Nord
Déchets récupérés en septembre 2007
Dans le Nord-est du pacifique, entre la Californie et Hawaï, les déchets produits par les activités humaines et déversés dans les océans sont acheminés par les courants marins vers un nouveau "continent"* boulimique dont la taille atteint près de 3,5 millions de km² !
Selon des observations et un suivi effectués depuis plus de 10 ans par l'Algalita Marine Research Foundation, sous l'effet des courants marins, les déchets provenant des littoraux et des navires, flottent pendant des années avant de s'accumuler dans deux larges zones connues sous les noms de "Plaque de déchets du Pacifique est" (Eastern Pacific Garbage Patches) et "Plaque de déchets du Pacifique ouest" (Western Pacific Garbage Patches). Ces deux plaques forment la "Grande plaque de déchets du Pacifique" (Great Pacific Garbage Patch), un monstre dont la taille aurait déjà triplé depuis les années 90 et qui s'étendrait maintenant sur 3,43 millions de km², soit un tiers de la superficie de l'Europe ! Il est estimé que ce "continent" de déchets totalise un poids de 3,5 millions de tonnes et jusqu'à 750 000 débris par km² ; Greenpeace évoquait fin 2006 près d'un million de déchets par km² dans son rapport sur les débris plastiques et la pollution des océans.
Ainsi, selon Chris Parry, chef de programme d'éducation du public, de la California Coastal Commission de San Francisco, depuis plus de 50 ans, les déchets tourbillonneraient sous l'effet du grand vortex nord-pacifique (North Pacific Gyre) et s'accumulent dans cette zone peu connue : peu de routes commerciales et peu de bateaux de pêches l'empruntent. A l'image d'un puissant siphon marin, le vortex attirerait vers lui tous les résidus de notre société de surconsommation. Toutefois, contrairement au siphon, les déchets ne sont pas "aspirés" mais accumulés et bien visibles.
Le plastique : principal constituant du "continent" de déchets
Jusqu'alors les débris flottants étaient détruits par les micro-organismes mais cela n'est plus le cas avec l'arrivée du fameux plastique. En effet, les plastiques constituent 90 % des déchets flottant sur les océans. Le Programme des Nations Unies pour l'Environnement mentionnait en juin 2006 qu'on trouve en moyenne 46 000 morceaux de plastique par 2,5 km² d'océan sur une profondeur d'environ 30 mètres ! Ce "continent" de déchets plastique ressemble davantage à une soupe de plastique constitué de macro déchets éparses mais surtout de petits éléments invisibles sans une fine observation. C'est en filtrant l'eau que l'on découvre une mixture composée de petits morceaux de plastique qui se sont fractionnés mais aussi des granulés de plastique qui sont utilisés comme matière secondaire pour fabriquer les objets en pastique. En certains endroits, la quantité de plastique dans l'eau de mer est jusqu'à 10 fois supérieure à celle du plancton, maillon élémentaire de la vie dans les océans (Charles Moore, Algalita Foundation) ! On parle alors de "plancton plastique" Selon Greenpeace, sur les 100 millions de tonnes de plastique produits chaque année, près de 10 % finissent dans les océans. Et 70 % des plastiques qui s'aventurent en mer coule et le reste flotte naviguant au grès des courants...
Un "continent" mortel
Ce qui pose problème c'est le temps nécessaire à la dégradation de ces plastiques (estimé entre 500 et 1000 ans) et la toxicité des éléments qui les composent.
L'exemple le plus classique étant la tortue qui s'étouffe avec des sacs plastiques assimilés à des méduses. Avec de telles concentrations de plastique, toute la chaîne alimentaire est affectée puisque les plus petits morceaux sont ingérés par des oiseaux, de petits poissons qui seront à leur tour mangés par de plus gros... Ainsi, Greenpeace estime qu'à l'échelle de la Terre, environ 1 million d'oiseaux et 100 000 mammifères marins meurent chaque année de l'ingestion de plastiques. Selon des scientifiques américains de l'Institut Océanographique Scripps, 1 poisson sur 10 ingère du plastique dans le Pacifique Nord, soit 24 000 tonnes de plastiques boulotées par les poissons chaque année dans cette zone. Rebecca Asch, chercheuse à l'Institut Océanographique Scripps indique que "dans cette zone la plupart des morceaux de plastique sont très petits. Les déchets ont été dégradés par la lumière du soleil et les courants océaniques. Donc ça n'a rien à voir avec une bouteille ou un sac en plastique. Ce sont des tout petits morceaux de plastique de la taille d’un confettis. En fait ils ont la même taille que le plancton dont se nourrissent les poissons. C'est pour ça qu'ils mangent le plastique, c’est parce qu’ils le confondent avec du plancton." Ce "continent" attire des animaux marins comme les pélicans et les tortues marines dont l'espérance de vie se trouve alors diminuée. Au total, plus de 267 espèces marines seraient affectées par cet amas colossal de déchets selon le rapport de Greenpeace.
De plus, les débris de plastique fixent les polluants organiques persistants (POP), connus pour leur nocivité et leur capacité à voyager autour du globe. Ainsi, DDT et PCB se retrouvent dans des morceaux de plastique à des concentrations jusqu'à 1 million de fois supérieures aux normales !
Que pouvons-nous faire ?
Malheureusement, le nettoyage de cet océan de déchets semble insurmontable, la superficie à couvrir est trop importante et les coûts seraient colossaux selon Marcus Eriksen, directeur de recherche et d'éducation à la Algalita Marine Research Foundation : "il n'y a rien que nous puissions faire maintenant, à l'exception de ne pas faire plus de mal." De plus, cela serait dommageable aux organismes vivant tant bien que mal sur ce nouvel "eldorado".
En attendant d'avoir plus d'éléments corroborant l'ampleur de ce phénomène - notamment par des photos à grande échelle, aujourd'hui introuvables sur les nappes de déchets plastiques - une mission de l'Algalita Marine Research Foundation est partie en mer en septembre 2007, puis en juillet 2011.
Une fois de plus, la surconsommation serait à l'origine de dégradations dont l'ampleur dépasserait la fiction. Et ce n'est pas pour nous rassurer, mais toute l'agitation "verte" actuelle ne semble rien n'y changer... Plus que jamais, nous avons tous un rôle à jouer, notamment en cette période de fêtes où l'opulence frise l'écœurement.
Marée noire Deepwater Horizon : une fuite de 59 000 barils de pétrole chaque jour !
Lutte des pompiers pour rechercher des survivants et éteindre la plate-forme pétrolière off-shore en feu le 21 avril 2010
En combinant des mesures chimiques fines en eau profonde, en surface et dans l'air, les chercheurs du NOAA épaulés par des universitaires ont estimé indépendamment l'importance de la fuite de gaz et de pétrole dans l'environnement due à l'explosion de la plateforme pétrolière Deepwater Horizon dans le Golfe du Mexique en 2010.
Jeudi 22 avril 2010, la plate-forme d'exploration "Deepwater Horizon", exploitée par la compagnie British Petroleum (BP), sombrait au large de la Louisiane suite à une série d'explosions. Ce naufrage entrainait alors la pire marée noire de l'histoire des Etats-Unis : pendant plus de 5 mois, du pétrole et du gaz se sont échappés des puits de forage de la plate-forme sinistrée.
Différentes estimations quant à l'importance de la fuite d'hydrocarbures dans l'océan ont été réalisées. La dernière en date, basée sur des mesures chimiques, montre qu'en moyenne 11 130 tonnes de composés gazeux et pétroliers se sont répandus chaque jour dans l'environnement, confirmant les estimations officielles (11 350 tonnes ou 59 200 barils de pétrole liquide).
"L'étude repose sur les données chimiques collectées pour comprendre les modalités de l'épanchement," note Dr Thomas Ryerson, membre de l'équipe de chimistes du NOAA et auteur principal de l'étude. "Les mesures et analyses prises en surface et en profondeur communiquées par nos collègues universitaires ont été essentielles pour mettre au point cette nouvelle approche d'analyse des marées noires."
Soulignons que l'équipe dirigée par le NOAA n'a repris aucune des données utilisées pour les estimations initiales, telles que les analyses video des flux, le diamètre du pipeline et les calculs de flux fluides. "Nous avons analysé un ensemble complètement distinct de mesures chimiques, qui ont conduit à une estimation totalement indépendante de l'épanchement et abouti à des résultats très proches," note le Dr Ryerson.
Ces nouvelles analyses font suite à une autre étude du NOAA publiée l'année dernière, dans laquelle le Dr Ryerson et ses collègues ont estimé des niveaux moins importants d'épanchement de la Plateforme Deepwater Horizon. Elles s'appuient sur les données collectées dans l'atmosphère pendant deux jours au cours de la marée noire ainsi que sur la composition chimique du réservoir de gaz et de pétrole réalisées avant l'accident. Les nouvelles analyses tiennent compte de nombreux paramètres complémentaires, dont des échantillons prélevés en profondeur et en surface pendant six semaines et ainsi que des mesures directes de la composition du gaz et du pétrole effectivement répandus dans le Golfe du Mexique.
Les différents types d'émissions d'hydrocarbures
Le Dr Ryerson et son équipe ont constaté que le gaz et le pétrole échappés du réservoir se séparent rapidement en trois grands épanchements : l'un en eau profonde à 1000-1200 mètres de profondeur, la nappe de surface visible, et un nuage d'évaporation des produits chimiques. Chaque type d'épanchement possède sa propre composition chimique.
Les chercheurs ont constaté que la masse en eau profonde est riche en gaz hautement solubles dans l'eau dont essentiellement du méthane (gaz naturel) léger et du benzène (hautement cancérigène) présents dans les fluides s'échappant du réservoir. La nappe de surface contient principalement des composants lourds et visqueux, qui ne se dissolvent pas dans l'eau et ne s'évaporent pas dans l'air. Les composés chimiques présents dans le nuage contiennent un mélange diversifié de composants de masse intermédiaire présents dans le jet de gaz et de pétrole s'échappant du réservoir.
La nappe visible en surface représente environ 15 % du total de la fuite de gaz et de pétrole ; le nuage représente environ 7 % du total. Environ 36 % reste dans la nappe en eau profonde, et 17 % ont été récupérés directement à la surface par des collectes en mer. Le reste (environ 25 % du total) n'est pas directement traçable à l'aide des données chimiques.
Ces informations concernant la dispersion et la transformation des différents composants d'une marée noire sont précieuses pour mieux comprendre l'impact environnemental en vue d'une meilleure gestion des ressources.
Les mesures chimiques effectuées depuis la mi-mai jusqu'en juin montrent que la composition du nuage atmosphérique ne s'est guère modifiée, ce qui permet de conclure que la composition de la fuite de gaz et de pétrole est restée stable.
Les chercheurs ont en outre employé des mesures chimiques fines pour calculer la quantité totale de la fuite de gaz et de pétrole du réservoir fissuré. Les nouvelles estimations basées sur les mesures chimiques évaluent à 11 130 tonnes par jour la fuite avec une variation de 8 900 à 13 300 tonnes chaque jour, ce qui est proche de la fourchette de 10 000 à 12 700 tonnes fournie par les autorités.
La pire marée noire de l'histoire de l'humanité
Au final, environ 835 500 tonnes d'hydrocarbures se sont échappées des puits de forage de la plateforme pétrolière. C'est 20 fois plus que l'échouement du pétrolier Exxon Valdez, en mars 1989, l'ex pire marée noire de l'histoire américaine. Le dernier "record mondial" était détenu par la collision de 1979 entre les deux pétroliers Atlantic Empress et Aegean Captain, à une dizaine de kilomètres de l'île de Tobago : 280 000 tonnes de pétrole s'étaient alors déversées en mer.
Pour autant, le dégazage et déballastage sauvages, plus insidieux, représenteraient environ 4,56 millions de tonnes de produits pétroliers épandus par an dans le monde, selon le WWF. C'est plus de cinq catastrophes comme Deepwater Horizon chaque année !
Changhui Peng, professeur au Département des sciences biologiques et à l'Institut des sciences de l'environnement, est l'auteur principal d'un article publié le 20 novembre sur le site Web de la revue mensuelle Nature Climate Change. Intitulé «A drought-induced pervasive increase in tree mortality across Canada's Boreal forests», l'article démontre les effets des changements climatiques et des sécheresses sur le taux de mortalité des arbres de la forêt boréale canadienne, une première mondiale.
La forêt boréale canadienne compte pour environ 77 % de couvert forestier canadien et pour environ 30 % des forêts boréales de la planète. Elle joue donc un rôle déterminant dans l'albédo de la Terre (le rapport de l'énergie solaire réfléchie par une surface à l'énergie solaire incidente) et dans l'absorption des émissions globales de carbone.
Le professeur Peng et ses collègues ont étudié des données provenant de 96 parcelles d'échantillonnage, situées à travers la forêt boréale canadienne, dans l'ouest (Alberta, Saskatchewan et Manitoba) et dans l'est (Ontario et Québec). Les parcelles contenaient au total 22 425 arbres vivants. Plus de 74 556 observations de données y ont été effectuées entre 1963 et 2008.
En conclusion, l'étude du professeur Peng démontre que le taux de mortalité des arbres de la forêt boréale canadienne a augmenté en moyenne de 4,7 % par année de 1963 à 2008. L'augmentation était plus marquée dans les régions de l'ouest du pays (4,9 %) que les régions de l'est (1,9 %). Les sécheresses régionales qui ont affecté l'Ouest canadien sont ciblées comme étant la cause la plus probable de cette augmentation du taux de mortalité des arbres.
Plusieurs études ont été réalisées à travers le monde à propos de la mortalité des arbres en lien avec l'augmentation du nombre de sécheresses, mais l'étude du professeur Peng est la première à traiter de la forêt boréale canadienne de façon aussi détaillée. Elle confirme les résultats d'études antérieures effectuées dans les forêts tropicales de l'Amazonie et dans les forêts tempérées de l'Ouest américain.
Si le taux de mortalité des arbres continue à augmenter plus rapidement que la croissance dans la forêt boréale canadienne, celle-ci ne pourra plus jouer un rôle clé comme puits de carbone. Au contraire, elle pourrait plutôt devenir productrice d'émissions de carbone, ce qui aurait pour effet d'augmenter de façon importante les niveaux de carbone de la planète durant le prochain siècle.
L’énergie nucléaire en France : coût et innovations
Il y a quelques jours, la Cour des Comptes a publié un rapport très attendu, le premier du genre, sur les coûts réels de la production d'électricité nucléaire en France. Ce rapport passionnant nous apprend que le montant total des investissement réalisés en France depuis 1957 dans le domaine du nucléaire civil se monte à environ 121 milliards d'euros constants (valeur 2010). Au total, chaque MW nucléaire installé a donc coûté 2 millions d'euros en investissements.
Si l'on fait à présent le ratio production électronucléaire annuelle (410 milliards de kWh) sur investissements, on obtient un coût de production annuelle (hors maintenance) de 30 centimes par kWh nucléaire produit.
Ce rapport essaye également d'estimer le coût des charges à venir, ce qui constitue un exercice délicat, compte tenu des incertitudes économique, politiques et technologiques dans ce domaine.
Ce coût prévisionnel comporte trois composantes majeurs : d'abord le démantèlement des centrales qui arriveront en fin de vie dans les décennies à venir. Ce démantèlement représente un coût qui varie, selon les experts, de 18 à 30 milliards d'euros pour nos 58 réacteurs actuels. Vient ensuite la maintenance et la mise aux nouvelles normes de sûreté décidée à la suite de la catastrophe de Fukushima : 50 milliards d'euros à prévoir d'ici 2025. Enfin, la dernière composante concerne le retraitement et le stockage à long terme des déchets hautement radioactifs qui représentent un coût beaucoup plus difficile à cerner mais qui est estimé à une fourchette qui va de 28 à 35 milliards d'euros.
Parallèlement à ce rapport de la Cour des Comptes, le Commissariat à l'Energie Atomique a publié un rapport envisageant différents scénarios de sortie du nucléaire. Le CEA a comparé une hypothèse dans laquelle la production d'électricité nucléaire reste à son niveau actuel d'environ 75 % (le solde étant assuré à 11 % par l'hydraulique, 10 % par d'éolien, 2 % par le solaire et 2 % par le gaz) à une autre hypothèse envisageant une sortie complète du nucléaire d'ici 2025 avec le scénario énergétique suivant : 60 % d'éolien, 12 % de solaire, 16 % de gaz et 12 % d'hydraulique. Le premier scénario supposerait un investissement de 178 milliards à 212 milliards d'euros alors que le scénario de sortie du nucléaire entraînerait un investissement bien plus important, de l'ordre de 352 à 560 milliards d'euros.
Ces études confirment, comme nous l'avons déjà souligné, que, sauf à l'étaler sur une période très longue (au moins un demi-siècle), une sortie complète du nucléaire serait non seulement très coûteuse pour notre Pays mais entraînerait de surcroît une augmentation sensible de nos émissions de CO2 (moins de 6 tonnes par an et par habitant, contre 10 tonnes pour un allemand et 8 tonnes pour un européen) incompatible avec nos engagements en matière de lutte contre le réchauffement climatique. On peut bien sûr nier cette réalité pour des raisons idéologiques mais elle n'en demeure pas moins vraie !
Reste que l'utilisation massive et durable de l'énergie nucléaire en France pose un vrai problème d'acceptabilité sociale qui nécessite une transparence totale et une information beaucoup plus complète de nos concitoyens des spécificités de cette énergie.
A cet égard, il faut souligner que la question redoutable et sensible de la gestion des déchets hautement radioactifs est en train d'être bouleversée par deux ruptures technologiques majeures.
La première concerne la transmutation qui vise à transformer les déchets très radioactifs en éléments beaucoup moins radioactifs et à durée de vie courte en les bombardant par des neutrons produits par un réacteur spécialement conçu à cet effet. L'Europe a en effet lancé le projet très prometteur du réacteur de recherche Myrrha (Multi-purpose hybrid research reactor for high-tech applications), conçu par le Centre d'étude de l'énergie nucléaire (SCK-CEN). Ce projet vient de démontrer, il y a quelques semaines, la faisabilité technique, via la fission nucléaire, de la transmutation des déchets radioactifs à longue durée de vie en déchets à courte durée de vie.
Grâce à ce réacteur Myrrha, il est désormais envisageable de traiter une importante catégorie de déchets nucléaires, les actinides ainsi que le plutonium, le neptunium, l'américium et le curium. Après une irradiation appropriée par une réaction de fission, ces éléments très radioactifs à longue durée de vie se transforment en éléments à durée de vie beaucoup plus courte (3 à 7 ans). Cette transformation va bouleverser complètement la donne en matière de stockage et de retraitement des déchets nucléaires car, non seulement elle permet de réduire considérablement la toxicité et la durée de vie des déchets hautement radioactifs, mais elle peut également être utilisée pour produire, à partir des déchets initialement dangereux, des substances très utiles, comme le Xénon, un gaz rare, du silicium dopé, indispensable à l'industrie électronique ou encore des radio-isotopes thérapeutiques pour traiter le cancer qui sont actuellement très difficiles à obtenir en quantité suffisante.
Parallèlement à ces progrès considérables dans la transmutation des déchets radioactifs, la communauté scientifique poursuit activement ses efforts pour parvenir à réaliser la séparation complète des actinides mineurs, composants majeurs des déchets radioactifs issus des centrales nucléaires. Un prototype de réacteur nucléaire à neutrons rapides au sodium, nommé « Astrid », devrait être opérationnel en 2020.
Ce réacteur de 4ème génération, à neutrons rapides au sodium, présente un véritable saut technologique, pourquoi ? Parce que cette nouvelle génération de réacteur sera capable de transformer la totalité de l'uranium 238 en plutonium 239, ce qui multipliera par 100 les ressources fissiles primaires mondiales.
Autre avantage, ces réacteurs pourront brûler les actinides mineurs qui constituent la majeure partie des éléments radioactifs à vie longue. A l'issue de ce retraitement, il ne restera donc que des produits de fission faiblement radioactifs pendant 300 ans et facilement stockables.
Enfin, une autre voie, encore plus radicale, est en cours d'expérimentation : la réinjection géothermique. Des chercheurs russes basés au Kamtchatka (Extrême-Orient russe) sont en effet parvenus à enfouir des déchets nucléaires à une température élevée (350°) dans des systèmes hydrothermaux. Ces expérimentations ont montré que l'enfouissement des déchets nucléaires, dans ces conditions particulières de pression, de température et de configuration géologiques, débouche sur la formation de combinaisons chimiques et géologiques stables et inoffensives.
La neutralisation des déchets par la voie géothermique pourrait donc offrir à terme une solution simple, peu coûteuse et parfaitement sûre à la question du retraitement et de la gestion des déchets nucléaires ultimes. Une telle injection de déchets nucléaires par voie géothermique n'aurait aucune conséquence pour l'environnement car la quantité de déchets injectés serait insignifiante par rapport aux volumes de ces flux. Cette voie technologique a d'ailleurs été validée par l'AIEA.
Ces progrès majeurs en cours dans le domaine de la séparation des actinides et de la transmutation ne pourront certes se substituer au stockage souterrain mais il vont permettre, d'une part, de réduire considérablement la quantité et la toxicité des déchets à entreposer et d'autre part, de produire à un niveau industriel de multiples matériaux et substances utiles à notre développement économique. Transformée par ces ruptures technologiques, l'énergie nucléaire va donc entrer dans une nouvelle ère et pourra, il faut l'espérer, être utilisée à une large échelle pour répondre à la soif d'énergie de la planète, sans contribuer à l'aggravation du réchauffement climatique et dans le cadre d'une utilisation durable et d'un niveau de risques acceptable par nos sociétés.
Vague de froid et record de consommation d'électricité en France
Une vague de froid marquée sur une grande partie de l'Europe couplée à une consommation électrique toujours croissante ont entrainé sans surprise un nouveau record de consommation d'électricité mardi 7 février au soir.
Une vague de froid remarquable
Depuis samedi 28 janvier, l'air froid s'est progressivement installé sur la majeure partie de la France. En cause : "un courant d'Est de la Pologne à la Mer Noire, associé à un anticyclone très puissant sur le nord-ouest de la Russie, a apporté de l'air continental de plus en plus froid", indique Météo-France.
Après un premier épisode neigeux lundi 30 et mardi 31 janvier, le refroidissement s'est intensifié depuis le premier jour de février, alors que cet anticyclone s'est peu à peu décalé vers l'Allemagne. Avec un vent sensible de dominante nord-est, la sensation de froid est accentuée. Les températures ressenties selon le calcul de refroidissement éolien utilisé par Météo-France sont inférieures de 7 à 9°C aux températures sous abri.
Puis, après un nouvel épisode neigeux sur l'ouest de la France, "la vague de froid s'est installée sur le pays avec des températures sous-abri souvent inférieures de 8 à 12 degrés aux normales saisonnières", d'après les relevés de Météo-France.
Même si les basses températures sont notables, cette vague de froid n'est pas exceptionnelle et encore moins un record, contrairement à ce que l'on a pu entendre dans les grands médias. En effet, il suffit de remonter à l'hiver 1996-1997 (26 décembre au 8 janvier) pour trouver une vague de froid comparable, selon Météo-France.
Quelques températures relevées sous-abri mardi 7 février à 8h
-16.3°C à Orléans, nouveau record pour un mois de février (ancien record : -15.4°C le 23 février 1963) . -7°C à Paris ; -15°C à Pontoise ; -16°C à Dourdan ; -16°C à Fontainebleau ; -19°C à Orgerus. -24°C à Maîche, dans le Haut-Doubs ; -20°C à Aubusson (Creuse) ; -19°C à Mulhouse ; -16°C à Vichy ; -14°C à Chateauroux, Guéret, Beauvais, Langres, Troyes , et Reims ; -13°C à Rodez, et Strasbourg ; -12°C au Mans ; -11°C à Poitiers, et Limoges ; -10°C au Touquet, et Bergerac.
Notons qu'une grande partie de l'Europe et notamment de l'Est reste confrontée à ce froid persistant à l'origine de plus de 450 morts.
Lionnes en cage, exposées dans un camion pour faire la promotion d'un cirque
C'est officiel ! Les animaux ne participeront plus à des spectacles de cirque en Grèce. Une grande première européenne et un exemple à suivre pour la France et les pays voisins...
Une prise de position ferme
Qu'ils soient sauvages ou non, les animaux ne seront plus exploités dans les cirques grecs. C'est la décision qu'a prise le gouvernement suite à l'important travail de lobbying des associations locales. La nouvelle législation va également régler de nombreux problèmes concernant les animaux errants. La plupart des communes se faisait déjà l'écho de la prise de position de ses citoyens en interdisant aux cirques de s'installer sur leur territoire. Les Grecs n'en pouvaient plus du spectacle désolant des animaux, endurant de pénibles voyages en mer depuis l'Italie...
Un précurseur pour l'Europe ?
Cette prise de position du gouvernement grec est non seulement un grand pas pour ce pays, mais elle marque aussi un tournant décisif à l'échelle européenne. D'autres pays pourraient bientôt suivre son exemple, notamment l'Autriche qui a déjà interdit l'utilisation des animaux sauvages, mais aussi le Portugal, le Danemark et la Croatie où des procédures sont en cours pour que soit mis un terme à leur exploitation.
Vers la disparition des cirques avec animaux
En 2011, la Bolivie a été le premier pays à interdire tous les animaux dans les cirques. Elle a été suivie de près par le Pérou qui leur a interdit l'exploitation des animaux sauvages. Loin d'être des cas isolés, une évolution similaire de la législation est actuellement à l'étude aux USA, au Brésil, en Colombie, au Chili et en Equateur...
Cirques : ni cage, ni fouet, ni piste
One Voice dit « Non ! » à l'esclavage auquel sont réduits les animaux dans les cirques. Ils y sont contraints d'exécuter des numéros contre-nature, ils sont maintenus dans des cages exiguës et doivent parcourir de longues distances dans les pires conditions qui soient. Les animaux ne sont pas des jouets que l'on peut sortir de leur boîte pour l'amusement de quelques-uns. D'autant plus que cette activité représente un danger réel pour les animaux comme pour le public. L'association réclame le droit absolu au respect pour ces animaux.
Conditions de vie déplorables
One Voice s'insurge contre les conditions de vie déplorables des animaux dans les cirques. Alors que la législation se durcit pour les parcs zoologiques, on peut s'étonner que les cirques soient systématiquement épargnés du fait de leur caractère itinérant. Mais comment pourrait-il en être autrement quand il faut sans cesse déménager et parcourir des milliers de kilomètres par an ? Comment tolérer que ces lions, singes ou éléphants voyagent dans des remorques exiguës ? Les animaux sont enchaînés, enfermés en plein soleil, sans eau fraîche disponible, sans distraction, ne disposant même pas de l'espace minimal nécessaire à l'expression de leurs comportements naturels... Leurs sorties ? Un tour de piste face à un public hilare aux applaudissements effrayants. La seule issue pour tous ces animaux, arrachés pour certains à la vie sauvage, est la mort. Les éléphants, si sensibles, se laissent pour certains mourir. Les autres tombent malades et ne sont pas soignés. Ils se reproduisent vite et sont donc facilement remplaçables. Les animaux ont droit au respect où qu'ils soient. Les cirques ne doivent pas faire exception !
Le dressage, nouvelle forme d'esclavage
One Voice pointe du doigt le dressage des animaux dans les cirques. Ils sont non seulement contraints de travailler (notion qui n'existe pas dans la nature) mais aussi d'exécuter des numéros contre-nature, enseignés par la force. Le dressage est violent, scandaleux. Les positions qu'on oblige les éléphants à prendre sont douloureuses. Les numéros des lions et des tigres –braver le feu, faire les pitres, tolérer toutes les manipulations du dresseur...- sont pour eux une souffrance morale. Mais le pire a lieu en coulisses où la violence n'a plus de limites. Des dires mêmes de dresseurs, seule la terreur permet d'obtenir des animaux sauvages l'exécution d'un numéro...
À l'encontre des principes éducatifs
Les spectacles avec animaux vont à l'encontre de l'éducation des enfants au respect et à la protection de la nature. Ils y voient la soumission par la force. Quel exemple pour eux que cette démonstration de l'oppression des plus faibles ? De plus, rien ne leur est appris sur les espèces qu'ils voient défiler. Au contraire. Ainsi, des lions d'Afrique côtoient sur la piste des tigres d'Asie. On leur fait croire que le chimpanzé rigole quand sa mimique démontre seulement qu'il est effrayé. On leur donne également à penser qu'il est naturel pour un éléphant d'être debout sur ses pattes arrière ! Les espèces, pourtant en danger d'extinction, sont exhibées comme des jouets, sans que rien ne soit dit sur leur situation dans la nature. C'est cette désinformation et normalisation de la violence que One Voice dénonce dans ses différentes actions.
Danger pour tous
L'association alerte sur les dangers que représente le cirque, tant pour les animaux que pour le public. Les accidents sont nombreux. La plupart sont liés à la vétusté des cages et à des méthodes de détention et de transport inappropriées, d'autres au dressage lui-même. Des éléphants sont blessés aux pattes par leurs chaînes, des dresseurs sont tués par les lions, les éléphants ou les serpents, des singes s'échappent, des animaux meurent dans des cages inadaptées... Les exemples sont pléthoriques. Animaux, circassiens, public et même riverains ne sont pas en sécurité. Ces dangers n'ont pas lieu d'être car les animaux n'ont pas leur place dans un cirque.
Une législation inadaptée et non respectée
Si les cirques étaient par exemple soumis, au minimum, aux mêmes règles que les zoos, ils ne pourraient tout simplement plus détenir d'animaux. Malheureusement, sous prétexte qu'ils sont itinérants, ils échappent à la plupart des règles concernant la détention et l'exhibition d'animaux. Une révision de la loi est à l'étude depuis 2001... Hors mis l'inadaptation de la loi, les quelques mesures applicables aux cirques ne sont pas plus respectées. Nombre d'établissements détiennent des animaux en toute illégalité, certains ne demandent pas les autorisations aux communes pour l'installation de leurs chapiteaux, faisant courir ainsi un risque certain aux populations.
Sauvons-les... en bannissant ces spectacles
Mais forte de sa connaissance des quelques règles régissant les cirques, associée à un partenariat étroit avec les autorités, One Voice a réussi à sauver d'années de souffrance, et d'une mort certaine, nombre d'animaux sauvages détenus dans les cirques. Achille le chimpanzé, Vicky l'éléphante, Maomie la tigresse, Djunka le lion... ont échappé aux mains de leurs geôliers pour retrouver une vie « quasi » normale dans des sanctuaires. Libérer les animaux paraît en effet, aujourd'hui, être la seule solution « légale ». Mais un sauvetage coûte très cher et les refuges affichent complet... Bannir de nos spectacles les cirques mettant en scène des animaux pourrait être une alternative. C'est celle que prône One Voice à travers son soutien au développement des arts du cirque sans animaux.
Les spectacles avec animaux vont à l'encontre de l'éducation des enfants au respect et à la protection de la nature. Ils y voient la soumission par la force. Quel exemple pour eux que cette démonstration de l'oppression des plus faibles ?
Comment et à quel prix le pic de consommation électrique français a été franchi
La disponibilité du parc français et les importations ont permis de surmonter le record de consommation électrique établi le 7 février. Une pointe qui a coïncidé avec de fortes émissions de CO2 et de nouveaux records des prix du MWh.
L'information tourne en boucle depuis hier soir : mardi 7 février un nouveau record de consommation électrique a été battu en France aux alentours de 19 heures. Avec une demande mesurée à 100.500 mégawatts (MW), le nouveau record marque un bond de 3,91% par rapport au précédent datant du 15 décembre 2010.
L'exception française "Un degré de baisse des températures représente 2.300 MW de puissance nécessaire pour faire face", explique Eric Besson, ministre de l'Energie, estimant que "les températures se situent [actuellement] 10 degrés en dessous de la normale saisonnière".
La raison de ce pic de consommation est bien connue et Eric Besson l'a rappelé sans détour : "compte tenu du poids du chauffage électrique, la France représente à elle seule la moitié de la pointe de consommation électrique de l'Europe", explique le ministre, pointant l'exception française. Et le Réseau de transport d'électricité (RTE) de rappeler que l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe) évalue à 32,9% la part des résidences principales françaises équipées de chauffage électrique en 2009. Plus précisément, RTE détaille l'impact d'une baisse des températures de 1°C en Europe et dans certains autres pays. Au niveau européen, la hausse de la demande s'établit alors à 5.000 MW, soit l'équivalent de la puissance nécessaire pour alimenter Paris et Lyon. Cependant, si la demande française augmente de 2.300 MW, elle ne progresse que de 600 MW en Grande Bretagne, de 500 MW en Allemagne et de 300 MW en Italie. En conclusion, "la France se révèle plus « électriquement sensible au froid » que ses compagnons européens", avance RTE.
Mobilisation des moyens de production Pour faire face à ce pic, la quasi-totalité des moyens de production français ont été mobilisés. Ainsi, selon les chiffres avancés par Eric Besson, "EDF a mis en service 55 de ses 58 réacteurs, (…) les capacités hydroélectriques sont pleinement mobilisées [et] seules 5 centrales thermiques sont à l'arrêt". Une mobilisation du parc nucléaire "essentielle", puisqu'"à lui seul, le nucléaire représentait 63 % de l'électricité consommée à 19 heures".
RTE fournis des chiffres détaillés de la production électrique par pas d'un quart d'heure. Il apparaît que le nucléaire a répondu à 19 heures à 58,5% des 100,5 gigawatts appelés sur le réseau, soit près de 5% de moins que le chiffre avancé par le ministre. Une différence qui s'explique par le fait que le chiffre présenté par Bercy fait référence à la part du nucléaire dans la production française sans tenir compte des importations pourtant indispensables au franchissement du pic.
Par ailleurs, l'hydraulique a répondu à 11,5% de la demande, les centrales au fioul à 5%, les centrales au charbon à 4,7%, l'éolien à 3,6% et les centrales au gaz à 3,2%. Le poste "autres", qui regroupe divers moyens de production sous régime d'obligation d'achat, les cogénérations et autres productions thermiques dites diffuses, a répondu à 5,6% de la demande et les importations à 7,3%.
Quant aux émissions de CO2, elles se sont envolées à 11.950 tonnes par heure au moment du pic, soit un niveau moyen d'émission équivalent à 118 grammes de CO2 par kilowatt de puissance appelé. Un chiffre qui ne tient pas compte des émissions associées aux importations d'électricité…
Le prix de l'électricité au plus haut
Enfin, le record historique de la consommation s'est accompagné d'un bond des prix sur le marché de gros français. Le mégawattheure (MWh) en base, s'est établi à 129,56 euros le MWh en anticipation du pic de consommation et le prix pour la pointe s'est établi à 172,70 euros le MWh.
Quant aux opérateurs qui n'ont pas suffisamment anticipé leurs besoins et ont acheté l'électricité manquante le jour même, ils ont payé le prix fort : 343 euros le MWh entre 18 et 19 heures et 233 euros durant l'heure suivante.
Des prix particulièrement élevés comparativement aux prix moyens de janvier 2012 qui s'établissaient à 41,9 euros le MWh pour la base et à 51,62 euros le MWh pour la pointe. De manière générale, les prix sur le marché de gros français au jour le jour pour l'électricité se sont envolés depuis le début de la vague de froid pour atteindre des sommets depuis deux ans et la précédente vague de froid.
Pour mémoire, quel que soit le prix payé par les opérateurs pour se fournir sur le marché de gros, le tarif de vente réglementé, qui sert de référence sur le marché français, est fixé à 42 euros le MWh pour les particuliers.
Entente sur le marché de gros ? Hasard du calendrier ou non, des inspecteurs de la Commission européenne ont perquisitionné différents acteurs européens du marché de gros de l'électricité, parmi lesquels Epex Spot qui gère le marché français. "La Commission s'inquiète du fait que les entreprises visées aient pu violer les règles européennes qui prohibent les cartels et les ententes entre les entreprises", indique sans plus de précisions la Commission.
Invité
Sujet: Re: Actualités Jeu 9 Fév - 10:47
La stratégie nationale pour la biodiversité "en ordre de marche"
Soutien de 62 projets à hauteur de 10 millions d'euros, création d'un fond d'investissement dédié aux trames vertes et bleues, ou encore une rénovation de la "Gouvernance Biodiversité" figurent parmi les annonces faites hier par NKM.
Huit mois après son lancement en mai 2011, la ministre de l'Ecologie Nathalie Kosciusko-Morizet a établi mardi 7 février ''un premier bilan" de la Stratégie nationale pour la biodiversité d'ici 2020. La ministre a présenté hier devant la presse les résultats des cinq premiers appels à projets lancés en juillet 2011 marquant l'entrée en vigueur effective de cette stratégie.
Passages à faune et à batraciens sur des infrastructures de transport, restauration de zones humides et d'habitats d'espèces menacées, lutte contre la faune et la flore envahissantes sur terre et en mer, développement de filières économiques durables à partir de l'utilisation de ressources naturelles locales... 62 projets "innovants", dont près du tiers en Outre-Mer, vont être soutenus à hauteur de "10 millions d'euros pour 2012" conjointement par l'Etat, les agences de l'eau et l'Office national de l'eau et des milieux aquatiques (Onema).
Plus de 200 projets avaient été déposés dans le cadre de ces appels à projets qui ont "mobilisé une grande diversité d'acteurs : entreprises, collectivités, associations, chercheurs et opérateurs de l'État, souvent en partenariat", selon la ministre qui parle de ''succès". Si, ''depuis le Grenelle, beaucoup d'actions ont déjà été mises en œuvre'', selon NKM à l'instar des trames vertes et bleues, ces 62 projets ''exemplaires portés depuis longtemps vont enfin bénéficier d'un soutien".
62 projets pour la biodiversité
Parmi les projets lauréats figurent en Outre-mer des programmes de lutte contre le poisson lion, espèce invasive, en Guadeloupe et en Martinique et dans les collectivités de Saint Martin et Saint Barthélemy, portés par l'Observatoire du Milieu marin martiniquais et le Comité régional des Pêches maritimes et des Elevages marins (CRPMEM). Figure aussi le projet de stratégie de lutte opérationnelle contre les espèces exotiques envahissantes à la Réunion, porté par le parc national de l'île. Frappé en octobre dernier par un incendie qui a ravagé près de 2.700 hectares, ce projet vise à enrayer la prolifération de ces espèces sur ces terrains mis à nu. D'autres projets retenus concernent la restauration pilote de forêts sèches en Nouvelle-Calédonie porté par le Conservatoire des espaces naturels, ou encore la restauration écologique sur le massif du Piton de la Fournaise dans l'Espace Naturel Sensible de Bois Blanc porté par la mairie de Sainte rose (La Réunion).
En métropole, plusieurs projets lauréats visent également à rétablir les continuités écologiques sur des infrastructures de transport existantes et restaurer des zones humides (basse vallée de Canche dans le Nord Pas de Calais, forêt de Chinon , bassin versant de la Véore…) ou encore les marais de l'Ile de Noirmoutier.
Des projets de ''crapauducs'' sous voirie départementale pour permettre la circulation des amphibiens, espèces menacées, ont également été proposés par les Conseils généraux de l'Isère, de Savoie, du Doubs, des Hauts de Seine ou encore par la Communauté de communes du Val de Moselle. En Charente-Maritime, le projet visant à sécuriser les tronçons routiers entre Rochefort et La Rochelle pour permettre le passage des loutres et des visons d'Europe a aussi été retenu. Enfin, parmi les démonstrateurs en matière d'ingénierie écologique figure le projet d'utilisation des végétaux pour traiter les eaux usées en Martinique proposé par la société Cotram. Autre projet lauréat : la ré-estuarisation du Ster de Lesconil, à l'initiative de la commune de Plobannalec-Lesconil (29) permettant de lutter contre l'ensablement afin de restaurer les écosystèmes et lutter contre l'érosion de la dune.
Lancement du fonds Fibre et d'un nouvel appel à projets
Face à ''cette dynamique'' de projets, le gouvernement entend renforcer son soutien. NKM a annoncé hier le lancement du nouveau fonds d'investissement pour la biodiversité et la restauration écologique (Fibre) pour accompagner notamment la mise en œuvre de la Trame Verte et Bleue. Ce fonds va être créé ''dans les prochains jours'' par décret publié au Journal officiel, avec une dotation de 25 millions d'euros pour 2012, a précisé Nathalie Kosciusko-Morizet. Un nouvel à projet a également été lancé hier visant à promouvoir la prise en compte de la biodiversité dans les stratégies locales de développement forestier. La date limite de dépôt des dossiers est fixée au 15 avril prochain. La subvention de l'Etat à hauteur de 80% du montant total du projet est plafonnée à 60.000 euros.
Bientôt une gouvernance rénovée en faveur la biodiversité ?
Autre annonce de la ministre : l'ouverture jusqu'au 7 mars d'une consultation publique sur le rapport remis le 3 février par le préfet Dominique Schmitt visant à réformer la gouvernance en matière de biodiversité ''afin d'associer toutes les parties prenantes'' (comité national trame verte et bleue, groupe national zones humides, conseil national de la protection de la nature, comité national de suivi et de concertation Natura 2000...). L'objectif étant de ''fonder une nouvelle gouvernance nationale'' basée uniquement sur ''deux instances" : un comité national de la biodiversité et un conseil scientifique et technique visant à renforcer l'expertise.
Le Grenelle prévoyait déjà la création d'une Agence unique de la Nature en 2010, qui aurait été le résultat de la fusion de plusieurs acteurs publics (conservatoire du littoral, agence des aires marines protégées, parcs nationaux de France…) mais ce projet ''a été repoussé", a indiqué la ministre faute de consensus contrairement au rapport de M. Schmitt qui ''a fait l'unanimité ", selon elle.
Dans un communiqué, la Ligue Roc a salué la création du fonds biodiversité et estime que les 62 projets soutenus par l'Etat ''témoignent de l'attente des acteurs à agir concrètement sur le terrain''. Mais pour l'association, "ces annonces ne masquent pas l'insuffisante mobilisation des autres ministères'' pour contribuer à la SNB. ''Où est la cohérence entre ces mesures positives et les annonces du Président de la République sur la réglementation environnementale tatillonne et les cadeaux électoraux faits aux chasseurs ?", s'interroge Christophe Aubel, Directeur de la Ligue Roc.
Si 230 parties prenantes ont à ce jour adhéré à la SNB, la ministre de l'Ecologie a appelé hier ''à un engagement plus fort" des organisations agricoles…
Grenelle 2 : les députés dressent un bilan en demi-teinte
De nombreux décrets d'application de la loi Grenelle 2 ont maintenant été publiés. Mais l'esprit de la loi est-il toujours respecté ? Réponse à travers le rapport d'information présenté le 8 février par l'Assemblée nationale.
Les députés Bertrand Pancher (UMP – Meuse) et Philippe Tourtelier (SRC – Ille-et-Vilaine) ont présenté, devant les commissions du développement durable et des affaires économiques de l'Assemblée nationale, leur rapport d'information sur la mise en application de la loi Grenelle 2.
Ce rapport, 18 mois après la publication de la loi, fait suite à un bilan d'étape réalisé en juin 2011, d'où il ressortait que seulement 20,1% des décrets d'application attendus avaient été publiés. A cette époque, le Gouvernement s'était engagé à publier 80 à 90% des décrets début 2012, "ce dont certains d'entre nous doutaient", rappelle Bertrand Pancher.
Plus de 69% des décrets publiés
Où en est-on aujourd'hui ? Au 31 janvier 2012, 128 décrets avaient été publiés sur les 185 textes jugés utiles par le secrétariat général du Gouvernement pour la mise en application de la loi d'ici 2013. Soit 69,2% du total. Trente-trois autres décrets sont actuellement à la signature du ou des ministres, après arbitrage interministériel, ou en Conseil d'Etat, ce qui représente un total de 87,03 % des décrets nécessaires. "Nous considérons qu'il s'agit là d'un bon résultat", indique Bertrand Pancher.
Des disparités suivant les domaines d'application du Grenelle sont toutefois constatées. Dans le domaine des transports, le taux de publication des décrets est le plus faible (50%), alors, qu'à l'inverse, ce taux est de 85,7% dans le champ climat-énergie. Les raisons des retards de publication ? La complexité juridique, la nécessité d'arbitrages interministériels, la montée au créneau de certains lobbys ou encore les nécessaires arbitrages financiers.
Le texte de loi plutôt bien respecté
Mais peut-on se satisfaire du seul taux de publication des décrets ? Le rapport attire l'attention sur les limites intrinsèques "d'un indicateur purement quantitatif (…), qui ne prend en compte ni la complexité, ni l'urgence des textes". Sans parler de l'effectivité de l'application des textes sur le terrain ou même du simple respect de l'esprit de la loi.
Sur ce dernier point, "à quelques exceptions près, largement médiatisées d'ailleurs (non-prise en compte des émissions indirectes de gaz à effet de serre lors des bilans des entreprises, retard d'une année de la publication des indicateurs sociaux et environnementaux des entreprises..), nous pouvons affirmer que les décrets ont généralement plutôt bien respectés le texte de loi que nous avons voté", juge Bertrand Pancher.
Des questions sur la publicité extérieure, le DPE, les transports…
Mais sous ce satisfecit général, certains textes posent toutefois problème. C'est le cas du récent décret sur la publicité extérieure, qui suscite de vives réactions. "Dans les rapports entre les acteurs, c'est comme si on n'avait rien voté", déplore Philippe Tourtelier. A ce propos, Annick Le Loc (SRC – Finistère) dénonce l'adoption d'un amendement dans le cadre de l'examen de la proposition de loi Warsmann, portant à six ans le délai de mise en conformité des publicités, enseignes et préenseignes.
Le diagnostic de performance énergétique pose question. En fonction de l'objectif qu'on lui assigne – informer ou servir de base à la transformation du logement -, c'est un outil qui peut apparaître comme "trop" ou "pas assez" sophistiqué. Le rapport pointe le fait qu'il se présente sous la forme d'une simple "étiquette énergétique" et alerte sur le risque que cet outil devienne "un gisement de contentieux". En outre, cet outil, "dont la fiabilité n'est pas toujours assurée", sert de fondement pour la majoration d'une aides fiscale comme le PTZ+.
En matière de transport, trois domaines "suscitent une attente particulière" : le "droit à la prise" pour les propriétaires de véhicules électriques ou hybrides rechargeables résidant dans une habitation collective, la modulation des péages autoroutiers et l'expérimentation volontaire des péages urbains dans les agglomérations de plus de 300.000 habitants. Si le décret destiné à mettre en œuvre la première de ces dispositions a été publié fin juillet, les deux autres restent en attente.
Aucune région n'a pu respecter la date légale d'élaboration des SCRAE, le 13 juillet 2011, le décret ayant été publié moins d'un mois avant cette échéance. Quinze d'entre elles devraient néanmoins être en mesure de finaliser l'adoption de cet outil de programmation avant le 30 juin 2012.
Eolien, captages d'eau et RSE posent question
Dans le domaine de l'éolien, les retards constatés dans la publication des décrets ont été préjudiciables, "aboutissant au résultat paradoxal de retarder le lancement des nouveaux projets par manque de sécurité juridique alors même que l'objectif de la loi Grenelle 2 était de clarifier les dispositifs applicables", souligne le rapport. Les députés contestent également la règles des cinq mâts, qui a réduit les possibilités de projets nouveaux.
La mise en œuvre du dispositif de protection des captages d'eau potable divise les parties intéressées, indique le rapport. Certains estiment qu'il met en danger la viabilité économique des exploitations alors que, pour les autres, il semble adéquat surtout dans la mesure où il est possible de se reconvertir dans l'agriculture biologique. Le décret sur la limitation des intrants de synthèse dans les aires d'alimentation des captages est toujours attendu.
En ce qui concerne les dispositions emblématiques du Grenelle relatives à la RSE, "les atermoiements qui ont entouré les conditions de sa mise en œuvre constituent malheureusement encore aujourd'hui un point de préoccupation", soulignent les rapporteurs. Deux amendements ont été adoptés lors de la discussion de la proposition de loi Warsmann : le report d'une année de l'obligation de reporting social et environnemental des entreprises et une distinction entre sociétés cotées et non cotées s'agissant des informations à communiquer. Ces deux évolutions du texte, qui ont conduit à différer la publication du décret d'application, "ont été fortement regrettés" par les auteurs du rapport et par les syndicats.
Modernisation fondamentale des pratiques de gouvernance
Alors le Grenelle, une réussite ? Pour Serge Grouard (UMP – Loiret), président de la commission du développement durable, la réponse est sans contexte positive : "l'inflexion est en cours mais comment peut-on imaginer changer un modèle vieux de 200 ans en 18 mois ?".
"On parle de textes, mais l'essentiel, c'est la volonté politique", résume Philippe Tourtelier. Le député alerte toutefois sur les risques de détricotage du Grenelle qui peuvent aussi venir de lois extérieures, comme le montre à ses yeux la proposition de loi Warsmann actuellement en discussion.
En tout état de cause, les auteurs du rapport sont d'accord pour reconnaître que "au-delà des textes, des décrets, des mutations qualitatives et des objectifs chiffrés, le Grenelle de l'environnement a ouvert la voie à une modernisation fondamentale des pratiques de gouvernance, dans le domaine de la démocratie environnementale comme dans celui, plus général, de la prise de décision administrative".
Les Russes ont atteint le mystérieux lac sous-glaciaire Vostok
Lac sous-glaciaire Vostok décelé par satellite
L'épopée antarctique des chercheurs russes qui sont parvenus, au terme de plus de 20 ans de forage, à atteindre le célèbre lac Vostok, enfoui sous quatre kilomètres de glace dans l'Antarctique, a suscité de vives réactions au sein de la communauté scientifique internationale.
Le forage a débuté dans la région de la station Vostok dans les années 1970, lorsque l'existence du lac n'était pas encore connue. En 1996, les chercheurs russes, en coopération avec leurs collègues britanniques, ont découvert, caché sous une très épaisse calotte glaciaire, le plus important lac sous-glaciaire terrestre et qui constitue une des plus grosses réserves d'eau douce de la planète.
Le lac Vostok est plus grand que celui d'Onega (Carélie) et rappelle par ses contours le lac Baïkal. Il contient au moins 5 400 km cubes d'eau totalement pure et mesure 250 km de long sur 50 km de large. Séparé en deux par une ride, il atteint 800 mètres de profondeur d'un côté, 400 m de l'autre.
Son âge est estimé à environ 14 millions d'années, ce qui correspond à l'âge à de la glace qui le recouvre, tandis que l'eau qu'il contient aurait environ 1 million d'années.
Un forage tumultueux
En 1998 le forage a été suspendu au moment où il ne restait que 130 mètres à parcourir avant d'atteindre les eaux du lac. La communauté internationale a demandé de suspendre les travaux en attendant la mise au point d'une technologie spéciale permettant de réduire au minimum une éventuelle pollution des eaux du lac.
En 2000, les chercheurs russes ont mis au point une technologie de forage excluant toute pollution du lac. Les pays membres du Traité sur l'Antarctique ont exigé des tests de cette technologie, estimant qu'elle n'était pas suffisamment fiable du point de vue écologique.
C'est un hasard qui a permis de débloquer la situation : en 2004, des glaciologues danois ont foré un puits dans la partie nord du Groenland en se servant d'une technique pratiquement identique à celle proposée par les chercheurs russes. Il s'est avéré que seuls les dix premiers centimètres du puits de forage étaient pollués, le reste étant stérile. En 2006, la station a été remise en état et les travaux de forage ont repris.
Finalement, au bout de 30 ans de travaux de forage, les chercheurs russes ont atteint la surface du lac Vostok, a annoncé lundi à RIA Novosti une source proche des milieux scientifiques. Une véritable course contre la montre s'est engagée pour achever ce forage avant que le brutal et rigoureux hiver Antarctique mette fin temporairement aux opérations. En effet, il fait déjà -45°C en Antarctique, le continent le plus froid de la Terre.
"A la station Vostok en Antarctique, nos chercheurs ont achevé un forage de 3 768 mètres et atteint la surface du lac subglaciaire", a indiqué l'interlocuteur de l'agence, le 6 février 2012, sans toutefois donner plus de précisions.
Les chercheurs russes envisagent d'atteindre le fond du lac Vostok au cours des années 2013-2014, a annoncé jeudi 9 février à RIA Novosti Sergueï Boulat, spécialiste de l'Institut de physique nucléaire de Saint-Pétersbourg. M.Boulat indique que la profondeur de l'eau au-dessous du trou de forage est estimée à 600-700 mètres.
Une attente scientifique forte : des changements climatiques à la vie extra-terrestre
Selon le porte-parole de l'Institut russe de recherche scientifique pour l'Arctique et l'Antarctique Sergueï Lessenkov, l'achèvement des travaux de forage doit notamment permettre de réaliser "une étude scientifique fondamentale" sur les changements climatiques. En effet, l'analyse de l'eau du lac Vostok devrait permettre aux spécialistes d'établir un scénario des changements climatiques naturels pour les prochains millénaires.
L'étude de cet immense plan d'eau devrait également permettre de tirer d'importantes conclusions sur l'existence de vie sur d'autres planètes, dont la lune de Jupiter Europe, qui possède elle aussi un océan sous-glaciaire.
D'après le professeur Martin Siegert de l'Université d'Edimbourg (Ecosse), cité par les médias européens, il s'agit d'une "performance majeure pour les Russes qui travaillent depuis des années sur ce projet", bien que ce dernier "n'ait délivré pour le moment aucune donnée scientifique".
Le glaciologue français Jean Jouzel, cité par le Figaro, parle d'"une question de prestige national" et fait part de ses inquiétudes concernant les techniques utilisées lors de la dernière étape du forage, évoquant le risque de contaminer le lac avec des bactéries de la surface. Il est à souligner que l'eau du lac a été préservée de tout contact avec l'atmosphère depuis au moins 500 000 ans.
Ce lac pourrait contenir des formes de vie inconnues à ce jour mais il n'est pas à exclure que les couches supérieures du lac soient stériles, tandis que des microbes fossiles ou leurs traces puissent être trouvés dans les profondeurs du lac. En effet, l'examen de la carotte de glace a démontré qu'il n'y avait que 2 ou 3 cellules par millilitre d'eau, ces cellules ayant pu s'infiltrer lors du transport de l'échantillon au laboratoire.
Selon l'expert russe, une carotte de glace extraite du lac sera transportée à Saint-Pétersbourg en mai 2013. Toutefois, cet échantillon pourrait ne pas fournir de preuves permettant de confirmer l'existence d'une vie dans le lac. "Cet échantillon (...) pourrait ne contenir aucune bactérie, étant donné qu'il sera pris de la surface", a indiqué M.Boulat. D'après le chercheur, si le lac Vostok contient des formes de vie inconnues à ce jour, elles pourraient être découvertes dans des couches d'eau plus profondes.
Un lac entouré de mythes
Alors que les chercheurs discutent des aspects scientifiques du projet, certains médias rappellent que l'histoire du lac Vostok est liée à une légende selon laquelle les Nazis allemands auraient construit une base secrète à ses alentours lors de la Seconde Guerre mondiale. En 1943, l'amiral Karl Dontiz aurait déclaré que la marine allemande avait érigé pour le Führer "une forteresse inébranlable à l'autre bout du monde".
Pour faciliter la récupération des paillettes d'or, les orpailleurs se servent de mercure. Ils récoltent alors par blocs un amalgame de mercure et d'or.
Savez-vous d'où provient cette jolie chaine en or que vous rêvez d'offrir ou de recevoir pour la Saint-Valentin ? A quelques jours de la fête des amoureux, le WWF souhaite rappeler les origines, trop souvent douteuses, de ce métal précieux et alerter sur les conséquences tant écologiques, sociales, économiques que sanitaires d'une extraction illégale de l'or, au travers de l'exemple guyanais.
Aujourd'hui le cours de l'or n'a jamais été aussi haut dans toute son histoire : la valeur actuelle atteint ainsi 25 000 euros le kilo d'or avec une progression actuelle d'1% / jour. Une mane financière considérable pour les exploiteurs illégaux. En effet, plus de 95% de l'or extrait chaque année dans le monde n'est pas traçable, c'est-à-dire que le consommateur n'a aucune information sur la façon dont l'or est extrait et transformé. Ce qui permet, dans certains pays, à l'or illégal d'intégrer la filière légale : il est alors blanchi.
Des rivières et des forêts condamnées par l'activité aurifère illégale
En moyenne, on retrouve dans 1 hectare de forêt guyanaise plus d'espèces de plantes que sur l'ensemble de l'Europe continentale. Cette biodiversité remarquable est pourtant menacée. Le Parc National Amazonien, créé en 2007 pour préserver la biodiversité de Guyane, est toujours fortement impacté : 4000 hectares y ont été déforestés, et plus de 500 chantiers aurifères illégaux, employant entre 5 000 et 8 000 travailleurs, y sévissaient encore fin 2011.
La Guyane recèle encore un potentiel aurifère de 120 tonnes en or primaire et 15 à 20 ans de gisement alluvionnaire au rythme de son exploitation actuelle (IEDOM, 2006).
L'or illégal nuit gravement à la santé humaine
Utilisé par les orpailleurs clandestins pour extraire l'or, le mercure (interdit pourtant depuis 2006) est un poison très toxique qui s'accumule dans les cours d'eau et contamine toute la chaîne alimentaire, des poissons jusqu'à l'homme. Ainsi, Pour récupérer 1kg d'or, 1,3 kg de mercure est employé par les illégaux, avec près de 30% de pertes, rejetées dans le milieu naturel, essentiellement sous forme de vapeur atmosphérique. Plus de 10% s'échappe dans les cours d'eau de Guyane. Sous l'action de l'acidité de l'eau, le mercure se transforme en un dérivé dangereux : le méthyl-mercure.
Les répercussions socio-économiques d'une nouvelle ruée vers l'or
L'exploitation aurifère clandestine concourt à la structuration de véritables filières d'immigration sauvages et au développement de réseaux de prostitution, de trafics (armes et drogues) et de délinquance. Le bilan est lourd. Le mois dernier, en pleine visite présidentielle, une fusillade a provoqué la mort de 6 personnes à Dorlin, un site d'orpaillage clandestin que le WWF avait déjà survolé avec Lucie Décosse, championne du monde de judo originaire de Guyane.
Les difficultés récurrentes dans la lutte contre l'orpaillage illégal et ses différents trafics annexes ne posent pas seulement un problème d'ordre public. En effet, ses impacts socio-économiques sont devenus énormes pour le territoire. Perte d'emplois chez les orpailleurs légaux, insécurité des populations riveraines et zones devenues infréquentables pour les touristes réduisant d'autant une activité essentielle pour le développement de la Guyane, tout cela contribue à faire de l'orpaillage illégal un fléau aux conséquences multiples.
Malgré sa bonne volonté, l'industrie de la bijouterie peine à connaitre la provenance de l'or qu'elle utilise/achète
En 2011, le WWF a mené, en relation avec l'Union française de la bijouterie, joaillerie, orfèvrerie, des pierres et des perles (BJOP), la fédération nationale des horlogers, bijoutiers, joailliers et orfèvres (HBJO) et le Syndicat Saint Eloi, une enquête inédite, « sur les traces de l'or », auprès des acteurs de l'industrie de la bijouterie (fabricants, distributeurs, affineurs, etc.). Objectif : évaluer leur connaissance sur l'origine de l'or qu'ils achètent et dresser un état des lieux de la traçabilité de l'approvisionnement aurifère.
- 82 % des répondants indiquent ne pas connaître la provenance de l'or qui passe entre leurs mains. - 84% des professionnels participant à l'étude n'ont aucune garantie concernant la responsabilité des pratiques d'extraction, bien que 75% soient conscients des lourds impacts de l'extraction aurifère - 90% des personnes ayant répondu se déclarent prêtes à agir à leur niveau.
Comme on pouvait s'y attendre, le bilan en termes de traçabilité n'est pas brillant, puisque l'or des bijoutiers demeure très majoritairement d'origine inconnue. Une prise de conscience et une volonté de transparence de ces acteurs émergent indéniablement.
Ces éléments montrent la nécessité d'une traçabilité de l'or, qui permettra aux bijoutiers de garantir l'origine de leurs produits. En complément, il reste indispensable d'améliorer les pratiques légales d'extraction et de suivi du minerai, qui pourraient être valorisées au moyen d'une certification.
Vers plus de transparence sur la qualité de l'air à Beijing
Circulation automobile et pollution atmosphérique à Beijing
Selon des sources officielles, entre 2000 et 2010, la concentration moyenne annuelle en PM 2,5(1) dans l'air ambiant de la capitale de la Chine est passée de 100 micro-g/m3 à 70 micro-g/m3, restant toujours supérieur à la norme de 35 micro-g/m3 fixée par le Ministère chinois pour la protection de l'environnement(2). En comparaison, la concentration moyenne annuelle en PM 2,5 de la ville de Shanghai aurait varié de 44 à 53 micro-g/m3 entre 2006 et 2010.
Bien que les autorités de la ville de Pékin (Beijing) aient déjà collectée de nombreuses données sur la pollution aux PM 2,5 au cours des cinq dernières années, aucune communication publique régulière n'avait été réalisée jusqu'à présent. La municipalité de la capitale chinoise envisage désormais de rendre cette information accessible à l'ensemble de ces citoyens. Cette décision a été prise suite aux annonces faites fin 2011 par le Ministère de la protection de l'environnement en réponse aux fortes critiques émanant de l'opinion publique concernant l'indice de la qualité de l'air et la pollution atmosphérique urbaine dans les agglomérations chinoises, en particulier dans la ville de Pékin fréquemment recouverte d'un épais smog.
La municipalité de Pékin diffuse donc depuis le 23 janvier 2012 les données concernant les particules PM 2,5 détectées dans l'air ambiant via le site internet du Beijing municipal environmental monitoring center dans le cadre du projet pilote de révision du calcul de l'indice de qualité de l'air ambiant prenant nouvellement en compte la concentration en particules PM 2,5 ainsi que la concentration en ozone troposphérique (O3). Ce nouvel indice de surveillance de la qualité de l'air devrait être complètement opérationnel au niveau national à partir de 2016.
Parallèlement, la ville de Pékin devrait améliorer la qualité de son air extérieur en réduisant la pollution automobile (Pékin compte plus de 5 millions de voitures) par l'interdiction à la circulation des véhicules trop polluants, en incitant à l'utilisation de sources d'énergies plus respectueuses de l'environnement (l'usage de chaudières à charbon étant déjà banni du centre de la capitale), en verbalisant les chantiers de construction fortement émetteur en poussières et en imposant un contrôle plus strict des émissions de polluants du secteur industriel. Le gouvernement municipal devrait allouer au total 2,1 milliards de yuans (soit 253 millions d'euro) pour lutter contre la pollution atmosphérique et mener des travaux liés à la conservation de l'énergie et à la réduction des émissions industrielles.
Notes
1 Particules en suspension dans l'air dont le diamètre aérodynamique est inférieur à 2,5 micro-m 2 L'Organisation mondiale de la santé (OMS) recommande une valeur guide moyenne annuelle de 10micro-g/m3 (2005) et l'agence étasunienne de protection de l'environnement (US EPA) une valeur limite de 15 micro-g/m3 (1997) en moyenne annuelle.
Doom's Day : est-ce la fin du Monde ou la fin d'un Monde anomique ?
"Selon la phrase attribuée communément à Einstein, sans les abeilles, il ne resterait que peu de temps à l'Homme. Leur disparition massive témoigne-t-elle de l'arrivée de l'apocalypse ?"
Il semble, effectivement, que les abeilles sont l'avant-garde de l'extinction de l'humanité « Cette année, écrit Luce Soullier, c'est la fin du monde. Du moins, nombre de scénarios apocalyptiques la prévoient pour le 21 décembre 2012. La preuve par les abeilles ? Un parasite de mouche les transformerait ainsi en zombies, selon des chercheurs. Une transformation digne des pires scénarios de science-fiction. Il s'agit en réalité d'un parasite qui conduit les abeilles domestiques à quitter leur ruche, les désoriente et provoque leur mort. Ce qui expliquerait leur disparition massive. Et c'est précisément la menace de la disparition des abeilles qui ramène, une nouvelle fois, au scénario de fin du monde. (...) Einstein ne disait-il pas que si l'abeille disparaissait de la surface de la Terre, l'homme n'aurait plus que quelques années à vivre ? Reste que la surmortalité de l'abeille domestique inquiète. Car les menaces se multiplient. Olivier Belval, apiculteur dans le sud de l'Ardèche et président de l'Unaf, se souvient : «Lorsque j'étais enfant, mon père me disait qu'à partir de 5% de destruction, il fallait se poser des questions.» La moyenne nationale est montée à près de 30%.(1)
Yves Leconte, directeur de recherche à l'Inra, ne va pas jusqu'à prévoir l'apocalypse du fait de la disparition des abeilles: «Justement parce que, même si elle est très critiquable, elle contient un fond de vérité. Ainsi, «80% des plantes à fleurs sont pollinisées par l'animal et les abeilles sont considérées comme les meilleurs pollinisateurs», explique Axel Decourtye. Au total, souligne Yves Leconte, «30% de ce qui est dans nos assiettes est lié à la pollinisation». «sans elle, les rendements sont bien moindres et les fruits de moins bonne qualité», selon Axel Decourtye. Et, surtout, il faudrait trouver des mesures compensatoires aux coûts exorbitants. Un exemple frappant: sur les contreforts de l'Himalaya, l'espèce sauvage qui pollinisait les pommiers a disparu. Alors les Chinois le font à la main. Ou, plutôt, au plumeau. D'autres ont tenté de polliniser des amandiers par la force du vent provoqué par les pales d'un hélicoptère. Raté». (1)
Qu'en est-il justement de la fin du monde ?
Le monde, dit-on, est traversé en ce début 2012 de turbulence mettant en jeu une nouvelle division des communautés humaines, en futures esclaves et oligarchies conquérantes. D'aucun s'émeuvent de ce chaos dont les prémices ont commencé en 1947. Pour mesurer le danger, des savants ont proposé une horloge. «L'horloge de la fin du monde» est une horloge conceptuelle sur laquelle «minuit» représente la fin du monde. Elle est régulièrement mise à jour depuis, par les directeurs du Bulletin des scientifiques atomistes, basé à l'Université de Chicago (18 prix Nobel). L'horloge utilise donc l'analogie du décompte vers minuit pour dénoncer le danger qui pèse sur l'Humanité du fait des menaces nucléaires, écologiques et techniques. Également baptisée horloge de l'Apocalypse, elle indique, depuis le 11 janvier 2012, minuit moins cinq (23:55). Justifié par les dangers clairs et imminents de prolifération nucléaire et de changement climatique ainsi que la nécessité de trouver des sources d'énergie sûres et durables. À l'origine, cette horloge représentait la possibilité d'une guerre nucléaire mondiale, en soulignant la menace liée à la prolifération des armes nucléaires ».(2)
« Mais par la suite, elle a pris en considération les perturbations dues au changement climatique, les problèmes liés aux hydrocarbures (pic pétrolier, géopolitique du pétrole) ou encore les risques liés aux nouvelles technologies (nanotechnologie, biotechnologie, etc.). Lawrence Krauss, co-président de l'association et professeur de physique à l'Université d'Arizona (sud-ouest), a évoqué, pour justifier ce 19e ajustement depuis sa création, «les dangers clairs et imminents de prolifération nucléaire et de changement climatique ainsi que la nécessité de trouver des sources d'énergie sûres et durables». Il a estimé que les «dirigeants de la planète font preuve d'inaction face aux problèmes essentiels que sont le changement climatique et la montée des tensions internationales (2)
´´La fin du monde, écrit Marina Rafenberg, n'est pourtant pas une invention des internautes ou des scénaristes. Ni des Mayas, du reste. Dans le Nouveau Testament, l'apôtre saint Jean prédisait déjà l'apocalypse avant le retour du Christ sur terre. Certains adeptes actuels de la fin du monde s'en inspirent mais oublient que l'histoire, cette fois, se termine bien: l'humanité est sauvée par Dieu! Au XVe siècle, Nostradamus, célèbre astrologue de la Renaissance, a continué de fasciner de nombreux disciples avec ses Centuries, quatrains qui auraient prévu, selon les interprétations, la mort d'Henri II, l'ascension au pouvoir de Napoléon ou encore les bombardements atomiques sur Hiroshima et Nagasaki. Que dire, enfin, des mouvements chrétiens millénaristes, comme celui des témoins de Jéhovah, qui, eux aussi, prédisent régulièrement la fin du monde? Un argument devrait pourtant suffire à nous rassurer: 183 annonces majeures de fin du monde ont été recensées depuis la chute de l'Empire romain. Et l'Homme est toujours là...» (3)
« A l'échelle d'une vie humaine, il est difficile de concevoir que notre planète puisse être soumise à des stades d'évolution s'étalant sur plusieurs dizaines de milliers ou de millions d'années. (...) La probabilité que notre planète soit, régulièrement, le théâtre d'un grand cataclysme est plus importante, au fur et à mesure que les preuves scientifiques s'accumulent. Sommes-nous de nouveau à l'aube d'un grand bouleversement terrestre, annonciateur d'un nouveau cycle géologique et climatique, qui pourrait modifier, pour des milliers d'années, la façon de vivre sur Terre? (...) Dans la pensée collective, les images effroyables d'une Apocalypse relèvent, uniquement, de la mythologie et des légendes. Des forces terrifiantes capables de dévier l'axe des pôles, ou de transformer, en un instant, les mers en continents et les terres en océans, ont, longtemps, été considérées comme des fantasmes de scientifiques un peu trop catastrophistes. Peut-être parce que de telles visions, si elles venaient à se matérialiser, seraient insupportables au regard de l'Homme? Toujours est-il que les découvertes archéologiques, paléontologiques et géologiques modernes tendent vers l'hypothèse, de plus en plus cohérente, que la Terre a, déjà, subi plusieurs «traumatismes» d'une violence inimaginable, et qu'elle en subira d'autres...» (4)
Le « jugement dernier », version américaine
Peter Dale Scott nous dit que le concept de jugement dernier est aussi repris par un plan secret aux Etats-Unis. Une sorte de cabinet de l'ombre qui est derrière tous les grands évènements. Nous l'écoutons: «(...) Cette force obscure a fonctionné depuis au moins cinq décennies en marge de l'État public. Le Projet «Jugement dernier» (Doomsday Project). C'est le nom donné par le département de la Défense aux planifications d'urgence visant «à assurer le fonctionnement de la Maison-Blanche et du Pentagone pendant et après une guerre nucléaire, ou toute autre crise majeure. (...) De manière plus explicite, cette planification a été un facteur majeur derrière les trois phénomènes préoccupants qui menacent aujourd'hui la démocratie états-unienne. Le premier d'entre eux a été la conversion de notre économie en une «plouto-nomie», une économie à visée ploutocratique, marquée par une scission grandissante des États-Unis en deux classes - les nantis et les défavorisés, les «1%» et les «99%». Le second phénomène est la militarisation croissante des États-Unis, et principalement sa tendance à mener ou à provoquer des guerres dans des régions lointaines, ce qui est devenu de plus en plus courant et prévisible. Le troisième phénomène, est l'influence considérable des événements profonds structurels sur l'Histoire des États-Unis, une influence de plus en plus néfaste: des événements mystérieux, (comme l'assassinat de JFK, l'effraction du Watergate ou le 11-Septembre, qui affectent brutalement la structure sociale états-unienne), ont un impact majeur sur la société de ce pays. Par ailleurs, ils impliquent constamment des actes criminels ou violents. Enfin, bien souvent, ils sont générés par une force obscure inconnue». (5)
Dans le même ordre d'une guerre imminente, Maxime Chaix, pour sa part, met en évidence la bataille sans merci livrée sur le plan financier par les Etats-Unis à l'Europe. «(...) La guerre psychologique menée contre l'Europe par les «officines» anglo-saxonnes et leurs relais médiatiques et spéculatifs monte en intensité, l'Euroland étant ciblé dans son ensemble. Pourtant, de l'autre côté de l'océan Atlantique, les États-Unis - qui, malgré leurs difficultés structurelles, restent la première puissance mondiale sur le plan financier, militaire, culturel et économique - affichent un endettement national de plus de 15.000 milliards de dollars US. Dans ce contexte, les généraux du Pentagone, qui représentent l'omnipuissant complexe militaro-financier-énergétique des États-Unis, ne peuvent accepter la politique d'abandon du dollar comme monnaie d'échanges pétroliers qui est menée par l'Iran, en ce qu'elle constitue par essence une menace vitale contre le système des pétrodollars. (...) Aujourd'hui, les États-Unis mènent à l'égard de l'Iran une guerre économique totale, accompagnée de mouvements militaires à grande échelle (...)» (6)
Où va l'humanité ?
Dans un Appel à un ressaisissement de l'homme, Fidel Castro décrit les causes possibles de «fin du Monde»: «Je prétends, écrit-il, juste me situer au point de départ actuel de notre espèce pour parler de la marche à l'abîme.(...) L'idée d'un jugement dernier apparaît implicitement dans les doctrines religieuses les plus pratiquées parmi les habitants de notre planète, que nul ne qualifie pour autant de pessimistes. (...) De nombreux périls nous menacent, mais deux d'entre eux, la guerre nucléaire et les changements climatiques, sont décisifs et leur solution ne cesse de s'éloigner toujours plus. (...) On parle de plus en plus fréquemment de technologies militaires pouvant toucher la totalité de notre planète, le seul satellite habitable connu à des centaines d'années-lumière à la ronde, à moins qu'un autre ne nous soit accessible si nous nous déplaçons à la vitesse de la lumière, soit trois cent mille kilomètres par seconde. (...) À aucune autre époque de son histoire, l'humanité n'a connu les périls actuels. (...) On dénombre aujourd'hui plus de vingt mille ogives nucléaires, entre celles qui sont entreposées dans les dépôts et celles qui sont déjà déployées en vertu d'accords. Il en suffirait d'une centaine pour provoquer un hiver nucléaire qui infligerait en peu de temps une mort épouvantable à tous les êtres humains, comme l'a expliqué brillamment, à partir de données informatiques, Alan Robock, scientifique et professeur à l'Université de Rugers, dans le New Jersey» (7)
«(...)Le réalisateur français, Yann Arthus-Bertrand a, dans un documentaire datant de mi-2009, alerté le monde de ce qu'il advenait à partir de données irréfutables. Se fondant sur des arguments solides, il a exposé les conséquences néfastes qu'impliquait le fait de consommer en moins de deux siècles les ressources énergétiques créées par la nature durant des centaines de millions d'années: «Tu bénéficies de l'héritage fabuleux de quatre milliards d'années que t'a légué la Terre. Et toi, en seulement deux cent mille, tu as changé la face du monde.» (7)
Est-ce la fin du Monde ou la fin du Monde de la boulimie débridée
Cette fin du Monde est elle plus vraisemblablement la fin d'un Monde ? Nous ne pouvons pas invoquer le fait que l'on ne savait pas que la Terre va mal . Déjà en 1972, une équipe de chercheurs du Massachussetts Institute of Technology (ou MIT) à la demande du Club de Rome. Le rapport Meadows (le nom du directeur de l'équipe de recherche Dennis Meadows), présentait les principaux résultats du travail. Pour Jean Marc Jankovici il n'y a nulle trace d'une telle prévision sur la pénurie de pétrole en l'an 2000 dans ce rapport Meadows ! Ce rapport n'a pas "prédit" la fin du pétrole en 2000. Sa seule conclusion forte est que la croissance matérielle perpétuelle conduira tôt ou tard à un "effondrement" du monde qui nous entoure, et que, même en étant très optimiste sur les capacités technologiques à venir, l'aptitude à recycler ou à économiser les matières premières que nous consommons, le contrôle de la pollution, ou encore le niveau des ressources naturelles , l'effondrement se produit avant 2100. Par "effondrement" il ne faut pas entendre la fin de l'humanité, mais la diminution brutale de la population accompagnée d'une dégradation significative des conditions de vie (baisse importante du produit industriel par tête, du quota alimentaire par tête, etc) de la fraction survivante. Pour parvenir à cette conclusion d'un "effondrement" probable, qui certes n'est pas anodine, les chercheurs ont fait ce qui se pratique dans bien des domaines : ils ont réalisé un modèle mathématique, outil désormais incontournable dès lors que l'on veut tenter de cerner l'évolution future d'un système complexe (8)
Le grand agronome, Pierre Rabhi, ne cesse de sillonner la planète et de répandre çà et là la bonne parole quant à la nécessité justement de déconnecter la boulimie énergétique d'une façon de vivre respectueuse de la Nature et de l'Homme .
Dans une interview remarquable , il donne sa vision de l'avenir: «Plus que jamais, nous sommes dans une véritable impasse. Ce n'est pas la première fois que l'homme se trouve face à des impasses. Mais, du fait de la mondialisation, c'est la première fois que cette impasse est généralisée. C'est l'humanité tout entière qui est invitée à se concerter pour imaginer l'avenir. Ce qui se passe est sans précédent dans l'Histoire. Tout est parti de l'idée que l'homme pouvait modifier le cours de l'Histoire. Plutôt que de rester à sa place, il a voulu s'élever au rang d'un démiurge. (...) Malheureusement, la conscience collective n'a pas atteint le niveau de lucidité suffisant pour voir l'ensemble des phénomènes et se définir de nouveaux objectifs. Nous vivons encore dans l'illusion selon laquelle l'être humain va redresser la situation. Politiquement, nous faisons de l'acharnement thérapeutique sur un modèle moribond. Il est dans cet état parce qu'il est en dissonance et en contradiction avec les lois fondamentales de la vie.(...) Les religions ont une grande responsabilité pour avoir instauré l'homme prince de la création. Les Peaux-Rouges ne disent pas: «La Terre nous appartient.» Ils disent: «Nous appartenons à la Terre.» (...) Le modèle que l'on disait triomphant est en train de se déliter lamentablement. La peur du lendemain ne cesse de grandir. (...) Quand je suis en Afrique, dans des villages reculés, je vois des gens qui n'arrêtent pas de danser. Ils se retrouvent le soir autour du feu pour bavarder au milieu des éclats de rire. On a l'impression qu'ils goûtent chaque instant de la vie comme s'il était précieux.» (9)
« Quand je voyage dans le monde prospère poursuit Pierre Rabhi , je vois des gens préoccupés d'avaler des cachets pour lutter contre le stress, l'angoisse, etc. Le drame du monde moderne, c'est que l'indispensable n'est pas garanti et le superflu n'a pas de limite. Qu'est-ce qui ruine la planète? Ce n'est certainement pas la nécessité (...) Tant que l'on continuera à donner à l'argent plus d'importance qu'au destin collectif et à la nature, nous resterons dans ces niaiseries-là. (...) Souvent je dis aux gens: prenez simplement une graine de tomate, regardez-la bien, réfléchissez, méditez. Dans cette simple graine, il y a des tonnes de tomates. C'est prodigieux. Comment peut-on justifier l'existence de la faim dans le monde? (...) Le monde de demain est en gestation. Au lieu de dire: ce sont des marginaux, il faut que ceux qui détiennent l'autorité considèrent enfin que ce sont eux les créateurs, et pas les modèles asservis à l'argent». (9)
Tout est dit. Il n'y aura pas fin du monde si on réhabilite les valeurs qui font de la dignité humaine déclinée sous toutes ses dimensions l'alpha et l'oméga de notre passage sur Terre.
Notes
1 Lucie Soullier: La disparition des abeilles-annonce-t-elle la fin du monde? L'Expresse.fr 04/01/2012
Commission Energie 2050 : l'Etat conforté dans ses choix
Alors que le rapport de la Commission Energie 2050 est attendu pour le 13 février, le ministère de l'Energie en a déjà retiré quelques "enseignements". Enseignements qui vont dans le sens de la politique actuelle favorable à l'énergie nucléaire.
Le ministère de l'Economie, des Finances et de l'Industrie a publié le 9 février les premières conclusions de la Commission Energie 2050 installée en octobre 2011. Chargée de mener une analyse des différents scénarios possibles de politique énergétique pour la France à l'horizon 2050, cette commission devrait rendre son rapport définitif le 13 février prochain. Mais le ministre de l'Energie Eric Besson a semble-t-il déjà tiré ses conclusions : "La politique énergétique du Gouvernement, assise sur l'efficacité énergétique, le développement des énergies renouvelables et le maintien d'un socle nucléaire toujours plus sûr et plus transparent, est la bonne politique", peut-on lire dans le document du ministère.
Le ministre estime que le Grenelle de l'Environnement doit être poursuivi notamment en mobilisant la R&D et l'innovation dans les secteurs du bâtiment et des transports. Le développement des énergies renouvelables n'est pas remis en cause mais il doit avoir deux objectifs majeurs selon le ministère de l'Energie : la création d'emplois industriels en France et l'atteinte de la compétitivité par rapport aux autres sources d'énergie. "Les emplois créés par les filières des énergies renouvelables ne seront réellement des emplois créés qu'à la condition que les coûts des filières renouvelables rejoignent ceux des autres filières", prévient le ministère.
Maintien du processus de prolongation des centrales au-delà de 40 ans
Le Gouvernement avance à nouveau les arguments de coût et d'émissions de CO2 pour choisir de prolonger le parc nucléaire. "Fermer tout ou partie du parc nucléaire français (…) reviendrait à détruire l'investissement des Français et l'avantage qu'ils en retirent, qu'il s'agisse des prix de l'électricité, de notre sécurité d'approvisionnement ou de nos émissions de gaz à effet de serre". En revanche, l'emploi n'est pas une variable clef puisque la composition du mix électrique ne devrait se traduire que par des variations de quelques milliers d'emplois, voire dizaines de milliers, dans le secteur de la production d'électricité selon le pré-rapport. D'après la Commission Energie 2050, réduire la part du nucléaire à l'horizon 2020 ou 2025 nécessiterait des décisions politiques "lourdes" dans le prochain quinquennat, notamment à court terme la fermeture de réacteurs nucléaires et le lancement d'"investissements considérables" pour les remplacer. Des décisions que ne souhaite pas prendre le gouvernement actuel en raison de la "crise financière profonde".
Bercy demande par conséquent à EDF de poursuivre le travail engagé avec l'Autorité de Sureté Nucléaire (ASN) pour préparer les premières réponses attendues pour 2015 sur la possibilité de prolonger le parc au-delà de 40 ans. "Le moment de décider des moyens, nucléaires ou non, qui remplaceront les réacteurs nucléaires actuels n'est pas venu", explique la Commission. Si en 2015 les avis de l'ASN sont favorables, la question du remplacement des réacteurs actuels ne se posera qu'à partir de 2025. C'est d'ailleurs pour prendre en compte ces échéances que la prochaine programmation pluriannuelle des investissements de production électrique, à élaborer d'ici 2013, portera à l'horizon 2030.
Relance du projet d'EPR à Penly
Même si le parc nucléaire est maintenu, Eric Besson estime que "l'intérêt de la poursuite du projet d'EPR à Penly est confirmé", et permettra de "disposer de marges de manoeuvre pour garantir l'approvisionnement sûr tout en préservant la capacité à prendre toute décision relative à la sûreté du parc."
Le projet d'EPR de Penly (Seine-Maritime) est le deuxième d'EDF avec celui de Flamanville. Sa mise en service est désormais prévue pour 2016 après avoir été reportée de quatre ans. L'enquête publique sur le projet a été reportée en octobre dernier. Elle devrait désormais avoir lieu en 2012.
Une "déclaration d'amour au nucléaire" selon le RAC
Les prises de positions du Gouvernement sur le futur énergétique de la France n'étonnent pas le Réseau Action Climat (RAC) qui n'y voit que le résultat d'une réflexion menée par des "personnalités qualifiées largement acquises à la cause nucléaire". L'association critique également les chiffres utilisés et le manque de recul et de globalité de l'analyse. "Le rapport Besson propage sans aucun recul le cliché mensonger d'un nucléaire bon pour le climat. C'est oublier que, de l'extraction de l'uranium à la construction des centrales en passant par la fabrication du combustible, l'industrie du nucléaire émet des quantités non négligeables de gaz à effet de serre."
Un projet de rapport de la Commission Energie 2050 publié par le journal Médiapart fin janvier avait déjà essuyé de vives critiques notamment de la part de deux spécialistes de Global Chance qui qualifiaient l'exercice de "médiocre (…), biaisé par des erreurs factuelles, des non dits, des hypothèses implicites et des omissions majeures, sans aucune analyse de cohérence, ni aucun recul par rapport aux études analysée".
Une résolution en faveur du nucléaire au Sénat
Du fait de l'abstention des radicaux de gauche, le Sénat a adopté, jeudi 9 février, la proposition de résolution de Jean-Claude Gaudin (UMP) relative à la filière industrielle nucléaire française. Cette résolution "met en garde contre toute déstabilisation brutale de la filière au risque notamment de préjudicier à la sûreté nucléaire".
Dans son exposé des motifs le sénateur s'inquiète de voir le consensus politique entre la droite et la gauche dont fait l'objet ce sujet depuis plus de 65 ans être remis en cause : "nous considérons qu'une vraie réflexion sur la diversification de notre production d'électricité est nécessaire (…) mais cette réflexion ne doit pas remettre en cause la modernisation de notre parc nucléaire et son développement à l'international".
Nucléaire : l'impact des rejets de tritium est faible selon l'ASN
L'ASN publie le premier bilan annuel des rejets de tritium par les installations nucléaires de base. Un impact global faible selon le gendarme du nucléaire.
Lors de la publication de son Livre blanc sur le tritium en juillet 2010, l'Autorité de sûreté nucléaire (ASN) avait annoncé la publication annuelle d'un inventaire des rejets liquides et gazeux de tritium émis par les installations nucléaires de base (INB). Le premier bilan a été rendu public le 8 février.
Des interrogations sur le comportement du tritium
Fin 2007, des publications avaient suscité des interrogations "sur le comportement du tritium dans l'environnement et sur les modalités d'évaluation de l'impact biologique du tritium sur l'homme", rappelle l'Autorité. Le rapport RIFE 11 des agences environnementales et sanitaires britanniques avait mis en évidence des concentrations de tritium sous forme organique dans des organismes marins au voisinage de Sellafield supérieures aux teneurs en tritium de l'eau de mer. Le rapport britannique AGIR de l'Health Protection Agency de novembre 2007 avait par ailleurs pris position pour une réévaluation du facteur de pondération du tritium dans le calcul des doses efficaces. Parallèlement, l'ASN avait constaté que le développement de projets de nouvelles installations (EPR, ITER) et l'évolution des modes de gestion des combustibles nucléaires conduisaient tous deux à une augmentation des rejets de tritium.
Dans ce contexte, le directeur de l'ASN, Jean-Christophe Niel, avait créé début 2008 deux groupes de réflexions. La publication de l'inventaire fait partie du plan d'actions fondé sur la synthèse des travaux de ces deux groupes, qui avaient conclu à une possible sous-estimation des risques liés au tritium.
Un faible impact global
L'inventaire est accessible sur le site Internet du Livre blanc de l'ASN. "Une carte interactive permet l'affichage d'une fiche par installation nucléaire", précise l'Autorité. Les fiches présentent, pour chaque installation, le bilan des rejets de tritium depuis 2006, l'impact dosimétrique du site et la contribution de l'impact du tritium à l'impact global.
"L'impact global des rejets de tritium en France est faible : la dose efficace annuelle pour les groupes de référence est de l'ordre du centième de mSv", conclut l'ASN. Sachant que, toutes expositions confondues, un individu reçoit en France "une dose annuelle moyenne de l'ordre de 3,3 mSv".
Pourtant, les rejets non autorisés de tritium défrayent régulièrement la chronique, comme ceux de la centrale de Golfech en janvier 2010 ou encore ceux de la centrale de Civaux le mois dernier.
Tritium
Le tritium est un isotope de l'hydrogène, émetteur bêta de faible énergie (énergie moyenne de 5,7 keV). La forme majoritaire dans la biosphère est l'eau tritiée et la voie prépondérante d'exposition est l'ingestion. C'est un élément de faible radiotoxicité, indique l'ASN.
Giec : les climatologues français présentent leurs résultats
Les résultats des modèles climatiques confirment les projections passées. Si la stabilisation de la hausse des températures à 2°C semble difficile, le pire n'est pas certain. Ces résultats apportent aussi de nouvelles réponses à court et long termes.
Jeudi 9 février 2012, le Centre national de la recherche scientifique (CNRS) a présenté les grandes lignes des dernières simulations climatiques françaises destinées au cinquième rapport d'évaluation (AR5) du Groupe d'experts intergouvernemental sur l'évolution du climat (Giec). Ces résultats devraient être pris en compte dans le cadre de l'"état des lieux critique" réalisé par le Giec en vue de la publication en trois parties de l'AR5 en 2013 et 2014, a indiqué Jean Jouzel, chercheur au Laboratoire des sciences du climat et de l'environnement (LSCE) et membre du bureau du Giec.
Les travaux présentés s'inscrivent dans le cadre du Projet d'intercomparaison de modèles climatiques (CMIP-5, pour Coupled model intercomparison project) qui définit les simulations utiles au Giec. Les simulations retenues pour cet exercice concernent par exemple l'évolution passée du climat depuis 150 ans ou les projections climatiques pour les 30, 100 ou 300 prochaines années selon différents scénarios d'émissions de gaz effet de serre (GES).
Confirmation des prévisions pour 2100
Les résultats obtenus à partir des deux modèles français ne bouleversent fondamentalement les connaissances précédemment acquises.
En premier lieu, "en accord avec les conclusions du GIEC en 2007, une tendance à l'augmentation des températures est observée à l'horizon 2100 pour tous les scénarios", indique le CNRS, précisant qu'"elle est plus ou moins marquée selon le scénario considéré : la hausse est de 3,5 à 5°C [par rapport à la moyenne constatée sur la période 1971-2000] pour le scénario le plus sévère, de 2°C pour le plus optimiste". Des résultats conformes à ceux présentés en 2007 dans le précédent rapport du Giec qui estimait, à partir d'un nombre plus important de modèles, que la hausse des températures en 2100 serait comprise entre 1,1 et 6,4°C, par rapport à l'ère préindustrielle.
Réduction du domaine des possibles
Le scénario le plus optimiste correspond peu ou prou à l'objectif fixé lors de la conférence de Copenhague (Danemark) en 2009 qui visait une hausse maximale de 2°C de la température moyenne de la Terre d'ici 2100 par rapport à l'ère préindustrielle. Reste que "pour y arriver, il faudrait une action gigantesque qui commencerait dès demain", prévient Stéphane Hallegatte, ingénieur Météo-France et chercheur au Centre international de recherche sur l'environnement et le développement (Cired). Une action qui, pour atteindre des niveaux d'émissions de GES négatifs, combinerait une baisse drastique des émissions et une politique efficace d'usage des sols passant, par exemple, par la plantation de forêts pour séquestrer le carbone. Une stratégie qui soulève des questions : "faut-il planter l'Amazonie d'arbres destinés aux agrocarburants ?", s'interroge Stéphane Hallegatte, évoquant des questions environnementales telles que l'atteinte à la biodiversité.
Le scénario RCP8,5, le plus pessimiste des quatre, est lui aussi soumis à des impératifs qui ne sont pas forcément réalistes. Ici, il est surtout question du volume global des émissions qu'il implique, puisque, toujours selon Stéphane Hallegatte, les réserves actuellement prouvées de charbon ne sont pas suffisantes pour les générer. En effet, ce scénario implique que les émissions annuelles de GES continueraient à croitre fortement jusqu'à 2100, pour former un plateau à un environ 27,5 milliards de tonnes de carbone (GtC) entre 2100 et 2150. Ces mêmes émissions sont évaluées à environ 7,5 GtC par an aujourd'hui.
Nouvelles perspectives temporelles
A long terme, les scientifiques ont fait tourner leurs modèles jusqu'en 2300. Alors que les travaux utilisés pour l'AR4 considéraient une stabilisation climatique au-delà de 2100, cet exercice apporte un nouvel éclairage. Pour le scénario le plus optimiste, la température moyenne mondiale se stabiliserait au delà de 2100 et commencerait une très lente baisse. En 2300 la hausse serait contenue à moins de 2°C. Par contre le scénario le plus pessimiste fait apparaître un prolongement de la hausse de la température moyenne mondiale. Celle-ci pourrait encore doubler par rapport à la hausse annoncée par ce scénario au cours du XXIème siècle pour atteindre 10 à 12°C.
A l'opposé, les chercheurs ont aussi travaillé sur de nouvelles prévisions à court terme, c'est à dire spécifique à la période 2010-2040 par pas de dix ans. Une prévision décennale qui "correspond à un besoin souvent exprimé par les décideurs politiques ou économiques", rappelle le CNRS. Toute la difficulté de l'exercice réside dans la combinaison de la tendance de long terme et de la variation interne naturelle qui se caractérise par les écarts enregistrés d'une année à l'autre. Paradoxalement, "il est plus difficile de faire des prévision décennales qu'à l'horizon 2100", explique Christophe Cassou, chargé de recherche CNRS au Centre européen de recherche et de formation avancée en calcul scientifique (Cerfacs). Des difficultés illustrées par les résultats des calculs : les simulations effectuées sur la période 1960-2010 reproduisent plutôt mal la réalité constatée, en particulier à l'échelle régionale par rapport à l'échelle planétaire ainsi que sur les continents par rapport aux océans. "Notre capacité prévisionnelle est assez faible", regrette le chercheur du Cerfacs, déplorant la "faible prévisibilité au delà de 3 ou 4 ans". Et de conclure : "c'est une première qui reste du domaine de la recherche fondamentale". Tout l'enjeu du prochain rapport du Giec sera donc de présenter ces résultats tout en soulignant les fortes incertitudes les entourant…
Environnement : Quel avenir climatique pour 2100 ?
Les scientifiques français ont dévoilé jeudi de nouveaux scénarios, plus ou moins pessimistes, quant à l’évolution du climat mondial.
Alors que les escargots africains infestent Miami et les températures battent des records de froid en ce moment en Europe, on en vient à se demander ce que nous réserve l’avenir en matière de climat. Climat sur lequel les scientifiques français se sont récemment penchés. Ils ont en effet présenté de nouvelles simulations sur l’évolution du climat d’ici 2100 ce jeudi, lors d'une conférence de presse.
Ce qui nous attend ?
Une hausse des températures entre 2°C et 5°C au niveau mondial par rapport aux années 1850, en fonction du niveau d’émissions de gaz à effet de serre. Ce qui confirme les prévisions émises en 2007. Et si la communauté mondiale espère se limiter à une hausse de 2°C, il va falloir prendre des mesures drastiques car le thermomètre mondial en aurait déjà presque pris un.
Les chercheurs du CNRS, du Commissariat à l'énergie atomique (CEA) et de Météo France ont d’ailleurs établi quatre nouveaux scénarios autour de cette évolution climatique. "Ces quatre scénarios reposent sur la perturbation que l'homme fait sur le climat, principalement par les émissions de gaz à effet de serre et les aérosols et par la modification de l'occupation des sols. (…) Se placer sur l'un ou l'autre de ces scénarios correspond à avoir le 'droit' d'émettre plus ou moins de CO2 dans les décennies et les siècles à venir", a expliqué à ce sujet Stéphane Hallegatte, ingénieur Météo France, chercheur au Centre international de recherche sur l'environnement et le développement, cité par lemonde.fr. Le prochain rapport du Giec (Groupe d'experts sur l'évolution du climat), attendu pour 2013-2014, devrait permettre d’affiner encore un peu ces prévisions.
Haïti - Environnement Encadrement environnemental du Parc industriel du Nord
Contribuer à la mise en place du Parc industriel du Nord (Caracol), respectueux de l’environnement, était cette semaine au cœur d’une réunion à l’Hôtel Montana, à l’initiative du Ministre de l’environnement, Joseph Ronald Toussaint.
Était présent à cette rencontre de haut niveau, les représentants du Programme des Nations Unies pour le Développement (PNUD) de l’Agence américaine pour le développement international (USAID), de la Banque Interaméricaine de Développement (BID), du Fonds pour l’Environnement Mondial (FEM) et des bailleurs de fonds. Mobiliser le financement nécessaire et explorer les voies et moyens permettant de concilier les intérêts économiques et ceux du patrimoine naturel de la région était les objectifs de cette réunion.
Avec l’implantation de ce Parc industriel, la zone risque de recevoir un important flux migratoire [près de 60,000 emplois] a rappelé le Ministre qui a souligné l’importance, de disposer d'un encadrement environnemental approprié, afin d’éviter des impacts négatifs sur le capital naturel et culturel du département du Nord-Est [mangroves et Coraux qui s’étendent de Caracol à Fort-Liberté, sites historiques de Fort-Liberté et les sites précolombiens de Limonade] et de la nécessité de financer un plan stratégique environnemental, de façon à anticiper la destruction de certaines richesses naturelles de la région. Le ministère de l’environnement a fait état de plusieurs dispositions telles la création d’un parc marin protégé [création du parc des Trois Baies et des Lagons aux Bœufs], l’élaboration d’un schéma d’aménagement du territoire et la mise en place d’un programme de gestion durable du bassin versant de Trou du Nord.
Les représentants des organismes internationaux présents ont salué l’initiative et se sont engagés à la supporter. Marc-André Franche, le Représentant du PNUD a reconnu que la construction de ce Parc Industriel posait d'importants défis environnementaux et annoncé que son programme, s’engageait à supporter ce plan, tant au niveau administratif que financier.
Plus de 50 millions de dollars américains seront nécessaires à la réalisation de ce plan environnemental. Toutefois, comme l'a souligné le Ministre de l’environnement, seulement 4,1 millions ont été identifiés jusqu’à présent.
Comment freiner la prolifération du charançon rouge et protéger les palmiers?
Plus le temps passe, et plus les palmiers seront en danger sur notre littoral à cause du charançon rouge. Beaucoup attendent l'autorisation ministérielle pour l'application d'une nouvelle méthode, l'endothérapie. Pour l'instant cette méthode est encore interdite en France.
Le charançon rouge n'a pas fini de faire des ravages.
Le charançon rouge du palmier ou Rhynchophorus ferrugineus est un coléoptère causant d’importants dégâts et pouvant entraîner une mortalité significative chez les palmiers. En France, il a été découvert en 2006 en Corse et dans le Var, en 2007 dans l’Hérault, les Pyrénées-Orientales et les Bouches du Rhône, en 2008 dans les Alpes-Maritimes. Depuis le 21 juillet 2010, un arrêté ministériel stipule notamment que "toute personne physique ou morale, publique ou privée, est tenue d’assurer une surveillance générale du fonds lui appartenant ou utilisé par elle et, en cas de présence ou de suspicion de présence de Rhynchophorus ferrugineus, d’en faire la déclaration, soit au service chargé de la protection des végétaux dans le département dont elle dépend, soit au maire de la commune de sa résidence qui en avise alors ce service".
En parallèle existe un arrêté préfectoral valable dans les départements du 06,13 et 83 permettant de définir un "périmètre de lutte", des "mesures de surveillance" ou des mesures de "lutte préventive". Des communes collaborent avec certaines structures: Sanary a une convention avec la "Fédération Régionale de Défense contre les Organismes Nuisibles (FREDON)" PACA qui accompagne, conseille, forme et livre de précieuses informations. Il s'agit d'une structure agréée par le Ministère de l’Agriculture reconnue officiellement à vocation sanitaire. Une salariée de l'antenne du Var à Cuers nous expliquait: "on sait que le charançon rouge a une préférence pour les phoenix canariensis et dactylifera mais rien ne nous permet d'affirmer qu'il ne s'attaquera pas à d'autres espèces".
Actuellement, à Sanary, on dénombre 150 phoenix canariensis, 185 dattiers et 502 Washingtonia: "pour l'instant 99% des palmiers ayant été touchés par le charançons sont des phoenix de canariensis" nous disait le responsable à l'environnement Christophe Ghigonetto. Et l'adjoint à l'environnement de nous rappeler l'historique sur Sanary: "le premier charançon rouge déclaré dans le Var était à Sanary, il s'agissait d'un palmier situé sur une propriété privée du côté de la Buge. Au départ on a commencé par l'abattage, mais cela s'est avéré trop onéreux. On a donc cherché d'autres méthodes. Actuellement on traite chaque mois les palmiers de la commune d'avril à octobre, avec une certaine efficacité et on a pu par exemple sauver le palmier devant la mairie". A Six-Fours la politique fut sensiblement la même avec, d'abord de l'abattage, puis une aide accordée aux particuliers pour éliminer le ravageur, mais encore une fois, l'opération allait s'avérer trop coûteuse dans la durée et sans certitude d'efficacité. Jean-Luc Granet nous disait: "on attend avec impatience la permission ministérielle de pratiquer l'endothérapie. On sera prêt à la mettre en oeuvre".
Il s'agit d'une méthode consistant à injecter des produits phytosanitaires dans le stipe du palmier. Cette méthode est autorisée dans de nombreux pays, mais encore interdite en France. Comme nous le rappelait une salariée de Fredon PACA: "actuellement il n'y aucun arrêté, aucun décret, rien d'écrit et de formel quant à l'autorisation de l'endotéhrapie. Cette méthode est donc toujours interdite. On est dans l'attente et on ne peut que se référer à l'arrêté ministériel de juillet 2010". Une délégation varoise s'était rendue en décembre au ministère de l'agriculture pour demander l'autorisation de mise en oeuvre de cette nouvelle méthode, mais aucune information écrite n'est venue encore valider un accord du ministère. Même si certains sont optimistes sur la probable autorisation de cette méthode, incessement sous peu, il faudra connaître dans les détails le protocole à mettre en euvre, et quelles seront les entreprises agrées.
Si l'on a bien saisi tous les enjeux, cette méthode offrirait plusieurs avantages: un moindre coût par rapport aux traitements actuels ou aux abattages, et une fréquence moindre d'intervention: peut-être deux par an: "je pense que si cette méthode est validée, les particuliers seront preneurs. Beaucoup sont dans l'attente et préoccupés car il faut savoir qu'un abattage coûte très cher, et que cette nouvelle méthode pourrait certainement être plus à la portée des particuliers" nous expliquait Christophe Ghigonetto.
Impossible de dire aujourd'hui si l'endothérapie sera la solution miracle: on en saura finalement plus le jour où elle sera autorisée...
Non, ça n’est pas une blague ! Les escargots marchent sur Miami ! Les riverains ne savent plus quoi faire pour s’en débarrasser…
Les chiffres sont éloquents : au total, 35.000 gastéropodes ont été capturés à Miami par les inspecteurs entre septembre dernier et le mois de janvier. Attention : il ne s’agit pas là des mignonnes petites bêtes que nous avons l'habitude de manger avec du beurre persillé, mais de vrais monstres gluants ! Car oui, ces escargots africains peuvent mesurer jusqu’à 20 cm, et leur coquille faire près de 10 centimètres de diamètre ! Aussi, ces escargots vivent longtemps, jusqu’à neuf, mais surtout, ils sont capables de pondre jusqu’à 1.200 oeufs par an et ainsi envahir un quartier en moins de deux !
Pourquoi posent-ils problème ?
Car ils détruisent l’agriculture de la région. "S’ils s’installaient pour de bon, ils pourraient dévaster l’agriculture de Floride", a révélé Mark Fagan, porte-parole du département de l’Agriculture de Floride. "L’agriculture est la deuxième activité économique après le tourisme ici". Quant à leur bave, très abondante (elle est proportionnelle à la taille), elle peut contenir un ver qui transmet une forme non mortelle de méningite !
Comment sont-ils arrivés jusqu’en Floride ?
Nul ne le sait. L’hypothèse de la pratique de plus en plus répandue de la religion afro-caribéenne, qui implique l’utilisation d’escargots, a été évoquée. Tout comme le fait que quelqu’un ait pu les faire venir comme animaux de compagnie pour ensuite les laisser s’échapper et s’accoupler par milliers. Une enquête a été ouverte. Et une cellule de crise a commencé l’extermination.
Les cowboys de l’environnement sont de passage en Europe
1 à 2 dollars par billet vendu reviennent à la lutte pour la protection de l’environnement
Les Cowboys Fringants ont remporté un grand succès lundi dernier à l’Olympia (Paris) et sont actuellement en tournée dans toute l’Europe. On retiendra d’eux des chansons endiablées, aux paroles acérées à l’encontre de la société québécoise mais aussi leur engagement en faveur de la protection de l’environnement.
« Tous les océans ont englouti les îles, et les inondations ont frappé les grandes villes. Et par la suite pendant une décennie, ce fut les ouragans et puis les incendies, les tremblements de terre et la grande sécheresse, partout sur les visages ont lisait la détresse… » Des paroles coup de poing caractéristiques du message que veut délivrer le groupe Les Cowboys Fringants. Dans cette chanson intitulée Plus rien, le chanteur se projette. Plus tard, il sera le dernier homme sur Terre. Et de relater les conséquences des activités humaines d’aujourd’hui sur la planète. Si le ton est dramatique et les paroles presque tragiques, on ne tombe pas pour autant dans le pathétique. L’idée n’est en effet pas d’affoler mais bien de sensibiliser, dans la bonne humeur et à travers des chansons entraînantes. Les concerts sont donc de véritables fêtes, au cours desquelles le public saute, chante et danse d’un bout à l’autre.
Constitué d’une femme et de trois hommes, le groupe québécois à la musique folk frôlant la country a d’ailleurs fait salle comble lundi dernier à l’Olympia. Actuellement en tournée européenne, il reviendra dans la célèbre salle de la capitale le 13 février prochain, avant de se diriger vers la Belgique. Très peu médiatisé au niveau national, le groupe s’est fait principalement connaître par le bouche à oreille et remporte aujourd’hui un grand succès dans de nombreux pays. C’est en 1995 que les deux principaux membres du groupe se sont rencontrés pour la première fois, avant que la carrière des Cowboys Fringants ne prenne une autre dimension dans le courant des années 2000.
Leur engagement environnemental ne réside cependant pas que dans leurs textes. Un à deux dollars par billet vendu lors des concerts au Québec reviennent en effet à l’association homonyme de défense de l’environnement qu’a créé le groupe. Son objectif principal est de « protéger les territoires à risque, tant au niveau des habitats que des espèces fauniques et floristiques menacées ». A travers leur fondation, Les Cowboys Fringants travaillent également à la réduction des émissions de gaz à effet de serre (GES) en procédant à des plantations d’arbres et en organisant des activités de sensibilisations lors de leurs concerts.
Le concept s'appelle EcoNuit. Imaginé par un hôtelier, un architecte et un designer, cet hôtel voisin des marais salants de Guérande fait rimer écologie avec économie.
"Je suis parti de deux interrogations : pourquoi la majorité des hôtels écologiques sont-ils haut de gamme ? Et pourquoi les hôtels économiques sont-ils si souvent impersonnels ?" Grégory Portner, directeur général de la société GHP - qui gère déjà trois hôtels 3 étoiles et une résidence - a imaginé le concept EcoNuit. Ouvert depuis l'été dernier à Guérande (44), cet hôtel 2 étoiles de 70 chambres mêle construction en béton cellulaire à très hautes performances énergétiques, panneaux photovoltaïques, récupérateurs d'eau de pluie, revêtements de sols recyclés et autres robinetteries thermostatiques dotées de mousseurs. Voilà pour l'aspect écologique. Et l'on dort dans cet hôtel à partir de 39 € la nuit seulement. "Si nous avions opté pour une structure en bois - hors de prix -, nous n'aurions pas pu proposer une telle offre, explique Grégory Portner. Mais avec la thermopierre, en terme de coût, le projet devenait viable ». Un chantier qu'il a mené avec la complicité de l'architecte guérandais Joël Gimbert, habitué à résoudre l'équation de "l'écologique économique", et du designer nantais Jean-Marie Guéno.
Ambiances colorées et fonctionnalité maximale Côté déco, l'hôtel s'articule autour de quatre ambiances différentes, à dominante verte, beige, taupe ou violette. Un parti pris de Jean-Marie Guéno, qui a également misé sur une fonctionnalité maximale. Le mobilier a été conçu sur mesure et l'hôtel intègre toutes les obligations en matière d'accessibilité des personnes à mobilité réduite.
"Nous avons dû faire quelques concessions malgré tout", nuance Grégory Portner. Le directeur de l'EcoNuit guérandais fait notamment allusion aux sommiers et matelas qui ne sont pas écologiques, "par souci de confort". Quant au petit-déjeuner, si les thés et café sont issus du commerce équitable et les yaourts en provenance d'une ferme guérandaise et le pain bio, les jus de fruits ne le sont pas, "car ce n'était pas viable en terme de prix". Chaque poste a donc été calculé au plus juste. Conséquence : le surcoût d'investissement, soit 18 % du coût de la construction - estimé à 3,2 M€ - sera amorti d'ici à 2018. Par ailleurs, dès 2011, 6 emplois directs et 4 indirects ont été créés. "Aujourd'hui, 10 à 15 % de nos clients viennent pour le concept, car ils ont l'habitude de séjourner dans des hôtels écologiques. Les autres sont attirés essentiellement par le prix, mais reconnaissent être agréablement surpris par le concept", constate Grégory Partner. Aussi s'apprête-t-il à dupliquer EcoNuit à Saint-Nazaire (44), Nantes (44) et Saint-Brévin (85) d'ici à 2013.
Eva Joly accuse l’Etat de faire disparaître les terres agricoles
Eva Joly et José Bové, vendredi, dans une exploitation agricole du Calvados.
La candidate Europe-Ecologie-les-Verts (EELV) à la présidentielle Eva Joly a accusé vendredi les Safer (société d’aménagement foncier et d’établissement rural), sous tutelle de l’Etat, de contribuer à la disparition des terres agricoles.
« La Safer, institution publique, se comporte comme n’importe quel spéculateur. Elle achète des terres agricoles pas chères […] et elle contacte des promoteurs pour faire un projet immobilier autrement plus rentable. Ce détournement de sa mission est proprement scandaleux », a déclaré Eva Joly lors d’un déplacement à Caen.
« Elle ne remplit plus sa mission de service public, qui est d’aider les jeunes agriculteurs à s’installer », a-t-elle ajouté, rappelant que tous les sept ans, l’équivalent de la surface moyenne d’un département français de terre agricole disparaît au profit de l’immobilier ou du loisir.
La candidate à la présidentielle visitait avec José Bové l’exploitation d’un couple d’agriculteurs à Bourgeauville (Calvados), qui a obtenu de la justice l’annulation de la vente d’un terrain agricole à un promoteur, qui avait un projet de golf. L’exploitation se trouve à 10 km de la côte.
Ouest-France
Invité
Sujet: Re: Actualités Dim 12 Fév - 14:11
Un réchauffement climatique de 2 à 5 °C d'ici 2100 se confirme
Des simulations climatiques établies par des scientifiques français, incluant les connaissances les plus récentes sur le climat, confirment que la hausse de la température de la planète devrait atteindre 2 à 5 °C en 2100, ont annoncé jeudi 9 février les organismes de recherche. En vue du prochain rapport du Groupe d'experts sur l'évolution du climat (GIEC), état des lieux de référence sur le changement climatique dont la prochaine édition sera publiée en 2013-2014, les chercheurs du CNRS, du Commissariat à l'énergie atomique (CEA) et de Météo France ont développé deux nouveaux modèles pour réduire toujours plus les incertitudes liées à la prédiction du climat.
Leur travail confirme les conclusions du dernier rapport, datant de 2007, c'est-à-dire "une tendance à l'augmentation des températures observée à l'horizon 2100 pour tous les scénarios", ont-ils indiqué lors d'une conférence de presse.
Le droit d'émettre plus ou moins de Co2
La hausse pourrait atteindre 3,5 °C à 5 °C dans le scénario le plus "pessimiste" des quatre modélisés par les climatologues et 2 °C environ pour le plus "optimiste", possible en cas de mesures fortes et rapides contre les gaz à effet de serre, à l'origine du changement climatique.
"Ces quatre scénarios reposent sur la perturbation que l'homme fait sur le climat, principalement par les émissions de gaz à effet de serre et les aérosols et par la modification de l'occupation des sols", a expliqué Stéphane Hallegatte, ingénieur Météo France, chercheur au Centre international de recherche sur l'environnement et le développement. "Se placer sur l'un ou l'autre de ces scénarios correspond à avoir le 'droit' d'émettre plus ou moins de CO2 dans les décennies et les siècles à venir", a-t-il expliqué.
Pour tenter de réduire les incertitudes, les scientifiques français ont veillé à ce que ces modèles intègrent de mieux en mieux des effets comme les échanges de CO2 entre les océans et l'atmosphère ou l'effet des nuages. Ce travail doit aussi constituer un premier pas pour améliorer la capacité à prévoir le climat dans le futur proche, dans les dix à trente ans, même si, dans ce domaine encore neuf, "cela reste un challenge", a reconnu Christophe Cassou, chargé de recherche au CNRS.
LeMonde.Fr
Invité
Sujet: Re: Actualités Dim 12 Fév - 14:15
Les premières plantes ont plongé la planète dans l’âge de glace
Les premières plantes à coloniser la Terre ne se sont pas contentées de donner un peu de couleur à un paysage terne. Elles ont aussi considérablement accéléré la décomposition naturelle des roches, rafraîchi l'atmosphère, provoqué une extinction massive de la vie océanique et surtout déclenché une ère glaciaire majeure. Ce sont les conclusions d'une nouvelle étude, publiée dans la revue Nature Geoscience mercredi 1er février.
Il faut retourner entre – 488 et – 444 millions d'années, au moment de l'Ordovicien. La concentration de CO2 dans l'atmosphère variait entre 14 et 22 fois le niveau actuel, et la température moyenne du globe était environ 5°C plus élevée qu'aujourd'hui. Les modèles climatiques suggèrent que les larges glaciations ne pouvaient avoir lieu à cette époque, sauf à voir les niveaux de CO2 chuter à environ 8 fois les taux actuels — l'effet des gaz à effet de serre sur le réchauffement planétaire était moindre à l'époque dans la mesure où l'activité solaire était 6 % plus faible qu'aujourd'hui.
Néanmoins, durant une période de dix millions d'années, survenue de manière soudaine il y a 460 millions d'années, la Terre a connu deux grandes glaciations. Une grande partie du supercontinent Gondwana, notamment des zones qui sont aujourd'hui en Afrique et en Amérique du Sud, a été couverte de glace, entraînant une extinction massive d'espèces qui avaient prospéré dans les mers peu profondes.
Selon l'étude de Nature, dirigée par Tim Lenton, géologue à l'université d'Exeter en Grande-Bretagne, la cause du déclenchement de ces glaciations serait à chercher du côté de l'évolution des plantes terrestres, qui auraient causé l'altération chimique de la surface de la Terre, modifiant le cycle global du carbone et par la suite le climat.
Les chercheurs ont modélisé la situation de l'époque, en recouvrant des roches de mousse et en les faisant incuber pendant trois mois. En grandissant, les plantes ont altéré les roches silicatées, comme le granite ou le basalte, et libéré des ions calcium et magnésium. Ces ions auraient alors réagi avec le carbone atmosphérique et auraient été précipités en roches carbonatées. Un autre processus parallèle et similaire aurait été à l'œuvre : les plantes auraient extrait le phosphore et le fer des roches, qui, une fois les mousses mortes, se seraient retrouvés dans la mer. Cette hausse des nutriments aurait alors alimenté la croissance du plancton, des organismes microscopiques qui séquestrent le carbone pendant leur croissance avant de finalement l'emporter sur le fond marin quand ils meurent, sous forme de roches.
Résultat: La concentration en CO2 dans l'atmosphère aurait chuté à environ 8,4 fois celle observée aujourd'hui (de 390 ppm), soit un taux suffisant pour déclencher une glaciation majeure.
"Notre découverte confirme que les plantes jouent un rôle central dans la régulation du climat. Elles l'ont fait hier, elles le font aujourd'hui, et elles le feront certainement à l'avenir", indique Liam Dolan, un membre de l'équipe. Toutefois, prévient Tim Lenton, les plantes ne pourront pas faire chuter de la même façon, aujourd'hui, les concentrations en carbone dans l'atmosphère : "Les plantes ne peuvent pas suivre le rythme des changements climatiques provoqués par l'homme aujourd'hui. Il leur faudrait des millions d'années pour absorber les émissions actuelles de carbone dans l'atmosphère."