« Les médisants ressemblent aux malheureux qui n'ont pas eu leur part d'événements et doivent mener aux dépens de leurs voisins une existence parasitaire. »
Les premières plantes ont plongé la planète dans l’âge de glace
Les premières plantes à coloniser la Terre ne se sont pas contentées de donner un peu de couleur à un paysage terne. Elles ont aussi considérablement accéléré la décomposition naturelle des roches, rafraîchi l'atmosphère, provoqué une extinction massive de la vie océanique et surtout déclenché une ère glaciaire majeure. Ce sont les conclusions d'une nouvelle étude, publiée dans la revue Nature Geoscience mercredi 1er février.
Il faut retourner entre – 488 et – 444 millions d'années, au moment de l'Ordovicien. La concentration de CO2 dans l'atmosphère variait entre 14 et 22 fois le niveau actuel, et la température moyenne du globe était environ 5°C plus élevée qu'aujourd'hui. Les modèles climatiques suggèrent que les larges glaciations ne pouvaient avoir lieu à cette époque, sauf à voir les niveaux de CO2 chuter à environ 8 fois les taux actuels — l'effet des gaz à effet de serre sur le réchauffement planétaire était moindre à l'époque dans la mesure où l'activité solaire était 6 % plus faible qu'aujourd'hui.
Néanmoins, durant une période de dix millions d'années, survenue de manière soudaine il y a 460 millions d'années, la Terre a connu deux grandes glaciations. Une grande partie du supercontinent Gondwana, notamment des zones qui sont aujourd'hui en Afrique et en Amérique du Sud, a été couverte de glace, entraînant une extinction massive d'espèces qui avaient prospéré dans les mers peu profondes.
Selon l'étude de Nature, dirigée par Tim Lenton, géologue à l'université d'Exeter en Grande-Bretagne, la cause du déclenchement de ces glaciations serait à chercher du côté de l'évolution des plantes terrestres, qui auraient causé l'altération chimique de la surface de la Terre, modifiant le cycle global du carbone et par la suite le climat.
Les chercheurs ont modélisé la situation de l'époque, en recouvrant des roches de mousse et en les faisant incuber pendant trois mois. En grandissant, les plantes ont altéré les roches silicatées, comme le granite ou le basalte, et libéré des ions calcium et magnésium. Ces ions auraient alors réagi avec le carbone atmosphérique et auraient été précipités en roches carbonatées. Un autre processus parallèle et similaire aurait été à l'œuvre : les plantes auraient extrait le phosphore et le fer des roches, qui, une fois les mousses mortes, se seraient retrouvés dans la mer. Cette hausse des nutriments aurait alors alimenté la croissance du plancton, des organismes microscopiques qui séquestrent le carbone pendant leur croissance avant de finalement l'emporter sur le fond marin quand ils meurent, sous forme de roches.
Résultat: La concentration en CO2 dans l'atmosphère aurait chuté à environ 8,4 fois celle observée aujourd'hui (de 390 ppm), soit un taux suffisant pour déclencher une glaciation majeure.
"Notre découverte confirme que les plantes jouent un rôle central dans la régulation du climat. Elles l'ont fait hier, elles le font aujourd'hui, et elles le feront certainement à l'avenir", indique Liam Dolan, un membre de l'équipe. Toutefois, prévient Tim Lenton, les plantes ne pourront pas faire chuter de la même façon, aujourd'hui, les concentrations en carbone dans l'atmosphère : "Les plantes ne peuvent pas suivre le rythme des changements climatiques provoqués par l'homme aujourd'hui. Il leur faudrait des millions d'années pour absorber les émissions actuelles de carbone dans l'atmosphère."
LeMonde.Fr
Invité
Sujet: Re: Actualités Dim 12 Fév - 14:18
Les glaciers de l’Himalaya résistent-ils au changement climatique ?
Les pics les plus enneigés du monde, qui courent de l'Himalaya aux monts Tian, à la frontière entre la Chine et le Kirghizistan, n'ont pas perdu de glace au cours de la dernière décennie. Cette affirmation pour le moins surprenante, allant à l'encontre de tous les derniers rapports sur les effets du réchauffement climatique, est issue d'une nouvelle étude publiée mercredi 8 février dans la revue Nature, qui a provoqué la stupéfaction de la communauté scientifique.
Selon le rapport, dirigé par John Wahr, professeur à l'université du Colorado aux Etats-Unis, la fonte des glaciers de l'Himalaya et d'autres régions montagneuses d'Asie, soit 30 % des glaciers du monde, aurait été limitée à 4 milliards de tonnes par an entre 2003 et 2010, soit bien moins que les précédentes estimations qui tablaient sur 50 milliards de tonnes annuelles. Ainsi, les sommets asiatiques auraient bel et bien fondu mais la perte de glace aurait été largement compensée par de nouvelles chutes de neige, ensuite transformée en glace.
Comment expliquer une telle différence de prévisions ? Contrairement aux autres études, qui se basaient essentiellement sur des mesures au sol sur quelques centaines de glaciers censés représenter l'ensemble des 200 000 pics du monde, l'équipe de chercheurs du Colorado s'est servie des mesures effectuées par les deux satellites Grace (Gravity recovery and climate experiment), qui orbitent depuis 2002 à près de 500 kilomètres d'altitude pour détecter d'infimes variations de la masse et de la gravité terrestre. Grâce à ces données, ils ont été les premiers à étudier les changements sur l'ensemble des glaciers et calottes glacières du monde. Auparavant, dans l'Himalaya notamment, les glaciers de basse altitude, beaucoup plus accessibles pour les scientifiques, ont été plus fréquemment inclus dans les mesures alors qu'ils étaient ceux qui fondaient le plus vite.
Un biais confirmé par un récent rapport du Centre international de mise en valeur intégrée des montagnes, cité par le Guardian : "Parmi les 54 000 glaciers de la région de l'Himalaya, seulement dix ont été étudiés suffisamment régulièrement pour déterminer la perte ou le gain de glace et neige au fil des années. Cette poignée d'études montre une perte de masse, dont le taux a doublé entre 1980 et 2000, ainsi que entre 1996 et 2005."
La fonte des glaciers de l'Himalaya avait déjà suscité une controverse, relançant les climatosceptiques de tous bords, quand le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) avait déclaré à tort, officiellement en raison d'une faute de frappe, qu'ils disparaîtraient très probablement à l'horizon 2035, au lieu de 2350.
Si la question de la vitesse du recul des glaciers de l'Himalaya reste incertaine, la fonte des autres calottes glaciaires à travers le monde demeure une grave préoccupation, souligne John Wahr. "Nos résultats, et ceux de toutes les autres études, montrent que nous perdons une quantité énorme de glace dans les océans chaque année, assure le professeur de l'université du Colorado. Les préoccupations en ce qui concerne le changement climatique ne sont pas exagérées."
Ce tableau, réalisé par le Guardian à partir des données de Nature, détaille combien de milliards de tonnes (Gt) de glace les vingt plus grands glaciers au monde ont perdu ou gagné entre 2003 et 2010 (avec une précision sur la marge d'erreur). Au total, les glaces terrestres auraient vu leur masse diminuer de 536 milliards de tonnes entre 2003 et 2010, en particulier en raison de la fonte du Groenland et de l'Antarctique, qui s'accélère.
Conséquence
Ce sont chaque année entre 443 et 629 milliards de tonnes d'eau de fonte qui se sont ajoutées aux océans de la planète, entraînant une élévation du niveau des mers d'environ 1,5 millimètre par an, soit de 12 millimètres en huit ans. "Les projections de l'élévation du niveau des mers d'ici 2100 ne changeront pas de beaucoup avec nos nouvelles données qui limitent la fonte des glaciers d'Asie. Elles pourraient être inférieures de 5 cm, soit une modification très faible", ajoute le chercheur. Les prévisions actuelles tablent sur une hausse du niveau des océans allant de 30 cm à un 1 mètre d'ici la fin du siècle.
LeMonde.Fr
Invité
Sujet: Re: Actualités Dim 12 Fév - 14:22
La NASA illustre le réchauffement climatique depuis 1880
La Terre se réchauffe, et ce, toujours plus vite. Si les scientifiques ne cessent de le rabâcher, à coup d'études et rapports documentés, une poignée de climatosceptiques continue de nier cette réalité, arguant d'une manipulation planétaire. Alors, quoi de mieux qu'une animation pour mesurer le phénomène ? C'est ce qu'a effectué la NASA, en résumant dans une vidéo de 26 secondes 131 ans d’évolution des températures sur Terre, de 1880 à 2011.
Dans cette animation, réalisée par le laboratoire de la NASA Goddard Institute for Space Studies (GISS), les couleurs rouges indiquent des températures supérieures à la moyenne pendant la période de référence de 1951 à 1980, tandis que les bleus témoignent de températures plus basses. Les données proviennent des relevés d'un millier de stations météo dans le monde, des observations satellitaires de la température de la surface de la mer et des mesures effectuées par la station de recherche de la NASA en Antarctique.
On voit ainsi que l'augmentation de la température s'est accélérée à la fin des années 1970. Fait encore plus marquant : neuf des dix années les plus chaudes enregistrées l'ont été au cours de la dernière décennie — 2010, 2005 et 1998 constituent les trois records de températures moyennes depuis le début des relevés en 1880.
2011, elle, se classe 9e année la plus chaude au niveau planétaire. "Même avec les effets rafraîchissants d’une forte influence de La Niña et une activité solaire faible ces dernières années, 2011 a été une des dix années les plus chaudes enregistrées", commente James Hansen, directeur du GISS. Au total, l'écart de températures entre l'année la plus froide (1884) et 2011 est de + 0,51°C.
Si les scientifiques ne s'attendent pas à une hausse constante des températures, année après année, en raison de la variabilité naturelle du climat, ils tablent cependant sur une augmentation continue de la température au fil des décennies. "La tendance est à la poursuite de l'augmentation des températures. La Terre absorbe plus d'énergie qu'elle n'en émet", assure James Hansen, qui prédit de nouveaux records dans les deux ou trois ans à venir, du fait d'une activité solaire à la hausse et du phénomène El Niño.
Quelle est la responsabilité de l'homme dans ce réchauffement indéniable ? L’agence spatiale américaine confirme que la hausse des températures est largement soutenue par l’augmentation des concentrations des gaz à effet de serre dans l’atmosphère, particulièrement du dioxyde de carbone, produit par les activités humaines (production d'énergie, transports, industrie, etc). Ainsi, rappelle la NASA, la concentration de CO2 était de 285 parties par million en 1880. Vers 1960, elle avait grimpé à 315 parties par million. Aujourd'hui, elle a dépassé 390 parties par million, et continue d'augmenter d'environ 2 parties par million chaque année. Or, de nombreux scientifiques s'accordent pour dire que 350 parties par million est le taux maximal acceptable de CO2 qui peut être envoyé dans l'atmosphère.
LeMonde.Fr
Invité
Sujet: Re: Actualités Lun 13 Fév - 17:47
Enregistrement EMAS : vers une reconnaissance internationale
Lors d'une conférence organisée par Orée, un panel d'experts et d'entreprises a fait le point sur l'enregistrement EMAS, norme de management environnemental créée en 1995 et promise, depuis 2010, à un développement international.
Dans la multitude des bonnes pratiques, de la Global Reporting Initiative aux principes directeurs de l'OCDE, en passant par le Global Compact et l'article 225 du Grenelle 2 qui étendra, lorsque le décret sera paru, les obligations de reporting environnemental aux entreprises de plus de 500 salariés, la responsabilité sociale et environnementale (RSE) des entreprises est en attente d'une convention juridique internationale qui harmoniserait les régimes et comporterait un organe juridictionnel. Pour l'heure, le régime de ladite RSE se limite à une myriade d'initiatives volontaires, répondant à des incitations financières souvent insuffisantes et ne concernant pas les sociétés mères dès lors que les pratiques de leurs filiales, en Afrique par exemple, sont en question. Et le prochain sommet de la Terre de Rio, dédié à l'économie verte, ne s'oriente pas vers l'adoption d'une telle convention internationale, mais à l'établissement d'indices de durabilité comparable. C'est dans ce contexte qu'Orée, réseau d'entreprises pour l'environnement, lance un groupe de travail sur le reporting et l'affichage environnemental.
Pour l'heure, EMAS, Eco-Management and Audit Scheme (Système de management et d'audit environnemental), est un règlement européen d'application volontaire permettant à tout type d'organisation d'évaluer, de publier et d'améliorer sa performance environnementale. Entré en vigueur en 1995, étendu dès 2001 à tous les secteurs économiques et aux services publics, le règlement permet depuis 2010 l'enregistrement d'organisations situées en dehors de l'Union européenne. Ce qui représente un avantage supplémentaire, souligne Daniel Bozonnet, spécialiste environnement auprès du groupe papetier international UPM : "L'intérêt de passer à un niveau global permet d'établir un rapport environnemental à l'échelle du groupe, qui peut être utilisé par n'importe quel siège européen, avec des informations spécifiques déclinées par usine". Le règlement EMAS est fondé sur la norme de système de management environnemental ISO 14001:2004 assortie d'exigences complémentaires. EMAS met l'accent sur la crédibilité, par la vérification de la conformité réglementaire, et sur la transparence, par l'ouverture au public et à l'ensemble des parties prenantes.
Une démarche continue et transversale
Six indicateurs environnementaux couvrant les domaines clés de la performance environnementale sont renseignés : efficacité énergétique, production de déchets, utilisation rationnelle des matières, biodiversité, consommation d'eau, émissions atmosphériques. Un enregistrement EMAS nécessite une stratégie et un plan d'action répondant aux principaux enjeux environnementaux, la réalisation d'un audit et la validation d'une déclaration environnementale par un vérificateur accrédité. L'organisation qui satisfait aux exigences est alors enregistrée EMAS pour une durée de trois ans (quatre ans pour les petites organisations), sous réserve qu'elle respecte la réglementation environnementale applicable et que sa déclaration environnementale soit validée lors d'un audit de suivi annuel (bi-annuel pour les petites organisations). La certification des Moulins de Lacaze, entreprise de deux salariés basée à Castres (Tarn), illustre l'accessibilité du dispositif. Cette micro-centrale hydro-électrique gérée par les frères Passebosc depuis 1978, n'a jamais émis de gaz à effet de serre, mais a le souci de ne pas empêcher la migration des poissons. En 2006, les Moulins de Lacaze ont construit une passe à poissons sur 14 bassins afin de réduire la perturbation de l'écosystème. Cette démarche leur a valu la reconnaissance en tant qu'éco-entreprise et l'agrément EMAS. L'organisme de certification Ecocert Environnement vient passer une journée sur le site tous les deux ans. Le gérant Pierre Passebosc explique que "cette certification ne procure aucun bénéfice financier mais procure d'autres avantages, comme la mutualisation des bonnes pratiques et l'amélioration continue".
Avantages et limites du volontariat
En janvier 2012, 4.532 organisations de toutes tailles et de tous secteurs étaient enregistrées au niveau européen. Pour être enregistrée à l'EMAS, une organisation doit procéder par étapes. Elle doit d'abord réaliser une analyse environnementale initiale validée, prenant en compte toutes les incidences de ses activités sur l'environnement. Deuxième étape : l'organisation doit adopter une politique environnementale et s'engager à respecter toute législation pertinente liée à l'environnement afin d'améliorer continuellement ses performances environnementales. Un système de management environnemental est mis en place. Un audit environnemental interne est réalisé afin de vérifier l'effectivité du système. L'organisation doit préparer une déclaration publique de ses performances environnementales. Un vérificateur EMAS agréé par un organisme d'agrément EMAS national doit vérifier l'ensemble. La déclaration peut alors être envoyée à l'organisme EMAS pour être rendue publique.
Quels sont les avantages d'EMAS ? En France, l'enregistrement EMAS vaut vérification du volet environnemental du reporting extrafinancier prévu par le projet de décret de la loi Grenelle 2 (article 225) relatif aux obligations de transparence des entreprises en matière sociale et environnementale. EMAS permet de baisser les coûts grâce à la réduction des flux de matière, mais aussi, en Belgique, permet en contrepartie d'obtenir une bonification des aides environnementales, ou, en Allemagne, une réduction des frais, l'extension du permis d'exploiter et, également en France, en Italie et en Espagne, la réduction des taxes environnementales. Pour Emmanuel Bouillin, de l'EPLAAD, établissement public d'aménagement à Dijon, "EMAS rapporte de l'argent, car il nous permet d'internaliser notre approche environnementale, ce qui permet de réaliser des économies de plusieurs dizaines de milliers d'euros que nous ne versons plus à des prestataires extérieurs". Mais attention à ne pas en brader le suivi : "Aujourd'hui, seules 30 entreprises en France sont certifiées EMAS et elles emploient pour certaines des stagiaires pour le suivi !".
Plusieurs intervenants pointent les limites du système, liées à sa base volontaire. Si EMAS encourage à mutualiser les bonnes pratiques, le dispositif brille par l'absence d'incitations financières alors que la démarche est coûteuse et ne permet pas forcément de gagner des parts de marché. Dans le secteur hospitalier qui génère des millions de tonnes de 45 déchets différents, témoigne Olivier Toma, président du Comité pour le développement durable en santé, "vous êtes sanctionnés financièrement si vous vous lancez dans la refonte de vos pratiques, dans un contexte où les dépenses de santé sont en baisse. On attend plus rien de personne, on prend nous-mêmes des initiatives en mutualisant les critères avec nos centrales d'achat. Pourquoi ne pas créer par exemple un fonds de rénovation énergétique hospitalier comme cela s'est fait en Angleterre ?"
Le Gulf Stream ne devrait pas s'affaiblir ces prochaines années
L'un des facteurs du climat européen ne connaîtra pas de changement significatif, au moins dans un futur proche. La circulation Atlantique, qui comprend le fameux Gulf Stream(1) ne diminuera pas au cours des quatre prochaines années. La première prédiction mondiale concernant le développement de la circulation thermohaline Atlantique a été réalisée par des chercheurs de l'Institut de Météorologie Max Planck à Hambourg et de l'Université d'Hambourg, en utilisant un modèle vérifié de la circulation Atlantique.
Dans l'Océan Atlantique, de l'eau tiède s'écoule en direction des régions polaires, où elle refroidit, s'enfonce dans les profondeurs et retourne vers l'Equateur, il s'agit de la Circulation Méridionale Atlantique (AMOC). Pour la première fois, les climatologues de l'Université d'Hambourg peuvent prédire la force de cette circulation thermohaline pour une période de sept ans. Cela n'a été possible qu'avec des données réelles recueillies ces dernières années via des stations situées à 26,5 degrés de latitude Nord(2).
L'influence de la circulation océanique sur le climat est considérable. La quantité de chaleur transportée par l'AMOC, par exemple, aurait un effet direct sur le climat des côtes européennes bordées par l'océan Atlantique. Toutefois, ce postulat est très controversé et la douceur de notre climat serait principalement le fait des courants atmosphériques d'ouest en est qui profitent du relargage dans l'atmosphère de la chaleur stockée pendant l'été dans la couche superficielle de l'océan.
A ce propos, plusieurs hypothèses sont avancées par les climatologues pour expliquer la rigueur de l'hiver 2009-2010 : faible transport de chaleur provenant de la circulation atlantique (en admettant qu'elle ait un rôle significatif), anomalie dans l'oscillation nord-atlantique, modification du régime des vents dans l'hémisphère nord, réchauffement climatique de l'arctique ....
Dans tous les cas, l'influence de la température de surface de l'Océan ne se limite pas à la façade océanique de l'Europe mais détermine également la fréquence des ouragans dans le Golfe du Mexique et les sécheresses dans la région du Sahel en Afrique de l'Ouest.
Jochem Marotzke, Directeur à l'Institut de Météorologie Max Planck et chef de l'étude a déclaré : « étant donné le lien avec le climat, il est très important que nous soyons maintenant capables de prédire quand l'AMOC sera plus faible ou plus fort sur une période donnée ». Ces scientifiques se disent capables de prédire les fluctuations de la circulation Atlantique pour les quatre prochaines années.
La circulation Atlantique ne devrait pas faiblir
Selon leurs découvertes, la circulation Atlantique ne devrait pas subir d'autres changements que les variations saisonnières habituelles. « Nous pouvons également dire à coup sûr que la faiblesse de la circulation Atlantique en mars 2010 était seulement un phénomène passager », a déclaré Daniel Matel, qui a joué un rôle important dans la recherche.
Certains s'inquiètent du ralentissement possible du courant nord-Atlantique et notamment du Gulf Stream. En effet, selon le postulat qu'il contribue principalement à la douceur du climat sur l'Europe de l'Ouest, son arrêt pourrait faire baisser de 4°C les températures moyennes en Europe, ce qui plongerait notre continent dans des hivers très rigoureux avec des zones de froid localisées... Mais ce n'est pas du tout l'avis de plusieurs climatologues dont Richard Seager, Senior Research Scientist au Lamont Doherty Earth Observatory de l'université Columbia, Palisades, New York. Celui-ci considère que l'influence sur le climat européen de la dérive Nord-Atlantique et de son prolongement, le Gulf Stream, ne représenterait que 10 % de celui généré par les mouvements atmosphériques ou de celui lié à la libération saisonnière du stock de chaleur des océans !
Les données concernant les mesures mettent les prédictions à l'essai
L'équipe de Jochem Marotzke affirme que la validité des prédictions est principalement due au fait que les données réelles sur la force de circulation Atlantique sont maintenant disponibles. Il est extrêmement coûteux d'acquérir de telles données, qui ne sont actuellement pas disponibles pour les autres océans hormis l'Atlantique, et il n'y a des enregistrements qu'à 26,5° de latitude Nord. Durant son séjour au Centre National Océanographique de Southampton en Angleterre, Jochem Marotzke a joué un rôlé clé pour développer cette idée et ses anciens collègues surveillent maintenant la circulation Atlantique à 26,5° de latitude Nord continuellement.
« Les données mesurées nous permettent de tester notre simulation » explique Daniela Matel. « En commençant par différents points par le passé, nous avons tout d'abord généré des prévisions pour les années pour lesquelles les données étaient disponibles ». Ainsi, comme les prévisions météorologiques correspondaient aux mesures réelles, les chercheurs savaient que leur modèle fournissait des pronostics utiles de la circulation Atlantique à 26,5° de latitude Nord, pour le passé comme pour le futur. Cependant, la comparaison des modèles de calcul et des données réelles a montré que la simulation ne pouvait donner des prévisions fiables au-delà de 4 années à venir.
Un pas vers des prévisions climatiques fiables pour quelques années
Les scientifiques basés à Hambourg espèrent améliorer leur simulation à l'avenir en faisant des prévisions fiables pour des périodes de plus de quatre ans. « Je pense que nous pouvons le faire », a déclaré Jochem Marotzke avec un sourire. Il fait référence, par comparaison, aux prévisions météorologiques, qui donnent maintenant des prévisions fiables pour des périodes de trente jours, alors qu'il y a vingt ans, on ne pouvait le faire que pour un jour à la fois. « Pour y parvenir, nous avons besoin de mieux définir les conditions initiales de nos calculs. »
La qualité des prévisions de la circulation Atlantique et leur évolution dans le temps aura plus d'impact que de simples prévisions climatiques. Jochem Marotzke envisage un nouvel horizon : « Nous pouvons prévoir le temps correctement pour quelques jours et nous pouvons calculer le changement climatique à long-terme, mais notre habilité à prédire efficacement les effets du climats à cause de l'activité humaine pour les années à venir est très limitée. » Les impacts naturels et humains sont approximativement égaux et par conséquent difficiles à distinguer pour cette période, explique-t-il, mais la distinction est importante afin d'identifier le rôle des hommes. « Le fait que nous puissions prédire maintenant la circulation Atlantique pour plusieurs années signifie une avancée majeure pour les prévisions climatiques dans seulement quelques années », conclut le chercheur.
Notes
1 Le Gulf Stream est un courant océanique qui prend sa source entre la Floride et les Bahamas et se dilue dans l'océan Atlantique vers la longitude du Groenland après avoir longé les côtes européennes. Son nom est abusivement utilisé pour désigner la dérive nord atlantique, voire l'ensemble de la circulation de surface de l'océan Atlantique Nord. 2 Un peu au-dessus du tropique du Cancer.
L'équipe de Tara Oceans rencontre le Secrétaire Général des Nations Unies, dans l'optique de Rio+20
Pour sa dernière et plus importante escale américaine à New York, les organisateurs de l'expédition Tara Oceans enchaînent les rencontres à l'ONU avant de reprendre la mer pour le trajet de retour en France : arrivée prévue le 31 mars à Lorient.
Tara est arrivé le 5 février à New York hier pour une importante escale d'une semaine, amarré à Battery Park. Au-delà des nombreuses visites scolaires, des conférences publiques et des diverses rencontres privées avec des personnalités américaines, cette escale représente un pas important pour Tara Oceans dans la consolidation de ses partenariats avec le système ONU, à la veille de la conférence de Rio+20 en juin qui devra accorder une grande place aux négociations sur l'avenir des Océans.
Parmi les moments forts de cette semaine, Agnès b., Etienne Bourgois, Romain Troublé et Eric Karsenti ont pu rencontrer Ban Ki Moon durant une vingtaine de minutes. Le Secrétaire Général des Nations Unies a réaffirmé son compromis et ses engagements sur les Océans, saluant le projet Tara comme un exemple à suivre pour la communauté scientifique.
Ban Ki Moon, qui s'est exprimé en français a donné une réponse positive pour soutenir les activités proposées par Tara lors de la conférence de Rio+20, particulièrement la première du film Planète Océan, coproduit avec Yann Arthus-Bertrand.
Plus insolite encore, Samedi après-midi, le Secrétaire Général accompagné de son épouse, de son porte-parole Eduardo del Buey et de ses gardes du corps, est monté à bords de Tara pour une sortie en mer. L'occasion de découvrir concrêtement la goelette et son matériel scientifique.
Accords Onusiens dans l'optique de Rio+20
Au-delà de cette rencontre hautement symbolique pour Tara, cette deuxième escale américaine a compté de nombreux temps forts pour la pérennisation et l'application de la recherche réalisée par Tara Oceans et pour la projection internationale du projet Tara. Philippe Kridelka, directeur aux Etats-Unies de la Commission Intergouvernementale Océanographique de l'ONU (UNESCO/IOC) a notamment confirmé son partenariat avec Tara. L'Équipe de l'expédition s'est aussi entretenue avec la direction du Département d'Information Publique de l'ONU (UNDPI) dans la perspective d'une campagne commune sur les océans à la conférence de Rio+20. "La visite de Tara à New York est une bonne occasion pour nous de réfléchir et de sensibiliser le public aux enjeux qui seront discutés à Rio", a déclaré le Secrétaire Général adjoint des Nations Unies à l'information, Kiyo Akasaka. "Les objectifs de l'expédition Tara Oceans sont totalement en phase avec notre campagne «l'avenir que nous voulons» et seront en résonance avec tous ceux qui se soucient des océans et de l'environnement".
Tara qui est soutenu par le Programme des Nations Unies pour l'environnement (PNUE) depuis 2004 a également engagé des discussions avec les directeurs du PNUD, UN Oceans et UNCSD pour chercher des convergences et actions communes à Rio+20 mais aussi une future participation de Tara Expéditions et de la Tara Marine Foundation en tant qu'organe consultatif à l'ONU dans le suivi des négociations en cours sur l'application de la loi sur la mer (UNCLOS), sur l'implémentation d'un système d'observation international sur l'acidification des océans ou sur la nouvelle convention sur les récifs de corail porté par l'Initiative Internationale pour les Récifs Coralliens (ICRI).
Fukushima : les stress tests japonais relancent le débat sur la participation du public
La Nisa a validé les audits de 2 réacteurs, ouvrant la voie à un redémarrage des unités à l'arrêt pour maintenance. Cependant, l'obtention du feu vert des autorités locales pose toujours problème alors que la confiance des populations s'effrite.
Lundi 13 février 2012, les audits de sûreté des réacteurs nucléaires japonais lancés en juillet 2011 ont franchi une étape importante : l'Agence japonaise de sûreté nucléaire et industrielle (Nisa) a estimé que les réacteurs 3 et 4 de la centrale d'Ohi (au centre du Japon sur la façade maritime ouest) ont passé avec succès la première étape du processus. Cette étape vise à évaluer la résistance des installations face à un événement extrême, tel que le tsunami du 11 mars 2011 qui a frappé la centrale de Fukushima Daiichi.
Cette étape de modélisation ouvre la voie à une seconde de validation par la Commission de sûreté nucléaire du Japon (NSCJ) avant que le feu vert ne soit donné par le Premier ministre, Yoshihiko Noda, et "trois ministres concernés", explique l'agence de presse Reuters.
Un calendrier à définir
Si la voie semble donc tracée, la mise en œuvre des stress tests pose encore un certain nombre de questions, à commencer par le calendrier qui n'est pas encore défini. Début février, le quotidien Yomiuri faisait état de la volonté du gouvernement de voir redémarrer en avril les deux réacteurs de la centrale de Ohi. Le but serait d'éviter que le Japon ne se retrouve sans aucun réacteur en activité en mai, lorsque sera arrêté pour maintenance la dernière des trois tranches, sur un total de 54, encore en activité au Japon.
Si le gouvernement a démenti ces informations, il n'a cependant donné aucun détail sur le déroulement des prochaines étapes des audits de sûreté. Seule la volonté de consulter les autorités locales avant tout redémarrage d'une unité en maintenance, même si la réglementation japonaise ne l'exige pas formellement, est confirmée.
L'absence de calendrier est présentée comme un gage de qualité des audits de sûreté. En janvier, le ministre japonais de l'Industrie et du Commerce, Yukio Edano expliquait qu'il ne souhaitait pas donner de date butoir afin de s'assurer qu'aucun détail ne serait laissé de côté. "Si nous concluons positivement [sur le redémarrage des réacteurs] dès le départ ou si nous fixons une date butoir pour conclure, cela signifie que nous n'évaluerons pas réellement la sûreté des installations", expliquait-il. Le ministre avait aussi estimé que son "rôle sera bien évidemment d'aller rencontrer en personne les communautés locales pour expliquer quelles sont les conditions de sûreté des centrales".
Dialoguer avec les autorités locales…
Ces consultations représentent aujourd'hui un enjeu crucial pour l'avenir énergétique de l'archipel. En juillet 2011, le maire de Genkai dans la préfecture de Saga au sud-ouest du Japon, avait renoncé à approuver le redémarrage progressif des réacteurs de la centrale nucléaire locale après les opérations de maintenance routinière.
Le gouvernement n'avait pourtant pas ménagé ses efforts et, après une visite du ministre de l'Industrie, il avait finalement obtenu l'accord de l'édile de la commune rurale de 7.000 habitants. Las, l'annonce de la réalisation des audits de sûreté avait remis en cause le discours officiel. Furieux, le maire de Genkai avait finalement retiré son accord. Depuis, 16 réacteurs supplémentaires ont été arrêtés pour maintenance sans qu'aucun ne puisse être redémarré.
Ce sujet a d'ailleurs retenu l'attention des experts de l'Agence internationale de l'énergie atomique (AIEA) qui ont évalué les stress tests réalisés par la Nisa. Ils ont insisté sur les efforts à effectuer pour recouvrer la confiance du public perdue depuis l'accident de Fukushima et ils ont invité les responsables japonais à dialoguer avec les riverains des centrales, leur conseillant de les inviter à des réunions publiques.
Concernant les deux réacteurs de la centrale d'Ohi, le gouvernement devra donc convaincre l'assemblée préfectorale de Fukui et le conseil municipal de la ville d'Ohi. Selon le quotidien Yomiuri, les discussions avec ces instances pourraient aboutir à un accord courant mars. Ainsi, Yukio Edano devrait "bientôt" visiter la préfecture de Fukui et y rencontrer le gouverneur pour lui présenter les résultats des audits de sûreté. Une tache qui pourrait s'avérer délicate : le gouverneur de Fukui a demandé l'application de nouveaux standards de sûreté et le maire d'Ohi a demandé des éclaircissements sur la sécurité et les stress tests.
… pour répondre aux doutes
Dans ce contexte, deux experts participant aux travaux des audits ont publiquement remis en cause les résultats de la Nisa. Hiromitsu Ino, professeur à l'université de Tokyo, et Masashi Goto, ancien ingénieur nucléaire, ont estimé dans une lettre publique que les audits sont insuffisants car ils ne tiennent compte que d'un événement naturel à la fois et qu'ils ne considèrent ni les problèmes matériels ni les erreurs humaines.
Plus généralement, certains analystes politiques interrogés par Reuters, doutent que les audits restaurent la confiance des Japonais. Une vision qui semble confirmée par un sondage réalisé auprès des autorités locales concernées et publié par le journal Sankei. Trois villes seraient favorables au redémarrage des réacteurs à l'issue des audits de sûreté, deux y seraient opposées et 24 seraient indécises, jugeant que les audits n'étaient pas une preuve suffisante de fiabilité des installations.
Quant au Parlement, il s'interroge lui aussi sur la réalité de la sûreté des installations. "Le mythe selon lequel le nucléaire est absolument sûr est un sujet que nous devons étudier" a indiqué Kiyoshi Kurokawa, le président de la Commission parlementaire chargée d'enquêter sur la catastrophe de Fukushima, estimant que "nous devons comprendre comment un tel état d'esprit a pu se développer".
Enfin, au-delà des populations habitant à proximité des sites nucléaires, certains consommateurs s'interrogent. Le 9 février, une association a annoncé avoir recueilli 250.000 signatures pour demander à la municipalité de Tokyo un référendum sur le recours au nucléaire pour alimenter en électricité la capitale de l'archipel. L'association, créée dans le but d'obtenir ce referendum, a franchi le seuil des 214.000 signatures indispensables à l'organisation du scrutin. Si le référendum avait lieu, Tepco, qui alimente en électricité Tokyo, et le gouvernement national seraient a priori tenus d'agir en conformité avec le résultat, rapporte l'AFP. Les deux centrales de Fukushima (les six réacteurs de Daichi et les quatre de Daiini) alimentaient la ville. La mégapole n'est actuellement alimentée que par le dernier des sept réacteurs encore en activité de la centrale Kashiwazaki-Kariwa. Le 26 mars, cette dernière tranche devrait être arrêtée pour maintenance.
Report modal : les autoroutes ferroviaires, fausse bonne solution ?
L'autoroute ferroviaire alpine et celle entre Perpignan et Luxembourg manquent de rentabilité, fustige la Cour des comptes qui estime que toutes deux présentent des résultats ''modestes'' en matière de réduction du trafic routier et de pollution.
Autoroute ferroviaire Perpignan-Luxembourg
Impulsées par la loi Grenelle 1 d'août 2009, les autoroutes ferroviaires, visant à contribuer au report modal en transportant les semi-remorques routières sur rail, "peinent à faire leurs preuves" en France sur les plans économique et financier, critique la Cour des comptes dans son rapport annuel 2012 présenté le 8 février.
L'autoroute ferroviaire alpine France-Italie (Aiton – Orbassano) et celle entre Perpignan et Luxembourg, les deux seules en fonctionnement en France (hors le tunnel Transmanche), ont été examinées par la Cour qui dresse un retour d'expérience du dispositif "à-demi concluant'', selon les termes de son président Didier Miguaud. Le concept n'est actuellement ''pas rentable'' et suscite ''des interrogations'', fustige la Cour alors qu'un troisième axe est "en projet". Il s'agit de l'autoroute ferroviaire atlantique (entre le pays basque, la région parisienne et le nord de la France), estimée à plus de 190 millions d'euros, également prévue par la loi Grenelle 1…
Deux expériences "inabouties" et ''déficitaires''
Le gendarme des finances publiques pointe deux ''expériences inabouties", ''marquées par des retards'' et lancées sans "études suffisantes". Exploitée depuis 2003 par une sous-filiale de la SNCF et la compagnie publique italienne Trenitalia, l'expérimentation de l'autoroute franco-italienne entre Aiton (Savoie) et Orbassano (Piémont), qui s'étend sur 175 km, a "été contrariée (...) par la lenteur à réaliser les aménagements de ligne indispensables à son bon fonctionnement'', selon le rapport. Alors que cette expérimentation était prévue jusqu'à fin 2006, les travaux d'agrandissement du tunnel ferroviaire du Mont-Cenis (mise au gabarit) réalisés par Réseau Ferré de France (RFF) pour la partie française, n'ont été achevés qu'en décembre 2010. Puis c'est seulement à partir de mi-septembre 2011 que les trains ont pu circuler sur deux voies ''au lieu d'une seule mais à très petite vitesse (40 km/h)", rappelle la Cour. Depuis l'accord franco-italien de 2001, il aura donc fallu plus de dix ans pour que ''ce service de ferroutage devienne pleinement opérationnel'', selon le rapport jugeant l'expérimentation ''peu concluante''.
Concernant l'axe Perpignan-Luxembourg qui s'étend sur 1.045,5 km, la Cour considère que son ouverture commerciale, en 2007, "s'est faite dans des conditions techniques et économiques insuffisamment étudiées". Elle parle de "démonstration inachevée'' et va jusqu'à remettre en cause le ''choix du site luxembourgeois'' qui ''ne paraît pas justifié (…) notamment en ce qui concerne les flux de marchandises''. Selon elle, ''le service, qui met en évidence les limites actuelles du système ferroviaire national, n'a pas encore fait la démonstration du niveau de fiabilité attendu par les transporteurs et leurs clients".
Le rapport annuel dénonce deux exploitations ''déficitaires'' (- 3,45 M€ en 2011 pour l'axe Perpignan-Luxembourg notamment) malgré une augmentation de trafic de ces autoroutes. Et, ce, en période de recul du fret : l'activité du transport ferroviaire et du combiné classique accusant aussi une baisse de 20 % par rapport à 2009.
Des résultats "modestes" sur le plan environnemental
Si les deux autoroutes ferroviaires connaissent ''un trafic stable, voire croissant'', les résultats en termes de report modal et de réduction des émissions de CO2 restent toutefois ''modestes", nuance la Cour. Alors que ces autoroutes présentent des ''atouts réels'' sur longue distance sur le plan environnemental, elles sont loin d'avoir atteint leurs objectifs attendus en matière de décongestion du réseau routier et de réduction de la pollution. Ces autoroutes ferroviaires doivent pourtant aider le gouvernement à atteindre celui fixé par la loi Grenelle 1 de 14 à 25% de transports de marchandises alternatifs à la route en 2022…
Bilan : en 2009, la ligne transalpine a seulement transporté 22.600 camions et 26.000 en 2011 contre ''100.000 poids lourds par an'' prévus représentant 10 % du trafic routier empruntant annuellement le tunnel du Fréjus. De son côté, la ligne Perpignan-Luxembourg a transporté en 2009, 24.500 camions et 36.500 en 2011 à comparer aux 1.100.000 transportés par les navettes ferroviaires transmanche. En 2015, 120.000 camions, soit un quart des camions en transit, seraient attendus. Cela représentera ''moins de 3 % du trafic de poids lourds, toutes catégories confondues''.
En matière de gains d'émissions : en 2010, les deux autoroutes ferroviaires auront permis d'économiser moins de 30.000 tonnes de CO2 soit l'équivalent des émissions produites en seulement deux heures par le transport routier en France, selon les chiffres du Commissariat général au développement durable (CGDD) cités dans le rapport de la Cour. La réduction des émissions de CO2, liée au report annuel de 500.000 camions, reste ''très modeste : 0,45 million de tonnes prévues en 2020'', dénonce la Cour. Loin encore des -15 millions de tonnes de CO2 par rapport à 2005 visés en 2020 pour le secteur des transports.
Améliorer l'efficacité du système ferroviaire
Conséquences : la capacité des autoroutes ferroviaires françaises ''demeure marginale et la fiabilité du service doit y progresser'', conclut la Cour en rejoignant l'analyse des acteurs du transport de marchandises faite lors des dernières Assises du ferroviaire. Ces derniers, ne considérant pas les autoroutes ferroviaires comme une réponse satisfaisante à leurs besoins opérationnels, misent en effet plutôt sur le transport combiné.
''Les autoroutes ferroviaires ne pourront être une opportunité pour le fret ferroviaire qu'à la condition de démontrer leur capacité à fonctionner à terme sans aide financière publique récurrente'', préconise la Cour alors qu'environ 12 M€ de subventions d'exploitation publiques sont dépensés chaque année pour les deux axes. Dans la perspective d'un troisième axe atlantique "voire d'un quatrième", la Cour recommande de rééquilibrer la compétitivité entre la route et le rail, et "à tout le moins, de pas la dégrader par des mesures réglementaires". À ce titre, le rapport annuel estime que le passage de 40 à 44 tonnes déjà autorisé pour les camions dans le secteur agro-alimentaire (et conditionné aux autres secteurs dès la mise en place de l'éco-taxe poids lourds mi-2013) est une mesure qui "va à l'encontre de la politique prônant l'essor des autoroutes ferroviaires".
La Cour est en revanche favorable aux ''trains plus longs et plus lourds'' permettant "d'abaisser le seuil de rentabilité et d'accroître les volumes du service". Elle appelle à ''confirmer, dans les meilleurs délais, l'acceptation de trains longs (plus de 1.000 mètres) pour ce service''. Le 19 janvier 2012 au Boulou (Pyrénées-Orientales), la ministre de l'Ecologie Nathalie Kosciusko-Morizet et la SNCF avaient déjà donné le départ d'un convoi ferroviaire, long de 850 mètres, pouvant transporter 48 semi-remorques et 2.400 tonnes de marchandises (contre 1.800 auparavant) sur l'autoroute ferroviaire Perpignan-Luxembourg.
Déchets, eau, assainissement, énergie: quel taux de TVA appliquer ?
La loi de finances rectificative pour 2011 a fait passer le taux réduit de TVA de 5,5% à 7%. Certains biens et services restent toutefois soumis au taux de 5,5%. Eclaircissement pour les opérations liées à l'environnement.
Une instruction de la Direction générale des finances publiques en date du 8 février 2012 précise le champ d'application du relèvement du taux réduit de TVA de 5,5% à 7%. Focus sur les secteurs de l'eau, de l'assainissement, des déchets, de l'énergie et de la sylviculture.
Eau et assainissement
L'eau demeure soumise au taux de 5,5%. En ce qui concerne l'eau fournie par les réseaux publics de distribution d'eau potable, le taux de 5,5% s'applique "non seulement aux parts relatives à la consommation d'eau revenant à l'exploitant du service mais également à celles qui sont reversées à l'autorité publique organisatrice du service de distribution lorsque la gestion de ce dernier est confiée à un délégataire", précise l'instruction.
Ce taux s'applique également à la part du prix relative à l'abonnement ainsi qu'aux redevances perçues à l'occasion de la distribution de l'eau : redevances pour pollution de l'eau d'origine domestique, redevances "prélèvement" ou "préservation des ressources en eau" perçues au profit de l'agence de l'eau, et redevances perçues au profit de Voies navigables de France à raison des prélèvements opérés dans le domaine public fluvial.
En revanche, le taux de 7% s'applique aux prestations de services qui concourent au bon fonctionnement des réseaux de distribution ou d'évacuation d'eau appartenant aux communes. De même qu'aux remboursements et rémunérations versés par les communes ou leurs groupements aux exploitants des services de distribution d'eau et d'assainissement, ainsi qu'aux taxes, surtaxes et redevances perçues sur les usagers des réseaux d'assainissement (redevance pour modernisation de réseaux de collecte, redevance perçue au profit de VNF à raison des rejets opérés dans le domaine public fluvial).
Livraisons d'électricité et fourniture de chaleur
Restent soumis au taux réduit de 5,5% les abonnements relatifs aux livraisons d'électricité d'une puissance maximale inférieure ou égale à 36 kilovoltampères, d'énergie calorifique et de gaz naturel combustible, distribués par réseaux, ainsi que la fourniture de chaleur lorsqu'elle est produite au moins à 50 % à partir de la biomasse, de la géothermie, des déchets et d'énergie de récupération.
Collecte, tri et traitement de déchets
La TVA est perçue au taux de 7% sur les prestations de collecte, de tri et de traitement des déchets portant sur des matériaux ayant fait l'objet d'un contrat conclu entre une commune ou un EPCI et un organisme ou une entreprise agréé au titre de l'article L. 541-2 du code de l'environnement.
Travaux sylvicoles
De même, le taux de 7% s'applique aux travaux sylvicoles et d'exploitation forestière réalisés au profit d'exploitants agricoles, y compris les travaux d'entretien des sentiers forestiers, ainsi que les travaux de prévention des incendies de forêt menés par des associations syndicales autorisées ayant pour objet la réalisation de ces travaux.
Pour finir, précisons que le taux de 7% s'applique aussi aux opérations portant sur le bois de chauffage, les produits de la sylviculture agglomérés et les déchets de bois destinés au chauffage.
Emissions de gaz à effet de serre du transport maritime: cas de la Grande-Bretagne
Début novembre 2011, un mois avant le sommet de Durban sur le climat, le Committee on Climate Change (CCC, Commission sur le changement climatique(1)), a publié un rapport sur les émissions de gaz à effet de serre (GES) du transport maritime britannique, dont il estime que la contribution en 2050, dans le cadre des émissions permises par le Climate Change Act, pourraient atteindre 11% (18 sur 160 MtCO2). Il recommande en conséquence que ces émissions soient incluses dans les objectifs de 2050 (réduction de 80% des émissions par rapport à celles de 1990), ce qui n'est actuellement pas le cas (comme pour celles liées à l'aviation civile). Le Parlement britannique est tenu de décider d'inclure ou non ces contributions, au cours de l'année 2012.
Les émissions de CO2 dues au transport maritime ne comptent que pour 3% des émissions mondiales. Mais la croissance rapide du commerce conduit les chercheurs à estimer que ces émissions vont croître de 3% par an durant les quatre prochaines décennies. En 2050, la part du transport maritime pourrait alors atteindre 17 à 25% des émissions mondiales maximales qu'il faudrait s'autoriser pour maintenir le réchauffement en-dessous de 2°C. Il faut néanmoins noter que l'impact sur le réchauffement lié à ces émissions de CO2 semble, pour le moment, être contrebalancé par les rejets de soufre et de suies des navires qui, eux, tendent plutôt à refroidir le climat. Cependant, à cause des nouvelles règlementations environnementales, les nouveaux navires rejetant de moins en moins de ces composants, la contribution totale nette au réchauffement va devenir positive, ce qui est quelque peu paradoxal pour des règlementations visant à lutter contre le réchauffement du climat. Le Protocole de Kyoto a délégué à l'Organisation maritime internationale (OMI) la tâche d'obtenir un accord mondial de réduction des émissions de GES dans le domaine maritime, ce qu'elle n'a, pour le moment, pas pu atteindre.
Afin de déterminer quelle est la contribution du transport maritime du Royaume-Uni, le CCC a décidé de prendre en compte l'ensemble des émissions de CO2 liées au transport de biens depuis et vers les ports britanniques. Pour le CCC, il s'agit d'une question de responsabilité qui implique de ne pas uniquement considérer les émissions des navires sous pavillon britannique. Mais un tel choix signifie une grande complexité pour calculer précisément ces rejets de CO2 : par exemple, un navire de Chine à destination de Londres peut très bien faire plusieurs escales sur sa route pour charger et décharger des containeurs, ou encore, des biens à destination du Royaume-Uni peuvent transiter par plusieurs navires... Différentes approches sont donc possibles : de haut en bas, en estimant les émissions globales puis en les affectant par pays en fonction de macro-métriques comme le pavillon ou la part du commerce mondial. Cette méthode ne tient cependant pas assez bien compte de la complexité illustrée par les quelques exemples ci-dessus. Le CCC a donc pris l'approche inverse, de bas en haut, en calculant les émissions à partir de la distance parcourue par les navires et de l'intensité carbone des navires qui transitent par les ports britanniques (approche bien entendu complexifiée par des corrections afin de tenir compte de certains effets comme les navires non chargés). Le CCC arrive à l'estimation des émissions actuelles entre 12 et 16 MtCO2 par an, mais tout en n'excluant pas qu'elles puissent être bien supérieures.
Il est possible de réduire ces émissions à travers des solutions technologiques et opérationnelles
Technologiques
Améliorer les systèmes de propulsion et les machines des navires pour augmenter leur efficacité, ainsi qu'utiliser des cerfs-volants tracteurs pour tirer parti de l'énergie éolienne ; protéger la coque ou la nettoyer plus souvent pour réduire la surconsommation liée à la friction sous-marine ; améliorer les technologies des chaudières.
Opérationnelles
Réduire la vitesse de route pour économiser du carburant ; utiliser des logiciels d'aide à la navigation indiquant aux navigateurs les routes les plus sûres et les plus économiques en combinant données météorologiques et voies de navigations ; réduire le temps d'attente des navires dans les ports et fournir de meilleures informations sur la congestion portuaire.
Carburant
Les biocarburants pourraient devenir économiquement viables, en fonction de leur prix relatif avec les carburants conventionnels, incluant un éventuel prix du carbone ; le gaz naturel liquéfié (GNL) a une intensité carbone plus basse par unité d'énergie que les fiouls classiques et pourrait propulser des turbines à bord des navires. Cependant, le GNL a une densité énergétique plus faible et requiert donc un plus grand volume de stockage.
Navires plus grands
L'utilisation de navires plus grands permet d'obtenir une efficacité énergétique plus importante et donc de réduire les émissions par tonne de charge transportée. L'OMI estime que le tonnage des bâtiments pourrait s'accroître de 0,3 à 1,4% par an d'ici 2050, ce qui permettrait à l'efficacité énergétique de passer de 37,1 gCO2/tonne-mile à 34,6 gCO2/tonne-mile à l'horizon 2050.
L'ensemble de ces mesures permettrait de réduire les émissions de 70% en 2050 par rapport aux niveaux de 2007, mais des mesures comme la réduction de la vitesse risquent d'être difficile à faire appliquer.
Les émissions futures peuvent être évaluées selon plusieurs scenarios de croissance du commerce maritime, de technologies déployées sur les navires, de prix du carbone, de l'efficacité énergétique ou encore du prix du fioul, tout en tenant compte du cycle long du renouvèlement de la flotte (les navires construits actuellement vont très certainement encore parcourir les océans du monde en 2040). Le CCC estime ainsi que les émissions britanniques atteindront probablement 18 MtCO2. Mais compte tenu des nombreuses incertitudes, ces émissions pourraient être situées entre 5 à 19 MtCO2.
Le CCC souligne le haut niveau d'incertitudes dans ses estimations et en tient compte dans les recommandations au gouvernement qu'il formule :
- inclure immédiatement les émissions liées au commerce maritime international dans l'objectif de 2050 et les budgets carbones associés ;
- les inclure dans l'objectif de 2050 et les budgets carbones, une fois que des progrès auront été réalisés sur la méthodologie afin de refléter plus précisément ces émissions ;
- les inclure dans l'objectif de 2050, mais dans les budgets carbone seulement une fois que les incertitudes auront été réduites.
Le directeur de la Commission, David Kennedy, a indiqué que le CCC donnera sa recommandation finale en mars 2012. Il appelle également le gouvernement à travailler avec ses partenaires européens pour accéder à des données plus fiables sur la consommation des navires transitant dans les eaux de l'Union européenne.
La question de l'intégration des émissions liées au transport maritime britannique, tout comme celles liées au transport aérien, est importante. En effet, ce sont deux secteurs où il est très compliqué de substituer un autre carburant aux dérivés du pétrole, et le fioul comme le kérosène seront sans doute encore brûlés par la plupart des navires et avions en 2050. Ainsi le transport maritime pourrait contribuer jusqu'à 25% des émissions de CO2 que nous pouvons nous autoriser si nous voulons limiter le réchauffement mondial à 2°C.
De plus, comme le souligne le CCC, estimer ces émissions est complexe et les incertitudes sont très importantes. Si d'un côté les gouvernements pourraient (et sont) tentés de ne pas les inclure (du fait de ces incertitudes de mesure et de la très grande difficulté à obtenir un accord mondial dans ce domaine), ne pas le faire serait fausser complètement l'établissement des quotas autorisés pour lutter efficacement contre le changement climatique. Il faut donc reconnaître à ce rapport du CCC le mérite de faire le point sur la situation et clairement poser cette question de l'intégration des émissions du secteur maritime dans le calcul des budgets carbone.
Notes
1 La Commission sur le changement climatique est un organe indépendant qui a été établi dans le cadre du Climate Change Act de 2008. Elle est chargée de conseiller le gouvernement britannique et les administrations dévolues dans l'établissement des budgets carbone qui fixent le plafond maximal d'émissions de GES autorisées pour le Royaume-Uni. Elle doit également vérifier le respect de ces budgets et plus généralement contribuer à préparer le pays au changement climatique.
Eaux bouillonnantes qui témoignent d'une activité volcanique sous-marine près de l'île de Hierro, Canaries.
L'île El Hierro dans l'archipel des Canaries est secouée depuis plusieurs semaines par des tremblements de terre légers. En cause : une éruption volcanique sous-marine à 2 kilomètres au sud de l'île qui annonce la naissance d'une nouvelle île.
C'est un nouveau volcan de type "point chaud" qui vient d'être découvert au large de la côte méridionale de l'île de Hierro, dans l'archipel des Canaries, une destination très touristique. Celui-ci est visible sur l'image satellite de l'Agence spatiale européenne (ESA) acquise le 9 Novembre 2011. En effet, le panache volcanique sous-marin a décoloré les eaux environnantes et l'eau boueuse a atteint les côtes de El Hierro.
Des bulles géantes émergent à la surface et des pierres ponces jusqu'à un mètre de diamètre ont été signalées, flottantes, au-dessus du site de l'éruption. Les habitants de l'île ressentent également des secousses fréquentes : plus de 10 000 ont été enregistrées depuis juillet 2011 par l'Institut Géographique National Espagnol. Ils ont également signalé des explosions au large, avec des rejets d'eau et de matériaux volcaniques à plusieurs mètres au-dessus du niveau de la mer, ainsi que des poissons morts flottant à la surface de la mer.
Le Salvamar, un navire de la Garde côtière, récupère en mer des pierres volcaniques qui remontent en surface. Elle sont ensuite analysées pour en déduire l'évolution de l'éruption.
Le risque que des gaz toxiques puissent être rejetés par un volcan sous-marin a poussé les autorités à interdire certaines plages de l'île.
Le 29 octobre, des océanographes espagnols, équipés d'un robot de plongée avaient déterminé que les éruptions avait érigé un cône volcanique d'environ 100 mètres de haut, émergeant du plancher océanique situé à 250 m de profondeur.
Selon les données de l'Institut océanographique espagnol de mi-février 2012, le volcan continue de se développer : son sommet se situe dorénavant à seulement 120 mètres de la surface, c'est 10 m de plus qu'il y a un mois. Ainsi, le cône volcanique fait maintenant 210 m de haut avec un volume d'environ 145 millions de mètres cube.
Un volcan sous-marin en activité, est visible (eau colorée) sur cette image prise par Envisat le 9 novembre 2011 par la caméra MERIS
Si l'éruption se poursuit, nous pourrons assister à la naissance d'une nouvelle île : un spectacle assez exceptionnel puisqu'il est déjà visible de l'île d'El Hierro, comme en témoignent les images de cette webcam mise en place pour observer ce phénomène.
L'archipel volcanique des Canaries a été formé par le « point chaud des Canaries » et comporte sept îles principales – dont plusieurs sont visibles à l'image – et quelques îlots plus petits.
L'île d'El Hierro est un bouclier volcanique en croissance le long de la bordure sud-ouest de l'ancien volcan El Golfo. El Golfo s'est effondré il y a environ 130 000 ans, mais le terrain roux brun et accidenté de l'île témoigne d'une activité volcanique dynamique qui a duré plusieurs années. Selon certains documents historiques, la dernière éruption d'El Hierro remonte à 1793.
Croissance durable : les entreprises ont aussi une responsabilité
Ce dessin qui a remporté un concours du Programme des Nations Unies pour l'environnement (PNUE) montre à la fois "une forêt durable et les causes de la destruction de la forêt"
Lors d'une conférence réunissant des acteurs du monde des affaires à New York, le Secrétaire général des Nations Unies, Ban Ki-moon, a rappelé mardi qu'il était important que le secteur privé s'implique activement dans la croissance durable aux côtés des Nations Unies.
« Le secteur privé est un partenaire clé pour l'ONU. Nous ne pouvons pas espérer atteindre nos objectifs sans votre engagement et votre soutien », a déclaré Ban Ki-moon dans un discours à l'ouverture de la « Conférence KPMG : Les perspectives de croissance durable du secteur privé », qui a rassemblé à New York plusieurs chefs d'entreprises et dirigeants du monde des affaires.
Le temps où régnait une certaine méfiance entre l'ONU et le secteur privé est révolu, a dit le Secrétaire général de l'ONU aux chefs d'entreprises et entrepreneurs privés.
Il a rappelé les défis majeurs de l'humanité : plus d'un milliard de personnes qui n'ont pas accès à l'alimentation, à l'électricité ou à l'eau potable, un écart entre riches et pauvres qui se creuse, des écosystèmes en déclin et des changements climatiques qui sont proches d'atteindre un point de non-retour.
« L'argument économique pour une croissance durable est solide et le devient de plus en plus. Des perturbations sur les marchés, des mouvements sociaux, des catastrophes naturelles et humaines, que cela se produise loin ou à proximité, ont un impact direct sur les chaînes d'approvisionnement, les flux de capitaux, les opinions publiques et la productivité des salariés », a rappelé Ban Ki-moon, pour qui les dividendes du développement durable sont tangibles.
Selon lui, il faut préparer les marchés pour l'avenir afin de pouvoir satisfaire les demandes des consommateurs en produits et services plus verts et poser les fondations qui assurent la dignité, la stabilité et des opportunités pour tous.
« C'est l'élément central de la croissance durable, et la raison pour laquelle de plus en plus d'entreprises et d'investisseurs placent la croissance durable parmi leurs priorités. L'ONU les aident à créer de la valeur dans quatre domaines clés : financier, social, environnemental et éthique », a souligné Ban Ki-moon.
Même si le concept de croissance durable a davantage de succès, le concept n'est pas encore mis en œuvre pleinement par les entreprises, puisqu'il n'a pas encore pénétré entièrement leurs stratégies et les mesures qui devront encourager ce changement ne sont pas au point.
« A la conférence Rio+20, les chefs d'entreprises et les investisseurs auront l'occasion de montrer l'exemple », a estimé Ban Ki-moon en faisant référence à la Conférence sur le développement durable qui doit se dérouler cet été à Rio, au Brésil.
Il a énuméré cinq démarches à entreprendre par le secteur privé. La première est de rejoindre le Forum des entreprises pour la croissance durable à Rio. La deuxième est d'accorder plus d'attention à la performance des entreprises en matière de croissance durable afin de faciliter les investissements ciblés.
La troisième démarche est d'assurer que le travail de lobbying soit fait de manière responsable. « Il ne faut pas affirmer un attachement au commerce libre et sans entrave pour ensuite soutenir des subventions perverses et des lois protectionnistes. Ne proclamez pas un engagement envers la croissance durable tout en bloquant les avancées sur la question des changements climatiques », a déclaré Ban Ki-moon.
La quatrième démarche consiste à travailler avec les gouvernements pour faire adopter des cadres législatifs adaptés et des mesures d'incitation à une bonne performance sociale et environnementale. Finalement, la cinquième démarche à entreprendre par le secteur privé est de travailler avec l'ONU au sein des différentes plateformes et initiatives en matière de croissance durable, a déclaré le Secrétaire général de l'ONU.
La plus importante extinction massive du vivant : une mort à petit feu
Paléogéographie durant la crise du Permien, il y a 252 millions d'années
L'extinction massive de la biodiversité la plus dévastatrice qu'ait connue notre planète s'est déroulée par étapes, décimant 90% de la vie sur Terre, selon une nouvelle étude publiée début février dans l'America Bulletin de la Geological Society. Cette analyse montre ainsi que les extinctions de masse ne sont pas nécessairement des événements brutaux.
Thomas Algeo, géologue à l'Université de Cincinnati, assisté de 13 collègues ont publié une étude(1) détaillée d'une coupe géologique à la frontière Permien-Trias située dans l'île d'Ellesmere dans l'arctique canadien (notée WBF sur la carte). Leur analyse montre que l'extinction de masse la plus importante qu'ait connu la Terre s'est étalée sur des centaines de milliers d'années.
Il y a environ 252 millions d'années, à la fin du Permien, toute vie avait pratiquement disparu de la Terre. Environ 90 % de toutes les espèces vivantes ont alors disparu suite à ce que les scientifiques appellent "La Grande extinction."
Le professeur Algeo et des collègues ont dédié une décennie à analyser les composés chimiques retrouvés dans des formations rocheuses remontant à cette grande extinction.
Le monde mis au jour par leur recherche est celui d'un paysage dévasté, dépourvu de toute végétation et raviné par l'érosion causé par les pluies acides. D'immense "zones mortes" gangrenaient les océans alors que les températures avaient atteint des niveaux insoutenables à cause d'un puissant effet de serre. On croirait dévoiler une vision apocalyptique du futur que nos sociétés incensées projettent, mais il s'agit bien d'un formidable bond dans le passé géologique et biologique de notre planète, il y a 252 millions d'années.
Un volcanisme majeur pendant un million d'années
Les éléments étudiés par le professeur Algeo et ses collègues permettent de penser que des éruptions volcaniques de très grande ampleur en Sibérie ont joué un rôle dans cette extinction. "Les scientifiques font le lien entre cette extinction et les trapps(2) de Sibérie, qui ont probablement d'abord touché la vie boréale en raison des gaz toxiques et des cendres," indique le Dr H. Richard Lane, directeur de programme à la Division La Sciences de la terre de la National Science Foundation (NSF), qui a financé la recherche.
Les trapps de Sibérie s'étendent sur une large zone volcanique. L'épisode volcanique qui a formé les trapps est le plus important qu'ait connu la Terre au cours de son histoire géologique et s'étale sur un million d'années à la frontière entre le Permien et le Trias.
Une grande partie du territoire occidental de la Sibérie présente des dépôts volcaniques d'une épaisseur allant jusqu'à cinq kilomètres et d'une surface équivalente à celle du continent Etats-Unien ! De plus, la lave s'est déversée à-travers un énorme dépôt de charbon, détruisant toute vie. En effet, "l'éruption, en traversant la masse de charbon, a libéré d'énormes quantités de méthane," explique le Dr Algeo. Or, le méthane est un gaz à effet de serre 30 fois plus puissant que le dioxyde de carbone. "Nous ne savons pas combien de temps l'effet de serre a duré, mais il semble bien que ce soit plusieurs dizaines ou même centaines de milliers d'années." De quoi modifier profondément le climat de l'époque.
La thèse de l'extinction soudaine est remise en question
Lles océans ont englouti une bonne partie des indices qui nous permettraient d'en savoir plus, et le Dr Algeo et ses collègues les interprètent en observant les sédiments marins fossilisés. Les recherches antérieures étaient concentrées sur les sédiments d'un océan aujourd'hui disparu, le Téthys, ancêtre de l'Océan indien. Ces sédiments, notamment en Chine du sud, révèlent une extinction brutale des organismes vivant à la fin du Permien. "Dans les sédiments marins de surface, l'ultime extinction de masse du Permien apparaît comme un phénomène à la fois global et soudain," rapporte le Dr Algeo. "Ces indications ont généralement conduit à la conclusion que l'extinction était un phénomène global et synchrone." ajoute t-il.
Le Dr Algeo et les co-auteurs de l'étude ont étudié les formations rocheuses du Fiord de West Blind dans l'ile d'Ellesmere de l'arctique canadien. A la fin du Permien, cette zone était bien plus proche des volcans sibériens que les sites du sud de la Chine. La formation rocheuse canadienne, haute de 24 mètres, remonte à une époque qui recouvre la frontière Permien-Trias et donc celle de la dernière extinction de masse du Permien. Les chercheurs ont étudié l'évolution des roches de bas en haut, analysant la composition chimique des des roches et fossiles qu'elles renferment.
Ils ont observé une extinction totale des éponges siliceuses environ 100 000 ans avant l'extinction massive de la vie marine observée dans les sites Téthysiens. D'après le Dr Algeo et ses collègues, il semble qu'au début de l'activité volcanique en Sibérie, les gaz et les cendres toxiques soient restés confiné dans les latitudes septentrionales. Les effets ne se sont propagés aux latitudes tropicales de l'Océan Tethys que beaucoup plus tard, au plus fort de l'activité volcanique.
Notes
1 Ces recherches ont été financées par le Conseil de recherches en sciences naturelles et en génie du Canada et la National Aeronautics and Space Administration Exobiology Program. 2 Le terme "trapps" est dérivé du suédois trappa ou trapp (escaliers) et dénote la formation en espaliers du relief de cette région.
Les courriers et colis de La Poste deviennent neutres en carbone
Les courriers et colis de La Poste seront neutres en carbone à partir du 1er mars, grâce à une réduction des émissions du groupe et à la compensation. Le premier projet domestique sur les véhicules électriques pourrait être lancé à cette occasion.
La Poste vise la neutralité carbone pour ses services postaux. Ainsi, à compter du 1er mars prochain, l'ensemble des courriers et colis gérés par le groupe affichera zéro émission. Le service Express à destination de l'Allemagne, du Benelux et du Royaume-Uni emboîtera le pas de la neutralité carbone en juillet prochain et à partir de 2013 pour les autres destinations d'Europe. Comment La Poste compte-t-elle atteindre ces objectifs ? En visant une réduction de 20 % de ses émissions de CO2 d'ici 2015 (par rapport à 2008) et en compensant le restant de ses émissions.
La neutralité carbone : "une évidence stratégique"
Les services postaux du groupe ont émis 1,3 millions de tonnes de CO2 en 2010. Globalement, le transport représente les trois quarts de ces émissions (960 millions de kilomètres parcourus par les véhicules du groupe chaque année), soit près de 1 % des émissions françaises totales liées au transport. "Nous avons la flotte de véhicule la plus étendue du pays, le plus gros parc immobilier (25.000 bâtiments) à l'exception du parc de l'Etat et probablement l'un des systèmes informatiques les plus importants. La Poste est un acteur important, sa responsabilité climatique est proportionnelle à sa taille'', explique le président du groupe, Jean-Paul Bailly, ajoutant : "Nous voulons être un service public contemporain". Mais cette démarche est également "une évidence stratégique", selon Nicolas Routier, directeur général adjoint de La Poste, directeur général du courrier et président de Sofipost. Face à la libéralisation des services postaux et la perte du monopole historique, le groupe doit séduire ses clients. "Alors que nos concurrents déploient des gammes vertes plus chères, La Poste fait le choix de la neutralité carbone sans surcoût pour les clients pour l'ensemble de ses services postaux", souligne Jean-Paul Bailly.
La Poste a conçu un éco-calculateur, vérifié par le Bureau Véritas, afin de mesurer de manière précise l'impact de chaque produit. Déjà utilisé par le service commercial du groupe, cet outil sera mis à disposition du public en mai prochain. Un tel outil existe déjà pour le colis et compare les impacts environnementaux de l'achat sur Internet et de l'achat en magasin : "Effectuer un achat sur Internet plutôt qu'en magasin permet de diviser en moyenne par 4 les émissions de CO2 dues aux transports". Un argument de taille pour le e-commerce qui représente une large source d'activité pour le groupe…
Polémique autour de la réduction des émissions du groupe
Pour réduire ses émissions de 20 % d'ici 2015, La Poste a déployé un programme ambitieux dans les transports, les bâtiments mais aussi l'éco-conception de ses offres. Ainsi, le groupe a prévu d'acheter 10.000 véhicules électriques d'ici 2015 (dont 1.600 en 2012) et de remplacer progressivement ses deux roues motorisés par des vélos à assistance électrique et des quads électriques. Le groupe a également formé 60.000 facteurs à l'éco-conduite, ce qui a permis de réaliser une baisse de consommation de carburant de 5 à 7 %. Pour les bâtiments, La Poste compte réduire ses émissions "grâce à un parc justement dimensionné, à la prise en compte des standards environnementaux de construction les plus performants (HQE et BBC) et à un programme de rénovation du parc existant". Enfin, La Poste a lancé la Lettre verte et un Colissimo à emballage éco-conçu et compte, pour ses services Express, optimiser ses tournées et améliorer techniquement ses véhicules motorisés.
Mais le syndicat Sud-PTT, dans un communiqué, dénonce de son côté les transferts d'impact liés à la politique de réduction des émissions de La Poste : "40 plateformes industrielles du courrier construites à proximité des nœuds routiers ont remplacé 120 centres de tri le plus souvent installés près des gares. Des centaines de bureaux distributeurs ont été fermés et regroupés. Bilan de tout cela : toujours plus de route, de transport et de trajet pour se rendre sur son lieu de travail pour de nombreux postiers et postières. En réalité La Poste a totalement reporté ses économies d'émissions de gaz à effet de serre sur le personnel qui, lui, est contraint de plus en plus à utiliser son véhicule personnel".
Le premier projet domestique sur une flotte de véhicules électriques
La Poste va compenser l'ensemble de ses émissions restantes, à hauteur de 12 millions d'euros (8€ la tonne en moyenne). Parmi les quatre projets qui font partie du programme de compensation de la partie courrier (500.000 tonnes de CO2, environ 4 M€ de compensation), le groupe envisage de s'appuyer sur un projet domestique propre : l'introduction de véhicules électriques au sein de sa flotte de véhicules commerciaux. Une première de ce type en France, la méthodologie de comptabilité des émissions évitées est encore en cours d'instruction au ministère de l'Environnement. Si le projet est validé, La Poste obtiendra, grâce au déploiement de ses véhicules électriques, des crédits carbone. Crédits qu'elle prévoit d'autoconsommer pour sa compensation plutôt que de revendre sur le marché ETS. Le deuxième projet de compensation est porté par le fonds Livehoods, créé en 2011 par Danone, le Crédit Agricole, Schneider Electric et CDC Climat. Il s'agit d'un projet de restauration de la mangrove en Casamance (Sénégal) avec 7.450 hectares replantés, soit 925.000 tonnes équivalents CO2. Un troisième projet devra être sélectionné par les postiers d'ici avril : cinq programmes de solidarité climatique leur seront présentés (centrale hydroélectrique en Indonésie, substitution de foyers de cuisson au Mali…). Enfin, La Poste compte déployer, avec la CDC Climat, un programme dans les DOM "où aucun projet de compensation n'existe pour l'instant''.
Les projets domestiques en bref
La mise en œuvre conjointe (MOC) est un des mécanismes de flexibilité prévu dans le cadre du protocole de Kyoto. Il permet aux pays développés de réduire leurs émissions de gaz à effet de serre en procédant à des échanges de crédits carbone. En s'appuyant sur ce mécanisme, la France a lancé en 2006 le mécanisme des "projets domestiques". L'objectif est de stimuler les réductions d'émissions de GES dans des secteurs d'activités non couverts par le système ETS. L'Etat délivre alors aux développeurs de projet des crédits carbone issus de son stock.
Les producteurs de granulats souhaitent développer le recyclage
Parallèlement aux extractions des carrières, les producteurs de granulats souhaitent développer le recyclage. Voici les pistes qu'ils proposent pour faciliter ce développement.
L'Union nationale des producteurs de granulats (UNPG) a réuni ses adhérents le 14 février à Paris. Au menu de la rencontre, un état des lieux du recyclage en France et des propositions en faveur de son développement, avec le point de vue des représentants du ministère de l'Ecologie invités à s'exprimer sur la question.
Matière première du BTP
Les granulats sont la matière première du BTP. La France en consomme environ 400 millions de tonnes chaque année. Ils sont principalement extraits des carrières terrestres mais peuvent aussi provenir d'extractions marines et du recyclage. Dans ce dernier cas, ils sont issus soit de matériaux provenant des chantiers routiers et de la déconstruction de bâtiments, soit de sous-produits industriels : schistes houillers, laitiers de hauts fourneaux ou d'aciéries, mâchefers d'incinération d'ordures ménagères.
En 2010, 6,3% des granulats utilisés en France étaient issus du recyclage. "Ce chiffre est en augmentation constante depuis 20 ans", souligne l'UNPG. Et l'organisation professionnelle souhaite doubler la production de granulats recyclés dans les cinq ans qui viennent. Ce qui va dans le sens des objectifs de la directive cadre sur les déchets qui fixe un objectif de recyclage de 70% des déchets de construction d'ici 2020. Mais plusieurs questions restent toutefois en suspens.
Le granulat recyclé, un produit ou un déchet ?
La première question est celle du statut juridique du granulat recyclé. "La profession doit obtenir pour les granulats recyclés et artificiels le statut de produit, seul statut possible pour des granulats destinés à devenir des produits de construction", affirme l'UNPG.
"Le décret sur la sortie du statut de déchets devrait être publié en mars ou avril prochain", indique Olivier David, chef du bureau de la planification et de la gestion des déchets au ministère de l'Ecologie. "La sortie ou non du statut de déchets n'est ni une magie, ni un handicap rédhibitoire", tient toutefois à souligner Laurent Michel, directeur général de la prévention et des risques dans le même ministère.
Autrement dit, si un déchet répond aux critères lui permettant de devenir produit, cela ne résoudra pas immédiatement toutes les questions liées à sa valorisation. Il faudra notamment qu'il réponde aux exigences fixées par le guide technique du Setra de mars 2011 pour une réutilisation en techniques routières, ainsi qu'à celles du règlement communautaire sur les matériaux de construction. A l'inverse, le recyclage d'un déchet restera toujours possible sans pour autant qu'il adopte le statut de produit. Pour Joëlle Herschtel, avocate au cabinet Winston & Strawn, "cette superposition de statuts est source d'incertitude juridique".
Développer la production de béton et l'installation de plateformes de recyclage
L'utilisation des granulats recyclés s'est développée depuis 20 ans en techniques routières. "La question se pose aujourd'hui d'élargir leur utilisation à d'autres usages comme la production de béton", indique Christophe Jozon, président de la commission recyclage de l'UNPG. C'est pourquoi l'organisation professionnelle s'est associée au projet de recherche Recybéton, qui vise à faire émerger la filière de recyclage du béton.
"Nous souhaitons également promouvoir l'installation des plateformes de recyclage en milieu urbain et périurbain", indique Nicolas Vuillier, président de l'UNPG. "Certaines dépenses des communes pourront faire l'objet d'aides de la part de l'Ademe dans le cadre d'appels à projets", précise Laurent Michel en écho. Mais les sites de carrières peuvent aussi accueillir ce type d'activités, ce qui présente l'intérêt pour les producteurs de pouvoir proposer à la fois des granulats recyclés et des granulats naturels à leurs clients.
Participer au déploiement des plans de la gestion des déchets du BTP
Même si "la progression du recyclage en France est indiscutable (…), la filière entend être, localement un acteur majeur du déploiement des plans de gestion des déchets du BTP", indique l'UNPG, qui demande simultanément aux pouvoirs publics de "formaliser une stratégie nationale de recyclage".
Les collectivités qui ont anticipé la publication du décret d'application de la loi Grenelle 2, comme la région Ile-de-France, devraient tenir l'échéance de juillet 2013 pour l'élaboration des plans, indique Olivier David. La majorité des conseils généraux se mettent en ordre de marche. "En cas de carence, l'Etat peut reprendre la compétence d'élaboration du plan", rappelle aussi le représentant du ministère.
Cadre réglementaire cohérent
Pour finir, les producteurs de granulats souhaitent "contribuer à l'émergence d'un cadre réglementaire cohérent pour l'ensemble des acteurs". A cet égard, Olivier David souligne que des travaux ont été menés sur le guide du Setra avec la volonté d'en faire une véritable référence au niveau européen. D'autre part, des déclinaisons du guide sur des domaines particuliers sont en préparation avec une publication programmée avant l'été 2012.
Quant à la révision de la rubrique 2515 "Broyage, concassage, criblage…" de la nomenclature des ICPE, le texte devrait être examiné par le Conseil supérieur de la prévention des risques technologiques (CSPRT) en mars prochain pour une publication avant l'été. "L'idée est d'appliquer des régimes proportionnés aux différents cas rencontrés", précise Olivier David. Les différences de régimes applicables se traduisant surtout par des différences de procédure, les exigences pour l'environnement restant, quant à elles, identiques.
REP : un projet de rapport gouvernemental retoque la création de nouvelles filières
Un projet de rapport gouvernemental obtenu par Actu-environnement recommande de ne pas créer de nouvelles REP et de ne pas les étendre dans l'immédiat. Le document soumet pourtant une longue liste de gisements qui pourraient être visés.
Le gouvernement devrait recommander de ne pas créer de nouvelles filières de responsabilité élargie des producteurs (REP) dans un rapport sur les modalités d'évolution et d'extension du principe de REP dont Actu-environnement a obtenu une copie. Le projet de rapport, encore susceptible d'être révisé, préconise de ne pas modifier l'organisation actuelle afin "de proposer pour les prochaines années un cadre stabilisé".
L'article 210 de la loi Grenelle 2, prévoit qu'"au plus tard le 1er janvier 2012, le Gouvernement remet au Parlement un rapport sur les modalités d'évolution et d'extension du principe de REP, notamment sur son élargissement aux produits consommés par les entreprises générant des déchets susceptibles d'être collectés dans les mêmes conditions que les déchets municipaux". Le projet de rapport consulté par Actu-environnement devrait être finalisé pour une remise au Parlement "dans les meilleurs délais au cours du premier trimestre 2012". La Direction générale de la prévention des risques (DGPR) du ministère de l'Ecologie et l'Agence de l'environnement et de la maîtrise de l'énergie (Ademe) en sont les rédacteurs.
Ne pas nuire à la performance environnementale
Afin d'assurer la bonne mise en œuvre des filières REP existantes, le projet de rapport préconise de ne pas en modifier le principe et le périmètre des gisements visés au cours des prochaines années. De fait, l'extension du mécanisme, via la création de nouvelles filières, semble exclue.
"L'atteinte des objectifs environnementaux et économiques (…) va nécessiter pendant les prochaines années une implication forte de l'ensemble des parties prenantes des filières REP et des services de l'Etat", estime le gouvernement, ajoutant que "l'évolution et l'extension des principes de la REP pourraient ainsi nuire à la montée en puissance de la performance environnementale des filières REP existantes et en cours de mise en place".
Si toutefois, "d'éventuelles évolutions ou extensions" étaient envisagées, elle "devraient (…) systématiquement reposer sur des études démontrant leur pertinence au regard des enjeux majeurs poursuivis aujourd'hui", précise le projet de rapport.
De même, le projet de rapport recommande de ne pas étendre le principe de la REP à d'autres gisements de déchets. "La majorité des gisements de déchets ménagers et assimilés présentant des enjeux de recyclage (…) ou de traitement spécifique (…) sont désormais visés par les filières REP", jugent les rapporteurs gouvernementaux qui estiment donc que "la pertinence environnementale du recours à une filière REP pour tout nouveau gisement devra systématiquement faire l'objet d'une étude d'opportunité préalable".
De nombreuses modifications envisageables
Paradoxalement, la conclusion du projet de rapport présente une longue liste "d'évolutionset d'extensions spécifiques à chaque type de déchets". Il s'agit notamment d'étendre le principe de la REP à une série de gisements de déchets liés notamment à des activités professionnelles.
Ainsi, la REP emballages ménagers pourrait étendre son périmètre aux déchets d'emballage de type ménager du secteur professionnel (cafés, hôtels, restaurants, etc.) et modifier les missions des sociétés agréées pour qu'elles puissent participer à la gestion des déchets d'emballages ménagers consommés dans les entités privées recevant du public. Concernant la REP papiers, elle pourrait participer à la collecte séparée et au traitement des déchets de papiers professionnels. De même il est encore possible d'étendre "le champ des papiers devant contribuer à la filière".
La REP pour les médicaments non utilisés pourrait être étendue aux médicaments à usage vétérinaire et destinés aux animaux de compagnie. Quant aux déchets d'activités de soins à risques infectieux (Dasri), le périmètre de la filière pourrait être étendu aux déchets perforants produits par les professionnels de santé du secteur diffus.
La REP des piles et accumulateurs pourrait mettre en œuvre des synergies avec la REP des déchets d'équipements électriques et électroniques (DEEE) et "améliorer la fiabilité des données relative à leur collecte et à leurtraitement". Quant à la filière des DEEE, la transposition de la directive révisée, pourrait imposer une clarification du périmètre de la filière afin qu'il ne recouvre pas d'autres filières REP, telles que l'ameublement et les textiles. De même, elle pourrait "développer le dispositif de reprise « un pour zéro » pour la filière à destination des ménages, et mener une réflexion sur la fiabilité des registres, conformément à celle proposée par la filière des piles et accumulateurs".
Enfin, pour les textiles d'habillement, "le barème de soutiens pourrait être révisé afin d'être davantage incitatif et éviter tout effet d'aubaine". De plus il serait possible d'étendre la filière aux textiles d'ameublement. La filière des déchets diffus spécifiques, pourrait elle aussi "étendre la liste des déchets concernés".
Autant d'évolutions possibles qui pourraient être envisagées "à l'occasion des renouvellements des cahiers des charges d'agrément des différentes filières REP". Pour l'heure, "il est (...) recommandé de proposer pour les prochaines années un cadre stabilisé pour les différentes filières REP".
Alors que le Président de la République était venu présenter l'offre de reprise d'EDF aux salariés de Photowatt, la Ministre de l'écologie annonçait une hausse prochaine du tarif d'achat de l'électricité solaire produite par du photovoltaïque « fabriqué en France ». Vraie ou fausse bonne nouvelle ?
Alors que la société Photowatt semble promise à EDF, c'est par une déclaration à l'AFP que Nathalie Kosciusko-Morizet, Ministre de l'écologie a fait état d'une prochaine hausse du tarif d'achat d'électricité solaire : "Il va y avoir un tarif plus élevé, d'au moins 10 %, quand l'électricité sera produite à partir de panneaux fabriqués en France, c'est-à-dire à partir de 60 % de valeur ajoutée produite en France". La ministre a ajouté : "C'est le dernier maillon d'un dispositif qui se met en place, pour produire de l'électricité renouvelable mais en créant des emplois en France".
10% de bonus pour le « made in France »
Ainsi, un décret devrait être publié au mois d'avril pour entériner cette décision de créer un bonus de 10% lorsque l'électricité solaire est produite à partir de panneaux fabriqués en France. Vraie bonne ou fausse bonne nouvelle ? Les réactions ne se sont pas fait attendre. Les uns ont désigné le verre à moitié vide et la politique en forme de montagnes russes de ces trois dernières années. Les autres se sont inquiétés de ce que cette mesure pourrait contrevenir aux règles du droit de la concurrence en imposant une discrimination entre produits français et étrangers.
Une mesure contraire au droit de l'Union européenne
Le projet de décret annoncé par Nathalie Kosciusko-Morizet n'étant pas finalisé, il est bien trop tôt pour conclure à son illégalité. Au demeurant, rien ne démontre à ce stade que cette mesure pourrait contrevenir aux règles de concurrence ou constituer une mesure d'effet équivalent susceptible d'être dénoncée par la Commission européenne. Pour l'heure, la déclaration de la Ministre n'est pas assez précise, sur le plan du droit, pour permettre d'émettre un jugement définitif. Il conviendra de savoir ce qu'est un panneau solaire « fabriqué en France ». Tous les composants devront-ils avoir été produits sur notre territoire ? La fabrication peut-elle correspondre à l'assemblage ? En clair l'expression « 60% de valeur ajoutée » est encore difficile à définir dès lors que son assiette n'est pas encore rendue publique. Par ailleurs, il est possible que les auteurs du futur décret choisissent d'élargir cette préférence à l'Europe pour prévenir les critiques éventuelles de l'Union européenne. En toute hypothèse on notera que cette volonté du Gouvernement de favoriser une industrie française n'est pas nouvelle. Depuis 2010 et l'annonce d'un moratoire de trois mois sur la conclusion des contrats d'achat, le Gouvernement s'est fixé pour priorité la création de cette filière industrielle tricolore sans que l'on sache toutefois si celle-ci devrait être en tout ou partie intégrée.
Aller plus loin
La décision d'augmenter le tarif d'achat de l'électricité solaire ne peut qu'aller dans le bon sens mais elle ne suffira pas à relancer la filière et à assurer notamment l'accès des petits producteurs alternatifs au marché. En premier lieu, le tarif d'obligation n'est que l'un des leviers de régulation de la filière. L'accès au financement, au foncier, les conditions d'instruction des demandes d'autorisations d'urbanisme, de raccordement, le coût de l'accès au réseau sont autant d'étapes - et parfois d'obstacles - à franchir par les développeurs et les producteurs pour pouvoir mener à bien un projet. C'est sur toute la chaîne de développement des projets qu'il conviendrait d'intervenir pour mettre au point un dispositif juridique clair et efficace. En second lieu, s'agissant spécifiquement de l'obligation d'achat, une réflexion devrait être engagée non seulement sur la possible diversification des autorités en charge de cette obligation mais également sur la pertinence de la procédure d'appel d'offres pour les installations de plus de 100 kWc, mise en place début 2011. Il s'agit certainement d'un mauvais système qui tend à assurer la régulation urbanistique et environnementale d'un secteur au moyen d'un cahier des charges d'un appel d'offres qui ne devrait en théorie concerner que l'obligation d'achat.
En définitive, la priorité des priorités, pour le solaire comme pour toutes les énergies renouvelables serait de mettre un terme à la succession des annonces pour dessiner enfin ce cadre juridique clair, stable et durable si nécessaire à la réalisation des investissements dans ce secteur. Les acteurs et investisseurs ont besoin de prévisibilité et d'un horizon dégagé. Ils ont besoin aussi que l'on clarifie l'objectif : celui de 5.400 MW de puissance installée en solaire d'ici à 2020 est à la fois trop réduit et ambigu : s'agit-il d'un plafond ou d'un plancher ? Ainsi, si l'augmentation du tarif d'achat ne peut qu'aller dans le bon sens, elle ne saurait cependant être suffisante.
Arnaud Gossement, avocat associé au Barreau de Paris, spécialisé en droit de l'environnement.
Invité
Sujet: Re: Actualités Ven 17 Fév - 20:39
L'analyse des impacts environnementaux des retenues d'eau est une priorité pour 2012
Interrogés sur la faisabilité économique et environnementale de retenues d'eau dans le bassin Adour-Garonne, le CGEDD et le CGAAER préconisent en priorité de réaliser en 2012 une synthèse scientifique sur les impacts de tels projets.
Pour atteindre un bon état écologique des eaux d'ici 2015, les bassins versants doivent notamment parvenir à un retour à l'équilibre entre la ressource en eau et la pression qu'elle subit. Or, de nombreux bassins sont déficitaires aujourd'hui. La loi sur l'eau et les milieux aquatiques de 2006 a donc prévu une réforme des volumes prélevables par l'irrigation, afin de réduire ce type de prélèvements. Ainsi, il n'y a qu'en période particulièrement sèche que l'équilibre pourra ne pas être atteint. La ressource prélevable doit être répartie entre les agriculteurs par un organisme unique.
Mais "ces dispositions seront contraignantes pour les agriculteurs irrigants. Dans certains bassins, l'irrigation sera en effet plus restreinte qu'aujourd'hui. Les pouvoirs publics ont donc été progressivement amenés à prévoir une politique d'accompagnement. Une des dispositions principales de cet accompagnement a été d'inclure provisoirement dans la définition des volumes prélevables le volume des retenues qu'il serait raisonnable de construire dans le sous-bassin, afin d'éviter des ajustements trop rapides à la baisse de l'irrigation, qui seraient suivis d'un autre ajustement à la hausse une fois chaque retenue construite", indiquent le CGEDD et le CGAAER qui se sont vus confier, en décembre 2010, une étude sur les projets de retenues d'eau "envisageables d'un point de vue environnemental et économique " sur le bassin de l'Adour-Garonne, qui est particulièrement soumis à pression.
Le gouvernement a confirmé cette politique d'accompagnement dans le cadre du plan quinquennal de gestion de l'eau en agriculture, présenté en novembre 2011. Ce plan prévoit de créer une capacité de stockage d'eau supplémentaire de 40 millions de mètres cubes. Les projets de retenue pourront bénéficier d'aides européennes ou de subventions des agences de l'eau.
Analyser en priorité les impacts environnementaux des retenues
Pour la mission, un projet "envisageable d'un point de vue environnemental" doit respecter les dispositions de la directive cadre sur l'eau (DCE) et les prescriptions des schémas directeurs d'aménagement et de gestion des eaux (Sdage). Or, "plusieurs scientifiques rencontrés par la mission considèrent qu'un ouvrage transversal installé dans le lit mineur d'un cours d'eau (barrage) induit nécessairement une modification ou une altération de la masse d'eau concernée. L'objectif général de la directive cadre sur l'eau est en revanche d'obtenir un état des masses d'eau aussi proche que possible d'un état naturel non altéré". La mission définit donc comme "une priorité" la réalisation en 2012 d'une synthèse de travaux scientifiques sur ces impacts en cohérence avec les paramètres suivis dans le cadre de la DCE, "qui puisse servir de référence pour les études d'impact à engager ou à actualiser" pour les retenues d'eau. "Aussi surprenant que cela paraisse pour une directive établie il y a plus de dix ans, ce travail, en cours, reste encore à finaliser". Par ailleurs,"il conviendra de chercher à qualifier, en droit interne, le concept de détérioration des masses d'eau prévu dans la directive. A défaut la jurisprudence tranchera", souligne la mission.
Sur la base de travaux scientifiques, la mission estime qu'une étude d'impact devra au moins évaluer les conséquences en amont de l'ouvrage (impact sur les salmonidés migrateurs ou natifs et sur les macroinvertébrés), les effets induits par la création de la retenue (risques de stratification thermique, d'accumulation de sédiments, d'enrichissement en nutriments et d'ennoiement de zones remarquables, eutrophisation, phyto-plancton, macroinvertébrés, poissons), les effets induits par la gestion du barrage sur le transport sédimentaire et la circulation des organismes aquatiques, les effets aval (hydrologie estivale mais aussi hivernale en période de crues, sédimentation, température, habitats aquatiques, faune et flore) et les effets distants (au besoin jusqu'à l'estuaire) s'il s'agit d'un ouvrage de très grande taille (ou si des effets cumulés importants sont prévisibles).
En parallèle, la mission recommande "la plus grande transparence sur les objectifs assignés aux retenues d'eau à créer. Dans l'hypothèse où un accroissement de l'irrigation serait prévu, celui-ci doit être conditionné par l'atteinte préalable des débits objectif d'étiage, et les contributions publiques correspondantes (État, collectivités territoriales et agence de l'eau) doivent respecter les règles d'encadrement communautaire". La création de commissions locales d'information et de suivi (Clis) est également préconisée, "en particulier en ce qui concerne les projets localement controversés, afin de concrétiser le droit à l'information environnementale reconnu par la loi".
Onze projets envisageables dans le bassin Adour-Garonne
La mission a également procédé à l'examen d'une vingtaine de projets situés dans les onze sous-bassins considérés comme prioritaires par les directions régionales de l'Environnement et de l'Agriculture de l'Adour-Garonne. L'étude souligne que le nombre de sous-bassins déficitaires a probablement été sous-estimé par l'agence de l'eau. Or, ''ce constat, s'il n'a pas de conséquence négative pour les agriculteurs, pose la question de la participation de l'agence aux projets de retenues : rappelons en effet qu'il est prévu d'appliquer un taux majoré de subvention (70 %) pour les bassins très déficitaires". A l'issue de cet examen des projets de retenue, 6 projets apparaissent comme envisageables d'un point de vue environnemental, sous réserve de confirmation par l'étude d'impact, 5 projets sont envisageables en fonction d'études à engager ou à condition que des réserves soient levées, et deux projets sont difficilement envisageables en l'état, ou appellent une réorientation importante.
Parmi ces deux projets, "le plus conséquent de tous, celui de Vimenet en Aveyron, ne serait envisageable d'un point de vue environnemental qu'à condition qu'il soit reconnu « d'intérêt général majeur » au sens de la directive cadre sur l'eau ; cela supposerait qu'il soit utilisé non seulement pour l'irrigation, mais aussi pour l'eau potable".
Avant de déclarer un tel projet d'intérêt général majeur, la mission recommande une évaluation environnementale approfondie afin de minimiser les impacts négatifs sur l'environnement et l'altération des masses d'eau. En outre, ces projets doivent être "d'une certaine ampleur, où l'intérêt général puisse être invoqué de manière large et argumentée". Il ne doit pas exister non plus de solutions alternatives meilleures au plan environnemental, sauf à des coûts disproportionnés. Enfin, le maître d'ouvrage d'un tel projet doit être un opérateur public.
Le bassin Adour-Garonne sous pression
Le bassin Adour-Garonne souffre d'un déficit en eau de 235 millions de mètres cube pour atteindre les objectifs de retour à l'équilibre. La ressource en eau est très sollicitée, notamment par l'irrigation, qui est le plus gros consommateur en période d'étiage (940 millions m3 prélevés par an entre 2002 et 2009 pour 600.000 hectares). L e bassin compte aujourd'hui 765 millions m3 de réserves artificielles (barrages hydroélectriques dont certains réalisent des déstockages en période d'étiage, des barrages dédiés au soutien des étiages, une cinquantaine de retenues de capacité moyenne et 15.000 petites retenues collinaires).
Biodéchets : comment mettre en œuvre la nouvelle obligation de tri à la source ?
Depuis le 1er janvier 2012, les gros producteurs de biodéchets ont une obligation de tri à la source. Comment la mettre œuvre ? Une circulaire apporte des réponses.
La ministre de l'Ecologie a adressé le 10 janvier une circulaire aux préfets relative aux modalités d'application de l'obligation de tri à la source des biodéchets entrée en vigueur en début d'année. Ces instructions visent à accompagner la mise en œuvre du dispositif réglementaire publié en juillet dernier.
Définition du biodéchet
Le premier intérêt de cette circulaire est celui de préciser le champ d'application de la réglementation. Selon la définition du biodéchet figurant à l'article R. 541-8 du code de l'environnement, les déchets fermentescibles tels que les boues d'épuration, les déchets de bacs à graisse, les déchets de la transformation du bois, les déchets d'animaleries ou les déchets d'abattoirs ne sont pas des biodéchets. "Il convient également d'exclure de cette définition les déchets de la production primaire, tels que les déchets de l'agriculture, de la sylviculture ou de la pêche", ajoute la circulaire.
L'article R. 543-227 avait déjà exclu explicitement les sous-produits animaux des catégories 1 et 2, les biodéchets contenant une fraction crue de viande ou de poisson, les biodéchets liquides autres que les huiles alimentaires, les déchets ligneux d'élagage ou de taille des végétaux qui font effectivement l'objet d'une valorisation énergétique.
L'article R. 543-226 prévoit que "les producteurs ou détenteurs d'une quantité importante de déchets composés majoritairement de biodéchets (…) sont tenus d'en assurer le tri à la source en vue de leur valorisation organique". La circulaire précise que les flux pris en compte sont "ceux dans lesquels la masse des biodéchets constitue au moins la moitié de la masse totale des déchets dans le flux considéré à l'exclusion des déchets d'emballages". En effet, ces derniers doivent d'ores et déjà faire l'objet d'une valorisation lorsque leur production dépasse 1.100 litres par semaine. "Cette composition s'apprécie au sein d'un flux homogène de déchets, avant mélange éventuel de plusieurs flux de nature différente, et non par rapport aux quantités totales de déchets produits ou détenus par la personne", détaille la circulaire. En bref : dans le cas d'un marché par exemple, il n'est pas possible que des vendeurs de fruits mélangent leurs déchets avec ceux des vendeurs de vêtements pour donner un mélange comportant au final moins de 50% de biodéchets.
Producteurs et détenteurs de biodéchets
Qui est concerné par l'obligation ? Ce sont les personnes qui produisent ou détiennent des quantités importantes de biodéchets. Les ménages sont exclus de l'obligation de tri, de même que les exploitants d'installations de traitement de déchets. "Les secteurs économiques les plus directement concernés par l'instauration de cette obligation sont la restauration collective et le commerce alimentaire, y compris les marchés forains. D'autres secteurs, tels l'entretien des espaces verts et les industries agroalimentaires, sont également concernés mais dans une mesure moindre car le tri à la source des biodéchets y est d'ores et déjà pratiqué dans la majorité des cas", analyse la circulaire.
Dans le cas des collectivités qui accueillent des marchés, celles-ci sont tenues "de mettre à la disposition des vendeurs des conteneurs spécifiques clairement identifiés dédiés à la collecte des biodéchets, et de leur donner des consignes précises en ce sens".
Dans le cas d'un restaurant collectif dont la gestion est confiées à un prestataire, "c'est ce dernier qui est considéré comme responsable de la gestion des déchets, et donc notamment du tri à la source des biodéchets en vue de leur valorisation", précise le texte. " Le donneur d'ordres est toutefois tenu de faire en sorte que le prestataire ait les moyens de procéder à ce tri à la source, notamment en termes de configuration des locaux qu'il met à sa disposition".
Seuils de production
L'obligation de tri entre progressivement en vigueur entre 2012 et 2016 en fonction du tonnage de déchets produits. Lorsque les biodéchets effectivement produits ne sont pas pesés, il peut être difficile d'effectuer une estimation de leurs quantités. Pour la restauration, une étude réalisée en octobre 2011 par le Groupement national de la restauration (GNR) en partenariat avec l'Ademe fournit des indications par secteur d'activité.
"Ainsi, dans le secteur de la restauration traditionnelle et thématique, le ratio issu de l'étude est une production de 140 grammes de biodéchets par repas, incluant la préparation du repas, les plats non consommés et les restes sur les plateaux", explique la circulaire. "Dans le secteur de la restauration collective, le ratio est de 11 grammes par repas préparé en cuisine centrale, et la production de biodéchets est de 125 grammes par repas servi pour les satellites de réchauffage scolaires, et de 134 grammes pour les autres segments de la restauration collective. Dans le cas de la restauration rapide, qui ne sert pas seulement des repas, cette étude aboutit à un ratio de 43 g de biodéchets par ticket de caisse, et établit que les biodéchets provenant de la salle de restauration ne représentent qu'entre 6 et 8 % du flux des déchets produits".
Le seuil de 10 t/an retenu pour le 1er janvier 2016 correspond ainsi à environ 71.000 repas/an, soit un restaurant d'entreprise qui sert 275 repas par jour sur 260 jours dans l'année.
Collecte et valorisation des déchets
Les biodéchets conditionnés peuvent être collectés dans leur contenant. Ceux-ci doivent alors être déconditionnés dans une installation adaptée avant de faire l'objet d'une valorisation organique. "Ce qui importe est que la partie organique de ce flux de déchets soit in fine valorisée", souligne la ministre de l'Ecologie.
Mais la valorisation des biodéchets triés à la source sera la plupart du temps confiée à un tiers après collecte séparée et transport vers un site extérieur de compostage ou de méthanisation. "La valorisation peut également être effectuée par le producteur du biodéchet lui-même, qui s'affranchit ainsi de la phase de collecte", précise la circulaire. Pour les gisements les plus importants, cette valorisation directe peut se faire par méthanisation, mais le cas le plus fréquent devrait être le compostage sur place. Il peut aussi être fait appel à d'autres techniques telles que le séchage sur site en tant que prétraitement.
"Une valorisation matière, ou l'utilisation en alimentation animale, notamment auprès de chenils ou de zoos, peut tout aussi bien être retenue, sous réserve de conformité à la réglementation sanitaire", admet la circulaire.
Quant aux huiles alimentaires usagées, leur mode de valorisation privilégié est la lipochimie ou leur transformation en un produit à usage énergétique : biodiesel, combustible pour chaufferie, voire biogaz. "Leur utilisation directe comme carburant n'est en revanche pas autorisée", rappelle la ministre.
Contrôles et sanctions
"Le contrôle efficace et effectif de cette obligation nouvelle est essentiel afin notamment de garantir aux acteurs économiques une concurrence loyale", indique Nathalie Kosciusko-Morizet.
"Concernant le contrôle des établissements du secteur de l'entretien des espaces verts, il pourra se limiter à s'assurer de l'existence d'un site de valorisation des déchets verts et du respect de l'interdiction de leur brûlage à l'air libre", précise la circulaire.
Le non-respect de la réglementation en matière de tri à la source et de valorisation des biodéchets expose à des poursuites administratives et/ou pénales. Celles-ci peuvent donner lieu à une amende administrative après mise en demeure de l'établissement contrevenant ou, au plan pénal, à des peines pouvant atteindre 75.000 euros d'amende et deux ans d'emprisonnement.
Pour éviter cela, les producteurs pourront toujours se référer aux guides pratiques sectoriels que l'Ademe doit publier au cours de l'année 2012. Ces guides sont censés éclairer "les aspects techniques et méthodologiques de la gestion des biodéchets en conformité avec la réglementation environnementale et sans préjudice de la réglementation sanitaire dans les secteur de la restauration et du commerce alimentaire".
L'Académie des technologies place les vecteurs énergétiques au cœur des choix
Pour l'Académie des technologies, les choix énergétiques doivent être arbitrés en fonction de critères économiques et écologiques propres à chaque vecteur énergétique, qu'il s'agisse d'électricité, de biocarburants, d'hydrogène, de gaz ou d'essence.
L'Académie des technologies ne craint pas de prendre à rebrousse poils les hérauts des économies d'énergie et autres négawatteurs allemands ou français. Dans une étude diffusée le 14 février, l'Académie propose d'orienter les choix énergétiques en fonction des vecteurs d'énergie et non pas des sources d'énergie. Ce groupe de chercheurs définit un vecteur d'énergie comme le support d'une énergie finale distribuée au consommateur pour satisfaire un besoin. C'est le carburant dont il remplit le réservoir de sa voiture, c'est l'électricité qu'il prélève à la prise de courant, c'est le gaz qu'il consomme pour son chauffage, ou la chaleur ou le froid provenant d'un réseau urbain. Les vecteurs s'intercalent entre sources d'énergies primaires et usages finaux.
Les vecteurs n'ont pas toujours existé et sont propres à la révolution industrielle fondée sur les énergies thermiques. "C'est ainsi que, pendant des siècles, le bois a été utilisé localement comme source, de même que la force motrice de l'eau ou du vent. Un vecteur peut être en même temps une source ; il peut même disparaître en tant que vecteur et n'être plus qu'une source. Au début de l'ère industrielle, le charbon était à la fois source et vecteur, pour le transport par locomotive à vapeur, pour le chauffage par les foyers domestiques, pour fournir la force motrice des usines par les machines à vapeur, pour fournir l'énergie des hauts fourneaux", décrit l'étude.
Paysage concurrentiel
Le caractère essentiel et nouveau de ces vecteurs est d'avoir introduit une coupure entre les sources et les besoins. Si un usager fait appel au vecteur électricité, il peut ignorer de quoi est faite cette électricité : charbon, gaz, renouvelables ou uranium ? Cette forme d'ignorance, selon Gilbert Ruelle, président du groupe de travail sur les vecteurs d'énergie à l'Académie des technologies, "favorise des concurrences, tant pour accéder aux sources qui alimentent les vecteurs qu'entre les usages qui relèvent de ces vecteurs". Les usages, comme le bâtiment, le transport, l'industrie ou l'agriculture, peuvent en effet entrer en compétition pour garantir leurs approvisionnements. L'électricité peut être produite à partir de gaz ou de charbon. Et le vecteur, l'électricité par exemple, alimentera l'usage dont le prix sera le plus rémunérateur. Le prix, dans ce paysage concurrentiel, est la variable clé de l'allocation des vecteurs.
Or coûts et prix sont appelés à une variabilité croissante au XXIème siècle, selon l'étude de l'Académie des technologies, qui se veut un "guide de bonne conduite économique et écologique" dans le choix des processus énergétiques. A partir des prix de marché des sources d'énergie primaire comme le charbon ou le gaz, faut-il produire de l'électricité ou bien de l'hydrogène ? Faut-il produire du carburant liquide à partir de charbon, de pétrole brut ou de gaz ? Faut-il motoriser un véhicule à partir de carburant liquide, d'électricité ou d'hydrogène ?
Le modèle proposé par l'Académie des technologies propose de calculer le coût d'un vecteur énergétique établi à partir du prix de marché de la source primaire (le charbon par exemple), du rendement énergétique du procédé, des coûts "fixes" (investissement, fonctionnement, maintenance), et de la quantité de CO2 émise pour produire 1GJ d'énergie finale. Il ne s'agit donc pas d'un scénario de prospective, mais d'une méthodologie d'arbitrage déterminée par le critère du coût pour l'industriel dans lequel entre en ligne de compte le prix du CO2.
Conservatisme nucléaire
Selon cette "boussole" économique et écologique, les auteurs de l'étude pensent pouvoir aider les industriels à choisir la solution la moins coûteuse "à critère écologique équivalent". Par exemple, le gaz fournit son meilleur rendement énergétique dans les centrales à cycle combiné, dans un contexte de baisse des prix, auquel les gaz des schistes américains ne sont pas étrangers. Mais à long terme, selon l'étude, le vecteur gaz risque de disparaître de l'habitat neuf en 2050, date à laquelle il pourrait être entièrement capté pour la production d'électricité en remplacement du charbon.
Quant au vecteur électricité, il semble appelé à se développer, souligne l'étude, tant dans les usages fixes spécifiques (pompes à chaleur, électronique, internet) que dans les usages fixes de chaleur (industrie, biocarburants) et dans les usages mobiles (voitures hybrides rechargeables, voitures électriques). "Il est aussi appelé à se transformer assez sensiblement avec le développement de sources intermittentes centralisées (éolien, solaire) et décentralisées (solaire), l'arrivée de compteurs intelligents facilitant la gestion des pointes", analyse l'Académie des technologies, qui pointe un possible doublement des coûts de production sur les 40 prochaines années en cas de recours élargi aux énergies renouvelables (ENR) et au gaz par rapport au développement business as usual du système électrique européen.
Sur le nucléaire, l'étude propose le maintien de la filière, non sans avertir que la réduction de la part de l'atome dans le mix énergétique "entraînerait une augmentation sensible des coûts du kilowatt-heure et serait mal perçue par le public". L'étude ne précise pas toutefois comment elle parvient à ce calcul, qui ne dit pas si le démantèlement des centrales en fin de vie et la gestion des déchets sont pris en compte. Sur la place des ENR, l'hypothèse des académiciens semble accréditer un certain conservatisme : "Il est vraisemblable que plus la part des ENR sera importante, plus il faudra prévoir une modulation par des moyens thermiques conventionnels, ce qui va à l'encontre de l'objectif de réduction du CO2 ". Même si la "boussole" se veut "neutre", pointe en filigrane une apologie du vecteur électrique et de sa source privilégiée en France : le nucléaire.
Aires marines protégées : les pêcheries bénéficieraient indirectement de la création de réserves
La création d'aires protégées profiterait aux pêcheurs qui bénéficieraient de l'accroissement de la biomasse à l'extérieur de la zone. Telle est la principale conclusion du projet Amphore conduit sur quatre AMP.
Le 10 février 2012, s'est tenu le séminaire de clôture du projet Aires marines protégées et gestion halieutique par optimisation des ressources et des écosystèmes (Amphore), dont l'un des principaux objectifs était d'évaluer l'efficacité réelle des Aires marines protégées (AMP) à des fins de gestion des pêcheries. Il a été mené entre 2008 et 2012 dans le cadre du programme Biodiversité de l'Agence nationale de la recherche (ANR).
Quatre AMP ont été évaluées : Le parc national de Port Cros (Var), le parc marin des Bouches de Bonifacio (Corse-du-Sud), l'AMP de Bambung (Sénégal) et le parc national du Banc d'Arguin (Mauritanie).
Mesurer l'impact hors AMP
De nombreux impacts positifs pour la ressource halieutique sont mis en avant par les promoteurs des AMP. A l'intérieur de l'Aire, l'efficacité maximale devrait être constatée sur les espèces cibles de la pêche et sur les prédateurs. A l'extérieur, un effet de débordement, c'est à dire un mouvement des adultes vers les zones adjacentes, est escompté. Celui-ci étant lié au renforcement des migrations entre la zone protégée et l'extérieur, il est localisé au voisinage immédiat. De plus, il est associé à la dispersion larvaire attendue du fait de l'augmentation du recrutement des adultes en âge de procréer, de la protection des zones frayères et de la protection des nourriceries. Reste que si ces effets, potentiellement positifs pour les pêcheurs à l'extérieure de l'AMP, sont globalement connus, il n'est pas certain qu'ils compensent l'impact négatif associé aux restrictions de pêche dans les Aires.
"L'objectif était d'étudier ce qui se passe pour les activité de pêche à l'extérieure des AMP", explique Raymond Laë, chercheur à l'Institut de recherche pour le développement (IRD) et coordinateur du projet Amphore. "Dans cette démarche, l'AMP est considéré comme un investissement réalisé par la société et qui bénéficie à certains acteurs", rappelle Jean Boncoeur, professeur au Centre de droit et d'économie de la mer (Cedem), ajoutant que les impacts positifs ne se limite pas à la pêche aux frontières de l'Aire, mais aussi aux activités récréatives et plus généralement sur le développement économique local.
Pour cela, les AMP retenues présentent des profils très différents en matière de surface protégée (de 7 km2, pour l'AMP de Bambung, à 6.000 km2, pour le Banc d'Arguin), de climat (climat tempéré pour les AMP françaises et tropical pour les AMP africaines) et de biodiversité (d'un niveau moyen, pour les Bouches de Bonifacio, à élevé pour les trois autres). De même la nature des activités de pêches autorisées dans les AMP est très variée. Si aucune pêche professionnelle n'est autorisée dans l'AMP de Bambung, l'activité professionnelle est qualifiée de faible à modérée pour les trois autres.
Sélectionner les zones de pêche
"Finalement, il n'y a pas de miracle à attendre", estime Didier Gascuel, chercheur au pôle halieutique de l'Agrocampus Ouest, précisant que "ce que l'on ne peut pas pêcher dans la zone se retrouve plus ou moins à l'extérieur". Il semble donc, au regard des résultats de l'étude Amphore, que la protection d'un périmètre donné ait bel et bien un effet source qui permet de renforcer la ressource halieutique à l'extérieur. Les modèles écosystèmiques ont mis en avant ce type d'effet, en particulier pour le parc marin des Bouches de Bonifacio et l'AMP de Bambung.
Par contre, pour Port Cros, les chercheurs n'ont pas pu mesurer un impact sur la pêche hors AMP. Cependant, un effet bénéfique sur les ressources halieutiques a été constaté dans la zone protégée, en particulier s'agissant des espèces emblématiques telles que le mérou, et le développement des activités récréatives est important. Pour les chercheurs, l'absence d'impact hors AMP pourrait s'expliquer par l'ancienneté de l'AMP, puisque les impacts humains sont d'ores et déjà stabilisés à un niveau bas qui ne permet pas de comparer avec l'écosystème dégradé qui prévalait avant la création de l'Aire. "Aujourd'hui, Port Cros peut être considéré comme étant à l'état vierge car l'activité de pêche y est très marginale depuis longtemps", avance Didier Gascuel. Effectivement, la zone est constituée en parc marin depuis 1963.
Pour Didier Gascuel, "d'un point de vue des ressources halieutiques, si l'on pouvait contrôler strictement les prises on n'aurait plus besoin de créer des zones protégées". Finalement, pour les chercheurs, la décision de créer une zone protégée revient à sélectionner les zones où la pêche est autorisée ou non, l'effet source compensant globalement l'interdiction de pêche dans l'AMP. Cependant, "des réserves de petite taille ont des effets insignifiants", prévient Didier Gascuel. L'efficacité du Banc d'Arguin, avec ses 6.000 km2 protégés sur les quelques 33.000 km2 du plateau continental mauritanien, milite pour de grandes étendues. En effet, 15 à 20% de l'ensemble des captures de pêche hors AMP bénéficieraient directement ou indirectement de la création de l'AMP. Un niveau qui s'élèverait à environ 50% pour les poissons côtiers.
Faut-il interdire l'utilisation du perchloroéthylène dans les pressings ?
Classé "cancérogène probable chez l'homme", le perchloroéthylène est toujours utilisé dans la plupart des pressings. Trois ONG demandent de nouveau son interdiction aux pouvoirs publics.
Le Réseau environnement santé (RES), l'association Génération futures et l'association de défense des victimes d'émanations de perchloroéthylène des pressings (ADVEPP) ont réclamé le 16 février l'interdiction de cette substance dans les nouvelles installations.
"Il est inacceptable qu'une telle substance continue d'être utilisée alors même que des alternatives existent. Le gouvernement doit agir au plus vite en interdisant le perchloroéthylène dans les nouvelles installations de nettoyage à sec au lieu de croire à un usage contrôlé", ont déclaré les associations.
Cancérogène probable chez l'homme
"Le perchloroéthylène est toxique pour les travailleurs, pour les riverains et pour la population en général", avertit André Cicolella, porte-parole du RES.
"Ce composé est classé cancérogène probable pour l'homme par le Centre international de recherche contre le cancer (goupe 2A) et cancérogène possible (catégorie 3) par l'Union européenne", confirme le Haut conseil de la santé publique (HCSP) dans un rapport de juin 2010. Les niveaux élevés de perchloroéthylène "sont liés à la proximité d'un pressing avec parfois des valeurs particulièrement élevées dans les appartements jouxtant directement l'établissement. Dans ces habitats, les concentrations moyennes peuvent atteindre 10.000 à 15.000 mg/m3", ajoute cette instance.
"L'Agence de protection de l'environnement des Etats-Unis vient de publier le 10 février 2012 une norme pour le perchloroéthylène : 40 mg/m3", indique André Cicolella. Une valeur à mettre en parallèle avec les concentrations relevées par le HCSP.
De plus, les victimes se multiplient, selon les ONG, qui mettent en avant le cas emblématique de l'occupante d'un appartement niçois situé juste au-dessus d'un pressing, qui est décédée d'arythmie cardiaque fin 2009. "L'autopsie demandée par le fils [de la victime] révèlera la présence de perchloroéthylène dans tous ses organes sauf l'estomac, deux expertises médicales ont conclu à un lien de cause à effet entre la présence de perchloroéthylène dans son corps et son décès", révèlent les associations.
Des alternatives existent
Pour le RES, "les procédés de remplacement existent". La preuve, selon l'association, c'est que le Danemark et les Etats-Unis ont d'ores et déjà interdit l'installation de nouveaux pressings utilisant le perchloroéthylène. L'INRS a effectivement publié l'année dernière une fiche d'aide à la substitution dédiée à cette substance. "De nombreux cas de substitution sont répertoriés en France. Elle est pratiquée aussi en Allemagne, au Japon et aux Etats-Unis. Certaines machines semblent adaptables à plusieurs types de produits", peut-on y lire.
Dans un rapport datant de 2005, l'Ineris avait analysé le développement des procédés de substitution suivants : nettoyage au mouillé, procédés aux hydrocarbures utilisant différentes substances, utilisation de CO2 liquide en phase supercritique. "Un rapport de l'Ineris plus récent publié en 2011 montre que les procédés les plus développés actuellement sont les technologies à base d'hydrocarbures, utilisant les siloxanes et l'aquanettoyage", précisent les ONG.
"Il faut toutefois veiller à ce que les produits de substitution ne soient pas pires que le perchloroéthylène", relève Laurent Michel, directeur général de la prévention et des risques au ministère de l'Ecologie, qui indique avoir reçu le 13 février 2012 l'expertise qu'il avait demandée à l'Anses sur cette question.
Une modification de la réglementation en projet
Alors où en est-on au niveau de la réglementation ? Laurent Michel rappelle que la campagne de contrôle menée en 2008 sur les pressings avait révélé une situation effectivement "pas fameuse" : 69% des installations avaient fait l'objet de mises en demeure préfectorales. Ces résultats inquiétants avaient conduit à la mise en place d'un plan d'actions et à la révision de la réglementation applicable.
La deuxième campagne de contrôle menée en 2010 a fait ressortir un taux de conformité de 66%. "On constate que depuis deux ans, la situation s'est inversée (…). Cependant les non-conformités résiduelles portent globalement sur les mêmes aspects relatifs à la ventilation et à l'épuration des rejets à l'atmosphère", pouvait-on lire dans le bilan 2010 de l'inspection des installations classées (ICPE).
"Un projet de modification de l'arrêté de 2009 interdisant l'installation de nouvelles machines utilisant du perchloroéthylène a été adressé à la profession pour consultation fin 2011", a révélé Laurent Michel le 15 février dernier. Des discussions avec l'Ademe et les agences de l'eau sont également en cours pour étudier les possibilités d'aide à l'achat de nouvelles machines par les exploitants.
Actions judiciaires
Ces projets de modification satisferont-ils les ONG ? Rien n'est moins sûr, François Veillerette, porte-parole de Générations futures, dénonçant la mise en place "d'un hypothétique usage contrôlé du perchloroéthylène par des contrôles avec un suivi des installations en infraction et la mise en place d'un contrôle périodique obligatoire". L'association déplore également ne rien trouver sur cette substance dans le Plan cancer 2009-2013 et seulement un objectif de 30% de réduction des émanations dans le Plan national santé environnement 2 (PNSE 2).
"Devant les drames subis par de nombreuses victimes et cette carence notoire des responsables publiques", les ONG indiquent vouloir "agir par voie judiciaire pour demander des comptes". Dans un premier temps, Générations futures a décidé de se constituer partie civile dans le cadre de la procédure pénale instruite pour homicide involontaire suite au décès de la victime niçoise du perchloroéthylène. "Nous allons également demander à être reçus par la ministre de l'Environnement", indique l'association qui envisage, en l'absence de mesure claire de substitution systématique du perchloroéthylène, d'engager une action pour "carence fautive de l'Etat" devant les juridictions administratives.
Le tsunami au Japon a charrié une marée de déchets vers l'océan
Début mars 2011, le Japon était frappé par un séisme exceptionnel qui a généré un puissant tsunami. En ravageant le littoral, celui-ci a produit une quantité considérable de déchets variés et toxiques qui ont en partie été charriés vers l'Océan Pacifique, alimentant un peu plus les "continents" de déchets en formation.
Environ 300 km de côtes ont été balayées par le tsunami qui a pénétré jusqu'à 10 km à l'intérieur des terres au nord-est du Japon : villages, ports, rizières, zones industrielles, serres agricoles... rien n'a été épargné et plus de 560 km² de terres ont été submergées.
Les nombreuses vidéos et photos de la catastrophe témoignent du chaos engendré par le tsunami qui a détruit infrastructures, habitations , usines, équipements, entrepôts, véhicules... produisant une quantité considérable de déchets divers et toxiques.
Selon l'association Robin des bois, cette catastrophe a laissé environ 25 millions de tonnes de déchets sur les terres. Mais lorsque la vague s'est retirée du littoral, elle a charrié avec elle des millions de tonnes de déchets qui se retrouvent aujourd'hui dans l'Océan Pacifique. De plus, les fleuves côtiers continuent d'emporter avec eux des déchets qui se retrouvent ensuite dans l'océan.
Les déchets charriés sont divers : avions, bateaux, voitures et réservoirs qui vont progressivement rejeter en mer les hydrocarbures et autres liquides toxiques, fûts, jerrycans, bombes aérosols d'origines domestique et industrielle épandant dans l'océan des solvants, des acides, des pesticides, des médicaments, des bois traités... Certains types de déchets sont particulièrement dangereux : les appareillages électriques ou électroniques relarguent en mer des polluants persistants comme les PCB (polychlorobiphényls) et les composés bromés qui se nichent dans les chaînes alimentaires. L'océan n'est donc pas seulement contaminé par la radioactivité. Au final, une gigantesque décharge marine se forme alors que les conventions internationales interdisent l'immersion de déchets dans tout océan.
Les débris les plus lourds ou les plus détériorés ont coulé et seront un danger pour la pêche et les équipages quand les activités reprendront. Les déchets flottants sont entraînés par le courant du Pacifique Nord qui forme une boucle dont le tour complet sera fait en dix ans.
Les risques de collision entre des gros déchets, conteneurs maritimes et troncs d'arbres, et les navires de surface et les sous-marins ne sont pas négligeables. Après le typhon Morakot qui balayait la province chinoise de Taïwan en 2009, 170 000 tonnes de bois avaient été récupérées dans les eaux territoriales du Sud du Japon mais la majorité des bois flottant ont été entraînés par les courants trans-Pacifique.
Le voyage des déchets
Selon l'association Robin des bois, les déchets du tsunami voyagent à une vitesse moyenne de 9 à 18 km par jour. Une petite fraction sera entraînée par le courant de l'Alaska. Le gros mettra 2 ans pour traverser l'Océan Pacifique avant d'être repris par le courant de Californie. 2 ans de dérive seront à nouveau nécessaire pour longer du Nord au Sud les côtes californiennes. Les déchets seront en partie captés et piégés par un courant circulaire et s'accumuleront dans la plaque de déchets du Pacifique est (Eastern Pacific Garbage Patches). Les déchets les plus légers emportés par les courants, les vents et les vagues sont attendus dès le printemps prochain sur les plages au nord de l'archipel d'Hawaï ; les bouteilles vides en plastique seront les premières avec d'autres emballages alimentaires. Certains déchets continueront le voyage et alimenteront une autre zone d'accumulation de déchets : la Plaque de déchets du Pacifique ouest (Western Garbage Patch).
D'après une simulation réalisée par des chercheurs à l'Université de Hawaï, les déchets rejetés dans l'océan pourraient pourraient arriver en 2014 sur les côtes de la Californie. Ces débris seront alors dispersés sur plus de 7000 km de littoral : c'est à dire de l'Alaska au Mexique. La porte-parole du centre de recherche de l'Université de Hawaï a déclaré, "Lors de son retour d'Hawaï à Vladivostok, un navire russe a trouvé un grand nombre de déchets venant du tsunami." Certaines pièces légères flottent plus rapidement que prévu. "Nous ne voulons pas créer une panique, mais c'est bien de détecter ces traces."
Des déchets dangereux pour la faune
Ces déchets seront mortels pendant des décennies pour de nombreuses espèces marines : ils leurrent les oiseaux, les poissons, les mammifères marins et les tortues et rentrent à leurs dépens dans leurs régimes alimentaires, provoquent des occlusions, des étouffements, des pertes d'appétence et des troubles de la mobilité. De plus, les milliers d'engins de pêche arrachés aux quais et aux épaves de bateaux par le tsunami japonais livreront pendant des décennies une "pêche fantôme", capturant par milliers des requins, des mammifères marins, des saumons, et d'autres poissons de haute valeur commerciale, des oiseaux, des espèces menacées d'extinction comme les phoques moines d'Hawaii, comme le souligne l'association.
« Les 25 millions de tonnes de déchets terrestres produits par la double catastrophe du 11 mars 2011 sont sous la responsabilité des autorités japonaises. Les déchets aquatiques, eux, deviennent un problème international. Il est temps de mettre en œuvre des conventions et des moyens logistiques d'assistance mutuelle pour collecter après les catastrophes naturelles les flux de déchets qui rejoignent la mer, avant leur dispersion et leur multiplication par fragmentation », insiste l'association Robin des Bois.
Lancement du premier projet de nettoyeur de l'espace pour lutter contre les débris spatiaux
La prolifération des débris – restes de fusées et de satellites qui ne sont plus utilisés ou qui ont été détruits – dans les orbites terrestres constitue un risque de plus en plus pressant pour les engins spatiaux et peut générer des coûts colossaux. À l'EPFL, le Swiss Space Center a lancé le 15 février le projet CleanSpace One, visant à développer et construire le premier représentant d'une famille de satellites destinés au nettoyage de ces scories.
CleanSpace One à la poursuite de sa cible, l'un des CubeSats lancés par la Suisse en 2009 (Swisscube-1) ou 2010 (TIsat-1)
Les débris spatiaux
Quelque 16 000 objets de plus de 10 cm, des centaines de milliers de plus petits, lancés à des vitesses de plusieurs kilomètres par seconde : depuis les débuts de la conquête spatiale, la périphérie de la Terre s'est retrouvée de plus en plus encombrée de débris de toutes sortes, essentiellement concentrés sur les orbites basses (moins de 2000 km, où se trouve par exemple la Station spatiale internationale ISS) ou géostationnaire (35 786 km). Beaucoup sont issus de portions de fusées ou de satellites désintégrés en orbite. En cas d'impact, ces éléments peuvent gravement endommager, voire détruire des satellites fonctionnels – le cas s'est présenté le 10 février 2009, avec l'explosion du satellite de communication américain Iridium-33 lors de sa rencontre avec l'ancien satellite russe Cosmos-2251. Les conséquences financières de tels accidents sont considérables en particulier pour les assurances actives dans le spatial, d'ores et déjà engagées à hauteur de 20 milliards de dollars.
Les cas de collision sont appelés à se multiplier. Même dans l'immensité de l'espace, la densité des déchets d'origine humaine devient problématique. Leur croissance est exponentielle : chaque rencontre génère à son tour plusieurs milliers de nouveaux débris, plus petits, mais pas moins dangereux qu'un gros satellite abandonné. La NASA, qui recense et suit à la trace 16 000 objets célestes, ne peut garder son œil que sur les plus conséquents (plus de 10 cm) – alors qu'un simple éclat de peinture, à une vitesse de plusieurs kilomètres par seconde, peut déjà fortement endommager un panneau solaire ou le pare-brise d'une navette. Pour éviter les plus gros débris avant qu'ils ne s'approchent à des distances critiques, la Station spatiale internationale doit régulièrement modifier son orbite. Elle vient de le faire, avec succès, le 29 janvier dernier.
Selon une étude publiée par le réassureur Swiss Re l'an dernier, il y a chaque année près d'un risque sur 10 000 qu'un débris de plus de 1 cm rencontre un satellite de 10 m2 sur l'orbite héliosynchrone (entre 600 et 1000 km).
Lancement du projet CleanSpace One
« Il est devenu indispensable de prendre conscience de l'existence de ces débris et des risques qu'engendre leur prolifération », déclare Claude Nicollier, astronaute et professeur à l'EPFL. Pour aller au-delà des mots et ouvrir immédiatement le chantier d'un nécessaire nettoyage de l'espace, le Swiss Space Center, à l'EPFL, a lancé le 15 février 2012 le projet CleanSpace One, qui prévoit de construire en Suisse le premier prototype d'une famille de satellites « désorbiteurs ».
Ses concepteurs veulent symboliquement lancer CleanSpace One à l'assaut du premier objet céleste suisse, le picosatellite Swisscube, mis en orbite en 2009, ou de son « cousin » tessinois TIsat, lancé en juillet 2010.
Un satellite, trois défis technologiques
Trois défis de taille attendent ce premier nettoyeur spatial. Chacun d'entre eux implique un développement technologique qui pourra par la suite être appliqué à d'autres dispositifs.
Après son lancement, il s'agira d'abord pour le satellite d'adapter sa trajectoire afin de rejoindre l'orbite de sa cible. Il pourrait pour cela utiliser un nouveau type de moteur destiné à l'espace, ultracompact, également en développement dans les laboratoires de l'EPFL. Lorsqu'il sera parvenu à proximité de son objectif, qui fonce à 28 000 km/h et à 630 ou 750 km d'altitude, CleanSpace One le saisira et le stabilisera – une mission particulièrement délicate à ces vitesses, surtout si le satellite à éliminer est en rotation. Pour l'accomplir, les scientifiques envisagent de développer un mécanisme de préhension dont le fonctionnement s'inspirerait du monde animal ou végétal. Enfin, couplé au satellite à désorbiter, CleanSpace One devra prendre la direction de l'atmosphère terrestre, où les deux satellites seront brûlés.
Même si ce premier exemplaire sera détruit, l'aventure de CleanSpace One ne sera pas unique. « Nous voulons proposer et commercialiser une famille de systèmes clés-en-mains et conçus dans un souci de durabilité, adaptés à plusieurs types de satellites à désorbiter, explique Volker Gass, directeur du Swiss Space Center. De plus en plus, les agences spatiales devront prendre en considération et préparer l'élimination de ce qu'ils envoient dans l'espace. Nous voulons faire œuvre de pionniers. »
La conception et la réalisation de CleanSpace One, ainsi que la mission proprement dite, sont chiffrées à quelque 8,28 millions d'euro. En fonction des sources de financement et des partenariats qui seront établis, le rendez-vous en orbite pourrait avoir lieu d'ici trois à cinq ans.
Un tsunami de nuages a déferlé sur les gratte-ciels de Floride
Des photos extraordinaires de vagues géantes de nuages ont été prises sur la côte sud des Etats-Unis en Floride. Ce phénomène, bien connu, demeure toutefois exceptionnel dans une telle configuration géographique.
Le 12 février 2012, un pilote d'hélicoptère, Mike Schaeffer, qui achevait une visite de la côte à Panama City Beach, Floride (Etats-Unis) a eu la chance de capturer des images extraordinaires de vagues de nuages prenant d'assaut des gratte-ciels sur la côte. On croirait à un montage photo pour annoncer un prochain film fantastique, mais il n'en est rien : ce phénomène météorologique est connu sous le nom d'instabilité de Kelvin-Helmholtz, a expliqué la société d'appréciation des nuages (Cloud Appreciation Society).
Cette onde, fugace, rappelle d'immenses vagues se brisant sur la grève. Sa forme est due au cisaillement du vent. "Quand une dalle nuageuse se forme à la limite entre une couche d'air plus froid en dessous et une couche d'air plus chaud au-dessus, qui en outre se déplace plus vite, le cisaillement entre ces deux strates peut produire des ondulations dans le nuage."
Normalement, cela se produit dans des régions parcourues par de vastes plaines où les vents changent rapidement de vitesse créant des turbulences. Sa présence sur un littoral bardé de gratte-ciels est exceptionnelle.
Le phénomène, observé pendant quelques minutes, se forme lorsque l'air chaud humide du golfe du Mexique arrive sur la côte, selon Dr Greg Forbes (The Weather Channel).
OGM : état des lieux et nouvel étiquetage dans les produits alimentaires français
L'évaluation des risques environnementaux et sanitaires relatifs à la dissémination d'OGM dans l'environnement et à leur utilisation dans l'alimentation a fait l'objet d'études aux résultats divergents. Et l'étiquetage de nos aliments en est encore à ses balbutiements.
Une information plus juste en France
Jusqu'à présent la réglementation française prévoyait l'étiquetage obligatoire de la présence d'OGM(1) en cas d'utilisation volontaire, mais ne définissait pas les modalités d'information du consommateur pour les filières « sans OGM ». Il n'était pas permis non plus de faire la distinction entre une viande issue d'un animal nourri avec des OGM et une viande provenant d'une filière garantissant une alimentation des animaux sans OGM, alors qu'au delà de 0,9% d'OGM contenus dans les aliments, l'affichage était obligatoire.
Le décret paru du 31 janvier 2012, et applicable au 1er juillet 2012, prévoit désormais des critères différents en fonction de la nature des ingrédients. Ce décret, très attendu par les associations de consommateurs, stipule, en effet que des ingrédients d'origine végétale tels que farines, amidons, ..., pourront porter la mention « sans OGM », s'ils n'en contiennent pas plus de 0,1% d'OGM dans leurs matières premières. Il en est de même pour les ingrédients d'origine animale tels que viandes, laits, œufs, ... La mention « nourri sans OGM » ne pourra être accordée que pour moins de 0,9% de matières premières sans OGM. Ces mentions ne seront mentionnées que pour les ingrédients composants à plus de 95% l'aliment, sur l'emballage principal. Mais l'indication de l'absence d'OGM sur les denrées permettra aux consommateurs d'exercer pleinement leur choix.
Où en est-on avec les OGM dans le monde ?
En 2009, selon l'ISAAA(2), 14 millions d'agriculteurs utilisaient des OGM, dont 90 % dans les pays en développement. Les superficies plantées en cultures transgéniques dans le monde auraient atteint 134 millions d'hectares, soit une augmentation de 7 % par rapport à 2008. Mais cela correspond à peine à 9% des terres arables mondiales. Les végétaux les plus produits sont le soja le coton, le maïs et le colza. A l'heure actuelle, il n'existe pas de culture commerciale de blé ou de riz génétiquement modifiés. Sur 192 pays dans le monde, il existait 8 pays producteurs en 2009 : les États-Unis (47.8 %), le Brésil (16 %), l'Argentine (15,9 %), l'Inde, le Canada,la Chine, le Paraguay et l'Afrique du Sud. Toujours selon l'ISAA, la part des cultures d'OGM dans la production agricole de l'Union européenne, une des plus importantes au monde, est très faible. Et les cultures transgéniques dans l'Union européenne ont diminué entre 2008 et 2009 de 11 %, passant de106 739 haà94 708 ha.
Au sein de l'Union Européenne, la seule plante OGM autorisée à la culture est le maïs MON 810 (produit et commercialisé par la firme Monsanto). Malgré cette autorisation, de plus en plus de pays européens refusent ces cultures commerciales sur leur territoire. En outre, les pays de l'Union Européenne doivent informer les citoyens sur le lieu et l'importance des cultures OGM. Par contre, la nature et la précision des informations qu'ils fournissent au public restent floues la plupart du temps. Espérons que les autres pays se soucieront un peu plus de « l'éthique sur l'étiquette »
Interdiction « pure et simple » au Pérou
Alors que nos étiquettes seront plus faciles à déchiffrer, outre Atlantique, le parlement du Pérou a adopté en novembre 2001 une loi interdisant pour dix ans la culture ou l'élevage (viande et poisson) d'organismes génétiquement modifiés, à l'exception de ceux voués à la recherche. Le Parlement précédent avait approuvé un moratoire du même type en juin, mais il était resté lettre morte faute de promulgation par l'exécutif. La loi adoptée n'interdit toutefois pas totalement les transgéniques, car elle ne concerne pas l'entrée d'aliments avec OGM, pour le bétail ou la consommation humaine, même si ceux-ci doivent être signalés au consommateur. La loi indique par contre que le ministère de l'Environnement est l'autorité nationale compétente pour proposer et approuver les mesures visant à garantir la biodiversité péruvienne.
Notes
1 Un organisme génétiquement modifié est un organisme vivant dont le patrimoine génétique a été modifié par l'Homme. Suivant les législations, les moyens permettant ces modifications vont de la sélection aux méthodes de génie génétique. Ces dernières méthodes permettent de modifier des organismes par transgénèse, c'est-à-dire l'insertion dans le génome d'un ou de plusieurs nouveaux gènes.
2 L'International Service for the Acquisition of Agri-biotech Applications est une organisation internationale non gouvernementale, à statut d'organisation à but non lucratif, créée en1991. L'ISAAA présente sa mission comme étant « la réduction de la pauvreté, en augmentant la productivité des cultures et la génération de revenus, en particulier pour les agriculteurs pauvres, et de parvenir à un environnement plus sûr et le développement d'une agriculture plus durable ».