« Les médisants ressemblent aux malheureux qui n'ont pas eu leur part d'événements et doivent mener aux dépens de leurs voisins une existence parasitaire. »
L'humanité modifie "pour les siècles à venir, et à un rythme jamais vu, le climat de la planète"
L'information est à présent confirmée : 2011 a bien été l'année la plus chaude depuis 1900 en France avec une température moyenne de 13,6°C (+ 1,5°C par rapport à 2010). Au niveau mondial, une étude publiée en décembre dernier dans la revue scientifique de référence "Environmental Research Letters", montre que le réchauffement climatique mondial se poursuit inexorablement depuis 30 ans.
Cette étude dirigée par Stefan Rahmstorf et Grant Foster a analysé l'évolution du réchauffement climatique de 1979 à 2010 en distinguant les facteurs naturels et l'impact des activités humaines. Pour évaluer rigoureusement le poids des phénomènes naturels sur le climat, ces scientifiques reconnus ont reconstruit les courbes de températures grâce aux données obtenues conjointement par satellites et par le réseau mondial de stations météorologiques. Ils ont ainsi pu démontrer que l'augmentation des émissions de gaz à effet de serre liées aux activités humaines a entraîné une hausse des températures mondiales comprise entre 0,14 et 0,18 degré celsius par décennie depuis 30 ans.
Cette étude remarquable qui intègre l'activité solaire et le phénomène "Nina" montre que 2011 est bien l'année la plus chaude jamais enregistrée sur terre. L'étude n'est guère optimiste et prévoit que, sans une rupture par rapport aux objectifs internationaux (qui représentent à peine plus de la moitié de l'effort minimum à effectuer pour limiter le réchauffement climatique à 2-3° d'ici 2050), l'accélération du réchauffement planétaire va se poursuivre au cours de ces prochaines années avec son cortège de conséquences désastreuses et d'épisodes extrêmes que nous pouvons déjà constater.
Il n'y a pourtant aucune fatalité dans cet enjeu majeur du climat et l'homme peut encore, sans mettre en œuvre des efforts démesurés sur le plan économique, technologique et financier, éviter le pire. C'est ce que montrent plusieurs études distinctes mais parfaitement convergentes. La première, de grande ampleur, vient d'être publiée dans "Science".
Cette étude rappelle que depuis un siècle, la température moyenne à la surface de Terre a connu une hausse de 0,8 degré, dont plus des deux tiers au cours des trente dernières années. L'étude souligne également que les quantités considérables de CO2 émises par l'homme (elles ont été multipliées par dix depuis 70 ans) s'accumulent dans l'atmosphère pendant plusieurs centaines d'années, contribuant puissamment à accroître l'effet de serre et le réchauffement climatique.
De manière très pragmatique, l'étude a modélisé les effets de la mise en œuvre de plus de quatre cents mesures destinées à l'ensemble des émissions polluantes. Au final, les chercheurs ont sélectionné 14 mesures considérées comme les plus efficaces à court terme : toutes ces mesures visent à réduire fortement les émissions humaines ou animales de méthane (CH4), un gaz à effet de serre 25 fois plus puissant que le CO2 et les émissions de suies qui sont des particules résultant de combustions incomplètes en suspension dans l'atmosphère.
Concrètement, l'étude préconise la généralisation des dispositifs de capture du méthane dans les mines de charbon et les raffineries de pétrole et l'amélioration des réseaux de transport de gaz naturel. Un effort important est par ailleurs envisagé en matière d'agriculture et d'élevage : l'étude propose de revoir complètement la gestion des effluents du bétail, de mettre en place le drainage systématique des rizières, de généraliser les filtres à particules de nouvelle génération sur les véhicules diesel et de mettre fin à la culture sur brûlis.
En réduisant de façon sensible nos émissions de méthane et de suie, nous ferions d'une pierre trois coups : en matière de climat, ces mesures permettraient de limiter le réchauffement à 0,8°C d'ici à 2060, au lieu des 1,3°C prévu. En matière de rendement agricole global, ces mesures permettraient une hausse de la production agricole mondiale de plusieurs dizaines de millions de tonnes par an et constitueraient donc un puissant levier pour nourrir correctement les neuf milliards d'humains qui vivront sur terre au milieu de ce siècle. Enfin, en matière sanitaire, cette réduction de nos émissions de carbone et de suies aurait un impact non moins considérable et permettrait d'éviter jusqu'à 4 millions et demi de morts prématurées par an, notamment en Asie.
Il faut toutefois bien comprendre qu'une telle stratégie ne nous dispenserait absolument pas de réduire massivement nos émissions de CO2 (actuellement 31 milliards de tonnes par an, soit 4 tonnes et demi par terrien) si l'on veut à terme éviter un réchauffement catastrophique de 4 à 6°C d'ici la fin du siècle. Selon une autre étude réalisée en 2007 par l'Université de Stanford, le CO2 contribue pour moitié au réchauffement climatique, suivi par les suies (16 %) et enfin par le méthane, pour 14 %.
Cette étude nous révèle également qu'en utilisant uniquement des technologies existantes, il serait possible de réduire les émissions de méthane émis de 40 % et que la mise en œuvre de ces 14 mesures aurait un coût économique tolérable : en effet la plupart de ces mesures ont un coût maximum de 250 dollars la tonne de méthane, ce qui est plus de dix fois inférieur aux immenses bénéfices qui pourraient être obtenus en matière de santé et d'environnement. L'étude prend un exemple concret : les poêles et fours à charbon de bois sont utilisé par trois milliards d'humains pour faire cuire les aliments et sont responsables d'au moins deux millions de décès prématurés par an.
Il est frappant de constater que cette vaste étude rejoint les conclusions d'un rapport réalisé en 2009 par le cabinet McKinsey. Cette étude concluait également que si l'ensemble des options technologiques disponibles étaient utilisées, les émissions mondiales de gaz à effet de serre pourraient être réduites de 40 % par rapport à 1990 d'ici à 2030, ce qui permettrait de limiter la hausse de la température mondiale à moins de 2°C. Selon cette étude, le coût global de ce plan mondial serait bénéfique avec un baril à plus de 100 dollars, ce qui est aujourd'hui le cas. Cette étude pointait trois grands leviers pour s'attaquer efficacement au réchauffement de climat : premier levier (un tiers de l'effort à produire), la sobriété et l'efficacité énergétique, second levier (28 % de l'effort global), un investissement massif dans les énergies renouvelables (éolien, biomasse, géothermique, solaire, mer) et les biocarburants de 2ème et 3ème génération, issus du bois et des algues et enfin, troisième levier, une réorientation de la gestion de la forêt, de l'élevage et de l'agriculture ( 28 % de l'effort total).
En moins de deux siècles, l'espèce humaine a conquis un pouvoir déterminant sur le climat mondial, ce qui constitue une rupture majeure de civilisation. Comme le souligne Richard Alley, de l'Université de Pennsylvanie "En décuplant nos émissions de CO2 depuis moins d'un siècle, nous sommes en train de modifier pour les siècles à venir, et à un rythme jamais vu, le climat de la planète".
Il est intéressant de constater que, face à la réalité et à la rapidité du réchauffement climatique mondial, de plus en plus difficile à nier ou à contester, les climato-sceptiques ont été contraints de changer de stratégie. La plupart d'entre eux ne contestent plus la réalité de ce réchauffement mais ils déplacent le débat sur la responsabilité de l'homme dans ce phénomène. Selon eux, ce réchauffement serait "naturel" et l'homme n'y serait pour rien ou aurait une responsabilité marginale dans son accélération. Partant de cette thèse, il serait donc inutile, voire dangereux pour nos économies et nos modes de vie, de prendre des mesures de réduction de nos émissions de gaz à effet de serre et il suffirait finalement d'attendre que le climat s'autorégule.
Mais, comme nous venons de le voir en évoquant quelques unes des dernières études sur ce sujet, cette négation de la responsabilité humaine en matière de réchauffement climatique est une position qui devient, elle aussi, de moins en moins tenable scientifiquement face à l'accumulation des faits et aux progrès de la connaissance du fonctionnement globale de notre planète. Il est peut-être temps d'admettre enfin que nous sommes en train d'entrer, comme le pense Paul Crutzen, prix Nobel de chimie, et un nombre croissant de scientifiques, dans l'ère de l'anthropocène, une nouvelle ère géologique qui pourrait être prochainement reconnue par la communauté scientifique internationale et qui se caractérise par l'influence majeure que détient à présent l'espèce humaine sur sa planète, par rapport aux forces et phénomènes naturels et géologiques.
Cette nouvelle puissance, sans précédent dans la longue histoire de l'homme, nous confère évidemment une responsabilité immense et un devoir d'agir pour éviter que le pire n'advienne. Nous savons maintenant que le coût de l'inaction sera infiniment plus grand et désastreux pour l'homme et l'ensemble du vivant que celui d'une action résolue et durable pour maîtriser l'évolution du climat. Contrairement à ce que veulent nous faire croire les climato-sceptiques, il n'y a pas de fatalité, l'avenir n'est jamais écrit et même si l'homme est confronté à des forces naturelles et cosmiques qui le dépassent, il n'est pas pour autant condamné à l'inaction et à l'impuissance. Nous ne ferons pas disparaître ce défi climatique en nous mettant la tête dans le sable mais en le comprenant et en l'affrontant avec toute notre intelligence, notre imagination et notre pugnacité, en nous inspirant de ce qu'écrivait Sénèque il y 2000 ans : "Ce n'est pas parce que c'est difficile que nous n'osons pas mais parce que nous n'osons pas que c'est difficile".
Fous de Bassan, mouettes, macareux, manchots... tous les oiseaux marins subissent le même sort : quand les stocks de poissons baissent en deçà d'un tiers de leur capacité maximale, le nombre de poussins chute. C'est ce que vient de révéler une étude internationale(1) sur la relation proie-prédateur dans sept écosystèmes marins à travers le monde, publiée dans Science et coordonnée par Philippe Cury, chercheur à l'IRD. Grâce à près de 45 années d'observation, l'équipe de recherche a comparé l'évolution de l'abondance en poissons et du succès reproducteur(2) chez 14 espèces d'oiseaux côtiers. Ces derniers se nourrissent principalement de sardines, d'anchois, de harengs, de crevettes... qui sont victimes de surpêche. Sous le seuil critique d'un tiers de la biomasse en poissons, les oiseaux – et l'équilibre de tout l'écosystème – sont menacés.
Ces travaux offrent enfin un chiffre de référence pour une gestion durable des pêches, en vue de préserver ces populations d'oiseaux, souvent en danger, et de maintenir la bonne santé des milieux marins.
De l'Arctique à l'Antarctique et de l'Atlantique au Pacifique, lorsque l'abondance de poissons diminue, les oiseaux marins cessent de se reproduire. Si de précédents travaux avaient établi ce lien entre disponibilité de la nourriture et taux de reproduction des oiseaux, une nouvelle étude internationale(1) vient de faire une découverte de taille. Coordonnée par Philippe Cury, chercheur à l'IRD, et publiée dans la revue Science , celle-ci révèle l'existence d'un seuil critique des stocks de poissons, en-dessous duquel l'équilibre des oiseaux est ébranlé.
Un tiers : la limite à ne pas franchir
Fous de Bassan, sternes, macareux, mouettes, manchots... toutes espèces confondues, si les stocks de poissons baissent en deçà d'un tiers de leur capacité maximale, le nombre de poussins chute brutalement. Et ce, quel que soit l'endroit du globe. De fait, lorsque la quantité de leurs proies devient insuffisante, le succès reproducteur(2) des oiseaux marins décline brutalement. En revanche, au-dessus de ce seuil, le taux de reproduction des oiseaux n'augmente pas. Une plus grande abondance de nourriture n'a pas l'impact escompté car d'autres facteurs limitants interviennent, comme la saturation des zones de nidification par exemple.
En mettant en évidence un schéma aussi remarquable, ces travaux vérifient de manière empirique – c'est-à-dire à partir de données et non de modèles – que les écosystèmes répondent sur le long terme à des lois communes. Jusque-là, ce principe fondamental pour l'étude du vivant demeurait théorique. Pour la première fois en effet, les scientifiques ont établi un modèle proies-prédateurs sur la base d'observations réelles en milieu marin.
Près de 45 ans de données
L'équipe de recherche a comparé, tout autour de la planète, l'évolution de la biomasse de poissons et du succès de reproduction des oiseaux marins, sur près de 45 années. Pour réaliser cette méta-analyse, les scientifiques se sont focalisés sur 14 espèces d'oiseaux, dans sept écosystèmes à travers le monde. Les espèces choisies se nourrissent principalement de sardines, d'anchois, de harengs ou d'autres petits poissons côtiers exploités par les pêcheurs et qui subissent une importante pression. Chaque écosystème a été étudié sur des périodes allant de 15 à plus de 40 ans – l'étude révèle qu'il faut en moyenne treize années de relevés pour avoir une bonne idée de l'abondance maximale de poissons dans un écosystème.
C'est la première fois qu'autant de données sur les relations proies-prédateurs sont réunies, sur une aussi longue période. Les chercheurs soulignent que cette formidable quantité d'informations a pu être rassemblée grâce à des partenariats forts entre scientifiques du Nord et du Sud. Pour relever et collecter ce matériel de grande qualité, des dizaines de chercheurs ont consacré parfois toute leur carrière à ces travaux.
La surpêche menace la santé des écosystèmes
Cette étude démontre que la surpêche met en péril la survie des prédateurs supérieurs tels que les oiseaux. Ceux-ci entrent en compétition directe avec les pêcheurs : les uns comme les autres consomment environ 80 millions de tonnes de poissons par an. Utilisés pour la production de farines et d'huiles pour l'aquaculture, les petits poissons côtiers (sardines, anchois, harengs, capelins...) représentent plus de 30% des prises mondiales aujourd'hui. Face à une demande globale croissante, ces résultats offrent enfin un chiffre de référence pour une gestion durable des pêches en vue de maintenir les populations d'oiseaux marins sur le long terme.
Ces derniers sont un des meilleurs indicateurs de la bonne santé des écosystèmes marins – que la Commission européenne, notamment, souhaite caractériser – et sont un des paramètres les plus faciles à mesurer. Ces oiseaux figurent parmi les espèces les plus en danger, du fait du manque de nourriture mais aussi du changement climatique et de la destruction des habitats côtiers – là aussi, ils sont en compétition avec les humains pour l'espace en zone littorale.
Déterminer les relations clés entre les prédateurs et leurs proies est essentiel pour comprendre la dynamique des écosystèmes. A ce jour, les instances internationales disposent de peu d'outils écosystémiques pour encadrer et limiter l'activité des pêcheries. Si le seuil d'un tiers proposé par cette étude n'est pas à considérer comme une règle stricte, il peut tenir lieu de point de référence aux politiques de gestion des pêches.
Notes
1 Ces travaux ont été réalisés en partenariat avec des chercheurs des universités de St Andrews et Glasgow au Royaume-Uni, de l'Ifremer, du Norwegian Institute for Nature Research , du Department of Environmental Affairs et de l'Université de Cape Town en Afrique du Sud, du British Antarctic Survey , de l'Université de Stockholm en Suède, de l'Université de Colombie britannique au Canada, de l'Alaska Science Center et du Farallon Institute for Advanced Ecosystem Research aux Etats-Unis et du ministère des pêches et des ressources marines en Namibie. 2 Le succès reproducteur est la capacité des individus d'une espèce à se reproduire. Il se mesure par le nombre de petits oisillons qui survivent.
Les oiseaux peinent à s'adapter au réchauffement climatique
Chardonneret élégant
Les oiseaux auraient du mal à s'adapter aux climats plus chauds d'Europe. C'est l'avertissement lancé par un groupe paneuropéen de chercheurs suite à une étude publiée dans la revue Nature Climate Change.
Ces dernières décennies, le climat européen s'est réchauffé de manière constante et les températures générales ont dévié vers le Nord de 250 km, perturbant des espèces d'oiseaux et de papillons habituées aux températures plus fraîches. Mais l'étude a pourtant observé que les communautés d'oiseaux et de papillons ne se sont pas déplacées à la même vitesse que les températures.
Pour les besoins de l'étude, les oiseaux ont été répartis en deux groupes, selon leur subsistance dans des climats plus chauds ou plus frais. Par exemple, le pinson des arbres et le bruant des roseaux sont des espèces préférant le froid, tandis que la fauvette à tête noire et le chardonneret élégant sont des espèces préférant les températures plus chaudes.
Après l'analyse de données sur les oiseaux, les papillons et les températures estivales s'étalant sur près de 20 ans, l'équipe a conclu que certains oiseaux et papillons ont du mal à s'adapter rapidement à un climat plus chaud. Pour de nombreuses espèces, les tentatives de migration vers le Nord sont vaines.
L'un des auteurs de l'étude, Åke Lindström de l'université de Lund, en Suède, explique : « Les papillons et les oiseaux réagissent au changement climatique, mais pas assez rapidement pour s'accommoder au climat plus chaud. Nous ignorons encore les effets écologiques que cela aura à long terme. »
Les papillons se sont adaptés plus rapidement aux températures plus chaudes et se sont déplacés sur 114 km en moyenne vers le Nord, alors que les oiseaux n'ont parcouru que 37 km. D'après les chercheurs, on peut attribuer cette différence à la durée de vie plus courte des papillons, qui leur permet de s'adapter plus rapidement. Étant donné que les oiseaux aiment retourner sur les mêmes sites de reproduction chaque année, ils montrent une plus grande résistance aux modèles de comportements changeants.
Toutefois, ce processus d'adaptation à deux-tiers pourrait poser des problèmes pour les oiseaux, notamment, comme l'explique le professeur Lindström : « Un aspect inquiétant de ce phénomène est que les oiseaux perdent du terrain sur les papillons, car les chenilles et les insectes en général représentent une source importance de nourriture pour de nombreux oiseaux. »
L'équipe a pu mesurer les lieux de migration des oiseaux en observant les endroits où apparaissent les oiseaux "chauds" et "froids" en fonction des régions. Ils ont quantifié le changement annuel dans la composition communautaire en réponse au changement climatique pour 9 490 oiseaux et 2 130 papillons distribués dans toute l'Europe.
« Pendant plus de 50 ans, les principaux facteurs affectant les nombres d'oiseaux et de papillons et leur distribution ont été l'agriculture, la sylviculture et l'urbanisation. Le changement climatique apparaît ici en tant que facteur principal dans le développement de la biodiversité », commente le professeur Lindström.
Notes
Cette étude, qui a reçu un financement de quatre projets européens, rassemble des scientifiques de République tchèque, d'Allemagne, d'Espagne, de France, des Pays-Bas, de Finlande, de Suède et du Royaume-Uni.
L'étude a été partiellement financée par le projet STEP (Status and trends of European pollinators), soutenu par une bourse d'environ 3,5 millions d'euros au titre du thème Environnement du septième programme-cadre (7e PC). Le projet CLIMIT (Climate change impacts on insects and their mitigation), du réseau ERA-Net BiodivERsA2, financé à hauteur de 2 millions d'euros au titre du thème Coordination du 7e PC, a également apporté sa contribution à l'étude.
Enfin, deux autres projets du sixième programme-cadre (6e PC) ont également participé au financement de l'étude : ALARM (Assessing large-scale environmental risks with tested methods), soutenu à hauteur de 13 millions d'euros par l'UE au titre du domaine thématique « Développement durable, changement planétaire et écosystèmes »; et MACIS (Minimisation of and adaptation to climate change: Impacts on biodiversity) soutenu à hauteur de 900 000 euros au titre du domaine thématique « Research for policy support ».
Analyser le trafic sur Internet pour localiser les séismes en moins de deux minutes
Carte des séismes enregistrés dans les dernières 24 heures en Europe et dans le bassin méditerranéen
Le Centre Sismologique Euro-Méditerranéen (CSEM)(1) peut localiser un séisme en moins de deux minutes grâce au « Flash-sourcing », une méthode innovante, simple et fiable de détection rapide des séismes ressentis, qui se base sur l'analyse des augmentations de trafic observées sur son site d'information sismologique en temps réel.
Lorsqu'un séisme survient et que le réseau est toujours disponible, de très nombreux témoins des secousses se rendent sur Internet pour en savoir plus sur la catastrophe et pour partager leur expérience. Profitant de sa position de second site d'information sismologique au monde après l'USGS, le site Internet du CSEM connait un accroissement brutal et significatif de sa fréquentation quelques dizaines de secondes seulement après un tremblement de terre.
Or, cette hausse d'audience peut être géolocalisée. En effet, chaque terminal de connexion à Internet (ordinateur personnel, smartphone...) possède une adresse IP unique qui contient, indirectement, une information géographique. Ainsi, lorsque vous surfez sur le web, il est tout à fait possible, en récupérant les informations de votre adresse IP (qui est publique) de savoir à partir de quel endroit, dans le monde, vous êtes connecté(2). La précision, de l'ordre de la commune, est suffisante pour situer géographiquement la région où a eu lieu le séisme. Ainsi, lorsqu'un séisme survient, le CSEM analyse les adresses IP qui sont à l'origine de l'afflux soudain de visiteurs sur son site Internet pour déterminer la zone où a eu lieu le tremblement de terre.
L'intérêt de cette méthode est qu'elle s'avère plus rapide que les remontées d'informations provenant des différents stations sismologiques. En effet, le CSEM collecte et fusionne en temps réel les données de 70 réseaux sismologiques pour offrir une information rapide (délai d'environ 8 minutes), fiable et accessible sur les tremblements de Terre. Grâce aux internautes qui visitent le CSEM il suffit de moins de deux minutes pour localiser le séisme.
Les résultats sont automatiquement publiés sur Twitter (@LastQuake) en moyenne dans les 90 secondes qui suivent le séisme.
Et si les dégâts interrompaient la connexion Internet ? Le CSEM nous indique que les zones fortement endommagées peuvent aussi être cartographiées grâce aux fermetures de sessions Internet qu'elles engendrent. En effet, dans ce cas, les visiteurs en provenance de la région affectée sont instantanément déconnectés au moment du séisme. C'est aujourd'hui le moyen le plus rapide de collecte d'information sur les dégâts causés par un séisme.
Le Flash-sourcing est une méthode peu coûteuse et facile à implémenter. Son nom rappelle les idées de « flash crowd » (augmentation de trafic sur un site web) et de « crowd sourcing » (travail fait par un groupe de personnes). Cette technique accélère et améliore la communication publique sur les tremblements de Terre en complétant les informations classiques de magnitude et de localisation par une description des effets du séisme.
Cependant, cette méthode ne permet pas de connaître précisément l'intensité du tremblement de terre, même si la coupure ou non du réseau est une indication. C'est pourquoi, le CSEM propose à tout témoin d'un tremblement de terre de partager son expérience et ses photos via un questionnaire en ligne. Ces initiatives font partie du projet de sismologie citoyenne, qui vise à impliquer les citoyens pour améliorer l'information, la communication et la compréhension des séismes.
Un exemple récent de ce dispositif est le tremblement de terre de magnitude 4,9 survenu au nord de l'Italie ce mercredi 25 janvier matin. Près de 200 témoignages permettent de qualifier cette catastrophe dont les conséquences sont heureusement très faibles.
Notes
1 Le CSEM est une ONG scientifique à but non lucratif crée en 1975. Il fédère les observatoires sismologiques de la région Euro-Méditerranéenne. Grâce aux 84 instituts membres dans 55 pays différents, le CSEM offre un service d'information sismique en temps réel sur son site Internet et au travers de son service de notification par courriel. 2 Vous pouvez faire le test en vous rendant sur cette page où votre adresse IP est géolocalisée puis positionnée sur une carte interactive de la Terre.
Panneaux solaires dédiés à l'alimentation en électricité d'une maison à Cuba
Auteur Ban Ki-moon, Secrétaire général des Nations unies ; date originale : 25 janvier 2012, 15 h 35
Lorsque j'étais enfant durant la guerre de Corée, j'étudiais à la lumière des bougies. Peu de ménages possédaient des appareils électriques tels des frigos ou des ventilateurs. Au fil des années, j'ai vu cette situation évoluer de façon radicale. L'accès facile à l'énergie a ouvert de nouvelles possibilités pour ma famille et mon pays.
L'énergie transforme les vies, la conduite des affaires et l'économie. Elle transforme aussi notre planète, son climat, ses ressources naturelles et ses écosystèmes. Il ne peut y avoir de développement sans énergie. Aujourd'hui, il nous est possible d'allumer le chauffage ou la lumière, et ce, n'importe où dans le monde, même dans les ménages les plus pauvres, tout en réglant à la baisse le thermostat de notre planète. Pour cela, il suffit de passer par la fourniture d'une énergie durable pour tous.
Relever ce pari implique la collaboration de tous, gouvernements, secteur privé et société civile, car son envergure dépasse ce que peut accomplir un seul de ces acteurs. Les Nations Unies sont bien placées pour réunir un tel aréopage et encourager ces différents acteurs à faire cause commune. C'est pourquoi j'ai lancé notre nouvelle initiative, Énergie Durable pour Tous, visant à déclencher une action immédiate susceptible de déboucher sur de véritables résultats pour les peuples et pour la planète.
Selon moi, nous avons à relever deux défis énergétiques urgents.
Le premier est qu'une personne sur cinq dans le monde n'a pas accès à l'électricité. Deux fois plus, c'est-à-dire près de 3 milliards de personnes, utilisent le bois, le charbon, le charbon de bois ou les déchets animaux pour cuire leurs repas et chauffer leurs maisons. Ce faisant, ils s'exposent ainsi que leurs familles à des fumées et des émanations toxiques. Cette pauvreté énergétique est catastrophique pour le développement humain.
Le deuxième défi est celui du changement climatique. Les gaz à effet de serre qui proviennent de combustibles fossiles contribuent directement au réchauffement de l'atmosphère terrestre, avec toutes les conséquences que l'on connaît : des conditions météorologiques extrêmes et des catastrophes naturelles de plus en plus fréquentes qui mettent en danger les vies, les moyens d'existence et l'avenir de nos enfants.
Assurer une énergie durable pour tous d'ici 2030 représente un énorme défi. Mais le relever est réalisable. Ma vision est celle d'un monde où l'accès universel à l'énergie se combine à une nette amélioration de l'efficacité énergétique au doublement de la quantité d' énergie renouvelable dans nos sources de combustibles. Les obstacles sont moins techniques qu'humains. Il faut que nous placions l'énergie durable au sommet de l'agenda mondial et que nous concentrions notre attention, notre ingénuité, nos ressources et nos investissements pour en faire une réalité.
Prenons l'exemple des téléphones cellulaires. Il y a 20 ans, l'accès universel aux communications mobiles paraissait impensable. Néanmoins, les gouvernements ont mis en place des cadres appropriés et le secteur privé a investi des ressources et lancé des modèles d'affaires innovants, avec pour résultat une véritable révolution dans les communications. Un scénario similaire est envisageable dans le domaine de l'énergie durable. Les pays en développement peuvent éviter de recourir aux options conventionnelles et passer directement à des solutions énergétiques plus propres, tout comme ils ont adopté directement les réseaux de téléphonie mobile sans passer par les lignes téléphoniques terrestres. Les pays industrialisés peuvent et doivent appuyer cette transition vers des technologies à faible émission, tout en montrant l'exemple.
C'est en effet la meilleure solution pour réduire la pauvreté et protéger notre planète. C'est également ce qui permettra de développer des opportunités d'affaires sur des marchés dont le taux de croissance est le plus rapide au monde. La mobilisation du capital privé est essentielle, particulièrement en ce moment où les budgets publics sont soumis à des pressions sévères. Dotés de cadres de politiques appropriés, ces investissements pourraient être extrêmement rentables, avec comme conséquences des augmentations de la productivité et de la croissance, la création d'emplois, y compris celle d'entreprises à la base, l'amélioration de la santé publique, une meilleure sécurité énergétique et un climat plus stable.
Au cours des cinq dernières années, l'industrie de l'énergie renouvelable a connu une énorme croissance. Ses capacités sont en pleine expansion. Ses performances s'améliorent. Les prix deviennent plus abordables. De nouveaux produits qui nécessitent moins d'énergie émergent. Tout ceci forme une fondation solide sur laquelle construire la nouvelle grande transition énergétique.
Au moins 118 pays ont défini des cibles de politiques ou créé des politiques encourageant l'énergie renouvelable. Mais nous pouvons et devons faire plus. Alors que s'annonce bientôt la conférence de Rio sur le développement durable, j'exhorte les gouvernements, le secteur privé et les autres parties prenantes à s'engager de façon concrète à créer des actions sur le terrain.
Les gouvernements peuvent proposer des plans et des cibles énergétiques nationaux plus ambitieux, apporter une aide financière et atténuer l'effet pervers de certains tarifs. Les entreprises peuvent améliorer l'efficacité énergétique de leur fonctionnement et de leur chaîne d'approvisionnement et former des partenariats public-privé afin d'accroître leur offre de produits d'énergie durable. Les investisseurs peuvent fournir les capitaux de départ pour le développement de technologies propres. Les gouvernements, l'industrie et le monde universitaire peuvent tous contribuer à cette nouvelle recherche.
Certains pourraient faire valoir qu'en cette période d'incertitude économique, la durabilité est un luxe que nous ne pouvons pas nous permettre. J'affirme au contraire que nous ne pouvons pas nous permettre d'attendre. Les sciences et l'économie sont arrivées à la même conclusion : accélérer la croissance économique, faire sortir les populations de la pauvreté et protéger notre planète sont tous les éléments d'un même agenda : l'agenda du développement durable.
L'énergie est ce qui relie ces éléments entre eux. Transformer cette idée en action va dépendre de nous tous.
Les nouveaux hypermarchés "Carrefour Planet" : un engagement pour la planète ?
L'inventeur des hypermarchés, le groupe Carrefour, fait évoluer son enseigne Carrefour et lui attribue désormais l'adjectif « Planet », une initiative qui donne une image plus ouverte sur le monde et plus respectueuse de l'environnement. Pourtant, la direction développement durable du groupe a encore bien des efforts de cohérence à réaliser pour en être à la hauteur.
« Chez Carrefour, nous nous sommes engagés très tôt en faveur du développement durable, pour faire de chaque acte de consommation un acte citoyen, un acte positif... Un acte bon pour vous et profitable à notre société. » déclare le groupe sur son site Internet dédié au développement durable. Qu'en est-il vraiment ? Sans être exhaustif, nous avons souhaité mettre en avant quelques constats... décevants.
Carrefour : un leader mondial dans la grande distribution
Carrefour, c'est le premier groupe dans le secteur de la grande distribution en Europe, le deuxième dans le monde, avec un chiffre d'affaires qui a dépassé les 90 milliards d'euros en 2010 grâce à plus de 9600 magasins présents dans 32 pays en Europe, Amérique du Sud, Asie et Afrique du Nord.
En France, le groupe Carrefour embauche 140 000 personnes, c'est le premier employeur français et le 7ème au niveau mondial (475 000 collaborateurs) ! Ce gigantisme lui donne d'importantes responsabilités, notamment en matière de développement durable.
L'enseigne Carrefour devient « Carrefour Planet »
Les travaux ont duré quelques mois : déjà plus de 50 magasins Carrefour se sont transformés en Carrefour Planet en Europe, dont 15 en France, avec un objectif affiché de 82 fin 2011. L'adjectif « Planet », judicieusement choisi, suscite un espoir sur les engagements du groupe au niveau environnemental. Et pourtant, la transformation, superficielle, ne change que peu la donne.
Un matraquage publicitaire contraire au développement durable
Cette opération de modernisation a notamment été effectuée sur quelques hypermarchés dans la région Ile-de-France. Une partie des franciliens a dû s'en rendre compte, notamment via une communication publicitaire intense et maladroite.
Classiquement, le groupe Carrefour a sollicité les distributeurs de publicité papier. A ce titre, nous avons pu rencontrer Prosper(1), distributeur en région Ile-de-France, chez Adrexro, une société spécialisée dans la distribution d'imprimés publicitaires et colis, qui livre directement chez le particulier, dans sa boîte aux lettres.
Prosper nous confie que, régulièrement, il distribue une liasse de publicités variées pouvant atteindre près d'un kilo par boîte aux lettres(2) ! Et ceci, toutes les semaines ! Lors de notre interview, le groupe Carrefour faisait de la publicité pour ses hypermarchés et justement pour Carrefour Planet et pas qu'un peu ! En effet, quatre prospectus Carrefour en même temps étaient distribués : Carrefour Multimedia, produits alimentaires asiatiques Carrefour et celui de Carrefour Planet soigneusement emballé dans du plastique ! Où est la cohérence ? Où est l'engagement du groupe Carrefour pour le développement durable ?
Prosper nous a expliqué que le groupe Carrefour faisait de la publicité presque toutes les semaines pour ses enseignes, contribuant à alourdir la liasse de prospectus distribuée dans chaque boîte aux lettres qui n'est pas (encore) équipée d'un autocollant STOP PUB.
Sur ce point, le groupe Carrefour précise dans son rapport de développement durable 2010 que sa consommation de papier pour la publicité a diminué de 19% depuis 2007 (en quasi stagnation depuis 2008), cependant, nous constatons que les efforts à entreprendre sont encore considérables et que les choix incohérents perdurent.
Prosper, qui survit péniblement de ce métier ingrat, difficile et très mal payé(3), est écœuré par la masse de prospectus qui sont distribués et ne comprend pas la logique d'une société qui se veut plus respectueuse de l'environnement et qui continue de distribuer massivement des papiers publicitaires dont on sait la pollution qu'ils occasionnent, l'énergie et les matières premières qu'ils nécessitent.
Un nouveau magasin engagé dans le développement durable ?
Carrefour Planet, c'est l'occasion pour le groupe de moderniser ses hypermarchés pour une moindre consommation énergétique. Ainsi, ces magasins revisités s'inscrivent dans les objectifs du Groupe visant à réduire « sa consommation d'énergies de 30 % par m² de surface de vente d'ici à 2020 (vs 2004) par des actions concrètes comme l'installation d'éclairage LED dans tous les rayons et de portes isolantes sur les meubles frais et surgelés. » précise le rapport de développement durable du groupe. D'autres initiatives responsables méritent d'être soulignées : bois FSC sur son mobilier EcoPlanet, arrêt effectif de la distribution gratuite et systématique de sacs plastiques, emballages Carrefour FSC, suppression du bisphénol A sur les tickets de caisse, davantage de produits labellisés commerce équitable.
En tant que leader européen de la grande distribution, le groupe Carrefour a un poids considérable tant sur l'acte d'achat des consommateurs que sur le respect de l'environnement de ses fournisseurs, et le groupe semble être conscient de cette responsabilité : « au regard de sa taille et de sa présence géographique, Carrefour a une responsabilité particulière dans la promotion d'un commerce responsable. » (groupe Carrefour)
Si l'apparition de produits certifiés « sans OGM » est un bon point, l'enseigne propose un très grand nombre de produits qui sont manifestement de très mauvaise qualité, et qui sont produits dans des conditions sociales et environnementales médiocres, notamment pour les fruits et légumes largement importés et le textile. Un actionnaire individuel de Carrefour en témoigne assez clairement, si il le fallait :
Quant au nouveau rayon « beauté » de Carrefour, il reste massivement monopolisé par les cosmétiques non labellisés et dangereux pour la santé. Les produits cosmebio sont rares et les marques engagées inexistantes. Un choix inacceptable à l'heure où le nombre d'allergies et d'affections de longue durée explose à cause, notamment, des ingrédients toxiques employés dans les cosmétiques.
Enfin, les chariots ont tous été changés, ils sont verts, c'est tendance, certes, mais ils sont en plastique et nous rabotent les pieds. Contacté par nos soins, le groupe Carrefour nous a indiqué que l'analyse du cycle de vie (production, transport, utilisation, fin de vie) de ces nouveaux chariots montre qu'ils sont moins énergivores et moins émetteurs de gaz à effet de serre que les anciens chariots métalliques. Toutefois, ils se recyclent moins bien que leur précurseur.
Le rayon bio s'étoffe, mais à quel prix ?
En magasin, Carrefour Planet est plus lisible pour le consommateur, plus ouvert sur les cuisines du monde et sur les produits alimentaires bio. Ainsi, un rayon bio dédié et plus spacieux est apparu avec, comme d'autres enseignes spécialisées, du vrac, pour générer moins de déchets et adapter ses quantités à sa consommation.
Si l'initiative est louable, nous regrettons qu'un grand nombre de produits alimentaires issus de l'agriculture biologique soient importés d'Europe et trop souvent du monde entier. C'est particulièrement criant au niveau des fruits et légumes : pommes de terre d'Egypte, tomates d'Espagne, huile d'Olive non UE, miel de Hongrie..., sans parler du non respect de la saisonnalité.
Or, le bio ce n'est pas seulement un label pour faire plaisir au consommateur et être dans le vent, c'est avant tout une éthique : celle d'une production respectueuse de l'environnement, et l'empreinte écologique du transport en fait partie. En achetant bio à l'autre bout du monde, alors que ces produits sont disponibles en France, on gâche une grande partie de son intérêt, on flirte avec les contrôles douteux, la corruption qui ne garantissent plus le respect du cahier des charges de l'agriculture biologique. Pire, on ne soutient pas les producteurs français et leurs reconversions vers le bio, difficiles et coûteuses. Où est la cohérence ? Où est l'engagement du groupe Carrefour pour le développement durable ?
En parallèle, les prix ont sensiblement augmenté avec le changement d'enseigne et sont maintenant bien souvent supérieurs à ceux pratiqués dans les supermarchés bio spécialisés. C'est vrai pour les fruits et légumes, le vrac, ou la viande(4) dont les prix se sont envolés et qui finit souvent au rebus faute d'acheteurs. D'ailleurs, l'offre sur la boucherie bio a nettement diminué : Carrefour Planet est devenu prudent sur ces produits périssables.
Notons que sur un an, les prix des produits de grande consommation dans les hypermarchés (toute enseigne confondue) ont augmenté de 3,4 % (INSEE).
Au final, l'enseigne Carrefour Planet sonne davantage comme un désir de communication et de marketing qu'un véritable « engagement pour la planète ». A l'heure où la grande distribution est décriée pour ses pressions inacceptables sur les prix de vente des producteurs, ses produits de qualité médiocre et ses achats importés au détriment des producteurs locaux, le groupe Carrefour, dont les ventes s'affaissent, aurait tout intérêt à être porteur d'une consommation plus responsable et moins préjudiciable pour l'environnement et la santé. Le dire c'est bien, le faire c'est mieux.
Notes
1 Nous avons volontairement modifié son prénom conformément à sa demande. 2 Plus de 850 grammes pour la liasse qui contenait la publicité pour Carrefour Planet. D'autres sociétés distribuent également des prospectus dans les mêmes boîtes aux lettres, le poids peut alors facilement dépasser le kilo par jour. 3 Prosper touche environ 30 euros par journée complète de travail. 4 Un steak haché bio vendu sous marque Carrefour atteint près de 18 euros/kg contre 12 euros/kg dans une boucherie bio.
Impacts de foudre en France en 2011 : une année contrastée
Eclairs sur Rambouillet le 5 juin 2011
L'année 2011 qui s'est révélée être l'année la plus chaude que l'Hexagone ait connue depuis 1900 sur la France aurait pu être propice à un niveau élevé de foudroiement. Pourtant, le nombre d'impacts de foudre enregistrés par Météorage en 2011 est en fait relativement modeste. En cela le bilan se rapproche de l'année 2010 qui compte parmi les années à faible niveau de foudroiement.
Les nuages d'orage se développent à partir de cumulonimbus qui peuvent contenir une centaine de milliers de tonnes d'eau, de grêlons et de petits cristaux de glace. Ces nuages facilement reconnaissables par leur développement vertical impressionnant se forment généralement en été, lorsqu'il fait très chaud, avec un fort ensoleillement, et peu de vent. Le sol très chaud favorise alors l'ascendance de l'air.
Selon Météorage, environ 430 000 éclairs nuage-sol(1) ont été enregistrés sur le territoire français(2) par le réseau national de détection de la foudre de Météorage, en recul de 14% par rapport à la moyenne des 20 dernières années.
Pourtant, à cause des records de chaleur du printemps, la saison orageuse avait commencé dès le mois d'avril, avec près de 35 000 flashs, un niveau proche du record de 2007. Durant le premier semestre 2011, Météorage a enregistré près de 193 000 éclairs nuage-sol sur le territoire français, plaçant le premier semestre 2011 en deuxième position après 2007. Le record de l'année a été atteint le 4 juin avec plus de 27000 éclairs nuage-sol répartis sur la quasi-totalité du pays. Durant cette journée, la forte activité électrique a généré beaucoup de dégâts matériels mais aussi humains avec plusieurs personnes touchées par la foudre.
Cependant, le second semestre de l'année 2011 a été beaucoup plus calme à cause des températures relativement fraiches du mois de juillet qui n'ont pas favorisé la production d'orages En effet seulement 45 000 éclairs nuage-sol ont été répertoriés en juillet à comparer aux 150 000 enregistrés en moyenne sur les 20 dernières années pour la même période, indique Météorage.
A noter que l'automne chaud et humide dans les régions méditerranéennes a favorisé un développement orageux important dans le Sud-Est avec un épisode Cévenol particulièrement tardif début novembre.
Au niveau régional, la région Provence Alpes Côtes d'Azur reste la plus foudroyée devant Rhône-Alpes et Languedoc Roussillon.
L'année 2011, contrastée au niveau météorologique, fait suite à une année 2010 très pauvre en orages puisqu'à peine 367 000 éclairs nuage-sol avaient été enregistrés, plaçant 2010 à la 3ème place des années les moins foudroyées après 1991 et 2008.
En France on recense en moyenne de 1 million d'impacts de foudre par an. Ils sont à l'origine de 8 à 15 morts par an, 20 000 animaux foudroyés, 15 000 incendies, des centaines de millions d'euros de dégâts et environ 250 clochers détruits.
Notes
1 Un éclair nuage-sol est la décharge électrique qui se produit entre le nuage d'orage, cumulonimbus et la terre. Cette décharge génère un courant électrique très intense, de plusieurs dizaines de milliers d'Ampère, qui produit en retour le flash lumineux et le tonnerre. On l'appelle aussi : flash, coups de foudre ou un arc en retour. Les nombres d'éclairs sont exprimés en flash. 2 La surface prise en compte pour le comptage des éclairs nuage-sol est celle comprise dans les limites administratives de la France.
Biocarburant SP95-E10 : est-ce vraiment économique et bon pour l'environnement ?
Alors que les professionnels des biocarburants ou agrocarburants se félicitent de la démocratisation du SP95-E10 et de la recommandation de la cour des comptes quant à la poursuite de sa production, certaines associations y voient un trompe l'œil qui appauvrit les automobilistes et l'environnement.
Selon la filière française du bioéthanol, en 2011, le SP95-E10, carburant contenant jusqu'à 10% de bioéthanol, a poursuivi « sa percée et termine l'année 2011 avec une part de marché des essences de plus de 20% en décembre 2011, en progression de plus de 40% sur 1 an. »
Ainsi, « le SP95-E10 est déjà distribué dans plus de 25 % des stations-service contre 19% en janvier 2011. Sur les 6 derniers mois de 2011, le SP95-E10 a été vendu en moyenne environ 3,5 centimes par litre moins cher que le SP95 dans les circuits de distribution comparables. » Ce qui correspondrait, selon les professionnels du bioéthanol, à une « économie de 0,39 € par litre par rapport au SP95, soit plus de 460 € par an pour un automobiliste parcourant 15 000 km par an. »
Malheureusement, dans les faits, nous constatons que le SPE95-E10 a un rendement significativement moindre que le SP95 (-18% sur une Renault Twingo 2), ce qui oblige donc l'automobiliste à consommer plus et donc à dépenser plus, contrairement à ce qu'indiquent les professionnels de la filière. Un constat partagé par un récent rapport de la Cour des comptes qui indique que les politiques françaises de promotion des agrocarburants ont coûté 3 milliards d'euros aux consommateurs entre 2005 et 2010. Ainsi, les agrocarburants, incorporés aux carburants fossiles, obligent en effet à passer plus souvent à la pompe car ils sont moins efficaces que les carburants fossiles, constate également le Réseau Action Climat - France et ses associations membres.
L'intérêt est aussi du côté de l'Etat qui profite d'un surplus de consommation en prélevant la fameuse Taxe Intérieure sur les Produits Pétroliers (TIPP) à chaque passage à la pompe, alors que l'écart de prix avec le SP95 reste très faible : une recette fiscale nette estimée à 470 millions d'Euros par le rapport. Cependant, « même si les agrocarburants renflouent les caisses de l'Etat, les bénéfices sont majoritairement reversés aux filières industrielles via la défiscalisation des agrocarburants, alors qu'il n'y a plus de doute sur le fait qu'elles ne sont pas durables et qu'elles entrainent des impacts environnementaux et sociaux négatifs au niveau national et international. » ajoute le Réseau Action Climat - France. Un argument que réfute la filière du bioéthanol : « aujourd'hui, l'énergie renouvelable du bioéthanol est plus taxée que l'énergie fossile de l'essence, malgré l'exonération fiscale apparente du bioéthanol. Si la défiscalisation était supprimée après 2015, comme l'indique la Cour des Comptes, le surplus de taxes payé par les consommateurs augmenterait encore, du fait de l'Etat. »
Toujours est-il que le prix à la pompe du SP95-E10 n'est pas franchement incitatif, que les rendements restent manifestement inférieurs au SP95 et que les avantages environnementaux tant avancés restent un mythe, voire préjudiciables aux écosystèmes.
SP95-E10 : un bilan environnemental très mitigé
En effet, après bien des polémiques, une étude de référence de l'ADEME a confirmé mi 2010 que le bilan environnemental de la filière restait très controversé et que les émissions de gaz à effet de serre dépendent étroitement des conditions de mise en culture. Enfin, l'éthanol est plus polluant, plus toxique et a un pouvoir d'eutrophisation plus important que le sans plomb 95… pas de quoi fanfaronner.
Pour Antoine Bouhey, chargé de mission chez Peuples Solidaires/ActionAid : « Après le rapport du député Gilles Carrez en 2010, c'est un nouveau coup porté à la politique scandaleuse de soutien aux agrocarburants industriels. Leur consommation croissante en France et en Europe a indéniablement eu des impacts négatifs sur la sécurité alimentaire dans les pays du Sud, et favorisé l'accaparement de millions d'hectares de terres pour les produire. »
Les professionnels du bioéthanol concèdent « qu'aucune énergie renouvelable n'est encore compétitive par rapport aux sources fossiles » et mettent en avant que la production d'agrocarburants a permis le maintien et la création de 5000 emplois industriels et agricoles en France pour un chiffre d'affaires estimé à plus de 600 millions d'euros. Ceci, à partir de matières premières agricoles françaises, ce qui « améliore la balance commerciale et l'indépendance énergétique de la France. » Un argument contestable selon, Diane Vandaele, chargée de mission au Réseau Action Climat : « Les industriels des agrocarburants affirment aussi que cela favorise l'indépendance alimentaire des élevages français (production de tourteaux de colza qui remplace l'importation de soja), mais ils oublient de dire que dans le même temps la France augmente ses importations d'huile alimentaire et qu'il existe des solutions plus écologiques et rentables pour produire les protéines nécessaires à nos élevages ».
Enfin, « les acteurs de la filière du bioéthanol saluent la recommandation de la Cour des Comptes de poursuivre le soutien à la production et la vente de biocarburants de première génération. » Le SP95-E10 deviendra le carburant européen de référence dès fin 2013, même si le rapport de la cour des comptes précise que « les biocarburants ne peuvent être qu'un appoint minoritaire aux carburants fossiles ».
Quid du Superéthanol-E85 ?
Les ventes de Superéthanol-E85 ont progressé de 44% sur les 11 premiers mois de 2011. Au 3 janvier 2012, le Superéthanol-E85 est vendu en moyenne 0,91 €/l alors que le SP95 vaut environ 1,52 €/l en moyenne selon le site www.prix-carburants.gouv.fr.
Seuls les véhicules flex-fuel peuvent profiter de ce carburant. En 2011, plus de 6500 véhicules flex-fuel ont été vendus, soit 30% de plus qu'en 2010, pour un total de 22 000 véhicules flex-fuel en circulation à fin 2011. Les véhicules flex-fuel fonctionnent à la fois au Superéthanol E85 et aux autres essences, et sont vendus au même niveau de prix que les modèles essence classiques.
Là aussi, le débat promet d'être vif alors que les avantages environnementaux de ce type de carburant restent très mitigés.
Une centaine de baleines-pilotes échouées en Nouvelle-Zélande
Baleines-pilotes échouées en Nouvelle-Zélande, 23/01/2012
Depuis le début de la semaine, près de cent globicéphales se sont échoués sur une plage au sud de la Nouvelle-Zélande. Très peu ont pu regagner l'océan.
Les globicéphales ou baleines-pilotes sont des cétacés de la famille des dauphins. Ils sont reconnaissables par leur melon frontal fortement développé. Un globicéphale mâle peut mesurer près de six mètres pour un poids de trois tonnes, tandis que les femelles font jusqu'à 5 mètres pour 1 tonne et demi.
Il sont également appelés « dauphin pilote » car on les voit fréquemment dans le sillage ou à l'étrave des navires. Le globicéphale est un animal social qui se déplace le plus souvent en bandes pouvant aller d'une dizaine à plusieurs centaines d'individus.
Et justement, près d'une centaine de baleines-pilotes se sont échouées lundi 23 janvier 2012 matin sur une plage de Farewell Spit dans le sud de la Nouvelle-Zélande. De nombreux bénévoles se sont relayés nuit et jour pour les maintenir en vie le temps que la marée remonte, en vain pour la plupart.
Malheureusement, seulement 17 individus ont pu profiter de la marée, dès lundi soir pour regagner l'océan, tous les autres sont morts, soit dès leur échouage, plus tard dans la semaine ou euthanasiés par les autorités qui n'avaient plus aucun moyen de les sauver. Les survivants étaient en effet très affabilis et en état de stress.
Cette tragédie fait suite à une série noire : au début de l'année, 25 congénères s'éaient échoués au début du mois dans la même région. 18 d'entre elles avaient pu repartir en mer. Et quatre baleines à bec de Gray (deux femelles en lactation et deux petits) sont mortes ce weekend après s'être échouées à Papamoa Beach dans l'est de l'Île du Nord.
Régulièrement, de par le monde, des échouages de cétacés sont signalés.
Un échouage inexpliqué
Les raisons de cet échouage ne sont pas connues, mais les scientifiques évoquent de plus en plus les facteurs humains. En effet, les bruits sous-marins créés par nos activités ont considérablement augmenté : transport maritime commercial, sonars, exploration sismique réalisée par l'industrie pétrolière et gazière, construction off-shore et activités de loisir contribuent à créer un environnement qui désoriente de plus en plus les cétacés. Or, les baleines, dauphins, marsouins et certains autres cétacés se fient uniquement aux bruits sous-marins pour leur navigation, leurs communications et pour leur alimentation. L’augmentation de cette pollution sonore peut provoquer des modifications du comportement des cétacés, par exemple l’abandon des zones de mise bas et de nourrissage, et dans certains cas extrêmes l’échouage, voire la mort.
De plus, l'augmentation des niveaux de dioxyde de carbone (CO2), qui résulte de la combustion des combustibles fossiles, pourrait aggraver les niveaux sonores dérivant de l'accroissement des activités humaines. En effet, d'après les chercheurs du Monterey Bay Aquarium Research Institute, cette acidification des océans pourrait contribuer à rendre l'environnement marin plus bruyant.
Avec un marché dynamique le bio fait des envieux. Selon une étude Xerfi, les distributeurs spécialisés vont devoir se démarquer pour contrer le développement d'approches plus globales et "responsables" mais pas forcément bio.
Selon les derniers chiffres publiés par l'Agence Bio, l'agriculture biologique ne connaît pas la crise. Les conversions se poursuivent (+1990 en 2011), le nombre d'opérateurs croît et les consommateurs sont toujours aussi demandeurs de produits bio. En 2011 les ventes de lait sont en hausse de 10% en volume. Le beurre gagne 11% et les poulets 18%. Sans oublier la restauration collective qui a triplé ses achats bio depuis 2008, en y consacrant plus de 130 millions d'euros en 2010 contre 44 millions d'euros deux ans auparavant.
Mais cela pourrait ne pas durer. Selon une étude du cabinet Xerfi intitulé "Marché des produits biologiques", le marché bio va être soumis à rude concurrence dans les années à venir. Crise oblige, le pouvoir d'achat des ménages devrait stagner ce qui n'encouragera pas le passage à une alimentation bio qui reste plus chère. Les ventes pourraient continuer à progresser mais moins rapidement que ces dernières années. "La partie s'annonce ainsi plus difficile avec un nouveau ralentissement pour 2012 (+5% de hausse en valeur des ventes de produits bio), avant une légère accélération en 2013 (+8%)", explique Xerfi. Le cabinet remarque toutefois que le marché bio n'en reste pas moins structurellement plus dynamique que l'alimentaire dans son ensemble. "Fin 2015, le marché alimentaire des produits biologiques devrait représenter plus de 4,5 milliards d'euros, soit une hausse de 3 milliards d'euros en l'espace de 10 ans", en déduit Xerfi.
Attirés par ce dynamisme, certains acteurs de l'agroalimentaire vont vouloir renforcer leur présence et développer des offres pour des consommateurs qui se veulent "responsables". D'autres labels vont vouloir jouer la carte de la qualité, de l'éthique et surtout de la proximité tout en maintenant des prix attractifs. Après avoir capté 47% des ventes de produits alimentaires bio en France, la grande distribution va vouloir fidéliser et plus globalement se refaire une image quelque peu écornée ces dernières années.
La tendance est identique dans la restauration hors foyer. Selon le cabinet Xerfi, les opérateurs de restauration collective se sont très bien approprié l'objectif du Grenelle fixant un taux de 20% de produits bio dans les menus des établissements publics en 2012. Ils sont même allés plus loin que le bio en intégrant une dimension nutrition-santé. "Au-delà du bio, c'est la dimension « responsable » qui tend à prendre le dessus. Le bio ne constituant qu'un élément parmi d'autres d'engagement et de communication pour les groupes de la restauration collective", prévient Xerfi.
Résultat, ces acteurs "tendent à brouiller les cartes afin de bénéficier d'une demande globalement favorable à l'achat « responsable »" afin de pouvoir jouer sur tous les tableaux. Or "l'achat responsable peut être bio… mais pas seulement".
Plus bio que bio
Le cabinet Xerfi estime par conséquent que les distributeurs spécialisés vont devoir se démarquer. "Les avancées de la grande distribution alimentaire ont mis en péril leur domination du marché", estime-t-il. Selon ses prévisions, la part de marché des spécialistes tombera à seulement 30% en 2015, contre 38% en 2005.
Le cabinet prévoit par conséquent que le secteur du bio va continuer à se réorganiser autour d'enseignes historiques, fortes et reconnues qui ont tout intérêt à mettre en avant une "éthique irréprochable" comme ont commencé à le faire Biocoop et Biomonde en développant la marque Bio Cohérence, dont le cahier des charges est plus strict que celui de l'Union européenne. La mise en avant de l'aspect "local" peut également faire la différence. "Alors que les mouvements « locavores » sont en plein développement, et que le « made in France » refait surface, les réseaux spécialisés ont tout intérêt à mettre en avant leurs atouts en matière d'approvisionnement local", analyse Xerfi. Surtout que pour répondre à la demande, la France continue d'importer 35% des produits bio, notamment des fruits et des légumes.
Vers des schémas régionaux climat air énergie sans ambition ?
Recadrées par une circulaire ministérielle publiée dans l'été, de nombreuses régions auraient revu leurs ambitions à la baisse pour l'élaboration des SRCAE et envisageraient de rédiger en parallèle des stratégies régionales de politique énergétique.
De nombreux projets de schémas régionaux climat air énergie (SRCAE) sont actuellement, ou seront très prochainement, soumis à consultation publique, à l'instar de la Picardie, de l'Auvergne, de l'Alsace, de la Bourgogne… Ce vaste chantier initié par le Grenelle de l'environnement pour permettre une planification territoriale des politiques énergétiques, climatiques et de qualité de l'air serait-il en bonne voie ? Oui et non, répondent les observateurs.
Les régions ont pris beaucoup de retard dans l'élaboration de ces schémas, du fait d'une publication tardive des modalités d'application (juin 2011). "Et beaucoup d'entre elles ne veulent pas bâcler ce travail", indique Guilhem Isaac-Georges, conseiller au développement durable et au logement de l'Association des régions de France. A l'origine, la loi Grenelle 2 prévoyait un délai d'un an à compter de sa publication pour leur élaboration et leur approbation, soit une échéance au 11 juillet 2011. Dans une circulaire publiée en août 2011, la ministre de l'Ecologie repoussait ce délai à fin 2011. Aucune région n'a pu respecter ce délai. La Picardie et l'Aquitaine, les plus avancées, devraient néanmoins adopter leurs SRCAE très rapidement. D'autres prévoient une adoption en milieu voire en fin d'année.
La co-instruction des travaux entre les services de l'Etat et les régions freinerait également leur avancement : "On a voulu ajouter des lourdeurs administratives qui ne sont pas source d'efficacité", regrette Guilhem Isaac-Georges, ajoutant néanmoins : "Globalement, ça avance plutôt bien". Certains blocages persistent néanmoins, notamment sur la définition du volet éolien des SRCAE. Beaucoup de régions auraient également revu leurs ambitions à la baisse.
Vers des SRCAE a minima
Les régions, qui semblaient s'être prises au jeu des SRCAE et souhaitaient y inscrire une véritable politique énergétique, ont été recadrées par la circulaire publiée par la ministre de l'Ecologie. Echaudée par l'initiative de l'Aquitaine qui souhaitait que son SRCAE soit l'occasion d'élaborer un scénario prospectif de sortie progressive du nucléaire et de substitution progressive des énergies nucléaire et fossiles par les énergies renouvelables, Nathalie Kosciusko-Morizet indiquait alors : ''Les SRCAE ont pour unique vocation de fixer des objectifs en termes de développement des énergies renouvelables et d'amélioration de l'efficacité énergétique et non des objectifs généraux en termes de politique énergétique, ces derniers relevant de la politique nationale (…). Des motions générales en faveur de la sortie ou du maintien du nucléaire, ou d'appui général aux énergies renouvelables, ne sont pas appropriées dans le cadre de cet exercice''. Message reçu par les régions. Résultat : "Désormais, beaucoup de régions perçoivent les SRCAE comme un minimum. Elles comptent aller beaucoup plus loin dans le cadre de leur plan climat énergie territorial (PCET). Certaines régions, qui sont en avance sur certains sujets, comme le Rhône-Alpes pour la qualité de l'air ou encore l'Ile-de-France ou la région PACA, développeront ces points dans des PCET régionaux", indique Guilhem Isaac-Georges.
Un point de vue partagé par Yannick Régnier, chargé de projets politiques locales de l'énergie au Comité de liaison des énergies renouvelables (Cler) : "L'exercice des SRCAE, très cadré par l'Etat, ne permet pas de développer un projet de politique énergétique. Finalement, ils se concluront par des exercices techniques : diagnostic de territoire... Parallèlement, des exercices volontaristes vont se développer mais ils seront déconnectés de la loi".
Le Nord-Pas-de-Calais s'orienterait par exemple, en parallèle de son SRCAE coproduit avec les services de l'Etat, vers l'élaboration d'un document envisageant une sortie du nucléaire.
Les schémas éoliens posent problèmes
Plus problématique est l'élaboration des schémas régionaux de l'éolien (SRE) : "Ces schémas ne doivent pas être trop restrictifs : en France, le développement de l'éolien est déjà très encadré, il ne faut pas ajouter une autre maille de contrainte. De plus, ces schémas seront opposables, il faut y faire attention", souligne Yannick Régnier. Pourtant, "hormis pour les cas de la Picardie, où l'Etat affiche une réelle volonté de développer l'éolien, et de la Champagne-Ardenne, l'élaboration des schémas éoliens dans les autres régions pose problème. L'Etat essaie de brider l'envergure de ces schémas alors que les régions veulent aller plus loin que les seuls objectifs du Grenelle", indique Guilhem Isaac-Georges. Globalement, les régions considéreraient les objectifs du Grenelle comme un minimum à atteindre, alors que les services de l'Etat les verraient comme un plafond…
Nathalie Kosciusko-Morizet, dans sa circulaire, avait invité les régions à être ambitieuses et "de veiller à ce que [les zones favorables] représentent une surface significative dans la région", afin" d'atteindre, de façon réaliste, les objectifs du Grenelle de l'environnement''. Elle rappelait également que ''les zones favorables ne préjugent pas de la création de ZDE ni de l'autorisation des projets et qu'elles ne sont ainsi qu'une étape dans l'ensemble du processus permettant l'implantation d'éoliennes''.
Cette circulaire n'a pas permis d'éclairer le débat puisque "aujourd'hui, il existe de véritables situations de blocage. La région Ile-de-France, par exemple, ne devrait pas adopter son schéma éolien", selon Guilhem Isaac-Georges. Or, en cas de non-adoption des schémas avant le 30 juin 2012, leur approbation revient aux seuls préfets.
Deux espèces de la liste rouge de l'UICN deviennent chassables
Les représentants des chasseurs ne sont pas rentrés bredouille de leur rencontre avec Nicolas Sarkozy le 30 janvier. Parmi leurs prises, la suspension du moratoire sur la chasse de l'eider à duvet et du courlis cendré.
Le président de la République a reçu le 30 janvier à l'Elysée les représentants de la Fédération nationale des chasseurs (FNC) et de l'Association nationale des chasseurs de gibiers d'eau (ANCGE). Comme l'indique la FNC, la rencontre "n'aura pas été vaine". Au grand dam des associations de protection de la nature qui dénoncent les concessions faites aux chasseurs dans cette période électorale.
Plus d'espèces chassables
L'assouplissement porte tout d'abord sur un élargissement de la liste des espèces chassables. Avec, la levée du moratoire sur la chasse de l'eider à duvet et du courlis cendré sur le domaine public maritime. Le premier, rappelle la Ligue pour la protection des oiseaux (LPO) est une espèce "en danger" selon la liste rouge des espèces menacées en France publiée par l'UICN France et le Muséum national d'histoire naturelle de Paris. Le second est classé "vulnérable" selon cette même liste, et "quasi-menacée au niveau mondial", indique la LPO. "Ces moratoires faisaient partie d'un accord signé à la table ronde chasse en 2008, dont l'Etat s'était porté garant", rappellent FNE, la Ligue ROC et FNH.
Le Gouvernement a également rendu chassable la bernache du Canada jusqu'en 2015, via un arrêté publié le 24 décembre dernier au Journal officiel. Qualifiée d'"espèce exotique envahissante", le ministère de l'Ecologie précise que ces oies "colonisent les habitats au détriment d'autres espèces, polluent les eaux et les espaces verts via leurs déjections, vectrices de maladies".
De plus, "Nicolas Sarkozy a également promis aux chasseurs de prendre des décisions dès mars prochain pour autoriser les chasses traditionnelles d'espèces protégées (bruant ortolan et pinsons dans les Landes), en toute illégalité", s'indigne Allain Bougrain Dubourg, président de la LPO.
Chasser plus longtemps
Concernant les oies, le Conseil d'Etat a enjoint la ministre de l'Ecologie, par une décision du 23 décembre dernier, de fixer une date de clôture de la chasse aux oies cendrées, aux oies rieuses et aux oies des moissons qui ne soit pas postérieure au 31 janvier, alors que cette date était fixée au 10 février jusque-là. La Haute juridiction administrative avait donné un mois à la ministre pour modifier cette date.
L'arrêté modifiant cette date est effectivement paru in extremis au Journal officiel. Mais, surprise, Nathalie Kosciusko-Morizet a voulu soumettre un autre arrêté, au Conseil national de la chasse et de la faune sauvage du 31 janvier, autorisant la chasse des oies "aux fins d'études scientifiques" du 1er au 10 février 2012. Faute de quorum, le Conseil n'examinera toutefois le texte que vendredi. En tout état de cause, "aucune raison scientifique n'exige de tuer des oies après la fermeture de la chasse", s'indignent FNE, la Ligue ROC et FNH. "En réalité, sous couvert d'études, il s'agit de contourner la décision du Conseil d'Etat", dénoncent les associations.
Le pigeon ramier, quant à lui, a vu sa période de chasse étendue de 10 jours supplémentaires dans le Nord de la France, via un arrêté paru le 22 décembre dernier au Journal officiel. L'objectif affiché par le ministère de l'Ecologie ? Diminuer les impacts de cette espèce sur l'activité agricole. L'allongement de la période de chasse de cette espèce dans le Limousin, de même que celle des grives et des merles dans la Drôme et l'Ardèche, et de celle du gibier d'eau sur l'arc méditerranéen, sont également à l'étude, a annoncé Nicolas Sarkozy.
La chasse au vanneau, qui ouvrait le 15 octobre, sera autorisée un mois plus tôt à compter de la saison prochaine. En outre, l'ouverture générale de la chasse serait avancée d'une à deux semaines dans les départements du nord de la France.
Pas d'évaluation scientifique selon les ONG
Les ONG dénoncent des mesures prises en urgence "sans aucune évaluation scientifique" du Groupement d'études sur les oiseaux chassables (GEOC), instance créée à la suite de la table ronde chasse de 2008. "En agissant ainsi, le président de la République fait fi de la nouvelle gouvernance qu'il a prônée dans le cadre du Grenelle de l'environnement, des décisions de la table ronde chasse qu'il avait instaurée et des recommandations des scientifiques", dénoncent FNE, la Ligue ROC et FNH dans un communiqué commun.
Plus incisive encore, la LPO "dénonce avec vigueur ces annonces démagogiques au profit de l'intérêt d'une seule catégorie d'usagers de la nature, qui va d'ailleurs bénéficier d'une loi leur accordant encore plus de privilèges et davantage de facilités, loi qui sera débattue au Sénat le 3 février prochain". A la sortie de leur rencontre avec le président de la République, les représentants de la FNC se réjouissaient effectivement d'avoir ramené "dans leur carnier" le "bouclage des deux lois « chasse » et « armes »" avant la fin de la session parlementaire.
"Protéger les espèces menacées est absolument indispensable, mais il ne s'agit jamais de protéger pour protéger", a indiqué de son côté Nicolas Sarkozy aux représentants de chasseurs. Les données du GEOC "ne peuvent être mobilisées en sens unique seulement pour restreindre les possibilités de chasse", a ajouté le chef de l'Etat.
Les panneaux publicitaires ont encore de beaux jours devant eux. La réforme de l'affichage publicitaire, qui entre en vigueur le 1er juillet prochain, ne devrait finalement entraîner que très peu de changements.
Engagement du Grenelle, le décret qui met en œuvre la réforme de la réglementation applicable à la publicité extérieure est paru le 31 janvier au Journal officiel. La mise en consultation du projet par le ministère de l'Ecologie en février 2011 avait suscité de vives critiques de la part des associations, mais aussi des professionnels de la publicité, qui avaient dénoncé une menace directe sur les 15.000 emplois générés par le secteur.
Aujourd'hui, les critiques des premières redoublent, tandis que les seconds, tout comme les ministères signataires, restent extrêmement discrets.
Le Grenelle assassiné ?
Pour quelles raisons ? Il semble que le contenu du décret, entre la version mise en consultation l'année dernière et sa version définitive, ait sensiblement évolué, mais pas dans le sens préconisé par les associations. Ainsi, Paysages de France extrêmement remonté, dénonce l'assassinat du Grenelle. "La responsabilité de cet assassinat incombe directement à un gouvernement qui s'est fait le complice attentif du travail de sape poursuivi par les afficheurs depuis plus d'un an", fulmine l'ONG. Tout comme le Collectif des déboulonneurs qui s'interroge : "alors, ce Grenelle de l'environnement, protection des paysages ou des intérêts des copains ?".
Les professionnels, regroupés au sein de l'Union pour la publicité extérieure (UPE), comprennent la colère des associations. Mais, là où Paysages de France dénonce trois années de concertation "bidon" et où le Collectif des déboulonneurs pointe "le silence radio" du Gouvernement après la fin de la consultation sur le texte, Stéphane Dottelonde, président d'UPE, estime lui que "le débat n'a pas été tronqué". Les différentes parties prenantes (parlementaires, élus locaux, associations, professionnels…) se sont exprimées selon ce dernier. Le décret serait le fruit d'un compromis entre ces parties prenantes, de la même manière que cela existe pour l'adoption des règlements locaux de publicité.
L'explication de la fronde viendrait du fait que la première version proposée à la consultation était une version "exclusivement ministère de l'Ecologie", alors que la version finale est interministérielle. Pas moins de quatre ministres (écologie, intérieur, économie et culture) ont effectivement cosigné le texte. Paysages de France confirme une perte d'influence de l'Ecologie au profit de Bercy qui "aura systématiquement apporté sa contribution aux offensives conduites en vue de dépecer le projet et ce jusqu'au dernier moment, dans l'enceinte du Conseil d'État".
Progression du chiffre d'affaires
Au final, Paysages de France estime que pourront continuer à être installés massivement des enseignes murales géantes ainsi que des centaines de milliers de panneaux publicitaires "4x3" scellés au sol, dans le paysage quotidien de 40 millions de Français, et cela, jusque dans les parcs naturels régionaux (PNR), les secteurs sauvegardés, le champ de visibilité des monuments historiques, les zones de protection du patrimoine urbain et paysager, etc.
Pour le Collectif des déboulonneurs, parmi "les reculs les plus flagrants introduits dans cette version" figurent les écrans numériques de grand format de 8 m2, et même de 50 m2 autour des aéroports, les bâches de chantier qui pourront supporter 50% de publicité, la mesure de limitation de la densité des panneaux "vidée de son contenu" selon le collectif. De même que le mobilier urbain, qui n'est pas concerné par l'extinction pour les économies d'énergie et pourra supporter de la publicité numérique.
Les professionnels de la publicité ne voient effectivement plus dans ce texte la menace qu'ils dénonçaient il y a un an. "La visibilité réduite du secteur dépend plus aujourd'hui de la situation du marché que de la réglementation", reconnaît Stéphane Dottelonde.
Tenant à rassurer la députée Maryse Joissains-Masini (UMP – Bouches-du-Rhône), soucieuse des "enjeux économiques et sociaux" de la publicité extérieure, la ministre de l'Ecologie elle-même, ne déclarait-elle pas, le 30 août dernier, que la remontée des données recueillies par les directions départementales du territoire (DDT), croisée avec les chiffres fournis par le ministère de l'Economie, "fait apparaître un taux très faible (de 5 à 15%) de dépose ou de mise en conformité du parc publicitaire existant du fait du projet de décret. Ce taux est nul pour ce qui concerne le mobilier urbain qui n'est pas impacté par le décret. Par ailleurs, un développement important de secteurs comme ceux du micro-affichage, des bâches, des dispositifs innovants, des publicités sur aéroports ou gares est prévu, permettant d'envisager une progression de 10 à 30% des chiffres d'affaires des entreprises investissant dans ces domaines d'activité".
Comment pérenniser le développement du mégaprojet Desertec ?
Alors que Desertec est en phase de transition après des accords signés récemment, le cabinet BearingPoint fait sept recommandations pour que le mégaprojet devienne réalité et pérenne face aux défis techniques, économiques et politiques à relever.
Où en est le projet Desertec qui prévoit l'installation de 100 GW d'énergies renouvelables au Maghreb et au Moyen-Orient à l'horizon 2040-2050 ? Quels sont les enjeux de ce pari intercontinental et comment s'assurer que ce projet géant devienne une réalité industrielle ? Autant de questions auxquelles le cabinet de conseil BearingPoint - associé au projet depuis juillet 2010 - entend apporter des ''réponses'' à travers son étude qui identifie ''sept facteurs clés de réussite" pour ce type de grand projet solaire.
Pour rappel : le projet Desertec, lancé en 2008 parallèlement au Plan Solaire Méditerranéen (PSM), a été formalisé en novembre 2009 avec la création du consortium industriel Desertec Industrial Initiative (Dii) qui réunit aujourd'hui 56 sociétés. Parmi elles, les principaux groupes allemands d'énergie à l'origine de l'initiative, E.ON, RWE ou encore Deutsche Bank, le réassureur Munich Re mais aussi le Français Saint-Gobain-Solar. Le but du projet est de répondre à hauteur de 15 % à la demande d'électricité de l'Europe d'ici à 2050 tout en satisfaisant une part substantielle des besoins en électricité des pays d'Afrique du Nord et du Moyen-Orient (MENA). Comment ? Via la création d'un grand réseau de parcs solaires thermiques implantés dans les déserts nord-africains mais aussi éoliens à travers la Méditerranée, en connectant l'Europe continentale aux pays de la zone MENA par des câbles à haute tension.
"7 facteurs-clés de succès''
Le projet ''pharaonique", selon le terme de BearingPoint, est ambitieux. Et ses obstacles restent nombreux : la faisabilité technique du projet, le risque d'instabilité politique au sud de la Méditerranée ou encore les conditions de son financement. D'autant que son coût total est estimé à 400 milliards d'euros par le Centre allemand de recherche aérospatiale (DLR) !, a rappelé le 5 janvier Emmanuel Autier, associé chez BearingPoint, en présentant cette étude lors d'un débat organisé par BIP et Enerpresse à Paris.
Alors comment rendre le projet ''économiquement viable" et financer plusieurs milliards ? Si le taux de rentabilité de Desertec attendu par le DLR ''est de 15% d'ici 2020/2030", il reste encore à "améliorer" ce niveau de rentabilité d'ici là en "attirant et rassurant les investisseurs'', a prévenu M. Autier. Si les technologies du solaire restent chères, le cabinet préconise avant tout de privilégier l'innovation technologique dans les pays du sud "pour diminuer les coûts in fine en s'entourant notamment, de start-ups innovantes, de facultés et de pôles de recherche". Ce qui est encore loin d'être le cas, regrette Kamal Faid, ex-président de l'observatoire méditerranéen de l'énergie, sachant ''qu'entre les pays du Maghreb, la possibilité de développer des politiques énergétiques communes n'existe pas encore''….
Côté technologies : l'optimisation des optiques et des fluides caloporteurs des panneaux solaires thermiques constitue "de nouvelles pistes d'innovation", estime M. Autier tout en soulignant que la technologie solaire thermodynamique (CSP) privilégiée par la fondation Desertec ''a déjà fait ses preuves aux USA et en Espagne''. De nouvelles technologies devront être testées ''pour abaisser le coût des systèmes actuels, déjà fiables''. Autre défi technique : la réduction de la consommation d'eau des systèmes à concentration, vitale en zone aride. Des améliorations limitant l'usage de l'eau (système de refroidissement hybride, à sec ou à eau dessalée) existent mais au détriment du rendement électrique et sont également plus chers.
Soutien nécessaire des Etats y compris de l'UE
"Des tarifs de rachat aidés, au moins pendant les premières années'', la mise en place des partenariats publics-privés (PPP) pour ''garantir des ressources financières suffisantes'' figurent parmi les autres recommandations du cabinet. ''Le besoin du soutien des états, de subventions (BEI, Banque mondiale, KfW…) est plus que jamais d'actualité", renchérit de son côté Philippe Lorec adjoint du directeur général de l'Energie et du Climat du Ministère de l'Ecologie. D'autant que les projets solaires européens y compris français font face à une instabilité réglementaire et des coups de rabot répétitifs de tarifs d'achat. Face à ces difficultés, M. Autier a souligné la nécessité d'une réglementation "cohérente et stable" dans les deux rives de la méditerranée en particulier à l'échelle européenne pour permettre ''d'établir un cadre juridique sur les connexions transfrontalières'' et d'''harmoniser l'approche des dispositifs fiscaux''. Alors que le printemps arabe et ses possibles conséquences sur la viabilité de Desertec, a souvent été évoqué, ''le risque politique n'est pas là où l'on imagine (…). Pour des investissements de 20 à 50 ans, le manque de stabilité des réglementations en Espagne, en France ou en Italie constitue un risque supérieur", confirme Lynn Nahmani, experte en financement de projets.
Ces éléments sont ''des préalables nécessaires qui permettront de faire évoluer la réglementation européenne dans le bon sens, de donner toute sa place à la concurrence", de construire un marché "unifié" de l'électricité verte pour fluidifier les échanges, d'après le cabinet. ''Une condition importante pour que l'électricité soit produite et injectée'', estime M. Autier. L'objectif est aussi d'améliorer la coopération Nord-Sud afin de construire une "relation durable gagnant-gagnant''. A l'instar du "modèle de coopération Chine-Occident" qui favorise ''le transfert de technologie'', selon lui.
Desertec ''en phase de transition"
Entre 1.000 à 1.500 projets sont visés par Desertec qui est actuellement en "phase de transition", a souligné Philippe Lorec. Sa première phase concrète pourrait intervenir avec la construction au Maroc d'un parc solaire d'une puissance de 500 MW près de Ouarzazate d'ici environ 5 ans. Le chantier du parc devrait démarrer dès cette année 2012. Ce premier projet, d'un coût de 1,9 milliards d'euros, doit servir de pilote pour Desertec, avant une réplication dans d'autres pays de la zone MENA dont l'Algérie. Dii a en effet signé en décembre 2011 un accord en vue d'un déploiement du projet dans le pays.Une étude de faisabilité a également été lancée en Tunisie l'an dernier et des discussions sont prévues en Egypte, selon la fondation.
Un autre accord important a été signé fin novembre 2011, entre Dii et l'initiative industrielle Medgrid (qui regroupe 20 partenaires dont les Français GDF Suez, EDF) jusqu'ici concurrents et relançant par la même occasion le plan solaire méditerranéen (PSM) visant 20 gigawatts (GW) d'énergie renouvelable d'ici 2020. Ce partenariat s'avère stratégique et est susceptible de concrétiser et de faire aboutir les projets issus des deux initiatives : Desertec se concentrant sur la production d'énergie renouvelable et Medgrid étant chargé des interconnexions sous-marines entre les deux continents européen et africain.
Recréer des zones humides pour la qualité de l'eau et la biodiversité
Le 2 février, les zones humides sont à l'honneur. Alors que la France a perdu les deux tiers de ces écosystèmes, leurs intérêts pour le traitement des eaux et le développement de la biodiversité encourage la création de zones humides artificielles.
Au cours du siècle dernier, plus de la moitié des zones humides en Europe et dans le monde a disparu. La France n'est pas épargné. Deux tiers de la superficie des zones humides originelles françaises ont été détruits dans le cadre de l'aménagement du territoire (zones de culture, étalement urbain, infrastructure de transport). En cent ans, cette disparition représente 2,5 millions d'hectares, soit trois fois la superficie de la Corse. Même si un ralentissement de la tendance de régression a été observé entre 1990 et 2000, ces zones restent menacées surtout les zones humides ordinaires souvent très localisées et dont la disparition peu sembler sans importance. Pourtant leurs intérêts en matière de maintien de la biodiversité et de traitement de l'eau sont désormais bien connus. A tel point que depuis quelques années, on tente de recréer des zones humides dites artificielles.
Des zones tampons entre les milieux agricoles et les cours d'eau
En France, 35% de la superficie du pays sont traités par des produits phytosanitaires. Par ruissellement, une bonne partie rejoint les cours d'eau et participe à la dégradation de la qualité du milieu. Selon le Cemagref et l'Onema, changer les pratiques et réduire l'utilisation des pesticides ne va pas suffire à améliorer la situation pour respecter les engagements de la Directive Cadre sur l'Eau. Ces deux organismes travaillent donc de concert pour encourager la mise en place de zones tampons entre les champs et les cours d'eau. Une zone humide artificielle comme par exemple un plan d'eau peu profond peut recueillir les eaux de ruissellement polluées et les stocker suffisamment longtemps pour que la faune et la flore dégrade la pollution. Le temps de séjour de l'eau, la température, le type de sédiment et les espèces présentes conditionnent l'efficacité de l'épuration. D'après les travaux du Cemagref, en moyenne 55% des polluants peuvent être retenus par ce biais. Ce taux peut atteindre plus de 80% pour certaines molécules comme le tebuconazole, un fongicide appartenant à la famille de triazoles utilisé sur les cultures de blé, de fleurs, arbres fruitiers, cultures oléagineuses.
Des zones humides artificielles pour affiner l'épuration en station
Avec le renforcement des réglementations sur les concentrations des polluants en sortie des stations d'épuration, les capacités épuratoires des zones humides intéressent également les professionnels. "Le traitement des eaux usées, basé principalement sur des processus
biologiques naturels optimisés, a fait ses preuves sur des dizaines de molécules mais ne se révèle pas suffisamment efficace sur ces centaines apparues en cible potentielles", a expliqué Eric Blin responsable du projet Zone Libellule® chez Lyonnaise des Eaux à l'occasion du colloque Chimie et Nature organisé fin janvier par la Fondation de la Maison de la Chimie.
Les professionnels du secteur développent des systèmes épuratoires extensifs installés en sortie de station qui, là aussi, font office de zones tampons avant le rejet dans le milieu naturel. Outre l'affinage des traitements des nitrates et du phosphore, ces zones humides artificielles peuvent être efficaces pour le traitement des polluants émergents tels que les médicaments, les perturbateurs endocriniens ou encore les pesticides. "Pour agir sur ces « cocktails » de polluants, l'idée est de les faire transiter dans un « cocktail » d'écosystèmes aquatiques qui grâce à la diversité des états physiques, chimiques, biologiques rencontrés, dégradera en fonction de leur propriété propre chacune des molécules visées", précise Eric Blin.
Lyonnaise des eaux a ainsi installé en 2009 un ensemble d'écosystèmes à la station d'épuration de Saint-Just dans l'Hérault. En sortie de station, l'eau traverse une cascade, une roselière, des méandres rapides, un bassin herbier créés de toutes pièces avant de rejoindre la rivière. Après trois ans d'études les premiers résultats sont satisfaisants selon Eric Blin : "en sortie de la "Zone Libellule® ", l'eau est mieux oxygénée (…) sans impact thermique sur le milieu, avec une amélioration de qualité sur les paramètres azote et phosphore ainsi qu'une concentration en Echerichia Coli inférieure au seuil préconisé pour les zones de baignade". Les effets constatés sont majeurs sur des perturbateurs endocriniens comme les alkylphénols issus des résidus de savon, sur des médicaments comme les antiobiotiques, le Diclofénac, le Naproxène, ou encore certains pesticides, avec des réduction de plus de 80% en concentration dans l'eau. "Le suivi écologique a démontré le développement de la biodiversité avec une augmentation d'un facteur 6 du nombre des espèces", ajoute Eric Blin. Ces résultats vont être affinés dans les mois à venir.
Normes de qualité de l'eau : la Commission propose 15 nouvelles substances prioritaires
La Commission européenne propose d'allonger la liste des substances prioritaires au regard de la qualité de l'eau, adoptée en 2008. Au total, 19 substances devraient être éliminées progressivement, les 29 autres devront être réduites.
Dans le cadre de la révision de la directive sur les normes de qualité environnementale de l'eau, la Commission européenne propose d'ajouter quinze nouvelles substances à la liste des 33 polluants qui font déjà l'objet de surveillance et de contrôles dans les eaux de surface. Cette proposition sera soumise au Conseil et au Parlement en vue de sa discussion et de son adoption. Pour rappel, les substances déjà inscrites sur la liste sont des métaux, des dérivés du pétrole, des pesticides, des solvants, des détergents ou encore des substances utilisées dans l'industrie. Elles sont classées en deux catégories : les substances prioritaires, dont la pollution doit être réduite progressivement d'ici 2015, et les substances dangereuses prioritaires (au nombre de 13), dont la pollution doit être réduite dans un premier temps avant une suppression totale de leurs émissions d'ici 2021.
Quinze nouvelles substances, dont six jugées dangereuses
Pour établir la liste des nouvelles substances, la Commission a procédé pendant trois ans à l'examen de 2.000 substances et des risques qu'elles représentent en fonction de leur concentration dans les eaux de surface, de leur dangerosité ainsi que de leur production et de leur utilisation. Quinze ont finalement été retenues. "Parmi ces quinze substances figurent des produits chimiques industriels, mais aussi des substances utilisées dans les produits biocides, pharmaceutiques et phytopharmaceutiques. Elles ont été sélectionnées sur la base de preuves scientifiques attestant qu'elles peuvent présenter un risque important pour la santé", indique la Commission européenne. Parmi elles, six pourraient rejoindre la liste des substances dangereuses prioritaires : le dicofol, le quinoxyfène, le perfluorooctane sulfonate (PFOS), l'heptachlore, l'hexabromocyclododécane (HBCDD) et les dioxines et composés de type dioxine. Leurs émissions devront donc être supprimées progressivement dans un délai de vingt ans.
Le bisphénol A, le cyanure libre etc. sont recalés
Face au désaccord sur certaines substances lors de l'adoption de la directive en 2008, le Parlement européen avait fait inscrire treize autres polluants en annexe du texte, devant être soumis prioritairement lors de sa révision, comme le bisphénol A, le musc xylène ou encore le cyanure libre. Mais pour la plupart d'entre eux, "l'examen a conclu qu'il n'y avait pas assez de preuves de risque significatif pour ou via l'environnement aquatique dans l'UE pour les inclure à ce stade dans la liste des substances prioritaires", indique la Commission dans son rapport au Parlement européen et au Conseil sur le résultat du réexamen de la liste existante des substances surveillées. Seuls quatre de ces polluants devraient finalement rejoindre la liste des substances dangereuses prioritaires (le dicofol, le quinoxyfène, l'acide perfluorooctanesulfonique et les dioxines et composés de dioxines, dont les PCB). La Commission précise que la révision de la liste a été entreprise au moment même où était mis en œuvre le règlement Reach. La future révision profitera donc de "la richesse des informations" obtenues grâce au processus d'enregistrement.
Durcissement des normes et des règles de surveillance
Pour les diphényléthers bromés, le fluoranthène, le nickel et les hydrocarbures aromatiques polycycliques, déjà inscrits sur la liste des substances prioritaires, la Commission propose des normes plus strictes. Enfin, elle préconise le classement en substance dangereuse prioritaire du di(2-ethylhexyl)phtalate et de la trifluraline, ce qui implique la suppression progressive de leurs émissions. La Commission souhaite également améliorer les modalités de surveillance des polluants chimiques présents dans l'eau, et mettre en place un mécanisme destiné à permettre l'obtention d'informations de meilleure qualité sur les concentrations d'autres polluants pour lesquels une surveillance pourrait se révéler nécessaire à l'avenir à l'échelle de l'UE.
Le coût de production du nucléaire va augmenter, selon la Cour des comptes
Même si elle estime que de nombreuses données sont incertaines, la Cour des comptes évalue à 10 % minimum la hausse prochaine du coût de production de l'électricité nucléaire qui est estimé aujourd'hui à 49,50€ le mégawatt heure.
La Cour des comptes a remis ce mardi 31 janvier son rapport sur les coûts de la filière électronucléaire, demandé par le gouvernement le 31 mai dernier afin d'éclairer le débat sur l'avenir du nucléaire, relancé par la catastrophe de Fukushima. Si les dépenses passées et présentes sont relativement bien identifiées par les exploitants et chiffrables, analyse la Cour des comptes, les dépenses futures sont incertaines.
Malgré les incertitudes, la Cour des comptes estime à 49,50€ le coût du mégawatt heure produit en 2010, en se basant sur un parc d'une durée de vie de 40 ans. Ce coût devrait augmenter au minimum de 10 % dans un avenir proche. Celui de l'EPR de Flamanville pourrait atteindre, au minimum, entre 70 et 90€/MWh, même si la Cour des comptes estime qu'il est beaucoup trop tôt pour en avoir une idée précise.
Des dépenses passées et présentes plutôt bien connues
Les 58 réacteurs en activité en France ont coûté à l'investissement 96 Mds€2010*. Hors construction de Superphénix, le montant total de construction des installations nécessaires à la production d'électricité nucléaire s'est élevé à 121 Mds€2010. Globalement, les coûts de construction au mégawatt ont augmenté, en raison d'un durcissement des exigences de sûreté (1,25 M€/MW en moyenne, mais dans une fourchette allant de 1,07 à 2,06 M€/MW). Même si le coût de construction de l'EPR de Flamanville est difficilement appréhendable alors que les travaux sont en cours, la Cour des comptes estime qu'avec un coût de construction estimé à 6 Mds€, le coût de production au MW atteindrait 3,7 M€.
Les charges d'exploitations annuelles sont également bien connues, à hauteur de 8,9 Mds€ en 2010 pour EDF, soit 22 €/MWh. Ces charges ont augmenté de 11 % entre 2008 et 2010 du fait de l'augmentation des programmes de maintenance courante et des impôts et taxes et devraient continuer à progresser à l'avenir.
Des dépenses futures incertaines mais à la hausse
Les dépenses futures, quant à elles, sont difficilement chiffrables, surtout celles liées au démantèlement. En la matière, les prévisions des exploitants se situent plutôt dans une fourchette basse (18,4 Mds€ pour les 58 réacteurs), estime la Cour des comptes. Cependant, note la Cour des comptes, les effets du démantèlement sur le coût de production sont relatifs, même dans les hypothèses les plus hautes (hausse de 2,5 % du coût du MWh). Elle conseille néanmoins à la direction générale de l'énergie et du climat (DGEC) de mener, comme celle-ci l'envisageait, des audits sur ce point. François Fillon, qui a reçu officiellement le rapport ce mardi, a indiqué avoir demandé aux ministres de l'Environnement et de l'Energie "de procéder aux audits correspondants et aux évaluations complémentaires nécessaires". Eric Besson a indiqué à l'AFP que "les contrôles ont déjà été lancés par le ministère de l'Energie, dont c'est la responsabilité, et seront achevés d'ici fin 2012".
Les coûts de gestion à long terme des déchets radioactifs sont également incertains et probablement sous-estimés par les exploitants. L'Andra, en charge du projet de stockage géologique profond a récemment revu son devis à la hausse, de 16,5 Mds€ estimés en 2005 à 36 Mds€ en 2009. Une estimation officielle est attendue d'ici 2015. Une bonne estimation de ces coûts pourrait conduire à une augmentation de 1 % par MWh.
En revanche, les investissements de maintenance vont augmenter assurément, note la Cour des comptes, et même doubler. Situés autour de 1,5 Md€ par an entre 2008 et 2010, ils devraient être portés à 3,7 Mds€ chaque année d'ici 2025, si EDF suit son programme de maintenance et tient compte des demandes de l'Autorité de sûreté nucléaire (ASN) post stress tests. L'impact de ces investissements sur le coût de production au MWh est compris entre 10 et 15 % et est donc significatif.
La prolongation de la durée de vie du parc : un paramètre essentiel
"Le paramètre déterminant est bien la durée de vie, souligne le président de la Cour des comptes Didier Migaud. Les orientations prises doivent donc être explicites". Comptablement, les centrales sont amorties sur 40 ans. Plus la durée de vie des centrales est longue, plus bas est le coût de production puisque les dépenses sont réparties sur plus long terme et les investissements pour le démantèlement et les nouveaux moyens de production est repoussé.
En 2020, 22 réacteurs auront atteint les quarante années de fonctionnement. Il faut donc décider aujourd'hui des investissements nécessaires pour les remplacer par des réacteurs de nouvelles générations, par des énergies alternatives ou prolonger leur durée de vie. "La première option nécessiterait un effort considérable d'investissement à court terme qui est improbable voire impossible : la construction de 11 EPR. C'est donc qu'une décision implicite est prise : soit on prolonge la durée de vie des centrales à 50 ans, sous réserve du feu vert de l'ASN, soit on change le mix énergétique, mais cette dernière option demande également une anticipation", analyse Didier Migaud.
Le Premier ministre a indiqué dans son communiqué de presse que "les choix sur la durée de fonctionnement des centrales nucléaires ou la construction de nouveaux réacteurs revêtant un caractère stratégique et déterminant sur les coûts de la filière, ils seront précisés dans le cadre de la programmation pluriannuelle des investissements (PPI) élaborée à partir de l'été 2012". Le gouvernement a par ailleurs décidé de poursuivre "l'exercice de transparence effectué par la Cour" en y intégrant "de façon détaillée les conséquences du rapport fait le 3 janvier par l'Autorité de sûreté nucléaire (ASN) et demandera à la Commission de régulation de l'énergie (CRE) d'assurer un audit régulier et public des travaux ainsi menés".
Note : Toutes les valeurs en euros sont exprimées en euro de 2010
OGM : incohérence au menu de la réglementation française
Le décret sur l'étiquetage "sans OGM" entrera en vigueur le 1e juillet mais un projet d'arrêté sur la coexistence des cultures risque de le rendre inopérant en privilégiant des mesures ne garantissant pas un taux de contamination inférieur à 0,1%.
Le décret précisant les conditions d'affichage d'une mention "sans OGM" ou "nourris sans OGM" a été publié mardi 31 janvier au Journal Officiel. Ainsi à compter du 1er juillet prochain les opérateurs de l'agroalimentaire pourront valoriser certains produits issus d'une filière dite "sans OGM".
Certains ingrédients végétaux pourront ainsi être étiquetés "sans OGM" s'ils ne contiennent pas plus de 0,1% d'ADN génétiquement modifié issu d'une contamination accidentelle. Mais cette étiquette ne sera apposée que sur les végétaux pour lesquelles il existe une espèce OGM sur le marché de l'UE. Ce sera le cas pour le maïs ou le soja mais pas pour la salade ou la courgette par exemple.
Pour les ingrédients d'origine animale, plusieurs étiquettes sont possibles suivant le type d'ingrédient et le niveau de garantie apporté par les producteurs. Les ingrédients non transformés provenant d'animaux alimentés par des végétaux "sans OGM" pourront être étiquetés "nourris sans OGM 0,1%" ou "issus d'animaux nourris sans OGM 0,1%" pour le lait ou les œufs. La même règle s'applique pour les ingrédients transformés.
Si le producteur ne nourris pas ses animaux avec des OGM mais ne peut pas garantir que son alimentation est "sans OGM", il pourra étiqueter ses produits d'une mention "nourris sans OGM 0,9%" ou "issus d'animaux nourris sans OGM 0,9%". Autrement dit, rien ne garanti que le taux d'ADN présent dans l'aliment soit inférieur à 0,1% mais les conditions d'exploitation garantissent que ce taux n'excède pas 0,9%, c'est-à-dire le seuil d'étiquetage "avec OGM" demandé par l'UE.
Pour les ingrédients issus de l'apiculture (miel, pollen, gelée royale), les ruches ne doivent pas être installées à moins de trois km d'un champ OGM pour que l'apiculteur puisse étiqueter "sans OGM dans un rayon de 3 km" et ce pendant un an.
Un étiquetage discret… ?
Malgré le progrès que représente ce décret en terme d'information du consommateur il n'est pas dit que cet étiquetage favorisera le maintien d'une culture "sans OGM". En effet, les critères d'étiquetage le rendent peu lisible et applicable à un nombre restreint de produits. Toutes ces précisions ne sauteront pas aux yeux des consommateurs puisqu'elles doivent être apposées dans la liste des ingrédients. L'étiquetage ne sera visible sur la face avant du produit que pour les aliments dont l'ingrédient principal représente plus de 95%. "Jusqu'au dernier moment, les lobbies pro-OGM se sont agités pour empêcher ou minimiser la possibilité pour le citoyen-consommateur de manifester ses choix", estime l'association Inf'OGM. De plus, le décret n'autorise pas l'affichage du "nourri sans OGM" aux produits issus d'élevage nourris à l'herbe.
…et inopérant ?
Par ailleurs, selon ce nouveau décret, le mécanisme d'étiquetage de nombreux produits va reposer sur la production de végétaux "sans OGM" respectant un seuil de 0,1%. Mais cette production va dépendre des règles de coexistence entre les filières OGM et non OGM que la France va mettre en place sur son territoire. Le haut conseil en biotechnologies a publié un avis sur ce sujet le 17 janvier dernier. Pour garantir des productions végétales "sans OGM", il recommande la mise en place d'une stratégie collective qui permette de négocier localement en fonction de la situation des mesures de coexistence nécessaires. "Il est essentiel d'adapter les conditions techniques aux situations locales et aux objectifs recherchés. Ceci est particulièrement important pour les espèces allogames comme le maïs pour lesquelles les facteurs pouvant affecter la présence fortuite d'OGM dans d'autres productions sont nombreux", peut-on lire dans l'avis.
Pourtant un projet d'arrêté du ministère de l'agriculture, que l'association Inf'OGM s'est procuré, défini non pas des zones de concertations locales comme le préconise le HCB mais des distances d'isolement entre les parcelles. La dizaine d'articles que compte ce document précise que les parcelles de maïs OGM devront être éloigné de 50 mètres minimum des parcelles de maïs non OGM ou être entourées d'une bande de 9 mètres de large de maïs non OGM. La distance est réduite à 5 mètres pour les cultures de pommes de terre OGM et de soja OGM et aucune distance n'est prévue pour la betterave sucrière. Un nettoyage des matériels est demandé lors de la récolte, du transport et du stockage des produits OGM ainsi qu'un suivi documentaire via un formulaire qui suivra les différentes étapes de culture. Rien de plus, rien de moins.
Or selon le HCB, ces conditions de culture ne permettront pas de garantir une production végétale "sans OGM 0,1%" mais seulement une production "sans OGM 0,9%". De même, rien n'est précisé dans l'arrêté sur la coexistence des champs OGM avec les ruches. Autant d'éléments qui réduisent comme peau de chagrin l'ambition de l'étiquetage "sans OGM".
Le Gouvernement vient de procéder à la refonte de son code forestier. Peu de changement sur le fond, mais des modifications tout de même en matière de défense contre l'incendie, de remembrement et de sanctions.
L'ordonnance qui procède à la recodification des dispositions législatives du code forestier a été publiée le 27 janvier au Journal officiel. L'essentiel de cette recodification intervient "à droit constant", c'est-à-dire sans modification des règles de fond du droit. A l'exception toutefois des dispositions applicables à la défense et à la lutte contre les incendies de forêts, au remembrement des propriétés forestières, ainsi qu'aux sanctions administratives et pénales.
Pourquoi cette recodification ? "La codification de 1979 s'est révélée inadaptée et les réformes intervenues depuis lors se sont imparfaitement inscrites dans son plan et en ont alourdi la structure", explique Bruno Le Maire. Ce qui a eu pour effet "d'obscurcir les enjeux essentiels de toute politique forestière que sont la protection de l'affectation forestière des sols et le contrôle de la gestion", ajoute le ministre de l'Agriculture dans son rapport au Président de la République relatif à l'ordonnance. D'où l'adoption dans le nouveau code d'un plan qui se veut simple, fondé sur le régime de propriété de la forêt.
Clarifier les obligations des propriétaires en matière de lutte contre l'incendie
En matière de défense de la forêt contre l'incendie, il s'agit "d'améliorer la cohérence et l'efficacité de la législation".
Ces dispositions ont principalement pour objet "de clarifier les obligations auxquelles sont soumis les propriétaires en cas de superposition d'obligations différentes sur une même parcelle, de faciliter l'adaptation aux réalités locales des modalités d'exécution de certaines mesures de prévention, de préciser les obligations auxquelles sont soumises certaines catégories de propriétaires d'infrastructures ferroviaires ou de voies ouvertes à la circulation publique, ou encore de favoriser l'information sur les obligations en matière de débroussaillement (transcription dans les documents d'urbanisme de celles qui ont un caractère permanent, signalement en cas de mutation ou de location des propriétés)", détaille le rapport relatif à l'ordonnance.
Une définition de "l'infraction forestière"
En ce qui concerne les sanctions, il s'agit "d'harmoniser, clarifier, moderniser et, le cas échéant, simplifier les dispositions relatives aux agents chargés de procéder aux contrôles administratifs et à la constatation des infractions, y compris en modifiant la liste de ces agents et l'étendue de leurs pouvoirs et en réformant, supprimant ou instaurant les sanctions encourues".
En matière pénale, plus particulièrement, il s'agit de "réduire les particularismes du droit pénal applicable en matière forestière tout en préservant les mesures pratiques destinées à améliorer l'efficacité de son application", précise le rapport du ministre de l'Agriculture. C'est pourquoi apparaît pour la première fois une définition de "l'infraction forestière" qui recouvre non seulement les infractions au code forestier mais aussi certaines infractions en matière de dépôts d'ordures ou de stationnement, lorsqu'elles sont commises dans les bois et forêts. De même que les contraventions aux arrêtés de police municipale destinés à prévenir les incendies, les éboulements ou la divagation des animaux dangereux.
Cette définition élargie, de même que "la compétence générale donnée aux agents de l'Etat chargés des forêts pour rechercher et constater les infractions dans l'ensemble des bois et forêts", devraient "faciliter l'application de la politique pénale", estime le ministère de l'Agriculture.
L'ordonnance clarifie le rôle du directeur régional de l'administration chargée des forêts en matière d'exercice des poursuites. "Les règles applicables en matière d'exercice de l'action civile sont également mieux définies", ajoute le rapport.
Sont aussi précisées les conditions d'application des amendes forfaitaires. L'ordonnance prévoit également la possibilité de prononcer des sanctions-réparation. Pour finir, quelques infractions nouvelles sont introduites, "en matière d'obstacle à fonctions par exemple", illustre le ministère. Et il est procédé à une actualisation du quantum des sanctions, "pour l'essentiel en se référant aux dispositions de portée équivalente du code pénal".
Entrée en vigueur le 1er juillet 2012 au plus tard
Reste à vérifier sur le terrain la bonne application de cette volonté de clarification à compter de l'entrée en vigueur de ces nouvelles dispositions législatives, qui doit intervenir en même temps que celle de la partie réglementaire du nouveau code, et au plus tard le 1er juillet 2012.
Economies d'énergie dans le bâtiment : 42% de plus de professionnels nécessaires d'ici 2014
Avec l'introduction de la RT 2012, 69.000 professionnels supplémentaires devront être mobilisés en France pour répondre d'ici 2014 à la demande en conseil et travaux d'efficacité énergétique des bâtiments, selon une étude de l'Ademe.
D'après une étude de l'Ademe et de l'Alliance Villes Emploi rendue publique le 25 janvier, 42% de professionnels supplémentaires seront nécessaires d'ici 2014 pour répondre aux besoins en matière de travaux de performance énergétique et d'énergies renouvelables dans le bâtiment demandés notamment par la Réglementation thermique (RT) 2012 qui entre progressivement en application d'ici au 1er janvier 2013.
La RT 2012 fixe une exigence globale en consommation d'énergie primaire en valeur absolue fixée pour tous les bâtiments neufs à 50 kilowattheures d'énergie primaire par mètre carré et par an (kWh/m2/an). Soit la norme Bâtiment Basse Consommation (BBC) alors que les lois Grenelle visent un objectif de réduction des consommations d'énergie de 38% d'ici 2020.
D'après cette étude inscrite dans le cadre du programme "Maisons de l'Emploi et Développement Durable", ce sont 69.000 professionnels (équivalents temps plein) qui devront être mobilisés pour répondre à la demande en conseil et travaux d'efficacité énergétique des bâtiments, soit 42% de plus qu'en 2009.
Le marché de l'efficacité énergétique, "avenir du bâtiment"
Une expérimentation qui a été menée sur 3 territoires (Lille, Bayonne et le Grand Nancy) puis étendue à 30 autres (Perpignan, Ajaccio, Valenciennes, Métropole Nantaise…) a permis ''d'identifier les besoins en emplois et en compétences'' et d'établir des plans d'actions adaptés'' pour répondre au marché de l'efficacité énergétique et des EnR qui est selon l'Ademe ''l'avenir du bâtiment".
Si le potentiel de ce marché devrait rester stable jusqu'en 2014, la part du chiffre d'affaires liée à l'efficacité énergétique et aux énergies renouvelables devrait "en effet croître de 47% à 330% selon les territoires, notamment avec l'introduction de la RT 2012", souligne l'agence. Mais les maîtres d'ouvrage, les particuliers et les collectivités, "connaissent mal" ces nouvelles réglementations (liées à l'environnement, ndlr) et auront de plus en plus recours aux professionnels, en matière de conseil comme pour la réalisation des travaux, estime l'Ademe. Sur 154.000 salariés sondés sur les territoires étudiés, ils étaient 29.000 professionnels du bâtiment (équivalents temps plein) à travailler sur des chantiers de performance énergétique et de qualité environnementale en 2009 alors que 69.000 professionnels devront être mobilisés d'ici à 2014 pour répondre à cette demande… On en est encore loin…
Offre de formations adaptée aux besoins en compétences
"Ces nouveaux besoins en compétences nécessitent que la profession évolue et ce, dans tous les corps de métier, notamment la maçonnerie, la plomberie, le chauffage ou encore la menuiserie", juge l'Ademe. "La performance énergétique ne sera au rendez-vous que si une approche globale de l'ensemble du bâtiment est réalisée" : techniques et matériel mis en oeuvre complémentaires, mise en place de synergies, amélioration des résultats et meilleure rentabilité à investissement égal. "Or, cet audit a révélé que peu de professionnels sont aujourd'hui en mesure de faire face à cette demande d'approche globale, en particulier par un manque de connaissance des enjeux".
La formation à ces compétences est donc indispensable : ''les principaux besoins en formation portent sur la mise en œuvre de matériaux d'isolation, la pose d'équipements à base d'énergies renouvelables et l'étanchéité à l'air'', souligne l'Ademe. Or, l'audit a ''révélé que pour 8 chefs d'entreprise sur 10, la formation était difficilement accessible par manque de temps''.
Lancé en septembre 2009, un plan gouvernemental des métiers de la croissance verte entend justement anticiper les besoins en termes de formation. Environ 314.000 emplois maintenus ou créés dans le secteur du bâtiment, frappé par la crise en 2009, sont visés dans le Grenelle d'ici 2020. Le comité de filière ''bâtiment'' qui a rendu ses conclusions en juin 2011, recommande notamment de mettre en œuvre un plan Métiers Bâtiment Energie et former 70.000 jeunes par an pour répondre aux besoins.
Lutter contre la précarité énergétique, soutenir l'activité et favoriser l'accès à l'emploi accompagner l'évolution de l'offre de travaux via les campagnes de formation (FEE Bat, EnergieBat) figurent notamment dans le plan d'action en faveur de la rénovation énergétique proposé par l'Ademe.
Un plan national pour promouvoir la pratique du vélo
Encourager les Français à utiliser le vélo aussi bien comme moyen de déplacement quotidien que comme activité de loisir. Tel est l'objectif du Plan national vélo présenté hier par Thierry Mariani.
A l'occasion des premières Rencontres nationales du vélo, qui se sont tenues le 26 janvier à Paris, le ministre chargé des transports, Thierry Mariani, a présenté les mesures phares du premier Plan national vélo. Au menu : développement des aménagements et infrastructures mais aussi incitation à l'usage quotidien du vélo, ou encore amélioration de la sécurité.
« Les avantages du vélo (…) sont nombreux en termes de santé, de réduction des pollutions atmosphériques et de réduction du bruit, de budget des ménages, de développement économique", a rappelé Thierry Mariani. "Ce plan, qui répond à une demande forte de
l'ensemble des acteurs, permettra de guider l'action de l'État et de ses partenaires pour promouvoir une pratique accrue et plus sure du vélo".
Local à vélos obligatoire
En termes de développement des infrastructures et d'aménagements, "il nous faut passer d'un urbanisme indifférent à ce mode de transport, voire hostile dans certaines circonstances, à un urbanisme favorable dédié", a déclaré Thierry Mariani.
Une des attentes fortes concernait la mise à disposition de parkings à vélos faciles d'accès et sécurisés. "Le Gouvernement a récemment imposé la mise en place d'un emplacement réservé au parking de cycles dans les logements collectifs neufs et dans les immeubles à usage de bureau, conformément aux engagement de la loi Grenelle 2", rappelle le ministre. Le Secrétaire d'Etat chargé du logement doit signer prochainement l'arrêté fixant la surface dédiée au local à vélos : 1,5 m2 par appartement de type T3 et plus, 0,75 m2 pour les T2. Annonce dont le Club des villes et territoires cyclables, association qui réunit 1.200 élus, se félicite.
Afin d'accélérer la réalisation du schéma national des véloroutes et voies vertes, le ministre chargé des transports a annoncé le déblocage de 1,5 M€ supplémentaires, qui seront affectés en priorité "au financement des sections stratégiques" ainsi qu'à "la signalisation et [au] jalonnement de trois itinéraires majeurs du schéma national". L'objectif est une mise en œuvre complète de l'ensemble du schéma dans un délai de cinq ans.
Indemnité kilométrique pour les déplacements domicile-travail
"L'instauration de l'indemnité kilométrique pour les cyclistes demeure l'une de nos priorités", indique Thierry Mariani, qui souhaite que ce rattrapage entre le vélo et l'automobile soit mis en œuvre dans les meilleurs délais. "Cette indemnité kilométrique devra par ailleurs s'accompagner de la clarification, dans le code du travail, du caractère cumulatif de la prise en charge de la moitié de l'abonnement transport collectif et de la location de vélos", ajoute le ministre.
Dans l'attente de la mise en place d'un crédit d'impôt pour l'achat d'un véhicule à assistance électrique, que le contexte budgétaire ne permet pas, le ministre préconise aussi le développement de l'intermodalité entre vélo et transports collectifs. Les initiatives en ce sens devraient être expérimentées "dans quelques agglomérations volontaires dans le cadre d'un appel à projets".
Sécuriser et faciliter la circulation des vélos
Vieille revendication des associations, Thierry Mariani a annoncé la mise en œuvre réglementaire du "tourne à droite" qui autorise les cyclistes à ne pas marquer l'arrêt au feu rouge, dès lors qu'ils respectent la priorité accordée aux autres usagers, et en particulier aux piétons. L'arrêté permettant cette mise en œuvre a d'ailleurs été publié au Journal officiel dans la foulée. La signalisation retenue est soit un feu jaune clignotant, soit un panneau additionnel, dans les deux cas associés à un feu de circulation tricolore. Le Club des villes et territoires cyclables se félicite que ce panneau "soit enfin à la disposition des collectivités".
La Ville de Nantes avait annoncé la généralisation du "tourne à droite" dès novembre dernier. "L'expérimentation que nous menons à Nantes depuis le printemps dernier est concluante. Nous avons noté une meilleure fluidité dans les parcours, sans problème de sécurité pour les piétons ou les cyclistes", avait déclaré Jean-Marc Ayrault, député-maire de Nantes, à cette occasion.
"La sécurité passe aussi par le développement de l'apprentissage du vélo", a déclaré le ministre chargé des Transports, qui soutiendra en particulier les initiatives de "vélo-écoles".
Le plan prévoit également le marquage des vélos afin de lutter contre le vol et le recel, à travers un partenariat entre l'Etat et le système de marquage Bicycode de la Fédération française des usagers de la bicyclette (FUB).
L'Etat veut montrer l'exemple
Enfin, l'Etat se devant "d'être un acteur exemplaire", le ministre a prévu la mise en place de relais vélos dans les directions départementales des territoires (DDT) et dans les directions régionales de l'environnement, de l'aménagement et du logement (DREAL).
Le Club des villes et territoires cyclables, qui avait interpellé le 10 janvier les candidats aux élections présidentielles, reste toutefois sur sa faim. S'il reconnaît dans le Plan national vélo "un signe de la prise en compte du vélo comme mode de déplacement à part entière et outil d'aménagement du territoire", son président, Jean-Marie Darmian considère que "les mesures annoncées (…) ne traduisent pas une véritable ambition nationale. Il faut un ensemble de mesures fortes, intégrées et programmées pour enclencher une dynamique et atteindre l'objectif de 10% de part modale dans notre pays en 2020, fixé par le Gouvernement".
Rendez-vous dans deux ans à l'occasion des deuxièmes Rencontres nationales du vélo afin de savoir si les premières actions annoncées dans ce plan auront réellement porté leurs fruits.
Comment améliorer les déplacements dans les territoires périurbains et ruraux ?
Repenser les mobilités dans les territoires périurbains et ruraux, actuellement très dépendants de la voiture individuelle. C'est l'objectif des propositions formulées par le CAS dans un rapport rendu public le 7 février.
Le Centre d'analyse stratégique (CAS) a rendu public le 7 février son rapport sur les nouvelles mobilités dans les territoires périurbains et ruraux. Fruit de travaux menés pendant plus d'un an, ce rapport propose des pistes et modalités d'actions "conciliant l'environnement et la mobilité pour tous et tenant compte du prix de l'énergie", indique Vincent Chriqui, son directeur. Cette étude est rendue publique quelques jours après la publication d'un rapport du CGEDD portant sur le même thème.
Quelles sont les recommandations du CAS ? Sachant que revoir l'implantation des habitations ainsi que la distribution des emplois et des services ne peut se concevoir que sur le long terme. Et que transposer dans ces espaces les alternatives à la voiture telles que développées dans les villes denses "n'apparaît ni probant ni pertinent".
Définir des stratégies de mobilité
Le rapport préconise tout d'abord d'aider les communautés de communes et les agglomérations, de même que les pôles d'activités qui le souhaitent (universités, centres commerciaux, etc.), à définir des stratégies de mobilité adaptées à leur territoire. "C'est en partant de la connaissance et de la compréhension des activités qui engendrent des besoins de déplacement que l'on pourra identifier les leviers d'action pour de nouvelles formes de mobilité", indique le CAS qui suggère que le Certu pilote la mise en place d'outils pratiques à destination des acteurs locaux : cartographie des territoires de la vie quotidienne, cartographie des situations de dépendance automobile, outils de simulation d'une augmentation des prix du pétrole sur les coûts de déplacement… Il s'agit ensuite d'apporter à l'usager une information en temps réel afin qu'il puisse organiser ses déplacements en combinant les transports collectifs et individuels (marche à pied, deux-roues, voiture personnelle ou partagée). Cela passe par la mise en place "de centrales d'information multimodales regroupant tous les éléments sur l'offre de service des infrastructures et des réseaux de transport public", tel qu'il en existe déjà, en partie, en Alsace, dans l'Oise ou dans les Côtes-d'Armor.
Développer la voiture partagée
La troisième proposition vise à développer la voiture partagée. Il s'agit, indique le CAS, "de s'appuyer sur l'information numérique pour développer le partage de la voiture et notamment des solutions de covoiturage sécurisées reposant sur un tiers de confiance et un suivi géolocalisé du déplacement".
Les pistes ? Valoriser les parcs de véhicules possédés localement par les ménages, les entreprises ou les collectivités territoriales, mobiliser les garagistes ruraux qui pourraient proposer quelques voitures en autopartage, s'associer avec des services de transport opérant à grande échelle (SNCF, plates-formes multimodales, sociétés d'autoroutes, etc.), mettre au point des solutions de dépannage en cas de défaillance, rechercher les formules d'assurance les mieux adaptées….
Coordonner les services de transport et structurer les déplacements
Le CAS suggère également de coordonner les services de transport collectif entre eux en mettant en place "des rabattements performants", du type itinéraires cyclables, parkings de covoiturage. "L'effort de coordination des autorités publiques pour assurer un continuum des services de transport collectif (trains, autocars, bus), mais aussi des voitures personnelles ou partagées, est essentiel", souligne le rapport, qui émet les recommandations concrètes suivantes : indicateur du taux de remplissage des véhicules de transport collectif conduisant à renforcer un schéma de lignes massifiées à haute qualité de service, cheminements piétons, itinéraires vélos sécurisés, gestion du stationnement, amélioration des correspondances entre les lignes de transport collectif, etc.
La dernière proposition vise à limiter les distances parcourues par les professionnels des services à la personne en les incitant "à coordonner leurs déplacements, leur livraisons ou le transport des personnes qui les sollicitent". Le CAS suggère ainsi "des regroupements de services dans des communes de taille intermédiaire, avec un système de rabattement performant, permettant ainsi de créer des bassins de vie". Des solutions innovantes pourraient aussi être expérimentées à plus grande échelle "en mutualisant les moyens existants (en personnels et en véhicules et en levant certains cloisonnements entre services sociaux et commerciaux", suggère le rapport.
Meilleure résistance des territoires aux risques de crise
Ces pistes pourraient apporter, selon le CAS, "moyennant une dépense publique modeste et un effort important d'information et de concertation avec les habitants", des opportunités de mobilité pour les personnes qui n'ont pas accès à l'automobile : jeunes, personnes âgées ou handicapées, revenus modestes, ainsi que des réductions de l'ordre de 30% des consommations d'énergie et des émissions de CO2 des automobiles sur les trajets périurbaines de proximité. Et enfin, point qui n'est pas à négliger compte tenu de la conjoncture actuelle, "une meilleure résistance des territoires aux risques de crises et de hausses brutales du prix de l'énergie qui pourrait surgir à moyen terme".
Population la plus motorisée
La majorité des kilomètres annuellement parcourus en voiture en France pour des déplacements quotidiens s'effectue dans les territoires périurbains et ruraux, dont la population est la plus motorisée. Vingt millions de voitures circulent chaque jour dans ces territoires et émettent environ 40 millions de tonnes de CO2, soit 8% des émissions totales de gaz à effet de serre de la France, tous secteurs confondus. Ces populations étant majoritairement équipées de véhicules d'occasion, leur budget automobile (en moyenne 12,3% de leur budget annuel) est principalement constitué par l'achat de carburants. Une hausse du prix de ces derniers viendrait fragiliser leur situation financière.
Trait de côte : les Pays-Bas responsabilisent les acteurs locaux
Alors que la France élabore sa stratégie côtière, l'exemple hollandais a été présenté lors du colloque de la SHF. Protection des zones construites et responsabilisation des acteurs locaux sont les maîtres mots du plan.
Pour son centenaire, la société hydrotechnique de France (SHF) organisait les 1er et 2 février 2012 un colloque sur les événements extrêmes fluviaux et maritimes. A cette occasion, Marcel Stive, chercheur à l'université de technologie de Delft (Pays-Bas), a présenté le Plan delta hollandais qui combine depuis 60 ans la prise en compte des risques de submersion maritime et de crue fluviale.
La situation géographique des Pays-Bas fait peser un double risque, associé aux submersions par marée de tempête et aux crues fluviales du Rhin, de la Meuse et de l'Escaut. La gestion du trait de côte est de fait au cœur des enjeux de sécurité nationale. Un sujet d'autant plus important, explique le professeur Stive, que le pays s'est enfoncé de plus de trois mètres sur le dernier millénaire alors que le niveau de la mer a augmenté d'environ un mètre sur la même période.
La catastrophe de 1953
Si les Hollandais ont toujours tenu compte de l'eau pour aménager leur territoire, ce n'est cependant qu'en 1953 qu'a été initiée une stratégie globale. Le 1er février 1953, le pays a été frappé par une tempête à l'origine d'une marée de tempête qui a submergé de vastes zones causant 1.836 décès. "Il s'agissait d'un événement similaire à Xynthia", rappelle le professeur, ajoutant que "dans la foulée le gouvernement a initié l'élaboration d'une stratégie nationale face aux événements extrêmes".
La démarche est en effet similaire à celle initiée par le gouvernement français en juillet 2010 après que Xynthia ait frappé les côtes françaises en février 2010 faisant 53 victimes et que des pluies torrentielles aient fait 23 victimes dans le Var en juin 2010.
Le Plan delta, élaboré après la catastrophe de 1953 se distingue des précédents en proposant une stratégie globale pour une vaste partie du territoire. Le mot d'ordre est alors à la défense du territoire contre les vagues de submersion. Ainsi, les principales mesures sont un relèvement des digues, la fermeture de nombreux bras de mer formant le delta au sud-ouest du pays et une réduction de 700 km de la longueur du littoral afin de mieux le protéger. Les travaux s'étaleront jusqu'à la fin des années 1990.
Vers une stratégie globale
Le Plan delta, bien que considéré comme le plus important aménagement de ce type au monde, est néanmoins incomplet. Son principal défaut est d'avoir été élaboré alors que les impacts potentiels des changements climatiques étaient inconnus. Aussi, en 2008, le gouvernement a souhaité élaborer un plan global de protection qui anticipe les risques liés aux crues fluviales, aux marées de submersion et aux changements climatiques.
A partir de scénarios climatiques, la Commission delta 2008 a tout d'abord mis en avant cinq conclusions relatives aux travaux passés. En premier lieu, il est apparu que la protection de la côte par alimentation en sable ne poserait pas de problème avant 2100 ou 2200. Ensuite, le plan Espace pour le fleuve, élaboré dix ans auparavant, devrait permettre de faire face à l'augmentation des crues de référence du Rhin et de la Meuse d'ici 2050. Quant à la pénétration de la salinité associée à la hausse du niveau de la mer, elle pourrait poser des problèmes et impacter l'approvisionnement en eau douce à partir de 2040.
Par ailleurs, deux conclusions concernent le barrage du Maeslantkering, l'un des ouvrages stratégiques du Plan Delta. Ce barrage amovible, protégeant Rotterdam en cas de marée de tempête extrême, n'est pas adapté à une hausse de 50 cm du niveau de la mer, ce qui pourrait poser problème à partir de 2060. Enfin, alors que le Maeslantkering ne devrait être fermé qu'une fois tous les dix ans dans les conditions actuelles, la Commission a établi qu'il pourrait être utile plus d'une fois par an à partir de 2080 si le niveau de la mer augmentait de 75 cm.
Responsabiliser les acteurs locaux
Finalement, la Commission a émis trois recommandations génériques qui serviront de base à la gestion de la côte et des zones inondables. De manière générale, si le renforcement des défenses existantes est une priorité, la Commission plaide aussi pour une meilleure responsabilisation des acteurs locaux pour éviter que de nouveaux aménagements inappropriés ne pèsent à terme sur l'ensemble de la collectivité. Le rapport soumet aussi neuf recommandations régionales dont le coût total est compris entre 2,5 et 3,1 milliards d'euros par an de 2011 à 2050.
La toute première mesure globale vise à augmenter sensiblement le niveau de protection d'ici 2050. Il a été décidé en particulier que "la protection contre les inondations des zones endiguées soit améliorée d'un facteur 10" en se basant sur de nouveaux standards qui devront être établis en 2013. Lors du dernier audit des installations de protection, le bilan avait révélé que 24% des ouvrages n'atteignaient pas les standards en vigueur et que 32% n'avaient pas pu être évalués.
La deuxième décision générique vise les nouveaux développements urbains et propose de responsabiliser les acteurs locaux dans les zones à risque. Les nouvelles implantations devront tout d'abord être évaluées en s'appuyant sur une analyse coût-bénéfice préalable. Par ailleurs, il a été préconisé de faire supporter les coûts des aménagements et des éventuels dégâts par les acteurs locaux. Cette mesure s'oppose explicitement au transfert à l'ensemble de la société des surcoûts liés à des décisions locales.
Enfin, les nouveaux aménagements dans les zones d'inondation ne doivent pas ralentir la capacité de débit des rivières. Là aussi, les résidents ou les utilisateurs des bâtiments sont responsables du respect de cette règle.
Quant aux mesures locales, elles déclinent cette stratégie. Ainsi, le trait de côte doit être maintenu via des rechargements périodiques en sable pour préserver les zones construites. Une seconde batterie de mesures vise spécifiquement le renforcement des aménagements du delta.
Quelle prise en compte de la biodiversité dans les infrastructures de transport routier ?
Corridors écologiques, limitation des pesticides en bord de voiries, fauchage raisonné figurent parmi les solutions déjà mises en pratique dans les tracés jugés grenello-compatibles et inscrits dans le projet de SNIT. Retours d'expériences.
Destruction et fragmentation d'espaces agricoles ou naturels, émissions de gaz d'échappement, bruit, pollutions par désherbage chimique, déchets jetés des véhicules ou encore épandage de sel en cette période hivernale et contamination des eaux… Autant de sources d'impacts sur la biodiversité liés à la création de nouvelles voiries, ou à l'usage et à l'entretien de celles existantes. Si 28 projets autoroutiers ou de routes nationales sont inscrits dans le projet de Schéma national des Infrastructures de Transport (SNIT), représentant 1.000 kilomètres de voies nouvelles (soit une augmentation du réseau existant de 10 %), la trame verte et bleue (TVB), "mesure phare" du Grenelle de l'environnement prévoyant la mise en place de corridors écologiques, est elle encore au stade expérimental. Elle sera opérationnelle ''au-delà de 2012'', selon Fabienne Allag-Dhuisme, chef du projet au ministère de l'Ecologie.
Si des actions visant à renforcer la prise en compte de la biodiversité ''dès les réflexions amont des projets d'infrastructure'' impulsées par la loi Grenelle 2 sont inscrites dans le projet de SNIT, des initiatives ont déjà été entreprises par les maîtres d'ouvrage pour concilier (auto)routes et biodiversité, tant en phase de conception que d'exploitation. Plusieurs exemples de réduction de l'impact écologique de ces infrastructures ont été présentés le 31 janvier dernier à Paris, à l'occasion des rencontres européennes Business et Biodiversity organisées par le groupe de concessions Eiffage, en partenariat avec l'Université Paris I, l'UICN et le programme européen LIFE.
A65, projet pilote du Grenelle ?
Etudes d'impacts, diagnostics faune/flore avant le choix du tracé, établi en concertation avec les associations environnementales locales, sont autant de mesures préalables à appliquer avant tout projet routier. L'objectif étant d'éviter tout contentieux avec les associations à l'instar du concessionnaire A'liénor, filiale d'Eiffage en 2008 qui avait fait face à l'opposition de plusieurs organisations écologistes (dont la FNE, l'Alliance pour la Planète ou la FNAUT), lors de la construction de l'autoroute Langon-Pau A65 (Gironde). Ce projet initié dans les années 90 était alors vivement critiqué par les associations pour ses impacts sur la biodiversité . ''L'autoroute détruira 2.000 hectares d'espaces naturels, 8 zones Natura 2000, de nombreux habitats et espèces protégées'', prévenait en 2008 le WWF, alors que le gouvernement s'était engagé dans le cadre du Grenelle au gel des nouvelles routes et autoroutes, hormis rapellons-le, les cas de sécurité et de congestion, ou d'intérêt local inscrits dans le SNIT. L'ex-ministre Jean-Louis Borloo avait maintenu en juin 2008 ce projet estimant que l'A65 qui avait ''fait l'objet de nombreuses améliorations pour éviter les zones sensibles'' était Grenello-compatible. Il a été inauguré en décembre 2010.
Le concessionnaire A'liénor s'est toutefois engagé aux côtés de la CDC Biodiversité à compenser les impacts environnementaux de ces 1.600 hectares de route en protégeant sur 60 ans (durée de la concession) une surface de terrains quasi-identique, soit 1.400 hectares de foncier dédié au redéploiement des espèces. L'A65 est ainsi "le premier projet post-Grenelle nécessitant d'être compensé", selon Jean-Christophe Benoît, de la CDC Biodiversité.
Prise en compte des corridors écologiques
Outre la réduction et la compensation des atteintes portées aux espèces et aux habitats naturels, des mesures spécifiques ont été prises visant à protéger notamment deux colonies de 16 espèces de chauves-souris , espèces protégées, traversant l'A 65 à proximité du Vallon de Cros, via la mise en place de ''corridors de vol'', selon Cyrille Beaux, chargé de mission environnement chez Eiffage Travaux Publics." L'entreprise a conçu un chiroptéroduc qui permettra de rétablir un corridor écologique pour plusieurs espèces de chauves-souris au dessus de l'autroute A65'' . De son côté, ASF (Vinci Autoroutes) a mis en place un partenariat avec l'association FRAPNA (Fédération de Rhône Alpes de protection de la nature) dans le but de trouver des "solutions techniques de préservation de la Barbastelle" sur l'autoroute A89 reliant la Tour de Salvigny à Balbigny (Rhône Alpes), qui sera mise en service fin 2012, a indiqué Jean-Jacques Lacaze, directeur d'opération chez ASF. Deux galeries artificielles ont ainsi été construites, servant de grottes pour les chauves-souris.
Autre retour d'expérience en faveur de la biodiversité : la réalisation de mares de substitution pour les batraciens sur l'A89 mais aussi surl'A406, contournement sud de Macôn (Val de Saône) mise en service par APRR, filiale du groupe Eiffage, en mars 2011. ''Des prairies de fauche ont aussi été recréées'', a expliqué Isabelle Lacharme, responsable Environnement chez APRR tandis que des passages à faune au-dessus et au-dessous de l'autoroute A406 ont été mis en place pour permettre "la circulation des petits vertébrés jusqu'au chevreuil''.
Outre le fauchage tardif des talus ou encore la pose de nichoirs à oiseaux sous les ponts, la lutte contre les plantes invasives comme l'ambroisie via la ''réduction de 40% des pesticides depuis 2008 '' est aussi pratiquée par la filiale d'Eiffage lors des chantiers autoroutiers pour limiter leur impact sur la biodiversité existante. ''Il faut végétaliser immédiatement afin de
prévenir l'apparition des plantes envahissantes et favoriser les graminées pour gazon'', a indiqué de son côté Etienne Cuneot, chef du génie civil chez ARPP qui privilégie l'entretien mécanique en bordure de voiries (fauchage, broyage avec engins ou roto fils). Si des solutions alternatives aux pesticides existent (désherbage avec de l'eau chaude, de la vapeur d'eau, désherbeur thermique), ce dernier considère toutefois quelle ne sont ''pas adaptées''.
La recherche des lampadaires dirigeant la lumière vers le sol afin de limiter l'impact de la pollution lumineuse des éclairages des voiries est aussi une des initiatives déjà adoptée. La restauration des berges des canaux par l'utilisation de techniques végétales ou encore la mise en place de plans de gestion formalisés de déchets figurent aussi parmi les actions inscrite dans le SNIT et préconisées dans la Stratégie nationale de la biodiversité.
La collecte et le recyclage du papier de bureau à la peine
Il faut augmenter la collecte et le recyclage du papier dans le tertiaire, estime le ministère de l'Ecologie. Dans le même temps, une enquête de Riposte verte et du WWF révèle que l'Etat ne brille pas par son exemplarité en la matière !
Chaque année en France, un employé de bureau consomme 70 à 85 kg de papier. Avec le carton, le papier représente ainsi près de 79 % des déchets générés par les activités tertiaires. Mais, selon les estimations du ministère de l'Environnement, sur les 900.000 tonnes de déchets de papiers produites chaque année au bureau par les Français, moins de la moitié (400.000 tonnes) est collectée et recyclée…
Le ministère de l'Environnement a donc décidé, par la signature d'une convention d'engagement volontaire avec les principaux acteurs de la collecte et du recyclage du papier de bureau, d'améliorer ces performances. Ainsi, d'ici 2015, 200.000 tonnes supplémentaires de papiers de bureau devront être collectées.
Mobiliser l'ensemble des acteurs
Il s'agira d'accentuer les efforts vers les petites entreprises et les administrations et de mener des actions de sensibilisation et d'accompagnement auprès des entreprises tertiaires et des collectivités, de former les personnels en charge de la collecte.
Les acteurs du papier devront également développer une "filière française de recyclage et de valorisation structurée et performante" en privilégiant un approvisionnement de proximité des usines localisées en France (48 recensées par le ministère) et en renforçant la coordination entre tous les acteurs territoriaux concernés.
Enfin, le ministère demande aux acteurs de mettre en valeur les produits «grand public» obtenus à partir du recyclage effectué en France pour encourager l'achat de produits recyclés et indique que"l'Etat s'engage à augmenter la part du papier recyclé au sein de la commande publique". Seulement 5 % du papier ramette acheté en France est fabriqué à partir de papier recyclé.
Le ministère indique également qu'il va étudier "l'opportunité d'introduire une obligation de tri des papiers pour les « gros producteurs », au delà d'un seuil de production annuel à déterminer", amplifier la communication pour le geste de tri sur le lieu de travail et le recyclage du papier, par exemple via une circulaire adressée aux administrations de l'Etat.
Quid de l'exemplarité du secteur public ?
Justement, une précédente circulaire, datée du 3 décembre 2008, engageait l'Etat et ses administrations à l'exemplarité, notamment dans le fonctionnement de ses services et de ses établissements publics en matière de réduction de la consommation de papier, d'achat et de tri des déchets. A compter de 2010, la totalité du papier utilisé devait être recyclé. Entre 2009 et 2010, la consommation de papier des administrations devait être réduite de 20 %. Enfin, le taux de recyclage des déchets papiers devait atteindre les 60 % en 2010. Des objectifs loin d'être atteints.
"Si une majorité d'institutions ou d'administrations ont formalisé une politique papier, il existe encore un écart considérable entre les objectifs fixés par le Grenelle de l'environnement et les performances constatées dans l'étude", indiquent Riposte Verte et le WWF France dans l'étude PAP 50 Public, publiée le 7 février, qui évalue la politique d'achat, consommation et recyclage du papier de 50 grandes institutions publiques et administrations françaises.
Aujourd'hui, seulement un papier sur cinq serait recyclé dans ces organisations, soit une proportion bien inférieure à la moyenne nationale. "Plus grave, dans le bilan 2010 du Plan « État Exemplaire », qui mesure les performances des institutions face aux objectifs fixés dans le cadre du Grenelle, la partie recyclage n'est pas traitée, faisant craindre qu'aucun indicateur n'ait été mis en place".
Le bilan 2010 de l'Etat exemplaire, publié en octobre 2011 par le Commissariat général au développement durable (CGDD), faisait seulement le point sur la consommation de papier des administrations. Ainsi, en 2010, le nombre de ramettes de papier achetées par agent a diminué de 17 % par rapport à 2009. Un agent public ne consommerait plus que… 16 ramettes par an en 2010. Le ministère de l'Agriculture a diminué quasi de moitié (-48 %) sa consommation de papier pour atteindre une consommation de 13 ramettes par agent. Le ministère de l'Environnement, lui, a conservé une consommation équivalente à celle de 2009 (15 ramettes par agent).
Concernant la collecte et le recyclage, l'étude PAP 50 Public dénonce un manque de transparence : une administration sur deux aurait refusé d'y répondre. Parmi elles : les services de la Présidence, du Premier ministre et "plus surprenant" le ministère de l'Ecologie. "Les non-répondants ont alors été notés en fonction de la documentation publique accessible sur la politique papier", indiquent Riposte verte et WWF.
Sur les 50 organisations étudiées, seules 11 obtiennent plus que la moyenne. "Seuls deux ministères réussissent à valider les trois objectifs du Grenelle concernant le papier". Néanmoins, le ministère des Affaires étrangères, le conseil régional d'Ile-de-France, Pôle emploi et la ville de Strasbourg obtiennent les félicitations du jury.
La Cour de justice européenne redonne espoir aux producteurs de semences paysannes
Les mois passés ont été rudes pour les défenseurs des semences paysannes. Le Sénat a en effet examiné un texte qui pourrait instaurer une « contribution volontaire obligatoire » aux paysans, les interdisant ainsi de ressemer leurs propres semences ou de les échanger. Cette semaine pourrait cependant marquer un tournant significatif, et ce grâce à la Cour européenne de justice. Celle-ci a émis des conclusions assez positives dans le cadre de l'affaire Kokopelli-Graines Baumaux.
Depuis 2005, la société de commercialisation de semences Graines Baumaux, basée à Nancy, poursuit l'association Kokopelli en justice pour concurrence déloyale. Il s'avère en effet que cette association commercialise des semences paysannes, souvent oubliées et biologiques, qui ne sont pas toutes référencées au Catalogue commun des variétés. La réglementation veut en effet que toute semence commercialisée doit être enregistrée dans ce catalogue.
Graines Baumaux accuse l'association de refuser d'ajouter ses variétés de semences au registre officiel. Cela démontre soit une mauvaise foi assurée, soit une bien grande méconnaissance des conditions requises afin d'enregistrer une semence au registre. La variété doit en effet faire preuve de rendement. Or, les producteurs de semences paysannes ne se reconnaissent pas dans ce schéma productiviste, et préfèrent de loin assurer une agriculture plus sobre et plus respectueuse de l'environnement. Les nouvelles variétés hybrides sont d'ailleurs souvent conçues non pas sur des critères de goût mais de résistance (des tomates plus fermes pour supporter les longs voyages par exemple), et c'est cette idée même de l'agriculture qui va à l'encontre des semences paysannes. Non seulement la variété doit, pour être référencée au Catalogue commun des variétés, répondre à des exigeances de rendement, mais elle doit également faire face à des contraintes technologiques (tout ce qui n'est pas adapté aux transformations industrielles et à la grande distribution). Comme le précise Guy Kastler, délégué général du réseau Semences Paysannes : « Ainsi, les plantes sélectionnées pour des systèmes agraires diversifiés bio ou à faible intrants, des transformations artisanales et une distribution de proximité ne peuvent accéder au rang de « variétés ». Et quand bien même elles pourraient répondre à ces exigences techniques, il est impossible d'assumer le coût de l'inscription pour des variétés dont le volume de semences échangées reste faible car essentiellement locales».
Les semences paysannes correspondent à une tradition de longue date. Avec l'arrivée du registre officiel, elles ont aujourd'hui presque toutes disparu afin de laisser place à des variétés de semences hybrides et à des variétés dîtes « pures ». Il n'est pas nécessaire de préciser que cela entraîne une perte inévitable de biodiversité.
Des associations (représentées par le réseau Semences Paysannes) comme Kokopelli se veulent aujourd'hui pourfendeuse de la cause des semences paysannes et agissent sur plusieurs fronts. Kokopelli milite ainsi depuis près de 20 ans "pour préserver une partie de la biodiversité alimentaire, pour produire des semences bios, pour accompagner les autonomies semencières, pour promouvoir l'agro-écologie tempérée et tropicale, pour distribuer des semences bios dans les pays du Tiers-Monde...". Il est difficile d'y voir ici une quelconque mauvaise intention envers les consommateurs, comme le laisse entendre Graines Baumaux.
Aujourd'hui, lorsque l'on veut défendre ces variétés, on se retrouve dans l'obligation d'être hors-la-loi, puisque le registre ne reconnaît pas les semences à faible rendement. Des entreprises comme Graines Baumaux sautent alors sur l'occasion et s'acharnent sur de petites associations, sans grandes ressources et sans grand pouvoir de défense.
La Cour de Cassation avait jugé en 2008 que l'association Kokopelli se trouvait en tort, et l'avait soumise à une peine de 17 000 euro et à une interdiction de commercialiser des semences paysannes anciennes, oubliées ou encore biologiques. En dernier recours, l'association a porté le dossier devant la Cour européenne de justice, qui se veut apparemment plus clémente. Le 23 janvier dernier, elle a en effet estimé, dans les conclusions de l'avocate générale Mme Juliane Kokott, que cette interdiction était « disproportionnée ».
En effet, quelle est la légitimité de ces restrictions, alors qu'il existe aujourd'hui des partenariats entre l'INRA et les paysans sélectionneurs de semences ? Quelle légitimité dans une société qui tend de plus en plus vers un retour à la terre, à un savoir-faire d'antan ? Quelle légitimité dans une société qui refuse (du moins en France) encore catégoriquement le concept de la biotechnologie dans les assiettes ?
Si l'idée d'une acceptation totale et immédiate des semences paysannes est utopique, les conclusions de la Cour européenne de justice laissent croire à une évolution des mentalités. Si par la suite la Cour ne rejette pas les conclusions de cette avocate, espérons que cette affaire sera le pilier d'une véritable jurisprudence en matière de défense des producteurs de semences rares et oubliées. Car contrairement aux semences enregistrées, celles-ci sont un bien commun, et n'appartiennent à aucune grande multinationale.
Un cadre juridique s'avère également indispensable afin de ne pas exclure les producteurs de semences paysannes du circuit agricole. Cela passera notamment par une juste rémunération de leur travail dans le cadre de la PAC.