| Forum Optimisé pourFirefox
|
| « Les médisants ressemblent aux malheureux qui n'ont pas eu leur part d'événements et doivent mener aux dépens de leurs voisins une existence parasitaire. »
|
| Pirate un jour,pirate toujours.
|
|
| |
Message | Auteur |
---|
Sujet: Actualités Mer 25 Jan - 20:38 | |
| Les polluants organiques contaminent les poissonsMaquereaux Aux fines herbes, au fenouil ou à la provençale, le bar est un classique de la gastronomie européenne. Les Méditerranéens le connaissent mieux sous le nom de "loup", car la bête est vorace et engloutit chaque jour bon nombre de petits poissons et autres crustacés. Comme les grands cétacés, le bar est au bout de la chaîne alimentaire marine. Et c'est bien ça son problème... Depuis plusieurs dizaines d'années, l'activité humaine a relâché dans l'environnement des quantités considérables de polluants organiques et inorganiques, comme les PCB naguère utilisés comme isolant électrique, ou le DDT employé comme insecticide pour lutter contre la malaria, sans oublier différents métaux toxiques. Aujourd'hui, la production de ces polluants est interdite ou sévèrement contrôlée, mais le mal est fait car il s'agit de molécules très persistantes. Il faut des dizaines d'années pour qu'elles se dégradent. Avec le ruissellement des eaux, ces polluants se retrouvent dans les rivières, puis dans la mer où ils contaminent d'abord le phytoplancton avant de remonter toute la chaîne alimentaire : zooplancton, petits poissons, gros poissons... comme le bar justement. Plus l'organisme vivant est haut dans la chaîne, plus il est contaminé. Perturbation du système endocrinien"Le problème des polluants organiques, explique Joseph Schnitzler, chercheur au laboratoire d'océanologie de l'ULg, c'est qu'ils ressemblent aux hormones. Ils ont donc tendance à perturber le fonctionnement de certaines glandes comme la thyroïde, les ovaires ou les testicules. Les fonctions biologiques menacées sont essentielles : reproduction, régulation de la chaleur, croissance, etc." Pour étudier l'impact des polluants organiques sur la thyroïde du bar, Joseph Schnitzler a embarqué à bord de plusieurs navires océanographiques, notamment le Thalassa de l'Institut français de recherche pour l'exploitation de la mer (Ifremer), et a plongé ses filets dans cinq estuaires européens : la Gironde, la Charente, la Loire, la Seine et l'Escaut. Après analyse, le chercheur liégeois peut affirmer que le muscle des bars provenant des deux derniers estuaires, qui sont aussi les plus pollués, contient sensiblement plus de PCB que les autres. Mais est-ce à dire que ces poissons sont en moins bonne santé ? Ou tout du moins que leur thyroïde fonctionne moins bien ? Pour le vérifier, Joseph Schnitzler a regardé des échantillons de thyroïde au microscope. Les différences ne sont pas spectaculaires. Le bar de l'Escaut présente toutefois des follicules de thyroïde plus petits en moyenne que les autres. Ce qui doit entraîner, paradoxalement, une plus grande production d'hormones. "Le paradoxe n'est qu'apparent, estime le chercheur. C'est probablement un effort de compensation de l'organisme car, à cause des polluants organiques, les hormones qui circulent dans le corps sont moins efficaces. Il faut donc en produire plus. " Pour pousser plus loin les recherches, il a entamé une collaboration avec l'université d'Anvers, où il a eu la possibilité de travailler, non plus avec des poissons prélevés dans un estuaire, mais sur des bars d'élevage. L'expérience consistait à faire varier, dans cinq aquariums séparés, le taux de pollution imposé aux poissons : de nul à très élevé, en passant par des niveaux moyens comparables à ce qu'on trouve actuellement dans l'environnement. "Je m'attendais à retirer des poissons de plus petite taille de l'aquarium le plus pollué, confie l'océanologue. Mais il faut être honnête, ce n'est pas le cas. Pourtant, les thyroïdes sont manifestement atteintes. Plus les aquariums sont pollués, plus les follicules sont de taille et de formes différentes." L'étape suivante est l'étude de l'effet de ces polluants organiques sur les oeufs de poissons. Car le rôle des hormones, notamment thyroïdiennes, est particulièrement important durant cette période de développement de l'animal. Modérer sa consommationCela dit, il serait imprudent d'attendre les conclusions définitives de ce genre d'étude pour réduire la production de polluants organiques. Certes, nous ne produisons plus de PCB ou même de DDT, mais l'industrie chimique invente chaque jour de nouvelles molécules qui les remplacent et causent le même type de problème. Et la santé de la mer, indépendamment des équilibres écologiques globaux, cela nous concerne immédiatement. "Si vous consommez trois fois sur un mois du bar provenant des régions côtières de la Seine ou de l'Escaut, a calculé Joseph Schnitzler, vous dépassez la dose de PCB considérée comme nocive pour la santé. Et certains poissons de mer, comme le thon, le saumon ou l'espadon, sont encore plus contaminés." Source
Dernière édition par Sarah le Jeu 26 Jan - 12:44, édité 1 fois |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 20:48 | |
| L'accident nucléaire de Fukushima est officiellement terminé Officiellement, l'accident nucléaire de Fukushima, au Japon, est terminé depuis le 26 décembre 2011. Pourtant, l'optimisme officiel des autorités n'est pas partagé par tous et notamment par certains travailleurs sur le site qui ont rompu le secret professionnel. Alors que les autorités envisagent le retour progressif des populations dans des localités de la zone interdite, la contamination radioactive persiste. Etat de la centrale nucléaire de Fukushima Daichi le 18 mars 2011 : trois réacteur sont éventrés. Le chef de l'Agence internationale de l'énergie atomique (AIEA), Yukiya Amano, a salué l'annonce du Japon indiquant que le travail pour stabiliser les réacteurs de la centrale nucléaire de Fukushima Daiichi était désormais terminé. Ainsi, les autorités japonaises ont annoncé vendredi 16 décembre qu'ils étaient parvenus à « une condition d'arrêt à froid »(1) de la centrale. C'est-à-dire que les températures dans les piscines de refroidissement et les cuves des réacteurs sont revenues à des niveaux suffisamment bas pour entamer notamment les opérations d'évacuation du combustible usé. C'est une étape importante qui marque la fin de la deuxième étape du plan établi pour désaffecter complètement la centrale. Un travail colossal qui devrait prendre plusieurs décennies... Dans une déclaration publiée le 16 décembre 2011, l'AIEA a déclaré que la Compagnie électrique de Tokyo (TEPCO), propriétaire de la centrale, et le gouvernement japonais avaient fait de « grands progrès ». Totuefois, l'agence de l'ONU a assuré qu'elle continuerait de surveiller l'état de la centrale et la situation radiologique au Japon après la catastrophe nucléaire du mois de mars 2011. Le 26 décembre 2011, le premier ministre japonais a déclaré que l'état d'urgence lié à l'accident nucléaire de Fukushima, décrété le 12 mars 2011, était désormais levé. Pourtant, ces déclarations rassurantes ne sont pas partagées par les travailleurs sur le terrain, les autorités locales et des spécialistes de la question. Ainsi, le gouverneur de la région de Fukushima a immédiatement réagi : "L'accident est loin d'être maîtrisé" a-t-il déclaré avant de détailler les nombreuses interrogations des habitants de la région : contamination de l'eau ; problèmes non résolus sur le site de la centrale accidentée, indique le quotidien japonais Asahi Shinbum. Selon le Tokyo Shinbun (le Journal de Tokyo), les travailleurs de Fukushima sont également furieux d'avoir entendu leur premier ministre déclarer que la température dans les réacteurs avait baissé et que la situation était désormais sous contrôle : « Le gouvernement ment » ; « Je ne comprends pas ce qu'il dit » ; « On ne peut même pas entrer dans les bâtiments et on ne sait même pas comment récupérer les combustibles ». Un des travailleurs qui regardait la conférence à la télévision commenta aussi : « J'ai cru que je ne comprenais plus le japonais. Je ne crois pas qu'il parle de la centrale que je vois tous les jours. Il nous faudra encore des années pour pouvoir gérer la situation... » relaie le blog de Fukushima. Soulignons que les travailleurs présents sur le site de la centrale sont tenus par le secret professionnel et sont souvent mal ou pas du tout informés sur les risques qu'ils encourent. Cette interdiction formelle de communiquer sur leurs activités a conduit un journaliste japonais indépendant, Tomohiko Suzuki, a enquêté par lui-même, après s'être fait embaucher pendant plus d'un mois sur le site. Il a donné une conférence de presse édifiante où il délivre une toute autre version des faits. Selon lui, aucun progrès n'a été fait vers une quelconque sortie de la crise nucléaire : seuls des travaux de façades ont été effectués pour faire croire à une maîtrise de la situation. Il dénonce également les conditions de travail inadmissibles, l'absence de vérification de la qualification des intérimaires, de la guéguerre entre les constructeurs Toshiba et Hitachi qui dissimulent des données qu'ils devraient partager. Toutes ces informations sont habituellement cachées au Japon car les ouvriers du nucléaire n'ont pas le droit de parler, comme cela est stipulé dans leur contrat d'embauche(2). Enfin, force est de constater que les informations diffusées par les autorités japonaises se raréfient et restent évasives, tandis que TEPCO se confond toujours en excuses. La contamination radioactive persisteSelon le bulletin d'information de l'Institut de Radioprotection et de Sûreté nucléaire (IRSN) de décembre 2011, la contamination radioactive persiste principalement sur les territoires des préfectures de Fukushima, Tochigi, Ibaraki et Miyagi. Ainsi, dans ces régions, de nombreuses denrées alimentaires (viande, poisson, fruits et légumes) demeurent impropres à la consommation, tout comme l'eau du robinet. Ceci s'explique par la contamination généralisée des écosystèmes comme en témoigne l'état des forêts d'après Mr. Osamu Amano, de l'Agence Japonaise de l'Energie Atomique. Le niveau de contamination radioactive de césium 137 des forêts du sud de la préfecture de Fukushima a atteint un niveau préoccupant. Si ce niveau avait baissé depuis juin 2011, il stagnait toujours depuis un mois à mi-décembre 2011. Suite aux pluies et à la chute des feuilles, la radioactivité a augmenté dans les zones forestières. En effet, le césium présent dans les arbres a été absorbé par les racines des feuilles qui tombent durant l'automne, propageant ainsi la contamination radioactive au sol. Selon Mr. Osamu "Lorsque les feuilles commencent à tomber, il devient alors nécessaire de porter un masque en forêt". Cette contamination affecte non seulement les forêts, mais aussi les zones urbaines via les eaux de ruissellement provenant des bois et montagnes. Ainsi selon des mesures effectuées par le professeur Tomoya Yamauchi (Ecole des Sciences Maritimes, Université de Kobe), la ville de Fukushima a aussi été atteinte : de 931 000 Bq/m2 en juin 2011, la dose relevée dans les gouttières du district de Watari est montée à 4 794 000 Bq/m2 en septembre 2011. Ce phénomène est accentué par le fait que la forêt est proche de la ville. Ce même phénomène a été remarqué dans la ville côtière de Minamisoma (70 km de la ville de Fukushima), où les entreprises de construction locales ont remarqué la hausse de la radioactivité due aux eaux de ruissellement provenant des montagnes environnantes. En effet, dans différents districts de la ville les doses relevées étaient comprises entre 1,5 micro-Sv/h et 3 micro-Sv/h en novembre 2011 contre 2,4 micro-Sv/h à 4,5 micro-Sv/h en juin 2011. Ces taux de radioactivité ne sont pas si importants que cela, puisqu'ils restent de l'ordre de grandeur du rayonnement naturel, mais leur stabilité demeure un facteur préoccupant(3). Cependant, il est à noter qu'à certains endroits, et notamment à proximité d'écoles primaires, les taux de radioactivité atteignent 20 micro-Sv/h. Cette valeur est bien plus préoccupante, puisqu'elle est de l'ordre de grandeur des rayonnements dans les environnements naturels fortement radioactifs. Au-delà de la communication sur l'énergie nucléaire qui se veut toujours rassurante, l'accident nucléaire de Fukushima laisse derrière lui une région sinistrée, désertée de gré ou de force par une grande partie de la population. Toutefois, la zone interdite(4), petit à petit réinvestie par la nature, devrait être en partie révisée pour permettre aux familles de revenir. Ainsi, "l'étape 2 terminée, nous allons étudier le problème de la zone interdite", a déclaré le 22 décembre le premier ministre japonais Yoshihiko Noda. Les autorités pourraient annuler à compter du mois d'avril la zone interdite des 20 km et créer trois nouvelles aires de statut différent en fonction des niveaux de radioactivité qui dépendent des vents dominants et des précipitations qui ont eu lieu après l'accident. En France, l'ASN vient juste de rendre public son rapport sur les évaluations complémentaires de sûreté (ECS) menées à la suite de l'accident de Fukushima. A ce titre, « l'ASN considère que les installations examinées présentent un niveau de sûreté suffisant pour qu'elle ne demande l'arrêt immédiat d'aucune d'entre elles. Dans le même temps, l'ASN considère que la poursuite de leur exploitation nécessite d'augmenter dans les meilleurs délais, au-delà des marges de sûreté dont elles disposent déjà, leur robustesse face à des situations extrêmes. L'ASN va donc imposer aux exploitants un ensemble de dispositions et renforcer les exigences de sûreté relatives à la prévention des risques naturels (séisme et inondation), à la prévention des risques liés aux autres activités industrielles, à la surveillance des sous-traitants et au traitement des non-conformités. » Notes1 Selon l'AIEA, les conditions d'un arrêt à froid sont obtenues lorsque : la température de la cuve du réacteur est inférieure à 100 °C, le rejet de matières radioactives de l'enceinte de confinement primaire est sous contrôle et lorsque l'exposition du public aux radiations via des rejets est maintenu au plus bas. 2 Phrases relevées dans les contrats TEPCO : « Si le signataire accepte ce travail, qu'il soit à l'intérieur ou à l'extérieur de l'enceinte de la centrale de Fukushima, il doit rester dans un strict secret concernant toute information, qu'elle soit écrite, orale ou obtenue par observation. » ; « Le signataire n'acceptera jamais d'interview ou une quelconque enquête de la part de tout média, que ces requêtes aient ou non à voir avec le travail. » (Témoignages d'ouvriers TEPCO) 3 Arrêté du 15 mai 2006 relatif aux conditions de délimitation et de signalisation des zones surveillées et contrôlées et des zones spécialement réglementées ou interdites compte tenu de l'exposition aux rayonnements ionisants, ainsi qu'aux règles d'hygiène, de sécurité et d'entretien qui y sont imposées - Legifrance 4 Cette zone correspond à 20 km de rayon autour de la centrale et plusieurs localités dont la contamination radioactive est préoccupante. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 20:55 | |
| La BlueCar : une voiture électrique qui pourrait tenir ses promesses ! Le marché des voitures électriques se fait désirer, les premiers essais commerciaux furent désastreux et les effets d'annonce se succèdent sans commercialisation. Après un silence manifeste sur le projet BlueCar, la petite citadine serait déjà disponible en location et prévue pour une mise en vente dès 2010, un espoir enfin comblé ? La BlueCar est une petite voiture électrique de quatre places et cinq portes, à transmission automatique. Présentée fin 2007, elle possédait alors de nombreux atouts notamment son autonomie, sa facilité d'utilisation et sa vitesse de pointe. Par exemple, pour la recharger, une borne publique suffit (il y en a quelques unes maintenant dans les grandes villes) ou encore mieux : une simple prise électrique, chez soi... C'est Vincent Bolloré, président du groupe du même nom, qui a annoncé lors du salon de l'automobile de Genève du 4 mars, qu'il était désormais possible de réserver la voiture électrique qu'il compte vendre à partir de 2010. « Nous avons dépensé 1 milliard d'euros depuis 14 ans (pour développer la BlueCar). (...) Aujourd'hui, nous avons les usines pour les batteries et nous avons la voiture », indique-t-il dans un entretien accordé au journal Le Monde du 05 mars 2009. « Nos deux sites, à Quimper et au Canada, vont entrer en production le 15 juin. Ils produiront des batteries pour 10 000 voitures en 2010, 20 000 en 2011 et 30 000 en 2012. Pour nous, la clé c'est la batterie. On annonce une autonomie de 250 km. Dans nos tests, elle atteint 294 km. Nos voitures seront produites à Turin chez notre partenaire Pininfarina et livrées 10 à 12 mois après leur commande. Elles seront louées 330 euros par mois », ajoute M. Bolloré. La batterie : un point fort ?Grâce à sa batterie L.M.P "Lithium Métal Polymère", son autonomie est portée à 250 km, bien plus que les 40 km qui sont la moyenne des déplacements quotidiens d'un conducteur en milieu urbain. La batterie, véritable valeur ajoutée de la BlueCar, stocke, à poids équivalent, cinq fois plus d'énergie qu'une batterie traditionnelle et se recharge en quelques heures. Ne nécessitant aucun entretien, elle a une durée de vie de l'ordre de 200 000 km, soit près de 3 ans pour un trajet quotidien de près de 200 km... Recharger la batterie prendra 6 heures sur une prise standard et deux heures sur les futures bornes de charge rapide. En cas de besoin, il est possible d'effectuer une recharge "flash" en cinq minutes pour parcourir 25 km. D'après le constructeur, "la batterie L.M.P. est uniquement composée de matériaux non polluants n'offrant aucun danger pour l'environnement. En fin de vie elle sera récupérée et tous ses composants seront recyclés, ou valorisés." Pourtant, ce discours idyllique masque un point noir : le lithium nécessaire à la fabrication des batteries demeure une ressource limitée, même si ce métal est très abondant dans la nature. En effet, il existe peu d'endroits qui en concentrent suffisamment pour une exploitation économique. Les principaux gisements actuels se situent à cheval sur la Bolivie, l'Argentine et le Chili et au Tibet. A ce titre, Bolloré a récemment poursuivi ses discussions avec la Bolivie pour son approvisionnement. C'est qu'une batterie de BlueCar nécessite 40 kg de lithium ! Des performances honorablesEn termes de performances la BlueCar offrira une vitesse de pointe électroniquement limitée à 130 km/h et des accélérations permettant d'atteindre les 60 km/h en 6,3 secondes, c'est largement suffisant pour évoluer en milieu urbain. D'autant plus que son gabarit lui permet de se faufiler facilement : 3,65 m de long. Une voiture qui innove en matière d'énergieLa BlueCar n'est pas seulement une simple citadine dotée d'une batterie en remplacement du carburant. En effet, elle s'habille de revêtements issus de filières répondant aux exigences du développement durable comme le cuir végétal. Une première dans l'industrie automobile. De plus, les surfaces du toit et de la calandre, souvent exposées au soleil sont judicieusement équipées de cellules photovoltaïques afin de contribuer à l'alimentation de ses équipements électriques. Une voiture pour l'instant en locationLes personnes intéressées par la BlueCar devront s'engager pour une période de location minimale de trois mois. Elles disposeront d'un service d'assistance 24 heures sur 24 grâce à un système de communication relié à un centre. Dans un deuxième temps, Bolloré devrait passer à la vente de ses véhicules électriques d'ici à 2010. Le coût de revient est estimé à un euro pour 100 km contre une quinzaine pour une voiture classique. Un rêve qui devient réalité ?Si la voiture propre ne peut exister, la BlueCar s'en rapproche quelque peu : pas d'émissions de polluants nocifs comme les particules ou les oxydes d'azote précurseurs de l'ozone troposhérique. C'est aussi moins de bruit, une conduite moins nerveuse et donc moins stressante et plus respectueuse des modes doux (vélo, roller...). Enfin, en évitant l'usage de carburant, c'est beaucoup moins de gaz à effet de serre émis et une dépendance au pétrole très limitée, une ressource dont les anées sont dorénavant comptées. Bien sûr, il faut fabriquer la voiture, ses batteries dont "la matière première", convoitée, devra être exploitée dans des conditions respectueuses de l'environnement et des populations, ce qui est loin d'être acquis... Enfin, la BlueCar devra être rechargée avec de l'électricité produite majoritairement en France par des centrales nucléaires... Un avantage dans la lutte contre le réchauffement climatique mais qui masque aussi une puissante industrie qui fait beaucoup trop parler d'elle en ce moment... Difficile d'être pleinement satisfait, mais il faut bien avouer que le marché actuel ne peut donner que des opportunités en matière d'écologie, notamment face à la duperie des agrocarburants qui cumulent les atteintes à l'environnement. La BlueCar n'est finalement pas vendueFinalement la BlueCar n'est pas commercialisée, sa production reste limitée : il est toutefois possible de la pré-réserver mais uniquement via un contrat de location. A ce titre, le nouveau service de partage de véhicule Autolib exploite quelque 250 véhicules BlueCar dans la capitale depuis début décembre 2011, avec des premiers résultats encourageants mais quelques problèmes de logistique et de vandalisme. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 20:57 | |
| Des parasites prennent le dessus sur les poissons à mesure que les températures augmentent Le changement climatique perturbe les créatures de la planète entière, notamment les poissons. Une nouvelle étude du Royaume-Uni montre que les vers parasites infectant les poissons perturbent la reproduction de ces derniers et qu'ils se développent quatre fois plus rapidement à des températures plus chaudes. Présentés dans la revue Global Change Biology, les résultats montrent que le réchauffement planétaire a la capacité de troubler l'équilibre entre les hôtes et les parasites, et met en danger les populations de poissons. Des chercheurs du département de biologie de l'université de Leicester ont également découvert que les poissons infectés se comportent différemment, probablement car les parasites manipulent leur comportement, les forçant à se déplacer et à rechercher des températures plus chaudes. L'étude révèle également un ralentissement de la croissance de l'hôte, tandis que le parasite se développe beaucoup plus rapidement dans des températures chaudes. "Nous avons pu observer que les poissons infectés par les plus grands vers préféraient les eaux plus chaudes, ce qui laisse entendre que les parasites manipulent le comportement de leur hôte à leur avantage pour renforcer leur taux de croissance", commente le Dr Iain Barber du département de biologie de l'université de Leicester, qui travaillait aux côtés de Vicki Macnab, étudiante en doctorat de l'institution. Commentant les résultats de l'étude, Melle Macnab explique : "La recherche montre un effet spectaculaire des températures environnementales chaudes sur les taux de croissance des parasites dans les poissons hôtes. La taille de ces parasites atteinte dans l'hôte détermine l'impact sur la reproduction du poisson ; ainsi, nos résultats montrent que les parasites ont un impact négatif sur la reproduction du poisson si les températures augmentent. De plus, notre article documente des changements comportementaux des poissons infectés qui indiquent que les parasites manipulent leur comportement pour qu'ils privilégient les environnements aux températures élevées, créant ainsi une rétroaction positive pour exacerber les effets du réchauffement climatique. Cette recherche montre que le réchauffement mondial pourrait perturber l'équilibre entre parasites et hôtes, avec de sérieuses implications pour les populations de poissons." Selon les chercheurs, les vers parasites infectant l'épinoche se sont développés quatre fois plus rapidement dans les poissons infectés du laboratoire qui se trouvaient dans un aquarium à 20° C par rapport à ceux de l'aquarium à 15° C. Les poissons ont pris plus de temps à se développer dans des températures plus élevées. Les chercheurs pensent que les parasites des poissons peuvent vivre dans températures élevées plus aisément que les poissons qu'ils infectent. "Ces résultats sont importants car la taille que ces parasites atteignent dans leurs hôtes détermine également le degré d'infection des oiseaux piscivores tels le martin-pêcheur et le héron (les hôtes suivants dans le cycle de vie du parasite) mais également le nombre d'oeufs pondus pour qu'ils se reproduisent", commente le Dr Barber. "Des larves de parasites plus grandes dans les poissons se développent plus vite en vers adultes dans les oiseaux, en produisant encore plus d'oeufs. Après les huit semaines d'étude, tous les vers infectant les poissons maintenus à 20° C étaient prêts à infecter les oiseaux piscivores, alors qu'aucun des parasites des poissons maintenus à une température plus basse n'a atteint la taille suffisante pour être transmis." Dans une étude de suivi, les auteurs ont également observé que les poissons infectés avec les plus gros vers préféraient les eaux plus chaudes. Cette découverte vient confirmer la théorie selon laquelle ces parasites influencent même le comportement des poissons hôtes de manière à donner l'avantage aux parasites, et ainsi à renforcer leur taux de croissance. L'étude nous offre donc un aperçu initial du déséquilibre entre hôtes et parasites induits par l'augmentation des températures environnementales. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 20:59 | |
| Les engrais des fleurs endommagent les monumentsForteresse de Belgrade L'étude menée par des chercheurs serbes, en collaboration avec le Laboratoire de dynamique, interactions et réactivité (Ladir, CNRS / UPMC), est formelle : la forteresse de Belgrade est également menacée par des parterres de fleurs et non par le seul chauffage au charbon comme supposé jusqu'à présent. La dégradation des murs de la forteresse serait ainsi en partie causée par le potassium contenu en grande quantité dans les fertilisants utilisés par les jardiniers. Il serait responsable de la formation des croûtes noires qui maculent les murs des remparts. Pour préserver ce patrimoine, les chercheurs préconisent d'éviter le surdosage d'engrais. Leurs conclusions seront publiées au cours du premier trimestre 2012 dans la revue Journal of Cultural Heritage et pourront être profitables à d'autres sites patrimoine de par le monde. A Belgrade, des fortifications furent érigées dès le Moyen Âge sur le plateau Kalemegdan qui surplombe la confluence du Danube et de la Sava. Aujourd'hui, les remparts de la forteresse de la capitale serbe forment un vaste parc fleuri et ombragé, proche du centre-ville, qui fait le bonheur des habitants et des touristes. Mais, sur ses murs en calcaire, on observe depuis une vingtaine d'années la formation de croûtes noires qui étaient jusqu'à présent uniquement attribuées aux fortes teneurs en dioxyde de soufre dégagées par le chauffage au charbon utilisé par les Belgradois. En collaboration avec Philippe Colomban, chercheur CNRS au Ladir, l'Université de Belgrade et l'Institut des routes de Serbie, ont analysé les croûtes noires formées sur la « Porte Royale » de la forteresse. Objectif : déterminer le processus de dégradation, pour ensuite proposer aux autorités les solutions de conservation les plus appropriées. Différents prélèvements de la pierre calcaire et des mortiers à chaux ont été étudiés par porométrie(1), diffractométrie de rayons X, spectroscopies infrarouge et Raman, microscopie électronique et analyse élémentaire. Au-delà d'une certaine concentration de dioxyde de soufre dans un air humide, des pluies ou des brouillards acides peuvent se former, conduisant à la formation de sulfates calciques et de carbonates « noirs » qui donnent un aspect peu esthétique aux façades. De manière surprenante, les chercheurs ont mis en évidence d'importantes quantités de syngénite, un sulfate double de potassium et de calcium. Ce produit de corrosion se forme habituellement sur les vitraux potassiques du Moyen Âge et les constructions en granite ou utilisant un mortier contenant du potassium. Jamais il n'avait été encore observé sur des pierres en calcaire très pur. D'où peut-il bien provenir ? Après différentes analyses, les chercheurs ont révélé une concentration anormale en potassium dans le sol, à proximité des murs des remparts, Or, ces derniers comportent des zones ornées de plates-bandes fleuries où, afin de favoriser la floraison, les jardiniers apportent un fertilisant riche en potassium. Une simulation de l'action d'une eau acidifiée et chargée en potassium sur des morceaux de calcaire a confirmé qu'il se formait bien de la syngénite, comme observé sur la « Porte Royale ». Belles fleurs et conservation du patrimoine monumental nécessitent donc un subtil dosage de l'apport en potassium afin d'éviter cette pollution. Des mesures sur site sont prévues pour cartographier l'ampleur du phénomène. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:03 | |
| Autolib' un mois après son lancement à Paris : une bonne idée pour l'environnement ?Station Autolib' et sa voiture, la BlueCar, déjà légèrement endommagée, janvier 2012 Lancé début décembre 2011 à Paris, le service de partage de voiture Autolib' a maintenant un mois. C'est l'occasion de faire un premier bilan de cette initiative. Des voitures électriques en location à Paris : est-ce vraiment une bonne idée ? Initié dès 2003 à Lyon sous l'appellation Autolib' (société Lyon Parc Auto) et à Nice début avril 2011, la capitale et 45 communes limitrophes se sont investies dans le service de partage de véhicule Autolib' (filiale du groupe Bolloré) depuis début décembre 2011. Le principe repose, comme pour Vélib', sur la location de véhicules en libre service sur une durée courte (quelques heures au plus). Fait innovant par rapport au service mis en place à Lyon : il s'agit de véhicules électriques et plus précisément de modèles BlueCar qui ont suscité tant d'espoirs. En effet, avec une autonomie de 250 km, ces petites citadines silencieuses et qui ne polluent pas directement(1) l'air semblent idéales pour les zones urbaines. Actuellement, 250 stations et espaces Autolib' sont à disposition et 300 Bluecars sont théoriquement disponibles. Petit à petit, Autolib' devrait monter en puissance : "Comme on a 250 stations, ça ne fait pas beaucoup (de voiture), au maximum une par station", explique Vincent Bolloré président directeur général du groupe Bolloré à l'origine de la BlueCar. Cette situation devrait évoluer rapidement, assure-t-il, puisque "nous en livrons 250 en janvier, 300 en février, 350 en mars et un peu plus de 350 les mois suivants", relaie TF1. Après un mois de fonctionnement, Autolib' revendique 7 200 abonnés et une demande supérieure à l'offre : des résultats encourageants. Sur le site Internet officiel d'Autolib' on peut lire que dès début juin 2012, le service Autolib' aura déployé environ 1100 stations et espaces Autolib' et 1740 Bluecars. En pratique, Autolib' souffre de son succès et il est difficile de trouver un véhicule comme le souligne dans une enquête l'association de consommateur UFC-Que choisir. Cette lacune s'expliquerait également par de nombreux actes de vandalisme comme en témoigne Icham, agent Autolib', sur Europe 1 : "Il y a de plus en plus de voitures dégradées", regrette t-il. "Des collègues ont vu des personnes donner des coups de pied dans les voitures", ajoute t-il. Résultat : de nombreux véhicules seraient immobilisés pour réparation au centre opérationnel des Autolib' à Vaucresson (Hauts-de-Seine). Un constat qui n'est pas partagé par Sylvain Marty, directeur du syndicat mixte Autolib' : "Concernant les pannes et dégradations c'est faux, nous en avons beaucoup moins que prévues". Toujours est-il que les véhicules disponibles restent rares. Autolib' : une bonne idée pour l'environnement ?Si un système de location de vélo comme Velib' a bien sa place dans les grandes agglomérations qui étouffent (bouchons, pollution atmosphérique...), on peut légitimement en douter pour un système de partage de voitures. En effet, quel est l'intérêt de rajouter à terme 3000 véhicules dans le cœur de l'agglomération parisienne qui est déjà en permanence congestionnée ? Comment croire que ce service pourra inciter des parisiens à abandonner leurs véhicules particuliers au profit d'un service relativement coûteux (à partir de 11 euros par mois d'abonnement et 9 euros/heure) et futile vu la pléthore d'offres en transports ? Dans le même temps, les transports en commun, déjà massivement déployés sur Paris et les communes limitrophes mériteraient d'être encore renforcés et développés pour que la voiture, souvent occupée par une seule personne, laisse sa place aux modes de transports collectifs et alternatifs (vélos...). L'ambition de la mégalopole la plus peuplée d'Europe(2) devrait être de rendre son espace de vie plus sain tout en rendant ses échanges plus efficaces, vertueux et profitables pour tous. Ces interrogations ont d'ailleurs valu à Autolib' d'être fustigé par l'association Les Amis de la Terre. Dès son lancement, ils ont dénoncé une opération « qui ne favorise pas les transports collectifs et doux et compromet la nécessaire transition énergétique. Alors que Vélib' incitait les Parisiens à changer leurs modes de déplacement, Autolib' conforte l'usage du véhicule individuel. » « De plus, l'exploitation minière à grande échelle du lithium nécessaire aux batteries qui en résultera, entrainera une surconsommation de ces ressources et une dégradation environnementale irréversible. Un aspect mis en avant par les Amis de la Terre, dans le cadre des prix Pinocchio, qui dénoncent les conséquences désastreuses de l'exploitation du lithium en Amérique du Sud. » Au final, nous avons le sentiment qu'il s'agit d'un gâchis : Autolib' trouvera probablement sa clientèle mais l'aménagement des transports en Ile-de-France ne doit pas se limiter à des mesures "rustines", réservées à quelques privilégiés. De grandes villes (Stockholm, Londres, Milan, Berlin...) ont déjà mis en place des systèmes de péages urbains pour limiter enfin le flux d'automobiles et les inacceptables pics de pollution atmosphérique. De plus, il existe déjà de nombreux transports individuels ponctuels : associations d'auto-partage ou de covoiturage, taxis, loueurs de voitures qui auraient pu bénéficier d'équipements en voitures électriques de type BlueCar. Pourquoi ne pas avoir eu une réflexion d'ensemble plus sérieuse, volontaire et cohérente ? Les pistes cyclables attendent toujours d'être massivement développées, d'autant plus avec la réussite du Vélib'. Les transports en commun restent trop souvent déficients, congestionnés, sales, mal adaptés, peu sécurisés et coûtent toujours de plus en plus cher, un comble... Si la voiture électrique doit impérativement se démocratiser et évoluer pour diminuer son impact sur l'environnement, cette transition énergétique doit se construire dans une logique collective et non pour amuser quelques parisiens et rassurer quelques décideurs en manque de notoriété. Notes 1 Vu les sources énergétiques utilisées en France et la prépondérance du nucléaire, une voiture électrique émet l'équivalent de 17 g/km contre 127g/km pour la moyenne des voitures vendues en France en 2011 (Science & Vie ; janvier 2012) 2 Si l'on fait abstraction de Moscou. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:09 | |
| 2011 : l'année la plus chaude en France depuis le début des relevés météorologiques !Clémentine bretonne en avril 2011 Alors que l'année 2011 est dorénavant l'année la plus chaude et l'une des plus sèches de France métropolitaine depuis le début des relevés météorologiques, le début de l'année 2012 vient de battre des records de douceur... Dans un bilan rendu définitif le 4 janvier 2012, Météo-France indique que 2011 est l'année la plus chaude depuis 1900 pour le territoire métropolitain. Après une année 2010 particulièrement fraîche (la plus froide de ces deux dernières décennies à égalité avec 1996), l'année 2011 a ravi la place de l'année 2003 qui détenait le précédent record de chaleur avec un écart de température de + 1,3 degré celsius par rapport aux normales(1). Ainsi, l'année 2011 a connu une température moyenne de 13,6°C (+ 1,5°C). Le printemps et l'automne, particulièrement chauds ont largement contribué à ce record. En effet, "le printemps 2011 se positionne au premier rang des printemps les plus chauds(2) et l'automne 2011 au second rang des automnes les plus chauds(2)", explique Météo-France. On se souvient particulièrement du mois d'Avril, littéralement estival, avec un excédent de plus de 4,2°C par rapport aux normales ! En général, "tous les mois de l'année 2011 ont été plus chauds que la normale, à l'exception notable de juillet 2011 qui, avec une température moyenne inférieure de 1,3 degré à la normale, a été le mois de juillet le plus frais de ces 30 dernières années". Ainsi, paradoxalement, l'été n'a pas été caniculaire, comme en 2003, "même si fin juin la température a dépassé les 35°C très temporairement (près de 37°C à Paris le 27 juin) et qu'il y a eu 5 jours consécutifs à plus de 35°C à Lyon un peu après le 15 août" note MétéoConsult. Il y a donc de fortes chances pour que cette année record ne reste pas gravée dans les mémoires et pourtant elle est exceptionnelle. Températures annuelles en France métropolitaine depuis 1900 (écart à la moyenne de référence 1971-2000) 2011 : une année de sécheresseDe plus, pendant une grande partie de l'année, pratiquement tout le territoire métropolitain (sauf en Méditerranée) a été particulièrement sec à cause d'un déficit de précipitations mais aussi la persistance d'un faible niveau de remplissage des nappes phréatiques. Ainsi, le printemps 2011 a été le plus sec depuis au moins 1959. Au final, pour l'ensemble du pays, "la quantité d'eau recueillie en 2011 se situe sensiblement en dessous de la normale annuelle avec un cumul de pluie déficitaire d'environ 17%" : une année qui compte parmi les plus sèches que la France ait connues au cours des cinquante dernières années, souligne Météo-France. Un début d'année qui bat déjà des records de douceur !Le début de l'hiver 2011 est assez déconcertant avec des températures très douces et un type de temps plutôt automnale (venteux, précipitations abondantes). Météo-France a enregistré de nombreux records de températures minimales pour un 1er janvier sur une grande moitié Ouest et Nord du pays : Lille: 11,4°C (précédent record pour un 1er janvier : 8,2°C en 1960) Caen: 12,2°C (9,4°C en 1960) Paris: 12,3°C (11,1°C en 1883) Reims: 11,2°C (7,8°C en 1987) Nancy: 10,5°C (6,9°C en 1936) Colmar: 10,1°C (7,1°C en 1987) Nantes: 12,6°C (10,3°C en 2005) Le Mans: 12,6°C (10,2°C en 2005) Bordeaux: 12,6°C (11,9°C en 1987) Poitiers: 11,9°C (9,7°C en 1967) Dijon: 10,1°C (7,8°C en 1967) Aurillac: 9,1°C (7,2°C en 1987) Dans certaines villes, on a même battu le record de température minimale pour un mois de janvier: Tours: 12,1°C (précédent record pour la nuit de janvier la plus douce : 9,7°C en 2005) La Rochelle: 12,6°C (11,4°C en 1967) Niort : 12,5°C (10,1°C en 1967) Bourges: 12,1°C (9,0°C en 1967) La douceur a continué en journée et les villes suivantes ont également battu leur record de température maximale pour un 1er janvier: Nîmes: 19,9°C (précédent record pour un 1er janvier : 18,3°C en 1987) Agen: 17,1°C (15,1°C en 1987) Auch: 17,0°C (15,5°C en 2007) Toulouse: 15,7°C (15,2°C en 1987) Clermont-Ferrand: 16,5°C (15,3°C en 2003) Saint-Etienne: 16,2°C (15,6°C en 2007) Lyon: 15,5°C (14,2°C en 1921) Bâle-Mulhouse: 14,4°C (14,1°C en 2003) Lille: 13,4°C (12,5°C en 2003) Le réchauffement climatique est en marcheSi il serait bien peu avisé de conclure au réchauffement climatique planétaire à la seule vue des relevés météorologiques de la France pour l'année 2011, nous noterons que la France connait presque sans discontinuer, depuis les années 1990, des anomalies positives de températures. Il s'agit là d'une tendance suffisament remarquable et claire pour y voir la manifestation du réchauffement climatique. A ce titre, Météo-France indique qu'au cours du XX ème siècle, l'augmentation des températures a été de l'ordre de 1°C. Ce réchauffement est visible sur le territoire métropolitain : recul des glaciers de montagne, montée du niveau des océans, migration des espèces animales et végétales, baisse du nombre de jours avec du gel... Notes1 moyenne de référence 1971-2000 2 depuis 1900 Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:12 | |
| Le Groënland se soulève avec la fonte de sa couverture glaciaireVallée de Qingua, sud-ouest du Groënland, juillet 2006 Le Groenland est en phase de reverdir, selon une nouvelle étude internationale. L'année 2010 a été particulièrement chaude, ce qui a entraîné une perte d'environ 100 milliards de tonnes de glace dans le Sud du Groenland. Les résultats de cette étude révèlent aussi qu'une grande surface du substrat rocheux de l'île s'est élevée de quelques millimètres au cours de cette période. La glace alourdit le substrat rocheux, mais celui-ci s'élève lorsque la glace fond. Des scientifiques du Danemark, du Luxembourg et des États-Unis ont mesuré la réaction naturelle de l'assise rocheuse de l'île à la déplétion de la couche de glace. Ils ont utilisé un réseau de près de 50 dispositifs de localisation (GPS) situés sur la côte du Groenland pour obtenir les informations nécessaires au projet Greenland GPS Network (GNET). Le professeur Michel Bevis de l'école de sciences terrestres de l'université de l'état de Ohio aux États-Unis explique que la couche de glace du Groenland fond d'année en année, ce qui permet au substrat rocheux de faire surface. Selon les scientifiques, un nombre de stations GPS de l'île détecte une élévation de 15 mm ou plus sur la côte rocheuse chaque année. Toutefois, l'augmentation des températures de l'année dernière a élevé le substrat rocheux de 20 mm à plusieurs endroits. Lors d'une récente rencontre de l'Union américaine de géophysique qui a eu lieu à San Francisco, le professeur Bevis déclarait : "Les impulsions supplémentaires découlant de la fonte et de l'élévation impliquent que nous connaîtrons une élévation du niveau des mers. Il s'agit d'un processus peu constant." Le professeur Bevis et ses collègues ont profité de la flexure naturelle de l'assise rocheuse de l'île pour mesurer le poids de la couche de glace. Selon le professeur, l'élévation anormale détectée par GNET en 2010 est le résultat d'un phénomène de fonte de glace anormale pendant l'année. Une fonte « anormale » est considérée en fonction du nombre supplémentaire de fonte. "Nous ne voyons pas d'autre explication", explique le professeur Bevis. "L'élévation anormale correspond aux jours de fonte anormale de l'année 2010. Aux endroits où la glace a beaucoup fondu en 2010, l'élévation est la plus importante." Ces mesures ont permis à l'équipe de déterminer qu'à mesure que la glace fond, le substrat rocheux s'élève davantage. Les chercheurs expliquent que la quantité d'élévation variait entre plusieurs stations, en raison de la proximité de chaque station GPS dans les régions où la perte de glace était la plus importante. Les données ont montré que les stations du Sud du Groenland situées à proximité des zones de fortes fontes de glace se sont élevées d'au moins 20 mm sur une période de cinq mois. Les stations plus éloignées n'ont connu qu'une élévation de 5 mm au cours de la saison de la fonte de glace en 2010. Les stations situées dans le nord de l'île n'ont pas connu de grands changements. GNET a installé des stations GPS dans l'assise rocheuse de 2007 à 2009, notamment sur la côte rocheuse à proximité des marges glaciaires. Selon les chercheurs, GNET et les réseaux de GPS associés répartis dans le monde entier offrent aux chercheurs les moyens de mesurer la perte de glace après la fin de la mission des satellites GRACE (Gravity Recovery and Climate Experiment) prévue pour 2015. Des chercheurs de l'université technique danoise de Copenhague, de l'institut spatial du Danemark, de l'université du Luxembourg et de l'université du Colorado ont apporté leur contribution à cette étude. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:15 | |
| Les rizières de Camargue pourraient utiliser des canards pour une recette 100% bioBertrand Poujol, installé sur son exploitation depuis 2006, teste différents itinéraires techniques agroécologiques pour le désherbage de ses cultures de riz. L'infestation des rizières par les mauvaises herbes est le premier facteur qui impacte les rendements de riz tant en culture biologique qu'en culture conventionnelle Les canards, friands de jeunes pousses de mauvaises herbes, pourraient être une solution alternative à la lutte chimique dans les rizières de Camargue ! La panisse (Echinochloa crus galli) et le triangle (Cypéracées) sont deux bêtes noires des riziculteurs camarguais. Ces mauvaises herbes infestent les rizières, rendant très difficile la culture de riz bio deux années successives : elles peuvent faire chuter jusqu'à 80% les rendements. Jean-Claude Mouret, chercheur à l'UMR Innovation de Montpellier précise : « pour être rentable, une production de riz biologique doit atteindre un rendement minimum qui se situe, compte tenu du prix actuel, autour de 4 tonnes/ha soit 8 t/ha sur deux années consécutives. Mais cet objectif est difficile à atteindre la deuxième année du fait d'une trop forte infestation par les adventices. Malgré la rotation, le stock de graines de mauvaises herbes peut compromettre durablement la production de riz. ». S'inspirant de pratiques observées en Asie et expérimentées au Japon, l'UMR Innovation a testé sur une exploitation rizicole biologique, l'association de canards à la culture du riz. Consommant les graines et les jeunes pousses d'adventices, les canards pourraient contrôler l'infestation des mauvaises herbes dans les rizières. L'expérimentation a démarré en 2011 avec l'appui de FranceAgriMer dans le cadre du plan d'adaptation de la filière rizicole. Ça cancane en CamargueSur sept hectares de riz de « deuxième année », le riziculteur Bernard Poujol a fait pâturer 300 canettes mulardes pendant un mois et demi, de mi-juin à fin juillet, lors du tallage du riz : « les canards ont été achetés à l'âge de trois jours et élevés dans une serre aménagée avant leur introduction dans les rizières. J'ai apprivoisé les canards et les ai habitués à pénétrer dans les rizières, à se familiariser avec les clôtures électriques... ». L'agriculteur a réalisé un semis enfoui en lignes en remplacement d'un semis à la volée, pour permettre aux canards de se frayer un passage plus facilement. « Je les accompagne dans la rizière et les change de parcelles quand il le faut. Ce sont des bêtes très faciles à manoeuvrer, des partenaires très intelligents, c'est un plaisir ! Les canards font peu de dégâts sur le riz, circulent et nettoient l'inter-ligne : ils fouillent la terre et étêtent panisses, triangles et autres herbes, leur faisant ainsi perdre l'effet de concurrence sur le riz. Ils ont une réelle efficacité de désherbage ». Un herbicide qui a déjà ses palmesLes premiers résultats, collectés suite à la récolte d'octobre 2011, sont concluants : en consommant les jeunes plantules de mauvaises herbes, les canards ont réduit la biomasse des adventices de l'ordre de 20 % et permis une augmentation du rendement de 26 % par rapport à une parcelle sans désherbage. Le riziculteur est très satisfait et compte renouveler l'expérience : « Grâce au broutage des canards, il est possible de cultiver du riz deux années de suite en atteignant une moyenne annuelle de 5 t/ha ! Cela sécurise les revenus de l'exploitation. D'autant plus que les coûts du désherbage sont absorbés par la vente des canards : j'ai prévu de vendre 75 % des canards, le reste servant à l'éducation des jeunes : c'est un désherbant qui me permettra au final de gagner de l'argent ! ». L'expérimentation sera poursuivie en 2012, pour affiner l'itinérairet echnique. Des flamants roses en adjuvantDéjà, dans les rizières, les canards s'affairent. Ils assainissent la rizière des graines d'adventices et leurs déjections fertilisent le sol avant les prochains semis. L'agriculteur les a réintroduits une fois la récolte finie, s'inspirant de l'activité des flamants roses qu'il avait observée un an auparavant. Pendant leur séjour de quelques semaines sur l'une de ses parcelles en eau, les oiseaux avaient consommé des graines d'adventices et aéré la terre par leurs piétinements et coups de becs. Les mesures de l'UMR Innovation semblent confirmer ces observations : les stocks de graines d'adventices du sol sont plus faibles sur les deux parcelles mises en eau pendant l'interculture que sur les autres. L'Unité étudie d'autres techniques alternatives pour lutter contre l'apparition de mauvaises herbes dans les rizières de Camargue. Tester des techniques de « faux semis », augmenter la densité de semis, introduire des légumineuses dans la rotation, étudier l'influence du surpâturage des brebis dans les parcelles en rotation avec le riz... Jean-Claude Mouret a d'ores et déjà discuté du protocole pour réaliser un nouveau prototype avec l'ensemble des riziculteurs biologiques intéressés par la démarche en 2012. Situation de la riziculture française en 2010/2011La France produit un quart de sa consommation annuelle de riz. Principalement située en Camargue, la production annuelle française s'élève à 120 000 tonnes de riz paddy, le riz « brut » enveloppé de sa coque. Blanchi, le riz est ensuite commercialisé sous le label IGP « riz de Camargue » créé en 2000. La culture de riz permet dans ce delta du Rhône de valoriser les sols exposés aux remontées de sel de la nappe phréatique et autorise ainsi l'introduction d'autres cultures dans la rotation. En 2010, deux cents riziculteurs cultivaient sur ce territoire 21 204 ha de riz. Une trentaine de riziculteurs se sont récemment convertis à l'agriculture biologique. Aujourd'hui 5 % des surfaces sont cultivées en agriculture biologique. Les rendements moyens obtenus en riziculture conventionnelle s'élèvent à 5,7 t/ha oscillant entre 2 et 10 t/ha. En mode de conduite biologique, la moyenne des rendements en riz paddy s'établit à 4 t/ha avec une variabilité de 0,5 t à 8 t/ha. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:21 | |
| Une nouvelle étiquette dans les rayons pour un air intérieur plus sainBougies parfumées, vaporisateurs, diffuseur de parfum sont autant de sources de pollution de l'air intérieur Nous passons en moyenne plus de 80 % de notre temps à l'intérieur des bâtiments (domicile, école, bureau...) et sommes exposés, sans toujours le savoir, à de nombreuses sources de pollution de l'air intérieur : produits de construction et de décoration, d'entretien... Suivant le même principe que l'étiquette énergie, les fabricants doivent afficher depuis le 1er janvier 2012 les niveaux d'émission en polluants volatils de tous les nouveaux produits de construction et de décoration. Les sources ou vecteurs de pollution de l'air intérieur sont nombreux : fumée de tabac, produits de construction et de décoration, d'entretien, de bricolage, aérosols, moisissures, air extérieur, acariens, revêtements de sols, produits cosmétiques, encens, bougies parfumées, animaux domestiques, appareils à combustion pour le chauffage et la cuisine... Du fait de la diversité des polluants chimiques et biologiques dans l'air intérieur, de nombreux effets ont pu être documentés(1) : simple sensation d'inconfort ou gêne olfactive, irritation des yeux, du nez, de la gorge, diverses pathologies du système respiratoire (rhinites, bronchites, asthme, etc.), allergies et maux de tête. L'ensemble des maladies allergiques (asthme, conjonctivite, allergie alimentaire, etc.) concerne 25 % à 30 % de la population dans les pays industrialisés et leur prévalence a doublé entre 1981 et 2000(2). De manière générale, en France, on estime le coût de la mauvaise qualité de l'air intérieur entre 10 et 40 milliards d'euros par an(3). L'émission et la présence dans l'air de ces polluants sont conditionnées par les activités humaines, la température et l'humidité ambiantes, et leur concentration est directement influencée par le taux de renouvellement d'air. Depuis plusieurs années, l'importance de la qualité de l'air intérieur pour la santé et le bien être des occupants et des usagers est reconnue et fait l'objet d'un ensemble d'actions visant à améliorer les connaissances puis à définir et mettre en œuvre des actions de prévention et d'amélioration de la qualité de l'air intérieur. « En guidant le consommateur dans ses achats, nous pensons encourager du même mouvement les industries à mettre sur le marché des produits qui favorisent un environnement plus sain » a déclaré Nathalie Kosciusko-Morizet. Une étiquette affiche les niveaux d'émission en polluants volatilsSuivant le même principe que l'étiquette énergie, les fabricants doivent afficher depuis le 1er janvier 2012 les niveaux d'émission en polluants volatils de tous les nouveaux produits de construction et de décoration allant de A+ (très faibles émissions) à C (fortes émissions). Les composés organiques volatils (COV) regroupent une multitude de substances qui peuvent être d'origine naturelle ou humaine. Ils sont toujours composés de l'élément carbone et d'autres éléments tels que l'hydrogène, les halogènes, l'oxygène, le soufre... Leur volatilité leur confère l'aptitude de se propager plus ou moins loin de leur lieu d'émission, entraînant ainsi des impacts directs et indirects sur l'environnement. A terme, plusieurs milliers de références – peintures, papiers peints, parquets, moquettes, vernis, colles, adhésifs... – seront étiquetées pour éclairer les choix des consommateurs. Ce travail d'information sur les risques de toxicité présents dans certains produits est le fruit d'une coopération originale entre le ministère du Développement durable et la distribution. D'ici septembre 2013, tous les produits de construction et de décoration vendus en France devront posséder cette étiquette. Les principes de l'étiquetage sont les suivants :-l'étiquetage porte sur les émissions de composés organiques volatils ou COV, -ces émissions sont déterminées par rapport au produit posé, incorporé ou appliqué dans une pièce, -l'information est donnée sous forme simple : une échelle Un produit étiqueté C ne sera toutefois pas retiré du marché, elle indique seulement que le produit fait partie des produits les plus émetteurs de composés organiques volatils dans sa catégorie. De plus, un produit étiqueté « A+ » ne garantit pas forcément une sécurité sanitaire lors de son utilisation ? En effet, l'étiquetage porte sur l'impact sur la qualité de l'air intérieur du produit une fois celui-ci appliqué dans la pièce. L'information apportée par l'étiquette est destinée à l'occupant de la pièce. Quelle que soit la classe affichée par l'étiquette, il convient donc toujours de respecter les préconisations d'usage (ouverture des fenêtres, usage d'un masque...) et les signalétiques de danger (par inhalation, mais aussi ingestion, contact physique...) indiquées sur les produits. Le ministère du Développement durable lance une campagne de sensibilisation « Respirez mieux, l'étiquette vous guide » pour accompagner la mise en place de cette nouvelle étiquette dans les rayons. Par ailleurs, pour compléter ce volet du plan national santé environnement, le décret du 2 décembre 2011 a rendu obligatoire la surveillance de la qualité de l'air intérieur dans certains établissements recevant du public sensible (crèches, centre de loisirs, haltes-garderie, établissements scolaires du premier et second degré, structures de soin, piscines couvertes, établissements pénitentiaires pour mineurs...) Trois substances jugées prioritaires par la communauté scientifique seront mesurées dans ces établissements :-le formaldéhyde, substance irritante pour le nez et les voies respiratoires émise notamment par certains matériaux de construction, le mobilier, certaines colles, les produits d'entretien... ; -le benzène, substance cancérigène issue de la combustion (gaz d'échappement notamment) ; -le dioxyde de carbone (CO2), représentatif du niveau de confinement, signe d'une accumulation de polluants dans les locaux. Cette obligation devra être achevée avant le 1er janvier 2015 pour les établissements accueillant des enfants de moins de six ans et les écoles maternelles. Notes1 Inpes – Baromètre santé environnement 2007 2 Source : GINA – Global Initiative for Asthma, 2008. 3 Source : EnVIE, programme européen sur la qualité de l'air intérieur Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:28 | |
| La lumière, source de diversités des niches écologiques des forêts tropicalesForêt tropicale humide - Costa Rica Ce n'est pas l'eau, mais la lumière qui est le principal facteur déterminant les opportunités de croissance des centaines d'espèces d'arbres des forêts tropicales. La variation des caractéristiques physiologiques entre les espèces, permet d'expliquer comment ces espèces occupent des niches écologiques différentes, contribuant ainsi à la biodiversité des forêts tropicales. C'est ce que décrit un article publié dans la revue PNAS par des chercheurs de l'université de Wageningen et de l'Université d'Utrecht. Les forêts tropicales sont formées de centaines d'espèces sur un seul hectare, mais la source de création de cette biodiversité est encore méconnue. L'étude menée par Frank Sterck, Lourens Poorter et Lars Markesteijn (Wageningen UR) et Feike Schieving (Université d'Utrecht) montre que les espèces d'arbres boliviens peuvent coexister parce qu'elles occupent une même niche. Les espèces étudiées réagissent toutes différemment aux variations de lumière et de disponibilité en eau, possédant toutes des caractéristiques physiologiques différentes. La biodiversité est une donnée essentielle pour de nombreuses espèces. Dans cette étude, de nombreux traits physiologiques tels que la surface foliaire, la masse du bois, la capacité de photosynthèse, et la résistance des feuilles à l'eau ont été mesurés sur des arbres de forêts tropicales de Bolivie. Les chercheurs ont également mis en place un modèle physiologique calculant la vitesse avec laquelle les espèces peuvent se développer sous différentes combinaisons d'apports en eau et en lumière. Les simulations montrent que certaines espèces sont spécifiques à certaines niches, car elles ont des capacités photosynthétiques et une production de feuilles différente. Les chercheurs concluent que la lumière, même dans les forêts tropicales relativement sèches, est le moteur idéal pour la spécialisation des espèces dans de différentes niches, et donc un facteur plus important que celui de l'eau pour la coexistence des différentes espèces. C'est l'une des premières études dans laquelle des modèles de physiologie végétale sont utilisés pour déterminer les caractéristiques de croissance et de survie des différentes espèces, afin d'expliquer la richesse de la biodiversité végétale des forêts tropicales. Dans l'avenir, ces modèles seront utilisés pour aider à déterminer la répartition des espèces végétales le long d'un gradient climatique. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:32 | |
| En 2012, les déchets chimiques ménagers seront collectés et traités Enduits, mastics, colles, peintures, solvants, déboucheurs de canalisations... La gestion de ces déchets devra désormais être assurée par les producteurs des produits chimiques, avec la mise en place d'une filière de responsabilité élargie des producteurs. A partir du 6 janvier 2012, les déchets ménagers issus de produits chimiques (aussi appelés « déchets diffus spécifiques des ménages » DDS), entrent dans le cadre d'une filière. Estimés à 50 000 tonnes par an dont seul 1/3 environ est collecté séparément, ces déchets représentent une double menace : sanitaire, pour les professionnels en charge de leur collecte, et environnementale en matière de pollution des eaux. Le décret publié, vendredi 6 janvier 2012, au journal officiel a été élaboré en concertation avec l'ensemble des acteurs concernés : représentants des producteurs, des associations de protection de l'environnement, des associations de consommateurs, des prestataires de collecte et de traitement et des collectivités territoriales. Pour satisfaire à leurs obligations, les producteurs pourront soit s'organiser individuellement, soit s'organiser collectivement au sein d'un éco-organisme agréé. Pour obtenir ces approbations et agréments, ces structures devront respecter les conditions définies par un cahier des charges annexé à un arrêté interministériel. Ce document technique est en cours d'élaboration et devrait être publié avant la fin du premier semestre 2012 pour un agrément d'un ou plusieurs éco-organisme(s) avant la fin de l'année 2012. Il a par ailleurs été décidé :-que les modalités de collecte qui seront mises en place devront permettre de collecter gratuitement les déchets diffus spécifiques ménagers, sur tout le territoire national et de manière adaptée aux différentes zones de ce territoire ; -que, en sus des déchèteries collectant historiquement ces déchets, un dispositif complémentaire de points d'apport volontaire, pouvant inclure les points de vente, sera mis en place proposant au moins une collecte ponctuelle par semestre sur l'ensemble du territoire national ; -de fixer un objectif de croissance de 10 % par an des quantités de DDS ménagers collectés séparément ; -le développement de nouvelles potentialités de recyclage et à défaut de valorisation de ces déchets par les producteurs qui devront mettre en place un plan d'action permettant le développement des technologies retenues. Les représentants de la distribution et des fabricants de produits chimiques se sont d'ores et déjà réunis au sein d'une mission de préfiguration afin de préparer collectivement le montage de la filière début 2012. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:34 | |
| Pour la fin de la chasse commerciale aux phoquesChasse aux phoques à Newfoundland, Canada en avril 2011 À la suite de la publication récente d'un rapport scientifique détaillant les conséquences inquiétantes du changement climatique sur les phoques du Groenland, le Fonds international pour la protection des animaux (IFAW) demande l'annulation de la saison 2012 de chasse commerciale aux phoques du Canada. Compte tenu de la faible demande de produits dérivés du phoque, le gouvernement du Canada devrait prendre des mesures pour mettre un terme définitif à la chasse commerciale des phoques, dédommager les chasseurs et les accompagner dans leur reconversion professionnelle. Aujourd'hui plus que jamais, il faut protéger les phoques. Une étude récente, parue le 4 janvier 2012 dans la revue spécialisée PLoS one et réalisée conjointement par des scientifiques d'IFAW et de l'Université Duke, dresse un tableau préoccupant sur l'avenir des phoques du Groenland. Elle montre en effet que le réchauffement climatique de l'Atlantique Nord au cours des 32 dernières années a entraîné la diminution, à raison de 6 % par décennie, de la couche de glace recouvrant l'océan dans toutes les zones de reproduction des phoques du Groenland, augmentant ainsi le taux de mortalité des jeunes phoques au cours des dernières années. Les estimations du gouvernement du Canada sur le taux de mortalité des phoques du Groenland ces dernières années viennent corroborer les résultats de cette étude. Selon le ministère des Pêches et des Océans du Canada (MPO), 80 % des bébés phoques nés en 2011 seraient morts du fait du rétrécissement de la couche de glace. Celle-ci a atteint en 2010 le plus bas niveau jamais enregistré, avec une surface inférieure d'environ 80 % aux niveaux attendus. En mars 2007, l'état désastreux des glaces dans le golfe du Saint-Laurent a conduit les scientifiques du MPO à prédire chez les jeunes phoques au sud du golfe un taux de mortalité extrêmement élevé, « pouvant avoisiner les 100 % ». Outre la baisse du taux de survie des bébés phoques, le taux de reproduction a lui aussi considérablement chuté, ce qui signifie que des classes d'âge entières de phoques risquent de disparaître des prochaines études de population. Les prévisions d'Environnement Canada pour 2012 ne sont guère plus encourageantes : la diminution de la superficie des glaces devrait se poursuivre au même rythme alarmant cette année. Ces vives inquiétudes interviennent alors que les perspectives économiques sont toujours aussi moroses pour les produits dérivés du phoque : hormis les produits inuits, le marché communautaire européen ne laisse entrer aucun produit dérivé du phoque. De plus, la Russie, la Biélorussie et le Kazakhstan ont récemment interdit l'importation de peaux de phoques du Groenland, amputant de 90 % les exportations canadiennes. L'entente sino-canadienne sur la vente de viande de phoque n'est toujours pas entrée en vigueur, et quelque 400 000 peaux de phoque n'ont toujours pas été écoulées. Le nombre estimé de personnes employées par la chasse commerciale des phoques a également baissé au cours des dernières années, passant d'environ 5 600 en 2006 à seulement 225 en 2011. Toutefois, avec l'accélération de la course aux bénéfices, la cruauté et les méthodes d'abattage inhumaines demeurent monnaie courante dans l'industrie du phoque. Par conséquent, il est temps que le gouvernement canadien reconnaisse que la chasse commerciale des phoques n'est ni viable, ni utile, et qu'aucun indicateur ne porte à croire qu'elle le deviendra un jour. À long terme, le maintien du subventionnement de cette industrie ne profitera pas aux pêcheurs. L'aide du gouvernement à l'industrie de la chasse au phoque devrait plutôt prendre la forme d'un plan de restructuration et de transition visant à faire cesser la chasse aux phoques commerciale et à dédommager les personnes impliquées dans le processus. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:46 | |
| 2012 : à seulement 5 minutes de la fin du monde 2012 est sans aucun doute l'année contemporaine la plus emblématique de la fin du monde. Si les rumeurs farfelues peuvent être évincées facilement, force est de constater que les menaces qui pèsent sur l'humanité sont réelles. Guerre nucléaire et changements climatiques font partie des risques planétaires les plus inquiétants comme le symbolise l'horloge de l'Apocalypse qui vient d'être avancée à 23 h 55 : il ne reste plus que 5 minutes avant la fin de notre civilisation. L'horloge de l'Apocalypse ou de la fin du monde (Doomsday Clock) fut créée en 1947, peu de temps après les bombardements atomiques américains sur le Japon, et est régulièrement mise à jour depuis, par les membres du Bulletin des scientifiques atomistes, (BAS) basé à l'Université de Chicago. Allison Macfarlan, présidente de cette association qui ne compte pas moins de 18 prix Nobel a déclaré pour 2012 que l'horloge "indique maintenant cinq minutes avant minuit". Une horloge conceptuelle pour estimer le temps qu'il nous reste avant la fin du mondeL'horloge de l'Apocalypse est une horloge virtuelle qui décompte le nombre de minutes qu'il reste avant minuit (l'Apocalypse). Elle est révisée chaque année par les dirigeants du BAS, principalement en fonction de la géopolitique nucléaire : course aux armements, traités d'interdiction, tensions… La menace d'une guerre nucléaire planétaire a très largement contribué à diminuer le nombre de minutes qu'il restait à l'humanité avant de sombrer. Depuis 2007, ce terrible compte à rebours intègre les changements climatiques et les nouveaux développements en matière de sciences de la vie, menaces qui pourraient compromettre de manière irrévocable l'avenir de l'humanité. Si 1953 détient le record avec seulement 2 minutes avant minuit, la situation s'est fortement dégradée depuis le début des années 1990 où l'horloge était fixée à 23 h 43, soit 17 minutes avant la fin du monde. L'échelle verticale représente le temps qu'il reste sur cette horloge jusqu'à l'heure fatidique de minuit. Les périodes rouges représentent les périodes de tensions internationales pendant lesquelles on considère que l'heure de la fin du monde approche. À l'inverse, les périodes en bleu représentent des périodes de détente pendant lesquelles l'heure de la fin du monde semble s'éloigner. À sa création, en 1947, l'horloge indiquait 23 h 53. Cette pendule est avant tout une alerte, un moyen clair et compréhensible par tous de considérer l'urgence des décisions. 2012 : l'horloge de l'Apocalypse a été avancée d'une minute à cause des changements climatiques et du nucléaireVu les progrès mitigés sur la réduction des armements nucléaires dans le monde et l'inaction manifeste face au réchauffement climatique, les scientifiques du BAS ont avancé l'horloge de l'Apocalypse d'une minute : 2012 se situe à 23h55, à 5 minutes de la fin du monde. Dans une déclaration officielle émise le 10 janvier 2012, le BAS a déclaré : "Il est minuit moins cinq. Il y a deux ans, il est apparu que les dirigeants du monde pourraient répondre aux menaces mondiales auxquelles nous faisons face. Or, dans de nombreux cas, cette tendance ne s'est pas poursuivie ou s'est inversée. Pour cette raison, le Bulletin des scientifiques atomistes a avancé l'horloge d'une minute plus près de minuit, de retour à l'heure de 2007." L'humanité est plus que jamais confrontée à un monde qui change, loin de l'espoir suscité par l'entrée dans le XXIème siècle. En effet, la course à l'armement nucléaire a été ravivée avec le programme iranien, les tensions géopolitiques s'exacerbent, le protocole de Kyoto reste un échec et aucune décision forte n'a été prise pour diminuer les émissions de gaz à effet de serre tandis que les sources d'énergie renouvelables et sûres ne sont pas encore suffisamment exploitées. Finalement, les décideurs du monde entier ne parviennent pas à sortir du modèle « business as usual » qui favorise les décisions à court terme et hypothèque notre avenir. Le changement climatique réclame des mesures urgentesAllison Macfarlane, membre du bureau du BAS et de la commission Blue Ribbon sur l'avenir du nucléaire américain et professeur agrégé à l'université George Mason a déclaré : "La communauté mondiale est probablement près d'un point de non retour dans ses efforts pour empêcher des catastrophes suite aux changements de composition de l'atmosphère. L'Agence Internationale de L'Energie estime que, à moins que nos sociétés commencent à mettre en place des alternatives à nos technologies qui émettent du carbone dans les 5 ans, le monde est voué à un climat plus chaud, des intempéries, des sécheresses, des famines, des pénuries d'eau, une augmentation du niveau des océans, la disparition de nations insulaires, et l'augmentation de l'acidification des océans. Les centrales thermiques qui exploitent des combustibles fossiles qui seront construites en 2012-2020 produiront de l'énergie et des émissions de gaz à effet de serre pendant 40 à 50 ans. C'est pourquoi, les actions prises dans ces prochaines années nous placerons sur un chemin qui sera impossible à rediriger. Même si les dirigeants politiques décident à l'avenir de réduire la dépendance aux énergies fossiles, il sera trop tard." Ce constat peu encourageant conduit le BAS à émettre une liste de recommandations qui réclament « une attention urgente » dont notamment : Ratifier et respecter les traités internationaux sur les changements climatiques afin de réduire les émissions de dioxyde de carbone via des incitations fiscales, et des régulations harmonisées. Transformer l'industrie électrique au charbon de l'économie mondiale en démantelant les centrales thermiques âgées et en développant la séquestration de carbone émis par les nouvelles. Accroître considérablement les investissements privés et publics dans les énergies alternatives aux combustibles fossiles comme l'énergie solaire et éolienne, ainsi que dans les technologies de stockage d'énergie, tout en partageant et propageant les résultats et découvertes dans le monde entier. Enfin, la récente catastrophe nucléaire de Fukushima soulève de nombreuses questions sur la sécurité de cette source d'énergie dans le monde. Alors que l'Allemagne, l'Italie et la Suisse ont depuis renoncé à l'énergie nucléaire, d'autres pays ont toujours l'intention d'acquérir des réacteurs nucléaires civils comme le Vietnam, les Emirats Arabes Unis et la Turquie. Au Japon, seulement huit des 54 réacteurs fonctionnent actuellement : maintenance, sécurisation, dysfonctionnements et hostilité de l'opinion publique ne permettent pas un retour à la normale. Aux États-Unis, l'accroissement des coûts de sécurité suite à la catastrophe de Fukushima font du nucléaire civil une énergie trop onéreuse pour être une alternative crédible face au gaz naturel et autres combustibles fossiles. Le monde reste sous la menace du développement des armes nucléairesLe programme nucléaire iranien, toujours en développement, représente la menace la plus tangible d'un conflit nucléaire régional. De plus, l'utilisation d'armes nucléaires dans des conflits armés reste particulièrement alarmant dans la péninsule coréenne mais aussi en Asie du Sud-est. Jayantha Dhanapala, membre du BAS et ancien sous-secrétaire général aux affaires de désarmement (1998-2003) a déclaré : "Malgré la promesse d'un nouvel esprit de coopération internationale et la réduction des tensions entre les Etats-Unis et la Russie, le BAS estime que le chemin vers un monde libéré des armes nucléaires n'est pas clair du tout, et que le leadership est un échec. La ratification en Décembre 2010 du nouveau traité START entre la Russie et les États-Unis a renversé la dérive des relations américano-russes sur le nucléaire. Cependant, l'échec, dans le cadre du Traité d'interdiction complète des essais nucléaires, par les dirigeants des États-Unis, de la Chine, de l'Iran, de l'Inde, du Pakistan, de l'Égypte, d'Israël, et de la Corée du Nord de mettre un terme à la production d'armes nucléaires, continue de laisser le monde face au risque de la poursuite du développement des armes nucléaires. La planète compte encore plus de 19 000 armes nucléaires, de quoi détruire la population mondiale plusieurs fois." L'hiver nucléaire est la conséquence planétaire la plus souvent avancée pour mettre en garde contre les conséquences planétaires d'une guerre atomique massive. Selon cette vision, la Terre serait alors enveloppée d'un écran de poussières radioactives empêchant l'énergie solaire de parvenir jusqu'à nous pendant une durée assez longue, ce qui ferait disparaître l'espèce humaine de notre planète. En effet, sans l'énergie du soleil, les températures baisseraient et la photosynthèse serait compromise : les rendements agricoles s'effondreraient tandis que l'approvisionnement énergétique serait sollicité outre mesure pour chauffer les logements. Bien qu'il soit certain qu'une guerre nucléaire serait sans aucun doute dévastatrice, le degré des dommages imposés à la Terre en général reste sujet à controverse. En effet, l'hiver nucléaire reste une hypothèse, une thèse développée par des pacifistes pour empêcher à tout prix l'escalade... Une "désinformation" utile ? Dans tous les cas, ce constat peu encourageant conduit le BAS à émettre une liste de recommandations qui réclament « une attention urgente » dont notamment : Ratification par les États-Unis et la Chine du Traité d'interdiction complète des essais nucléaires. Avancements sur un Traité sur l'interdiction de la production des matières fissiles (Fissile Material Cutoff Treaty). Mettre en œuvre la gestion multinationale du cycle du combustible nucléaire civil avec des normes strictes sur la sécurité. Non-prolifération des armes nucléaires, y compris l'élimination du plutonium de retraitement. Renforcement de la capacité de l'Agence internationale de l'énergie atomique afin de superviser les matériaux nucléaires, le développement de la technologie, et de son transfert. Sans aucun doute, l'humanité vit un tournant. Les alertes sont nombreuses - l'horloge de l'Apocalypse en fait partie - elles émanent bien souvent de scientifiques et d'observateurs et sont partagées avec dépit par de très nombreux citoyens. Pour autant, le monde semble figé, ancré dans ses querelles puériles et futiles : l'indécision et l'inaction politique risquent bien de faire sonner les douze coups de minuits, pour une dernière fois... Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:48 | |
| L'atmosphère terrestre est en expansion L'atmosphère terrestre s'étend : c'est l'une des conséquences du réchauffement climatique causé par les émissions de gaz à effet de serre, d'après les publications des chercheurs du Centre Wegener pour le Climat et le Changement Global ainsi que de l'Institut de Physique de l'Université de Graz. Des mesures par signaux GPSA l'aide de données de haute précision obtenues par mesures de signaux GPS après traversée de l'atmosphère, les scientifiques de Graz (en Styrie - Autriche) ont démontré l'impact de l'Homme sur les couches d'air proches de la surface terrestre. Depuis les années 1990, les zones de pression dans la troposphère supérieure se sont élevées de 15 à 20 mètres par décennie. Le réchauffement climatique dans la couche météorologique, qui s'étend jusqu'à 16 kilomètres d'altitude, implique que l'air s'est dilaté et que les surfaces de pression constante se situent désormais plus haut. Le réchauffement climatique entraîne, pour le climat mondial, des changements à de nombreux niveaux - par exemple, la circulation des vents ou encore la répartition des précipitations. D'après les experts de Graz, cette expansion de l'atmosphère est définitivement une conséquence des émissions humaines de gaz à effet de serre. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:52 | |
| Il y aurait des milliards de planètes de masse similaire à la Terre dans notre galaxieVue d'artiste illustrant qu'en moyenne, il existe au moins une planète par étoile dans la Voie Lactée et que les planètes de faible masse (bleutées) sont plus nombreuses que les planètes géantes gazeuses (orangées). Une équipe internationale à laquelle participent trois astronomes de l'Observatoire Européen Austral (ESO), a utilisé la technique des microlentilles gravitationnelles afin d'évaluer si les planètes sont des objets courants dans la Voie Lactée. Après une étude de six ans consacrée à l'observation de millions d'étoiles, cette équipe a conclu que les planètes en orbites autour des étoiles étaient la règle et non l'exception. Le résultat de cette étude a été publié dans la revue Nature du 12 janvier 2012. Au cours des 16 dernières années, les astronomes ont détecté et confirmé la présence de plus de 700 exoplanètes(1). Ils ont également commencé à étudier les spectres (eso1002) et les atmosphères (eso1047) de ces mondes. Alors que l'étude des propriétés individuelles des exoplanètes est indéniablement indispensable, une question bien plus basique reste en suspend : à quel point les planètes sont-elles des objets courants dans la Voie Lactée ? La plupart des exoplanètes connues actuellement ont été trouvées par la détection des effets de leur attraction gravitationnelle sur leur étoile ou par la détection du moment où la planète passe devant son étoile, faisant alors diminuer de manière infime sa luminosité. Ces deux techniques sont plus sensibles aux planètes massives ou proches de leur étoile, ou les deux. De ce fait, de nombreuses planètes ne peuvent pas être ainsi détectées. Une équipe internationale d'astronomes a cherché des exoplanètes en utilisant une méthode totalement différente – les microlentilles gravitationnelles. Cette méthode permet de détecter des planètes dont les masses couvrent une large gamme et qui sont situées bien plus loin de leur étoile. Arnaud Cassan (Institut d'Astrophysique de Paris), premier auteur de l'article publié dans Nature, explique : « Nous avons cherché les preuves de la présence d'exoplanètes par la méthode des microlentilles au cours de six années d'observations. Les données que nous avons obtenues montrent de manière remarquable que les planètes sont plus courantes que les étoiles dans notre galaxie. Nous avons également trouvé que les planètes les moins massives, comme les superTerres ou les Neptunes peu massifs, doivent être plus courantes que les planètes les plus massives. » Les astronomes ont utilisé des observations fournies par les équipes PLANET(2) et OGLE(3), dans lesquelles les exoplanètes sont détectées du fait que le champ gravitationnel de leur étoile, combiné avec celui de planètes potentielles, agit comme une lentille, amplifiant la lumière d'une étoile d'arrière-plan. Si l'étoile qui agit comme une loupe a une planète en orbite autour d'elle, la planète peut avoir un effet détectable sur l'augmentation de luminosité de l'étoile d'arrière-plan. Jean-Philippe Beaulieu (Institut d'Astrophysique de Paris), responsable de la collaboration PLANET ajoute : « La collaboration PLANET a été mise en place pour faire le suivi d'événements de microlentilles avec un réseau de télescopes situés tout autour du globe terrestre dans l'hémisphère sud, de l'Australie et de l'Afrique du Sud au Chili. Les télescopes de l'ESO ont fortement contribué à ces observations. » Les microlentilles constituent un outil très puissant ayant la capacité de détecter des exoplanètes qui ne pourraient être trouvées autrement. Mais il faut toutefois avoir la chance de tomber sur un alignement très rare de l'étoile d'arrière-plan et de l'étoile « loupe » pour qu'un événement de microlentille puisse être vu. Et, il faut également bénéficier d'une circonstance favorable pour détecter une planète au cours d'un tel événement : il faut en effet que le plan de l'orbite de la planète soit vu par la tranche. Bien que pour ces raisons la détection d'une planète par cette méthode ne soit pas évidente, trois exoplanètes ont effectivement été trouvées en analysant les données obtenues par effet de microlentilles au cours de six années d'observation, par les programmes PLANET et OGLE : une super-Terre(4) et des planètes de masses similaires à celles de Neptune et de Jupiter. D'après les standards de la méthode des microlentilles, c'est un résultat impressionnant. En détectant trois planètes, soit les astronomes ont eu une chance exceptionnelle et ont touché le jackpot, malgré une probabilité énorme de passer à côté de ces planètes avec cette méthode, soit les planètes sont tellement abondantes dans la Voie Lactée que c'était pratiquement inévitable(5). Les astronomes ont alors combiné les informations concernant les trois exoplanètes confirmées avec celles de sept autres exoplanètes détectées au cours d'une précédente étude ainsi qu'avec le nombre considérable de « non-détections » constaté dans ce volume de données représentant six ans d'observation – ces « non-détections » sont tout aussi importantes pour l'analyse statistique et sont bien plus nombreuses. La conclusion est qu'une étoile étudiée sur six héberge une planète dont la masse est semblable à celle de Jupiter, la moitié des étoiles ont des planètes de la masse de Neptune et deux tiers ont des super-Terres. Le programme d'observation permet de détecter des planètes situées à une distance de leur étoile comprise entre 75 millions de kilomètres et 1,5 milliard de kilomètres (dans le système solaire cet intervalle comprendrait toutes les planètes de Vénus à Saturne) et ayant une masse allant de cinq masses terrestres à 10 fois celle de Jupiter. La combinaison de tous les résultats laisse fortement supposer que le nombre moyen de planètes en orbite autour d'une étoile est plus grand que un. Les planètes sont donc la règle plutôt que l'exception.« Nous avions l'habitude de penser que la Terre doit être unique dans notre Galaxie. Mais, maintenant, il semble qu'il y ait littéralement des milliards de planètes ayant une masse similaire à celle de la Terre en orbite autour des étoiles dans la Voie Lactée, » conclut Daniel Kubas, coauteur principal de cet article. Notes1 La mission Kepler est en train de découvrir un nombre considérable de « candidats exoplanètes » non compris dans ce nombre. 2 Probing Lensing Anomalies NETwork. Plus de la moitié des données du programme d'observation PLANET utilisée dans cette étude provient du télescope Danois de 1,54 mètre de l'Observatoire de La Silla de l'ESO. 3 Optical Gravitational Lensing Experiment. 4 Une Super-Terre a une masse comprise entre deux et dix fois celle de la Terre. Jusqu'à présent, 12 planètes détectées par la méthode des microlentilles ont été annoncées, utilisant des techniques d'observations variées. 5 Les astronomes ont observé des millions d'étoiles à la recherche d'événements de microlentilles. Seulement 3247 événements de ce type ont été détectés entre 2002 et 2007 car l'alignement précis nécessaire est vraiment peu courant. Les résultats statistiques ont été déduits des détections et des non-détections dans un échantillon représentatif de 440 courbes de lumières. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:56 | |
| Dénier l'existence de sentiments chez les animaux aide à les manger Des chercheurs australiens viennent de démontrer que seul le déni de l'existence de sentiments chez les animaux de boucherie permet à l'humain de manger de la viande. Toutefois, la vie émotionnelle des vaches, agneaux, veaux et autres cochons a maintes fois été prouvée. Vous souvenez-vous de Jeannot lapin, de Joseph le petit agneau ou autre compagnon de jeu quand vous étiez petit ? L'idée qu'un jour ils pourraient finir à la casserole vous était insupportable. C'était pourtant bien souvent le cas. En le découvrant, certains enfants se sont promis, malgré les menaces de ne pas sortir de table avant d'avoir fini leur assiette, de ne plus jamais manger de lapin, ou d'agneau, l'animal rappelant trop la douloureuse séparation ou faisant encore résonner dans la mémoire les hurlements de peur du compagnon à quatre pattes en partance pour l'abattoir. En devenant adultes, la grande majorité des humains a toutefois oublié cette compassion enfantine, allant même jusqu'à nier l'existence de tout sentiment chez les animaux, en particulier chez ceux qui finissent dans leur assiette. C'est en effet ce que viennent de démontrer des scientifiques australiens : pour manger de la viande, l'homme s'auto-persuade que l'animal ne ressent pas, ne pense pas. Sans ce déni, il ne pourrait dévorer steak ou côtelette. Trois tests, un même résultatSelon les résultats de l'étude menée par un groupe de psychologues sur un panel d'étudiants, les trois tests réalisés aboutissent à ce même résultat. Le premier test demandait, dans un premier temps, de noter sur une échelle de 1 à 7 les capacités sensorielles et mentales de 32 mammifères, oiseaux, poissons et reptiles. Ensuite, les étudiants devaient indiquer s'ils mangeraient les animaux ainsi notés. Résultat : plus l'animal était crédité de sentiments, moins le panel était prêt à le dévorer. Dans le deuxième test, les étudiants ont été invités à observer deux photos avec des légendes différentes. L'une décrivait un animal destiné à une vie paisible dans un cadre naturel, l'autre annonçait la mort dans l'abattoir et la fin de l'animal sur les étals du supermarché. Pour chacune, ils devaient noter, toujours sur une échelle de 1 à 7, la capacité de la vache ou du mouton de la photo à ressentir. L'animal promis à la boucherie a été moins bien noté. Enfin, le dernier exercice a requis le même type de notation à des étudiants prévenus qu'ils allaient ensuite « déguster », dans le cadre d'un test consommateur, pour certains de la viande, pour d'autres des fruits. Ceux qui se sont préparés à manger de la viande ont moins bien noté les capacités sensorielles des animaux que les croqueurs de pommes. Ne plus se voiler la facePourtant, qu'on le veuille ou non, qu'on se mente ou pas, le fait est que les animaux ressentent douleur, peur, plaisir, colère, faim... Alors que Darwin le déclarait déjà en son temps, toutes les études menées sur la sentience(1) s'accordent aujourd'hui à dire que l'animal est un être conscient et sensible qu'il soit animal de ferme, animal sauvage, ou encore animal domestique. Même chez les invertébrés, la science a démontré « un potentiel de douleur et de souffrance ». Changer notre comportementL'humain du XXIème siècle ne peut plus nier l'évidence et il est appelé à changer son regard et son comportement envers les animaux. La viande qui se retrouve dans son assiette provient d'un être vivant qui a développé des amitiés avec ses congénères, vécu des amours, souffert sous la violence, qui a eu peur devant la mort. One Voice, qui recommande de réduire au maximum sa consommation de viande, voire de la remplacer totalement par des protéines végétales, a d'ailleurs publié un petit guide invitant à découvrir la vie « intime » des ovins et des bovins. S'appuyant sur les dernières découvertes en termes de sentience animale, le lecteur y apprend, par exemple, que les moutons sont « capables de résoudre des problèmes complexes » et que les vaches sont « capables de sentiments très forts y compris envers les humains ». Des capacités bien loin du simple bout de viande. NotesSentience « [...] en français il nous manque un mot pour désigner la chose la plus importante du monde, peut-être la seule qui importe : le fait que certains êtres ont des perceptions, des émotions, et que par conséquent la plupart d'entre eux (tous ?) ont des désirs, des buts, une volonté qui leur sont propres. Comment qualifier cette faculté de sentir, de penser, d'avoir une vie mentale subjective ? Les Anglo-Saxons ont le nom sentience (et l'adjectif sentient) pour désigner cela [...]. » À la suite d'Estiva Reus dans Les Cahiers antispécistes (CA n° 26, novembre 2005), One Voice utilisera ce néologisme pour combler la lacune de la langue française... Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 21:59 | |
| 2011 : les catastrophes naturelles entraînent des pertes économiques record L'année 2011 restera dans les annales des catastrophes naturelles comme une année noire, marquée par des séismes dévastateurs et de catastrophes climatiques. On estime à environ 380 milliards de dollars le montant du préjudice économique au niveau mondial, en hausse de près de 75% par rapport à 2005, qui, à 220 milliards de dollars, détenait le précédent record. Les séismes qui ont frappé le Japon en mars et la Nouvelle Zélande en février, à eux seuls représentent près des deux tiers des dommages, dont 105 milliards de dollars étaient assurés (légèrement plus que les 101 milliards assurés en 2005). Pour Torsten Jeworrek, membre du Conseil d'Administration de Munich Re, Responsable Monde des activités de ré-assurance : "heureusement, une série de catastrophes naturelles aussi graves que celles des dernières années est extrêmement rare ; elle survient tous les 1000 ans (ou plus) dans les zones sinistrées. Malgré leur importance, les assureurs sont capables de faire face à ces événements et de remplir leur mission qui est de couvrir ces sinistres et d'aider les sociétés à y faire face en prenant des mesures préventives." Les chiffres clés des catastrophes naturelles en 2011Avec quelque 820 catastrophes naturelles de par le monde, les chiffres de 2011 s'inscrivent dans la moyenne des dix dernières années. 90% des catastrophes naturelles enregistrées sont climatiques. En revanche, en 2011, les séismes et non les catastrophes climatiques sont responsables des plus gros dégâts : les deux tiers des pertes économiques et environ la moitié des couvertures du risque de catastrophe naturelle sont imputables aux séismes. 2011 est donc une année atypique au plan financier (au cours des trois dernières décennies, les événements géophysiques représentent en moyenne moins de 10% des dommages assurés) et au plan géographique (près de 70% des pertes économiques de l'année concernent l‘Asie). Quelque 27000 personnes ont été tuées par les catastrophes naturelles de 2011. Ce chiffre ne tient pas compte des victimes innombrables de la famine due à la pire sécheresse qu'ait connue la corne d'Afrique depuis longtemps, entraînant une catastrophe humanitaire sans précédent, exacerbée par la guerre civile et l'instabilité politique. Le tremblement de terre de Tohoku le 11 marsLe tremblement de terre d'une magnitude de 9.0 qui a frappé le Japon le 11 mars à Tohoku, à l'est du port de Sendai dont l'épicentre se situe à 130 km au large et à 370 km au nord de Tokyo est le plus violent jamais enregistré au Japon. Les secousses elles-mêmes n'ont pas été les plus graves, du fait des codes de construction très stricts en vigueur dans ce pays. Mais le séisme a déclenché un terrible tsunami. La vague a dévasté toute la côte au nord-est de l'île de Honshu. Dans certaines baies, la vague a pu atteindre 40 mètres. Des villes entières, des routes et des lignes de chemin de fer ont été balayes, des centaines de milliers de maisons détruites. Quelques 16 000 personnes sont mortes malgré des jetées très protectrices et un système d'alerte anticipé très efficace. Sans eux, le bilan aurait été bien plus grave. Le nord-est du Japon, vulnérable aux tsunamis a été, selon les annales frappé d'un séisme et d'une vague de cette ampleur en 869. Le tsunami a sérieusement endommagé plusieurs unités de la centrale nucléaire de Fukushima 1. Une zone de plusieurs kilomètres autour de la centrale restera inhabitable pendant très longtemps. Et même si l'on exclut les conséquences de l'accident nucléaire, les pertes économiques liées au tremblement de terre et au tsunami se montent à 210 milliards de dollars – ce qui en fait la catastrophe naturelle la plus coûteuse de l'histoire. La part des actifs assurés dans cette catastrophe pourrait dépasser les 40 milliards de dollars. La faille géologique à l'origine du tremblement de terre n'est que de 450 km. Mais au niveau de la fracture les fonds marins se sont déplacés de 30 à 40 mètres. Les experts estiment que des tremblements de terre de cette magnitude arrivent tous les 500 à 1 500 ans. La secousse principale a été suivie par des milliers de répliques, dont la plus forte, 40 minutes après la plus forte, a atteint 7,9 sur l'échelle de Richter. Le tremblement de terre de Christchurch le 22 févrierAvant le tsunami qui a frappé le Japon, un tremblement de terre de magnitude 6,3 a eu lieu à Christchurch, en Nouvelle Zélande, le 22 février 2011. Ce qui est particulièrement frappant c'est qu'un autre tremblement de terre, d'une magnitude de 7,1 avait frappé Christchurch à peine six mois plus tôt. Mais dans le cas de l'événement du 22 février, les vagues engendrées par le séisme ont été amplifiées en rencontrant un volcan éteint, décuplant la force destructrice normalement associée à tremblement de terre de cette magnitude. L'épicentre se trouvait à faible profondeur à quelques kilomètres du centre de la ville. Les dégâts furent très importants. Beaucoup de bâtiments anciens se sont effondrés, et même des plus récents, malgré des normes de construction très strictes. D'ailleurs, certains quartiers résidentiels ne pourront pas être reconstruits. Les pertes économiques s'élèvent à approximativement de 16 milliards de dollars dont environ 13 milliards sont couverts par une police d'assurance. La veille de Noël, la terre a tremblé à nouveau à Christchurch. Une douzaine de personnes ont été blessées lors des trois fortes secousses. Cependant, en termes de gravité, ce tremblement de terre était moins sérieux que celui de février, avec des charges considérablement moins lourdes pour les assureurs. Le Professeur Peter Höppe, qui dirige le département de recherche sur les risques géologiques chez Munich Re commente : "Bien qu'on ait du mal à le croire au vu des événements récents, la probabilité d'occurrence des séismes n'a pas augmenté. Cependant, de tels séismes doivent nous faire prendre conscience que le choix d'emplacement des villes doit être mûrement pesé à la lumière de ces risques, plus particulièrement en ce qui concerne certaines constructions, et tout particulièrement les centrales nucléaires. En outre, il faut encore renforcer les normes de construction dans les zones exposées aux séismes, pour faire en sorte que les bâtiments non seulement ne s'effondrent pas de manière à sauver des vies mais encore soient susceptibles d'être réhabilités après le séisme." Les inondations en ThaïlandeLes inondations en Thaïlande sont la catastrophe climatique la plus grave de l'année 2011, qui en a compté de nombreuses autres. Ces inondations ont été déclenchées par des pluies diluviennes ayant commencé au printemps et qui se sont renforcées en automne. La plaine centrale de Thaïlande, dont le niveau est bas par rapport à la mer, et où se trouve la capitale Bangkok, est souvent inondée pendant la saison des pluies, qui va de mai à octobre. Selon les pouvoirs publics, les inondations de 2011 sont les plus graves depuis environ 50 ans. Les experts présument que la Niña, un phénomène naturel connu, a été un facteur aggravant, puisqu'il amplifie la saison des pluies. Quelques 800 personnes ont péri dans ces inondations. Non seulement des centaines de milliers d'habitations ont-elles été détruites, mais les terres agricoles ont été inondées, mais aussi sept grandes régions industrielles appartenant à des capitaux japonais ont été endommagées. Un grand nombre de fabricants clé de composants électroniques ont été affectés, interrompant la production et perturbant les activités de leurs clients. Environ 25 % de la production mondiale de composants pour disques durs a été directement affectée par les inondations. Les pertes économiques se chiffrent en dizaines de milliards de dollars, et ces inondations sont de loin la catastrophe naturelle la plus coûteuse que la Thaïlande ait jamais connue. De multiples tempêtes mais relativement peu d'ouragans en Amérique du NordLa saison des tornades 2011 aux Etats-unis a été tout particulièrement mouvementée dans le centre ouest et le sud des Etats-Unis d'Amérique. Une vague de tempêtes et de nombreuses tornades ont causé quelque 46 milliards de dollars de dégâts, dont 25 milliards étaient assurés. Ainsi, les dommages assurés étaient deux fois plus importants que pour la précédente année record qui était 2010. La vague d'événements climatiques extrêmes est probablement largement liée au phénomène de la Niña. Cette oscillation climatique naturelle fait que les fronts d'air frais venus du nord-ouest descendent plus fréquemment vers les zones du centre où ils rencontrent l'air humide et doux du sud. Dans ces conditions, des perturbations climatiques très fortes se produisent beaucoup plus souvent que dans les années normales. Les dégâts occasionnés par les ouragans de l'Atlantique nord ont été modérés. Pourtant, comme en 2010, ceci est purement dû au hasard. Le nombre de cyclones tropicaux enregistré est de 18 pour la saison, en légère hausse par rapport à la moyenne de long terme (11) et également en hausse par rapport à la moyenne pour la phase climatique douce actuelle. On constate un plus grand nombre d'ouragans depuis la moitié des années 1990 (15). Le nombre de tempêtes classées en ouragans (6) correspond à la moyenne à long terme. Néanmoins, le nombre de cyclones tropicaux ayant atteint les terres, particulièrement sur les côtes états-uniennes, est très bas. Seulement trois tempêtes ayant été nommées, dont Irène, ont touché les Etats-Unis. Irène a causé 15 milliards de dollars de dégâts aux Carraïbes, dont 7 milliards étaient assurés. Autre élément nouveau et inattendu de 2011, l'agence météo états-unienne, la NOAA, a pour la première fois classé une dépression méditerranéenne en tempête. La dépression « Rolf » s'est formée le 3 novembre. Elle résultait d'un front d'air froid au-dessus de la mer encore tiède à 20°C. Avec des pointes à 120 km/h, la tempête "01M" a atteint la Côte d'Azur, s'accompagnant de pluies diluviennes avant de se disperser. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 22:03 | |
| Avis du Haut Conseil des Biotechnologies sur la pomme de terre OGM "Amflora"Pomme de terre génétiquement modifiée "Amflora" Saisi le 11 mars 2010 par le Ministère de l'alimentation, de l'agriculture et de la pêche, le Haut Conseil des biotechnologies (HCB) a rendu son avis sur le dossier "Amflora". Cette pomme de terre, développée par l'entreprise BASF, a été génétiquement modifiée de façon à produire un amidon (ou fécule de pomme de terre) enrichi en amylopectine, composant utilisé en industrie, notamment pour la fabrication de papier, de colles, d'adhésifs, etc. La pomme de terre Amflora n'est pas destinée à l'alimentation humaine. Elle est essentiellement destinée à l'industrie papetière. Toutefois, les co-produits de la transformation industrielle de l'amidon (pulpes) pourraient être utilisés dans l'alimentation animale. La mise en culture et l'utilisation d'Amflora dans l'industrie et dans l'alimentation animale ont été autorisées le 2 mars 2010 par la Commission européenne(1). L'avis rendu par le HCB(2) est composé d'un avis du Comité scientifique (CS), et d'une recommandation du Comité économique, éthique et social (CEES). L'avis du comité scientifiqueLe Comité Scientifique, sous la présidence de Jean-Christophe Pagès, a analysé les impacts de la pomme de terre Amflora sur l'environnement et la santé humaine ou animale : Bien que la pomme de terre Amflora ne soit pas destinée à la consommation humaine, une évaluation des impacts sur la santé humaine et animale a été réalisée, en raison de l'utilisation possible de sous-produits dans l'alimentation animale et, fortuitement, dans l'alimentation humaine. Les études de toxicologie entreprises n'ont pas identifié de risque majeur lié à la consommation de ce végétal. Le CS note que les analyses statistiques contenues dans le dossier ne permettent pas de certifier que le risque d'un effet biologiquement significatif puisse être détecté. Le CS a en particulier analysé l'impact de la présence d'un gène de résistance à des antibiotiques de la famille des aminoglycosides, molécules utilisées en médecine vétérinaire et humaine. Dans son analyse le CS a examiné les recommandations de l'OMS (Organisation Mondiale de la Santé) et de l'EMEA (Agence de la Médecine Européenne) guidant l'utilisation médicale et vétérinaire de ces molécules, la possibilité de transfert du gène porté par la plante transgénique vers les bactéries du sol, la possibilité d'expression d'un gène éventuellement transféré et la fréquence naturelle des gènes de résistance aux aminoglycosides. Considérant la présence naturelle de cette résistance dans l'environnement et dans la flore bactérienne de l'homme et des animaux, le CS a conclu que, si un transfert est théoriquement possible avec une très faible probabilité, celui-ci ne modifierait pas les équilibres des populations bactériennes existantes. La présence de ce transgène dans la pomme de terre Amflora ne constitue donc pas un risque singulier pour l'environnement et la santé. Les risques de dissémination de la pomme de terre Amflora sont limités du fait de la biologie de la pomme de terre (multiplication par voie végétative, faible dispersion du pollen, absence d'espèces sauvages interfécondes en France, survie improbable hors conditions agricoles), et des caractéristiques de la variété Amflora (peu fertile, sensible au mildiou). La culture de cette pomme de terre ne constituerait pas de risque particulier pour l'environnement. Le CS recommande l'adoption de mesures appropriées pour minimiser le risque résiduel de dissémination et assurer la coexistence des filières lors de l'obtention des plants et la culture des pommes de terre. Les plans de surveillance post-commercialisation devraient être adaptés selon les préconisations de l'avis du CS. La recommandation du comité économique, éthique et socialDe son côté, s'interrogeant sur les impacts économiques, sociaux et éthiques potentiels présentés par cette pomme de terre, le CEES, présidé par Christine Noiville : Diverge sur le sort à réserver, dans la décision politique, au gène marqueur de résistance aux antibiotiques. Certains estiment que, du fait du manque de manque de connaissances sur la microbiologie du sol, une précaution maximale devrait être adoptée sous forme d'interdiction d'Amflora ; l'autorisation de cette pomme de terre véhiculerait pour eux un message négatif au regard des efforts de prévention des résistances aux antibiotiques. D'autres invitent à prendre acte de l'absence de risque à laquelle concluent les scientifiques et observent que le principe de précaution n'implique en rien de parvenir à un hypothétique risque zéro. Observe que dans le contexte économique actuel, la pomme de terre Amflora ne présente qu'une utilité limitée pour les acteurs des filières féculière et papetière françaises. Le CEES note certes que cette pomme de terre constitue une avancée technique pour la production industrielle de fécule, bien que des variétés non transgéniques très bientôt sur le marché offrent également une teneur accrue en amylopectine, mais qu'à ce jour, ni la filière féculière ni l'industrie papetière, qui paraissent se satisfaire des amidons actuellement disponibles, n'envisagent d'utiliser Amflora. Si quelques membres estiment que l'autorisation de cette pomme de terre pourrait constituer un signal favorable à l'innovation, notamment pour stimuler de nouveaux débouchés en chimie du végétal, le CEES estime toutefois que dans la situation actuelle, la pomme de terre Amflora, dont les débouchés sont en tout premier lieu papetiers, ne constituera pas une réponse aux difficultés économiques traversées par la filière féculière. Dans son analyse, le HCB propose une série de mesures d'accompagnement en cas de culture de la pomme de terre Amflora. Ces préconisations seront subordonnées au décret définissant le « sans OGM » et aux mesures de coexistence qui en découleront pour la filière. Arrêt de la commercialisation de la pomme de terre génétiquement modifiée "Amflora"Le 16 janvier 2012, BASF a annoncé l'arrêt du développement et de la commercialisation en Europe de plantes génétiquement modifiés. Adrian Bebb, des Amis de la Terre Europe réagit : "C'est un nouveau camouflet pour les promoteurs des OGM. Personne ne veut en manger et peu d'agriculteurs veulent en cultiver. En revanche, c'est une bonne nouvelle pour les consommateurs et les agriculteurs car cette décision ouvre la perspective d'une agriculture plus verte et plus cohérente avec les demandes des citoyens à la veille d'un débat essentiel sur l'avenir de la Politique agricole commune". Dès sa première année de commercialisation, cette pomme de terre avait été contaminée par un OGM non autorisé de BASF et retiré du marché. Notes1 Le Haut Conseil des Biotechnologies, instance d'évaluation, d'expertise et de concertation a été créé par la loi du 25 juin 2008. Lancée le 22 avril 2009, cette structure indépendante, qui réunit 63 membres, est composée d'un Comité Scientifique présidé par Jean-Christophe Pagès, et d'un Comité Economique, Ethique et Social présidé par Christine Noiville. Le HCB rassemble, entre autres, des personnalités désignées notamment auprès des organismes publics de recherche, en raison de leurs compétences scientifiques et techniques, des élus locaux, des parlementaires, des représentants d'associations et d'organisations professionnelles. Le HCB est présidé par Catherine Bréchignac. 2 La Commission annonce une proposition visant à laisser aux États membres le choix de cultiver ou non des OGM et adopte cinq décisions concernant des OGM - UE European Commission approves Amflora starch potato - BASF Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 22:10 | |
| Le cheval, un "outil" de développement durable au service des collectivitésÉcologique et performante, la collecte hippomobile des ordures ménagères mise en place par Veolia Propreté a su convaincre les élus et les habitants d’Hazebrouck Après avoir longtemps soutenu l’Homme dans l’agriculture ou encore l’armée, les équidés (chevaux et ânes) ont aujourd’hui disparu de notre environnement quotidien. Leur redonner une place au sein de nos collectivités, voilà une idée qui peut paraître passéiste pour certains, mais qui relève en fait d'une incroyable modernité ; et force est de constater que ces initiatives soulèvent un véritable engouement. Cheval et développement durableLa place des équidés en ville ne s'aborde plus selon l'angle du folklore ou du loisir, mais bel et bien du travail et du développement durable. Pour plus de 60 villes françaises, il s'agit d'un « outil » de travail et d'un acteur économique en tant que tel, moteur d'initiatives innovantes et de lien social. En effet, les chevaux de trait ou les ânes s'avèrent utiles pour des tâches telles que la collecte d'ordures ménagères, l'entretien des espaces verts, la surveillance des troupeaux, le transport de personnes (touristes, personnes âgées, enfants), l'insertion sociale, l'éducation à l'environnement,..., et l'utilisation de la traction animale s'inscrit parfaitement dans une politique environnementale et trouve sa place sur les trois volets du développement durable : écologie, social et économie. EcologieUne étude menée par l'ADEME a montré qu'un cheval occupé à la collecte des déchets émettait 35% de CO2 en moins qu'un système motorisé. De plus, le retour du cheval en ville traduit une volonté de repousser le bruit et la pollution et s'inscrit dans la mouvance d'un « urbanisme vert ». SocialIl existe une revalorisation des missions des agents chargés de la collecte des déchets, la force sociale de l'équidé permet de restaurer les liens entre habitants et employés municipaux. Sa connotation "nature" facilite la sensibilisation à l'écologie et enfin, la stature de ces animaux impose le respect. EconomiqueL'utilisation d'équidés permet des économies de fonctionnement par rapport à des véhicules. Et indirectement c'est toute une filière économique qui se développe en parallèle à l'utilisation du cheval (vétérinaire, agriculteur pour le foin-paille-granulés, éleveurs, dentiste équins, bourreliers, ...), et donc ce sont des emplois créés ou maintenus. Par son effet mobilisateur, le cheval peut même faire augmenter les revenus d'une ville, comme à Trouville, où la collecte du verre a fortement progressée, entraînant par la même une hausse des dividendes versés à la ville pour le verre usagé ! Impact financierUn cheval ou un âne, cela a un coût, somme toute moins élevé que celui d'un camion benne, mais qu'il faut pouvoir appréhender. Les prix indiqués, ci-après, sont fournis à titre indicatif, ils proviennent de mes recherches sur internet et mes connaissances du milieu du cheval. Il est possible de trouver des prix moins élevés, selon la région, selon le constructeur, l'éleveur, ..., mais cela permet d'avoir quelques ordres de prix : coût d'un cheval de trait, dressé, apte à travailler en sécurité, en ville, au milieu de la circulation : 4000 à 6000 €, attention, plusieurs paramètres peuvent influer sur le prix notamment la race, l'âge, le niveau de dressage et l'expérience dans le travail demandé, coût d'un véhicule hippomobile pour le ramassage des déchets, en 4 roues : 10 000 €, un véhicule spécifique peut monter jusqu'à 25 000 € pour la collecte de trois poubelles différentes, coût d'une remorque double essieu, à benne basculante, d'une capacité de charge d'une tonne : 4000 €, coût d'un harnais en collier complet avec un sac à crottin : 3 150 €, coût « d'entretien » courant (vermifuge, vaccins, ferrage toutes les 4 à 6 semaines) : environ 1500 €/an, coût d'entretien nourriture et box en pension, à proximité d'une ville (tarif moins élevé en zone rurale) : 300 €/mois, coût d'une prestation externe, le prix peut varier entre 10 000 et 100 000 €, coût d'une formation de meneur, le prix est là aussi très variable selon les régions, les organismes de formation et selon l'activité qui va être mise en place. Il existe plusieurs diplômes : le Galop d'attelage, le Brevet de meneur-accompagnateur de tourisme équestre ou le Certificat de spécialisation Par ailleurs, il ne faut pas omettre d'assurer un cheval (accident, mortalité) et il est parfois utile d'entretenir plusieurs chevaux afin de pallier le remplacement d'un cheval malade dans le cadre d'une activité continue. Une collectivité qui envisagerait de monter un projet d'utilisation de chevaux territoriaux pourra s'approcher d'une structure professionnelle intermédiaire pour l'aider à affiner son projet (Equiterra, HNCI...). Des subventions peuvent également être demandées, au niveau européen et national, avec le programme FEDER notamment, mais aussi selon les cas auprès de la région ou du département. A l'heure où le développement durable doit devenir une priorité, le cheval offre donc une réponse pertinente et novatrice. La volonté et la persévérance d'élus, de techniciens et de citoyens apportent déjà par leurs expériences un aperçu des potentialités de la traction animale en ville, et cela même en région parisienne. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 22:20 | |
| Bilan électrique de l'année 2011 : une consommation en baisse, une facture en hausse En 2011, la conjonction de différents facteurs a fortement diminué la consommation électrique française. Dans le même temps, la France se positionne de plus en plus comme un fournisseur d'électricité pour ses voisins européens. Record de douceur en 2011La consommation électrique du pays dépend de nombreux facteurs dont la météorologie. En effet, les vagues de froid et les canicules augmentent significativement la consommation électrique, respectivement à cause du chauffage et des systèmes de climatisation. Or, 2011 fût une année exceptionnelle : l'année la plus chaude depuis 1900 pour le territoire métropolitain avec une température moyenne de 13,6°C (+ 1,5°C par rapport aux normales), selon Météo-France. Pour autant, ce record de douceur s'est caractérisé par l'absence de vagues de chaleur l'été. Résultat : les Français n'ont pas ou peu sollicité la climatisation en été tout en ayant moins recours au chauffage électrique l'hiver. Soulignons que les consommations de pointe sont très sensibles à la température et principalement aux minimas. Ainsi, Réseau de Transport d'Electricité (RTE) estime le gradient thermique à 2300 MW / °C en hiver. Le dernier record de consommation électrique date du 15 décembre 2010 avec une consommation de 96710 MW. Corrigée notamment du facteur météorologique, la consommation est en hausse de 0,8% sur l'année. Cependant, après une reprise de la consommation française au premier semestre, RTE observe à partir de l'été 2011 une baisse générale des consommations (particuliers, professionnels, grande industrie), à l'exception des PMI /PME. Au final, la consommation électrique annuelle de 2011 s'est établie à 478,2 TWh , soit -6,8% par rapport à 2010, indique RTE Consommation électrique brute en France Le parc français de production d'électricité en 2011La production nucléaire (en hausse de 3,2%) a permis l'an passé de compenser le déficit de la production hydraulique (en baisse de 26,5%), dû aux conditions de sécheresse du printemps et de l'automne dernier. La production issue des énergies renouvelables (hors hydraulique) a fortement augmenté (+26,4%). La production éolienne a couvert 2,5% de la consommation annuelle en moyenne (contre 1,9% en 2010), avec un record de 4453 MW le 7 décembre, selon le Syndicat des Energies Renouvelables. La production photovoltaïque a plus que triplé par rapport à 2010. Le parc de production installé en France poursuit son développement, en augmentation de 2 600 MW par rapport à 2010. Cette évolution est notamment due au développement du parc éolien (6 640 MW fin 2011), soit une augmentation de 15% par rapport à l'année précédente. Le parc photovoltaïque a poursuivi sa forte croissance et à dépassé 2 200 MW fin 2011. Enfin, deux cycles combinés à gaz d'une puissance totale de 850 MW environ ont été mis en service. La France devient exportatrice nette d'électricitéAu niveau européen, l'arrêt de 7 réacteurs nucléaires allemands a changé la donne dans nos échanges avec l'Allemagne : la France est passée d'importatrice à exportatrice. Ainsi, le solde des échanges a presque doublé par rapport à 2009 et 2010 (55,7 TWh en 2011, soit + 89% par rapport à 2010), revenant aux niveaux de 2007, selon les chiffres de RTE. L'annonce de l'abandon du nucléaire en Allemagne suite à l'accident nucléaire de Fukushima (Japon) devrait conforter cette situation qui fragilise cependant la sécurité énergétique de l'Europe. De plus, ces échanges d'électricité avec les pays voisins ont été influencés par la baisse de la consommation d'électricité intérieure et la disponibilité des moyens de production en France. Echanges contractuels transfrontaliers en 2011 (en TWH) Ainsi, avec l'Allemagne, la Belgique et l'Espagne, le solde des échanges devient exportateur alors qu'il était importateur en 2010. Les futurs investissements de RTEDans cet environnement en évolution rapide, RTE va poursuivre en 2012 l'augmentation de ses investissements (1,4 milliard d'euros, soit +18% par rapport à 2011), au service d'une alimentation électrique dont la qualité atteint son meilleur niveau historique en 2011. En 2011, le montant total des investissements de RTE s'est élevé à 1 179 M€ et passera en à 1 386 M€ en 2012, soit une hausse de 18%. RTE compte poursuivre cette politique industrielle dans les prochaines années pour accueillir les nouvelles installations de production (dont les parcs éoliens offshore), développer les capacités d'interconnexion avec les pays voisins, renforcer la sécurité d'alimentation de plusieurs régions dont les régions PACA et Bretagne et renouveler ou réhabiliter les ouvrages actuels. La facture d'électricité ne cesse de s'alourdirLe Médiateur national de l'énergie, note, dans sa lettre de janvier-février 2012 que "si le prix de l'électricité en 2010 est inférieur au prix de 1995, en euros constants, depuis 2008, les hausses des tarifs réglementés sont supérieures à l'inflation, tendance qui devrait se confirmer dans les prochaines années. L'augmentation continue de la demande énergétique, le vieillissement du parc de production français et le retard pris dans le renforcement des réseaux nécessiteront, quel que soit le scénario d'évolution du mix énergétique, des investissements importants tant dans les réseaux que dans les moyens de production. Le coût de ces investissements se retrouvera immanquablement dans les factures. L'Union Française de l'Electricité évalue la hausse correspondante des prix pour les particuliers entre 33% et 50% hors inflation d'ici à 2030" D'ores et déjà, Philippe de Ladoucette, président de la Commission de régulation de l'énergie a annoncé le 19 janvier 2012 que le prix de l'électricité pourrait augmenter de 30% en seulement 4 ans. C'est-à-dire que les 35 millions de foyers qui s'éclairent et se chauffent à l'électricité devraient voir leur facture grimper de 6% au minimum par an. En cause : les investissements évoqués par RTE, mais aussi le coût du développement des énergies renouvelables (66 euros en moyenne par an pour chaque ménage) mais aussi les conséquences de la catastrophe nucléaire de Fukushima. Sur ce dernier point l'Autorité de sûreté nucléaire a publié début janvier 2012 un rapport sur l'État des centrales françaises, dans lequel elle demande 10 milliards d'euros de travaux supplémentaires pour renforcer leur résilience face aux risques naturels... En 2010, un ménage français consacrait en moyenne 1600 euros pour son énergie domestique. Selon une enquête de l'institut national de la consommation, de 2000 à 2010, le budget moyen consacré à l'électricité et au chauffage a augmenté de 32 %. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 22:24 | |
| 2048 : des océans sans vie ? En quelques décennies, l'homme a réussi à provoquer de façon dramatique le déclin des ressources marines. Ainsi, il ne reste aujourd'hui que 10% des stocks de poissons par rapport à 1950. A cette allure, si rien n'est fait, tous les stocks seront effondrés d'ici 2048... La vie marine diminue à un rythme effréné et les communautés littorales dépendantes des activités de pêche luttent actuellement pour survivre. A grand « coûts » de subventions, l'Europe et les Etats ont poussé la construction de nouveaux bateaux pour accroître la « production » de poissons et répondre à la demande. Il en résulte une surcapacité de pêche avérée, une surpêche massive et un effondrement des populations de poissons. En effet, 75% d'entre elles sont surexploitées dans les eaux européennes. Chaque année depuis 1993, malgré des technologies toujours améliorées et des efforts de pêche toujours croissants, les quantités de poissons débarquées par la pêche européenne déclinent de 2% par an avec les conséquences sociales que l'on imagine. A travers une vidéo intitulée « 2048 : une mer déserte » réalisée par Natacha Bigan, le WWF a souhaité offrir de façon simple et ludique, un exposé de la situation globale de la pêche aujourd'hui : Quels sont les avantages et inconvénients des différentes techniques de pêche ? Qu'appelle-t-on « captures accidentelles ou accessoires » ? Comment la pêche est-elle gérée ? Quelles sont les solutions pour éradiquer le problème de surpêche ?... Autant de questions abordées dans cette animation originale. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 22:28 | |
| L'Ile-de-France accueille ses premières éoliennes en EssonneChantier éolien à Pussay (Essonne) Lundi 30 mai 2011, la région Ile-de-France, qui aspire à devenir "la première écorégion d'Europe", a enfin accueilli ses premières éoliennes sur le territoire de la ville de Pussay (Essonne). Ce parc éolien, baptisé projet éolien des gargouilles, est à cheval sur trois communes : Gommerville et Oysonville dans l'Eure-et-Loir et Pussay dans l'Essonne. Ce parc comptera à terme 16 éoliennes pour un investissement total de 50 millions d'euros. Son inauguration officielle a eu lieu sur place, le lundi 30 mai 2011 en présence de Jean-Paul Huchon, président de la Région Ile-de-France. Ce projet, a été initié en 2003 par THEOLIA-France(1) et VOL-V(2), les maîtres d'ouvrage. Après de nombreuses consultations et la réalisation réglementaire des études d'impact, le permis de construire a été finalement accordé en mars 2008. Puis, le chantier a débuté en septembre 2010 pour une mise en service progressive des éoliennes prévue pour l'été 2011. Les éoliennes de fabrication allemande (ENERCON(1)) ont une puissance unitaire de 2,3 MW pour une durée de vie estimée à 20 ans. Elles possèdent un mât de 78 m, ce qui leur donne une taille de près de 120 m de haut avec les pâles. Ces géants du vent pèsent quelque 250 tonnes et reposent sur une imposante fondation de 311 m3 pour 775 tonnes ! La production annuelle est estimée à 95 000 MWh, soit la consommation annuelle d'environ 42 000 personnes. Une source de revenus pour le développement localLe parc éolien est situé sur les terres agricoles de la Beauce, ce qui ravit les agriculteurs propriétaires des terres : ils toucheront des revenus complémentaires appréciables (environ 1 500 euros par MW et par an). Du côté des collectivités territoriales sur lesquelles ce parc a été installé, elles toucheront la Contribution économique territoriale (CET) plus l'Impôt Forfaitaire sur les Entreprises de réseaux (IFER) ainsi que la Taxe Foncière sur le Bâti : une manne financière de 70 000 euros par an, indique la commune de Pussay. Cependant, celle-ci regrette avec amertume la répartition des revenus : "à peine 20 000 Euros pour la commune et 50 000 Euros pour le département". Alors que l'éolien connaît un essor formidable dans le monde, la France peine quelque peu à suivre le rythme. Quelles en sont les principales raisons ? Les freins à l'installation des éoliennesEn France, deux obstacles ralentissent la réalisation de parcs éoliens : les réticences des riverains et la bureaucratie. La réticence du voisinageJerome Sudres, directeur développement chez THEOLIA-France déclarait lors de cette inauguration que la "désinformation pèse sur la mise en œuvre des projets éoliens". Pour preuve, contrairement à une idée souvent répandue, une éolienne fonctionne de 25 à 30 % de son temps à pleine puissance et fonctionne environ 80 à 85 % du temps. Le rendement d'une éolienne est donc bien supérieur aux chiffres souvent avancés par ses détracteurs (15 %). En effet, elles sont construites assez logiquement dans des zones où le gisement éolien est suffisant pour leur exploitation. Concernant le bruit, en Ile-de-France, une éolienne ne peut être implantée à moins de 500 mètres de toute construction (bâtiment résidentiel, industriel ou commercial). A cette distance, le bruit des pâles est imperceptible. Les dubitatifs peuvent tenter l'expérience en se plaçant près du mât d'une éolienne : le bruit engendré reste tout à fait acceptable et disparait rapidement en s'éloignant de quelques dizaines de mètres. D'ailleurs, "l'acceptation des éoliennes augmente une fois qu'elles sont installées" ajoutait M. Sudres. Quant au paysage, c'est une question assez subjective, d'autant plus que les cables électriques sont enterrés et ne contribuent donc pas à la multiplication des lignes aériennes à haute tension. Par contre la question de la sobriété énergétique contre le foisonnement des centrales de production électrique reste entière et pertinente. La lourdeur administrativeJean-Paul Huchon soulignait le caractère très "handicapant" de la réglementation en Ile-de-France, ce qui explique le retard pris quant à l'implantation d'éoliennes dans la région. Un constat partagé par Jean-Louis Bal, président du Syndicat des Energies Renouvelables qui regrette la multiplication et la lenteur des démarches administratives où chaque étape est l'occasion de recours pour les anti-éoliens. Et pourtant, la région Ile-de-France a besoin de produire davantage d'énergie, étant particulièrement dépendante des importations. Quatre dossiers en cours en Île-de-FranceSelon un communiqué de la Région Ile-de-France, l'Ile-de-France bénéficie pourtant d'atouts, comme la surface agricole, et surtout, le vent, avec trois grandes zones particulièrement propices : la Beauce en Essonne, justement du côté de Pussay, et, en Seine-et-Marne, le Gâtinais au sud et la Brie à l'est. Si la région peine à développer l'éolien, c'est notamment à cause du problème de la disponibilité du foncier, et de la présence de nombreux monuments et sites classés, le tout dans un cadre réglementaire qui impose une distance de 500 mètres entre les éoliennes et les habitations. Actuellement, sur 10 dossiers de demandes de Zones de Développement Eolien (ZDE)(4) déposés en 2006, quatre seulement pourraient voir le jour : outre le parc de Pussay, huit éoliennes ont été autorisées à Mondreville (77) mais font l'objet d'un recours, tandis que deux autres dossiers, l'un pour huit éoliennes à Blandy (91), et l'autre sur la commune de Chalautre-la-Grande (77) sont en cours de traitement. Notes1 THEOLIA-France est une société qui conçoit des parcs éoliens. 2 Le groupe VOL-V est un producteur indépendant d'électricité d'origine renouvelable, qui développe, construit et exploite des centrales de production d'énergies renouvelables pour son propre compte. 3 ENERCON est une société allemande qui conçoit, fabrique et commercialise des éoliennes depuis 1984. La France est le 3ème marché mondial pour ENERCON avec, à ce jour, 1 550 MW installés grâce à plus de 800 éoliennes. 4 La loi a introduit le principe de création de Zones de Développement de l’Éolien (ZDE) permettant aux installations éoliennes qui y sont situées de bénéficier de l'obligation d'achat. Les ZDE sont arrêtées par le préfet sur proposition des communes concernées ou d'un Établissement public de coopération intercommunale à fiscalité propre, sous réserve de l'accord des communes figurant dans le périmètre proposé de la ZDE. Ce dispositif doit inciter les collectivités à participer à cette forme de production décentralisée d’énergie tout en prenant en compte la protection des paysages, des monuments historiques et des sites remarquables et protégés. Source |
| Invité | | | Sujet: Re: Actualités Mer 25 Jan - 22:32 | |
| Plus de 240 000 tonnes de nourriture finissent à la poubelle chaque jour en Europe Près 50 % d'aliments sains sont gaspillés chaque année dans l'UE, par les ménages, les supermarchés, les restaurants et la chaîne alimentaire, alors que 79 millions de citoyens vivent au-dessous du seuil de pauvreté et que 16 millions dépendent de l'aide alimentaire d'œuvres de charité. Dans une résolution adoptée jeudi 19 janvier 2012, le Parlement demande des mesures urgentes en vue de réduire de moitié les gaspillages alimentaires d'ici 2025 et d'améliorer l'accès aux aliments pour les personnes démunies. Face au gaspillage alimentaire à tous les stades – producteurs, transformateurs, détaillants, services de restauration et consommateurs – les députés européens demandent de mettre en place une stratégie coordonnée, associant des mesures européennes et nationales, afin d'améliorer l'efficacité de la chaîne alimentaire et des circuits de consommation, secteur par secteur, et de s'attaquer d'urgence à ce problème. Si rien n'est fait, le gaspillage alimentaire augmentera de 40 % d'ici 2020, indique une étude publiée par la Commission. "La question la plus importante à l'avenir sera de répondre à la demande croissante de produits alimentaires, étant donné qu'elle sera supérieure à l'offre. Nous ne pouvons nous permettre plus longtemps de rester dans l'inaction, alors que des aliments sains et comestibles sont jetés à la poubelle. Il s'agit d'un problème éthique, mais également économique et social, avec d'énormes implications sur l'environnement", a déclaré le rapporteur Salvatore Caronna (S&D, IT) avant le vote. "La balle est maintenant dans le camp de la Commission. Nous attendons une stratégie européenne convaincante qui proposera une ligne de conduite permettant aux 27 États membres de s'attaquer au problème de manière systématique" a-t-il ajouté. Le gaspillage alimentaire en chiffresDans le monde, le tiers des aliments produits chaque année pour la consommation humaine, soit environ 1,3 milliard de tonnes, est perdu ou gaspillé, selon un rapport préparé par la FAO. Dans l'UE27 (Union Européenne des 27) en 2006, le gaspillage alimentaire représentait 89 millions de tonnes par an ou encore plus de 243 000 tonnes par jour. Cela signifie qu'en moyenne, un européen gâche près de 500 grammes de nourriture par jour. En l'absence de mesures, le gaspillage alimentaire pourrait atteindre 126 millions de tonnes par an en 2020, une hausse de 40 %. Origine du gaspillage-ménages: 42 % (ici, le gaspillage peut être évité à 60%) -industrie agroalimentaire: 39 % -détaillants: 5 % -secteur de la restauration: 14 % Une nouvelle fois, le consommateur a une importante responsabilité et donc un pouvoir considérable dans ce gâchis inacceptable. Le gâchis alimentaire en FranceYaourts, viande, plats préparés.. En un an, chaque Français jette en moyenne 7 kg de produits encore emballés, non entamés ! Un chiffre étonnant et écoeurant qui ne tient pas compte, par exemple, du pain rassis, des fruits et légumes avariés et des restes cuisinés qui finissent bien souvent aux ordures. Mieux éduquer pour moins gaspillerPour parvenir à une réduction drastique des gaspillages alimentaires d'ici 2025, de nouvelles campagnes de sensibilisation doivent être encouragées aux niveaux européen et national, indique la résolution. Les députés proposent que des cours d'éducation alimentaire soient créés, en particulier dans les écoles, afin de donner des conseils pratiques sur la conservation des denrées alimentaires, leur préparation et leur élimination. Ils proposent également d'échanger les meilleures pratiques. Pour encourager la durabilité dans le secteur alimentaire, les députés demandent de déclarer l'année 2014 "Année européenne contre le gaspillage alimentaire". Le gâchis alimentaire s'intègre dans le cadre plus général de notre société de surconsommation où l'on achète sans vraiment réfléchir. Pourtant, l'acte d'achat n'est jamais anodin et entretient trop souvent un système qui met gravement en péril notre support de vie. En effet, le consommateur succombe trop souvent aux sirènes du marketing agroalimentaire. Ainsi, nous achetons des produits alimentaires qui nous sont inutiles et coûteux, pire, ce sont souvent ces mêmes produits qui sont préjudiciables à notre santé. D'une manière générale, il faut éviter d'avoir "les yeux plus gros que le ventre" : les promotions, les prix spéciaux sur les lots, les coupons de réduction, les gagdets "donnés" avec les produits alimentaires ne devraient pas être les principaux critères de choix ! A vouloir faire une bonne affaire ou se faire plaisir, on entasse des produits qui se périment et peuvent contribuer à déséquilibrer notre régime alimentaire. Plus censés, l'achat en vrac (qui tend à se démocratiser), et l'achat réfléchi ("en ai-je vraiment besoin ?") demeurent de bons moyens, simples, de faire des économies, de générer moins de déchets et d'ajuster au mieux la quantité de nourriture dont nous avons vraiment besoin tout en contribuant à préserver notre santé. Des gestes éco-citoyens sur l'alimentation vous sont proposés sur notre dossier dédié. Étiquetage et emballage adéquatPour éviter que les denrées alimentaires ne soient proposées à la vente dans un délai trop proche de la date de péremption, ce qui augmente le risque de gaspillage, une double date de péremption pourrait être introduite pour indiquer la date limite de vente (date de commercialisation) et la date limite de consommation (date de consommation), précise la résolution. Tout en ajoutant que la Commission et les États membres doivent néanmoins s'assurer au préalable que les clients comprennent la différence entre les étiquettes utilisées actuellement dans l'UE telles que "à consommer de préférence avant le ..." (lié à la qualité) et "à consommer jusqu'au..." (lié à la sécurité). Pour permettre aux consommateurs d'acheter la quantité qu'ils souhaitent, les producteurs doivent proposer plusieurs dimensions d'emballages alimentaires et prévoir une meilleure conservation. Les produits proches de la date de péremption ou endommagés doivent être vendus au rabais, de manière à les rendre plus accessibles aux personnes démunies, affirment les députés. Les institutions publiques doivent privilégier les services de restauration responsablesLes règles de passation des marchés publics pour les services de restauration et d'hôtellerie doivent être revues pour s'assurer, dans la mesure du possible, que les contrats soient passés avec des services de restauration qui utilisent les produits locaux et qui redistribuent gratuitement les invendus aux personnes démunies ou aux banques alimentaires. Les députés demandent un meilleur ciblage des programmes de soutien européens, notamment en faveur de la distribution de denrées alimentaires aux personnes les plus défavorisées ou de la consommation de fruits et de lait à l'école, afin d'éviter le gaspillage alimentaire. Les députés se sont également félicités des initiatives de certains États membres pour récupérer les aliments invendus et distribuer ceux-ci aux personnes démunies et ont demandé aux distributeurs de participer à ces programmes. Source |
| Invité | | | Sujet: Re: Actualités Jeu 26 Jan - 12:07 | |
| L'humanité modifie "pour les siècles à venir, et à un rythme jamais vu, le climat de la planète" L'information est à présent confirmée : 2011 a bien été l'année la plus chaude depuis 1900 en France avec une température moyenne de 13,6°C (+ 1,5°C par rapport à 2010). Au niveau mondial, une étude publiée en décembre dernier dans la revue scientifique de référence "Environmental Research Letters", montre que le réchauffement climatique mondial se poursuit inexorablement depuis 30 ans. Cette étude dirigée par Stefan Rahmstorf et Grant Foster a analysé l'évolution du réchauffement climatique de 1979 à 2010 en distinguant les facteurs naturels et l'impact des activités humaines. Pour évaluer rigoureusement le poids des phénomènes naturels sur le climat, ces scientifiques reconnus ont reconstruit les courbes de températures grâce aux données obtenues conjointement par satellites et par le réseau mondial de stations météorologiques. Ils ont ainsi pu démontrer que l'augmentation des émissions de gaz à effet de serre liées aux activités humaines a entraîné une hausse des températures mondiales comprise entre 0,14 et 0,18 degré celsius par décennie depuis 30 ans. Cette étude remarquable qui intègre l'activité solaire et le phénomène "Nina" montre que 2011 est bien l'année la plus chaude jamais enregistrée sur terre. L'étude n'est guère optimiste et prévoit que, sans une rupture par rapport aux objectifs internationaux (qui représentent à peine plus de la moitié de l'effort minimum à effectuer pour limiter le réchauffement climatique à 2-3° d'ici 2050), l'accélération du réchauffement planétaire va se poursuivre au cours de ces prochaines années avec son cortège de conséquences désastreuses et d'épisodes extrêmes que nous pouvons déjà constater. Il n'y a pourtant aucune fatalité dans cet enjeu majeur du climat et l'homme peut encore, sans mettre en œuvre des efforts démesurés sur le plan économique, technologique et financier, éviter le pire. C'est ce que montrent plusieurs études distinctes mais parfaitement convergentes. La première, de grande ampleur, vient d'être publiée dans "Science". Cette étude rappelle que depuis un siècle, la température moyenne à la surface de Terre a connu une hausse de 0,8 degré, dont plus des deux tiers au cours des trente dernières années. L'étude souligne également que les quantités considérables de CO2 émises par l'homme (elles ont été multipliées par dix depuis 70 ans) s'accumulent dans l'atmosphère pendant plusieurs centaines d'années, contribuant puissamment à accroître l'effet de serre et le réchauffement climatique. De manière très pragmatique, l'étude a modélisé les effets de la mise en œuvre de plus de quatre cents mesures destinées à l'ensemble des émissions polluantes. Au final, les chercheurs ont sélectionné 14 mesures considérées comme les plus efficaces à court terme : toutes ces mesures visent à réduire fortement les émissions humaines ou animales de méthane (CH4), un gaz à effet de serre 25 fois plus puissant que le CO2 et les émissions de suies qui sont des particules résultant de combustions incomplètes en suspension dans l'atmosphère. Concrètement, l'étude préconise la généralisation des dispositifs de capture du méthane dans les mines de charbon et les raffineries de pétrole et l'amélioration des réseaux de transport de gaz naturel. Un effort important est par ailleurs envisagé en matière d'agriculture et d'élevage : l'étude propose de revoir complètement la gestion des effluents du bétail, de mettre en place le drainage systématique des rizières, de généraliser les filtres à particules de nouvelle génération sur les véhicules diesel et de mettre fin à la culture sur brûlis. En réduisant de façon sensible nos émissions de méthane et de suie, nous ferions d'une pierre trois coups : en matière de climat, ces mesures permettraient de limiter le réchauffement à 0,8°C d'ici à 2060, au lieu des 1,3°C prévu. En matière de rendement agricole global, ces mesures permettraient une hausse de la production agricole mondiale de plusieurs dizaines de millions de tonnes par an et constitueraient donc un puissant levier pour nourrir correctement les neuf milliards d'humains qui vivront sur terre au milieu de ce siècle. Enfin, en matière sanitaire, cette réduction de nos émissions de carbone et de suies aurait un impact non moins considérable et permettrait d'éviter jusqu'à 4 millions et demi de morts prématurées par an, notamment en Asie. Il faut toutefois bien comprendre qu'une telle stratégie ne nous dispenserait absolument pas de réduire massivement nos émissions de CO2 (actuellement 31 milliards de tonnes par an, soit 4 tonnes et demi par terrien) si l'on veut à terme éviter un réchauffement catastrophique de 4 à 6°C d'ici la fin du siècle. Selon une autre étude réalisée en 2007 par l'Université de Stanford, le CO2 contribue pour moitié au réchauffement climatique, suivi par les suies (16 %) et enfin par le méthane, pour 14 %. Cette étude nous révèle également qu'en utilisant uniquement des technologies existantes, il serait possible de réduire les émissions de méthane émis de 40 % et que la mise en œuvre de ces 14 mesures aurait un coût économique tolérable : en effet la plupart de ces mesures ont un coût maximum de 250 dollars la tonne de méthane, ce qui est plus de dix fois inférieur aux immenses bénéfices qui pourraient être obtenus en matière de santé et d'environnement. L'étude prend un exemple concret : les poêles et fours à charbon de bois sont utilisé par trois milliards d'humains pour faire cuire les aliments et sont responsables d'au moins deux millions de décès prématurés par an. Il est frappant de constater que cette vaste étude rejoint les conclusions d'un rapport réalisé en 2009 par le cabinet McKinsey. Cette étude concluait également que si l'ensemble des options technologiques disponibles étaient utilisées, les émissions mondiales de gaz à effet de serre pourraient être réduites de 40 % par rapport à 1990 d'ici à 2030, ce qui permettrait de limiter la hausse de la température mondiale à moins de 2°C. Selon cette étude, le coût global de ce plan mondial serait bénéfique avec un baril à plus de 100 dollars, ce qui est aujourd'hui le cas. Cette étude pointait trois grands leviers pour s'attaquer efficacement au réchauffement de climat : premier levier (un tiers de l'effort à produire), la sobriété et l'efficacité énergétique, second levier (28 % de l'effort global), un investissement massif dans les énergies renouvelables (éolien, biomasse, géothermique, solaire, mer) et les biocarburants de 2ème et 3ème génération, issus du bois et des algues et enfin, troisième levier, une réorientation de la gestion de la forêt, de l'élevage et de l'agriculture ( 28 % de l'effort total). En moins de deux siècles, l'espèce humaine a conquis un pouvoir déterminant sur le climat mondial, ce qui constitue une rupture majeure de civilisation. Comme le souligne Richard Alley, de l'Université de Pennsylvanie "En décuplant nos émissions de CO2 depuis moins d'un siècle, nous sommes en train de modifier pour les siècles à venir, et à un rythme jamais vu, le climat de la planète". Il est intéressant de constater que, face à la réalité et à la rapidité du réchauffement climatique mondial, de plus en plus difficile à nier ou à contester, les climato-sceptiques ont été contraints de changer de stratégie. La plupart d'entre eux ne contestent plus la réalité de ce réchauffement mais ils déplacent le débat sur la responsabilité de l'homme dans ce phénomène. Selon eux, ce réchauffement serait "naturel" et l'homme n'y serait pour rien ou aurait une responsabilité marginale dans son accélération. Partant de cette thèse, il serait donc inutile, voire dangereux pour nos économies et nos modes de vie, de prendre des mesures de réduction de nos émissions de gaz à effet de serre et il suffirait finalement d'attendre que le climat s'autorégule. Mais, comme nous venons de le voir en évoquant quelques unes des dernières études sur ce sujet, cette négation de la responsabilité humaine en matière de réchauffement climatique est une position qui devient, elle aussi, de moins en moins tenable scientifiquement face à l'accumulation des faits et aux progrès de la connaissance du fonctionnement globale de notre planète. Il est peut-être temps d'admettre enfin que nous sommes en train d'entrer, comme le pense Paul Crutzen, prix Nobel de chimie, et un nombre croissant de scientifiques, dans l'ère de l'anthropocène, une nouvelle ère géologique qui pourrait être prochainement reconnue par la communauté scientifique internationale et qui se caractérise par l'influence majeure que détient à présent l'espèce humaine sur sa planète, par rapport aux forces et phénomènes naturels et géologiques. Cette nouvelle puissance, sans précédent dans la longue histoire de l'homme, nous confère évidemment une responsabilité immense et un devoir d'agir pour éviter que le pire n'advienne. Nous savons maintenant que le coût de l'inaction sera infiniment plus grand et désastreux pour l'homme et l'ensemble du vivant que celui d'une action résolue et durable pour maîtriser l'évolution du climat. Contrairement à ce que veulent nous faire croire les climato-sceptiques, il n'y a pas de fatalité, l'avenir n'est jamais écrit et même si l'homme est confronté à des forces naturelles et cosmiques qui le dépassent, il n'est pas pour autant condamné à l'inaction et à l'impuissance. Nous ne ferons pas disparaître ce défi climatique en nous mettant la tête dans le sable mais en le comprenant et en l'affrontant avec toute notre intelligence, notre imagination et notre pugnacité, en nous inspirant de ce qu'écrivait Sénèque il y 2000 ans : "Ce n'est pas parce que c'est difficile que nous n'osons pas mais parce que nous n'osons pas que c'est difficile". Source |
| Invité | | | Sujet: Re: Actualités | |
| |
| Contenu sponsorisé | | | |
Sujets similaires | |
|
Page 1 sur 6 | Aller à la page : 1, 2, 3, 4, 5, 6 | | | Permission de ce forum: | Vous ne pouvez pas répondre aux sujets dans ce forum
| |
| |
| |