RemonterDescendre



 
Le Galion
http://www.wikio.fr
Forum Optimisé pour
Firefox

Connexion
Nom d'utilisateur:
Mot de passe:
Connexion automatique: 
:: Récupérer mon mot de passe
Proverbe du jour

« Les médisants ressemblent aux malheureux qui n'ont pas eu leur part d'événements et doivent mener aux dépens de leurs voisins une existence parasitaire. »

Rechercher
 
 

Résultats par :
 
Rechercher Recherche avancée
La devise

Pirate un jour,pirate toujours.
Sujets les plus vus
Scoops , Potins , et autres News..
Les Anges de la TV Réalité 4 "CLUB HAWAI"
Qui.... veut quoi???
News,potins..
Le choc des héros
Le choc des héros
Le choc des héros
Dilemme
Topics Candidats
Le jeu des smiley's et émoticônes!
The Galion


PageRank Actuel

Partagez|

La Terre

Voir le sujet précédent Voir le sujet suivant Aller en bas
Aller à la page : 1, 2  Suivant
MessageAuteur
MessageSujet: La Terre La Terre 2110Mer 25 Jan - 20:25

Sciences de la Terre: climat, risques naturels, notre planète...

La Terre Uomtya10

La Terre est la troisième planète du système solaire par ordre de distance croissante au soleil, et la quatrième par taille et par masse croissantes. Il s'agit de la plus grande et la plus massive des quatre planètes telluriques, les trois autres étant Mercure, Vénus et Mars.

La terre se trouve dans la zone habitable du système solaire. Elle est couramment appelée en français Terre, planète Terre, planète bleue ou encore Monde.
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 21:14

Climatologie et météorologie

La Terre Nuages10

Le climat définit et explique les conditions de l'atmosphère au-dessus d'un lieu à moyen et long terme alors que la météorologie s'intéresse au court terme et notamment aux prévisions sur quelques jours.
Branche de la géographie physique, la climatologie étudie les composantes et les variations des climats sur la surface de la terre. Le climat est une succession de type de temps avec des caractères relativement constants mesurés sur trente ans (les normales). La climatologie se préoccupe alors davantage des facteurs géographiques (répartition des terres et des mers, volumes de relief...) pour expliquer les irrégularités et définir différents types de climat.

"Les espèces qui survivent ne sont pas les espèces les plus fortes, ni les plus intelligentes, mais celles qui s'adaptent le mieux aux changements" (Charles Darwin).

Le climat se définit comme une description des moyennes et des extrêmes météorologiques en un endroit limité. Le climat est naturellement variable comme en témoigne l'irrégularité des saisons d'une année sur l'autre.
Cette variabilité est normale, et tient aux fluctuations des courants océaniques, aux éruptions volcaniques, au rayonnement solaire et à d'autres composantes du système climatique encore partiellement incomprises. De plus, notre climat aussi a ses extrêmes (comme les inondations, sécheresses, grêle, tornades et ouragans), qui peuvent devenir dévastateurs.
Cependant, depuis quelques décennies, un certain nombre d'indicateurs et d'études montrent que le climat se réchauffe à l'échelle du globe... Un phénomène inquiétant qui nous interpelle sur nos activités massivement émettrices en gaz à effet de serre.


Historique et découvreurs

La Terre Carott10
Carotte glaciaire prélevée sur le site de Dome Concordia

En 1824, Joseph FOURIER, physicien français, surnomme "effet de serre" le phénomène démontré par Horace Bénédict DE SAUSSURE à la fin du 18ème siècle : la température sur Terre est accrue par l'atmosphère qui piège une partie du rayonnement infrarouge émis par la Terre.

Svante ARRHENIUS annoncait dès 1896, qu'en brûlant le charbon, les hommes allaient réchauffer la planète via un effet de serre renforcé et fût donc le premier à mettre en évidence le risque de réchauffement climatique. Il indiquait déjà avec beaucoup de clairvoyance que le doublement de la concentration en dioxyde de carbone dans l'atmosphère devrait entraîner l'augmentation de la température de 4°C à 6°C.

En 1958, Charles David KEELING commence à mesurer les concentrations de CO2 sur le volcan Mauna Loa à Hawaï : elles sont alors de 315 ppm puis de 330 ppm en 1974 : preuve locale d'une augmentation de la concentration en CO2.

En 1979, l'Académie nationale des sciences américaine lance la première étude rigoureuse sur le réchauffement de la planète. Le comité Charney qui en eu la charge concluait déjà que "si les émissions de dioxyde de carbone continuent d'augmenter, le groupe d'étude ne voit aucune raison de douter que des changements climatiques en résulteront, et aucune raison de penser que ces changements seront négligeables".

Au début des années 80, le glaciologue grenoblois Claude LORIUS entreprit une coopération avec ses collègues soviétiques de la station Vostok, installée au coeur de l'Antarctique. En 1985, les foreurs russes parviennent à extraire des carottes de glace jusqu'à un kilomètre de profondeur. Publiées en 1987, leur analyse réalisée à Grenoble et à Saclay par les équipes de Dominique RAYNAUD et Jean JOUZEL, démontre que, depuis cent mille ans, il existe une corrélation étroite entre températures moyennes et teneurs en gaz à effet de serre.
En 1999, la démonstration s'est étendue aux 400 000 dernières années. Sur cette période, jamais la teneur en gaz à effet de serre n'a atteint les valeurs actuelles. Enfin, en 2008 confirmation a été apportée sur une période de 800 000 ans....

Depuis 1988, plusieurs milliers de chercheurs internationaux se sont réunis sous l'égide des Nations Unies pour constituer le Groupe Intergouvernemental sur l'Evolution du Climat (GIEC) ou IPCC (Intergovernmental Panel on Climate Change) afin de travailler sur ce bouleversement global (planétaire) et rapide.

L'effet de serre : définition

L'effet de serre est un phénomène naturel, indispensable à la vie sur Terre et qui assure une température moyenne de +15°C environ au lieu de -19 °C. En fait, une température de -19°C ferait geler les océans, ce qui augmenterait considérablement leur albédo (pouvoir réflecteur) faisant chuter les températures autour de -100°C...

La Terre reçoit la majeure partie de son énergie du soleil (principalement sous forme de lumière visible), une partie est directement réfléchie, une autre absorbée et une dernière rayonnée sous forme d'infrarouges (rayonnement thermique) par notre planète. Le rayonnement infrarouge émis par la Terre est en partie intercepté par les gaz à effet de serre de l'atmosphère terrestre tandis que le reste est diffusé vers l'espace.
Un gaz à effet de serre est donc relativement transparent à la lumière du soleil mais capable d'absorber une partie du rayonnement thermique de la Terre. Ta Terre équilibre le rayonnement solaire entrant par l'émission de rayonnement thermique. La présence de substances à effet de serre limite le rafraîchissement par rayonnement thermique et amène donc à un certain réchauffement (Richard Lindzen).

Ainsi, la vapeur d'eau, le méthane, le dioxyde de carbone et le protoxyde d'azote, qui sont les principaux gaz à effet de serre (GES) contribuent à piéger l'énergie renvoyée, augmentant la température moyenne de la Terre. En effet, ce sont les gaz à structure polyatomique (au moins 3 atomes) qui retiennent le rayonnement infrarouge au contraire des molécules diatomiques (99% de l'atmosphère) qui ont une structure trop simple.

Notons le double rôle des nuages dans l'effet de serre : vis-à-vis du rayonnement solaire, les nuages agissent principalement comme un parasol qui renvoie vers l'espace une grande partie des rayons du soleil. Le pouvoir réfléchissant, ou albédo, des nuages épais à basse altitude, est ainsi très élevé, de l'ordre de 80%. Par contre, les cirrus qui sont des nuages d'altitude constitués de cristaux de glace, ont un effet parasol très faible puisqu'ils sont transparents mais participent fortement à l'effet de serre.

La Terre Effet_10
Le bilan radiatif et sa perturbation anthropique : estimation de l'impact de l'effet de serre et de l'effet parasol sur le bilan énergétique de la Terre.

Les températures moyennes du globe (mesurées à 2 m au-dessus du sol sous abri) sont de : +15,1 °C en moyenne (régions polaires : -20°C, tempérées +11°C, équatoriales : +26°C).
Sur Mars où l'atmosphère est tenue et donc l'effet de serre absent, la température moyenne est de -50°C. Sur Vénus, où l'atmosphère est très chargée en gaz carbonique, la température moyenne est de +420°C. Nous comprenons donc que les concentrations en gaz à effet de serre sur Terre ont permis l'apparition des formes de vie que nous connaissons qui sont sensibles aux températures.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 21:32

Changement climatique : un constat alarmant

D'après le 4ème rapport du GIEC, "le réchauffement du climat ne fait aucun doute et est désormais attesté par l'augmentation observée des températures moyennes de l'air et de l'océan, la fonte généralisée de la neige et de la glace et l'augmentation du niveau moyen de la mer".

Le réchauffement de la planète

La Terre Modele10
Réchauffement attendu à la fin du 21ème siècle

La hausse des températures moyennes à la surface du globe est la première conséquence attendue et constatée des émissions massives de gaz à effet de serre. Or, les relévés météo enregistrent des anomalies positives de températures qui se confirment d'années en années par rapport aux températures enregistrées depuis le milieu du XIXème siècle...

De plus, les paléoclimatologues soulignent, dans le rapport 2007 du GIEC, que la température actuelle moyenne de l'hémisphère Nord est la plus élevée depuis 500 ans et probablement depuis plus de 1 300 ans !

La Terre A22

La Terre B22

La Terre C17

Depuis le début du XXe siècle (1906-2005), la température moyenne à la surface du globe a augmenté de 0,74°C, mais cette progression n'a pas été continue puisque depuis 1976, la hausse s'est nettement accélérée, atteignant 0,19°C par décennie en accord avec les prédictions des modèles. La période 1997-2006 est marquée par une anomalie positive moyenne de 0,53°C dans l'hémisphère Nord et de 0,27°C dans l'hémisphère Sud, toujours par rapport à la normale calculée pour 1961-1990 (OMM, 12/2006). Ceci alors même qu'il a été enregistré une baisse de l'activité solaire.

Les dix années les plus chaudes jamais observées sont toutes postérieures à 1997. Ainsi, l'année 2010 est la plus chaude, suivie de près par 1998 et 2005. De plus, la décennie 2001-2010 a connu la température la plus élevée jamais enregistrée sur une décennie depuis le début des relevés instrumentaux.

La température des eaux tropicales a augmenté de 1,2°C au cours du XXè siècle (contre 0,5°C en moyenne pour les océans), entraînant un blanchiment des récifs coralliens apparu en 1997. En 1998, le réchauffement prolongé de l'eau a détruit la moitié des récifs de corail de l'Océan Indien.
De plus, la température dans les zones tropicales des cinq bassins océaniques, où se forment les cyclones, a augmenté de 0,5 degré Celsius de 1970 à 2004, or de puissants cyclones sont apparus dans l'Atlantique Nord en 2005 (Katrina, Rita, Wilma), tandis qu'ils étaient plus nombreux dans les autres parties du monde.

La température dans les Alpes à 1800 m durant l'hiver a augmenté de 1 à 3 degrés dans les 40 années les plus récentes (Météo-France, 02/2005)


La hausse du niveau des océans

Le niveau moyen des océans s'est élevé de 17 cm depuis 1880 à cause de la fonte des glaciers mais aussi avec la dilatation thermique de l'eau - on parle de contribution stérique -, qui, plus chaude, augmente son volume.

Au XXème siècle, le niveau des mers a augmenté d'environ 2 mm par an. De 1990 à 2003, il a atteint le rythme relativement constant de près 3 mm par an (A. Cazenave, La Recherche, 07/2006). Durant cette période, la moitié de la hausse provenait de la dilatation thermique des eaux océaniques et l'autre moitié des pertes pertes de masse des calottes polaires et des glaciers de montagne.

Depuis 2003, on constate toujours une hausse assez rapide (environ 3,27 mm/an) du niveau marin, mais la dilatation thermique voit sa contribution diminuer (0,4 mm/an) alors que la fonte des calottes polaires et des glaciers continentaux s'accélère.

La Terre D17

D'ici à 100 ans, les scientifiques prévoient une élévation d'environ 1 m du niveau des océans : 1/3 de cette hausse proviendra de la dilatation des eaux, 1/3 de la fonte des glaciers de montagne qui devraient avoir tous disparu et le dernier tiers de la fonte partielle des deux inlandsis (l'inlandsis du Groenland et l'inlandsis à l'ouest de l'Antarctique).
Des évaluations récentes révisées avant la tenue du Sommet de Copenhague en décembre 2010 montrent qu'en 2100 le niveau de la mer dans le monde entier pourrait être au moins deux fois plus élevé que les estimations du 1er groupe de travail, spécifiées dans le 4ème rapport d'évaluation du GIEC : si les émissions non pas été modifiées il pourrait bien dépasser 1 mètre. La limite supérieure a été estimée comme - une élévation du niveau de la mer de 2 mètres dès 2100. Une fois que les températures mondiales se seront stabilisées, le niveau de la mer continuera à s'élever pendant des siècles et des élévations du niveau de la mer de plusieurs mètres sont prévues au cours des prochains siècles.

La fonte des glaciers et des glaces

La fonte des glaciers continentaux

Les mesures effectuées par satellite et sur la glace prouvent actuellement que les nappes de glace du Groenland et celles de l'Antarctique perdent de leur masse à une vitesse croissante. La fonte des glaciers et des calottes glaciaires dans les autres parties du monde s'est aussi accélérée depuis 1990 (Résumé exécutif pour le sommet de Copenhague, 12/2009).

Depuis la fin des années 1960, la couverture neigeuse mondiale a décru d'environ 10 à 15%. Les vagues de froid hivernales dans une grande moitié septentrionale de l'hémisphère nord durent deux semaines de moins qu'il y a 100 ans.
Les glaciers de montagne, régressent un peu partout dans le monde : en moyenne de 50 m par décennie depuis 150 ans. Toutefois, ils sont également sont sujets à de fortes variations pluri-temporelles qui rendent les prévisions sur ce point difficiles selon certains spécialistes.

Les glaciers polaires comme ceux du Spitzberg (à une centaine de km du pôle Nord) reculent depuis 1880, libérant de grandes quantités d'eau (Laboratoire de Géodynamique des milieux naturels et anthropisés, Clermont-Ferrand, 01/2004).

La Terre E17

La fonte de la glace de mer

L'Arctique perd environ 10% de sa couche de glace permanente tous les dix ans depuis 1980 (NASA, 2003). Dans cette région, les températures moyennes ont augmenté à une vitesse deux fois plus rapide qu'ailleurs dans le monde durant les dernières décennies (ACIA, 11/2004).

La fonte de la banquise arctique se traduit par une perte de 15% de sa superficie et de 40% de son épaisseur depuis 1979.
De plus, la banquise atteint des records en terme de perte de superficie : en août 2007, la banquise ne représentait plus que 5,26 millions de km², pour 7,5 millions de km² en 1978 (National Snow and Ice Data Center, 08/2007). Tous les modèles prédisent la disparition de la banquise arctique en été d'ici quelques décennies, ce qui ne sera pas sans conséquence sur le climat en Europe. La fonte d'été de la glace de mer arctique s'est accélérée bien au-delà des prévisions des modèles climatiques.

La Terre F16

Dans la plus grande partie de l'Alaska, le pergélisol a gagné 1,6°C depuis le début des années 1980 et jusqu'à 3,3°C dans certaines zones. Conséquences : des trous, appelés thermokarst, apparaissent subitement.

La multiplication des phénomènes extrêmes et des anomalies climatiques

La Terre Parc110
Arbres couchés suite à la tempête de 1999

A l'échelle de l'humanité, une moyenne de 200 millions de personnes sont touchées chaque année par les catastrophes naturelles et environ 70 000 périssent. En effet, comme en témoignent quelques exemples de catastrophes et anomalies climatiques, nous assistons à des signes avant-coureurs significatifs :

Août 2003, une canicule sans précédent touche l'Europe et principalement la France sinistrée avec 20 000 morts.

L'année 2000 fût marquée par des précipitations et des inondations sans précédent dans de nombreuses régions du globe : l'Italie, la Suisse et l'Angleterre des mois d'octobre à décembre, l'Indochine avec les crues du Mékong les plus importantes en quarante ans, à Nagoya, au Japon, les pluies de septembre, ont atteint un niveau jamais enregistré depuis 1891, le Texas a enregistré durant l'été, 66 jours sans pluie, du jamais vu depuis les observations de 1898.

La saison cyclonique 2005 dans l'Atlantique Nord a battu des records à la fois en nombre de tempêtes et en puissance des cyclones.

"Des sécheresses plus sévères et plus longues ont été observées sur des larges étendues depuis 1970, particulièrement dans les régions tropicales et subtropicales " (GIEC, 2007).

L'intensité de la circulation océanique profonde et lente qui redistribue l'énergie dans les océans diminue sensiblement depuis 5 ans, bien que les prévisions sur ce sujet soient encore très incertaines.

Juillet 2006, des canicules touchent une partie de l'Europe et de l'Amérique du Nord entraînant notamment une tension sur l'énergie. L'été 2007 sera également celui de feux de forêts importants et de records de températures dans la zone méditerranéenne de l'Europe.

Soulignons cependant que ces observations sont dépendantes des systèmes de relevés météorologiques qui n'existent que dans un nombre assez limité de pays avec des statistiques qui remontent rarement au-delà d'un siècle ou un siècle et demi. De surcroît, les scientifiques peinent à représenter les variations climatiques des deux derniers milliers d'années qui pourraient servir de référence dans les projections.
C'est pourquoi, il faut nuancer quelque peu le caractère exceptionnel de ces informations. En effet, il est encore difficile de connaître les périodes de retour des catastrophes climatiques dans une région donnée. Mais sur le dernier siècle, force est de constater l'emballement du système climatique.

En effet, tout porte à croire que le climat s'emballe... Dans un article paru dans Science, David EASTERLING, du NOAA (National Oceanic and Atmospheric Administration), et ses collègues "suggèrent" avec prudence que divers événements climatiques exceptionnels deviennent de plus en plus nombreux.
Tandis que d'autres confirment cette tendance à l'intensification des catastrophes naturelles à l'échelle mondiale. Alors qu'il était enregistré un peu moins de 50 évènements significatifs par an sur la période 1970-1985, depuis 1995 on en compte environ 120.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 21:40

Des prévisions alarmantes

La Terre Bali_u10

Fort de ces constats, le GIEC en collaboration avec de nombreux centres scientifiques dans le monde établit des scénarios prévisionnels avec différents paramètres socio-économiques pour évaluer les émissions futures en gaz à effet de serre et donc le réchauffement attendu.
Tous les scénarios potentiels d'émissions prévoient une augmentation des concentrations de CO2, une élévation de la température moyenne mondiale et du niveau de la mer au cours du XXIième siècle. En effet, les hypothèses les plus optimistes (stabilisation des émissions de GES au niveau de 1990) révèlent tout de même une augmentation d'environ 1,1°C.
Vu le développement continuel de nos activités industrielles et la diffusion du modèle de consommation occidental partout dans le monde, le scénario le plus communément envisagé pour 2100 est celui où la concentration en CO2 aura doublé par rapport à l'ère pré-industrielle pour s'élever à 560 ppm. La température de la Terre s'élevera alors de 3°C en moyenne d'ici à 2100, un scénario catastrophe.

Ces fourchettes de températures et de montée du niveau des océans s'expliquent pour moitié par les tendances socio-économiques plausibles et pour autre moitié par l'incertitude du modèle climatique utilisé pour les calculer (vu la complexité du système Terre).

La Terre Captur29

Les modèles climatiques

La modélisation du climat se fonde sur la formulation mathématique des principes physiques qui régissent les interactions entres les continents, les océans, les glaces et l'atmosphère.
Différents modèles très complexes et affinés régulièrement tournent sur des supercalculateurs (des ordinateurs très puissants) afin de nous proposer des scénarios de plus en plus fiables. Des équations thermodynamiques complexes prennent en compte le rayonnement solaire, terrestre, la circulation atmosphérique, océanique...
Ces programmes informatiques sont validés sur les climats passés et présents et sont suffisamment fiables pour que le climat moyen prévu soit relativement proche de celui observé.
Cependant, il s'agit là d'une tâche particulièrement difficile et les paramètres à prendre en compte sont légion. C'est pourquoi ils n'intègrent pas complètement les cycles du carbone, de l'eau, de l'ozone, du méthane ou des aérosols... Ce qui laisse une part aux incertitudes.

L'atmosphère est découpée en mailles de 100 x 100 km et même de 60 x 60 km en France. Chacune de ces mailles évolue en fonction de critères climatiques, topographiques et géographiques donnant ainsi une idée globale de l'évolution du climat à l'échelle de la planète.

"A partir de 1970, une très bonne correspondance peut être observée entre le faisceau des simulations prenant en compte les gaz à effet de serre et le faisceau d'évolution des températures. La capacité à arriver aux échelles régionales est cependant encore limitée, ce qui constitue une difficulté pour simuler les effets du changement climatique" (Hervé Le Treut, Colloque Biodiversité et climat avant et après Copenhague, 12/2009)

Vers des changements climatiques ?

La communauté scientifique est quasi unanime : l'aggravation de l'effet de serre est principalement à l'origine du réchauffement climatique en cours qui représente "une perturbation anthropique dangereuse du système climatique". En effet, "de toute évidence, le climat de la Terre a évolué à l'échelle régionale et mondiale depuis l'époque préindustrielle" (GIEC, 2001).

On parle donc de changement climatique global car son étendue géographique est planétaire et ses caractéristiques et conséquences sont variées.

Dans le contexte actuel, le caractère inhabituel de ces événements et leur multiplication suscitent au moins quatre grandes interrogations :

- Qui en sont les principaux reponsables ?

- Ces phénomènes de plus en plus violents vont ils se renforcer et devenir plus fréquents ? Quelles en seront les principales conséquences ?

- Dans quelle mesure les sociétés humaines seront elles capables de contrer ce scénario catastrophe ou au pire de s'y adapter ?

- Quelles solutions globales et individuelles pouvont nous apporter ?

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 22:05

Changement climatique : les gaz à effet de serre

La Terre Zi_stp10

L'effet de serre additionnel

"Dans bien des cas, la satisfaction des besoins humains est à l'origine d'une détérioration de l'environnement, laquelle à son tour risque de diminuer la capacité à répondre aux besoins actuels et futurs" (GIEC, 2001).

Ce sont les activités humaines, principalement par l'exploitation massive de combustibles fossiles et la modification de la couverture des terres, qui entraînent une augmentation des concentrations atmosphériques de gaz à effet de serre (GES), qui modifient les bilans radiatifs et tendent à réchauffer l'atmosphère.

Le dernier rapport du GIEC de 2007 note qu'il y a désormais "plus de 90% de chances" que les activités humaines jouent un rôle dans le réchauffement planétaire que nous connaissons.

Ce phénomène naturel de piégeage par l'atmosphère de la fraction du rayonnement solaire ré-émis par la Terre, l'effet de serre, est amplifié par les rejets excessifs de gaz majeurs : gaz carbonique (CO2), méthane (CH4), protoxyde d'azote ou oxyde nitreux (N2O), ozone (O3) et de gaz mineurs comme l'hexachlorofluorocarbone (HCFC), le perfluorocarbures (PFC) et l'hexafluorure de soufre (SF6). Les concentrations des trois gaz majeurs "ont crû de façon notable du fait des activités humaines depuis 1750" (GIEC, 02/2007).

En 2008 les émissions mondiales de dioxyde de carbone générées par les combustibles fossiles étaient en hausse de presque 40% par rapport aux émissions générées en 1990. Les chercheurs ont obtenu par l'analyse de multiples carottes glaciaires des bornes trés précises quant aux teneurs "normales" observées sur plus de 800 000 ans pour le CO2 et le CH4.

Responsabilité des différents gaz dans l'effet de serre additionnel

La Terre Gazser10
Part des différents gaz à effet de serre : dans l'effet de serre additionnel ou d'origine anthropique, le dioxyde de carbone contribue majoritairement à l'effet de serre.

Les différents gaz responsables participent plus ou moins à l'effet de serre via leur pouvoir de réchauffement et leur durée de vie. Ainsi, même des gaz émis en très petite quantité peuvent renforcer nettement et durablement l'effet de serre.

La Terre Captur30

Le Pouvoir de réchauffement Global (PRG)

Cet indicateur synthétique vise à regrouper sous une seule valeur l'effet additionné de tous les polluants qui contribuent à l'accroissement de l'effet de serre. Cet indicateur est exprimé en "équivalent CO2" du fait que par définition l'effet de serre attribué au CO2 est fixé à 1 et celui des autres substances relativement au CO2 (CITEPA, 2008).
Du fait de leur différent temps de séjour dans l'atmosphère, ces PRG vont varier suivant les échéances considérées : par exemple, l'effet d'un kg de méthane à 100 ans est estimé comme étant 21 fois celui d'un kg de CO2, alors que sur 50 ans son effet est 42 fois celui d'un kg de CO2. EN règle générale, le pas de temps considéré est fixé à 100 ans.

Les principaux gaz à effet de serre additionnels (GES)

La Terre Pollui10

Le dioxyde de carbone (CO2)

Le dioxyde de carbone (CO2) contient du carbone (C). Ce carbone prend différentes formes et circule entre les organismes vivants, la matière organique du sol, les océans, les gisements de combustibles fossiles et l'atmosphère. Lors de la combustion des énergies fossiles, le carbone se transforme immédiatement en CO2. Inversement, l'accumulation de carbone à partir de la matière organique créée par la photosynthèse, prend des millions d'années et s'est produite au Carbonifère, il y a plus de 300 millions d'années.

Le CO2 provient principalement des émissions des combustibles fossiles (charbon, pétrole et gaz) qui représentent 87% de l'énergie utilisée dans le monde et émettent 8,4 Gt de carbone par an. Il est également issu de certains procédés industriels, la déforestation (pour plus de 15% soit 1,5 Gt de carbone par an) et l'agriculture intensive. Les secteurs les plus émetteurs sont l'industrie, la production énergétique et les transports. La consommation des ménages (cuisson, chauffage, électricité) contribue aussi significativement aux émissions de CO2.
Le CO2 est également émis par l'activité naturelle de notre planète : éruptions volcaniques, respiration des plantes et des animaux.

Le cycle du carbone

Le carbone est présent dans tous les grands milieux de notre planète (biomes) :

- Océans 37 000 Gt (Gigatonnes c'est à dire milliards de tonnes). On distingue deux réservoirs océaniques :

les eaux de surface (1 700 Gt), sur une centaine de mètres, où s'opèrent les échanges avec l'atmosphère. Les eaux de surface, grâce au phytoplancton absorbent une importante quantité de carbone.

les eaux profondes (35 300 Gt) où le carbone est présent sous forme de carbone inorganique dissous. (G.Jacques, H. Le Treut, 2004)

Toutefois, le puit océanique n'est pas sans limites et cette absorption peut entraîner de graves conséquences pour la vie marine à moyen terme.

- La biomasse vivante (600 Gt) dont 283 Gt pour les forêts (FAO - FRA 2005) ; le carbone organique mort (2 600 Gt).

- Les sédiments calcaires (66 000 000 à 100 000 000 Gt)

Les échanges annuels de carbone entre l'atmosphère et la surface de la Terre sont de 105 Gt entre la végétation et l'atmosphère et 90 Gt entre l'océan de surface et l'atmosphère.

A la fin du XIXème siècle, l'atmosphère contenait environ 235 Gt de carbone. A partir de 1950, la combustion d'énergies fossiles émettait 1,5 Gt de carbone par an, 4,5 Gt en 1970, 6,4 Gt en 1990 et 7,9 Gt en 2007.
La moitié environ des émissions de carbone est absorbée par les puits naturels de carbone comme les océans (1/4), la végétation et les sols (1/4), l'autre moitié s'accumule dans l'atmosphère. Or, il est indispensable de diminuer au moins de moitié ces émissions... La civilisation industrielle a donc déjà perturbé le cycle du carbone à l'échelle planétaire. Et ces émissions pourraient être multipliées par 5 jusqu'à 2 100 à un tel rythme.

Emissions globales de CO2 d'origine anthropique

Les mesures précises du CO2 atmosphérique ont débuté en 1958. Il représente environ 63% du pouvoir radiatif global des gaz à effet de serre. Il a contribué à l'augmentation de ce forçage à hauteur de 90% depuis 5 ans (OMM, 11/2008).

Le secteur du transport représente en moyenne plus de 30% du total des émissions de CO2 dans le monde et ce rapport croît continuellement depuis plusieurs années dans la quasi totalité des pays. La seule circulation routière est responsable en 2004 de 17% des émissions mondiales de CO2.

Les concentrations en dioxyde de carbone (CO2)

Les concentrations en CO2 sont comprises entre 190 ppm (ères glaciaires) et 300 ppm (périodes chaudes). Les mesures effectuées à l'observatoire de Mauna Loa et l'étude des bulles d'air emprisonnées dans les calottes polaires, montrent que la concentration est passée d'environ 280 ppm dans les années 1850 (début de la civilisation industrielle) à plus de 387 ppm en 2009 : le taux de CO2 atmosphérique est plus élevé aujourd'hui qu'il ne l'a jamais été au cours des 2 derniers millions d'années...
A titre de comparaison, il avait fallu plus de 5 000 ans pour que la concentration en CO2 augmente de seulement 80 ppm à la fin du dernier âge glaciaire... (GIEC, 2007)
Notons qu'il existe une oscillation annuelle normale des concentrations de CO2 qui s'explique par le cycle végétatif.

La Terre B23

Le danger des puits de carbone

L'évolution des taux de CO2 est compliquée par son cycle qui touche tous les milieux : océans, sols, faune, flore, air. Ainsi, la moitié seulement du CO2 rejeté par les activités humaines s'accumule dans l'atmosphère, l'autre moitié étant absorbée par les puits de carbone que sont les océans, les sols, la faune et la végétation déjà bien mal menés.

Le Protocole de Kyoto prévoit la possibilité de recourir aux puits de carbone pour obtenir des permis d'émissions. Or, vu les niveaux de CO2 constatés et surtout les changements climatiques enclenchés, il est envisageable que les puits de carbone que sont les arbres, en disparaissant, libèrent le gaz carbonique qu'ils contiennent portant les émissions de 35 à 40 milliards de tonnes ! En effet, selon une étude de l'institut britannique de météorologie Hadley " la biosphère terrestre intervient comme un puits de carbone jusqu'en 2050 environ, puis se transforme en source" d'émission, car à terme les végétaux rejettent le CO2 au préalable stocké. De plus, des études française et britannique craignent que les océans et les forêts deviennent insuffisants... Sur ce point, les océans qui participent aussi massivement à l'absorption de CO2 grâce aux courants marins et au plancton, seront moins efficaces.
Dans tous les cas, aucun plan réaliste de sylviculture ne pourrait compenser les rejets de CO2 des sociétés humaines.

La séquestration du carbone dans les couches géologiques profondes ou dans les fonds marins est également en expérimentation tout en posant des problèmes techniques et écologiques.

Le méthane (CH4)

Le méthane provient de la dégradation de la matière végétale par des bactéries méthanogènes, dans un milieu pauvre en oxygène.

Ce gaz est à 60% émis par l'élevage intensif des bovins, les déjections animales, les cultures (comme le riz), la fermentation des déchets organiques, les feux de forêts, l'utilisation du bois pour le chauffage et la cuisson, l'inondation de vallées lors de la mise en eau des barrages (avec la décomposition de la biomasse noyée), lors du transport et de l'exploitation du gaz et du pétrole (fuites de grisou dans les mines de charbon, de gaz avec les gazoducs, torchères...) et enfin dans les milieux humides, compacts et mal drainés.
40% des émissions de méthane sont imputables à des processus naturels tels ceux liés aux terres humides et aux termites (OMM, 11/2008).

Le méthane contribue à hauteur de 18,5 % au forçage radiatif direct induit par les gaz à effet de serre.

Notons enfin que le CH4 s'oxyde en CO2.

Les concentrations en méthane (Ch4)

Le CH4 fluctue entre 320 (périodes froides) et 790 ppb (périodes chaudes), or nous approchons des 1800 ppb. Notons que les activités humaines ont modifié les concentrations en méthane depuis plus de 2 000 ans (Université du Colorado - J.White, 09/2005)

Par conséquent, de 1990 à 2004, le forçage radiatif a augmenté de 20% (NOAA Climate Monitoring and Diagnostics, 09/2005).

Toutes les analyses confirment l'effet notable des activités humaines sur ces variations, même s'il demeure de nombreuses incertitudes sur leurs évaluations et surtout sur les conséquences qui peuvent s'ensuivre. Pour autant, les prévisions dans la hausse des températures sont de plus en plus confirmées et importantes dans leur ampleur.

"La comparaison entre le changement observé dans la température moyenne globale et le résultat des simulations suggère que le réchauffement des cent dernières années n'est vraisemblablement pas dû aux seules causes naturelles et que les caractéristiques géographiques d'un réchauffement dû aux activités humaines sont identifiables dans les observations du climat" (GIEC, 2001)

Le protoxyde d'azote ou oxyde nitreux (N2O)

Le protoxyde d’azote (N2O) est un composant du cycle de l'azote (N). L’azote est présent dans le sol, les végétaux et dans l'atmosphère principalement sous sa forme gazeuse, le N2.
Les micro-organismes qui réalisent la nitrification et la dénitrification de l’azote dans les sols et les fumiers sont responsables des émissions de N2O en milieu agricole. Ces émissions sont stimulées par l’épandage d’engrais minéraux azotés et d’engrais organiques, et par l’excès d'azote minéral provenant des engrais organiques et de synthèse dans un milieu faible en oxygène, tel que les sols compacts et mal drainés (Nature Québec, 2011)

Le protoxyde d'azote contribue à hauteur de 6,2 % au forçage radiatif direct induit par les gaz à effet de serre. 1/3 des émissions de N2O sont liées aux activités humaines.

Ses sources d'émission sont à la fois naturelles (océans, sols) et anthropiques : agriculture intensive (décomposition des engrais, déjections), combustion de la biomasse, procédés industriels chimiques (production d'acide nitrique et d'acide adipique), combustion des carburants pour l'aviation et aérosols.

L'ozone (O3)

Ce gaz résulte de réactions chimiques de divers polluants primaires comme les oxydes d'azote (NOx), le CO et les Composés Organiques Volatils non-Méthaniques (COVNM) sous l'effet du rayonnement solaire. La production d'ozone est fortement lié au trafic automobile dans des conditions de températures supérieures à 25°C. L'ozone troposphérique représenterait 17 à 20% de l'effet de serre additionnel (Planète Environnement, 2004).
Pourtant, ce gaz n'est pas pris en compte dans les accords internationaux.

Les HydroFluoroCarbones (HFC)

Les HFC sont des gaz qui ne contiennent pas d'atomes de chlore ou de brome connus pour leur atteinte grave à la couche d'ozone. Ils se susbstituent donc aux CFC qui furent utilisés massivement dans les systèmes de réfigération, de conditionnement d'air et comme gaz propulseur dans les aérosols. Le protocole de Montréal, un accord international signé en 1987, a progressivement permis l'abandon des CFC et leur remplacement par les HFC. Si cela est bénéfique pour le rétablissement de la couche d'ozone, les HFC contribueront de plus en plus au réchauffement climatique...

L'évolution des concentrations en gaz à effet peut être suivie sur la page de la NOAA dédiée à l'indice annuel des gaz à effet de serre.

La vapeur d'eau

La vapeur d'eau est le principal gaz à effet de serre naturel. Elle joue un rôle complexe dans le réchauffement climatique car son cycle et ses réponses sont très rapides (quelques semaines au plus) en fonction des conditions météorologiques, contrairement aux autres GES dont la durée de vie et l'inertie sont beaucoup plus importants.

Les activités humaines influencent peu sa concentration dans l'atmosphère. C'est la température de l'atmosphère qui détermine sa présence. Ainsi, en réchauffant l'atmosphère, nos activités pourraient indirectement augmenter la quantitié de vapeur d'eau dans l'air, augmentant d'autant plus l'effet de serre : on appelle ceci une rétroaction positive.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 22:12

Changement climatique : responsabilité des pays

Les pays industrialisés les premiers responsables

La Terre Boucho10
Circulation automobile à La Défense

Ce sont les pays industrialisés du Nord qui sont les plus gros émetteurs de gaz à effet de serre avec toutefois une palme pour la Chine, qui vient de se hisser depuis peu devant les Etats-Unis pourtant responsables de près d'un tiers des émissions.

Cependant, les émissions de CO2 dans les pays industrialisés devraient être divisées par 3 d'ici 2050 sous l'effet des évolutions technologiques et des contraintes politiques. Au contraire, les pays en voie de développement dont les populations vont doubler et se hisser aux niveaux de consommation des pays industrialisés, devraient multiplier par 6 leurs émissions de CO2 ! En 2050, leurs émissions seront alors 7 fois supérieures aux pays industrialisés... Une nouvelle donne qui compliquela prise de décision politique.

La Terre Captur31

Émissions de CO2 par pays

Voici, en 2007, les dix pays qui rejettaient le plus de CO2 au monde. La chine, devenu la manufacture de l'occident, est désormais au premier rang.

La Terre B24

Émissions de CO2 par habitant

Les émissions de dioxyde de carbone doivent être rapportées à la population afin de mieux estimer la part de responsabilité du pays et de l'habitant dans les émissions globales de CO2. A ce titre, la limite acceptable pour ne pas entraîner de perturbations graves du système climatique est de 2 tonnes de Co2 par habitants.
Ci-dessous le tableau des 10 pays qui rejettent le plus de CO2 par habitant (en tonnes) en 2007.

La Terre C18

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 22:28

Changement climatique : les conséquences attendues

La Terre Orage_10

Les changements climatiques et l'inertie des systèmes

Les changements climatiques induits par cette augmentation de la concentration des gaz à effet de serre auront des conséquences multiples et difficiles à cerner. Cependant, ils devraient causer des modifications, aux échelles régionale et planétaire, de la température, des précipitations et d'autres variables du climat, ce qui pourrait se traduire par des changements mondiaux dans l'humidité du sol, par une élévation du niveau moyen de la mer et par la perspective d'épisodes plus graves de fortes chaleurs, d'inondations, de sécheresses...

Ce qui change par rapport aux variations climatiques naturelles que l'Homme a pu connaître, c'est que la vitesse moyenne du réchauffement sera supérieure à tout ce qui a pu se produire, avec une élévation de température jamais atteinte depuis plus de deux millions d'années (D.Jolly, in Science & Vie, 2003). Ce dérèglement climatique étalé sur une centaine d'année sera comparable aux variations de températures qui nous séparent d'un âge glaciaire (5 à 6°C) et donc d'une ampleur inégalée depuis au moins 10 000 ans (H. Le Treut, CNRS, 2004). Rapelons que le dernier âge glaciaire date d'environ 18 000 ans et qu'il a fallu plusieurs milliers d'années pour que la température baisse de 5 à 6°C, il est en effet, ici question d'une centaine d'année...
Notons que le Crétacé supérieur (il y a environ 80 millions d'années) fut la période la plus chaude de l'histoire de la Terre avec environ 6°C de plus qu'aujourd'hui (A. Nicolas, 06/2004)

Les réponses des différents systèmes (climatiques, écologiques, socio-économiques) affectés par ces changements climatiques sont caractérisées par une inertie inhérente qui fait certaines conséquences seront irréversibles ou persisteront des millénaires.
De surcroît, les conséquences dépasseront la capacité de réponse des systèmes naturels et humains qui pourraient être définitivement altérés ou détruits.
A ce titre, le GIEC souligne l'importance des "mesures d'adaptation et d'atténuation anticipatoires". En effet, la stabilisation voire la réduction des émissions à un niveau peu élevé ne permettront plus de prévenir les changements climatiques en cours. D'autant plus qu'en général, plusieurs années sont nécessaires à la mise en oeuvre de plans d'actions de la part de nos sociétés face à des problèmes importants, un temps précieux qui peut accroître considérablement la durée de certains effets.
Notons enfin que certains changements régionaux proviennent de variations climatiques naturelles et localisées qui peuvent alors paraître en contradiction ou en exagération des conséquences attendues globalement comme un refroidissement exagéré.

En général, ce sont les populations des pays en voie de développement, qui seront le plus exposées aux conséquences des changements climatiques notamment à cause de leur manque de moyens.

Les principales conséquences des changements climatiques

La Terre Chute_10

"Les changements climatiques prévus auront des effets bénéfiques et néfastes sur les systèmes environnementaux et socio-économiques, mais plus l'ampleur et le rythme de ces changements seront important, plus les effets néfastes prédomineront." (GIEC, 2001)
Il est encore très difficile de prévoir avec exactitude les conséquences climatiques pour chaque région du globe. Ce qui semble acquis, c'est le caractère répétitif d'événements alors exceptionnels : "il est très probable (plus de 9 chances sur 10) que les chaleurs extrêmes, les vagues de chaleur et les événements de fortes précipitations continueront à devenir plus fréquents" (GIEC, 2007).
Ensuite, des zones à des échelles régionales devraient subir des modifications plus spécicifiques en fonction de leur situation géographique.

Le climat

Les températures et les saisons

D'une façon générale, les écarts thermiques entre les saisons et les continents seront moins marqués, l'élévation de température sera plus forte aux pôles qu'à l'équateur, sur les continents que sur les océans, la nuit que le jour et plus élevée en hiver qu'en été. Le régime hydrologique sera modifié par l'accélération du cycle évaporation-précipitation.
Les deux principales conséquences attendues sont un déplacement vers les pôles des zones climatiques tropicales (d'environ 100 km par degré d'élévation de température) et l'accentuation de la dynamique et des contrastes climatiques (A. Nicolas, 06/2004).

"Le réchauffement le plus important est attendu sur les terres émergées et aux latitudes élevées, et le moins important est escompté dans le sud de l'océan indien et dans certaines parties de l'Atlantique nord" (GIEC, 2007).

Les précipitations

Les précipitations seront plus importantes aux latitudes élevées et plus faibles dans la plupart des régions émergées subtropicales.

Selon le GIEC, la qualité de l'eau douce pourrait être altérée, bien que ceci puisse être compensé par des débits plus importants dans certaines régions.

Les courants marins

Le réchauffement global pourrait affaiblir le Gulf Stream, courant chaud qui adoucit en partie le climat de l'Europe occidentale entraînant pour le coup un refroidissement important sur l'Europe du Nord et la côte est des Etats-Unis de -5°C (hypothèse estimée plausible à 5%). Cette transition ne devrait pas s'opérer de façon marquée au cours du XXième siècle.

Les glaciers

Les glaciers de montagne

Les glaciers de montagne continuent leur régression généralisée et devraient avoir tous disparu d'ici 50 à 100 ans, ce qui entraînera des pénuries d'eau pour des millions de personnes qui en sont tributaires. Ce sera sans doute le cas en Asie dans la région Hindu Kouch-Himalaya, où les glaciers fondent à une vitesse alarmante qui s'accélère, menaçant directement l'alimentation en eau de fleuves majeurs comme le Gange et le Yangtze (Nature, 11/2005, Planète Science 03/2006).

Les glaces de mer

La superficie et l'épaisseur de la couverture neigeuse et de la glace marine diminueront.
"Le niveau de la mer et les inlandsis devraient continuer de réagir au réchauffement pendant des siècles après la stabilisation des concentrations de gaz à effet de serre" (GIEC, 2001).
Notons que selon le GIEC, "il n'existe pas de changements prouvés pour ce qui est de la superficie générale de la glace marine antarctique pour la période entre 1978 et 2000" contrairement à la banquise arctique qui a perdu 15% de sa superficie et 40% de son épaisseur depuis 1979.
La fonte de la banquise arctique affectera la circulation thermohaline en introduisant de l'eau douce qui pourrait atténuer l'enfoncement des eaux salées et denses qui participent ensuite au réchauffement de l'hémisphère Nord (L.Fortier, 08/2005).

Le pergélisol

Le pergélisol des régions polaires, subpolaires et montagneuses, un héritage issu de la dernière glaciation il y a 120 000 ans, devrait continuer de fondre, avec des glissements de terrain qui affecteront les infrastructures, les cours d'eau et les écosystèmes des zones humides.

Les océans

Le niveau des océans

L'élévation du niveau des mers pourrait atteindre près d'un mètre, bien davantage pour certains auteurs ! Et ce, de façon irréversible à moyen terme dorénavant. En effet, le réchauffement de l'atmosphère met des dizaines d'années avant d'atteindre le fond des océans. Il se crée donc un phénomène thermique capable d'entretenir la montée du niveau des océans pendant plusieurs centaines d'années.
Les trois principales conséquences sont l'accentuation de l'érosion des littoraux (100 km² de marécages disparaissent chaque année dans le delta du Mississippi), l'augmentation de la vulnérabilité aux tempêtes qui génèrent des inondations et la salinisation des littoraux alors impropres aux cultures.

Un réchauffement supplémentaire de 4 à 7 degrés est attendu en Arctique dans les cent prochaines années avec des répercussions planètaires : inondations des zones côtières, hausse du niveau des océans, modification des trajets de migration, ralentissement des échanges océaniques... (ACIA, 11/2004)

Plus d'une centaine de millions de personnes vivant dans des deltas, sur des îles et sur les littoraux devront sans doute se déplacer. Notons que comme New York (19 millions d'habitant), 16 des 20 mégapoles mondiales sont situées en bord de mer où l'élévation du niveau des eaux pourrait atteindre près d'un mètre !

L'acidification des océans

L'acidité des océans augmente significativement. Le niveau d'acidité des océans (mesuré par le PH) est resté stable entre le Xème et le XIXème siècle. Cependant, selon C. Langdon, professeur de biologie marine à l'Université de Miami, il a diminué (l'acidité augmente donc) de 0,1 depuis la révolution industrielle. La baisse devrait être de 0,3 d'ici à 2100, menaçant gravement les organismes marins : la croissance du corail et du plancton ralentiraient et les coquilles des ptéropodes (minuscules escargots marins) seraient dissoutes. Selon, K. Caldeira, spécialiste de l'océanographie chimique à l'Université Stanford, les océans sont plus acides que "depuis des millions et millions d'années"... (Courrier International, 10/2006).

Les risques naturels

La fréquence, l'intensité et la durée des phénomènes extrêmes (canicules, inondations, sécheresses, cyclones...) seront accentuées, bien qu'il n'est pas encore possible de l'affirmer pour les orages, les tornades ou le grêle par exemple.

Les constructions et les centres urbains doivent s'adapter à la multiplication des catastrophes naturelles, ce qui n'est manifestement pas encore le cas (comme en témoignent l'inondation de La Nouvelle Orléans en août 2005 et la tempête Xynthia qui a inondé une partie du littoral français en mars 2010) faute de données fiables sur les périodes de retour des tempêtes par exemple.

Le secteur des assurances devrait revoir à la hausse le coût de son accessibilité vu que selon le Programme des Nations Unies pour l'Environnement, les dépenses engendrées pourraient atteindre les 300 milliards de dollars par an dans 50 ans...
Pour exemple, les coûts entraînés par le cyclone Mitch (1998) ont menacé de faillite le secteur des assurances aux Etats-Unis. Katrina en août 2005 coûterait environ 135 milliards de dollards.

La couche d'ozone

L'effet de serre favorise la destruction de la couche d'ozone. En effet, les gaz à effet de serre refroidissent les couches supérieures de l'atmosphère (la stratosphère) ce qui attise l'action destructrice de l'ozone des molécules de chlore des CFC. Ainsi, les populations qui vivent aujourd'hui en Arctique recevront une dose d'UV 30% supérieure (ACIA, 11/2004).

La biodiversité

D'ores et déjà, le vivant est affecté par le changement climatique puisque des mouvements de milliers d'espèces sont enregistrés sur tous les continents. Ainsi, trente neuf espèces de papillons européens et nord-américains ont progressé jusqu'à 200 km vers le nord en 23 ans (Science & Vie, 2003). Modification des cycles de vie, accroissement du risque d'extinction de certaines espèces vulnérables, déplacement des aires de répartion et réorganisation des interactions entre les espèces (fragmentation, compétition) en sont les principales conséquences.
Selon les biologistes, un réchauffement de 1°C se traduit par un déplacement vers le nord de 180 km (et de 150 m en altitude), en moyenne, des aires de répartition des espèces (Science & Vie, 2003).

Les secteurs économiques

Tous les secteurs socio-économiques subiraient les conséquences de stress supplémentaires imposés à l'infrastructure physique et sociale, allant d'une modification des pratiques de construction à une adaptation des systèmes de soins de santé et à des changements des modes de vie de subsistance reposant sur les connaissances traditionnelles.

L'agriculture

Les taux de récolte dans les secteurs de l'agriculture, de la foresterie et des pêches sont sensibles au climat. Ainsi, l'enrichissement de l'air en CO2 favorise le développement de la biomasse (+30% selon l'INRA en 2004) et l'élévation de la température augmenterait la saison de pâture en France.
Par contre, l'adaptation de ces secteurs aux catastrophes naturelles devra être importante comme en témoignent le déclin économique du marché français du bois après les tempêtes de 1999.

Enfin, les analystes de l'ONU considèrent que les aléas climatiques ont désormais une influence directe sur 30 % à 70 % du PIB mondial...

La santé

Sur la santé humaine : les conséquences seront très certainements largement négatives. Ces incidences pourront être directes (comme l'exposition à de nouveaux stress thermiques et à de nouveaux types de phénomènes extrêmes) ou indirectes (accroissement de la présence de certains pollens, moisissures ou polluants atmosphériques, malnutrition, risque accru de maladies transmises par vecteurs ou dues à la contamination de l'eau, surcharge du système de soins de santé).
En effet, l'extension géographique de plusieurs maladies majeures comme la malaria (1 milliard de personnes infectées), la dengue, la leishmaniose... Dépend de la hausse des températures.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 22:38

Changement climatique : les solutions d'adaptation et d'atténuation

Un problème planétaire qui réclame une réponse internationale

Même si les changements climatiques ont des répercussions locales très différentes suivant la géographie de la région affectée, l'augmentation de la concentration des gaz à effet de serre atteint, via le brassage des masses d'air, toute la planète et donc tous les écosystèmes en seulement quelques mois. Il s'agit donc d'un problème planétaire qui réclame des réponses claires et engagées au niveau international.

Le point de changement doit arriver vite : si le réchauffement de la planète doit être limité à un maximum de 2°C au dessus des valeurs préindustrielles, les émissions mondiales doivent atteindre leur plus haut niveau entre 2015 et 2020 puis décroître rapidement. Pour stabiliser le climat, une société décarbonisée mondiale – avec pratiquement zéro émission de CO2 et d'autres gaz à effet de serre dits à longue durée de vie – doit être établie bien avant la fin de ce siècle. Plus particulièrement, les émissions annuelles moyennes par habitant devront diminuer à un niveau bien au-dessous d'une tonne métrique de CO2 vers 2050. Ce qui représente une baisse de 80 à 95 % par rapport aux émissions par habitant des pays développés en l'an 2000 (Résumé exécutif pour le sommet de Copenhague, 12/2009).

La question énergétique est au coeur de ces objectifs. Or, la consommation énergétique croît de 2% par an alors que les émissions devraient être divisées par deux. Pour exemple, en 2000, la consommation mondiale équivalait à la consommation cumulée de la période 1950 à 1957.

A ce titre, plusieurs colloques, conventions et organisations internationales se succèdent précisant à chaque fois, tant que possible, les conséquences prévisibles et les mesures à mettre en place.

Historique

Ainsi, nous pouvons retenir quelques dates clés :

1951 : création de l'Organisation Météorologique Mondiale (OMM)
1957 : année géophysique internationale : mesure du CO2 atmosphérique, suivi d'El Niño, forages polaires...
1979 : organisation de la première conférence mondiale sur le climat qui permet le lancement d'un programme mondial de recherche qui fait dorénavant autorité : le Programme des Nations Unies pour l'Environnement (PNUE). Le monde scientifique se mobilise alors dans des travaux relatifs au changement climatique via le Programme de Recherche Mondiale sur le climat (PRMC, WCRP en anglais).
1986 : l'ICSU, le Conseil International pour la Science lance le Programme international géosphère-biosphère qui apparaît pour renforcer les connaissances en chimie, biochimie, écologie et biologie.
1988 : les sept pays les plus riches du monde (Allemagne, Canada, Etats-Unis, France, Grande-Bretagne, Italie, Japon) créent le Groupe Intergouvernemental d'Experts sur l'Evolution du Climat ou Intergovernmental Panel on Climate Change (GIEC ou IPCC) sous l'égide du PNUE et de l'OMM. Le GIEC est célèbre pour ses rapports qui font autorité et ses scénarios prévisionnels sur l'ampleur des changements climatiques. Les discussions internationales s'animent notamment autour des informations données par le GIEC.
1989 : seconde conférence mondiale sur le climat à La Haye.
1991 : création du Fonds pour l'Environnement Mondial (FEM). Approvisionné financièrement par des contributions volontaires des pays développés, il a pour objectif d'aider les pays en développement à faire face aux défis environnementaux dont les changements climatiques.
1992 : signature de la Convention-Cadre des nations Unies sur les Changements Climatiques (CCNUCC) à Rio de Janeiro, il s'agit de " prévoir, prévenir ou atténuer les causes de changement climatique et en limiter les effets négatifs ".
1995 : le deuxième rapport d'évaluation du GIEC confirme la responsabilité des activités humaines dans les changements climatiques et préconise les actions préventives, en vertu du principe de précaution.
Première session de la Conférence des Parties à Berlin.
1997 : troisième session de la Conférence des Parties : le Protocle de Kyoto.
1998 : quatrième session de la Conférence des Parties : le Plan d'action de Buenos Aires. Il est prévu l'élaboration progresive des règles de mise en oeuvre du Protocole de Kyoto : le système d'observance, le fonctionnement des échanges de crédits d'émission, l'échange d'informations, la coopération Nord-Sud.
2000 : sixième session de la Conférence des Parties à La Haye.
2001 : troisième rapport d'évaluation du GIEC et nouvelles fourchettes de prévisions sur l'évolution du climat.
Négociations de Bonn et de Marrakech : accords sur la mise en oeuvre des mécanismes prévus par le Protocole de Kyoto.
2003 : conférence de Milan : rapprochement Nord-Sud et introduction des puits de carbone dans le Mécanisme pour un Développement Propre.
2005 : entrée en vigueur du Protocole de Kyoto.
2007 : quatrième rapport d'évaluation du GIEC : des prévisions de plus en plus pessimistes, la nécessité d'agir devient urgente.
Adoption de la feuille de route de Bali qui prépare aux négociations de l'après Kyoto.
2009 : Le G8 s'engage à réduire ses émissions de moitié d'ici à 2050.
2009 : La conférence tant attendue de Copenhague pour finaliser les objectifs de réduction de l'après-Kyoto est un échec.
2010 : La 16e édition de la Conférence des Parties (COP) de la Convention-cadre des Nations Unies sur les changements climatiques et la 6ème Conférence des Parties agissant comme réunion des Parties au Protocole de Kyoto (CMP) s'est achevée sur un sentiment d'impuissance, bien que le cycle des négociations de l'après-Kyoto soit sauvé.
2011 : La COP 17 s'est enlisée, laissant le défi du réchauffement climatique sans réponse claire et vigoureuse, même si tous les pays se sont enfin engagés à adopter un nouvel accord global.

Le Groupe Intergouvernemental d'Experts sur l'Evolution du Climat (GIEC)

Le GIEC, créé en 1988 à la demande du G7 est chapeauté par deux instances de l'ONU, l'Organisation météorologique mondiale (OMM/WMO) et le Programme des Nations Unies sur l'Environnement (PNUE). Plus connu sous son sigle anglais (IPCC - Intergovernmental Panel on Climate Change), il a pour mandat de faire régulièrement le point sur l'état des connaissances sur le changement climatique.
L'objet du GIEC est d'expertiser et de compiler les études menées par plus de 2500 chercheurs et employant plus de 20 modèles sur le changement climatique.

Le GIEC a déjà publié quatre "Rapports d'évaluation". Le Rapport de 1990 a débouché sur la signature, au sommet de Rio (1992), de la Convention-cadre des Nations unies sur les changements climatiques (UNFCCC-CCNUCC) et celui de 1995 (SAR) sur l'adoption du protocole de Kyoto deux ans plus tard.
Le troisième rapport (TAR) a été publié en 2001, au moment où le président George Bush a décidé de ne pas ratifier Kyoto. Le quatrième (AR4), a encadré les négociations sur l'avenir du protocole de Kyoto qui expire le 31 décembre 2012.

Le GIEC se divise en trois groupes de travail : le Groupe I traite des bases scientifiques de l'effet de serre, le Groupe II des impacts du changement climatique et de l'adaptation au phénomène et le Groupe III de la maîtrise et de la réduction des gaz à effet de serre.
L'organisation est originale à plus d'un titre. En premier lieu elle associe, non seulement des chercheurs d'une multitude de disciplines (scientifiques et économistes notamment), mais aussi des politiques. En deuxième lieu sa tâche n'est pas de mener ses propres études mais d'évaluer celles des autres. Ainsi, ses membres doivent "expertiser l'information scientifique, technique et socio-économique qui concerne le risque de changement climatique provoqué par l'homme"
Comme l'a rappelé, à l'ouverture de la réunion de Paris le 29 janvier 2007, la vice-présidente du Groupe I, Mme Susan Solomon (Etats-Unis), elle doit fournir une "information pertinente mais non normative", manière de dire qu'elle ne doit pas faire de recommandations aux décideurs.
Chaque groupe de travail publie une somme d'un millier de pages, exploitant les meilleurs articles publiés dans son domaine. Il rédige aussi un "Résumé pour décideurs" d'une quinzaine de pages et un "Résumé technique". L'AR4, comme le troisième rapport, comportera un ultime volume, une synthèse d'une trentaine de pages des travaux précédents, accompagnée elle aussi d'un Résumé pour décideurs, elle est attendue pour le 17 novembre 2007. Les experts des gouvernements interviennent principalement en fin de processus. Ils négocient mot à mot avec les auteurs le libellé de chaque Résumé pour décideurs (La lettre de la SNDD - Numéro 14 de février 2007).

La Convention-Cadre des nations Unies sur les Changements Climatiques de 1992

En 1992 à Rio (Brésil), se tenait la Conférence des Nations Unies sur l'Environnement et le Développement, dite "Sommet de la Terre", au cours de laquelle des centaines de pays adoptèrent la convention sur les changements climatiques.
La Convention-Cadre des nations Unies sur les Changements Climatiques (CCNUCC) a reconnu l'existence de changements climatiques induits par les activités humaines. Il a alors été déclaré que les pays industriels, en tant que principaux responsables devaient lutter contre ce phénomène.
L'objectif énoncé par la CCNUCC est de "stabiliser les concentrations de gaz à effet de serre dans l'atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique". Et ce en convenant "d'atteindre ce niveau dans un delai suffisant pour que les écosystèmes puissent s'adapter naturellement aux changements climatiques, que la production alimentaire ne soit pas menacée et que le développement économique puisse se poursuivre d'une manière durable."
La CCNUCC est entrée en vigueur en mars 1994. Les pays développés, les pays en transition vers une économie de marché et l'Union Européenne s'étaient engagés à stabiliser leurs émissions de GES au niveau de 1990 pour l'an 2000.
De plus, les pays développés et la Communauté européenne figurant à l'annexe II de la Convention devront soutenir financièrement et technologiquement les pays en développement.

Ainsi, selon la Convention, les gouvernements doivent :

- rassembler et partager des informations relatives aux gaz à effet de serre, mais aussi aux politiques nationales et bonnes pratiques mises en oeuvre ;

- lancer des stratégies nationales pour faire face aux émissions de gaz à effet de serre et s'adapter aux impacts prévus, y compris la mise à disposition de soutien financier et technologique aux pays en développement ;

- coopèrer pour se préparer à l'adaptation aux impacts des changements climatiques.

Ceci révèle l'importance qui est donnée aux changements climatiques affectant tous les domaines fédérés par le concept de développement durable.

Le protocole de Kyoto

La 3ème Conférence des Parties de la Convention Cadre des Nations Unies sur les changements climatiques, s'est tenue à Kyoto (Japon) en décembre 1997. Le protocole qui en est issu, engage juridiquement et quantitativement les 38 pays industrialisés signataires à réduire de 5,2% leurs émissions de gaz à effet de serre pour l'horizon 2008/2012, par rapport à leurs émissions de 1990.

Cependant, pour l'entrée en vigueur du Protocole de Kyoto, deux conditions sont indispensables :

- au moins 55 pays doivent le ratifier
- parmi eux, ceux visés par l'annexe 1 de la Convention (c'est-à-dire pays de l'OCDE sauf Mexique et Corée, et pays dits en transition), doivent cumuler au moins 55 % des émissions de CO2 en 1990.

La Terre Kyoto_10
Pays de l'annexe I dont la part d'émissions de dioxyde de carbone en 1990 est supérieure à 2%

Or, George Bush a retiré les Etats-Unis (responsable de près de 36% des émissions de gaz à effet de serre) du Protocole de Kyoto en mars 2001 ; la Russie représentait 17,4% des émissions en 1990.
Au 24 novembre 2005, 156 Etats avaient ratifié le Protocole. Les pays de l'annexe 1 qui ont des objectifs chiffrés représentent dorénavant 61,6% des émissions.
Nous pouvons suivre l'évolution de la ratification du Protocole de Kytoto (format PDF).

Heureusement, l'annonce de la ratification par la Russie du protocole de Kyoto a permis son entrée en vigueur en janvier 2005.

Il est ainsi prévu que les émissions à l'horizon 2008/2012 soient de respectivement :

- Etats-Unis -7%

- Japon -6%

- Union Européenne -8%, avec :
Allemagne -21%
France 0%
Grande-Bretagne -12,5%
Danemark -21%
Portugal +27% (jusqu'à 27% d'émissions supplémentaires possibles vu ses faibles rejets)
Norvège +1%
Islande +10%
Ukraine 0%

Une première étape qui engage la responsabilité des pays industrialisés

L'entrée en vigueur du protocole de Kyoto n'est qu'une première étape, modeste, dans la réduction des émissions de gaz à effet de serre. En effet, afin de contenir le réchauffement moyen de la Terre a 2°C maximum (seuil à partir duquel les bouleversement climatiques ne seront plus gérables), il faudra réduire de moitié les émissions mondiales de GES d'ici à 2050. Ce challenge signifie que les pays industrialisés devront diviser leurs émissions par 4 afin de laisser la possibilité aux pays en développement de poursuivre leur croissance.
En effet, le Protocole de Kyoto, n'inclut pas, au moins jusqu'en 2012, des pays en voie de développement tels que l'Inde, la Chine et le Brésil, qui abritent pourtant plus d'un tiers de la population mondiale et qui deviendront dans quelques années les premiers émetteurs de gaz à effet de serre de la planète.

Les mécanismes de flexibilité

Sous l'influence des Etats-Unis, trois mécanismes de flexibilité (qui permettent donc plus de souplesse dans l'application du protocole de Kyoto) ont été élaborés pour réaliser des réductions à moindre coût et surtout permettre aux pays industrialisés de différer la mise en oeuvre de mesures nationales fortes pourtant nécessaires.

Le Mécanisme pour un Développement Propre (MDP)

Les pays industrialisés et les entités qui en sont issues peuvent aider au financement et à la réalisation de projets de réduction d'émissions dans les pays en développement. En échange, ces premiers pays recoivent des droits d'émissions supplémentaires à la hauteur des rejets évités.

La Mise en Oeuvre Conjointe(MOC)

Les pays industrialisés peuvent aider à la réalisation de projets de réduction d'émissions dans les pays dits "en transition vers une économie de marché" (pays de l'Est et Russie) et bénéficier en retour de crédits d'émissions.

Le système international d'échanges de Permis d'Emissions Négociables (PEN)

Les droits d'émissions non utilisés peuvent être vendus et achetés au sein d'une bourse mondiale.

Le programme REDD +

La déforestation et la dégradation des forêts sont causés par l'expansion agricole, le développement des infrastructures, l'exploitation forestière et les incendies. Cela représente près de 20% des émissions mondiales de gaz à effet de serre, plus que le secteur des transports. La Réduction des émissions résultant du déboisement et la dégradation des forêts (REDD), mise en place en septembre 2008 vise à donner une valeur financière au carbone stocké dans les forêts, en incitant les pays en voie de développement à réduire les émissions provenant de la déforestation et à investir dans une économie sobre en carbone. REDD + va au-delà la déforestation et la dégradation des forêts, et prend en compte la conservation, la gestion durable des forêts et le renforcement des stocks de carbone forestier.

Selon le programme des Nations Unies REDD +, il est prévu que les flux financier issu de ce mécanisme pourrait atteindre jusqu'à 30 milliards de dollars par an. Cette importante manne financière Nord-Sud flux pourrait, en plus de réduire significativement les émissions de carbone, soutenir le développement durable des pays dotés d'une richesse forestière.
Pour atteindre ces multiples avantages, REDD + exige l'engagement total et le respect des droits des peuples autochtones et autres communautés tributaires des forêts.

Le coût de la réduction des émissions de gaz à effet de serre

Les politiques engagées pour diminuer les émissions de gaz à effet de serre sont relativement coûteuses mais bien plus abordables que notre indécision qui rendrait le coût des réparations insurmontable.

On estime que réduire les émissions de carbone d'une tonne coûte environ 13 euros, contre seulement 0,05 à 0,10 euro par tonne de CFC, un puissant gaz à effet de serre (Parlement européen, 09/2011).

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 22:48

Changement climatique : le cas de l'Europe et de la France

Pour l'Europe, la plupart des modèles climatiques prévoient un réchauffement plus marqué en été et au Sud, une augmentation des précipitations plus forte (plus abondantes en un laps de temps plus court) en hiver au Nord et une diminution des pluies plus importante en été au Sud. Depuis un siècle, l'Europe s'est réchauffée de 0,8°C.

Pour la France, deux organismes développent des modèles numériques de prévisions du climat, il s'agit de Météo-France avec Arpège et du laboratoire de météorologie dynamique du CNRS avec LMDZ. La confrontation de leurs résultats révèlent des tendances similaires qui affinent les prévisions.

Un rapport très riche réalisé par des scientifiques qui font autorité nous fourni les principaux éléments des conséquences du réchauffement climatique.

De plus :

- Selon Météo-France, depuis la fin du XIXème siècle, le réchauffement a été en moyenne de l'ordre de 1°C, soit +0,6°C dans le Nord et +1,1°C dans le Sud.

- les températures devraient grimper d'environ 2°C d'ici à 2050

- les volumes de précipitations devraient être plus importants en hiver (de +2% selon LMDZ à +13% selon Arpège) et plus faibles en été (-21% selon Arpège et -18% selon LMDZ)

- la durée d'enneigement diminuera nettement à 1 500 m d'altitude, même si les précipitations hivernales devraient augmenter d'ici à la fin du XXème siècle d'environ 10%.

- à Paris, la température de l'air s'est élevée de 2°C depuis 100 ans ainsi que celle du sous-sol comme en témoignent les 13,3 °C des caves de l'Observatoire de Paris actuellement contre 11,8 °C jusqu' en 1880

- d'après une simulation de météo-France, la fréquence d'épisodes de fortes chaleurs (nombre de jours avec des températures dépassant 35°C) serait multipliée par 5. La canicule de 2003 illustre bien qu'une petite variation de la température moyenne peut cacher des phénomènes violents. En effet, selon Météo-France, cet épisode "dépassait de très loin tout ce qui a été connu depuis 1873 par son intensité et sa longueur" avec 4°C de plus sur les températures extrêmes alors que la température moyenne de 2003 en France a guère dépassé celle de 1998, l'année la plus chaude enregistrée sur le globe.

Depuis 25 ans, la France a été avec l'Italie le pays européen le plus touché par les catastrophes naturelles. De surcroît, sur la période d'étude 1978-2001, les 4 dernières années ont connu plus du tiers des catastrophes naturelles qui sont représentées à 75% par les inondations et les tempêtes (IFEN, 2002).

Les objectifs de Kyoto pour l'Union Européenne (UE)

La Terre Europe10

L'année de référence

En vertu du protocole de Kyoto, le niveau des émissions de gaz à effet de serre lors de l'«année de référence» est le point de départ pour le suivi des progrès réalisés au niveau des émissions nationales par les États membres de l'UE-15 et par ceux qui se sont fixé un objectif de Kyoto. Il n'y a pas d'objectif de Kyoto pour l'UE-27 et aucune année de référence n'est par conséquent applicable pour les discussions concernant les progrès réalisés globalement par rapport aux objectifs de Kyoto. L'année de référence n'est pas une « année » en tant que telle – elle correspond simplement à un niveau d'émissions à partir duquel sont comptabilisées les réductions d'émissions. Pour le dioxyde de carbone, le méthane et le protoxyde d'azote, l'année de référence est 1990 pour tous les États membres de l'UE-15. Par contre, pour les gaz fluorés, les États membres de l'UE-15 peuvent, en lieu et place, choisir d'utiliser les niveaux d'émissions de 1995. Douze des 15 États membres ont choisi d'utiliser 1995 comme année de référence pour les émissions de gaz fluorés. Dans la pratique, pour l'UE-15, on peut considérer que le niveau des émissions de l'année de référence est proche de celui de 1990.

L'UE-15 a comme objectif de réduire ses émissions de gaz à effet de serre de 8 % par rapport aux niveaux de l'année de référence pendant la période 2008–2012. Dans le cadre de cet objectif global, chaque État membre de l'UE-15 a son propre objectif de réduction : certains doivent réduire leurs émissions alors que d'autres sont autorisés à en limiter l'augmentation (« partage du fardeau »). Les nouveaux États membres ont des objectifs individuels, à l'exception de Chypre et de Malte, qui n'en ont aucun. Les pays peuvent atteindre ces objectifs par divers moyens.

Le système communautaire d'échange de quotas d'émission

Le système communautaire d'échange de quotas d'émission est l'outil de l'Union européenne pour lutter contre le changement climatique, qui permet aux industries de réduire leurs émissions de CO2 de la manière économiquement la plus rentable. Il exige la fixation d'un plafond pour toutes les importantes sources d'émission de CO2. Dans l'UE-15, l'échange de quotas d'émissions devrait réduire les émissions de 3,3 % par rapport à l'année de référence.

Le programme national français et les premiers résultats

Afin d'atteindre les objectifs de réduction d'émissions de gaz à effet de serre, chaque pays doit prendre des mesures au niveau national, on parle alors de Programme National de Lutte contre les Changements Climatiques ou PNLCC pour la France.
Le protocole de kyoto engage la France à conserver, au pire, ses émissions de gaz à effet de serre aux niveaux de 1990 (objectif de 0%). Ce défi, bien qu'encore insuffisant n'est pas anodin puisque la croissance économique (même si elle demeure relativement faible) et la croissance démographique de la France augmentent inévitablement les émissions de GES.
Ce programme inclut la réalisation d'un inventaire annuel des émissions de polluants atmosphériques. En France, le Ministère de l'Ecologie, du Développement et de l'Aménagement durables (MEDAD) confie ce travail au Centre Interprofessionnel technique d'études de la pollution atmosphérique (CITEPA).

Selon le l'inventaire national de 2008, le total des émissions de GES calculé sur le périmètre du protocole de Kyoto s’établit en 2008 à 527 Mt équivalent CO2, soit une diminution de 0,6 % entre 2007 et 2008 (soit –3,2 Mt éq. CO2) et une baisse de 6,5 % depuis 1990 (- 36,9 Mt éq. CO2) (CITEPA, 02/2010).

Le facteur 4

Les travaux du GIEC montrent que pour ne pas perturber, au delà de l'acceptable, le système climatique et donc les écosystèmes et nos sociétés, la concentration atmosphérique en équivalent CO2 ne doit pas dépasser 450 ppm, ce qui correspondrait alors à une augmentation de température d'environ 2°C. Aujourd'hui, les émissions mondiales s'emballent et les concentrations atteignent déjà 388 ppm équivalent CO2 !

Afin de ne pas dépasser davantage cet objectif au niveau mondial, les émissions annuelles devront être de 4 Gt de carbone en 2050, contre 8 Gt actuellement, soit, pour une population actuelle de 6,7 milliards d'habitants, 0,6 t de carbone par habitant et par an. La France, avec 63 millions d'habitants, aurait droit, suivant une répartition proportionnelle au nombre d'habitants, à 38 Mt de carbone, c'est-à-dire une division par quatre de ses émissions actuelles (152 Mt C).

Ce défi majeur a été fixé par le Président de la République et inscrit dans la loi du 13 juillet 2005 sur la politique énergétique française. Il est l'objet du groupe de travail "facteur 4", proposant des mesures pour assurer la division par quatre des émissions de gaz à effet de serre de la France à l'horizon 2050. Un défi colossal qui semble hors de portée dans l'état actuel des choses...

Le Plan Climat

Depuis juillet 2004, la France s'est dotée d'un Plan climat. Applicable jusqu'en 2010, il sera renforcé en juillet 2006.
Selon la Mission interministérielle sur l'effet de serre (MIES), "le plan Climat 2004 regroupe des actions dans tous les secteurs de l'économie et de la vie quotidienne des français afin de stabiliser les émissions en 2010 à leur niveau de 1990 (564 MteCO2), c'est-à-dire une économie minimale de 54 MteCO2 par an jusqu'à 2010."
Pour autant, dans le cadre d'une division par 4 ou 5 des émissions d'ici 2050, le plan Climat devrait permettre à la France de dépasser ses objectifs pour 2010, en affichant une réduction totale de 73 MteCO2.
Le Plan Climat devrait être réactualisé tous les deux ans, donc en 2006 afin de renforcer les mesures les plus efficaces.

Les différents secteurs d'émissions en France

La Terre Captur32

En France, les transports sont les deuxièmes responsables des émissions de CO2 après l'industrie (tous secteurs confondus). Avec l'habitat, c'est plus de 45% des émissions de CO2 et les deux seuls secteurs qui présentent une évolution très inquiétante puisque les émissions sont en forte augmentation depuis 1990. L'habitat est souvent montré du doigt à cause des matériaux utilisés pour les constructions et des systèmes de chauffage ; les transports pour la multiplication des automobiles, la croissance inquiétante du transport aérien et l'engouement pour les 4x4.

Pour les transports routiers, la France s'est engagée à introduire 5,75% de biocarburant dans les carburants d'ici à 2008 et 10% d'ici 2015. L'objectif pour 2008 correspondrait à un gain de 7 Mteq CO2 (IFEN,01/2006).

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Lun 30 Jan - 22:52

Les controverses sur le changement climatique

Toutes les causes du réchauffement ne sont pas suffisamment explorées

Un certain nombre de chercheurs estiment que les causes du réchauffement climatique actuel n'ont pas été suffisamment étudiées pour tenir comme seul responsable le CO2. A ce titre, Jean Dercourt, membre de l'Académie des sciences déclare : "il me semble que les autres causes sont négligées ou très insuffisamment travaillées, rendant ainsi incomplètes la compréhension du système climatique, un système non linéaire très complexe (...) Il importe, désormais, de déterminer si les gaz à effet de serre expliquent seuls l'élévation thermique rapide du sycle actuel qui serait alors, liée seulement à l'activité humaine."

Ce reproche ne signifie pas que le réchauffement actuel est contesté, mais insiste pour que la recherche soit aussi mobilisée vers l'étude d'autres paramètres, notamment astronomiques.
Vincent Courtillot et Jean-Louis le Mouël, tous deux membres de l'Académie des sciences estiment également que "l'influence du soleil a été sous-estimée et celle du CO2 surestimée dans les modèles."
Soulignons que le GIEC, dans sa revue des études scientifiques, prend bien en compte l'influence du soleil mais ne le juge que peu responsable du réchauffement actuel. Ces auteurs précisent notamment que de récentes études remettent en cause l'importance de la contribution du CO2 au réchauffement actuel et que "les températures actuelles et le réchauffement climatique des 150 dernières années ne sont ni exceptionnels ni exceptionnellement rapide", principal argument des "réchauffistes".

Ces points de vue sont notamment exposés dans le document "Libres point de vue d'Académiciens sur l'environnement et le développement durable" paru en novembre 2009.

Le point de vue de Vincent Courtillot


Un réchauffemement climatique bénéfique

Une aubaine économique

Un certain nombre de décideurs considèrent que le réchauffement climatique serait positif pour l'économie : tourisme, agriculture, exploitation de nouvelles ressources minières et fossiles pourraient profiter de la libération de territoires actuellement sous le joug d'un climat froid et rigoureux. C'est l'objet de l'offensive arctique de la Russie. Toutefois, cette aubaine économique devrait annoncer de nouvelles atteintes pour l'environnement.

Un réchauffement pour lutter contre la future ère glaciaire

Le climat de notre planète est très dépendant de paramètres externes à celle-ci. Ainsi, selon une périodicité de l'ordre de 100 000 ans, l'ellipse formée par l'orbite terrestre s'excentre d'environ 18 millions de km, ce qui modifie la distance de la Terre au soleil. Lorsque cette distance augmente, une ère glaciaire peut s'installer. La prochaine ère glaciaire devrait débuter dans environ 50 000 ans et culminer dans 150 000 ans. Toutefois, en réchauffant l'atmopshère, les activités humaines contrarient ce cycle naturel et pourraient bien empêcher l'arrivée d'une glaciation.
Si on pourrait s'en réjouir, il ne faut pas oublier que le réchauffement qui nous attend pour les générations à venir sera bien plus problématique qu'un éventuel arrêt d'une glaciation devant intervenir dans 100 000 ans...

Des débâts vifs

Ces controverses, indispensables pour l'avancée des connaissances et de la science, soulèvent des débats passionnés.

Cet affrontement d'idées et de convictions se traduit aussi par l'apparition d'un vocabulaire pour dénommer les partisans d'un réchauffement d'origine anthropique et ceux qui y voient davantage l'expression de cycles naturels immuables.
Les premiers sont souvent appelés des "réchauffistes" ou "carbocentristes" tandis que les seconds sont identifiés comme "climatosceptiques", "négationnistes" ou "négateurs" ou encore "révisionnistes" en référence au déni de la Shoah, même si ce lien est tout à fait hors de propos.

Depuis quelques mois, face à la réalité criante et à la rapidité du réchauffement climatique planétaire, de plus en plus difficile à nier ou à contester, les climato-sceptiques ont fait évoluer leur argumentaire. La plupart d'entre eux ne contestent plus la réalité de ce réchauffement mais ils mettent en cause la responsabilité de l'homme dans ce phénomène. Selon eux, ce réchauffement serait "naturel" et l'homme n'y serait pour rien ou aurait une responsabilité marginale dans son accélération et qu'il serait "urgent d'attendre" que le climat se régule lui même.

Trop souvent, les détracteurs de l'origine anthropique du réchauffement climatique accusent les "carbocentristes" de jouer sur la peur d'un chaos climatique pour justifier leur point de vue. Les "réchauffistes" sont alors désignés comme des alarmistes qui renvoient aux peurs des passages aux nouveaux millénaires. Et pourtant, ces premiers n'hésitent pas à utiliser également la peur dans leurs discours prédisant l'effondrement de nos économies et l'appauvrissement généralisé des consommateurs si la lutte contre le carbone devait s'accompagner de taxes lourdes pour freiner l'exploitation des énergies fossiles. Cette vision simpliste oublie combien les intérêts économiques priment sur l'environnement avec des conséquences significatives aussi bien sur notre support de vie que sur les finances publiques (la réparation des dommages causés coûte bien plus cher que la prévention en amont sacrifiée pour des raisons financières).

Il est crucial de bien identifier les causes du réchauffement actuel pour éviter de se lancer dans des décisions politiques contre-productives. Toutefois, la dégradation manifeste et généralisée de notre planète réclament un changement radical de nos modes de développement.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 10:59

Ce qu'il faut retenir sur le changement climatique

Depuis l'aube de nos civilisations, les fluctuations naturelles de température avoisinent plus ou moins 1°C par millénaire, or les températures annoncées tablent sur des changements 15 à 60 fois plus rapides !

Les résolutions à prendre pour éviter des changements climatiques majeurs sont de plus en plus impossibles à tenir pour les pays industrialisés. En effet, le panel intergouvenemental estime qu'il faudrait réduire les émissions de 60% d'ici à 2050 pour maintenir le réchauffement de la planète à un niveau acceptable, ce qui paraît utopique vu l'inertie de nos sociétés. Une étude scientifique de l'Agence internationale de l'énergie, rendue publique alors que la conférence de La Haye se terminait, révèle que les émissions de CO2 vont augmenter d'au moins de 60% dans l'atmosphère d'ici 2020, même si les engagements de la conférence de Kyoto sont effectivement appliqués...

Pour limiter le futur changement climatique tout en autorisant les pays pauvres à se développer, il faudrait diviser par deux la consommation par habitant des pays riches et limiter à un doublement celle des pays pauvres.

"Le monde entier doit s'adapter à l'évolution du climat. Nous n'avons pas le choix. Le système est en proie à une énorme inertie et, quoi que nous fassions aujourd'hui, il nous faut nous adapter au changement climatique, qui est un phénomène inscrit dans la durée." (Rajendra Pachaury, président du GIEC, 11/2005)

"Il faut que l'opinion soit sûre d'une chose. Les scientifiques sont clairs. Il n'existe pas de grosses incertitudes sur le film qui est devant nous. Et les politiques ne peuvent pas s'abriter derrière de prétendues inconnues pour ne pas agir." (James Hansen, 16/03/2009). Ce qui signifie que les scientifiques sont suffisamment sûrs d'eux, c'est maintenant aux politiques d'agir...

Au final, les pays industrialisés, responsables de ce phénomène majeur et planétaire qui engage la stabilité de l'humanité, peinent à mettre en oeuvre des moyens de réduction et d'adaptation à la mesure des enjeux et des conséquences ineluctables et déjà visibles.

Maintenant, "vous en savez déjà suffisamment. Moi aussi. Alors agissez. Ce ne sont pas les informations qui nous font défaut. Ce qui nous manque, c'est le courage de comprendre ce que nous savons et d'en tirer les conséquences." (Sven Lindqvist)

A ce titre, la responsabilité de tous les citoyens est engagée et c'est à chacun d'entre nous aussi de nous impliquer, à notre niveau.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 11:07

Les causes des variations climatiques naturelles de la Terre

Un climat, des climats

Le climat définit et explique les conditions de l'atmosphère au-dessus d'un lieu à moyen et long terme (à la différence de la météorologie qui s'intéresse au court terme). Mais il peut s'étudier à différentes échelles d'espace et de temps.

- Le climat de la planète considéré comme un tout, dit planétaire (global pour les anglo-saxons) est déterminé principalement par les facteurs astronomiques.
- Un niveau plus fin d'analyse peut s'opérer entre régions chaudes et froides de la planète, en fonction de la latitude et des grands vents. On parle alors de climats zonaux.
- Mais la répartition des terres et des mers à une même latitude crée des climats régionaux comme par exemple l'Europe atlantique plus influencée par l'océan que l'Europe centrale au climat plus rude.
- Enfin l'échelle la plus fine est celle des microclimats, celle d'une vallée de montagne ou même d'une grotte ou d'un appartement. C'est ceux-là que nous percevons. Ils sont évidemment encore plus nombreux.

Mais, plus qu'au climat planétaire préoccupation majeure des physiciens et des géologues, les géographes s'intéressent aux climats, en insistant sur l'hétérogénéité des ambiances à la surface des continents et des océans, leurs discontinuités spatiales, leurs rythmes saisonniers et leurs variabilités interannuelles.

La stabilité du climat planétaire

La Terre a une température a peu près constante depuis l'apparition de la vie ; il y a eu des périodes plus chaudes et d'autres plus froides, mais jamais éloignée de plus de quelques degrés par rapport à une moyenne d'environ 15,1°C. Une telle stabilité est extraordinaire si l'on compare à des planètes comme Mars ou Venus qui à l'origine avait des conditions climatiques semblables à la Terre et qui ont évolué vers le désert ou la fournaise. Cette stabilité est due à la présence d'eau qui recouvre près des trois quarts de la surface de la planète (qui passe selon la température planétaire de l'océan à l'air ou aux glaciers) et aux êtres vivants qui occupent sous diverses formes toute la planète.

Pour autant, le climat de la Terre varie naturellement, sans l'intervention de l'Homme, suivant des cycles et des évènements ponctuels. Ces changements nous sont imperceptibles et ne sont connus que par les analyses des traces laissées par des ambiances climatiques différentes dans les glaces, les sols etc.
La variabilité des climats n'est perçue qu'à l'échelle locale et régionale par les humains et encore car la mémoire humaine est sélective. D'une année à l'autre les saisons changent en particulier aux moyennes latitudes (par ex. juillet 2003 : chaud et sec et juillet 2004 frais et arrosé dans le nord de la France).
En effet, Le climat varie différement suivant les échelles géographiques considérées. Ainsi, le réchauffement climatique en cours s'entend à l'échelle de la planète mais masque des variations régionales et locales qui peuvent parfois apparaître contradictoires.

La variabilité du climat planétaire est normale, et tient aux fluctuations des courants océaniques, aux éruptions volcaniques, au rayonnement solaire, aux paramètres astronomiques et à d'autres composantes du système climatique encore partiellement incomprises.

Nous synthétisons ici les principaux paramètres et phénomènes naturels qui contribuent à modifier le climat planétaire.

Caractéristiques astronomiques de la Terre

La Terre Globe_10

Les variations climatiques dépendent étroitement de la position astronomique de la Terre.

Voyons quelques caractéristiques astronomiques de la Terre dans le système solaire :

La Terre se situe approximativement à 150 millions de km du soleil qui nous apporte chaleur et lumière indispensables à la vie.

L'orbite de la Terre (parcours qu'elle décrit autour du soleil) n'est pas ronde mais elliptique, ce qui fait que la Terre est entre 147,17 millions de km en périhelie (au 2 janvier) et 153,18 millions de km en aphélie (au 2 juillet). Nous remarquerons que pour l'hémisphère nord, c'est en hiver que la Terre est la plus proche du soleil : ce n'est donc pas ce facteur qui détermine les saisons.

La Terre tourne autour du soleil en 365 jours, 06 heures et 09 minutes (d'où les années bissextiles), c'est la révolution.

Dans le même temps, la Terre effectue une rotation sur elle-même en 23h 56mn 04s (c'est le jour sidéral), nos sociétés parlent en jour solaire (24h). Cette rotation détermine le jour et la nuit.

La Terre, comme la plupart des planètes du système solaire a une orbite située sur un même plan dit plan de l'écliptique. Ainsi, l'axe des pôles du globe forme forme actuellement un angle de 23°27' avec la perpendiculaire à ce plan.

L'inclinaison de l'axe des pôles par rapport à la perpendiculaire au plan de l'écliptique et la révolution engendrent les saisons astronomiques à partir de quatre positions :

- deux équinoxes (printemps : 21 mars et automne : 23 septembre)
- deux solstices (été : 21 juin et hiver : 21 décembre)

La rotondité de la Terre (sa forme se rapproche d'un géïode) fait que les rayons du soleil doivent traverser à la fois une plus grande distance et surtout une épaisseur plus importante de l'atmosphère en allant vers les pôles. Ceci définit les grandes zones climatiques :

- zone toujours chaude de part et d'autre de l'équateur jusqu'au-delà des tropiques
- deux zones tempérées aux latitudes moyennes (c'est à dire à égale distance entre l'équateur et le pôle)
- deux zones froides entre les cercles polaires et les pôles

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 11:57

Les paramètres internes des variations climatiques de la Terre

Les éruptions volcaniques

La Terre Stromb10
Le volcan Stromboli en Italie

L'activité volcanique rejette notamment du CO2 et de l'acide sulfurique sous forme de gouttelettes. Les rejets de cendres peuvent atteindre des millions de tonnes jusqu'à plusieurs kilomètres d'altitude.
Toutes les éruptions volcaniques ont des effets sur le climat de l'échelle locale à régionale. Certaines d'entre elles, particulièrement importantes, rejetent des poussières dans la stratosphère (au-delà de 13 km d'altitude) et modifient le climat planétaire pendant quelques mois. Dans ce cas, ce phénomène crée une couverture atmosphérique opaque qui filtre la luminosité et la chaleur qui vient du soleil. Ceci peut entraîner un refroidissement du climat comme le volcanisme intense d'une centaine de milliers d'années qui a eu lieu lors de l'extinction des dinosaures.

La Terre Av_evo10
Variation de l'activité volcanique depuis 400 ans. Notons que les périodes de fortes activités tendent à refroidir les basses couches de l'atmosphère.

En 1450 av. JC, l'éruption volcanique de Santorin en mer Egée va mettre en suspension de telles quantités de poussières que durant l'été qui suit en Europe et au Proche Orient, le ciel reste voilé et la température baisse d'environ 0,5°C.
Récemment, l'éruption du Pinatubo philippin en 1991 a entraîné des projections jusqu'à 35 km d'altitude. Deux mois après l'explosion, plus de 40% d'une bande intertropicale entre 30°N et 20°S était recouverte par les aérosols, entraînant une baisse moyenne de la température de la planète entre 0,1 et 1°C. Les volcans indonésiens Krakatoa (1883), Augun (1963), le mont Saint Helens (1980) aux Etats-unis et le volcan mexicain El Chichòn (1982) eurent les mêmes effets (G. JACQUES, H. LE TREUT, 2004).
Ainsi, le volcanisme implique une chute des températures à court terme mais s'avère être un puissant facteur de réchauffement sur le long terme. En effet, lors du crétacé supérieur (il ya environ 80 millions d'années), la température était de 6°C supérieure à celle que nous connaissons, ce fût la période la plus chaude de l'histoire de la Terre marquée par un volcanisme majeur.

La circulation thermohaline

L'atmosphère et l'océan, qui sont des fluides, interagissent. Ainsi, l'océan joue un role important dans la définition des climats à diverses échelles.
Au niveau planétaire, actuellement, les eaux de surface des mers de Norvège et du Labrador, plus salées avec la formation de glace, plongent entre 2 000 et 4 000 mètres de profondeur (on parle de l'Eau Profonde Nord Atlantique) et circulent lentement vers les autres bassins océaniques. Dans le même temps, les eaux tropicales chaudes de surface remontent notamment vers le pôle Nord. Cette circulation lente (environ 1 500 ans) atténue les différences de températures entre les latitudes.

Ces échanges océaniques auraient été modifiés au Dryas (10 500 BP(1)) car la fonte des glaces continentales (inlandsis) entraînant un surplus d'eau douce a diminué la salinité des eaux.
Ce phénomène ralentit alors le transport méridien de chaleur et peut entraîner un refroidissement intense de l'Europe. Ceci étant, ce refroidissement modifie d'autres facteurs atmosphériques qui concourrent ensuite à son rétablissement... Les interactions océan-atmosphère sont assez compliquées à appréhender.

La Terre Circul10
Parcours de la circulation thermohaline
Source : Broecker, 1991 in Climate Change 1995, Impacts, adaptations and migration of climate change : scientific-technical analyses, contribution of working group 2 to the second assessment report of the intergovernmental panel on climate change, UNEP and WMO, Cambridge Press University - 1996.

L'Oscillation Nord-Atlantique

L'Oscillation Nord-Atlantique est une variation qui affecte l'Atlantique nord comme son nom l'indique des côtes américaines à l'Europe. Il existe un équivalent dans le pacifique mais sa masse considérable et son fonctionnement plus hémisphérique que dans l'Atlantique atténue cette oscillation.
Au pas de temps pluridécennal, la circulation atmosphérique aux latitudes moyennes connaît des périodicités appelées oscillation nord-atlantique (ONA), bien corrélées avec les variabilités du champ de pression arctique. Normalement, un gradient de pression de l'ordre de 20 hPa s'établit entre les latitudes subtropicales de l'anticyclone des Açores et la latitude de la dépression d'Islande engendrant un flux d'ouest à baisse et haute altitude. Plus le gradient de pression est fort et plus la circulation d'ouest affecte l'Europe. Au contraire lorsque la circulation se ralentit suite au maintien de hautes pressions continentales sur le continent par exemple, les circulations méridiennes deviennent majoritaires en saison froide (Hurrel, 1995 et 1996, Osborn et al., 1999, Mann et al., 1999 et 2000). Des alternances de périodes à faible indice de circulation zonale 1870-1900, 1930-1980 alternent avec des périodes à fort indice zonal 1900-1930, depuis 1980. Les caractéristiques thermiques des hivers (doux et venteux ou très froids) et la latitude où la pluviométrie est la plus abondante s'en trouvent modifiées.

Notes

1 En géochronologie absolue, les dates sont données par référence au Présent (Before Present = B.P.) par convention fixé au 1er janvier 1950.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 12:05

Les causes externes des variations climatiques naturelles de la Terre

Les cycles astronomiques

Les travaux du mathématicien serbe Milutin Milankovitch (1941) confirmés par l'astronome belge André Berger, le paléoclimatologue américain John Imbrie et le mathématicien J.Laskar mettent en évidence que la variation de la position de la Terre sur son orbite induit des variations climatiques majeures :

La variation d'excentricité : selon une périodicité de l'ordre de 100 000 ans, l'ellipse formée par l'orbite terrestre s'excentre d'environ 18 millions de km, ce qui modifie la distance de la Terre au soleil. De nos jours, l'excentricité de l'orbite terrestre fait que la Terre se trouve plus près du soleil en décembre qu'en juillet.

Variation de l'obliquité de l'axe des pôles : actuellement, l'axe des pôles forme un angle de 23°27' avec la perpendiculaire. Cet angle varie de 22 à 25° tous les 41 000 ans environ.
Lorsque l'inclinaison de l'axe de la Terre est maximale, les rayons du soleil peinent à atteindre les hautes latitudes en hiver et inversement en été : les étés sont chauds et les hivers rigoureux, "ce qui correspond aux climats interglaciaires avec peu de glaces aux hautes latitudes sur les continents. Inversement, une diminution d'inclinaison correspond à des étés moins chauds et à des hivers moins froids, configuration qui cependant permet le développement des calottes glaciaires continentales." (J-C. Duplessy, directeur de recherche au CNRS, 2003)

La précession des équinoxes : l'axe des pôles décrit un cône autour de la perpendiculaire au plan de l'écliptique selon un cycle principal de 23 000 ans et un cycle mineur de 19 000 ans.
Ainsi, le moment où le pôle Nord pointe vers le soleil ne correspond pas toujours à la même position de la Terre sur son orbite. Il y a 11 000 ans, la Terre était au périhélie au solstice d'été d'où des glaciations en hiver car la Terre se retrouvait en aphélie (donc au plus loin du soleil).

Les paramètres orbitaux expliquent la répétition quasi-périodique tous les 100 000 ans des glaciations du quaternaire. Ainsi, depuis 1,7 millions d'années, il y a eu 17 cycles.
Le dernier maximum glaciaire date de 20 000 ans environ et l'interglaciaire qui l'a précédé, l'Eémien, de 125 000 ans à peu près. Chaque début d'interglaciaire correspond à un maximum d'insolation mais ensuite les paramètres se modifient si bien que les conditions au cours de l'interglaciaire changent. En conséquence, l'accumulation de glace est très lente alors que la fusion est très rapide.
L'interglaciaire actuel a débuté il y a 10 000 ans. La circulation atmosphérique générale s'est alors décalée (l'anticyclone des Açores passe de 35 à 30° nord, la dépression d'Islande de 55 à 65 ° nord). Et, il ne devrait pas y avoir de glaciation majeure avant 60 000 ans (JOUSSAUME, 1993 ; FOUCAULT, 1993, etc.).

L'intensité de l'activité solaire

La Terre Soho2010

L'énergie qui nous vient du soleil fluctue légèrement en fonction du nombre de tâches solaires présentes sur le soleil.
Les taches solaires sont des régions plus sombres et moins chaudes du soleil (4 200 K au lieu de 5 800 K). Elles sont souvent le lieu d'explosions gigantesques appelées éruptions solaires. L'intensité de l'activité solaire y est donc liée. Les variations de cette activité signifient des variations de l'intensité du vent solaire, du jet de particules chargées en provenance de notre étoile parcourant le système solaire. Lorsque le vent solaire est fort, il est plus difficile pour les particules chargées de l'espace lointain de pénétrer l'atmosphère terrestre. Au niveau de l'atmosphère, ces rayons cosmiques entrent en collision avec les molécules présentent dans l'air et produisent des ions, lesquels facilitent la formation de gouttelettes de nuages. Ainsi, dans les périodes de forte activité solaire, le ciel est moins nuageux car le vent solaire diminue la formation d'ions.

Ainsi, l'émission solaire varie en fonction des taches solaires, plus elles sont nombreuses et plus l'émission augmente. La reconstitution des variations de l'activité solaire est rendue possible par l'analyse de la composition isotopique du carbone des cernes annuels d'arbres. Des cycles de onze ans apparaissent nettement. Des périodicités plus longues de 200-300 ans peuvent également être observées (NESMES-RIBES, 2000). A partir des observations à la lunette astronomique, les taches solaires sont inexistantes de 1600 à 1710 (minimum de Maunder) ce qui contraste avec leur nombre important depuis le début du XVIIIe siècle. La période allant de 1790 à 1830 présente également une diminution du nombre de taches. Mais le lien entre ces modifications pluriséculaires de l'insolation et la circulation océanique de l'Atlantique nord et la circulation atmosphérique n'est pas clairement établie.

La Terre Cs_evo10
La constante solaire est une moyenne, pour la terre et sur un an, du flux total d'énergie électromagnétique reçue par le soleil aux limites de l'atmosphère.
Nous notons sur ces graphiques une bonne corrélation entre la valeur de la constante solaire et les températures relevées ; les gaz à effet de serre ne seraient pas les seuls responsables du réchauffement ?

Cependant, il semble encore difficile d'estimer l'impact de cette légère fluctuation de la constante solaire sur les températures.

Les chutes de météorites

Les météorites sont des objets venus de l'espace qui parviennent jusqu'au sol terrestre et y creusent des cratères parfois considérables. Les plus gros comme celui qui causa probablement l'extinction des dinosaures il y a 65 millions d'années, génèrent de par leur impact avec la Terre de nombreux débris qui obstruent l'atmosphère. Un "hiver d'impact" peut alors s'installer durablement (jusqu'à plusieurs années). Lorsque celui-ci se dégage enfin, les gaz à effets de serre sont particulièrement actifs.

L'histoire du climat de la Terre

Ces différents paramètres influent sur le climat planétaire à des échelles de temps variant de quelques mois à plusieurs millénaires. Ainsi se construit l'histoire du climat de la Terre que les scientifiques tentent de retracer...

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 12:09

Reconstruire l'histoire du climat de la Terre

Le climat passé de la Terre

Les études ont donc montré que les variations d'insolation étaient à l'origine des grandes variations climatiques. Ainsi, le dernier million d'années a connu la croissance puis le retrait des grandes calottes glaciaires. La carotte antarctique de Vostok met en évidence 4 grands cycles climatiques de 100 000 ans (sur 400 000 ans).

La Terre Tc_20010
Reconstruction de l'évolution de l'écart moyen des températures de la Terre au cours des 2000 dernières années

"Au cours des 400 000 dernières années, la température, montre une allure très similaire aux variations du volume des glaces tirées de l'étude des sédiments marins. Aux moments des périodes très froides en Antarctique (-65°C au lieu de -55°C actuellement à Vostok), il y avait plus de glace sur les continents (principalement en Europe et en Amérique du Nord) (...) Autre observation, le signal climatique de Vostok contient des périodes de 20 000 et 40 000 ans caractéristiques des variations de l'orbite terrestre." (J-R. Petit, UPR INSU-CNRS).

La Terre Temper10
Evolution de l'écart moyen des températures de la Terre par rapport à aujourd'hui

Il est intéressant de constater que les périodes froides (dites "glaciaires") sont caractérisées par de faibles taux de concentration de CO2 dans l'atmosphère tandis que les périodes plus chaudes (dites "interglaciaires") correspondent à des taux plus élevés : le parallélisme est tout à fait remarquable.

Notons enfin que les sondages et les analyses paléoclimatiques effectuées à travers le monde ont également mis en évidence l'extrême variablité du climat qui peut entraîner des modifications brusques des températures (en quelques centaines d'années) à l'échelle hémisphérique.

Comment reconstruire l'histoire du climat de la Terre ?

Le suivi de l'évolution globale du système climatique demande des prélèvements dans l'ensemble des bassins océaniques, sur les continents et les calottes glaciaires. Ceci nécessite la présence de navires pour le carottage des fonds marins et l'organisation de campagnes en régions polaires pour les carottages glaciologiques.
Actuellement, les scientifiques sont capables de remonter dans l'histoire de la composition atmosphérique jusqu'à 740 000 ans et bientôt 1,2 million d'années avec les carottes glaciaires, c'est l'objectif de la paléoclimatologie. L'analyse de la composition isotopique de la glace et du rapport isotopique de l'oxygène et du carbone donne une idée précise des températures d'antant.

Les climats plus anciens sont reconstitués grâce à la répartition et l'analyse isotopique des faunes fossiles de foraminifères (petits organismes qui fabriquent une coquille calcaire). Ce sont donc les sédiments marins et lacustres qui sont alors étudiés.

Enfin, les calculs astronomiques des changements d'insolation sur Terre permettent de remonter jusqu'à 14 millions d'années avec une précision de 5 000 ans sur les 5 derniers millions d'années.

L'Europe est le continent où les séries météorologiques sont les plus anciennes, les plus nombreuses et où les recherches sur ce thème sont les plus avancées.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 12:13

Les variabilités historiques du climat en Europe

Historique des mesures météorologiques

L'Europe est le continent où les séries météorologiques sont les plus anciennes, les plus nombreuses et où les recherches sur ce thème sont les plus avancées. Les études récentes montrent que la périodisation historique du climat en Europe ne s'étend pas toujours au-delà du fuseau atlantique septentrional. Le réchauffement médiéval s'observe par exemple en mer des Sargasses ; mais en Nouvelle Zélande, le Moyen Âge était frais et une hausse des températures caractérise les XVI à XIXe siècles. De plus, sur le vieux continent, à une échelle plus fine, l'imbrication des terres et des mers contribue à diversifier les climats et des évolutions différentes ont parfois été observées en Europe continentale et atlantique ou dans les régions les plus septentrionales et en Méditerranée.

Les stations météorologiques fixes sont apparues en Europe au XVIIe siècle (Padoue, Paris...). Un premier réseau européen est constitué en 1780 et les premières cartes de vent ou de pression apparaissent à la fin du siècle. Mais en France le maillage n'est composé que de 24 stations au milieu du XIXe siècle (pour 184 aujourd'hui). Les équipements ne sont pas normalisés et ils vont évoluer avec les techniques, si bien par exemple qu'aucun anémomètre ne pouvait, entre les deux guerres mondiales, enregistrer des vents de 172 km/h à Paris (vitesse enregistrée à Orly lors de la tempête de décembre 1999). La création de l'Organisation météorologique internationale en 1873, devenue Office météorologique mondial en 1950 va contraindre à la standardisation des mesures.
Ces séries comparables sont donc courtes au regard de bon nombre de cycles climatiques connus. Pour remonter en deçà des enregistrements météorologiques on utilise des sources indirectes : des documents écrits (chroniques paroissiales, dates du calendrier agricole), des peintures, des gravures, etc. depuis l'antiquité, des biomarqueurs (pollens, cerne d'arbre, micro-fossiles...) durant la préhistoire.

Quelle information peut on extraire des marqueurs ?

Le qualificatif : « Plusieurs siècles froids » ne signifie pas pour toute l'Europe et tout au long des 365 jours de l'année un climat froid homogène. Il faut donc de la prudence dans l'interprétation.
Premièrement, les marqueurs sont spatialisés c'est-à-dire qu'ils intègrent les différentes échelles des climats. Une pelouse calcaire sur versant pentu en exposition sud bien que dans le nord de la France bénéficie d'un bilan thermique qui explique un microclimat chaud et sec permettant l'apparition d'espèces à affinité méditerranéennes que l'on ne retrouve plus à quelques dizaines de mètres sur un plateau... Beaucoup d'indices concordants sont nécessaires pour approcher une ambiance climatique d'échelle supérieure. Les marqueurs biologiques ne répondent au changement climatique qu'avec un décalage, fonction de leur mobilité propre, de leur mode de reproduction, etc.
Deuxièmement, les marqueurs sont territorialisés puisque les sociétés s'approprient un lieu et y modifient le paysage. La sédentarisation et l'accroissement de population ne cessent de modifier ce qui étaient des biomarqueurs (pelouse de défrichement, nouvelles espèces introduites...). Depuis deux siècles, les forêts françaises n'ont jamais connu de chablis aussi nombreux qu'en décembre 1999 ; est-ce parce que le vent n'a jamais soufflé aussi fort ou parce que la superficie forestière n'a jamais été aussi vaste (Gadant, 1994) ou parce que les traitements sylvicoles ont changé...
La définition de la succession de toutes les saisons météorologiques permet de définir un climat. Or, les informations les plus fréquentes portent seulement sur l'été et l'hiver. Les dates des vendanges, comme tout marqueur phénologique, ne prennent en compte que la chaleur de la période avril-septembre. Mais; l'été ne fait pas l'année… les canicules estivales de 1778 à 1782 de surproduction viticole (Le Roy Ladurie, 1983) se placent en pleine période dite « froide ». De plus, les considérations économiques voire culturelles (goûts différents) modifient l'interprétation du lien entre la chaleur de l'été, la précocité des vendanges et la productivité du vignoble pour les siècles les plus récents. L'information est subjective : le journal d'un Bourgeois de Paris évoque principalement les hivers froids avec les loups dans la capitale en décembre 1439, ou les morts déterrés pour manger… Plus que l'aléa, c'est le risque qui est mentionné, or ce dernier est sociétal. Et sur un même lieu, les sociétés ont changé tout comme leur vulnérabilité. L'agriculture intensive du basin parisien est plus vulnérable aux déficits pluviométriques que la polyculture traditionnelle qui y était encore pratiquée au siècle dernier. Si un agriculteur écrit son journal en l'an 2000, qu'y met-il en exergue ? évoque-t-il le réchauffement ?
L'objectif de la Météorologie est d'extrapoler à partir du temps passé le temps à venir dans le court terme (quelques heures à quelques jours) pour un lieu donné et ceci depuis l'origine (la carte de Le Verrier du temps du 19 février 1855 après la tempête qui détruisit la flotte à Sébastopol). Ce n'est que depuis le milieu du siècle que la connaissance scientifique a permis d'envisager le fonctionnement de la planète comme un tout et que les physiciens élaborent des modèles climatiques du passé (l'Eémien le plus souvent) pour prévoir l'avenir à moyen terme (celui de plusieurs décennies). Avec ce changement de pas de temps, la question posée est celle de la possibilité par les sociétés humaines de modifier l'évolution du climat planétaire et l'alternance glaciaire/interglaciaire du quaternaire. Curieusement, les simulations ont à peine profité à l'étude du passé historique. Peu de laboratoires de climatologie s'y consacrent (C. Pfister en Suisse, H. Lamb en Angleterre, R. Camuffo en Italie). Le travail de reconstitution des climats durant l'histoire reste en France majoritairement un travail d'historien (E. Leroy Ladurie, R. Delort, J. Berlioz...).

Une alternance de réchauffements et de refroidissements de faible ampleur

La déglaciation qui s'effectue par pulsations successives va totalement changer les paysages d'Europe à la fois par la hausse des niveaux marins et le déplacement des traits de côte et par les formations végétales qui vont répondre aux modifications thermiques. Après les épisodes de retour du froid des Dryas, vers 10 000 BP débute l'interglaciaire holocène.
Au cours du Préboréal et du Boréal, les températures augmentent en été de 0,5°C voire 1°C et la toundra est progressivement colonisée par les pins sylvestres, des noisetiers.

A l'Atlantique, vers 5 000-6 000 BP les températures d'été sont de 2°C plus élevées qu'au XXe siècle et de 1°C en hiver : c'est l'optimum climatique. La pluviométrie est de 10% supérieure à l'actuelle, ce qui permet le grand développement des chênaies mixtes. La yeuse pousse en Norvège tout comme le noisetier. L'agriculture se répand en Europe. La transgression flandrienne oblige des populations occupant le Dogger bank à migrer vers le sud et l'est. Malgré une pluviométrie qui diminue, à l'âge des métaux, des conditions clémentes permettent la croissance des arbres en Cornouaille, l'agriculture en Angleterre jusque vers 400 m d'altitude. Mais vers 3000 BP, l'aridité progresse en Méditerranée : plusieurs famines marquent l'Egypte en 2180 et 1950 avant JC par suite de bas niveaux du Nil. Des cités lacustres sont abandonnées en Suisse. Le froid s'intensifie et les glaciers du Tyrol descendent dans les vallées jusqu'à des altitudes qu'ils ne retrouveront qu'en 1850. Des migrations s'opèrent : les étrusques arrivent en Italie, les doriens en Grèce. La période de l'antiquité gréco-romaine est marquée en Europe du nord par des conditions assez peu clémentes mais qui vont de pair avec une pluviométrie plus abondante sur le pourtour méditerranéen malgré des hivers froids. Pline décrit par exemple en 300 avant JC le Tibre gelé à Rome.

Un siècle plus tard, une amélioration permet des expéditions vers l'Europe du nord dont Strabon décrit les tempêtes de 114 et 120 avant JC. La vigne est introduite en France. Le réchauffement va conduire à une hausse du niveau marin de près d'1 m. La Flandre est submergée vers 250 après JC.
Mais à nouveau, les pâturages d'Asie s'assèchent progressivement poussant vers l'ouest des hordes de nomades. c'est le temps des barbares. Plusieurs sites d'agriculteurs septentrionaux sont abandonnés (dans le nord des îles britanniques par exemple). Entre 542 et 565 des épidémies font mourir la moitié de la population européenne déjà très affaiblie. Le froid s'installe puisqu'au cours de l'hiver 763-764, le détroit des Dardanelles est pris en glace et qu'en 859-860 la lagune de Venise est gelée plusieurs semaines.
Le réchauffement médiéval débute après le règne de Charlemagne (Flohn, 1984, Crawley, 2000). Il s'étend du IXe au XIIe siècle. Plusieurs indicateurs permettent de caractériser cette période de « douceur ». Les isotopes de l'oxygène des glaces du Groenland témoignent d'un réchauffement entre 900 et 1100. Les routes maritimes Norvège-Islande-Groenland sont aisément navigables puisque les proscrits d'Éric le Rouge s'installent sur la côte ouest de ce « pays vert » en 981. Des cultures céréalières y sont attestées jusqu'en 1250. La vigne est cultivée alors en Écosse jusqu'à 425 m d'altitude. Cette culture se répand partout en Angleterre. Dans le Val d'Aoste on irrigue à partir de torrents captés à des altitudes recouvertes par les moraines ensuite. Les cols alpestres sont facilement franchis par hommes et bétail depuis le Valais vers le versant italien des Alpes où s'installent des populations germaniques. Le niveau de la mer est haut et Bruges est un grand port. L'optimum semble se situer entre 1150 et 1250. Les températures observées auraient été de 0,5°C à 1°C supérieures à celles de la première moitié du XXe siècle.

La détérioration débute au XIIIe siècle au nord de l'Europe et au XIVe au sud (Bradley, 1995). Elle débute par une forte variabilité interannuelle. Dès 1300, la saisonnalité est de plus en plus mal marquée en Angleterre. Les tempêtes deviennent fréquentes en Allemagne, au Danemark et aux Pays Bas. Les tempêtes de 1240, puis 1362 submergent les côtes basses, font disparaître des îles (Heligoland), détruisent des ports. Les étés sont frais et pluvieux (1313, 1314, 1317, 1321, 1349…) ce qui conduit à l'abandon de cultures céréalières en Scandinavie, à l'abandon de villages entiers, à des famines en Europe. Les hivers sont de plus en plus rudes puisque la mer du nord est prise en glace entre Norvège et Danemark, que la route Scandinavie-Groenland ne permet plus au dernier évêque nommé en 1492 d'atteindre son diocèse insulaire.

Le petit âge de glace s'étend du XVe siècle au XIXe siècle. Il est marqué par un refroidissement net de l'ordre de 1,5°C en été en Suisse et par une pluviométrie soutenue. En montagne les glaciers avancent vers les vallées comme le glacier d'Argentière ou les glaciers blanc et noir. La limite supérieure de l'arbre en montagne réagit au refroidissement de la saison végétative. La banquise annuelle atteint les Féroé. Le Roy Ladurie note que 1816 est l'année des vendanges les plus tardives en France. C'est aussi l'année des tempêtes. Dans son ode sur la prise de Namur Boileau décrit les froids torrents de décembre qui ont noyé partout les champs, les récoltes si mauvaises que le Conseil royal pour éviter les émeutes fait construire dans la cour du Louvre à Paris des fours pour cuire un pain vendu 2 sous la livre. L'année suivante la mortalité en France frappe plus d'un sixième de la population. En 1709, Saint Simon note que l'hiver est si rude que les liqueurs cassent dans les bouteilles déposées dans les armoires près des cheminées à Versailles. Il fait –10°C à Paris en mars. En Europe, le froid semble avoir connu deux maxima, l'un au XVIIe siècle sous le règne du roi soleil et l'autre au début du XIXe siècle –remarquons qu'en Amérique du nord, le second est plus marqué que le premier.

Le net réchauffement du XXème siècle

Certains glaciers alpins reculent dès 1820 (Keigwin, 1996, Lachiver, 1991). Mais les étés restent très maussades en Europe du nord d'où les grandes famines d'Irlande de 1846 à 1851. A partir de 1880, le climat se réchauffe partout. La hausse des températures de l'ensemble de la planète depuis un siècle a été estimée à O,6°C. La décennie 1990-1999 est la plus chaude depuis le début de la période instrumentale et serait la plus chaude depuis l'optimum médiéval. L'estimation de la tendance au réchauffement est rendue difficile par les différences d'instrumentation, par l'urbanisation, par l'éventuelle prise en compte de la fin du petit âge de glace dans les séries les plus longues et par les variabilités à pas de temps pluridécennal comme l'Oscillation nord-atlantique (hivers froids des années cinquante et hivers doux des années quatre-vingt-dix).
Les méthodes statistiques utilisées par Météo France pour 70 stations montrent une croissance rapide depuis 1980. Le réchauffement est particulièrement net pour les températures minimales.

La Terre Tempfr10
Tendance séculaire de la température (en °C) en France

Il est supérieur à 1°C sur les littoraux de la Manche et de l'Atlantique alors que dans les régions allant des Vosges aux Alpes il n'est que de 0,6 à 0,8°C. Les températures maximales ont moins augmenté sauf au Pays basque et dans les Alpes du nord (1°C). En Picardie et dans le Nord, elles sont constantes. Cette opposition entre les régions continentales et maritimes ne peut s'expliquer que par un accroissement de nébulosité qui amplifie l'effet de serre naturel nocturne. Des travaux menés dans le bassin de Marenne Oléron sur la prolifération d'espèces de poissons tropicaux confirment que la hausse de température s'accompagne d'une baisse d'insolation de 12 % en 50 ans.

Au cours de l'interglaciaire holocène, la fourchette de variation des températures est resserrée : 2°C de plus ou 1°C de moins. Ce sont des « nuances » d'un même climat. Le réchauffement récent n'excède pas pour le moment cette variabilité naturelle (Leroux, 1996). Certains rythmes (pluriséculaires, trentenaires…) apparaissent nettement. Mais dans le détail les variabilités intra-annuelles du temps et inter-annuelles du climat aux latitudes moyennes sont telles qu'un « bruit de fond » brouille le signal des autres variabilités connues (Tabeaud, 1998, 2000). En général, le passage d'une période plus chaude à une période plus froide ou l'inverse s'effectue par une transition d'années fortement contrastées entre elles ou à aléas extrêmes. La période actuelle est incontestablement marquée par un réchauffement qui devrait se confirmer dans les cinquante années à venir. L'origine de la hausse de température est encore discutée. Mais que les causes du réchauffement contemporain soient, naturelles, anthropiques, ou les deux, ne modifie en rien l'adaptation déjà observée de la faune et de la flore de France au changement d'environnement.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 19:50

Les différents types de nuages

Les nuages sont formés de très petites gouttelettes d'eau ou de cristaux de glace (1 à 100 microns de diamètre) obtenus par l'adsorption de vapeur d'eau contenue dans l'atmosphère autour de minuscules impuretés appelées noyaux de condensation (cristaux de sel marin, pollens, produits polluants).

L'aspect d'un nuage est caractérisé par sa forme, sa texture, sa transparence, son opacité et ses couleurs qui varient en fonction des constituants et des conditions atmosphériques.

Les dix groupes principaux de nuages

On compte dix groupes principaux de nuages, appelés "genres".

La Terre Nuages10

Les nuages les plus élevés, qui occupent l'étage supérieur de la troposphère sont constitués de millions de minuscules cristaux de glace (préfixe: Cirr ou Cirro) et comprennent les genres Cirrus, Cirrocumulus et Cirrostratus. Leur température est inférieure à - 40°C.

Ceux de l'étage moyen (préfixe: Alto), généralement constitués de gouttelettes d'eau, parfois de cristaux de glace, comprennent les Altocumulus et Altostratus, et le Nimbostratus. L'Altostratus peut pénétrer dans l'étage supérieur; le Nimbostratus déborde généralement dans les étages supérieur et inférieur. Ils recouvrent de très grandes surfaces, parfois des centaines de kilomètres carrés. Même s'ils ne donnent que de faibles précipitations, les altostratus indiquent souvent que l'arrivée de la pluie.

A l'étage inférieur, on trouve les genres Stratocumulus et Stratus, nuages bas. Ils sont généralement composés de gouttes d'eau liquide.

Deux genres, enfin, les Cumulus et Cumulonimbus, nuages d'instabilité, qui ont généralement leur base dans l'étage inférieur, peuvent s'étendre à travers les deux autres étages comme en témoigne souvent leur important développement vertical.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 19:56

Les phénomènes El Niño et La Niña

Définition d'El Niño

Le phénomène El Niño (le petit garçon en espagnol, et par extension "l'Enfant Jésus") a été nommé à la fin des années 1800 par des marins péruviens qui avaient alors constaté l'apparition d'un courant chaud à la période de Noël. Ce courant correspond à une phase plus chaude que d'habitude appelée oscillation australe El Niño ou ENSO (sigle d'El Niño et Southern Oscillation) ou encore ENOA (El Niño-Oscillation Australe en français).
Le phénomène El Niño et ses conséquences se produisent probablement depuis des millénaires, mais les premières preuves historiques dont on dispose à ce sujet datent de 1567-1568. A l'époque contemporaine, des phases d'El Niño plus marquées ont été enregistrées en 1972-1973, en 1982-1983 et en 1997-1998.
La définition de l'OMM est la suivante : "phénomène caractérisé par une anomalie positive de la température de surface de la mer (par rapport à la période de référence 1971-2000), dans la région Niño 3.4 du Pacifique équatorial, dans la mesure où cette anomalie est supérieure ou égale à 0,5°C selon une moyenne calculée su trois mois consécutifs" (OMM - Nouvelles du Climat Mondial - Janvier 2004 n°24).

Définition de La Niña

La phase plus froide qui fait suite à El Niño est nommé La Niña, soit petite fille en espagnol. Sa définition officielle est la suivante : "phénomène caractérisé par une anomalie négative de la température de surface de la mer (par rapport à la période de référence 1971-2000), dans la région Niño 3.4 du Pacifique équatorial, dans la mesure où cette anomalie est supérieure ou égale à 0,5°C selon une moyenne calculée sur trois mois consécutifs" (Nouvelles du Climat Mondial ; Janvier 2004 - OMM).

En règle générale, au cours d'un épisode La Niña, les précipitations s'intensifient à l'ouest de la zone équatoriale du Pacifique, sur l'Indonésie et les Philippines et sont quasiment nulles à l'est de cette zone équatoriale. On observe généralement une humidité supérieure à la normale de décembre à février sur le nord de l'Amérique du sud et l'Afrique australe et de juin à août sur le sud-est de l'Australie. En revanche, les conditions observées le long des côtes de l'Équateur, dans le nord-ouest du Pérou et dans la région équatoriale d'Afrique de l'Est sont généralement plus sèches de décembre à février, et dans le sud du Brésil et la partie centrale de l'Argentine, de juin à août.

Les épisodes La Niña provoquent aussi des anomalies de température sur des zones étendues du globe, les régions les plus touchées subissant des conditions anormalement fraîches. Ainsi, de décembre à février, les températures sont inférieures à la normale sur le sud-est de l'Afrique, le Japon, le sud de l'Alaska et les parties occidentales et centrales du Canada ainsi que sur le sud-est du Brésil ; de juin à août la fraîcheur est supérieure à la normale en Inde et en Asie du Sud-Est, le long de la côte ouest de l'Amérique du Sud, dans la région du golfe de Guinée ainsi que dans la zone nord de l'Amérique du Sud et certaines parties de l'Amérique centrale ; et de décembre à février, la chaleur est supérieure à la normale le long des États américains du golfe du Mexique (OMM, 10/2010).

En temps normal...

En décembre, le sud est du pacifique connait des hautes pressions (air subsident) et l'Indonésie des basses pressions (air ascendant). L'océan Pacifique, le plus grand réservoir d'eau du monde, emmagasine d'énormes quantités d'énergie solaire grâce à ses mouvements de brassage.
Ainsi, les alizés qui soufflent du nord-est et du sud-est refoulent cette eau chaude vers l'Indonésie et le nord de l'Australie. Cela provoque une montée de 30 à 70 cm du niveau de l'eau dans le Pacifique occidental et une baisse équivalente dans le Pacifique Est.
Ce qui engendre donc une remontée des eaux plus profondes (environ 200 mètres) et froides (on parle d'upwelling) qui viennent compenser ce déficit sur les côtes d'Amérique latine.
De surcroît, ces eaux sont chargées en éléments nutritifs (potassium, magnésium, etc.) et en plancton qui attirent et alimentent les bancs de sardines et d'anchois, qui font à leur tour du Pérou et du Chili les plus grands producteurs de poissons du monde.
Entre temps, les alizés, chargés en vapeur d'eau, engendrent d'abondantes précipitations lors de leur ascension au-dessus de l'Indonésie (jusqu'à 7 m de précipitations par an), alors que de l'autre côté du Pacifique, dans les Andes et les hauts plateaux du pérou sévit la sécheresse.


Un équilibre rompu

Cependant, il arrive que le trajet des alizés se modifie entre janvier et mars, bouleversant cette circulation équilibrée des eaux chaudes du courant équatorial et l'upwelling. Les cumulo-nimbus s'installent alors au large de l'Amérique Latine. D'importantes précipitations s'abattent sur la côte ouest du Pérou, les cyclones se déchaînent en Polynésie, tandis que l'Indonésie s'assèche. Cette bascule du système atmosphérique est appelée "oscillation australe" par les météorologistes.
En effet, tous les trois ou quatre ans, pour une raison inconnue, se produit un réchauffement plus important (qui dure entre 14 et 18 mois) et plus étendu des eaux du centre et de l'est du Pacifique équatorial.
Sur la vaste surface d'eau chaude, se forme alors une dépression atmosphérique chargée d'air très humide et provoquant des pluies torrentielles. Ce dérèglement océanique est donc appelé El Niño.
Et cette intéraction entre la dynamique océanique et atmosphérique est nommée El Niño-oscillation australe (ENOA). Lorsque la situation revient à la normale, on parle alors de la Nina.

La Terre 04-eln10

Conséquences d'ENSO

L'apparition d'un épisode El Niño à l'échelle du bassin océanique a une incidence sur les régimes climatiques auxquels il faut s'attendre dans de nombreuses régions du monde. "Ces deux manifestations du même phénomène perturbent la configuration habituelle des précipitations ainsi que la circulation atmosphérique aux latitudes tropicales et peuvent avoir des répercussions à grande échelle sur le climat dans de nombreuses régions du monde" (OMM, 08/2009).

Les phénomènes ENSO, notamment ceux qui surviennent avec beaucoup de force, ont des effets sur presque tous les aspects de la vie humaine : nouveaux foyers de maladies, récoltes plus ou moins abondantes, inondations et sécheresses, changements du niveau de la demande énergétique, perturbations de la production hydroélectrique, de la pêche et de la migration animale, incendies de forêts et conséquences économiques pour les pays fragiles.
Ainsi, El Niño tient sa renommée des catastrophes climatiques qu'il engendre et qui ont déjà causé des milliers de morts :

- inondations de 1982-1983 sur l'est et le centre du Pacifique, du Pérou aux - côtes pacifiques de l'Amérique du Nord ;
cyclones à répétition en Polynésie (en 1982-1983, 25 000 sinistrés après que Tahiti et les îles voisines eurent été touchées par six cyclones dévastateurs) ;
- vagues de froid exceptionnelles qui touchèrent le centre des Etats-Unis durant l'hiver 93 ;
- terribles sécheresses de 1982-1983 en l'Afrique australe, en Australie touchée par des feux de brousse et de gigantesques tempêtes de sable, en Indonésie touchée par une famine ;
- voire d'autres anomalies climatiques en Inde ou en Afrique de l'est...

C'est l'Amérique du Sud qui est touchée de plein fouet par cet événement étonnant qui apparaît aux alentours de Noël, d'où son nom "d'enfant Jésus", tous les 5 ou 6 ans, bien que sa fréquence est depuis le début des années 90 quasi annuelle.

Prévision et surveillance des phénomènes El Niño et La Niña

Il existe plusieurs moyens de prévoir l'évolution des conditions propres à l'océan Pacifique. Des modèles dynamiques complexes permettent d'établir des projections à partir de la situation actuellement observée. Des modèles de prévision statistique peuvent aussi mettre en évidence certains signes précurseurs. Les analyses de la situation présente auxquelles procèdent des spécialistes apportent en outre un complément d'information, notamment en ce qui concerne l'interprétation des incidences de l'évolution de la situation sous la surface de l'océan. Quelle que soit la méthode de prévision utilisée, on s'efforce de prendre en compte les effets des interactions de l'océan et de l'atmosphère sur le système climatique.
Ce sont les données météorologiques et océanographiques recueillies par les systèmes d'observation nationaux et internationaux qui permettent de surveiller et de prévoir les épisodes El Niño et La Niña. L'échange et le traitement de ces données s'effectuent dans le cadre de programmes coordonnés par l'Organisation météorologique mondiale. (OMM, 02/2011)

Depuis 1992, le satelitte franco-américain "Topeix-Poséidon" équipé d'un altimètre-radar mesure les variations du niveau de la mer au centimètre près. Ce qui lui permet de détecter le courant de l'ENOA qui élève de 15 cm environ la hauteur des eaux de l'est du pacifique.

Pour tenter de mieux comprendre et appréhender ce phénomène, le programme mondial de l'Organisation Météorologique Mondiale (Tropical Ocean Global Atmosphere, TOGA et Ocean Response Experiment, TORA), en place depuis 1992, cherchent à modéliser mathématiquement les interactions océan-atmosphère qui le génèrent.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 20:13

L'îlot de chaleur urbain : définition et fonctionnement

Les hommes de science se sont depuis l'Antiquité intéressés aux relations entre le climat et la ville, que ce soit tout d'abord dans la prise en compte des conditions climatiques d'un site pour l'implantation et la conception architecturale des cités ou, plus tard, dans l'influence de la ville sur ses habitants et son environnement, notamment en matière de pollution de l'air.
Cependant, la mise en évidence d'un climat spécifiquement urbain n'intervient qu'au début du XIXe siècle, lorsque le pharmacien britannique Luke Howard publie entre 1818 et 1820 Le climat de Londres, ouvrage qui étudie, à partir d'une série de relevés météorologiques d'une période de neuf ans, la température, les précipitations et le brouillard, le fameux smog, de la capitale anglaise. Il note ainsi une différence des températures nocturnes de l'ordre de 3,70 °C entre le centre de Londres et sa campagne, ce que l'on nomme aujourd'hui "îlot de chaleur urbain" (ICU).

L'îlot de chaleur urbain est un effet de dôme thermique, créant une sorte de microclimat urbain où les températures sont significativement plus élevées : plus on s'approche du centre de la ville, plus il est dense et haut, et plus le thermomètre grimpe.

La Terre Ilot_c10
Coupe schématique de visualisation des températures en 2008 pour une nuit de canicule (type été 2003)

Facteurs qui aggravent l'îlot de chaleur urbain

Les différentes études sur les îlots de chaleur urbains ont montré que ces différences de températures sont un phénomène assez complexe où s'entremêlent causes et effets. L'ICU, très variable, est dépendant du "type de temps" mais aussi de la situation géographique, climatique et de la topographie de la ville.

Le moment de la journée

L'îlot de chaleur est tout d'abord dépendant du moment de la journée. Comme Howard l'avait déjà remarqué, l'ICU est surtout marqué la nuit lors des minima de températures. A Paris la différence peut parfois dépasser les 10 °C à l'échelle journalière entre le centre de la ville et la campagne la plus froide comme se fut le cas le 30 septembre 1997 où l'on a repéré une différence de 11,4 °C.(1).
Cela est directement dû à l'urbanisation car la chaleur urbaine provient du bâti et du sol qui restituent l'énergie emmagasinée dans la journée.

L'occupation du sol et son albédo

En effet, le bâti, selon son albédo (indice de réfléchissement d'une surface) absorbe ou réfléchi l'énergie solaire. Ainsi, la ville absorbe pendant la journée 15 à 30 % d'énergie de plus qu'une aire urbaine(2). Cette énergie est ensuite restituée lentement la nuit sous forme d'infrarouge (chaleur). Or, la géométrie du bâti piège cette énergie thermique.
La minéralité des villes et la densité du bâti sont donc des éléments fondamentaux dans la formation des îlots de chaleur.

La Terre Albedo10
Divers albédos de la ville. Compris entre 0 et 1 l'albédo caractérise le pouvoir réfléchissant d'un support. A 1 l'énergie lumineuse est entièrement renvoyée.

L'eau et la végétation constituent des moyens de rafraîchissement : par évaporation et évapotranspiration, elles rafraîchissent l'air dans la journée, cependant, l'eau ruisselle tellement rapidement vers les émissaires artificiels (égoûts...) à cause de l'imperméabilité du sol urbain qu'ellle n'a pratiquement pas le temps de s'évaporer. Soulignons que l'évaporation entraîne un rafraîchissement de l'air car le passage de l'état liquide à l'état gazeux consomme des calories (environ 600 par gramme d'eau évaporé).

La circulation d'air

L'ICU dépend également des vents. Un vent fort va favoriser la circulation de l'air et donc diminuer le réchauffement du substratum urbain par un air chaud. A l'inverse, un vent faible entraîne une stagnation des masses d'air qui ont alors le temps de réchauffer le bâti : ainsi, plus le temps est calme et dégagé, plus l'îlot de chaleur urbain est intense. De plus, la forme urbaine joue sur le régime des vents : une rue étroite et encaissée, formant un canyon, empêchent les vents de circuler et fait alors stagner les masses d'air.

Les activités humaines

Enfin, il est important de noter ici l'importance de la chaleur anthropique, notamment en hiver : chauffage, climatisation, industries, circulation automobile, éclairage, etc. sont autant de facteurs qui font augmenter les températures et la pollution (qui elle aussi indirectement par effet de serre réchauffe l'atmosphère au niveau mondial) et donc favorisent l'apparition d'un îlot de chaleur(3) mais aussi plus simplement réchauffe la ville, même en l'absence d'ICU.
Par exemple, une route éclairée aura une température d'1°C supérieure par rapport à une route non éclairée.

Conséquences de l'îlot de chaleur urbain

Les îlots de chaleur sont à leur tour à l'origine de transformations de phénomènes météorologiques. Ainsi, ils font diminuer l'humidité relative, le nombre de jour de gel et les brouillards. De plus, ils modifient le régime des pluies en faisant diminuer les perturbations en hiver lorsque le temps est stable, mais, lorsque le temps est instable, l'ICU provoque une augmentation de l'intensité des précipitations provoquant parfois de violents orages car "la ville perturbe principalement la circulation convective des masses d'air. Son influence est ainsi marquée sur les phénomènes violents comme les fortes averses, les orages ou encore les chutes de grêle. Les journées d'orage peuvent ainsi augmenter de 20 à 30 % (Duchêne-Marullaz, 1980)"(4).

De plus, les îlots de chaleur urbains influencent des paramètres qui dans une interrelation vont le renforcer. Ainsi, les différences de chaleur entre centre et périphérie (tout comme entre des lieux chauds comme les rues et des lieux frais comme les parcs à plus petite échelle) sont à l'origine de "brises de campagne", c'est-à-dire des vents thermiques faibles qui vont des zones froides aux zones plus chaudes, favorisant ainsi la concentration de polluants dans les secteurs les plus urbanisés et les plus denses, autrement dit les secteurs qui souffrent déjà le plus des îlots de chaleur.

Notons enfin que si les ICU ne sont ni une cause, ni une conséquence du changement climatique, les effets de l'un sur l'autre aggravent les impacts de chacun. Ainsi, le changement climatique qui prévoit une augmentation des températures générales rendra l'ICU encore plus intense. De même, dans une bien moindre mesure toutefois, les dynamiques qui président à la formations des ICU et leurs conséquences (consommations d'énergie pour se réchauffer ou se rafraîchir, pollutions...) sont d'autant plus de facteurs du changement climatique.

De la pollution de l'air au changement climatique

Les années 1970 : le prisme de la pollution

L'étude de J. Dettwiller, "Evolution séculaire du climat de Paris, Influence de l'urbanisation", paru en 1970 et qui semble être l'une des premières références françaises, décrit, à partir des relevés des stations météorologiques, les différences entre le centre de l'agglomération parisienne et les limites de la zone urbaine tant en ce qui concerne les températures, que les précipitations, les vents, l'humidité relative ou les brouillards. Il montre alors bien les difficultés pour réaliser de telles études dues au manque de données (le nombre de stations météorologiques de l'agglomération parisienne est largement insuffisant).
Si Dettwiller ne fait pas encore ressortir concrètement les conséquences et les usages de ses observations, il commence à apparaître que cela pourrait servir à l'aménagement, notamment pour situer certaines installations polluantes en fonction du climat : "C'est un apport considérable au dossier du climat des villes. […] Elle nous enseigne que nous avons beaucoup à apprendre encore sur ces climats, constatation peu réconfortante puisque la connaissance de ces derniers aurait (ou devrait) servir de fondements à la mise en place des zones industrielles, résidentielles et d'affaires" (Loup, 1971).

Ce mouvement qui lie climat urbain et environnement ne fait que grandir avec les craintes de plus en plus précises et médiatiques, notamment en matière de pollution atmosphérique. La demande sociale de connaissance permet alors à la climatologie urbaine, en s'orientant vers ces questions, de sortir de son carcan et de trouver un écho dans les mouvements environnementalistes et écologistes qui naissent à cette époque.

A Paris, la pollution atmosphérique demeure très problématique. Ainsi, G. Escourrou fait directement le lien entre îlot de chaleur et diffusion des polluants (1986) et préconise alors, comme le suggérait J. Loup en 1971, des lieux d'implantation pour les industries polluantes. Cette étude, basée sur les relevés des stations météorologiques d'Ile-de-France et sur des relevés effectués à divers endroits, souligne encore une fois le manque de moyens techniques pour mesurer efficacement les variations climatiques entre deux points. Les images satellites n'ont alors pas encore réellement fait leur entrée sur la scène scientifique française qui semble alors en retard sur les études étrangères et particulièrement américaines.

Une perte d'intérêt dans les années 1990

La Terre Incine10
Ancienne usine d'incinération d'Issy Les Moulineaux

Mais cette fois encore, l'intérêt retombe car les problématiques qui avaient porté la lumière sur le climat urbain vont être en partie réglées. En effet, la pollution atmosphérique va être prise très au sérieux et des mesures vont être mises en place. En 1979, est créé Airparif, chargé de la surveillance de la qualité de l'air. Mais c'est durant les années 1990 que la loi sur l'air de 1996 va fixer les base d'une vraie politique de limitation de la pollution atmosphérique. Elle vise ainsi à "renforcer de manière significative les volets observation et information sur la qualité de l'air" en instaurant les plans régionaux pour la qualité de l'air (PRQA) et les plans de protection de l'atmosphère (PPA). De même, le 1er octobre 1997 lors d'un pic de pollution au dioxyde d'azote, est mise en place une circulation alternée limitant la circulation des véhicules trop polluants. Bien que cette opération n'ait fait diminuer les émissions que de 20 %, aujourd'hui la qualité de l'air de l'agglomération parisienne s'est quelque peu améliorée depuis une vingtaine d'années. Ainsi, les émissions de dioxyde de soufre (SO2) ont été divisées par 20 et les particules (« fumées noires ») par huit en 40 ans. Cependant, les particules, l'oxyde d'azote (NOx) et les composés organiques volatils (COV) stagnent ou reculent très lentement alors que l'ozone (O3) augmente quelque peu (ADEME).

Plus que par les réglementations, la baisse de la pollution, et par la même de l'attention pour la climatologie urbaine, provient de la désindustrialisation, particulièrement en région parisienne, des années 1980 et 1990. Les études qui entraient dans la thématique "îlot de chaleur" par le prisme de la pollution atmosphérique ne semblent plus se justifier au regard du grand public et des décideurs. Toutefois, cette problématique va ressurgir avec le changement climatique.

La reprise en compte du climat urbain dans la perspective du changement climatique

La Terre Reside10

La grande rupture en France est marquée, au tournant du siècle, par l'entrée sur la scène politique et médiatique du changement climatique d'une part, et, d'autre part, par un événement sanitaire inédit en France jusqu'alors, la canicule du mois d'août 2003, qui entraîne une surmortalité de près de 60 %, soit près de 14 800 personnes en France entre le 1er et le 20 août. La région parisienne est quant à elle encore plus touchée puisque l'on a enregistré une surmortalité de 134 % sur la région Île-de-France soit plus de 4 800 décès excédentaires par rapport au nombre attendu (ORS, 2003a).

Ces deux éléments vont faire passer l'ICU du domaine de la nuisance au domaine du risque. L'ICU n'est plus une simple gêne pour les citadins, ce n'est plus une question d'inconfort lors des fortes chaleurs estivales sans réelles conséquences. A présent, il s'agit d'un risque, c'est-à-dire la combinaison entre un aléa (ici la canicule), sa probabilité d'occurrence et un enjeu, dans ce cas de santé publique pour les populations vivant en ville. Les différents travaux sur le changement climatique, et notamment ceux du GIEC qui revêt une importance politique singulière (Dahan Dalmedico, 2006), montrant que les épisodes caniculaires devraient se multiplier dans les zones tempérées dans les années à venir, l'ICU passe alors au centre des préoccupations politiques et sociales afin de limiter les conséquences sanitaires des canicules.

La question des pollutions passe alors clairement au second plan dans les études sur le climat urbain, toutes se concentrant sur les moyens d'adaptation et d'atténuation pour prévenir le risque canicule. C'est donc, finalement, après de nombreuses apparitions et disparitions, par ce biais que les îlots de chaleur urbains prennent aujourd'hui toute leur importance dans la recherche en climatologie, et la recherche de moyens pratiques de prévention vont permettre d'ouvrir la question à d'autres domaines de compétence.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 20:28

Les orages

La Terre Orage-10

On désigne en principe sous le nom d'orage toute perturbation atmosphérique donnant lieu à des manifestations électriques discontinues telles que les éclairs, accompagnées de tonnerre sous forme d'un bruit sec ou d'un roulement sourd et éventuellement de précipitations souvent intenses sous forme de pluie, de grêle ou de grésil.
L'Organisation Mondiale de la Météorologie (OMM) définit précisément l'orage comme un météore caractérisé par deux bruits de tonnerre consécutifs et audibles de la surface terrestre. Météo-France le caractérise par l'observation de une ou plusieurs décharges brusques d'électricité atmosphérique se manifestant par un bruit sec et une lueur brève (l'éclair) accompagnés éventuellement de précipitations.

Les nuages d'orage se développent à partir de cumulonimbus ou d'agrégats de cumulonimbus qui peuvent contenir une centaine de milliers de tonnes d'eau, de grêlons et de petits cristaux de glace. Ils diffèrent essentiellement des nuages d'averse, d'abord par l'échelle même de leur expansion verticale et horizontale, mais surtout par le fait qu'ils donnent naissance à des phénomènes électriques.

Les types de temps favorables à la formation d'orages

Deux grands types de temps génèrent la formation d'orages.

L'orage localisé
Il se forme en été, lorsqu'il fait très chaud, avec un fort ensoleillement, et peu de vent. Le sol très chaud favorise alors l'ascendance de l'air.
La densité urbaine accroît le développement de ce type d'orages.

Le front orageux
Un font froid au sol force l'ascendance d'une masse d'air chaud qui se déplace. L'air chaud est alors soulevé en altitude générant une énorme masse convective qui développera plusieurs cellules orageuses.

Le nuage d'orage : le cumulonimbus

La Terre Cumulo10

L'extension verticale considérable des nuages d'orage, qui atteignent fréquemment la tropopause (entre 8 et 16 km d'altitude suivant la latitude) et parfois même la dépasse, exige en règle générale pour leur formation des masses d'air instable, humide et chaud, donc de forts gradients de température sur des épaisseurs importantes.
Ces nuages peuvent prendre naissance dans une masse d'air chaud, instable et homogène. Ils se développent alors de manière sporadique, mais souvent privilégiée, en cours d'après-midi, au-dessus des endroits où la topographie (montagne) ou la nature du sol (par exemple un bâti dense) favorisent la surchauffe des masses d'air dans les basses couches et donc leur ascension.
Ils peuvent aussi s'étendre "en ligne" ou en bandes étroites suivant la direction du vent dans les basses couches, l'influence du sol étant ici, semble-t-il, moins évidente.
Enfin, quand les masses d'air d'un front chaud, poussées par la circulation générale, sont forcées de s'élever sur un espace de masses d'air froid, des orages se développent si l'air chaud, suffisamment humide, est convectivement instable. Ces orages peuvent se former à n'importe quelle heure de la journée et couvrir une large région. Ils sont facilement reconnaissables, car, le plus souvent, ils se déplacent avec les fronts et peuvent ainsi atteindre des altitudes élevées, ils prennent alors la forme caractéristique d'une enclume.

Structure et développement du nuage d'orage

Si la durée moyenne de vie d'un cumulonimbus modéré générateur d'averses est d'une vingtaine de minutes, celle d'un cumulonimbus orageux est de l'ordre d'une ou deux heures.
On peut schématiser grossièrement l'évolution d'un nuage d'orage en trois étapes : développement, maturité et dissipation.

Le développement

Dans la phase de développement, le nuage, plus chaud que l'air ambiant, monte rapidement ; il accroît l'instabilité propre de la masse d'air originelle au fur et à mesure que la vapeur d'eau se condense en altitude. La chaleur latente de condensation (la condensation dégage de la chaleur) vient ainsi prendre le relais et le nuage atteint rapidement des altitudes où la température extérieure est très au-dessous de 0 °C.
Dans les parties élevées du nuage, des courants ascendants supérieurs à 30 m/s sont alors fréquemment observés. Après avoir dépassé l'isotherme (la ligne imaginaire où la température est de 0 °C), ce stade de développement vertical peut durer encore entre dix et vingt minutes, pendant lesquelles le nuage peut grimper jusqu'à une altitude de 10 km, et parfois davantage, à la limite donc de la tropopause. Par examen au radar, on observe des échos importants, correspondant à la présence de précipitations solides ou liquides, maintenues en altitude par les fortes vitesses verticales des ascendances. Les plus grosses gouttes de pluie, à la limite de rupture par instabilité, ne dépassent pas 5 à 6 mm de diamètre, ce qui correspond à une vitesse limite de chute de l'ordre de 8 m/s au niveau du sol. Seuls les grêlons de diamètre et de poids plus importants ont des vitesses pouvant atteindre 20 ou 30 m/s.

La Terre Cumbsc10
Schéma des trois phases dans le cycle de vie du cumulonimbus. Ce schéma un peu simplifié du nuage d'orage correspond à des structures isolées de cumulonimbus, de développement relativement modéré pour un nuage de ce type. En fait, on se trouve le plus souvent en présence, dans le même nuage, d'un amas imbriqué de cellules ascendantes et descendantes. Seul l'usage du radar permet de préciser la structure interne de ce conglomérat de nuages orageux dont la couverture au sol peut atteindre, dans les orages frontaux, des dizaines et parfois des centaines de kilomètres carrés.

La maturité

Lorsque l'accumulation de l'eau, à l'état solide ou liquide, devient telle que les courants ascendants ne peuvent plus la supporter, la pluie est prête à tomber et la phase de maturité commence avec les premières précipitations.
Des courants descendants prennent naissance, par suite de l'entraînement visqueux de l'air par les éléments de précipitation.
Ces courants descendants n'atteignent cependant pas les vitesses des courants ascendants. Ils sont localisés en général près du milieu de la partie frontale avant du nuage, sur sa trajectoire de déplacement ; l'air froid ainsi amené au sol se répand vers l'avant du nuage, et donne à l'observateur la sensation caractéristique d'un renversement de la direction du vent au sol, correspondant à une baisse de température. Immédiatement après, la pluie commence à tomber et s'intensifie rapidement puisque c'est dans cette zone frontale descendante que se localise au maximum la chute des éléments précipitants. Associés à cette zone de précipitation, on observe des rafales de vent et un accroissement brutal et passager de la pression. Pendant cette phase de maturité, dont la durée peut s'étendre d'un quart d'heure à plus d'une heure, la cellule orageuse peut se développer encore et atteindre des altitudes de 9 km à 15 km. Parfois, lorsque la mésostructure des cellules convectives du nuage est favorable et que la concentration en noyaux glaçogènes est insuffisante, la grêle peut se former, sous certaines conditions encore mal comprises.

La dissipation

Les courants ascendants et descendants coexistent ; ceux-ci finissent par l'emporter, et la phase de dissipation prend place. Les précipitations qui viennent de tomber au sol s'évaporent, refroidissant les basses couches de l'atmosphère et contraignant donc l'ascension.
Le nuage répand alors ses dernières précipitations décroissantes avec le déclin des ascendances qui les alimentaient. Il se "dissout" par évaporation dans le réchauffement adiabatique des courants descendants, ou bien se fragmente, en laissant un voile de cirrus à la partie supérieure et des débris inorganisés de nuages au voisinage du sol.

Cette dernière phase marque la fin de l'orage qui aura duré, la plupart du temps, environ 20 minutes. Exceptionnellement, certains orages peuvent durer plusieurs heures.

L'orage : les éclairs

La Terre Eclair10

L'éclair, phénomène optique visualisant les mécanismes de décharge, peut se produire indifféremment soit entre charges de signes contraires, réparties entre cellules voisines ou dans une même cellule orageuse, soit directement entre la Terre et les charges réparties dans le nuage.
A l'intérieur des cumulonimbus, un processus d'électrification complexe aboutit à la séparation de charges positives et négatives, et donc à la création d'un champ électrique intense ; dès que ce champ atteint une valeur suffisante, il se forme un canal ionisé appelé traceur descendant qui se propage par bonds successifs du nuage vers le sol. Au sol, la température d'un éclair atteint les 30 000°C, une température comparable à la chromosphère du soleil...
Lorsque le traceur effectue la jonction avec le sol, une impulsion de courant très intense (avec une tension de l'ordre de dizaines de millions de volts pour 30 000 ampères) se propage depuis le sol vers le nuage : c'est l'arc de retour. Cet arc électrique est le phénomène le plus énergétique et le plus destructeur de l'éclair. Sa vitesse varie entre 10 000 à 270 000 km/s (vitesse proche de celle de la lumière).
La durée totale d'un éclair est de l'ordre du quart de seconde, avec un mécanisme relativement complexe.

La couleur de l'éclair renseigne sur la composition de l'air ambiant :

- Un éclair rouge indique de la pluie dans l'air.
- Un éclair bleu la présence de grêle.
- Un éclair jaune est un signe d'une quantité importante de poussière dans l'atmosphère.
- Un éclair blanc est signe d'un air très sec.

Environ 80% des éclairs se produisent entre nuages ou au sein du même nuage, 20% du sol vers le nuage, leur longueur varie entre 100 m et 20 km avec une vitesse moyenne d'environ 40 000 km/s.

Le tonnerre

Le bruit violent qui accompagne l'éclair s'appelle le tonnerre. Il est dû à l'air chauffé et dilaté par la décharge électrique.

On peut calculer sa distance par rapport à un orage en se basant sur le temps qui sépare l'éclair du tonnerre. Lorsque l'on aperçoit un éclair, on compte en secondes le temps qui le sépare du coup de tonnerre. On divise ensuite ce temps par 3 pour obtenir une distance approximative.


Eclairs de rayon gamma

En fonctionnant comme d'énormes accélérateurs de particules, certains orages émettent des éclairs de rayons gamma ainsi que des électrons et positrons à forte intensité énergétique. Les scientifiques pensent désormais que la plupart de ces éclairs de rayon gamma produisent des rayons de particules et de l'antimatière.

Le sprite

La Terre Sprite10

Un sprite est phénomène lumineux qui accompagne une décharge électrostatique entre le haut d'un nuage d'orage et le bas de l'ionosphère (90 km). Il a généralement lieu quelques millisecondes après un éclair d'orage très intense. Ces événements ont été découverts fortuitement il y a seulement une vingtaine d'années. Ils font actuellement l'objet d'études très poussées pour comprendre leur mécanisme de génération car ils correspondent à un formidable échange d'énergie entre l'atmosphère et l'ionosphère (BE Pologne numéro 9 (2/09/2009) - Ambassade de France en Pologne / ADIT - http://www.bulletins-electroniques.com/actualites/60326.htm)
Pour mieux comprendre ces phénomènes, le projet TARANIS (Tool for the Analysis of RAdiations from light NIngs and Sprites) a été mis en place au CNES. Celui-ci étudie les transferts impulsifs d'énergie, entre l'atmosphère et l'environnement spatial de la Terre, qui sont observés au-dessus des régions orageuses.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 20:34

Risques et conséquences des orages

La Terre Inonda10

Les précipitations associées à un orage sont souvent intenses, elles durent environ un tiers du temps de l'orage. Parfois, elles prennent la forme de grêle qui reste un problème important dans l'agriculture, les parcs et jardins, les serres... De plus, les averses soudaines diminuent parfois considérablement la visibilité des automobilistes et/ou entraînent la formation d'une nappe d'eau de plusieurs centimètres d'épaisseur sur la chaussée à l'origine d'accidents de la route (à cause de l'aquaplanning).
En milieu urbain, à cause de l'imperméabilité du sol, les eaux précipitées se chargent en polluants tout en étant canalisée vers les cours d'eaux. Ces eaux doivent donc être récupérées puis traitées avant d'être "relachées" dans les rivières et fleuves. Ce sont les missions des syndicats d'assainissement des eaux.
Enfin, les pluies importantes déversées par les nuages d'orages sont capables d'entraîner des inondations ponctuelles qui saturent les systèmes d'évacuation des eaux, inondant alors habitations et infrastructures.

La foudre

Les effets dus aux impacts de foudre directs sont certes importants mais l'essentiel des dégâts est dû aux ondes électromagnétiques rayonnées qui induisent sur plusieurs dizaines de kilomètres des surtensions et des micro-coupures sur les lignes d'alimentation électrique et les télécommunications. Ces surtensions endommagent notamment les compteurs électriques, les téléviseurs, les ordinateurs, les téléphones... C'est pourquoi il est recommandé de débrancher les appareils électroniques et téléphoniques lorsqu'un orage approche.
De plus, les éclairs endommagent parfois les lignes à haute tension et les infrastructures en créant des incendies.

Les variations de pression

Les variations de pression atmosphérique engendrées influent sur le corps des organismes vivants y compris l'Homme. Certaines personnes en mauvaise santé ou fragiles doivent fournir un effort d'adaptation qui est fatiguant.

Les vents

Les vents locaux engendrés peuvent être source de dégâts comme en témoigne régulièrement l'actualité.

Quelques consignes pour se protéger de la foudre

Ces consignes sont en partie issues des recommandations de l'Association Protection Foudre, qu'il conviendra de consulter pour éviter au maximum le risque de foudroiement.

En montagne

Dès les premiers signes avant-coureurs d'un orage et si l'on se trouve sur un sommet ou une arête, descendre le plus bas et le plus rapidement possible, avant que l'orage éclate.

S'éloigner de tout objet métallique (piolets, crampons, mousquetons, pitons, bâtons télescopiques, pylônes, etc.).

Il peut également être dangereux de s'abriter dans une petite anfractuosité ou une petite grotte : en restant debout près de l'entrée, on risque de provoquer l'amorçage d'un arc électrique entre le plafond et la tête, et en s'appuyant au fond, on risque d'être traversé par un courant dérivé. Se tenir accroupi le plus loin possible du plafond, des parois et du fond.

Ne jamais se plaquer contre une paroi. S'en tenir éloigné d'au moins 1,5 mètres.

En mer

Les orages sont peu fréquents en mer mais particulièrement redoutés car la foudre frappe les points les plus hauts et donc les mâts des navires.

En forêt

Lorsqu'on est surpris par un orage en pleine forêt, il faut s'écarter le plus possible des troncs, et éviter la proximité des branches basses. Cette position minimise les risques.

En tous lieux

- Ne pas stationner sous un arbre isolé ou un petit groupe d'arbres, ni sous un surplomb.
- Éviter de manipuler tout conducteur d'électricité (eau qui ruisselle...).
- Surtout ne jamais s'abriter sous un parapluie ouvert.
- Éviter de s'abriter dans une cabine téléphonique extérieure.
- S'asseoir par terre, car la foudre est attirée par tout ce qui dépasse (un arbre, un pic, ou un homme debout). Ne pas s'allonger ni s'appuyer contre une paroi.
- S'isoler au maximum du sol au moyen de tout matériau isolant : rouleau de corde, sac de couchage, ou sac à dos dont l'armature est posée sur le sol.

Statistiques sur les orages

Dans le monde

Entre 3000 et 5000 orages sont en activité permanente dans l'atmosphère, générant une centaine d'éclairs par seconde, soit 8 millions par jour. On dénombre environ 20 millions d'orages par an dans le monde et c'est le Brésil qui compte le plus d'éclairs avec environ 70 millions par an.
Enfin, l'énergie libérée par un orage moyen équivaut à une bombe H d'une mégatonne.

En France

En France on recense en moyenne 1 million impacts de foudre par an. Plus le temps est lourd et chaud, plus il y a d'orages. On a par exemple enregistré 40 000 impacts de foudre le 20 juin 2006 alors que le pays connaissait de grosses chaleurs.

La foudre tue entre 8 et 15 personnes par an et environ 20 000 animaux sont foudroyés chaque année.

Au niveau matériel, la foudre engendre 15 000 incendies par an, des centaines de millions d'euros de dégâts et détruit environ 250 clochers.

Une carte de Météo-France synthétise le nombre moyen de jours d'orage par an. Ce sont les régions du quart sud-est, la vallée du Rhône et les massifs montagneux qui sont les plus touchés par les orages.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 20:38

Les risques naturels : cyclones, tsunamis, volcans, séismes...

Qu'est-ce qu'un risque naturel ?

La Terre Merapi10
La foudre frappe le Merapi en éruption le 6 Novembre 2010

Un risque naturel implique l'exposition des populations humaines et de leurs infrastructures à un évènement catastrophique d'origine naturelle.

On y distingue principalement : les avalanches, les feux de forêt, les inondations, les mouvements de terrain, les cyclones, les tempêtes, les séismes et éruptions volcaniques mais aussi les raz de marées, les invasions d'insectes nuisibles, les sécheresses prolongées...
Un risque naturel est donc la rencontre entre un aléa d'origine naturelle et des enjeux humains, économiques ou environnementaux.

On parle de risque majeur lorsque les dégâts et le nombre de victimes sont importants.
En moyenne par an, de 2000 à 2005, près de 300 millions de personnes ont été affectées par les catastrophes naturelles et près de 78 000 y ont trouvé la mort (CRED, 01/2007).

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 20:57

Les raz de marée ou tsunamis

La Terre Tsuhil10
Dégâts causés par le tsunami du 24 mai 1960, à Hilo, Hawaï

Le tsunami ou raz de marée est une onde marine exceptionnelle déclenchée par un soudain déplacement du plancher océanique.

Le terme est dérivé d'un mot japonais qui signifie "vague portuaire" (harbor wave). On lui attribue parfois des appellations ambiguës : seismic sea wave (vague marine sismique) car les séismes sont la première cause de leur déclenchement, tidal wave ou raz de marée, même si les tsunamis n'ont rien à voir avec la marée. D'ailleurs tsunami vient du japonais qui signifie "vague causée par la marée"...

On les trouve dans tous les océans, surtout dans le Pacifique qui est notamment délimité par la Ceinture de Feu, et dans certaines mers comme la Méditerranée.
Ils peuvent être dévastateurs et meurtriers comme en témoignent le tsunami du 26 décembre 2004 qui a tué 225 000 personnes ou celui qui a dévasté les côtes nord-ouest du Japon le 11 mars 2011...

Caractéristiques hydro-dynamiques des tsunamis

En pleine mer : Rappel terminologique

Dans le cas des vagues océaniques, les termes utilisés sont pour l'essentiel les mêmes que ceux qui s'appliquent aux autres types d'ondes:

- longueur d'onde : distance entre 2 crêtes successives
- fréquence : intervalle de temps entre 2 crêtes successives
- hauteur : dénivellation entre crête et creux
- vitesse

La Terre Schets10
Terminologie utilisée pour décrire les tsunamis

Mais il existe une différence majeure : pour la plupart des ondes, l'amplitude représente la moitié de la hauteur. Dans le cas des vagues océaniques, elle correspond à la dénivellation entre la crête et le niveau normal de la mer.
L'amplitude du tsunami à son contact avec la côte (déferlement) est appelée run-up par les Anglo-saxons, qui correspond à la hauteur de la vague au-dessus du niveau moyen des hautes marées.

On classe les tsunamis en fonction de leur magnitude, qui correspond à l'énergie totale libérée par le tsunami. Plusieurs échelles de magnitude sont utilisées, l'une des plus pratiques étant celle d'Imamura Iida, où la magnitude est égale au logarithme (en base 2) de la hauteur maximum de la vague principale le long de la côte:
m = logHmax

Son fonctionnement étant identique à l'échelle de Richter pour les séismes, il est aisé de comparer la magnitude d'un tsunami et celle du séisme qui l'a généré. Cependant, cette formule ne prend pas en compte l'extension spatiale des tsunamis.

Un autre paramètre important est l'intensité du tsunami, qui représente la force de la vague en un lieu donné. L'échelle couramment utilisée est celle de Sieberg, modifiée par Ambraseys (1962) qui classe les tsunamis de 1 (pas de dommages) à 6 (désastreux).

Caractéristiques des tsunamis

La longueur d'onde des vagues océaniques est en moyenne de 100 m, alors que celle des tsunamis peut excéder 200 km.
Leur vitesse de propagation en pleine mer est de plusieurs centaines de km/h (180 km/h pour le tsunami du 2 septembre 1992 au Nicaragua), et peut être dix fois plus rapide que celle des vagues normales (90 km/h environ) car la vitesse augmente avec la profondeur (pas d'influence de la rugosité du fond).
Ex. : 500 km/h pour le tsunami du 26/12/2004 dans l'océan Indien et 800 km/h pour le tsunami du 1er Avril 1946 né en Alaska et qui ravagea la ville de Hilo à Hawaii 4,5 h plus tard (18 m de haut, 150 victimes).

Dans le cas d'une série de tsunamis, la fréquence entre 2 crêtes est élevée, jusqu'à une heure, malgré leur vitesse rapide, car la fréquence dépend surtout de leur longueur d'onde qui est très grande.

En pleine mer, l'amplitude des tsunamis reste généralement faible, inférieure à 1 m, mais peut atteindre plusieurs mètres dans certains cas.

A l'approche et au contact de la côte

Caractéristiques des tsunamis

L'onde du tsunami, née du choc sismique du haut en bas de la masse océanique, est épaisse de plusieurs centaines de mètres et gagne en énergie chaque fois qu'elle heurte le plancher sous-marin. Des masses d'eau importantes glissent en profondeur le long des déformations du sol marin, à la différence des vagues ordinaires qui n'affectent que la surface de l'eau. À cause de la relation entre la vitesse de propagation et de la profondeur du fond océanique, les tsunamis sont freinés très brutalement dès qu'ils atteignent la plate-forme continentale. Ceci entraîne une augmentation très forte de l'amplitude de la vague, qui atteint fréquemment 5 ou 10 m. Dans les cas les plus dramatiques relevés (voir tableau ci-dessous), le run-up a pu atteindre 20, 30, voire 40 m pour le tsunami déclenché par l'éruption du volcan Krakatoa (Indonésie, 1883). Le record semble appartenir au tsunami du 17 octobre 1737 dans le nord des Kourilles avec 60 m.
À cause de leur grande longueur d'onde, la crête du tsunami à la côte peut durer plusieurs minutes, ce qui augmente les risques.

Principaux tsunamis historiques

La Terre Captur19

Le run-up

Le run-up des tsunamis à la côte est déterminé par la combinaison de plusieurs méthodes :

- Observation visuelle
- Marques laissées par l'eau ou les débris transportés par la vague sur les bâtiments.

Le run-up d'un tsunami est fonction de plusieurs facteurs : profondeur, morphologie du plancher océanique, tracé de la côte. Dans certains cas, la côte peut réfracter le tsunami et l'orienter en direction de ports ou de baies habituellement protégées des vagues de tempêtes. Il est donc important d'établir des cartes de risques avec plusieurs scénarios fondés sur différentes orthogonales de vagues exceptionnelles (même principe qu'orthogonales de houle, mais les résultats sont très différents).
Quand l'énergie d'un tsunami est concentrée dans un secteur précis à cause de la configuration de la côte et/ou du plancher océanique, il est appelé wave trap (trappe à vague) par les Anglo-saxons. Si le tsunami est concentré dans un secteur resserré comme une baie longue et étroite ou l'embouchure d'un cours d'eau, il peut prendre la forme d'un mur appelé bore (trou). Dans ces cas, la force du tsunami est exceptionnelle : un des trois principaux tsunamis engendrés par l'explosion du Krakatoa en 1883 transporta un bloc de corail de 600 t à 100 m à l'intérieur des terres et un bateau à 2,5 km et à 24 m d'altitude. Ceux du Santorin ravagèrent la côte nord de la Crète.

Le comportement d'un tsunami à l'approche de la côte diffère de celui des autres vagues océaniques.
Parfois, le niveau de la mer baisse notablement juste avant l'arrivée du tsunami car l'eau littorale est en quelque sorte aspirée par l'immense rouleau que forme le tsunami (cf. citerna). Ce phénomène est appelé drawdown par les Anglo-saxons. Bien évidemment, il ne faut pas s'aventurer dans la zone émergée, mais au contraire se réfugier sur des topographies élevées.
Dans d'autres cas, le premier mouvement de l'eau littorale est au contraire une élévation (serait-ce la pression exercée sur l'eau littorale par le tsunami ?).

Effets à la côte

Effets morphologiques : érosion des plages

Exemples :

- recul de la plage après le passage d'un tsunami de 8 m sur la plage de Marsella, Nicaragua en 1992.
- recul de 150 m d'une plage de Flores par glissements répétés sur 2 km de long après une vague de 11 m de haut.

Effets écologiques

Par l'action mécanique des vagues
- destruction de la végétation à Florès.
- débris coralliens transportés jusqu'à 200 m de la côte après le passage du tsunami de Flores en 1992.

Par l'action du sel
A Flores, l'eau salée a tué tous les arbres ayant résisté au choc mécanique des vagues.

Effets humains et sociaux-économiques

Les pertes s'élèvent généralement à plusieurs centaines de victimes, sauf dans les cas les plus graves où elles se comptent par dizaines de milliers (Santorin 1600 av. JC, Lisbonne, 1755, Krakatoa 1883, Honshu 1896, Sumatra 2004).
L'Indonésie est un des pays les plus gravement touchés et ou le risque est le plus important au monde. Certes, l'aléa n'est pas plus fort qu'au Japon, mais la vulnérabilité des populations y est beaucoup plus importante.

Principaux tsunamis causés par des séismes en Indonésie depuis 1965

La Terre Captur20

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 21:08

L'origine des tsunamis

Chaque événement qui entraîne un déplacement significatif du plancher océanique cause aussi le déplacement d'un volume d'eau équivalent, qui peut donner naissance à un tsunami. La plupart des tsunamis sont issus des séismes, mais d'autres peuvent aussi résulter d'éruptions volcaniques, de glissements de terrain ou d'activités humaines (essais nucléaires).

Les séismes

Le plus souvent, les tsunamis résultent de séismes se produisant à proximité des côtes. Tout séisme qui engendre un tsunami est qualifié de séisme tsunamigénique (Tsunamigenic Earthquake). L'un des plus célèbre est celui qui toucha les côtes du Portugal en 1755. Il produisit une série de tsunamis de 5 m de haut qui firent 60 000 victimes à Lisbonne, soit 1/4 de la population de la ville. Cet exemple est significatif car l'on pense souvent que les tsunamis sont le domaine réservé du Pacifique, or même les côtes françaises ne sont pas épargnées. Le séisme de 8,9 de Sumatra en décembre 2004 produisit également de nombreux tsunamis avec plusieurs vagues d'une dizaine de mètres de haut qui furent dévastatrices.

La magnitude des tsunamis est en général liée à celle des séismes qui les ont initiés. Ainsi, un gros séisme risque de générer tsunami important.
Par exemple le tsunami du 28 mars 1964 qui détruisit en partie Hilo (Hawaï) fut déclenché en Alaska par le séisme Good Friday de magnitude 9 (le plus fort connu avec celui du Chili en 1960).

Cependant, cette corrélation est loin d'être aussi simple car les tsunamis résultent essentiellement de déformations verticales de la croûte, même de faible ampleur comme en témoigne le fameux séisme qui détruisit San Francisco en 1906 sans produire de tsunami malgré sa magnitude de 8,3 sur l'échelle de Richter (450 victimes, 28 000 maisons détruites). La cause réside dans le rejet inférieur à un mètre, malgré plus de 6 m de coulissage le long de la faille de San Andréas en partie immergée.
En revanche, les séismes faisant jouer ou rejouer des failles conformes ou inverses sont à même d'engendrer des tsunamis, même pour des rejets limités.

Cependant, même le long de failles verticales, les gros séismes ne produisent parfois que des tsunamis de magnitude modeste voire aucun. A l'inverse, des séismes modestes peuvent déclencher des tsunamis d'une magnitude exceptionnelle. Cette dernière catégorie spécifique de séisme tsunamigénique.est appelée par les experts japonais séisme tsunami (Tsunami Earthquake).
Les 2 exemples les plus célèbres de séisme tsunami sont ceux de Sanriku (Honshu) le 15 juin 1896 (24 m de haut, 26 000 victimes) et du 1 avril 1946 au large de l'île d'Unimak (Aléoutiennes, Alaska), qui atteint Hawaï avec une amplitude se 18 m à Hilo.

Les séismes tsunami naissent dans la plupart des cas le long d'une marge active de plaque caractérisée par une profonde fosse océanique (zones de subduction). Il existe deux raisons principales pour que des séismes modérés produisent des tsunamis de forte magnitude :

Le glissement de sédiments dans une marge d'accrétion. Les sédiments très volumineux qui composent le prisme d'accrétion, en équilibre instable, peuvent glisser le long du plan de Benioff et entraîner un tsunami exceptionnel (cas sans doute des tsunamis de Sanriku 1896 et Unimak en 1946).

Dans les zones de subduction dépourvues de prisme d'accrétion, le principal facteur de déclenchement est la création d'un nouveau plan de rupture, d'une nouvelle faille verticale.
Ex. : séisme du 2 septembre 1992 au Nicaragua, de magnitude 7 (modéré), a 60 km de la côte (contact plaques Cocos et Caraïbe) qui déclencha un tsunami de 8 à 15 m de haut qui toucha l'ensemble de la côte ouest du pays.

Pour la prévention des risques, les sismologues n'utilisent plus seulement l'échelle de Richter, mais le « moment sismique », une mesure qui prend en compte les propriétés d'élasticité de la croûte et la superficie moyenne de la zone où des dislocations de la croûte se produisent pendant un séisme.

Les éruptions volcaniques

La fréquence des tsunamis causés par une éruption est beaucoup plus faible que celle des précédents : seulement 2 % en Méditerranée, essentiellement en Italie, surtout par le Vésuve (à 11 reprises, par ex. en 79 avt JC et surtout en 1631). Et Seulement 6 des 109 tsunamis régionaux déclenchés dans la région Kourilles-Kamtchatka de 1737 à 1990.
En revanche, la magnitude des tsunamis d'origine volcanique peut être beaucoup plus forte que celle des tsunamis d'origine sismique. Les deux tsunamis les plus catastrophiques de l'Histoire furent déclenchés par l'éruption d'un volcan insulaire de type explosif : Santorin 1600 avt JC et Krakatoa 1883. Dans ces deux cas, la formation de plusieurs tsunamis successifs fut lié à une éruption plinienne suivie de la formation d'une caldeira qui abaissa le plancher océanique de plusieurs centaines de mètres.

Dans d'autres cas, les tsunamis peuvent résulter : d'un écroulement de flanc d'un volcan, générant une avalanche de débris ; de l'arrivée dans la mer de coulées pyroclastiques (nuées ardentes – cf Krakatoa) ou de coulées de débris (lahars). Dans ces derniers cas, plus le volume de matériaux entrant dans la mer est élevé, plus le tsunami est important.

Les glissements de terrain

Les glissements de terrain tsunamigéniques sont souvent associés aux séismes ou aux éruptions volcaniques, mais pas toujours. Le plus souvent, les tsunamis sont déclenchés le long des parois de canyons sous-marins, dont les flancs s'écroulent de temps à autres. C'est particulièrement le cas le long de la côte ouest des Etats-Unis. Le séisme de 1964 en Alaska (Good Friday) généra au moins 20 glissements de terrain. Celui de Lituya Bay (Alaska) du 9 juillet 1958 de magnitude 7 provoqua un glissement qui repoussa la mer jusqu'à 60 m d'altitude sur la rive opposée, ravageant la forêt.
Le mini-tsunami qui affecta l'aéroport de Nice fut aussi causé par un glissement le long d'un canyon sous-marin.

Les facteurs anthropiques

Nous pensons bien sûr aux essais nucléaires qui ont déclenché des tsunamis :

- à l'atoll de Bikini dans les îles Marshall dans les années 40 et 50
- à Mururoa

Il existe également d'autres facteurs à l'origine de mini-tsunamis dans les lacs par exemples, mais il ne s'agit pas de tsunamis au sens propre du terme.

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110Mar 31 Jan - 21:14

Prévention des risques de tsunamis

Il n'existe aucun moyen technique de protection, seule la prévention est possible, et elle est de 2 types.

Prévention à court terme : mise en place de systèmes d'alerte

Internationaux

Système d'alerte international dans le Pacifique. Très axé sur la surveillance des séismes, en particulier des séismes tsunamis. Basé à Honolulu et géré par NOAA (National Oceanic and Atmospheric Administration). Equipé d'une trentaine de stations sismiques et de 78 marégraphes. Il permet de donner l'alerte 1 heure avant l'arrivée d'un tsunami. Ce dispositif reste effectif uniquement pour les populations vivant à plus de 750 km de la source.

Régionaux

La Terre Tsunam10
Recherche de disparus à Pangandaran,
le 19 juillet 2006 suite au tsunami (Indonésie)

C'est pourquoi, on a dû mettre en place de nombreux systèmes d'alerte régionaux, comme à Tahiti, pour des distances de 100 à 750 km de l'épicentre d'un séisme. Dans ce cas, l'alerte est donnée environ 10-12 minutes après le séisme.

Au Japon, le système OBS (Ocean Bottom Seismograph) permet de détecter les séismes en pleine mer à l'aide de sismographes et d'instruments qui mesurent la pression exercée par l'eau. Deux systèmes à 2200 m et 4000 m de profondeur. Les données sont transférées toutes les 20 s. par câble à des stations de surface, puis par téléphone au Tsunami Warning Center de la JMA (Japan Meteorological Agency) à Tokyo.

On utilise des filtres de différentes fréquences afin d'effacer en partie les signaux générés par les marées (BF) ou d'autres signaux parasites qui modifient la pression de l'eau, surtout ceux induits par les changements de température mais aussi ceux issus de la transmission des données dans le cas où l'appareil recevrait lui-même les secousses du séisme.

Locaux

La population est alertée moins de 10 minutes avant l'arrivée d'un tsunami (inférieur 100 km de là). Ex. : THRUST (Tsunami Hazards Reduction Utilizing Systems Technology) à Valparaiso (Chili).

Prévention à long terme

Mise en place de bases de données exhaustives

Ex : Base de donnée russe pour la région Kourilles-Kamtchatka. Près de 8000 séismes et 124 tsunamis recensés de 1737 à 1990, dont 109 régionaux et 15 transpacifiques.
Idem au Japon : sur 1300 ans de données, 332 tsunamis jusqu'en 1984.

Simulation

Depuis plusieurs années, les sismologues utilisent la technique de l'inversion sismique, qui consiste à analyser en détail les ondes sismiques pour déterminer l'origine des séismes. Cette technique est aussi appliquée aux tsunamis : elle consiste à analyser pour chaque tsunami connu les heures d'arrivée à la côte et leur amplitude dans plusieurs sites. Puis on reconstitue la forme de la vague et sa vitesse de propagation, afin de remonter jusqu'au mécanisme déclencheur.
La propagation des tsunamis est relativement facile à modéliser car les facteurs qui interviennent dans la vitesse des vagues sont mieux connus que ceux qui régissent la vitesse des ondes sismiques.
Plusieurs modèles ont été mis au point, dont ceux de Mansinha-Smylie (1971) qui prend en compte le déplacement du fond océanique de part et d'autre d'une faille. Modèle critiqué car il donne un profil initial de la vague différent de celui observé. D'autres modèles ont été développés dans les années 1990, comme ceux de Satake et al., d'Abe et al., Yoshida et al. ou d'Imamura et Shuto. Tous utilisent le modèle de propagation transocéanique fondé sur la théorie de la Linear Long Wave applicable seulement en eau profonde. Il existe aussi un modèle français, développé au CEA.
Au final, ces modèles demeurent encore imparfaits.


Cartographie des zones menacées

Il s'agit, par exemple, de la cartographie des zones inondables à Hawaï qui est visible sur les botins téléphoniques.

Conclusion

N'oublions pas de mentionner les autres mesures communes à tous les risques naturels : dissémination de l'information, planification préventive, éducation des populations, etc...

Source
AnonymousInvité La Terre Vide
Revenir en haut Aller en bas
MessageSujet: Re: La Terre La Terre 2110

Contenu sponsorisé La Terre Vide
Revenir en haut Aller en bas

La Terre

Voir le sujet précédent Voir le sujet suivant Revenir en haut

Sujets similaires

-
» Wok pommes de terre courgettes» Michel Honaker - Terre Noire» tarte aux pomme de terre et saucisses de strasbourg photo» Planète Terre, système solaire et mappemonde» Le Titanic (maquette en terre)
Page 1 sur 2Aller à la page : 1, 2  Suivant
Permission de ce forum:Vous ne pouvez pas répondre aux sujets dans ce forum
Le Galion :: Terres en vue :: 
Notre Planète
-
Sauter vers: