En 1979, lorsque le rapport de Jule Charney commandé par l’Académie des Sciences américaine paraît, il montre l’impact climatique d’un doublement de la teneur en CO2 de l’atmosphère. Ce rapport s’appuyait alors essentiellement sur l’analyse de la réponse d’une seule composante du climat, l’atmosphère.
En moins d’une quarantaine d’années, les modèles climatiques sont passés de codes qui ne représentaient que la composante rapide, l’atmosphère, les autres composantes – océan, biosphère, cryosphère – étant figées ou extrêmement simplifiées, à des modèles dits, un peu pompeusement, du « système Terre ». Ceux-ci visent à simuler le climat en incluant toutes les composantes et leurs interactions sur des durées d’une dizaine à une centaine d’années. Ainsi les modèles atmosphériques ont été couplés d’abord à l’autre fluide caloporteur (qui transporte la chaleur), l’océan. Faire interagir ces deux modèles très différents sur leur temps de réponse, leur physique et leur structuration dynamique, pour simuler les flux d’eau et d’énergie échangés, ne fut pas simple. Cet effort a permis de disposer de modèles couplés océan/atmosphère réalistes au milieu des années 1990. D’autres composantes sont venues enrichir ces modèles : la chimie de l’atmosphère, la biosphère terrestre et marine, l’hydrologie continentale et enfin la cryosphère.
Ces modèles ont été considérablement améliorés grâce à l’observation du climat actuel. Le “déluge de données” satellitaires et de nombreuses et importantes bases de données météorologiques ont permis de comparer le climat simulé par les modèles à des observations beaucoup plus fines du climat réel sur l’ensemble de ses composantes. Il ne faut pas imaginer deux mondes séparés, d’un côté des modélisateurs et ingénieurs développant un énorme code de calcul, et de l’autre les observateurs rassemblant des données sur le climat de notre planète en utilisant des milliers d’instruments in situ (stations météo, navires, bouées fixes et dérivantes, ballons-sondes…) et satellitaires. Mais une étroite collaboration, souvent dans les mêmes laboratoires et instituts de recherche, comme l’Institut Pierre Simon Laplace en région parisienne. Ces comparaisons modèles/données permettent d’améliorer les paramétrisations des modèles – la représentation empirique dans les modèles des processus physiques et chimiques plus petits que les mailles de calcul comme les nuages ou les aérosols. Il reste, malgré tout, de vastes zones encore insuffisamment documentées comme les régions polaires, les températures des eaux profondes et intermédiaires ou celles situées sous les plates-formes de glace. Mais là aussi, des progrès importants ont été faits, grâce au déploiement permanent de 3 000 bouées dérivantes qui plongent jusqu’à 2 000 mètres dans tous les océans (système Argo). Et même avec des mammifères marins (des éléphants de mer) équipés d’instruments de mesure révélant les températures de l’eau sous la banquise de l’Antarctique. Il faut aussi encore améliorer notre compréhension des interactions chimiques et biologiques liées à la perturbation anthropique. En effet, certains processus comme les modifications de la surface des sols ou les interactions entre aérosols et rayonnement peuvent modifier le bilan radiatif.
La meilleure connaissance des climats passés – la période thermométrique depuis 1880, les deux mille dernières années, des périodes clés du dernier cycle glaciaire ou la dernière période chaude du Pliocène – permet de tester efficacement les nouveaux modèles. Un exercice standard consiste ainsi à leur faire simuler l’évolution du climat depuis 1880. En réalisant l’exercice avec ou sans l’évolution de la teneur en gaz à effet de serre connue, il est possible d’isoler ce que le climat lui doit. Le résultat est d’ailleurs très net : si l’on prive l’ordinateur de l’information sur l’augmentation des teneurs en CO2 et méthane, il ne parvient pas à simuler le réchauffement de 1,2 °C enregistré depuis 1880. Pour renforcer notre confiance dans la capacité de ces modèles à simuler l’évolution climatique future, il est crucial de les utiliser dans des conditions passées où nous disposons de données pour comparer nos résultats de simulation.
La sensibilité des modèles à un doublement de la teneur en CO2, c’est-à-dire le réchauffement global annuel de température produit, s’affine depuis quarante ans, sans que la fourchette de résultats (entre 1,5 °C et 4,5 °C) soit d’ailleurs profondément bouleversée. Cela signifie que les processus physiques dominants – l’effet direct de ce doublement et les principales rétroactions – sont correctement représentés dans les modèles depuis le début. Mais cette continuité du résultat général s’accompagne d’une compréhension du système Terre et des perturbations que nous lui faisons subir bien plus fine et fiable.