Le Centre national d’études spatiales a récemment présenté deux projets de surveillance des émissions de gaz à effet de serre (CO2 et méthane) par capteurs satellitaires. Les satellites, qui devraient être lancés après 2020, viendront donc compléter les mesures effectuées in situ.
À l’échelle mondiale, un tel programme de mesure du changement climatique depuis l’espace n’est pas une première : les satellites européens de la série Sentinel mesurent déjà, depuis le lancement de Sentinel-1A le 3 avril 2014, quantité de paramètres sous l’égide de l’Agence spatiale européenne. Ces satellites sont développés dans le cadre du programme Copernicus (Global Earth Observation System of Systems), mené au niveau mondial.
Depuis Sentinel-1A, ses successeurs 1B, 2A, 2B et 3A ont été lancés avec succès. Tous sont dotés de capteurs aux fonctions différentes : radar imageur – pour des acquisitions dites « tous temps », l’onde radar étant indépendante des conditions nuageuses, de nuit comme de jour – pour les deux premiers ; optique visible-infrarouge permettant un suivi de la température de surface des océans pour les deux suivants. Sentinel-3A comporte, lui, quatre capteurs dédiés à la mesure de la radiométrie, de la température, de l’altimétrie et de la topographie des surfaces (océans et terres).
Ces satellites viennent ainsi en complément de nombreuses missions spatiales déjà existantes aux niveaux européen et mondial. Les données qu’ils enregistrent et transmettent permettent d’accéder à un nombre considérable de paramètres, révélateurs du « pouls » de la planète. Ils concernent en partie l’océan (vagues, vents, courants, température) et montrent l’évolution des grandes masses océaniques. L’océan est le moteur du climat et ses variations, même faibles, sont directement liées aux manifestations atmosphériques dont les conséquences peuvent être parfois dramatiques (ouragans). Pour les surfaces continentales, les paramètres recueillis par les capteurs vont concerner les variations d’humidité et de couvert des sols dont les conséquences peuvent être d’importance (sécheresse, déforestation, biodiversité, etc.).
Incroyable image de l’œil de l’#ouragan #Jose saisie samedi par le satellite #Sentinel2 ️Pic @anttilip pic.twitter.com/kphDZG8RCu
— Météo-France (@meteofrance) 11 septembre 2017
Des millions de données à traiter
Le traitement de ces données recueillies par satellite se fait à plusieurs niveaux : des laboratoires de recherche aux applications plus opérationnelles, sans oublier toute l’activité de mise en forme réalisée par l’Agence spatiale européenne.
La communauté scientifique se concentre de plus en plus sur les « variables essentielles » (physiques, biologiques, chimiques, etc.) qui ont été définies par des groupes travaillant sur le changement climatique (et en particulier le GCOS dans les années 1990). Il s’agit d’une tentative pour définir une mesure ou groupe de mesures (la variable) qui va contribuer de façon critique à la caractérisation du climat.
Il existe, bien sûr, un nombre considérable de variables, suffisamment précises toutefois pour être regroupé en indicateurs permettant d’attester, ou pas, que les objectifs du développement durable définis par l’ONU ont été atteints.
La mise en évidence de ces « variables essentielles » peut être atteinte après traitement des données, en les croisant avec celles obtenues par une multitude d’autres capteurs, qu’ils soient situés sur terre, sur mer ou dans l’air. Les progrès techniques (à l’image de la haute résolution spatiale et temporelle) permettent de parvenir à des mesures de plus en plus précises.
Le programme Sentinel sert des champs d’application multiples : protection de l’environnement, gestion des zones urbaines, aménagement du territoire au niveau régional et local, agriculture, sylviculture, pêche, santé, transport, développement durable, protection civile ou encore tourisme. Parmi toutes ces préoccupations, le changement climatique figure au centre des attentions.
Pour l’Europe, l’effort consenti est considérable puisqu’il représente pour la période 2014-2020 plus de 4 milliards d’euros d’investissements. Mais le projet a également un potentiel économique très important, tout particulièrement en termes d’innovation et de création d’emplois : des avantages économiques de l’ordre de 30 milliards d’euros sont attendus d’ici 2030.
Comment naviguer dans ces océans de données ?
Les chercheurs, de même que les acteurs du monde socio-économique, sont à la recherche d’observations toujours plus précises et complètes. Mais avec cette couverture d’observation spatiale qui s’intensifie au fil des ans, la masse des données obtenues devient proprement vertigineuse.
Si un smartphone contient une mémoire de plusieurs gigaoctets, l’observation spatiale génère de son côté des pétaoctets de données à stocker ; et l’on devrait même bientôt parler en exaoctets, soit en milliards de milliards d’octets. Il faut donc développer des moyens de naviguer dans ces océans de données, tout en gardant à l’esprit que l’information pertinente n’en représente qu’une fraction : même si les données disponibles le sont en masse, les variables vraiment essentielles ne sont, elles, pas très nombreuses.
Identifier les phénomènes à la surface de la Terre
Les développements les plus récents ont pour objectif, à partir de signaux et d’images représentatifs d’une zone particulière de la Terre, de mettre au point les meilleures méthodes possible d’identification des phénomènes : vagues et courants à la surface des océans, caractérisation des zones boisées, humides, côtières ou inondables, extensions urbaines à la surface des terres, etc. Autant d’informations qui permettront de prévenir les phénomènes extrêmes (ouragans), gérer l’après-catastrophe (tremblement de terre, tsunami) ou veiller au suivi de la biodiversité.
The huge and devastating #napafire seen by #OLCI on october 9th #Sentinel3 @CopernicusEU @CopernicusEMS @ESA_EO @USGS pic.twitter.com/e2P8QG7nfj
— antonio vecoli (@tonyveco) 10 octobre 2017
La prochaine étape consistera à rendre ces traitements plus automatiques, en développant des algorithmes qui permettront aux ordinateurs de trouver les variables pertinentes dans le plus de bases de données possible. Il faut aussi y ajouter des paramètres intrinsèques et des informations de plus haut niveau : modèles physiques, comportements humains, réseaux sociaux.
Cette approche multidisciplinaire constitue une tendance originale qui devrait permettre de qualifier plus finement la notion de « changement climatique », au-delà de la mesure pour pouvoir apporter des réponses aux premières personnes concernées… c’est-à-dire nous tous !
René Garello, Professeur de traitement du signal et des images, département « Image et traitement de l’information », IMT Atlantique – Institut Mines-Télécom
La version originale de cet article a été publiée sur The Conversation.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.