385 articles passés au crible, publiés entre 2009 et 2025, et un constat qui vise le cœur des cartes de submersion: la ligne de départ. Dans une analyse évaluée par les pairs, Katharina Seeger et Philip Minderhoud, de Wageningen University & Research, expliquent que la quasi-totalité des études qu’ils ont examinées manipulent le niveau de la mer et l’altitude des terres avec des références qui ne coïncident pas. Résultat, une partie des littoraux peut apparaître plus sûre qu’elle ne l’est sur le papier, avec des effets en cascade sur l’évaluation des personnes, des infrastructures et des biens exposés.
Le risque de submersion se résume souvent à une comparaison simple: la hauteur de l’océan face à celle des terres côtières. Mais cette simplicité repose sur une condition non négociable, l’alignement correct des référentiels utilisés pour décrire la mer et le relief. Si la ligne zéro d’une carte est décalée, l’ajout de l’élévation future du niveau marin ne corrige rien, il empile des projections sur une base mal posée.
Le zéro des cartes de submersion, une hypothèse qui déforme l’exposition
Dans de nombreuses études, le niveau marin actuel est assimilé à une surface de référence globale, puis on projette sa hausse future. La revue de Wageningen soutient que ce raccourci contourne trop souvent les mesures locales, et peut conduire à utiliser un niveau de base plus bas que la moyenne de long terme observée le long d’une côte. L’image est parlante: déplacer la ligne de départ d’une course modifie immédiatement qui est compté comme déjà bas et qui ne l’est pas.
Ce glissement, même modeste, change la frontière entre zones considérées comme menacées et zones supposées hors d’atteinte. Il peut influencer des arbitrages très concrets: à quelle hauteur rehausser une route, quelle marge retenir pour une digue, quelles parcelles classer en zone de risque dans des documents d’urbanisme, ou encore quelles priorités donner à des travaux de protection.
Les auteurs insistent sur un point méthodologique: comparer la mer et la terre n’a de sens que si les deux sont exprimées dans le même système de référence. Or, la chaîne de traitement des données, depuis les surfaces de référence globales jusqu’aux modèles numériques de terrain, est propice aux confusions et aux omissions.
Géoïde et dynamique océanique: la mer n’est pas une surface plate
Le papier met en avant un terme central, le géoïde, un modèle fondé sur la gravité qui sert d’approximation au niveau moyen de la mer. En théorie, on peut le représenter comme la surface qu’adopterait l’océan sans vents, sans courants, sans marées, sous le seul effet de la gravité et de la rotation terrestre. Cette surface n’est pas uniforme: elle est bosselée, car le champ de gravité varie selon les régions.
Mais l’océan réel est aussi façonné par sa dynamique: courants, vents dominants, marées, pression atmosphérique, et différences de densité liées à la température et à la salinité. Ces mécanismes déplacent durablement la surface de la mer, la maintenant plus haute dans certaines zones et plus basse dans d’autres, parfois sur des périodes de plusieurs années.
Pour capturer cet écart entre la surface théorique et la surface observée, les chercheurs s’appuient sur un jeu de données satellitaires qu’ils décrivent comme une Hybrid Mean Dynamic Topography. Cette cartographie vise à représenter, sur le long terme, la différence entre le géoïde et la surface moyenne mesurée. L’enjeu est direct: si une étude traite le géoïde comme si c’était la mer d’aujourd’hui, elle peut introduire un décalage systématique entre le niveau marin utilisé dans les calculs et le niveau marin auquel les côtes sont confrontées.
385 articles examinés: documentation lacunaire et alignements rarement corrects
La revue porte sur des travaux combinant des informations de niveau marin avec des modèles numériques de terrain (DEM), ces représentations 3D des altitudes qui servent de colonne vertébrale à une grande partie des estimations d’exposition à l’élévation du niveau de la mer, aux surcotes de tempête ou à d’autres aléas côtiers.
Premier problème, la traçabilité. Les auteurs rapportent que, dans 73% des papiers, les informations sur le niveau marin, les altitudes et les référentiels employés sont incomplètes ou absentes. Cette lacune n’est pas un détail: sans description claire des références verticales et des transformations appliquées, il devient difficile de reproduire les résultats, de les comparer, ou de vérifier que la mer et la terre parlent la même langue métrique.
Deuxième problème, la conformité des procédures. La revue indique qu’environ 1% des études décrivent clairement et appliquent correctement les étapes nécessaires pour aligner l’élévation des terres avec le niveau marin local. Les auteurs ajoutent qu’un seul article, dans l’ensemble du corpus, documente complètement son approche tout en évitant les erreurs d’alignement.
Ce que vise cette critique n’est pas l’usage des DEM en soi, devenu standard avec la généralisation des données satellitaires et des modèles globaux, mais la manière dont ces DEM sont raccordés à une référence de niveau marin. Une carte de submersion dépend autant de la qualité du relief que de la façon dont on fixe le niveau zéro à partir duquel on mesure la montée des eaux.
Un écart moyen proche de 10 pouces, et des conséquences sur les décisions d’aménagement
La revue avance un ordre de grandeur: l’écart moyen lié à ces problèmes d’alignement serait d’environ 10 inches, soit près d’un pied. Dit autrement, une partie des cartes et des estimations pourrait partir avec une hauteur de mer de référence trop basse, avant même d’ajouter les scénarios de hausse future.
Dans un domaine où quelques dizaines de centimètres peuvent faire basculer le classement d’un quartier, d’une zone industrielle ou d’un axe de transport, ce type de décalage a un impact potentiel sur la hiérarchisation des risques. Une côte présentée comme marginalement exposée peut passer dans la catégorie déjà concernée, ce qui modifie l’évaluation des dommages attendus, la planification des protections et la justification économique de certains investissements.
Les auteurs décrivent aussi un effet de propagation: une base erronée se répercute dans les étapes suivantes, qu’il s’agisse de superposer une élévation future du niveau marin, de modéliser une surcote, ou de calculer une population exposée. L’addition de scénarios ne corrige pas un mauvais raccordement entre altimétrie et niveau marin, elle peut au contraire donner une précision trompeuse à des résultats biaisés.
En filigrane, l’analyse pointe une tension familière de la science appliquée au risque: la pression pour produire des cartes comparables à l’échelle régionale ou mondiale pousse vers des référentiels globaux et des chaînes de traitement standardisées. Mais le niveau marin, lui, reste profondément local dans sa mesure et dans ses déterminants. La revue de Wageningen plaide pour une discipline méthodologique plus stricte, centrée sur l’alignement des références et sur une documentation complète, afin que la cartographie des risques côtiers ne repose pas sur un zéro mal défini.


