Données vertes & IA grises – La géomatique face à ses contradictions environnementales

Le 12 février 2026, les masters GéoNum et Sentinelles ont organisé un séminaire autour de la thématique « Données vertes & IA grises : la géomatique face à ses contradictions environnementales ». À travers les interventions de professionnels du domaine, cette rencontre a permis d’explorer les transformations liées à l’intelligence artificielle, entre accélération de la production de données, enjeux environnementaux et place toujours centrale de l’expertise humaine.

Les masters GéoNum et Sentinelles ont eu le plaisir de recevoir trois invités :

  • Arthur Villaroya-Palau, ingénieur d’études à l’Université Lumière Lyon 2, travaillant notamment sur le projet iArbre,
  • Timothée Royer, ingénieur à l’IGN, impliqué dans des projets tels que la BD Forêt,
  • Braz-Ma Etheve, chargé d’études au laboratoire EVS à l’Université Jean Monnet de Saint-Etienne , dans le cadre du programme CarHab.

Ces interventions s’inscrivaient dans une réflexion autour de la thématique : Données vertes & IA grises – La géomatique face à ses contradictions environnementales.

Le séminaire s’est articulé en deux parties : la première consacrée à l’évolution de la donnée et ses impacts, la seconde aux usages de l’IA et à ses conséquences.

Partie 1. L’évolution de la donnée et ses impacts

Concernant la production et la collecte de données, les intervenants ont insisté sur un point important : l’intelligence artificielle ne remplace pas les compétences humaines. À l’IGN, par exemple, les agents continuent de produire les données de référence, dites « vérités terrain », qui servent ensuite à entraîner les modèles. L’IA intervient dans un second temps pour généraliser ces informations à large échelle.

Cette évolution permet un gain de productivité considérable. Là où la cartographie de l’occupation du sol pouvait prendre plusieurs années, l’usage de l’IA permet aujourd’hui d’accélérer fortement ces processus, avec des facteurs de gain proches d’un ordre de grandeur x10.

La question du choix des données s’est également imposée comme centrale. Les intervenants ont rappelé qu’aucune donnée ne peut être parfaite pour tous les usages, et qu’il est nécessaire de trouver un compromis entre précision, fréquence de mise à jour et objectif final. La qualité d’une donnée dépend avant tout de l’usage auquel elle est destinée.

Dans cette logique, la vérification des sources, des licences et de la provenance des données est essentielle, notamment face aux risques émergents de données erronées ou artificiellement générées.

Un autre point majeur concerne la qualité des données. Comme l’a rappelé Timothée Royer en citant Rabelais, « science sans conscience n’est que ruine de l’âme ». Pour qu’un modèle soit fiable, il doit être entraîné sur des données correctement annotées. Les intervenants s’accordent ainsi sur un principe fondamental : la qualité de la donnée prime sur la quantité.

Enfin, il a été souligné que le travail autour de la donnée représente la majeure partie de l’effort en intelligence artificielle. Le pré-traitement, la structuration et la préparation des données constituent une étape déterminante, souvent plus importante que l’entraînement du modèle lui-même.

Partie 2. L’IA, ses usages et ses conséquences

Les échanges ont ensuite porté sur les usages de l’intelligence artificielle et les représentations qui lui sont associées. Les intervenants ont rappelé que les modèles d’IA nécessitent des données fortement structurées, souvent très différentes de celles produites pour un usage humain. Ainsi, une donnée pertinente pour un humain ne l’est pas nécessairement pour une IA.

La définition même de l’intelligence artificielle a également été questionnée. Présentée comme un terme large et parfois imprécis, elle recouvre des réalités très diverses, allant du machine learning au deep learning, sans pour autant correspondre à une intelligence au sens humain du terme.

Les limites de l’IA ont été largement discutées. Les intervenants ont notamment insisté sur ses difficultés en matière d’abstraction, de compréhension du contexte et de gestion des cas atypiques. À l’inverse, ces capacités restent au cœur de l’expertise humaine. L’interprétation des résultats constitue également un point clé : les sorties d’un modèle ne peuvent être utilisées telles quelles sans validation, correction et mise en contexte.

Un des points importants abordés concerne l’impact environnemental. En France, le numérique représente environ 4,4 % des émissions de CO₂, dont une grande partie est liée à la fabrication des équipements.
Dans ce contexte, les intervenants ont défendu une approche raisonnée de l’IA, consistant à adapter les modèles aux besoins réels plutôt qu’à mobiliser systématiquement des solutions lourdes.

Cependant, ils ont également souligné que les enjeux sociétaux sont aujourd’hui tout aussi, voire plus préoccupants. La production de fausses données, les deepfakes, ou encore les tentatives de manipulation de l’information constituent des risques majeurs, nécessitant une vigilance accrue et un effort de pédagogie.

Enfin, l’impact de l’IA sur les métiers a été évoqué. Si certaines tâches répétitives tendent à diminuer, de nouvelles compétences émergent, notamment autour de l’annotation, de la validation des modèles et de l’analyse des données. Les géomaticiens disposent, à ce titre, d’atouts importants pour s’adapter à ces évolutions.

Conclusion

Ce séminaire met en lumière les tensions qui traversent aujourd’hui la géomatique à l’ère de l’intelligence artificielle. D’un côté, l’urgence climatique impose une production de données plus rapide et plus fréquente ; de l’autre, les outils mobilisés pour répondre à ces besoins soulèvent des questions environnementales, méthodologiques et sociétales.

L’intelligence artificielle apparaît ainsi comme un levier puissant, capable d’accélérer les processus et d’ouvrir de nouvelles perspectives. Toutefois, elle ne peut être envisagée indépendamment de l’expertise humaine qui la structure, la nourrit et en interprète les résultats.

Un des enseignements majeurs de cette rencontre réside dans ce repositionnement : loin de remplacer l’humain, l’IA en renforce le rôle. L’esprit critique, la rigueur méthodologique et la capacité d’interprétation demeurent essentiels face à des outils qui, malgré leur puissance, ne savent ni contextualiser ni reconnaître leurs propres limites.

Ce séminaire rappelle enfin que les enjeux les plus structurants dépassent la seule question technique. Ils engagent des responsabilités plus larges, notamment en matière de qualité de l’information, de confiance dans les données et d’usage des technologies dans la société.

CR rédigé par Romane Torre, Ryan Boulicaut (Sentinelles), Laura Carrier, Stéphanie Gabette, Paul Valentin (GéoNum) et relu et validé par Natacha Belaud qui a organisé le séminaire avec les étudiantes et les étudiants et que nous remercions vivement pour son implication sans faille dans le master.

Laisser un commentaire

Un Site WordPress.com.

Retour en haut ↑