Délégation sénatoriale à la prospective

Réunion du 8 juin 2022 à 11h15

Résumé de la réunion

Les mots clés de cette réunion

  • IGN
  • artificialisation
  • forêt
  • intelligence
  • photo

La réunion

Source

Debut de section - PermalienPhoto de Mathieu Darnaud

Nous avons le plaisir de recevoir ce matin M. Sébastien Soriano, directeur général de l'Institut national de l'information géographique et forestière (IGN), pour un échange sur les grands défis d'une institution déjà ancienne, mais en même temps au coeur des bouleversements de notre époque. Si je mentionne deux de ces défis, le changement climatique et la révolution numérique, c'est une façon un peu simplificatrice de présenter les choses, mais au moins cela a le mérite de poser clairement le problème.

En 1688, le Dépôt de la Guerre, ancêtre de l'IGN, est né du besoin de disposer de cartes d'état-major pour la conduite des armées. Aujourd'hui, l'affaire du siècle, c'est le changement climatique, et plus généralement la question de l'impact des activités humaines sur l'environnement. Grâce à l'IGN, nous pouvons observer l'artificialisation des sols, l'état des ressources forestières, le déploiement de la 5G ou encore l'évolution des mobilités dans nos territoires. Ce ne sont là que quelques exemples parmi d'autres, et je suis sûr que vous saurez, Monsieur Soriano, nous montrer comment l'information géographique nous permet de mieux comprendre pour mieux agir.

Deuxième grand défi : la révolution numérique. Dans les années 1980, l'IGN a devancé la plupart des instituts étrangers dans le recours aux technologies numériques, et l'innovation n'a pas cessé depuis. Grâce au LIDAR, par exemple, nous aurons demain une carte de la France en trois dimensions.

Mais la révolution numérique, ce sont aussi - et peut-être surtout - les GAFA. Les données sont plus que jamais le nerf de la guerre, et la demande d'informations précisément situées dans le temps et dans l'espace est à la veille d'une réelle explosion, avec l'Internet des objets et l'arrivée de la voiture autonome. Dans ce nouveau monde, les véritables concurrents de l'IGN s'appellent Google, Apple, Facebook, Amazon ou encore Starlink - et leurs moyens sont sans commune mesure. D'où cette question, que je vous pose directement : que peut faire le Géoportail de l'IGN que ne peut pas faire Google Maps ? Et si l'IGN a une bonne idée, comment empêcher Google de proposer demain la même chose, en mieux, en plus ergonomique, en plus intégré à d'autres services ?

En d'autres termes : l'information géographique « souveraine » a-t-elle un sens, et a-t-elle un avenir ? Quel est son modèle économique à l'heure de l'open data, obligation effective depuis 2021 pour l'IGN ?

Derrière cette question, c'est un débat bien plus large qui s'ouvre : celui de la place du service public, de sa pertinence même, dans un monde bouleversé par la révolution numérique. Je ne doute pas que vous aurez aussi votre avis sur la question, Monsieur Soriano, vous qui avez été pendant six ans le président de l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep).

Debut de section - Permalien
Sébastien Soriano, directeur général de l'Institut national de l'information géographique et forestière (IGN)

L'IGN est confronté à de nombreux changements. Enfant des Trente Glorieuses, l'Institut a accompagné l'aménagement du pays et la construction de ses infrastructures. Pour cartographier le pays, y compris dans les anciennes colonies, il connaît alors une forte croissance, déployant sur tout le territoire des infrastructures géodésiques, ces fameuses bornes en granite qui permettent de repérer, niveler et mesurer précisément le territoire.

Mais, depuis une vingtaine d'années, nous sommes rentrés dans la grande lessiveuse du numérique, qui a ouvert trois grands fronts.

Le premier est l'avènement des GAFA, et d'abord de Google, qui a mis dans la poche de tous nos concitoyens un atlas numérique.

Le deuxième front est la naissance d'OpenStreetMap, une communauté ouverte, qui compte en France pas moins de 40 000 contributeurs - à comparer avec les 1 400 agents de l'IGN. Ce projet collaboratif prouve que la société civile est capable de mobiliser des personnes qui vont passer leur week-end à mapper - c'est-à-dire à indiquer l'existence de tel réverbère, le nom de tel parc -, construisant ainsi des cartes collaboratives parfois plus précises que les nôtres, mais qui ne sont toutefois ni aussi exhaustives, ni aussi universelles.

Par ailleurs, les collectivités territoriales se sont largement saisies de l'information géographique et disposent aujourd'hui, pour certaines, de services dédiés qui recueillent massivement des données.

Dans ce nouvel écosystème, l'IGN a dû repenser sa place. Tout d'abord, il se positionne en fournisseur d'un modèle d'appui aux politiques publiques. La description standard du territoire demeure évidemment nécessaire et nous continuons à mettre à jour la carte de la France. J'ajoute une autre donnée socle, l'inventaire forestier, que nous réalisons chaque année et qui fait de nous l'Insee de la forêt.

Au-delà de cette description « passive » du territoire, nous ambitionnons également d'apporter une contribution proactive à l'action publique. A ce titre, nous travaillons sur un certain nombre de projets structurants avec les pouvoirs publics, par exemple sur l'artificialisation des sols, qui nous mobilise particulièrement en ce moment.

L'IGN transforme aussi son modèle économique : depuis le 1er janvier 2021, toutes nos données sont en open data. Nous sommes comme un constructeur de routes qui aurait supprimé tout péage sur l'utilisation de son infrastructure et qui se finance non plus de manière commerciale, à l'usage, mais par levée de fonds. Notre tutelle contribue toujours à notre budget à hauteur de 45 %, et nos activités commerciales résiduelles en représentent 5 % à 10 %, mais le reste, soit la moitié environ de notre budget, provient de ce nouveau modèle d'appui aux politiques publiques. Nous sommes ainsi financés par le ministère de la transition écologique, le ministère de l'agriculture, l'ONF, la direction de la prévention des risques, etc., ainsi que par les collectivités locales, dans le cadre de projets partenariaux ad hoc.

Le troisième grand front de la révolution numérique qui nous traverse est celui de l'intelligence artificielle, et plus généralement des prochains virages technologiques que nous devons emprunter.

Une remarque préalable : l'information géographique est aujourd'hui l'affaire de quelques grands géants qui ont des moyens extrêmement importants, et nous ne prétendons pas nous poser en alternative. Je me réjouis que les Français aient dans leur poche un atlas numérique, même si ce n'est pas l'IGN qui le leur a fourni. Le service public n'a pas à se penser comme un substitut des GAFA : ce qui compte, plutôt, est que le jeu reste ouvert, ce qui renvoie à des questions de régulation du numérique, à travers notamment les enjeux des « communs numériques », comme nous l'enseigne l'exemple d'OpenStreetMap.

Le grand défi de notre époque, donc, est l'intelligence artificielle. Dans notre activité, il s'agit de passer d'une description statique du territoire, qui vous indique comment prendre le bus ou commander une voiture avec chauffeur, à une description dynamique de celui-ci, dans ses changements. Il s'agit là d'une grande nouveauté pour les cartographes que nous sommes, mais ce changement est primordial. C'est la raison pour laquelle nous parlons désormais de « cartographier l'anthropocène » : il s'agit de montrer la façon dont l'activité humaine génère des changements rapides sur l'érosion du littoral, sur l'artificialisation des sols, sur la santé des forêts, sur l'évolution des reliefs, etc. Cette approche suppose un investissement technologique majeur car elle implique non seulement d'acquérir régulièrement des données - avec l'achat de photos aériennes et le recours fréquent à d'autres dispositifs, notamment satellitaires -, mais aussi de les traiter pour montrer ce qui change entre ce que nous appelons les « millésimes ». C'est là que nous mobilisons des outils d'intelligence artificielle, pour automatiser la détection du changement par la comparaison d'images et le croisement de données. Et nous devons être rapides pour apporter des éléments tangibles, compréhensibles et utiles aux décideurs publics.

Enfin, nous traversons une dernière grande révolution, celle des « communs numériques ». Comment la puissance publique se positionne-t-elle face à Google ? Il me semble qu'elle peut constituer le lieu de rassemblement de tous ceux qui veulent porter une alternative. Nous avons une fantastique équipe de France de l'information géographique à rassembler. L'énergie qui se déploie aujourd'hui dans les collectivités et dans les territoires est impressionnante. De nombreuses administrations se saisissent de l'information géographique : le ministère de l'intérieur, le cadastre, dans le domaine des impôts, le suivi agricole, dans le cadre de la politique agricole commune, etc. Sans compter un secteur économique extrêmement dynamique, avec, d'une part, de grands industriels comme Thales ou Airbus, qui sont présents dans l'observation des territoires et notamment dans le spatial, d'autre part, des start-up qui se lancent dans la reconnaissance automatique pour de nombreux services. Ainsi, NamR annonçait récemment la mise en place d'un cadastre solaire pour aider les collectivités locales à identifier les zones propices à l'installation de solutions photovoltaïques.

Comment réaliser des alliances pour amener ces énergies parfois un peu disparates à travailler ensemble ? L'IGN propose de créer des « géocommuns » dans le cadre d'un organe que nous sommes en train de mettre en place et dont le rôle sera d'identifier un certain nombre de défis sur lequels nous proposerons à toute cette communauté d'acteurs de travailler ensemble.

Un exemple parmi d'autres : la question des vue immersives. C'est le bonhomme jaune de Google que vous déplacez sur la carte, vous retrouvant soudain dans une vision immersive. Cette donnée est très utile mais il est malheureusement impossible de l'exploiter librement, parce qu'elle est la propriété de Google. Il est impossible, par exemple, de faire tourner des algorithmes librement sur cette information pour satisfaire à un usage particulier. Récemment, nous avons été contactés par France Télévisions, qui souhaitait pouvoir détecter automatiquement des faux fonds de décor, par exemple de vidéos, afin de mieux repérer des fake news ou des deep fake. Pour cela, il leur faudrait une banque d'images de fond, ce qui est impossible aujourd'hui avec Google. Nous allons donc lancer un « appel à communs » sur la thématique de la vue immersive, afin de faire travailler l'ensemble des forces sur cette question.

Notre valeur ajoutée est notre étiquette de service public national, notre crédibilité, notre neutralité et notre légitimité sur ce sujet. Nous hébergeons les données, nous apportons notre vision sur la façon de produire de l'information géographique, notre force de normalisation ainsi que des outils numériques susceptibles d'être partagés - mais l'IGN n'est pas et n'a pas vocation à se substituer à Google, qui fait tourner ses Google cars dans toute la France pour prendre ses images. L'IGN compte sur la mobilisation de l'ensemble des énergies investies dans l'information géographique.

Voici, de manière très générale, les grandes lignes de l'activité de l'IGN.

Vous m'invitez également à partager les enseignements tirés de mon parcours professionnel. Je vous propose, comme fil directeur, cette question : qu'est-ce qu'un institut public qui produit de la donnée ?

Avant tout, il me semble que nous devons changer de modèle. Jusqu'à présent, notre pensée a été très centrée sur l'ouverture des données, ou open data. On part du présupposé qu'il y a une donnée qui existe déjà et on l'«ouvre». Je pense qu'il faut basculer vers une logique de construction de la donnée, ce qui revient à nous demander dans quel champ il est prioritaire d'investir pour apporter une donnée qui n'existe pas, une donnée qui soit à la fois utile à la décision publique et puisse être partagée avec l'ensemble de nos concitoyens. C'est ce point de bascule à partir duquel, depuis l'IGN, je peux apporter un certain nombre de témoignages.

Etalab, le service interministériel qui mène, au sein de la Direction interministérielle du numérique, une politique proactive d'ouverture des données, a fêté ses dix ans l'année dernière. Cette première phase d'open data est riche de trois leçons.

La première est qu'entre la donnée et son usage, il y a une vallée de la mort. Il ne suffit pas de publier la donnée, même dans un format ouvert et exploitable, pour que les gens s'en servent. Il faut «aller vers», c'est-à-dire développer des actions proactives auprès des publics, dans une logique de communauté d'usage, pour finalement créer une boucle de rétroaction incluant à la fois des utilisateurs et des coproducteurs de la donnée.

Un exemple : nous travaillons beaucoup avec les services départementaux d'incendie et de sécurité (SDIS) dans les départements, qui ont besoin de nos données pour programmer leurs interventions et qui, sur place, sont aussi des capteurs de la donnée. Nous sommes donc en partenariat avec l'agence pour le numérique dans la sécurité civile pour construire un dispositif qui permette aux pompiers à la fois d'accéder à une donnée et, le cas échéant, de l'alimenter et la mettre à jour.

Dans le secteur de la santé, on a vu comment, pendant la crise sanitaire, un acteur indépendant comme Guillaume Rozier a pu être très utile à travers ses services. Ce n'est que la partie émergée de l'iceberg : derrière ce personnage talentueux qui a apporté des choses extraordinaires, il y a des équipes au ministère de la santé qui ont produit cette donnée, qui ont été en interaction permanente avec lui et d'autres, pour créer une boucle de rétroaction continue.

La première leçon est donc vraiment cette question du gap entre la donnée et ses usages : comment franchir ce gap, créer des alliances et des communautés d'usage ?

La deuxième grande leçon de ces dix dernières années est que la donnée change le comportement. C'est quelque chose que j'ai plutôt vécu en tant que président de l'Arcep. La question de la couverture du territoire en antennes mobiles était alors une question très sensible, et la première chose à laquelle je me suis attaché a été d'en apporter une représentation géographique, dans un contexte où le discours de l'État était de dire que le territoire était couvert à 99 %. Mais cette réalité, incontestable, ne voulait rien dire sur le terrain. Lorsque nous avons mis cela « en cartes », montrant les zones bien couvertes et les zones moyennement couvertes, nous avons eu un premier accueil extraordinaire : « c'est magnifique, on peut enfin se représenter ce que vous dites ». La minute d'après, les élus locaux contestaient la carte en nous indiquant que leur téléphone ne fonctionnait pas à tel endroit, et la minute d'encore après, ils pointaient le doigt sur les trous béants de la couverture du territoire, et réclamaient qu'on agisse pour corriger cela, ce qui a donné lieu à des programmes gouvernementaux, notamment le « New Deal mobile ». Cet exemple montre bien la façon dont l'information rétroagit sur le réel.

Aujourd'hui, alors que nous faisons face à de grands défis, notamment celui de la transition écologique qui impliquera nécessairement de modifier les comportements individuels, la possibilité pour la puissance publique de travailler à des jeux de données de ce type me paraît absolument cruciale. Prenez l'exemple de Yuka, une application sur la qualité nutritionnelle qui permet au consommateur de scanner ses produits dans les rayons : c'est loin d'être devenu un réflexe chez tout le monde, mais il a suffi que quelques prescripteurs s'en saisissent pour que de grandes marques de distribution changent la composition de leurs produits et fassent pression sur les industriels pour changer la composition des leurs. En transposant cela dans le domaine environnemental, on imagine assez facilement comment on pourrait davantage influer sur le comportement des individus en les informant mieux de l'impact environnemental de leurs comportements.

La troisième leçon est sans doute la plus douloureuse, et en tout cas la plus prégnante : être producteur de données est un véritable métier. Il s'agit là du point de bascule le plus important entre l'ouverture des données et la production de données. C'est un peu comme si nous sortions de l'âge des chasseurs-cueilleurs - la donnée est sur étagère, et il n'y a qu'à s'en saisir -, pour passer à l'âge des bâtisseurs. Ce que construit l'IGN, c'est une infrastructure, certes virtuelle, puisqu'il s'agit d'information, mais qui correspond bien à un travail substantiel.

Prenons l'exemple de l'artificialisation des sols. Nous sommes engagés avec la direction générale de l'aménagement, du logement et de la nature du ministère de la transition écologique et de la cohésion des territoires, dans la construction d'un référentiel qui va permettre de suivre l'état de l'artificialisation des sols tous les trois ans. Cela nécessite, comme je l'ai indiqué, d'investir dans l'intelligence artificielle. Or vous n'êtes pas sans savoir qu'il y a parfois des difficultés de recrutement au sein de l'État, en particulier dans les métiers du numérique, où toutes les entreprises s'arrachent les talents. Ainsi, Airbus a dû créer une école du numérique pour pouvoir recruter, et un acteur comme Capgemini est confronté à de nombreuses démissions, parce que les gens ont envie de faire autre chose, parce que la crise sanitaire a rebattu les cartes. À l'IGN, nous sommes en train de nous doter d'une équipe de 30 à 40 data scientists, qui serait capable de se mobiliser sur les projets d'intelligence artificielle. Cela suppose de pouvoir les recruter. Nous avons la chance d'avoir une école, l'ENSG-Géomatique, dont nous allons modifier les programmes afin d'y inclure davantage d'intelligence artificielle, et nous allons accroître la taille des promotions. Il faudra ensuite nous doter d'une stratégie de marque employeur, pouvoir rémunérer les agents recrutés, etc. C'est là un véritable défi : on parle beaucoup des crises de vocation dans la santé et dans l'éducation, tout cela existe bien sûr, mais nos domaines sont également touchés et il faut se battre pour aller chercher les talents.

Un autre enjeu est de ne pas « éclater » ce qui se fait au sein même de la puissance publique. Cela fait des années que les territoires suivent l'occupation de leur sols : de nombreuses régions et départements ont mis en place des dispositifs assez coûteux de suivi d'artificialisation des sols. Aujourd'hui, nous arrivons avec une solution techniquement plus élégante et moins coûteuse puisqu'elle fait appel à l'intelligence artificielle. Mais encore faut-il que nous trouvions la symbiose avec les territoires, pour ne pas leur donner le sentiment que nous cherchons à imposer notre vision des choses de façon jacobine, face à des élus qui se sont investis et qui, au travers des Sraddet, les schémas régionaux d'aménagement, de développement durable et d'égalité des territoires, ont passé beaucoup de temps à dialoguer entre les différents échelons. Il y a là un important travail de co-construction à faire, ce qui là encore est un véritable métier. J'évoquais la fabrique des géocommuns : de manière plus générale, il s'agit d'animer des communautés, d'élaborer des visions communes, de relever des défis techniques qui permettent, le cas échéant, de compléter la vision nationale par des visions locales. Récemment, par exemple, j'échangeais avec les services de la région Sud, qui me faisaient remarquer que la solution de l'IGN ne permettait pas de cartographier spécifiquement l'évolution des oliveraies dans l'occupation des sols ; c'est vrai, mais cependant, nous avons les moyens d'apporter une réponse technique à ce problème si nous travaillons ensemble.

On voit bien qu'il y a une dimension opérationnelle très importante, et c'est la dernière leçon que je partagerai aujourd'hui sur cette bascule entre l'ouverture des données et leur production : produire, être une infrastructure, c'est un métier, ce sont des moyens. Pour le moment, cela n'est pas toujours intégré dans les grands arbitrages publics.

Debut de section - PermalienPhoto de Mathieu Darnaud

Nous vous remercions pour cet éclairage qui nous permet de mieux comprendre l'IGN.

Le Sénat a voté il y a quelques mois, le projet de loi dit « Climat et résilience », qui suscite des inquiétudes parmi les élus des territoires, car il concerne, en creux, la capacité à se projeter et imaginer ce que pourrait être leur territoire à dix, vingt ou trente ans. Or vous avez parlé d'une chose essentielle à cet égard : le caractère dynamique de vos données. Avez-vous participé à l'élaboration du texte ?

Vous le savez, nous avons le souci de répondre aux préoccupations et aux attentes de ces élus qui sont d'autant plus inquiets que ce texte a, en tous points, refusé une approche territoriale. On aurait pu, en effet, distinguer des typologies de territoires : littoral, zones de montagne, zones de plaine, zones rurales, zones plus denses. En lieu et place de cela, nous avons eu droit à une approche très centralisée, très « jacobine » pour reprendre vos termes, sur un sujet qui, selon moi, nécessite une approche territoriale. Nous allons devoir appliquer un texte de façon relativement uniforme sur l'ensemble du territoire. Cela est d'autant plus regrettable qu'avec les outils dynamiques que vous avez évoqués, on pourrait avoir un état assez précis de l'artificialisation des sols, et donc, du champ des possibles concernant des aménagements, des inflexions ou des corrections à apporter, notamment pour densifier certaines parties du territoire.

Ne pensez-vous pas qu'on pourrait avoir une approche territoriale beaucoup plus souple que celle qui résulte des dispositions de ce texte ?

Debut de section - Permalien
Sébastien Soriano, directeur général de l'Institut national de l'information géographique et forestière (IGN)

L'IGN est sous la tutelle du commissariat général au développement durable, administration du ministère de la transition écologique et de la cohésion des territoires. Dès l'écriture du texte « Climat et résilience », nous avons été associés à la définition de l'artificialisation des sols, de manière à ce qu'il y ait une cohérence entre notre capacité technique et ce qui était en train d'être prévu dans le projet de loi : un véritable dialogue a eu lieu et nos équipes techniques étaient tout à fait dans la boucle des rédactions fines proposées par le Gouvernement. Il y a bien eu, en amont, intégration des contraintes techniques.

Concernant la différenciation territoriale, il y a un niveau politique et un niveau technique. Je n'ai pas à me prononcer sur la manière dont l'État va interagir avec les collectivités locales pour faire ou non des différenciations. D'après ce que je comprends, c'est dans le dialogue entre le préfet et les territoires que va potentiellement se jouer cette appréciation. La question des impacts sur le climat et sur la biodiversité nous place tous dans une situation d'urgence, et je pense qu'il faut « avancer en marchant ». Je le dis comme observateur mais aussi comme force de proposition - j'ai notamment publié, la semaine dernière à titre personnel, une note pour Terra Nova intitulée « Comment réformer la réforme de l'État ? ». Le Gouvernement a été courageux en imposant une obligation et en créant un dispositif d'effort sans marche arrière. Sans doute y-a-il une intelligence politique entre le niveau national et le niveau local qui reste à trouver dans la mise en oeuvre du texte.

Concernant le volet technique du dispositif, nous avançons vraiment main dans la main avec les territoires. J'ai rencontré beaucoup d'acteurs territoriaux, je me suis rendu dans de nombreux comités de discussions, y compris techniques, au sein de l'association Régions de France et de l'association des ingénieurs territoriaux de France. Nous ne visons pas seulement un référentiel de l'État, mais bien la mise en place d'un outil commun.

C'est d'ailleurs, peut-être, la révolution que nous sommes en train de réaliser : grâce à l'intelligence artificielle, nous allons pouvoir mettre en open data et en open source des éléments qui vont permettre à tous les territoires de se doter plus facilement de référentiels d'occupation des sols, et de travailler ensemble sur des thématiques particulières - sur les oliveraies, par exemple -, grâce à une capacité d'observation commune.

Certes, il peut y avoir des intérêts différents : l'État a un besoin, le suivi de l'artificialisation des sols ; les communes et les départements vont en avoir d'autres, correspondant à leurs compétences, en matière d'aménagement ou de transport, par exemple. Mais ceci n'empêche pas de travailler main dans la main à la conception d'un outil commun, ce qui serait déjà un grand progrès.

Debut de section - PermalienPhoto de René-Paul Savary

Je suis un passionné de forêt. Pourriez-vous nous dire quelques mots de votre travail sur l'inventaire forestier ?

Une question un peu technique : dans les massifs forestiers se trouvent des bornes qu'il est important de repérer lorsqu'on achète des parcelles. Or dans les deux applications de l'IGN, Géoportail et Iphigénie, la géolocalisation des bornes ne correspond pas toujours à celle du cadastre : il y a parfois des écarts de quelques mètres, qui, dans le parcellaire, font que certains arbres vous appartiennent ou non. D'autre part, on peut constater que certains chemins ne correspondent plus au cadastre napoléonien, et qu'il n'y a pas de suivi des évolutions. Quels sont vos rapports avec le cadastre pour améliorer ces dispositifs ? À quelle fréquence les photos permettant la géolocalisation par Géoportail ou Iphigénie sont-elles renouvelées ?

En outre, la date de la photo disponible n'est pas précisée, or entre deux photos, la parcelle peut avoir pris des arbres, ou au contraire avoir eu une mise à blanc alors que la photo montre une forêt dense. Il me semble qu'il y a là une carence car les conséquences de cette information peuvent être extrêmement importantes : lorsque vous êtes acheteur d'une forêt, le Centre régional de la propriété forestière (CRPF) ne se déplace pas toujours pour faire son estimation ; souvent, il s'appuie sur les photos disponibles. Quelle dynamique imaginez-vous pour une mise à jour annuelle des données sur l'évolution des forêts ?

Debut de section - Permalien
Sébastien Soriano, directeur général de l'Institut national de l'information géographique et forestière (IGN)

En 2012, l'Institut géographique national a fusionné avec l'Inventaire forestier national (IFN), devenant l'Institut national de l'information géographique et forestière. Nous réalisons donc l'inventaire forestier, dont l'existence remonte aux années 1960.

Concrètement, nous avons une grille qui couvre toute la France, et chaque année, des binômes de techniciens de la forêt se rendent sur quelque 5 500 « placettes » - c'est le nom donné aux positions géographiques - tirées au sort. Au centre de la coordonnée GPS, ils placent un morceau de bois, et tracent autour un cercle de 25 mètres au sein duquel ils recueillent plusieurs informations : évolution des essences, dégâts de gibier, relevés floristiques, taille des troncs d'arbres, etc. En parallèle, d'autres techniciens se rendent sur les 5 500 placettes visitées cinq ans plus tôt pour y refaire les mêmes mesures.

Ce dispositif exigeant permet d'avoir une vision précise de la forêt. Il est vrai, cependant, que la forêt est en tension : d'une part, elle augmente en surface, ce qui implique des relevés supplémentaires, d'autre part, elle évolue sous l'impact du changement climatique, des scolytes, des incendies, des sécheresses. Ces évolutions appellent un suivi de plus en plus sophistiqué, avec trois grands enjeux pour l'inventaire forestier.

Le premier enjeu est d'assurer sa solidité statistique. Nous y travaillons en lien avec nos tutelles et avec le secteur, dont nous avons besoin de connaître les besoins : ainsi, des attentes se sont exprimées quant à l'évaluation de l'impact des dégâts de gibier, sur le renouvellement de la forêt française, sur le puits carbone ainsi que sur tous les services de biodiversité qu'apporte la forêt.

Le deuxième enjeu consiste à mieux croiser la donnée statistique et la donnée géographique : nous voudrions produire une belle carte de la forêt qui permette de suivre une évolution de façon pertinente, non seulement au niveau national mais aussi, à une échelle beaucoup plus fine, au niveau de telle ou telle forêt, communale, publique ou privée. C'est un travail techniquement complexe, mais nous avons de bons outils, notamment le programme national du LIDAR Haute Densité, financé par le ministère de l'agriculture, l'Office national des forêts (ONF), la direction de la prévention des risques et les fonds des plans France relance (pour la modélisation 3D) et France 2030 (pour caler des modèles beaucoup plus fins sur la forêt). Nous avons également des expérimentations en cours avec l'ONF sur la façon d'exploiter ces données, notamment par des extrapolations pour avoir une vision géographique de l'évolution de la forêt beaucoup plus ciblée.

Le troisième enjeu consiste à rassembler les très nombreux intervenants du secteur de la forêt en France. Lors des Assises de la forêt et du bois menées par le Gouvernement précédent, le principe d'un observatoire de la forêt animé par l'IGN a été acté, et nous sommes en train de le préfigurer. Autour de la table pourraient se retrouver l'ensemble de la communauté forestière, les exploitants publics et privés, notamment pour partager des diagnostics. L'inventaire forestier et son enrichissement fournissent en effet une donnée de base, mais il lui manque une couche de connaissances intermédiaires à partager avec l'ensemble du secteur pour prendre les bonnes décisions. Le grand défi de la forêt, nous le savons, est que ce qui est aujourd'hui planté dans notre sol n'est adapté ni au contexte climatique, ni aux besoins, notamment en bois de construction. Dès lors, comment nous dotons-nous d'un poste de pilotage partagé pour effectuer les bons choix pour l'avenir ? Nous sommes très engagés sur cette question.

Vous m'interrogez également sur le cadastre. Le cadastre napoléonien, dont le nom rappelle l'ancienneté, pose aujourd'hui des problèmes de cohérence : s'il est exact du point de vue de la surface mesurée localement, la mise bout à bout de l'ensemble des feuilles est géométriquement fausse, faisant apparaître des « trous », de quelques mètres à quelques dizaines de mètres. Le contat est le même lorsque l'on superpose nos plans ou nos photos aériennes avec le plan cadastral informatisé (PCI).

Nous travaillons à la convergence de ces deux référentiels avec Jérôme Fournel, directeur général des finances publiques. Nous avons également un partenariat avec les géomètres experts pour commencer à identifier un certain nombre de bornes. À cette fin, nous avons développé l'application collaborative Alea, qui permet à chacun de signaler l'existence d'une borne cadastrale, c'est-à-dire d'une borne de propriété. Ensuite, les géomètres experts viennent prendre la mesure précise, puis partagent cette information et la reversent au cadastre en vue d'une mise à jour.

Il existe également un projet plus complexe et plus structurant de convergence du cadastre, mais, pour être honnête, il est encore devant nous.

S'agissant des photos des forêts, la mise à jour a lieu tous les trois ans en moyenne. Je prends bonne note de votre souhait que la date des photos soit précisée.

Debut de section - PermalienPhoto de Alain Richard

L'utilisateur un peu maniaque de photos et de l'application Géoportail que je suis vous tire son chapeau : l'IGN réalise un remarquable travail de service public.

Je m'interroge sur l'unité de mesure ou l'unité de perception des éléments d'artificialisation : j'essaie, non sans difficulté, de comprendre les termes du décret qui porte définition par catégorie de surface de l'artificialisation. Certains des éléments de définition de l'artificialisation ont des effets juridiques puisqu'ils consistent à dire qu'une surface végétalisée qui est affectée à une infrastructure ou à du logement est considérée comme artificialisée. Or, cette affectation ne repose que sur les documents d'urbanisme. Comment l'État va-t-il pouvoir constater l'artificialisation existante et son évolution dans le temps uniquement avec un processus d'intelligence artificielle qui capte et analyse l'image, laquelle ne fait pas apparaître le classement d'urbanisme ?

Un autre exemple : sur les autoroutes, tout le talus végétalisé doit être considéré comme artificialisé, ce qui, dans certains cas, me semble une définition trop large. Comment l'image aérienne ou satellitaire pourrait-elle permettre de déterminer les limites entre l'espace végétalisé attenant à l'autoroute et le pré voisin ? Quelle est au juste l'unité de mesure de ces espaces, et la caractérisation de leur affectation ?

Debut de section - Permalien
Sébastien Soriano, directeur général de l'Institut national de l'information géographique et forestière (IGN)

Je vois qu'on est au Sénat et qu'on rentre vraiment dans le fond des sujets !

Les données que nous produisons ont deux facettes, une donnée de couverture des sols et une donnée d'usage. La première peut effectivement être analysée automatiquement : un sol artificialisé ou perméable, une culture, etc. S'agissant de la deuxième typologie, relative aux usages - par exemple usage industriel, usage de bâti, etc. - la question est plus complexe que celle de la couverture pour les raisons que vous indiquez, c'est-à-dire que nous n'avons pas forcément des données entrantes qui fournissent directement cette caractérisation. Cependant, nous arrivons à contourner cette difficulté en croisant les données aériennes et les fichiers fonciers. Par ailleurs, nous utilisons des données satellitaires récurrentes, issues notamment des constellations Galileo et Copernicus, qui sont moins précises et plus floues, mais qui se renouvellent à peu près tous les trois jours - elles nous permettent, par exemple, de différencier un champ de maïs d'un champ de blé grâce au rythme des saisons. Il est parfois préférable d'avoir une photo floue dans laquelle on peut suivre le rythme de poussée qu'une photo très précise tous les trois ans. Nous allons enrichir nos données de ces vues de changements qui vont nous apporter une information supplémentaire.

En outre, la direction générale de l'aménagement, du logement et de la nature prévoit de mettre en place un observatoire de l'artificialisation des sols, dans lequel les acteurs territoriaux, pourquoi pas les ONG, des habitants ou d'autres acteurs - il appartiendra au ministère de le définir - pourront discuter la classification qui aura été retenue. En effet, notre outil ne sera pas parfait, il aura un certain taux de succès qui sera supérieur à 95 % et qui fournira une donnée en général très fiable, mais il pourra se tromper de manière ponctuelle. Il sera donc nécessaire d'avoir une boucle de rétroaction avec les acteurs territoriaux qui conduise, le cas échéant, à corriger les choses.

Debut de section - PermalienPhoto de Alain Richard

Une question complémentaire : après le décret qui vient de sortir et au sujet duquel j'ai quelques mécontentements, un arrêté va fixer, sur la base des recommandations de l'IGN, la maille de surface qui sera utilisée pour faire cette observation de l'extension de l'artificialisation. Êtes-vous déjà en consultation pour cet arrêté qui devrait être pris prochainement, et quelle est l'unité de surface que vous prendriez comme maille ?

Debut de section - Permalien
Sébastien Soriano, directeur général de l'Institut national de l'information géographique et forestière (IGN)

Vous arrivez aux limites de mes compétences techniques et je ne suis pas en mesure de vous donner le calendrier gouvernemental sur ce sujet parce que les équipes sont en cours de formation et je n'ai pas encore eu l'occasion d'interagir avec elles.

Concernant la maille, nous avons des débats assez pointus avec des acteurs territoriaux. Certaines régions, notamment les Hauts de France et la région Grand-Est, ont choisi des référentiels d'occupation des sols plus précis que ceux sur lesquels nous avons l'habitude de travailler - le différend se situerait entre 300 et 500 mètres carrés. Mais, dans l'incertitude, je vous propose de revenir vers vous avec une réponse écrite sur ce sujet. En tout cas, ce sera un élément du débat.

Au-delà du référentiel, ce qui est important, c'est l'outil commun : il faut que nous disposions tous du même outil de production de ces données pour construire ces référentiels. Une région sera toujours libre de chercher à obtenir une granularité plus fine, mais il est important que chacun parte du même outil pour limiter les risques de contradiction, voire de contentieux.

Debut de section - PermalienPhoto de René-Paul Savary

La question est très pertinente. Dans la politique de l'eau, on a fait des bassins de décantation extraordinaires, régulièrement vides d'ailleurs. Ces bassins font-ils partie des terres artificialisées ? À mon sens, ils n'en sont pas, car ce sont des terres non étanches qui permettent d'absorber l'eau. Mais on peut aller plus loin : si les bassins de décantation éternellement vides sont couverts d'une bâche au fond pour obtenir, dans un but écologique, une mare, est-ce que vous considérez que ce sont des terres artificialisées ou des terres encore capables d'absorption ? Cela représente tout de même des hectares et des hectares !

Debut de section - Permalien
Sébastien Soriano, directeur général de l'Institut national de l'information géographique et forestière (IGN)

Je note aussi cette question. La classification prévue comprend une quinzaine de thèmes, et nous ne serons pas toujours capables de rentrer dans des distinctions très fines entre la nature des usages.

Je voulais en conclusion vous montrer cette planche, la première carte de l'artificialisation réalisée par les équipes de l'IGN, en l'occurrence pour le département du Gers. En rose, vous pouvez voir les zones anthropisées et en vert, ce qui ne l'est pas. On voit que la reconnaissance automatique est beaucoup plus fine que dans un fichier foncier ou avec une approche parcellaire : elle permet de découper vraiment le territoire et de trouver parfois des jardins, des rues, des voies ferrées, etc. La représentation de deux millésimes, 2015 et 2018, montre aussi comment cet outil permet de suivre de manière très fine l'évolution de cette anthropisation. On pourra faire fonctionner cet outil de façon rétroactive et mesurer ce qui s'est passé sur les dernières décennies en termes d'artificialisation.

Encore une fois, j'insiste, il faudra prévoir des boucles de rétroaction pour affiner les analyses sur la base de l'intelligence du terrain. S'agissant de la couverture du territoire pour le mobile, sitôt nos premières cartes publiées, des collectivités locales ont fait tourner leurs propres voitures pour produire leurs propres données en contestation des nôtres. Cela nous a amenés à revoir et affiner l'information, et j'espère qu'on pourra travailler dans cet état d'esprit sur l'artificialisation des sols.

Debut de section - PermalienPhoto de René-Paul Savary

Une anecdote qui montre l'importance du transfert rapide de l'information : à l'époque où je présidais mon département, lorsque nous construisions un nouveau rond-point, certains routiers se fiant aveuglément à leur GPS passaient littéralement au travers ! L'information erronée peut avoir des conséquences parfois dramatiques. Je salue cependant, comme mon collègue, la qualité de votre travail : Géoportail ou Iphigénie sont d'une précision remarquable.

Debut de section - Permalien
Sébastien Soriano, directeur général de l'Institut national de l'information géographique et forestière (IGN)

J'ajouterai un petit mot sur la question du métavers, parce que c'est un sujet qui occupe beaucoup les esprits et qui me semble être un bon exemple de la façon dont on peut construire la souveraineté numérique. Il y a beaucoup de consultations en cours, et je ne prétends certainement pas en tirer de conclusion à ce stade, mais je tiens à signaler que l'IGN travaille sur cette question des métavers, sous un angle qui concerne beaucoup les territoires, la question des « jumeaux numériques ». Dans un monde qui connaît des changements rapides, les collectivités vont en effet avoir besoin de plus en plus de simulateurs, permettant de faire tourner différents scénarios sur des modèles numériques de leur territoire, par exemple s'agissant des risques d'intempéries et d'immersion, des risques sanitaires ou industriels, etc. Ces simulations vont devenir un élément de plus en plus important du pilotage des politiques publiques dans les territoires et tout l'enjeu est de pouvoir en proposer une représentation souveraine, qui pourrait être mise en place par l'IGN. Nous disposons déjà aujourd'hui d'une première couche d'information, les éléments de description du territoire, qui sont disponibles en open data. Nous allons prochainement les enrichir avec les données issues du LIDAR HD, qui sera un véritable modèle 3D de toute la France.

Les mélanges potentiels entre le monde virtuel et le monde réel sont amenés à croître, et nous sommes mobilisés pour apporter une représentation de référence qui pourra, le cas échéant, être « appelée » dans ces différents métavers et simulateurs pour fournir une information de service public, fiable et garantie.

Debut de section - PermalienPhoto de Mathieu Darnaud

Je m'associe aux propos de mes collègues pour saluer l'excellence de votre travail et à travers vous, l'ensemble de vos équipes. Vous l'avez compris, il est important pour nous de comprendre des sujets comme l'artificialisation des sols, car cette actualité intéresse au premier chef les territoires que nous représentons ici au Sénat. Nous vous remercions donc vivement de votre contribution et sommes bien sûr preneurs des réponses complémentaires aux questions éminemment techniques posées par nos collègues Alain Richard et René-Paul Savary. Je vous remercie.

La réunion est close à 12 h 25.