Commission des finances, du contrôle budgétaire et des comptes économiques de la nation

Réunion du 23 mai 2018 à 10h45

Résumé de la réunion

Les mots clés de cette réunion

  • administration
  • informatique
  • outil

La réunion

Source

Debut de section - PermalienPhoto de Vincent Eblé

Au cours de nos travaux législatifs ou de contrôle, nous sommes très souvent amenés à demander des données ou des simulations aux services ministériels, particulièrement en matière fiscale. Nous rencontrons parfois des difficultés pour les obtenir et il n'est pas toujours aisé de comprendre pourquoi tel ministère ne peut pas procéder à la simulation des effets d'un amendement ou d'une réforme proposée, ou pourquoi les données dont dispose l'administration fiscale ne permettent pas de répondre à nos questions.

C'est pourquoi, en lien avec le Rapporteur général, particulièrement concerné par ces problématiques fiscales, il m'a semblé utile d'aborder ce matin, sous la forme d'une table ronde, la question des données et algorithmes en matière fiscale. Il s'agit d'abord de comprendre comment travaille aujourd'hui le Gouvernement et les administrations placées sous son autorité : de quelles données ces administrations disposent, comment elles sont administrées, quels sont les traitements automatisés de données de masse qui ont déjà été mis en place.

Il ne s'agit pas seulement de faire un constat mais également d'envisager les modalités d'une éventuelle ouverture accrue de ces nouveaux outils numériques, comme y appellent de nombreux acteurs du débat public.

J'ai moi-même déposé plusieurs amendements à l'automne dernier pour que davantage de données fiscales soient publiées sur la plateforme d'open data par le Gouvernement et pour que le code source de tous les impôts soit mis à la disposition du public - dans la continuité des dispositions de la loi pour une République numérique. Nous souhaitons que ces informations nous soient fournies lors de la présentation du projet de loi de finances. L'ouverture du code source n'a pas prospéré, le Gouvernement s'y étant opposé à l'Assemblée nationale sans beaucoup d'explications.

Pourtant, l'ouverture des données et des algorithmes fiscaux permettrait de rénover l'expertise du Parlement sur l'impôt, de travailler de façon plus efficace et de légiférer en toute connaissance de cause. À l'heure où la réforme institutionnelle proposée par le Gouvernement met l'accent sur l'accélération du temps parlementaire sans répondre aux difficultés que le Parlement rencontre pour exercer pleinement son rôle, cette inflexion serait de bon sens.

Le sujet appelle aussi une grande vigilance sur le respect du secret fiscal : les données fiscales sont des données sensibles, et la politique d'ouverture des données ne doit pas conduire à méconnaître le droit au respect de la vie privée.

Nous avons donc le plaisir de recevoir ce matin Henri Verdier, directeur interministériel du numérique et du système d'information et de communication (Dinsic), Yannick Girault, directeur du service à compétence nationale « Cap numérique » qui pilote l'action de la Direction générale des finances publiques (DGFiP) en matière numérique, Antoine Bozio, directeur de l'Institut des politiques publiques (IPP) et enfin Jean Lessi, secrétaire général de la Commission nationale de l'informatique et des libertés (Cnil).

Je vous rappelle que cette réunion est ouverte à la presse et retransmise sur le site internet du Sénat.

Pour garder un caractère interactif à nos échanges, je vais donner la parole à nos intervenants pour de brèves présentations afin de laisser ensuite le débat s'installer.

Pour commencer, je donne la parole à Henri Verdier pour un éclairage global sur la gestion des données de masse ainsi que des algorithmes par l'État et le simulateur socio-fiscal OpenFisca.

Debut de section - Permalien
Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État (Dinsic)

La Dinsic est un service du Premier ministre en charge de la transformation numérique de l'action publique. Nous sommes une petite structure de 140 personnes chargée à la fois de sécuriser le système d'information de l'État et de porter les transformations numériques en cours.

Plusieurs de nos missions ont trait à l'objet de cette table ronde : nous accompagnons par exemple l'administration fiscale concernant le prélèvement à la source.

Chaque ressource doit être facilement utilisée par toutes les administrations et ouverte le plus possible. L'utilisation des données par l'administration elle-même lui permet de s'améliorer. Tous ces sujets traitent, d'une façon ou d'une autre, des données fiscales, qui jouissent d'un statut très particulier puisque la déclaration des droits de l'homme et du citoyen y fait allusion.

Je rappelle en effet que l'article 14 prévoit : « Tous les Citoyens ont le droit de constater, par eux-mêmes ou par leurs représentants, la nécessité de la contribution publique, de la consentir librement, d'en suivre l'emploi, et d'en déterminer la quotité, l'assiette, le recouvrement et la durée ».

L'importance accordée à l'ouverture des données fiscales est assez ancienne : depuis la Révolution, chaque citoyen peut aller vérifier dans son centre des impôts la feuille d'impôt de ses voisins. Cette transparence n'est donc pas sans racines ni traditions.

Aujourd'hui, de nouvelles questions se posent. Nous avons le sentiment d'une complexification accrue du système fiscal qui comporte de plus en plus de clauses, d'exceptions, ce qui est très compliqué pour les systèmes d'information. Je ne sais combien de définitions différentes, et parfois concurrentes, existent de la notion de chiffre d'affaires pour asseoir des dispositifs fiscaux. C'est pourquoi il est malaisé de factoriser les décisions. Ne faudrait-il pas un jour remettre à plat les descripteurs fondamentaux du système fiscal pour les modéliser et les utiliser facilement ? Nous constatons la difficulté d'anticiper les impacts d'une réforme fiscale. Difficile de dire, au moment où telle ou telle mesure est prise, combien de foyers seront affectés et encore moins quels en seront les impacts micro et macro-économiques.

Debut de section - Permalien
Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État (Dinsic)

Je ne suis pas certain que l'on soit capable de raisonner sur les effets systémiques profonds et diffusants en matière fiscale.

La somme des règles fiscales et sociales est transparente, mais pour comprendre les effets de bord des décisions prises, la description des caractéristiques des foyers est nécessaire. Il faut donc injecter des données personnelles dans le système pour mesurer les conséquences de toute modification de règles.

Un exemple parlant : OpenFisca. Il s'agit d'un logiciel libre qu'il est possible de télécharger et qui rassemble toutes les règles du droit fiscal et social. Les collectivités locales peuvent rejoindre cette plateforme : une quinzaine d'entre elles l'ont fait. OpenFisca a également permis de mettre en place le site mes-aides.gouv.fr sur lequel, chaque mois, 100 000 Français viennent calculer en moins de cinq minutes toutes les aides sociales auxquelles ils ont droit.

Debut de section - Permalien
Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État (Dinsic)

C'est possible : nous avons lancé ce projet justement pour lutter contre le non-recours. La moitié de nos concitoyens ne savent même pas qu'ils ont des droits en ce domaine. La CNAF utilise aussi ce logiciel.

Je suis frappé de constater que la plupart des mesures qui sont prises n'ont pas une grande profondeur de vision systémique. L'optimum d'une décision n'est pas recherché : je pense par exemple au travail du dimanche. Il n'est pas certain que les décisions soient prises en anticipant toutes les conséquences qui en découlent, alors qu'il existe des outils scientifiques qui permettraient de le faire. Le citoyen devrait pouvoir constater par lui-même la nécessité de la dépense publique afin qu'elle emporte son adhésion. Il ne s'agit pas seulement d'un débat entre experts : nos compatriotes doivent comprendre le sens des décisions et exprimer leur assentiment ou leur rejet en toute connaissance de cause. Il va falloir apprendre à présenter et documenter autrement ces débats.

Le 15 juin prochain, avec la DGFiP, l'Assemblée nationale et la direction du budget, nous allons faire un premier « hackathon » sur les données financières de l'État qui nous permettra de voir ce que peuvent apporter les données en question.

Debut de section - Permalien
Yannick Girault, directeur du service « Cap numérique » à la direction générale des finances publiques (DGFiP)

Cette table ronde est au coeur de l'actualité : en témoignent l'évolution des textes et du cadre normatif, non seulement national mais aussi européen, dans lequel nos administrations évoluent, et les progrès des technologies.

Cap numérique est un service à compétence nationale au sein de l'organigramme de la DGFiP regroupant une grande partie de notre maîtrise d'ouvrage professionnel des applications des finances publiques, au-delà même de la sphère fiscale stricto sensu. Nous sommes également en charge de l'innovation numérique : à ce titre, nous partageons avec la Dinsic un certain nombre de travaux.

Le projet le plus emblématique est celui du prélèvement à la source dont chacun pressent que sa dimension informatique est une aventure technologique formidable qui mobilise toutes les équipes.

Cap numérique n'est pas directement en charge du suivi des travaux parlementaires mais il suit la mise en oeuvre des décisions du Parlement.

Avec la Dinsic, nous participons ainsi aux grands programmes numériques inscrits dans la loi, comme celui du « Dites-le nous une fois ». Nous participons aussi à FranceConnect, une identité numérique qui vaut pour les particuliers mais qui vaudra, demain, pour les entreprises et les agences publiques. Enfin, le site impots.gouv.fr est le navire amiral de l'offre des services numériques aux particuliers, aux entreprises et aux collectivités territoriales. Il s'agit du deuxième site Internet de l'État et sa fréquentation est considérable. Nous ne cessons d'enrichir ses offres de services et nous mettrons à disposition un nouvel espace destiné aux particuliers en février prochain qui sera ensuite étendu aux entreprises.

La DGFiP entend répondre au mieux à vos attentes tout en prenant en compte la prescription de secret fiscal. Sur le site data.gouv.fr, nous avons mis à disposition un nombre significatif de données. Les fichiers de recensement des éléments d'imposition de la fiscalité directe locale et du plan cadastral ont trouvé leur public.

Il ne suffit pas de partir d'un logiciel ou d'une application informatique pour arriver à la publication du code source. Un certain nombre d'étapes doivent être respectées pour transformer et rendre exploitables lesdites données. Nos logiciels font l'objet de travaux lourds et conséquents, d'où le fait que certains estiment que nous allons trop lentement.

Lorsque nous avons publié le code source de la calculette de l'impôt sur le revenu, nous avons commencé par les années les plus proches de nous. A l'expérience de ce premier travail, nous avons pu publier l'ensemble des codes source de nos calculettes depuis 2010.

Nous poursuivrons bien sûr ces publications, notamment les codes sources de la taxe d'habitation et de la taxe foncière. Comme le souhaite le législateur, nous publions des éléments sécurisés, exploitables et réutilisables. Ce travail doit être distingué de celui de la publication des algorithmes. Cette publication s'environne de prescriptions techniques et doit être échelonnée.

En novembre dernier, lors d'un débat au Parlement sur l'évaluation des politiques publiques, la qualité de la documentation des textes fiscaux a été soulignée, notamment au niveau de l'imposition des personnes. Cette documentation à jour est un élément constituant de la publication ultérieure de l'algorithme lui-même. Nous poursuivons ces travaux. Les avis d'impôt devront mentionner l'accès à ces données.

Lorsque nous nous comparons à d'autres administrations françaises, mais aussi étrangères, nous constatons notre volontarisme et la satisfaction du public qui utilise nos publications.

Debut de section - Permalien
Antoine Bozio, directeur de l'Institut des politiques publiques (IPP)

L'IPP est issu d'un partenariat entre l'École d'économie de Paris et le Crest (Center for research in economics and statistics), deux centres universitaires qui sont dédiés à l'évaluation des politiques publiques. L'objectif de l'IPP est de diffuser des techniques et des méthodes développées dans le monde universitaire pour éclairer l'évaluation des politiques publiques.

Dans le cas particulier des données du système socio-fiscal, nous privilégions la méthode de la micro-stimulation : il s'agit de confronter un simulateur, comme OpenFisca, à des données individuelles représentatives de l'ensemble de la population pour simuler les effets d'une modification du système socio-fiscal.

Il nous faut donc connaître les lois et règlements qui déterminent le système socio-fiscal mais aussi avoir accès aux données individuelles. Dans le monde universitaire, la plupart de ces modèles a fonctionné sur des données d'enquêtes, notamment celles de la statistique publique produite par l'Insee. Ainsi en était-il des enquêtes sur les revenus fiscaux et sociaux qui, à l'origine, permettaient de mesurer le chômage et auxquelles des données étaient ajoutées pour mener des simulations. Ces données d'enquêtes ne permettent cependant pas forcément d'évaluer de façon précise l'impact de mesures fiscales, car elles ne portent que sur un échantillon restreint de ménages.

Ces dernières années, les évolutions législatives ont permis l'ouverture de données individuelles de type administratif. Les données fiscales ont ainsi été disponibles, bien qu'elles demeurent protégées par le secret fiscal. La loi du 22 juillet 2013 sur l'enseignement supérieur et la recherche a permis aux chercheurs d'accéder à ces données dans un cadre extrêmement sécurisé. Ainsi faut-il adresser une demande auprès du Comité du secret statistique, détaillant l'objet de la recherche et les données demandées. Une fois l'autorisation accordée, par ce Comité puis par la DGFiP, les chercheurs peuvent accéder à ces données mais ces dernières ne sont pas nominatives et leur accès est sécurisé à distance : une carte à puce avec les empreintes digitales du chercheur est fournie pour ne disposer que des données demandées. Il est ainsi possible d'effectuer un travail précis sans pour autant disposer de données nominatives.

La loi du 22 juillet 2013 puis le décret d'août 2014, qui ont modifié l'article L. 135-B du livre des procédures fiscales, ont donc permis de documenter les données fiscales pour une exploitation à des fins de recherche.

Nous constituons un très large échantillon de données individuelles issues des déclarations de l'impôt sur le revenu ou d'autres bases de données afin d'élaborer un site de données qui devrait permettre, à terme, de mesurer l'impact de toute modification du système fiscal. La variation des cotisations sociales a ainsi un impact sur le revenu imposable et donc sur l'impôt sur le revenu. Les incitations de retour à l'emploi doivent prendre en compte à la fois les prestations sociales et la fiscalité. Nous faisons tourner l'algorithme à partir de ces bases de données individuelles. Nous pouvons alors chiffrer les effets d'une variation de l'impôt ou d'une prestation sociale : nous savons qui est touché et quelles sont les réponses comportementales des populations concernées ; nous pouvons évaluer l'optimisation fiscale, le retour sur le marché de l'emploi ou, au contraire, la réduction de la participation au travail.

De très grands progrès ont été réalisés ces dernières années. Certains pays étaient très en avance sur nous et ils utilisaient leurs données administratives à des fins de recherche, tandis que d'autres pays étaient très en retard. La France disposant de données administratives de grande qualité, ce qui n'est pas le cas dans d'autres pays, l'ouverture y a été très rentable car elle a permis d'exploiter des données précises.

Nous avons accès aujourd'hui aux déclarations d'impôt sur le revenu et d'impôt sur les sociétés. Il nous manque des informations sur les taxes locales, les impôts sur le patrimoine et toutes les données sur les impôts hors impôts sur les sociétés et sur le revenu.

L'accès à ces données nous permet d'être très précis sur les impacts d'une modification de l'impôt sur le revenu. Par construction, nous disposons d'informations vieilles de un à deux ans. Il faudrait faire en sorte que ces délais soient les plus courts possibles afin d'éclairer quasiment en temps réel les débats publics.

Debut de section - PermalienPhoto de Vincent Eblé

Merci pour cette présentation tout à fait intéressante.

Debut de section - Permalien
Jean Lessi, secrétaire général de la Commission nationale de l'informatique et des libertés (Cnil)

La Cnil est le régulateur de la protection des données à caractère personnel et elle repose sur deux piliers : elle est un gendarme qui reçoit des plaintes, qui procède à des contrôles et qui éventuellement prononce des sanctions. Mais elle a aussi pour mission d'accompagner en amont les responsables de traitements de données pour que les dossiers qu'ils déposent prennent en compte celles à caractère personnel.

En matière de régulation, la Cnil dispose de deux types de compétences : juridique et technologique. La Cnil dispose de juristes spécialisés dans les politiques publiques et dans les secteurs industriels et commerciaux. Elle emploie aussi des ingénieurs experts et des auditeurs de systèmes d'information. Cette compétence technologique permet de comprendre les projets et d'avoir un dialogue éclairé avec les responsables de traitement, qu'il s'agisse des administrations ou des entreprises numériques.

Pour la fiscalité, nous accompagnons les administrations de trois façons. Tout d'abord, nous formulons des avis sur les projets de lois et de décrets. Nous gérons également les formalités préalables même si elles devraient disparaître dans deux jours avec la mise en place du Règlement général sur la protection des données (RGPD). Enfin, nous nouons des dialogues informels très en amont avec les porteurs de projets publiés : nous leur demandons de venir nous voir très tôt afin que, dès le départ, la protection des données personnelles soit prise en compte.

Cet accompagnement ne se résume pas à un affrontement stérile entre objectif de politique publique versus protection des données à caractère personnel, mais sur un triptyque : objectif de politique publique, enjeu de protection des données mais aussi garanties à mettre en place. L'essentiel est de bien moduler les garanties pour parvenir à l'objectif poursuivi.

Nous nous sommes ainsi très tôt penchés sur le prélèvement à la source et nous avons traité la question fondamentale de la transmission du taux des salariés aux employeurs. Nous avons beaucoup travaillé avec l'administration et le Parlement pour cadrer les conditions d'accès par l'employeur à ce taux et pour instaurer un taux neutre.

Autre exemple : l'offre de paiement en ligne PayFiP qui a donné lieu à un arrêté publié le 19 avril 2018. La Cnil a été vigilante sur les durées de conservation des données bancaires. Elle a notamment insisté sur le nécessaire consentement des utilisateurs.

J'en viens à l'ouverture des données de l'administration fiscale. Il faut distinguer deux types d'ouverture dont les enjeux sont différents pour la protection de la vie privée. L'ouverture à des fins de recherche n'est pas en open data : il s'agit de la mise à disposition par l'administration fiscale de ses données, qui sont en effet d'une richesse considérable, à un nombre restreint de chercheurs dans un cadre très précis. Ce sont des données à caractère personnel qui doivent être protégées, d'où la création de bulles de sécurité qui permettent de manier les données tout en interdisant leur extraction et leur fuite à l'extérieur. Ensuite, il y a l'open data, c'est-à-dire la mise à disposition au grand public de données qui doivent être anonymisées, afin qu'il soit impossible de remonter à une personne physique identifiée. Pour protéger la vie privée, la Cnil développe des outils d'accompagnement pour sécuriser les données. Elle travaille avec la Cada et la Dinsic à un « pack » open data : il s'agit d'outils techniques qui accompagnent l'ouverture des données. Ainsi en est-il de l'anonymisation des jeux de données, travail mené par le G29, c'est-à-dire le groupe des « Cnil » européennes. Nous rédigeons aussi des fiches pratiques pour l'ouverture des données en matière d'urbanisme, ou de fiscalité.

Debut de section - PermalienPhoto de Vincent Eblé

Avant de passer la parole à mes collègues, je voudrais vous poser quelques questions.

S'agissant des données fiscales, comment s'organise leur production ? Quels sont les différents services impliqués et comment se coordonnent-ils entre eux ? J'aimerais demander à M. Yannick Girault comment son service se coordonne avec la direction de la législation fiscale, qui est notre interlocuteur privilégié pour obtenir des simulations, mais qui n'est pas producteur des données fiscales.

Concernant les algorithmes fiscaux, l'article 2 de la loi pour une république numérique a ajouté les codes sources à la liste des documents administratifs dont la liberté d'accès est garantie par les articles L. 300-1 et L. 300-2 du code des relations entre le public et l'administration. J'entends bien M. Girault nous dire qu'il faut un certain délai pour y parvenir mais la loi s'impose à l'administration. L'article 4 a créé un principe de communication des algorithmes lorsque ceux-ci ont participé au fondement d'une décision individuelle, ce qui s'applique naturellement aux impôts.

La mise en oeuvre de ces dispositions a fait l'objet de nombreuses critiques : publication du code d'Admission Post-Bac (APB) sous format PDF, ce qui est juste hallucinant. De mêmes avons-nous enregistré des réticences à publier l'algorithme de Parcours Sup.

Comment la mise en oeuvre de ces articles est-elle assurée ? Votre direction, M. Verdier, centralise-t-elle toutes les demandes en la matière ? Un suivi du nombre de demandes et du délai de réponse est-il organisé ?

La publication du code source des impôts s'inscrit dans la continuité de la loi pour une république numérique. Dans la mesure où il est communicable aux citoyens ordinaires, je ne vois pas pourquoi il serait refusé aux législateurs que nous sommes.

Debut de section - PermalienPhoto de Albéric de Montgolfier

Le portail « impots.gouv.fr » est complet et on y trouve nombre de renseignements. Ce service conduit-il à la disparition de tout service de renseignement par téléphone ? J'ai tenté de joindre par téléphone le service des impôts : impossible, alors que le numéro est surtaxé, ce qui est d'ailleurs scandaleux. Un disque disait qu'aucun agent n'était disponible. Ce service est-il toujours opérationnel ou bien l'administration fiscale a-t-elle choisi de supprimer tout accueil autre que par voie électronique ? On ne peut se contenter du portail des impôts qui ne répond pas à toutes les questions, et je ne parle même pas des bugs informatiques.

Par ailleurs, existe-t-il un recensement exhaustif des données dont l'administration dispose ? Si tel est le cas, il faudrait qu'il soit rendu public. Si non, est-il en cours d'élaboration ?

En effet, lorsque nous examinons le projet de loi de finances et que nous proposons des amendements, nos interlocuteurs nous répondent souvent qu'ils ne peuvent évaluer leurs impacts car ils ne disposent pas des données. La direction de la législation fiscale nous dit souvent qu'elle n'a pas les moyens d'évaluer les conséquences des modifications que nous proposons. L'indépendance du Parlement en souffre car avant de changer les paramètres d'un dispositif fiscal, il faut pouvoir en évaluer les conséquences.

Nous examinerons le projet de loi relatif à la lutte contre la fraude prochainement et nous entendons parler de l'outil de « ciblage de la fraude et valorisation des requêtes » (CFVR) : quel sera l'apport de cette analyse de données de masse par un algorithme ? Cet outil sera-t-il directement opérationnel et posera-t-il des difficultés en termes de libertés publiques ?

Debut de section - Permalien
Yannick Girault, directeur du service « Cap numérique » à la direction générale des finances publiques (DGFiP)

Le média téléphonique reste extrêmement important dans notre relation aux usagers. Nous sommes une administration qui demeure à visage humain car nous avons encore des centres de finances publiques ouverts qui accueillent en grand nombre des usagers. La voie téléphonique est également un mode d'échange et de renseignement utile. La direction impôts service existe toujours : elle réunit 150 agents et sa compétence est nationale. Eu égard aux 35 millions de foyers fiscaux, l'accessibilité de ce service est un souci constant, plus particulièrement en période de campagne d'impôt sur le revenu.

Depuis 2014, nous avons créé au sein de la DGFiP des centres de contact qui sont à la fois des centres de renseignement téléphoniques pour les cas généraux mais qui peuvent aussi accéder en ligne aux dossiers des personnes physiques pour surmonter des difficultés simples. Ces centres sont en cours de déploiement : ils sont au nombre d'une dizaine et ils couvrent la moitié des foyers fiscaux. Ils sont appelés à se déployer dans tout le pays.

Dans le même temps, nous continuons à enrichir nos services en ligne aussi bien pour les particuliers que pour les entreprises et les collectivités territoriales. Cette année, dans la partie déclarative qui suit les éléments afférents aux taux, nous avons placé des outils qui permettent à nos usagers de pouvoir contacter nos conseillers. Il s'agit donc d'outils complémentaires au service des contribuables. Comme il peut arriver que ces services ne soient pas accessibles, nous proposons des serveurs vocaux interactifs qui fournissent des renseignements pour les cas les plus simples : un cas sur trois trouve sa résolution grâce à ces serveurs.

Nous sommes organisés de façon assez traditionnelle - entre une maîtrise d'ouvrage que je représente pour l'essentiel - mais pas exclusivement, une maîtrise d'oeuvre conduite par le service des systèmes d'information et les bureaux métiers. Nous travaillons bien sûr avec la direction de la législation fiscale et avec le service de la gestion fiscale qui dispose d'un département en charge du chiffrage des mesures fiscales, des simulations et de leur exploitation.

Dans cette construction de nos systèmes d'information, nous essayons de prendre des initiatives nous permettant de faire preuve de davantage d'agilité afin de monter des programmes bien plus rapidement. C'est à l'occasion de la refonte complète du portail impots.gouv.fr que nous avons adopté une organisation en mode agile, avec sur un même plateau de travail l'expression des métiers, mais aussi la connaissance de la maîtrise d'ouvrage pour accélérer le calendrier de production et de mise en ligne des différents outils.

Ces travaux sont extrêmement denses, d'autant que la législation fiscale évolue. Les modifications auxquelles il faut procéder nous conduisent à oeuvrer dans un temps très contraint. Dès le 15 janvier, nous mettons en ligne le simulateur de l'impôt sur le revenu, opérationnel pour un très grand nombre de cas. Effectivement, nous n'avons pas la possibilité, en « presse-bouton », de répondre aux sollicitations qui nous sont adressées : encore faut-il que nous ayons les données, qu'elles soient organisées et que nous puissions les traiter.

Avons-nous connaissance de nos données et comment sont-elles organisées ? Dès septembre 2016, nous avons souhaité la nomination d'un administrateur des données. Il a demandé que des études soient conduites visant à cartographier nos données, qu'elles soient documentées et que nous disposions d'un dictionnaire des données. En premier lieu, cela nous permettra peut-être d'y voir plus clair, car il peut y avoir des redondances et nous pouvons avoir de fausses certitudes, ou alors des données acquises à une période antérieure peuvent ne plus correspondre à ce dont nous avons besoin. Un inventaire de la cartographie des données nous sera particulièrement utile. Car, en second lieu, si nous voulons être plus agiles dans la conduite de nos travaux, dans l'élaboration des outils, dans l'accompagnement des simulations, ces données ne doivent plus être « silotées » dans les applications métier. Elles doivent être organisées pour être plus directement exploitables qu'elles ne le sont quand elles sont gérées de manière informelle dans des silos de données relatifs à telle ou telle imposition.

Pour ce travail considérable, la DGFiP est bien placée puisque c'est l'ancien programme Copernic qui nous avait conduits, il y a une quinzaine d'années, à créer des référentiels. Nous avons déjà une structure de données en amont : référentiel des personnes physiques, référentiel des locaux, référentiel des entreprises, demain référentiel des éléments afférents au prélèvement à la source, référentiel d'un certain nombre d'éléments relatifs aux impositions et aux comptes bancaires. Ces référentiels d'amont nous permettront de prendre ces données aujourd'hui « silotées » dans les applications pour les rendre davantage exploitables, de manière à nous permettre de nous inscrire dans une évolution fondamentale de la société numérique : une construction d'exposition de ces données par une interface de programmation d'application (API). Autrement dit : être capable d'exploiter une donnée « silotée » à la demande de telle ou telle administration, dans un cadre juridique précisément défini.

C'est en cours, je peux comprendre votre impatience, mais cette cartographie, compte tenu de l'immensité des données acquises sur les finances publiques, nécessite un travail progressif de documentation et l'élaboration minutieuse d'un dictionnaire des données.

Mon service a pour partie la responsabilité de conduire ces travaux, sous l'impulsion de notre administrateur des données. Dès le mois de septembre au sein de Cap Numérique, une petite équipe sera chargée notamment de l'exploitation des données et de leur valorisation.

Debut de section - Permalien
Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État (Dinsic)

Nous devons mesurer l'ampleur de la mutation que nous vivons. Antoine Bozio a rappelé tout à l'heure l'importance de la statistique publique pour connaître le réel et l'action publique. Étymologiquement, la statistique, c'est la science de l'homme de l'État. Aujourd'hui, parce que tout se numérise et parce tout s'exécute par l'informatique, chacun peut travailler directement sur les modèles et sur les outils autrefois réservés à une poignée de techniciens. C'est une révolution fondamentale.

Par ailleurs, vous nous avez demandé si l'on savait cartographier de manière exhaustive l'ensemble des données. Nous sommes en train de faire une copie digitale du monde, tout est mis en données, et probablement la production de données va plus vite que leur cartographie. L'action publique devra par conséquent être reconsidérée. Tout à l'heure, je parlais d'« État plateforme » : nous essayons de définir progressivement une politique cohérente de la donnée qui tienne compte de la protection des secrets légaux - pas seulement de la vie privée - de la nécessité d'ouverture, d'efficacité de l'État, de soutenabilité budgétaire, etc.

S'agissant des demandes d'ouverture des codes sources et des algorithmes, vous demandiez si quelqu'un en avait une vision centrale. Aujourd'hui, c'est le régime général de la loi Cada qui s'applique. Les requérants s'adressent d'abord aux administrations concernées et quand ils n'ont pas de réponse satisfaisante, ils se retournent vers la Cada. Celle-ci a donc une vision de ceux qui sont prêts à aller au contentieux, et non pas une vision exhaustive de l'ensemble des demandes d'ouverture.

En tant qu'administrateur général des données, animateur du réseau des administrateurs ministériels de données, nous nous employons à aider les administrations à ouvrir leurs codes quand elles nous le demandent, par exemple sur la taxe d'habitation et la taxe foncière. Or il n'est pas forcément facile d'ouvrir un algorithme et un code source. Vous pouvez consulter le blog de la mission Etalab, sur lequel nous avons documenté notre travail d'accompagnement à l'ouverture de l'ancien algorithme d'admission post-bac. Le système d'admission post-bac commence avec de grandes bases de données de type Oracle et se termine par des front office pour postuler dans telle ou telle université : il a fallu faire un patient travail de détourage pour dessiner le coeur qu'il fallait ouvrir, vérifier les secrets industriels éventuels.

Il faut aussi accompagner l'administration dans une culture de publication du code. Les gens du logiciel libre savent faire, ils connaissent les outils, ils savent documenter leurs codes. Ceux qui n'ont jamais travaillé ainsi, eux, sont un peu dépourvus. Ce travail d'éducation et d'accompagnement prendra quelques années.

S'agissant de la cartographie des données, une cartographie exhaustive serait une tâche sans fin puisqu'on génère des données dès qu'on ouvre un tableur Excel sur son poste de travail. Heureusement, il y a quand même un certain nombre de piliers. D'abord, la loi Cada oblige à la tenue d'un répertoire des informations publiques, nécessité rappelée par la loi pour une République numérique, qui fait obligation de les publier. Cette loi fait également obligation de publier par défaut, à partir d'octobre prochain, toutes les bases de données, présentant un intérêt social, environnemental, économique ou sanitaire.

Debut de section - Permalien
Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État (Dinsic)

D'un autre côté, grâce au RGPD, la connaissance exhaustive de toutes les données à caractère personnel détenues par une administration est en train d'être centralisée auprès des délégués à la protection des données. La Cnil centralisait les déclarations préalables, dont le registre est d'ailleurs disponible en open data. Mais là, un haut fonctionnaire dans chaque administration centralise la connaissance de la totalité des données personnelles manipulées par elle. Il semble naturel qu'en octobre prochain les registres de données personnelles détenues par les délégués à la protection des données soient publiés.

La Dinsic a entrepris une tâche de très longue haleine. D'abord, elle fait l'inventaire des applications informatiques que détient l'État. Nous avons d'abord passé deux ans pour cartographier les 700 applications de gestion par métier des ressources humaines utilisées par l'État, ce qui nous a permis de trouver des redondances.

Debut de section - Permalien
Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État (Dinsic)

Heureusement, il n'y a pas 700 Louvois !

Nous profitons de ce projet Philae pour cartographier aussi les données que manipulent les applications que nous cartographions.

Debut de section - Permalien
Jean Lessi, secrétaire général de la Commission nationale de l'informatique et des libertés (Cnil)

Pour qu'il y ait une cartographie, il faut qu'il y ait un cartographe. À cet égard, le RGPD crée deux outils très précieux qui sont parfois vécus comme des contraintes, mais qui sont en réalité des opportunités formidables. D'abord, le délégué à la protection des données : le RGPD impose aux organismes publics et à certains organismes privés de structurer leur gouvernance en matière de données à caractère personnel, ce qui est un progrès considérable. Ensuite, le RGPD oblige à tenir un registre de traitement des données à caractère personnel. Et pour tenir ce registre, il faut savoir ce qu'on traite. La Cnil accompagnant de nombreux responsables de traitement dans cette démarche, je puis vous dire qu'il y a bien des surprises et des découvertes quand on recense tous les traitements de données : c'est l'occasion de se poser de très bonnes questions et de faire le tri.

Une autre question portait sur le traitement « Ciblage de la fraude et valorisation des requêtes » (CFVR). Il est très intéressant à deux titres : d'abord, parce qu'il est révélateur de ces nouveaux outils qu'on appelle aussi le data mining, ou fouille de données. À partir d'un entrepôt de données à caractère personnel, vous essayez de chercher de manière intelligente, en apprenant de vos recherches. Au passage, cela permet de faire de la lutte contre la fraude ou le non-recours.

Cet outil CFVR est également intéressant en termes de construction, progressive, avec des paliers d'expérimentation. D'abord, il ne concernait que les professionnels à titre expérimental et maintenant, il porte sur les professionnels et a atteint, sur ce champ, son « régime de croisière ». En ce moment, il est expérimenté pour les données des particuliers. Quand on dispose d'un outil nouveau, il faut voir comment il fonctionne sur un petit périmètre avant d'aller plus loin.

Après, le principal point de vigilance de la Cnil, lorsqu'elle a été saisie des arrêtés successifs élargissant le périmètre du CFVR, c'est la place de l'humain. La Cnil a insisté pour que le CFVR soit un outil d'aide à la décision et non pas un outil de décision, pour aider à mieux cibler les contrôles, à détecter des dossiers suspects ; il ne doit pas se substituer à la décision de lancer ou non un contrôle et encore moins aux résultats du contrôle. Telles sont les conséquences que la Cnil avait tirées de l'article 10 de la loi de 1978 sur l'enjeu des traitements intégralement automatisés, qui sont en principe interdits, sauf exception, le nouveau projet de loi élargissant les exceptions pour l'avenir.

Debut de section - PermalienPhoto de Marc Laménie

Merci à nos interlocuteurs. Je suis heureux que cette rencontre ait été organisée. Je veux vous parler d'une expérience personnelle, celle de ma déclaration d'impôt sur le revenu. Je reste attaché au papier, tout en ayant beaucoup d'admiration pour ce que vous faites.

Je suis élu du modeste département des Ardennes. N'ayant pas reçu ma déclaration d'impôt par voie postale, comme les autres années, je me suis rendu à la direction des finances publiques, où l'on m'a dit que, en tant que parlementaire, mon dossier était inaccessible, contrairement à l'année précédente. Aussi, j'ai dû me rendre à la direction départementale des finances publiques, où il était accessible. Et l'on m'a dit que je pouvais encore remplir une déclaration papier.

Le tout-numérique entraîne à coup sûr de la perte en ligne. Les moyens humains sont réduits, ce qui est tout de même inquiétant. Le tout-virtuel et le tout-numérique permettent-ils vraiment de réaliser des économies ?

Debut de section - PermalienPhoto de Christine Lavarde

Actuellement, je travaille sur une proposition de loi et nous avons demandé à la direction de la législation fiscale le chiffrage d'un certain nombre de mesures. Sur les 11 chiffrages demandés, 9 ne sont pas réalisables par absence de données. Une réflexion est-elle menée sur les données qui ne sont aujourd'hui pas disponibles, mais qui pourraient l'être, par exemple grâce à une meilleure exploitation des déclarations des contribuables ?

Cette question fait écho à un rapport qu'avait commandé la commission des finances du Sénat à la Cour des comptes visant notamment à évaluer les dépenses fiscales en faveur du développement durable. Il avait été mis en avant qu'un certain nombre de dépenses fiscales étant marquées « NC » - c'est-à-dire dont le coût est « non connu » - ou epsilon dans l'annexe « Voies et moyens » seraient en fait chiffrables de manière très fine, chaque déclarant donnant les indications afférentes. La difficulté réside dans l'absence d'agrégation au niveau national de l'ensemble des déclarations, qui restent gérées au niveau départemental. Existe-t-il des marges d'évolution, notamment par l'accélération de la numérisation ?

Debut de section - PermalienPhoto de Philippe Dallier

Ce débat nous ramène une dizaine d'années en arrière, quand Jean Arthuis présidait la commission des finances. Nous avions eu l'idée saugrenue de nous demander si notre commission pouvait se doter de moyens informatiques afin de disposer de ses propres simulations. Cela concernait à l'époque notamment les collectivités territoriales. Nous avions rencontré à la fois les services de Bercy et de l'Intérieur. L'idée que le Sénat se dote de ses propres outils de simulation n'avait pas suscité un grand enthousiasme. Face à la complexité des choses, nous avions renoncé.

Dix ans plus tard, le débat est finalement toujours le même : peut-on espérer, et dans quel délai, que le Parlement se dote de ses propres outils ? Cela nécessiterait de récupérer les données dont nous aurions besoin auprès des différents ministères. Ou bien est-ce utopique ? Auquel cas, que pouvons-nous envisager pour nous doter de nos propres outils de simulation ? L'idéal, ce serait que chaque amendement déposé impactant telle ou telle formule de calcul des dotations aux collectivités territoriales puisse faire l'objet d'une simulation. Est-ce que le Parlement peut imaginer se doter de ses propres outils ou serons-nous toujours dans les mains de l'administration ?

Une question un peu technique : j'ai quitté voilà quinze ans le monde de l'informatique, les choses vont vite, mais lorsque vous dites vos difficultés à fournir les algorithmes, j'ai un peu de mal à comprendre. Que voulez-vous dire ? Certes, il faut encore que le grand public sache utiliser les informations qu'on va lui transmettre.

Même question pour le dictionnaire des données : qu'il n'existe pas un dictionnaire unique qui répertorie toutes les données de l'administration française dont on pourrait avoir besoin, je peux le comprendre, mais que les informations ne soient pas disponibles silo par silo, comment est-ce possible ? Dans ce cas, comment fait-on pour maintenir toutes ces applications ?

Debut de section - PermalienPhoto de Thierry Carcenac

Pour ma part, je veux évoquer l'ouvrage Pour une révolution fiscale, publié en 2011 par Thomas Piketty, dans lequel il indique qu'on pouvait simuler sa propre réforme fiscale en connaissant son impact sur le déficit budgétaire et sur les inégalités. Alors que l'on vient d'entendre que l'on n'est pas capable de nous fournir des données, comment peut-on, dans des délais rapides, nous fournir des simulations, sachant que M. Verdier dispose à peu près 140 agents et, je suppose, M. Girault d'un millier ?

Concernant la protection des données à caractère personnel, tout est très encadré. Mais quand je vois ce qui s'est passé avec Mark Zuckerberg, ce qui se passe dans le secteur bancaire, et quand je vois que dans un pays comme le Portugal, il n'existe qu'un seul numéro d'identifiant par citoyen, qu'une seule carte de données sociales, fiscales et informatiques, comment peut-on protéger les données tout en essayant de simplifier ? Chaque secteur essaie de nous protéger au mieux, mais je ne suis pas sûr qu'on y arrive parfaitement compte tenu de la mutation de notre société, où tout le monde sait ce que je fais avec mon portable.

Debut de section - PermalienPhoto de Michel Canevet

Ce débat est intéressant dans l'objectif du déploiement des services numériques et du recours accru au numérique à l'avenir. Je lis dans le rapport de l'administrateur général des données au Gouvernement qu'il prône la construction d'une infrastructure de la donnée. Où en est-on ?

Puisque l'on parle d'ouverture des données, les conditions de leur sécurisation sont-elles effectivement réunies ? De quels effectifs dispose-t-il pour assurer ses missions ?

Sur l'aspect fiscal, je voudrais savoir si les données dont M. Bozio dispose lui semblent satisfaisantes ou s'il existe des marges de progrès. Dans ce cas, quelles sont les lignes à suivre ?

Monsieur Girault, j'ai l'impression, à vous entendre, que Bercy fonctionne en silos. Environ 6 300 personnes, en son sein, travaillent sur l'informatique, mais j'ai le sentiment que Bercy n'a pas fait sa révolution numérique, qu'on en est toujours au temps où les centres des impôts et les trésoreries étaient séparés. Les exemples et les témoignages que l'on vient d'entendre montrent qu'il est difficile aujourd'hui d'accéder à l'information. Or c'est absolument nécessaire si l'on veut prendre des décisions de qualité. Nous parlementaires sommes demandeurs d'informations parce que nous ne pouvons prendre les bonnes décisions que si nous disposons des études d'impact et des mesures d'évaluation. Il y a sans doute un effort à faire dans ce domaine.

Enfin, pour la réalisation de vos programmes, tout est fait en interne ou bien avez-vous avez recours à de la sous-traitance, et si oui dans quelle proportion ?

Debut de section - Permalien
Antoine Bozio, directeur de l'Institut des politiques publiques (IPP)

Les marges de manoeuvre possibles pour l'accès aux données, c'est de pouvoir accéder aux autres sources de données disponibles et d'être en capacité d'apparier les différentes bases de données entre elles : au sein de l'administration fiscale, au sein des administrations de la sécurité sociale, dont les données nous sont nécessaires pour nos chiffrages portant sur l'ensemble des modifications possibles dans un projet de loi de finances ou un projet de loi de financement de la sécurité sociale.

La loi pour une République numérique a levé l'ensemble des obstacles juridiques ; reste à convaincre les administrations de faire cet effort supplémentaire pour mettre à disposition ces données.

Autre point, soulevé par Mme Lavarde : la question des chiffrages. Certains pays ont organisé la production de données administratives autour d'un identifiant unique pour l'ensemble des dispositifs ; tel n'est pas le cas en France. L'organisation par silos fait que l'on ne dispose pas d'informations conjointes provenant de sources différentes. La loi pour une République numérique a permis de faciliter ce type d'appariement, mais cela reste très compliqué. Or on pourrait répondre à de nombreuses questions simplement en appariant des données issues de sources différentes au sein de l'administration.

Pour rebondir sur la question de M. Carcenac, aujourd'hui, l'Institut des politiques publiques, avec son modèle de micro-simulation, peut mener des simulations de modification du système socio fiscal, avec un degré de précision relativement fin. Cela ne veut pas dire qu'il peut répondre à toutes les questions. De nombreuses informations n'existent pas, y compris au sein des administrations. Si, par exemple, vous envisagez de modifier le régime des plus-values selon la durée de détention et que vous ne disposez pas de la répartition des cessions de titres selon leur durée de détention, on ne pourra pas mesurer l'impact de la réforme envisagée. Pour toute législation qui n'a pas de précédent, en général les données sont inexistantes, ce qui est une contrainte forte, même si elle n'est pas dirimante, sachant qu'énormément d'autres informations peuvent être mobilisées.

Pour répondre à M. Dallier, je suis convaincu que le Parlement peut se doter d'outils lui permettant de mener des évaluations rigoureuses et scientifiques des mesures socio fiscales et d'éclairer ses choix.

À l'IPP, nous sommes capables de faire des choses avec très peu de moyens et une très petite équipe ; aussi, le Parlement français peut le faire.

Debut de section - Permalien
Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État (Dinsic)

Est-ce que le tout-numérique génère vraiment des économies ? Oui ! Souvent, il ne suffit pas de numériser ; le plus important, c'est de repenser aussi une relation de service, une relation de guichet. Je pense à un très beau projet, la « bonne boîte », que nous avons monté avec Pôle emploi, et qui a coûté 300 000 euros, qui a pour objet de prévoir quelles entreprises vont recruter, afin de susciter des candidatures spontanées. Les trois quarts des agents de Pôle emploi s'en servent au moins une fois par semaine, et le taux de retour à l'emploi s'améliore de 20 % à six mois quand on conjugue cet outil numérique, cette relation guichet et cette démarche de recherche personnelle.

L'optimum de la dématérialisation, ce n'est peut-être pas de fermer des guichets. Le Gouvernement est également très attentif à l'inclusion numérique et la meilleure dématérialisation, c'est celle qui garde toujours un canal d'accès humain : on peut ne pas toujours comprendre le jargon administratif, par exemple. Quand le Président de la République promet de dématérialiser d'ici à la fin du quinquennat l'ensemble des démarches administratives, cela ne signifie pas que l'ensemble des guichets va fermer ; cela signifie qu'il y aura toujours un accès par la voie numérique.

Pour prendre l'exemple de l'échange automatique de données, on économise une photocopie, une enveloppe, l'opération d'ouverture de cette enveloppe et de nouvelle saisie de ces données. Chaque échange automatique d'une information permet de gagner quelques heures de travail d'un agent public. Il y a donc des économies considérables à faire.

Sur la question de l'infrastructure de données, nous avons poussé ce concept dans le rapport de l'administrateur général des données. On a un peu trop pensé la donnée jusqu'à présent à partir de l'open data, quelque chose qu'il fallait ouvrir et quelque chose de « gazeux ». Aujourd'hui, cela devient un socle essentiel de la puissance et de la souveraineté d'un pays. Sur quel système d'information asseoir la décision et le fonctionnement du pays ? À ce jour, 90 % des start-up françaises fournissent des services nécessitant une permission de Google Maps ou de PayPal, qui sera agréablement remplacé par PayFiP un de ces jours. Cette domination est majeure. Or les interfaces de programmation d'application (API) de Google Maps vont subir une très violente augmentation tarifaire le 11 juin prochain et coûteront 1 000 fois plus cher. Ceux qui ont assis leur business model sur ces données gratuites vont se faire rattraper.

La donnée nécessite une infrastructure aussi critique que les routes, les ponts en matière d'aménagement du territoire. Nous travaillons beaucoup sur cette vision de l'infrastructure, avec trois entrées principales.

Premièrement, le service public de la donnée, créé par la loi pour une République numérique. Ce sont les données dites « de référence », celles auxquelles tout le monde se réfère tout le temps : le cadastre, la base Siren, etc. L'État n'en garantit pas seulement l'accessibilité, il en garantit également la qualité. La Dinsic, via la mission Etalab, est chargée de garantir cette qualité d'accès à la donnée.

Deuxièmement, cette stratégie technologique que nous qualifions parfois d'« État plateforme » repose sur l'idée que nous créons des systèmes d'échange automatique de données entre administrations, des interfaces de programmation d'application (API). Cela oblige à repenser assez radicalement le système d'information de l'État, non plus comme des silos, mais comme des interfaces d'échange de données. Cela commence à produire ses fruits : l'API Entreprise permet ainsi de dématérialiser chaque mois 2 millions de pièces.

Troisièmement, un très gros travail est fait sur l'identité et l'authentification pour sécuriser les échanges automatiques de données. Il faut s'assurer qu'elles vont à la bonne personne, que le consentement est recueilli si cela est nécessaire, que celui qui demande la donnée est bien celui qu'il prétend être. FranceConnect permet ainsi l'authentification de l'usager d'un service public et connaîtra bientôt une déclinaison FranceConnect Agent, qui sera assortie des droits professionnels de l'agent public et de la certitude qu'il est habilité à connaître tel ou tel secret et donc à accéder à telle ou telle donnée.

Concernant nos effectifs, la Dinsic a trois grandes missions et emploie 140 personnes. Quarante d'entre elles gèrent le réseau d'échange de données de l'État entre 14 000 bâtiments. Nous prétendons être plus résilients qu'internet lui-même ; j'espère néanmoins qu'internet ne connaîtra jamais un collapsus total vous le prouvant !

Une quarantaine de vos agents gère les trajectoires budgétaires, les cadres technologiques, vérifie les grands projets informatiques avec une implication à la marge sur l'achat public.

Un même nombre d'agents, dont ceux de la mission Etalab, s'occupe davantage de transformation numérique, notamment de développer les méthodes agiles, la data, l'usage de la donnée, etc. Une réflexion est en cours sur une réorganisation globale de la fonction numérique dans l'État qui aboutirait à densifier la Dinsic. Il ne s'agit pas de faire à la place des ministères, qui doivent conserver leurs compétences. Mais vous avez noté que le rapport du député Cédric Villani suggère la création d'un laboratoire d'intelligence artificielle (IA) au service de la puissance publique, avec une trentaine de personnes.

Enfin, vous nous avez tous demandé pourquoi il était si compliqué et si long de documenter les algorithmes. On ne trouve pas toujours des systèmes très propres avec un algorithme bien logé dans une partie du code source. La lecture de notre rapport sur l'APB vous renseignera sur ce système, lancé il y a huit ans pour gérer les inscriptions au concours des écoles polytechniques, et qui s'est ensuite enrichi de règles de décision, pour finir par gérer l'ensemble des demandes d'entrée à l'université.

Debut de section - PermalienPhoto de Philippe Dallier

Ce n'était pas documenté ? Les bras m'en tombent !

Debut de section - Permalien
Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État (Dinsic)

Il l'était quand même un peu. Ce n'est pas le pire projet dans l'histoire informatique de l'État. Réalisé pour un coût peu élevé par quatre ou cinq personnes, il s'est montré efficace. Ils avaient conscience aussi que certaines décisions appartenaient au législateur, mais qu'il fallait bien que quelqu'un les prenne. C'est pour cette raison qu'ils ont bien pris soin de mentionner que, faute d'instruction, ils prévoyaient un tirage au sort.

J'ai rejoint les services de l'État il y a cinq ans, après avoir créé des start-up et travaillé dans un grand groupe du CAC 40. Cette conversion numérique, c'est aussi une conversion culturelle profonde et difficile. L'État est confronté à des difficultés, qui ne sont pas forcément pires que celle que rencontrent les grandes entreprises du CAC 40. Nos gouvernances, nos régulations n'étaient pas conçues dans cette optique. Avec l'informatique de l'État, jusqu'en 1986, chacun faisait ce qu'il voulait. En 1986, sous le gouvernement d'Édouard Balladur, chaque ministre était responsable du système d'information de son ministère. Ce n'est qu'en 2011 qu'on a envisagé une fonction centrale et ce n'est qu'en 2014 qu'est apparue la notion d'un système d'information de l'État. Aujourd'hui, par exemple, on a un mal fou à construire la carrière d'un grand chef de projet informatique ; pour le récompenser, on le nomme préfet, inspecteur des finances ou ambassadeur, faute de trajectoire professionnelle d'informaticien d'État, en tout cas pour les grands chefs de projet. Rien n'a été pensé pour faire face à cette métamorphose incroyable. Le travail de la Dinsic depuis trois ou quatre ans consiste aussi à pousser des choses qui semblent parfois saugrenues : les méthodes Agile pour le pilotage et la réalisation de projet, la culture du Devops (développement logiciel et administration des infrastructures informatiques), des modes de relation avec les fournisseurs historiques de l'État, qui n'ont pas tous parfaitement réussi leur conversion numérique et de gestion des ressources humaines. Nous avons besoin de professionnels aguerris et il va falloir penser autrement la question des contractuels. Faute de réussir cette conversion, tout sera bloqué.

Tout ce dont nous venons de parler ne comporte pas de difficultés majeures. On peut faire un OpenFisca avec trois ou quatre développeurs. La Nouvelle-Zélande devrait nous rejoindre pour enrichir de leurs propres règles OpenFisca. Un ancien d'Etalab a travaillé trois semaines avec eux. C'est l'irruption dans l'État de gens, de communautés, d'écosystèmes, de technologies, de cultures, de méthodes autour desquels nous n'avons pas été construits. Il va falloir sans doute un temps de transition pour organiser cette porosité.

Le Sénat et l'Assemblée nationale devraient avoir leurs propres outils informatiques et de simulation, mais aussi la Cnil, la Cada, la Cour des comptes. C'est possible avec cinq ou six bons développeurs et data scientists. La Cnil fait des choses extraordinaires !

Debut de section - Permalien
Jean Lessi, secrétaire général de la Commission nationale de l'informatique et des libertés (Cnil)

L'équilibre entre simplification et protection des données à caractère personnel est une question clé. Que recouvre le débat identifiant unique versus identifiant sectoriel, ce dernier choix ayant été fait par la France ? Le premier enjeu, c'est celui du « décompartimentage ». On pouvait déjà « décompartimenter » nos vies physiques ; avec le numérique, c'est beaucoup plus facile. Or, on peut avoir envie de compartimenter sa vie, de ne pas permettre à quelqu'un de tisser un fil entre les cloisons de sa vie.

Deuxième enjeu, un enjeu de sécurité. C'est une question d'architecture d'ensemble : plus vous centralisez, plus vous pouvez devenir une cible potentielle ; a contrario, si vous ne mettez pas tous vos oeufs dans le même panier, vous pouvez réduire le niveau de risques. Aucune architecture n'est condamnée par elle-même, mais plus on centralise, plus il faut développer des mesures de sécurité performantes. Dernier enjeu, celui de la disponibilité : si vous reposez sur un seul système qui tombe en rideau, les effets systémiques sont majeurs.

L'équilibre n'est pas évident à trouver. Henri Verdier a évoqué un dispositif de remarquable, FranceConnect, qui permet de ménager un équilibre entre toutes ces préoccupations et qui est encore en voie d'évolution. La mission confiée à Mme Valérie Peneau, inspectrice générale de l'administration, sur l'identité numérique, les travaux de la Dinsic, permettront de faire émerger des idées pour améliorer encore le compromis déjà trouvé.

Debut de section - Permalien
Yannick Girault, directeur du service « Cap numérique » à la direction générale des finances publiques (DGFiP)

Cap Numérique compte non pas 1 000 collaborateurs, mais 300, et nos crédits baissent très fortement. Ce contexte budgétaire contraint a affecté les ressources de notre système d'information, à tel point même que la part de ce que nous confions au secteur privé en assistance à maîtrise d'ouvrage ou assistance à maîtrise d'oeuvre est réduite à la portion congrue. Il y a trois ans, nous avions même décidé de supprimer toute assistance à maîtrise d'ouvrage, ce qui est une difficulté puisqu'il y a des attentes pour que nous allions au-delà de notre système d'information. Le fait de passer en langage Java dans l'application informatique de gestion de la TVA MEDOC (« mécanisation des données comptables ») représente des travaux considérables, mais qui ne changent pas l'architecture globale de MEDOC, qui a plus de quarante ans. Nous avons aujourd'hui de grosses applications maîtresses qui gèrent des millions de données en flux tendu, et dans le même temps il nous a été demandé d'avoir un système d'information qui soit de plus en plus agile. Il y a effectivement une tension dans l'engagement de nos crédits entre ce qui est la part du futur et de l'investissement et ce qui est la part de la maintenance.

Dans le même temps, nous essayons de conserver une certaine agilité. On évoquait tout à l'heure la nouvelle solution de paiement en ligne PayFip. Nous sommes porteurs de la vision de la dématérialisation complète du bulletin de paie et des éléments afférents aux pensionnés de l'État, à l'horizon 2020. Nous avons ouvert un espace numérique sécurisé de l'agent public en mars 2017 avec nos propres moyens. Aujourd'hui, 90 % des timbres fiscaux pour les passeports sont délivrés par la voie dématérialisée, au choix d'ailleurs de l'usager.

Le contexte budgétaire contraint nécessite de faire des choix, mais nous préservons notre capacité à aller de l'avant.

Effectivement, l'« APIsation » des données est un enjeu d'avenir. À la suite des annonces faites par le Premier ministre au sujet des fonds pour la transition numérique, et donc pour la transformation des administrations publiques, la DGFiP sera au rendez-vous. Elle a élaboré un certain nombre de projets qui rejoignent, par exemple, les domaines du contrôle fiscal. Au-delà des premiers travaux qui ont été conduits, au-delà de la question de savoir si nous avons les bonnes compétences en interne ou si nous devons recruter davantage de data scientists, nous ménageons une capacité de consolider l'existant.

Puisque le Sénat n'est pas insensible aux collectivités territoriales, je terminerai par ce dernier point. En janvier 2017, la ville de Lyon, sur son site internet, a offert aux usagers de ses services locaux tarifés la possibilité de rejoindre la communauté d'identifiants FranceConnect. La ville, sous réserve de l'accord de l'usager, récupérait dans l'instant les données précisément identifiées, ce qui lui permettait de mener une analyse en ligne de la situation et de donner très rapidement une réponse à l'usager. C'est le projet en cours PALYMA, pour les villes de Paris, Lyon, Marseille.

Nous avons été contactés par les villes de Cahors, de Strasbourg ; nous le serons peut-être par celle du Havre. L'enjeu, pour les collectivités locales, et pour leur bénéfice, c'est de mieux travailler avec nous. Cela vaut également pour la dématérialisation de la facturation.