Intervention de Mounir Mahjoubi

Réunion du 21 mars 2018 à 14h30
Protection des données personnelles — Article 14

Mounir Mahjoubi :

En préambule, le Gouvernement tient à souligner la convergence de vues sur le fond avec Mme la rapporteur, qui a écrit dans son rapport que l’« on ne saurait admettre que l’administration se défausse de ses responsabilités sur la machine, en jouant de la complexité technique et de la réputation d’infaillibilité des automates pour masquer ses propres choix ».

Je souscris tout à fait à cette analyse : c’est bien cela, en définitive, qui fait du tort à la dématérialisation et à la modernisation de nos modes d’action et qui les caricature.

Malheureusement, cette convergence, visible dans le rapport, semble s’être perdue dans le texte finalement adopté par la commission des lois, qui nous paraît obscurcir et limiter considérablement le champ des décisions pouvant être prises sur le fondement d’un traitement algorithmique.

C’est pourquoi le présent amendement tend à rétablir globalement le texte dans sa version issue de l’Assemblée nationale. L’équilibre qui avait été trouvé visait à permettre le recours à des décisions administratives prises sur le fondement d’un traitement algorithmique, tout en offrant les garanties nécessaires à la sauvegarde des droits et libertés, ainsi que des intérêts légitimes des usagers concernés.

Pour cela, il importe que figurent explicitement dans le texte de la loi Informatique et libertés les trois garanties de transparence, d’intervention humaine et de maîtrise.

En ce qui concerne la transparence, d’abord, l’usager, lorsqu’une décision est prise sur le fondement d’un traitement algorithmique, en est informé systématiquement. Il peut demander des informations supplémentaires très détaillées.

L’intervention humaine, ensuite, est assurée à travers le droit de recours, déjà ouvert aujourd’hui.

Enfin, la garantie de maîtrise du traitement doit être explicitée ; la CNIL y a particulièrement insisté dans son avis.

Le lien entre la maîtrise et la transparence à travers l’explicitation du traitement est important pour l’économie globale du dispositif.

À notre sens, l’obligation de maîtrise constitue une intervention humaine a priori, dans le cadre de l’élaboration du traitement algorithmique lui-même. C’est la garantie que propose le Gouvernement contre le risque lié à l’essor de l’intelligence artificielle, des algorithmes dits « auto-apprenants » et des traitements dits « de boîte noire ».

Le Gouvernement vous propose d’affirmer ces garanties, selon lui suffisantes, plutôt que de restreindre drastiquement le champ d’application de ces usages.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion