26 interventions trouvées.
Ces trois amendements visent à renforcer les contrôles exercés sur les algorithmes. Or la CNCTR intervient d’ores et déjà : elle est informée de la mise en œuvre d’un algorithme et peut le contrôler à tout moment. Comme je l’ai dit tout à l’heure, elle peut même mettre fin à son utilisation. Prévoir une information systématique de cette autorité sans qu’elle puisse pour autant rendre un avis ne permettra pas de renforcer les contrôles. C’est la raison pour laquelle j’émets un...
Notre État de droit repose sur la garantie des droits fondamentaux. Le Conseil d’État et la Cnil doivent pouvoir contrôler le cadre réglementaire de la technique de l’algorithme appliquée aux ingérences étrangères. On ne peut pas étendre cette technique sans contrôle. C’est bien le rôle de l’autorité administrative indépendante de veiller à ce que l’informatique ne porte atteinte ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques. Par cet amendement, nous demandons de nouveau que soient instaurées des garanties suffisantes pour que...
La CNCTR dispose d’équipes de techniciens spécialisés qui vérifient sur place le fonctionnement des algorithmes. La Cnil, elle, ne fera qu’une vérification sur dossier. Le contrôle de la CNCTR est donc bien plus performant et approfondi que ne le serait celui de la Cnil, qui – je le redis – complexifierait et alourdirait les procédures de contrôle. À vouloir trop renforcer ce contrôle, on risque au contraire de l’affaiblir. La manière dont la CNCTR exerce aujourd’hui ses missions, en étant elle-même sou...
Un délai de deux ans pour expérimenter les algorithmes serait trop court. Le texte prévoit que l’expérimentation durera quatre ans ; à mi-étape, un rapport sera par ailleurs remis au Parlement. Avis défavorable.
Le texte ne comporte aucune information ou garantie sur les biais algorithmiques, qui constituent pourtant un enjeu majeur. Je vais prendre l’exemple, très explicite, du logiciel PredPol (Predictive Police), utilisé par la police dans plusieurs villes américaines. Son algorithme permet en principe d’orienter les interventions des forces de l’ordre. Or plus le logiciel se tourne vers un quartier, plus les forces de police s’y rendent, et plus l’algorithme l’y oriente. Si ces biais ont des conséquences très graves en matière de discriminations, ils en ont aussi en termes d’efficacité. En l’espèce, le recours aux algorithmes comme technique de renseignement pourrait souffr...
On le sait, il existe des biais algorithmiques : c’est la raison pour laquelle les algorithmes sont entraînés et testés. En ce qui concerne les algorithmes utilisés par les services de renseignement, c’est la CNCTR qui est chargée de les contrôler. Nous considérons que ce contrôle est suffisant et qu’il garantit un équilibre satisfaisant. Avis défavorable.