Amendement N° 12 (Rejeté)

Lutte contre les discriminations par la pratique de tests individuels et statistiques

Discuté en séance le 12 mars 2024
Avis de la Commission : Défavorable — Avis du Gouvernement : Favorable

Déposé le 11 mars 2024 par : M. Benarroche, Mme Mélanie Vogel, MM. Grégory Blanc, Dantec, Mme de Marco, MM. Dossus, Fernique, Gontard, Mme Guhl, MM. Jadot, Mellouli, Mmes Ollivier, Poncet Monge, M. Salmon, Mmes Senée, Souyris.

Photo de Guy Benarroche Photo de Mélanie Vogel Photo de Grégory BLANC Photo de Ronan Dantec Photo de Monique de Marco Photo de Thomas Dossus Photo de Jacques Fernique Photo de Guillaume Gontard 
Photo de Antoinette GUHL Photo de Yannick JADOT Photo de Akli MELLOULI Photo de Mathilde OLLIVIER Photo de Raymonde Poncet Monge Photo de Daniel Salmon Photo de Ghislaine SENÉE Photo de Anne SOUYRIS 

Texte de loi N° 20232024-399

Article 3 bis

Après l’alinéa 4

Insérer un paragraphe ainsi rédigé :

…. – L’article 225-2 du code pénal est complété par un alinéa ainsi rédigé :

« L’emploi d’un traitement algorithmique dont le fonctionnement a des effets discriminatoires au sens des articles 225-1 à 225-1-2 est puni de trois ans d’emprisonnement et de 45 000 euros d’amende dès lors que ces effets discriminatoires ont été révélés par un test de discrimination rendu public. »

Exposé Sommaire :

Le présent amendement du groupe Écologiste – Solidarité et Territoires vise à lutter contre les effets discriminatoires de certains algorithmes en réprimant le recours à des traitements algorithmiques dès lors qu’un test statistique rendu public a démontré qu’il était discriminatoire.

Force est de constater que le recours au traitement algorithmique, fondé sur l’intelligence artificielle ou non, peut discriminer certaines personnes. Entre autres, des banques de données biaisées peuvent être à l’origine de décisions discriminatoires, comme l’a illustré l’Agence des droits fondamentaux de l’Union européenne qui a rappelé que : « les images faciales utilisées pour développer des algorithmes dans le monde occidental surreprésentent souvent les hommes blancs, avec un nombre plus faible de femmes et/ou de personnes d’autres origines ethniques. En conséquence, les systèmes de reconnaissance faciale fonctionnent bien pour les hommes blancs, mais pas pour les femmes noires ».

Compte tenu des conséquences lourdes que ces discriminations ont pour les victimes, il est primordial de lutter contre l’emploi de ces algorithmes discriminatoires.

Si l’emploi d’un algorithme discriminatoire peut être involontaire puisque sa nature discriminatoire n’est pas forcément connue, il peut également être volontaire.

Cette dernière situation préjudiciable peut se produire notamment quand un test statistique comme ceux conduits par l’organe nouvellement créé grâce au présent texte, prouve que le traitement algorithmique est discriminatoire. Dans ces cas, le recours à l’algorithme serait décidé même si ses conséquences discriminatoires sont connues.

Afin de protéger les victimes, il est proposé d’ériger en infraction l’emploi d’un traitement algorithmique dès lors qu’un test statistique rendu public a révélé que son fonctionnement était discriminatoire.

Le présent texte gagnerait à mieux tenir compte de cette situation gravement préjudiciable.

Aucun commentaire n'a encore été formulé sur cet amendement.

Inscription
ou
Connexion