12 interventions trouvées.
...rriers. On pourrait également rappeler la révolte des canuts contre les machines à tondre les draps, en 1819. Pour autant, il ne s'agit pas du tout de cela ici. Jusqu'à présent, il existait une relation sociale du travail entre employeurs et salariés ; désormais, un nouvel élément émerge : la plateforme, considérée comme un monstre noir, neutre et complètement technique, qui fonctionne avec des algorithmes et donne l'illusion que son travail ne consiste qu'à mettre en relation des clients et des auto-entrepreneurs. Il faut bien comprendre que cette technique algorithmique emporte la négation de la relation sociale du travail et in fine la négation de ce qu'est l'entreprise. Avec les plateformes, plus d'entreprise et plus non plus d'entrepreneurs ! Ce qui est en jeu est, à mon sens, fonda...
Merci pour la qualité de vos réponses. La loi pour une République numérique a tenté, dès 2016, de réguler les algorithmes, avec des outils nouveaux - en particulier l'article L. 111-7 du code de la consommation. Or, ces outils sont très difficiles à utiliser dès lors que le régulateur, l'Arcom, n'accède pas à l'algorithme, elle essaye de déduire de l'utilisation des plateformes le fonctionnement des algorithmes. Quelle est donc la capacité des États à contraindre les plateformes, qui sont partout et nulle part, à r...
Permettez-moi de revenir un instant sur vos propos, madame la ministre. Ce ne sont pas les algorithmes qui collectent l’information. Cette dernière est collectée de façon extrêmement large, puis traitée par les algorithmes, qui en extraient les signaux faibles intéressant les services de renseignement. Pour que ces algorithmes fonctionnent et puissent capter des signaux statistiquement faibles, la collecte doit être la plus large possible ; c’est une évidence. Il faut un tamis à petites mailles ...
...e, ou comme celle du Défenseur des droits, pour rappeler certains principes fondamentaux. Même si le ministère communique peu, la pratique montre que le traitement des données se fait en deux temps. Il y a d'abord un pré-classement, qui s'apparente à du profilage au sens du RGPD, et c'est ensuite que vient l'intervention humaine, mais celle-ci ne peut pas concerner la totalité des dossiers. Les algorithmes locaux peuvent donc écarter à eux seuls certains dossiers. Il faudrait avoir accès aux traitements mis en place par les établissements, mais c'est à peu près impossible. Les établissements d'enseignement supérieur ont-ils réalisé les études d'impact sur la protection des données ? Que révèlent ces études ? Il y des logiciels de traitement de l'information liés à l'éducation. Vous parlez de ter...
J'ajouterai la Commission européenne, que j'avais saisie sur cette question, à la liste des institutions ayant demandé la publication des algorithmes locaux. Il ne manque que l'ONU : laissez-moi un peu de temps et nous y arriverons. (Sourires.) M. Dardel, qui est le seul à avoir présenté la totalité de ces algorithmes, nous a dit très clairement que cette transparence n'influençait en rien la façon dont les étudiants s'inscrivaient dans sa filière. Au contraire, il pourrait s'agir d'un élément d'attractivité, les étudiants allant plus facile...
...jourd'hui, les documents mis en ligne par le ministère de l'enseignement supérieur et de la recherche montrent très bien que dans le traitement des dossiers, il y a deux phases distinctes : une phase « de pré-traitement » où il s'agit de définir des coefficients qui vont permettre de donner une note aux dossiers. Selon ce que l'on comprend du RGPD, il s'agit sans doute d'une forme de profilage, d'algorithmes automatiques sans intervention humaine, à partir de coefficient définis par les enseignants chercheurs. Dans un deuxième temps seulement, il y a une intervention humaine. Si le ministère distingue lui-même une phase de pré-traitement et ensuite une phase d'analyse individuel - ou pas - des dossiers, il serait légitime que nous ayons la possibilité d'avoir des informations aujourd'hui refusées su...
Nous sommes tous des sénatrices et des sénateurs de la République française, décidés à faire avancer les choses. Ne doutez pas de ma loyauté républicaine, madame la ministre. M. Mahjoubi a tenu à nous rassurer sur les algorithmes locaux, mais l'université de Pau et des pays de l'Adour m'a communiqué le sien, avec le nombre de points associés aux différents éléments contenus dans les dossiers des lycéens : le brevet d'aptitude aux fonctions d'animateur (BAFA), par exemple, contrairement aux assurances que vous me donniez en séance en janvier dernier, en rapporte quinze ! Si l'université de Pau publie son algorithme, pourq...
Les chefs d'établissements nous ont indiqué qu'ils pourraient recevoir jusqu'à 50 000 dossiers de candidature. La non-hiérarchisation des voeux va, en effet, conduire toutes les filières à être en tension. À l'aide d'algorithmes, un tiers de ces dossiers sera retenu, un tiers mis en discussion et un tiers rejeté. Le Gouvernement cherche à se protéger dans le cadre d'un contentieux sur les dossiers refusés de ce tri grossier de première analyse.
La non-hiérarchisation des vœux et la masse des demandes qui seront formulées via Parcoursup – environ 8 millions – obligeront les établissements à traiter d’énormes quantités de dossiers – entre 40 000 et 50 000 pour une université de taille moyenne. Il est naturellement impossible de le faire de façon manuelle et il faudra donc recourir à des algorithmes. Or il se pourrait que cela aboutisse à ouvrir aux universités une possibilité légale de procéder à un tirage au sort, alors même que la loi est censée l’interdire ! C’est pourquoi nous demandons avec la plus grande fermeté que les algorithmes utilisés par les universités soient rendus publics, afin d’écarter toute suspicion.
Je ne comprends pas comment pourraient coexister le recours à un algorithme pour sélectionner ou rejeter les dossiers et une intervention humaine dans le traitement de ceux-ci. Il y a là une contradiction : si l’on utilise un algorithme, c’est précisément pour éviter une intervention humaine, au rebours de l’avis de la CNIL !
Il me semble que Mme la ministre vient de donner par avance un avis favorable à cet amendement, en indiquant que les algorithmes de manière générale, notamment ceux utilisés par les universités, seront rendus publics. C’est en tout cas ce que j’ai compris ! Il s’agit pour nous d’un amendement de repli, car nous ne sommes pas très favorables à l’utilisation d’algorithmes. Dès lors qu’il y est recouru, la moindre des choses est qu’ils soient rendus publics, à l’instar de l’algorithme national.
Non, madame la ministre, ce n’est pas possible ! Vous venez de nous dire que les algorithmes – au pluriel, donc pas seulement l’algorithme national – seront publiés : comment pouvez-vous maintenant donner un avis défavorable sur cet amendement ? Je ne comprends pas votre position ! Même à cette heure un peu tardive, notre discussion doit reposer sur des bases rationnelles.