Intervention de Salwa Toko

Mission d'information Uberisation — Réunion du 6 juillet 2021 à 9h20
Audition de Mme Salwa Toko présidente de becomtech ancienne présidente du conseil national du numérique et auteure du rapport « travailler à l'ère des plateformes. mise à jour requise »

Salwa Toko, présidente de Becomtech, ancienne présidente du Conseil national du numérique :

Il est très difficile de segmenter ces sujets, car tout tourne autour du statut de ces travailleurs. On peut partir du principe que ces travailleurs, quelle que soit la plateforme sur laquelle ils exercent, devraient avoir la possibilité de récupérer l'ensemble des données qui les concernent et qui auront été générées tout au long de cette activité exercée via la plateforme. Ce n'est pas le cas aujourd'hui. Des plateformes comme Uber ne donnent pas accès à l'ensemble des données générées par le travailleur, notamment l'historique des trajets pour un chauffeur dont la voiture lui appartient, l'historique des connexions... Ces données ne sont jamais remises aux travailleurs pour une simple raison liée au fait que s'ils avaient connaissance de ces données, ils pourraient établir cette subordination aux algorithmes. Certains ont noté que le fait de s'être déconnecté un jour ou deux, ils étaient moins sollicités pour les missions suivantes. L'algorithme est fait de telle sorte qu'il récompense ceux qui travaillent beaucoup et « punit » ceux qui travaillent moins, alors qu'ils sont censés être indépendants et pouvoir choisir leur plage horaire. Il faudrait une obligation pour les plateformes de donner accès à l'ensemble des données et qu'elles appartiennent au travailleur et non pas à la plateforme. La plateforme met à disposition un outil qui leur permet d'exercer un service mais ne doit pas garder ces données qu'elle génère. Je ne pense pas qu'elles puissent être qualifiées de données personnelles. Mais il faut tout explorer !

L'idée n'est absolument pas de « tuer » ces entreprises. Un service est rendu, il y a des clients qui bénéficient de ces services et cela génère un revenu pour d'autres. Il ne faut pas « tuer » cette activité économique naissante. Comment obliger que la rédaction de ces algorithmes ne soit pas systématiquement effectuée au détriment de ceux qui l'utilisent pour travailler ? C'est là-dessus qu'il faudrait légiférer. Cela pose également la question des contenus haineux et des contenus terroristes. Comment accéder à ces algorithmes, pas compréhensibles pour tous, pour pouvoir dire à quel moment un algorithme peut avoir des conséquences néfastes pour l'activité humaine quelle qu'elle soit. Il faudrait avoir un cahier des charges de sécurité comme on en a pour la construction d'un immeuble ou d'un véhicule pour que ne soit plus mis sur le marché des algorithmes qui asservissent automatiquement l'utilisateur travailleur. C'est pour moi le sujet sur lequel il faut travailler. Nous ne sommes pas sur une question uniquement de droit du travail, sur l'exercice d'une activité, on est dans un bouleversement dans la manière de travailler. Soit on considère que ces travailleurs sont les travailleurs miniers industriels du XIXème siècle qui ont acquis des droits sociaux et on mène une vraie révolution pour que le travail ne soit plus aliénant, soit nous aurons des dégâts les années à venir, voire des accélérations de l'asservissement lié à la question algorithmique managériale. Nous avons besoin d'un travail législatif avec l'aide d'ingénieurs pour comprendre comment fonctionnent ces algorithmes et faire écrire aux développeurs des algorithmes plus respectueux du droit humain. Il faut ensuite voir comment cette écriture peut correspondre avec un business model. Aujourd'hui, le business model de ces plateformes est de payer le moins possible les travailleurs qui utilisent ces plateformes et de répondre à des demandes croissantes. Sur d'autres types de plateformes, type Google ou Facebook, on reste sur un business model très négatif pour l'activité humaine de façon générale. Se pencher sur l'écriture des algorithmes et voir la possibilité de créer un modèle de sécurité algorithmique pour protéger l'activité humaine, sera notre prochain défi. Il ne faut pas avoir peur de mettre au défi les ingénieurs et les développeurs. Ils ne doivent pas être les seuls décideurs et détenteurs du savoir, car eux-mêmes sont également soumis à la pression de ceux qui les paient.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion