Intervention de Didier Houssin

Office parlementaire d'évaluation des choix scientifiques et technologiques — Réunion du 10 mars 2015 : 1ère réunion
Présentation du rapport d'activité du haut conseil de l'évaluation de la recherche et de l'enseignement supérieur hceres par son président m. didier houssin

Didier Houssin, président du Haut Conseil de l'évaluation de la recherche et de l'enseignement supérieur :

Merci monsieur le premier vice-président ; messieurs les sénateurs, mesdames et messieurs, vous avez souhaité m'entendre suite à l'envoi du rapport 2014 d'activité de l'AERES qui sera le dernier rapport d'activité de l'AERES. Je vais rappeler très brièvement les missions du Haut Conseil que je préside actuellement, puis revenir sur les activités de 2014, mais j'essaierai surtout de développer un certain nombre de réflexions suite au remplacement de l'AERES par le Haut Conseil de l'évaluation de la recherche et de l'enseignement supérieur.

Je rappelle que l'Agence d'évaluation de la recherche et de l'enseignement supérieur avait pour mission d'évaluer l'ensemble des établissements d'enseignement supérieur et de recherche, donc les universités, les grandes écoles et les organismes de recherche en France, mais aussi l'ensemble des activités de recherche c'est-à-dire les unités de recherche (il y en a à peu près trois mille en France), et puis l'ensemble des programmes d'enseignement supérieur : licences, licences professionnelles, masters, doctorats ; il y en a plusieurs milliers en France. Enfin, l'Agence menait également des actions à l'étranger.

Cette action d'évaluation est menée en coordination étroite avec le ministère puisque, derrière le travail d'évaluation que nous faisons, un contrat est établi entre le ministère et les universités, les écoles ou les organismes. Ces missions s'organisent par vagues : une fois tous les cinq ans, on procède à l'évaluation. Le découpage se fait par région.

La loi de juillet 2013 a remplacé l'AERES par un Haut Conseil de l'évaluation de la recherche et de l'enseignement supérieur. Je voudrais préciser que le statut est le même. C'est une autorité administrative indépendante. Le périmètre des missions est à peu près le même : il s'agit là encore d'évaluer les établissements d'enseignement supérieur, les organismes de recherche, les activités de recherche des unités et les programmes de formation.

Sans revenir sur le détail des activités de 2014, que vous avez pu lire dans le rapport d'activité, je rappellerai simplement qu'au cours de l'année 2014 l'AERES a adapté ses processus d'évaluation afin de tenir compte de la nouvelle loi, et aussi en anticipation de dispositions réglementaires que nous a annoncées le ministère. En 2014, elle a donc procédé à l'évaluation de tous les établissements de la vague E, c'est-à-dire 64 établissements, dont le Commissariat à l'énergie atomique, 586 unités de recherche, et plus d'un millier de programmes de formation, et elle a préparé la transition vers le Haut Conseil ; celle-ci s'est effectuée en douceur.

Comme vous l'avez souhaité, je vais plutôt faire le point sur la situation actuelle du Haut Conseil au regard des analyses qui avaient été formulées à propos de l'AERES avant l'adoption de la loi de 2013 et notamment lors de l'audition que vous m'aviez accordée le 21 novembre 2012, il y a un peu plus de deux ans. Je ferai également quelques réflexions au terme de quatre ans d'activité de l'AERES, puisqu'il s'agit de son dernier rapport.

D'abord, concernant les leçons qui ont pu être tirées à la suite des critiques qui avaient été formulées vis-à-vis de l'AERES, principalement concernant l'évaluation des unités de recherche, je vous avais indiqué, lors de mon audition en 2012, les réponses que l'AERES avait déjà apportées ou pouvait apporter à ces critiques, et celles qu'elle ne pensait pas souhaitable d'apporter.

La première critique concernait la lourdeur du dossier. Cette critique était justifiée et une réponse a été apportée dès le début de 2012 ; nous n'entendons plus cette critique. Il est vrai que nous avons considérablement simplifié le dossier d'évaluation.

Du point de vue de la transparence, il avait été souhaité - et c'était également justifié - que la signature du président du comité d'évaluation figure sur les rapports. Aujourd'hui, sur les rapports d'évaluation, il y a la signature du président du comité qui est garant du contenu de l'évaluation, en plus de ma signature, en tant que président du HCERES, garant de la méthode et du respect des principes qui gouvernent l'évaluation.

La troisième critique qui était faite tenait à l'articulation entre l'évaluation des unités de recherche et l'évaluation individuelle des chercheurs. À la fin de l'année 2012, les instances nationales (CoNRS, CNU) ne souhaitaient plus communiquer avec l'AERES. Il me semble que le dialogue est susceptible d'être renoué ; je reçois en particulier la semaine prochaine le syndicat CGT des personnels venant en appui de la recherche sur la question du rôle des ingénieurs techniciens administratifs dans le cadre de l'évaluation.

L'évaluation des projets des unités de recherche était également l'objet de critiques. Le référentiel mis en place en 2012 a apporté une réponse, et cette partie de l'évaluation semble poser moins de problèmes aujourd'hui.

Enfin, une demande importante avait été formulée : le souhait que l'AERES n'évalue plus directement, mais valide des procédures d'évaluation conduites par d'autres instances. Cela nous apparaissait compliqué, mais nous n'étions pas contre ; la loi a confirmé et installé nettement cette disposition. Je voudrais simplement signaler que, depuis la mise en place de la loi il y a dix-huit mois, cette demande de recours à une procédure de validation d'une évaluation conduite par d'autres instances n'a été faite par aucune entité. Il n'est pas impossible que cette demande soit formulée à l'avenir, mais cela n'a pas encore été fait.

Le dernier point, qui était épineux, était la question des élus. Un certain nombre de syndicats demandaient que les experts puissent être désignés sur la base de l'élection sur liste syndicale. L'AERES était opposée à cette idée essentiellement en raison du risque concernant la reconnaissance européenne qui fonde la désignation des experts sur la compétence et non pas sur une élection. Heureusement, dans le décret, le Gouvernement a retenu que le Haut Conseil désignait les experts en priorité sur des critères de compétence.

Je voudrais maintenant vous proposer quatre réflexions sur l'évaluation qui sont le fruit de l'expérience de l'évaluation de la recherche et de l'enseignement supérieur depuis quatre ans.

La première, c'est que l'évaluation conduite par l'AERES, puis par le Haut Conseil, est un facteur de progrès de la qualité de l'enseignement supérieur et de la recherche. C'est difficile à objectiver par des données chiffrées, puisque nous sommes dans des démarches essentiellement qualitatives, mais le constat est patent que l'évaluation mise en oeuvre par l'AERES, puis le Haut Conseil, a permis le développement de la culture de l'évaluation au sein des établissements d'enseignement supérieur et de recherche et des progrès dans leur autonomie. La qualité des rapports d'auto-évaluation s'est beaucoup améliorée, celle des rapports d'évaluation externes aussi. Les jugements portés par les responsables d'entités évaluées sur la qualité et les apports des évaluations sont beaucoup plus souvent favorables qu'ils ne l'étaient il y a trois ou quatre ans.

Au-delà du développement de la culture de l'évaluation au sein des établissements, de l'éclairage qu'elle fournit aux décideurs et de l'information qu'elle apporte au public, l'évaluation par l'AERES, puis le Haut Conseil, a eu un effet de levier pour favoriser le rapprochement, voulu par la loi, des établissements, développer leur autonomie, et réduire la parcellisation des formations et des activités de recherche. L'évaluation est utile pour améliorer la qualité du système d'enseignement supérieur et de recherche et pour le faire évoluer, même si c'est difficile à objectiver de façon quantifiée.

La deuxième remarque importante, c'est que l'évaluation semble aujourd'hui mieux acceptée par la communauté scientifique. L'accueil fait aujourd'hui au Haut Conseil par les équipes sur le terrain en est le témoin. On le voit aussi dans les attentes exprimées vis-à-vis du Haut Conseil lors des réunions de lancement que nous venons de tenir pour la vague B, début 2015, en Normandie, en Auvergne, en Bourgogne, en Franche-Comté, en Bretagne et en Pays de Loire. Est-ce que c'est parce que les conséquences de l'évaluation paraissent moins directes, du fait de l'abandon de la notation et du passage à l'accréditation pour les formations ? Je ne le crois pas, même s'il faut bien sûr envisager cette hypothèse.

Le remplacement de l'AERES par le Haut Conseil n'était sans doute pas indispensable pour que ces améliorations soient apportées au processus d'évaluation, mais il semble bien que le sacrifice d'un bouc émissaire ait eu des vertus. Des voix s'étaient élevées pour condamner l'évaluation comme impossible (certains psychanalystes), comme un avatar insupportable du néolibéralisme, comme un crime de lèse-majesté vis-à-vis du CNRS ou de l'INSERM, ou encore comme une entrave au pouvoir syndical ; il me semble que depuis quelques mois, ces voix se sont affaiblies. Peut-être est-ce de la compassion (« on ne tire pas sur une ambulance »), ou peut-être ces voix attendent-elles que la transition vers le Haut Conseil soit complète pour s'exprimer à nouveau.

En tout cas, un point qui me paraît important est que l'impartialité des évaluations est reconnue, ce qui est le seul intérêt véritable du statut d'autorité administrative indépendante ; le Parlement a eu la sagesse de préserver ce statut pour le Haut Conseil.

Une autre hypothèse qu'il faut malgré tout envisager est que cette meilleure acceptation apparente soit en réalité liée à une usure de l'évaluation, devenue moins tranchante après huit ans.

Ma troisième réflexion, qui découle de cette hypothèse, est que l'évaluation doit rester en constante évolution, non pas dans ses principes éthiques mais dans sa méthode et dans ses objets. Cette évolution est nécessaire pour éviter les phénomènes d'adaptation qui sont très rapides, et pour mieux répondre à l'évolution des attentes et à la diversification des activités d'enseignement supérieur et de recherche. Elle doit cependant se faire sans céder sur la nécessaire égalité de traitement entre les entités évaluées et en étant conscient que certains acteurs de l'enseignement supérieur et de la recherche cherchent en permanence, consciemment ou non, à prendre la main sur le processus d'évaluation - si vous êtes intéressés, je pourrais vous donner quelques exemples.

L'évolution des méthodes sera facilitée par l'intégration de l'Observatoire des sciences et techniques au sein du Haut Conseil. Cette décision, prise par décret, permettra de mieux éclairer le jugement des experts en mettant à leur disposition des données quantitatives. Elle facilitera également le parangonnage que certains établissements souhaitent dès à présent : nous avons été interrogés récemment par deux universités qui demandent qu'on les aide à se comparer avec d'autres universités européennes. Cela permettra aussi de renforcer la production de données à partir des rapports d'évaluation. Il faudra cependant être attentif aux craintes des responsables d'entités évaluées : l'évaluation qualitative et collégiale par les pairs, oui, le tout-bibliométrie, non !

L'abandon de la notation est récent. Il a des avantages et des inconvénients. Il faudra sûrement, dans un an ou deux, tirer les leçons de cet abandon afin de vérifier que les inconvénients ne l'emportent pas largement sur les avantages.

L'évaluation doit aussi évoluer dans ses objets ; en particulier, les regroupements s'opérant au niveau territorial invitent à ce que l'évaluation des politiques de site s'accompagne d'une approche à grain plus large de l'évaluation des formations et des entités de recherche au niveau d'un site. Des signes encourageants apparaissent sous cet angle, le décloisonnement est en cours, et nous voyons d'un oeil extrêmement favorable les efforts de regroupement qui se font au niveau des formations mais aussi des activités de recherche sur les différents sites avec lesquels nous sommes en contact en vue de l'évaluation.

Le quatrième point que je voudrais évoquer, c'est la question du modèle économique de l'évaluation : il est à clarifier. Avec un budget en légère baisse venant du ministère de l'enseignement supérieur et de la recherche (MESR), le Haut Conseil est en difficulté car le nombre d'entités à évaluer augmente sans cesse, et pourrait encore augmenter si l'on répondait aux sollicitations venant du secteur privé. Cette difficulté s'est récemment aggravée : en effet, la demande récente, formulée par les universités, de remboursement à un niveau beaucoup plus élevé pour les enseignants-chercheurs mis à disposition dans des fonctions de délégué scientifique au sein du Haut Conseil est préoccupante pour la capacité d'action du Haut Conseil à court terme.

Pour autant, il ne semble souhaitable, ni que l'évaluation devienne payante pour les entités évaluées (car cela risque de créer des situations de conflits d'intérêts difficiles à gérer), ni de revenir à des évaluations sur dossier seulement. La contribution d'autres ministères serait légitime car le Haut Conseil a un rôle de plus en plus interministériel, mais le point clef est que les compensations pour la mise à disposition d'enseignants-chercheurs ou de chercheurs restent raisonnables, c'est-à-dire en cohérence avec le budget alloué au Haut Conseil. Nous avons eu des contacts récents avec la CPU, et j'espère que nous aurons une réponse compréhensive de ce point de vue.

Avant de conclure, je voudrais souligner deux points d'attention qui se dégagent de mon expérience après quatre années passées à la tête de cette institution. En effet, au-delà de sa seule fonction - et ce n'est pas à l'OPECST que je vais le dire - l'évaluation offre un point de vue d'observation à la fois large et d'une grande proximité sur l'ensemble de l'enseignement supérieur et de la recherche en France.

Le premier point d'attention porte sur les personnels. Plusieurs années d'observation de la qualité des activités de formation et de recherche mènent aux interrogations suivantes : alors qu'il faut simplifier et décloisonner, que la qualité du lien formation-recherche apparaît essentielle, a-t-on besoin pendant encore longtemps en France d'un corps d'enseignants-chercheurs et d'un corps de chercheurs ? Ne pourrait-on se satisfaire d'un seul corps d'enseignants-chercheurs, ces enseignants-chercheurs pouvant évoluer au cours de leur vie professionnelle entre les fonctions de formation, de recherche, d'expertise, d'administration, de valorisation et de diffusion des connaissances ? Cette évolution s'appuierait alors utilement sur les vertus d'une évaluation individuelle de qualité. En effet, si l'évaluation des structures est un facteur de progrès, ne devrait-il pas en être de même pour l'évaluation des personnels ?

Lors de l'enquête que l'AERES avait faite en 2011 sur les procédures d'évaluation des chercheurs et des enseignants-chercheurs mises en oeuvre en France, travail qu'elle avait dû ensuite abandonner en raison des difficultés rencontrées, quelques rares institutions avaient répondu. Très rares étaient celles qui semblaient avoir des procédures d'évaluation individuelle de qualité, en termes d'objectifs, de rapport avec les missions, de critères, de déontologie et de transparence - je citerai l'INRA, l'IRSTEA.

Le second point d'attention porte sur l'organisation de notre système d'enseignement supérieur et de recherche. Une belle dynamique de rassemblement est en cours au niveau territorial entre universités, ainsi qu'entre universités et écoles. Elle est la réaction positive au choc de Shanghai de 2003, ce regard venu de loin sur la France qui, comme celui de Micromégas venu de Sirius sur les humains, avait jugé bien peu visibles les universités et écoles françaises.

L'évaluation des organismes de recherche spécialisés révèle aussi leur dynamisme (CEA, INRA, INRIA, etc.), leur portage d'enjeux sociéto-économiques, et une distinction de plus en plus fine entre leurs activités de recherche souvent finalisée, d'expertise en appui des décisions publiques et d'innovation en interaction souvent très forte avec le secteur économique.

En revanche, comment ne pas être perplexe vis-à-vis des deux grands organismes nationaux généralistes, le CNRS et l'INSERM ? Sur près de trois mille unités de recherche en France, environ quinze cents relèvent d'universités ou d'écoles et quinze cents sont mixtes, c'est-à-dire relèvent à la fois d'une université ou d'une école et d'un organisme de recherche souvent généraliste. Un tiers des unités mixtes ont plus de deux tutelles. Alors que la recherche se centre de plus en plus sur les établissements d'enseignement supérieur, ou s'agissant de la santé sur la base hospitalo-universitaire, et qu'il faut encore renforcer l'autonomie des établissements d'enseignement supérieur et de recherche, combien de temps devra-t-on encore en France nourrir le complexe dispositif de mixité des unités de recherche ? Ne serait-il pas temps de préparer une reconfiguration de nos deux grands organismes de recherche généralistes compte tenu des progrès en cours au niveau territorial ? Le particularisme compliqué propre à la France est-il longtemps soutenable ?

Pour conclure, je terminerai sur une note européenne positive. Dans le rapport d'activité 2014 de l'AERES que vous avez reçu, la question restait ouverte : le Haut Conseil allait-il être reconnu au niveau européen ? La réponse nous est parvenue il y a quelques jours : l'association européenne pour l'assurance qualité dans l'enseignement supérieur et la recherche (European Association for Quality Assurance in Higher Education - ENQA) et, surtout, le registre des agences d'assurance qualité attaché à la Commission (European Quality Assurance Register for Higher Education - EQAR) ont tous deux décidé de transférer au Haut Conseil la reconnaissance européenne que l'AERES avait acquise de haute lutte après évaluation en 2011. L'HCERES pourra donc, dès l'installation de son conseil dans quelques semaines, s'atteler à la préparation de son évaluation qui aura lieu en 2016.

Cette reconnaissance est capitale pour l'image de qualité de l'enseignement supérieur et la recherche français sur le plan européen et international ; elle a conduit en particulier à ce que l'AERES soit sollicitée de façon croissante pour évaluer des formations, des établissements d'enseignement supérieur à l'étranger et même une politique nationale de recherche, celle de l'Arabie Saoudite, dans le cadre d'un appel d'offre international ; ainsi que pour accompagner la création d'agences d'évaluation dans d'autres pays.

Le champ des missions d'évaluation retenu en France est essentiel ; sa largeur fait qu'il est pleinement dans l'esprit de l'université moderne qui a été inventée en Europe ; il met sous la même égide l'évaluation de la qualité de l'enseignement supérieur et celle de la recherche. Si l'on croit à l'importance du lien formation-recherche, cette largeur de champ offre un avantage compétitif à notre pays en termes d'évaluation de la qualité dans le champ de l'enseignement supérieur et de la recherche. Cela a d'ailleurs été imité récemment en Italie avec la création de l'agence italienne d'évaluation ANVUR avec laquelle le Haut Conseil a signé à l'Élysée, il y a quelques jours, un accord de coopération.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion