Intervention de Didier Houssin

Réunion du 10 mars 2015 à 17h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Didier Houssin, président du Haut Conseil de l'évaluation de la recherche et de l'enseignement supérieur :

– Monsieur le Président, ces questions sont quasiment toutes nouvelles, je vais y répondre point par point.

La différence entre les unités interdisciplinaires et multidisciplinaires concerne les activités de recherche. La pluridisciplinarité est une simple juxtaposition de perspectives disciplinaires, les disciplines en interaction gardent leur identité, l'une d'entre elles se trouve en général en situation de pilotage et utilise la méthodologie ou les instruments d'une ou plusieurs autres disciplines pour traiter une question. L'interdisciplinarité va beaucoup plus loin, c'est la coopération de plusieurs disciplines autour d'un projet commun ; des perspectives de recherche sont ouvertes pour toutes les disciplines, qui ne sont plus cantonnées à des situations d'application.

Ce sont deux situations de recherche très différentes, et nous avons essayé, compte tenu des particularités de l'interdisciplinarité, de mettre en place un dispositif d'évaluation spécifique pour les unités interdisciplinaires. Ce dispositif est piloté par des délégués scientifiques en charge de l'interdisciplinarité ; nous en avons un par grand domaine (sciences humaines et sociales, sciences de la vie et de l'environnement, science et technologie), et il y a toute une mécanique et un référentiel propre à l'unité interdisciplinaire.

Votre question suivante soulève une crainte que certaines unités se déclarent interdisciplinaires parce que leurs résultats disciplinaires seraient médiocres. L'interdisciplinarité serait un refuge pour la médiocrité. C'est vrai qu'il est difficile d'évaluer les bons projets interdisciplinaires, et cette difficulté pourrait conduire des équipes à se réfugier dans des domaines qu'elles qualifient d'interdisciplinaires afin de rendre l'évaluation plus souple.

Le Haut Conseil n'a pas ignoré cette possibilité, mais il a adopté un autre point de vue. L'ouverture d'une forme d'évaluation interdisciplinaire vise à éviter que les unités interdisciplinaires soient pénalisées par l'évaluation standard ; voilà ce qui nous paraissait être le risque le plus important. En effet, il faut avoir conscience d'un paradoxe : alors qu'on considère souvent que l'innovation scientifique se situe aux interfaces entre les disciplines, les unités qui occupent ce créneau peuvent être pénalisées par les préjugés académiques, et les préjugés qu'une communauté peut avoir de la « bonne » recherche dans sa discipline.

Notre sentiment est qu'une unité interdisciplinaire est fragile et risque d'être pénalisée, plutôt que l'hypothèse inverse, selon laquelle l'interdisciplinarité est un refuge pour la médiocrité. C'est la raison pour laquelle nous avons mis en place ce processus.

Vous évoquez 120 unités potentiellement interdisciplinaires qui s'étaient déclarées ; pourquoi est-ce que seules 24 ont été retenues ? La raison en est qu'au début de ce processus, qui avait alors un caractère expérimental, nous nous sommes limités à l'interdisciplinarité entre grands domaines. Nous n'avons pas voulu considérer l'interdisciplinarité physique-chimie, par exemple, puisque ces deux disciplines diffèrent peu. En revanche, des interdisciplinarités entre grands domaines, comme psychologie-physique, biologie-informatique : entre sciences humaines et sociales et sciences du vivant, ou entre sciences humaines et sociales et sciences et techniques, voilà qui nous a paru être des interdisciplinarités très lourdes en termes de portée, et c'est là que nous avons concentré notre travail dans une première phase.

Vu les retours des expériences, qui sont aujourd'hui très positifs, notre projet est d'étendre les possibilités d'éligibilité à l'évaluation interdisciplinaire à d'autres croisements que les croisements inter-domaines, en se portant sur des croisements intra-domaines.

Quant à l'indépendance des évaluateurs, celle-ci repose sur l'appréciation que les délégués scientifiques du Haut Conseil portent lors de la composition du comité. Nous recherchons bien sûr des évaluateurs compétents, mais aussi sans liens ni antagonismes avec l'entité qui va être évaluée.

On repère assez facilement les antagonismes, car les responsables de l'unité évaluée protestent : ils refusent naturellement d'être évalués par leur ennemi mortel ou leur concurrent direct. C'est donc assez facile de les éviter. Pour éviter les proximités, c'est plus difficile ; récemment, nous avons presque été piégés : après avoir retenu un évaluateur, nous n'avons découvert que très tardivement dans le processus qu'il était du jury de thèse de quasiment tous les élèves de l'unité de recherche. Il faut donc être extrêmement prudent. Un délégué scientifique expérimenté, avec une bonne connaissance du milieu, est capable d'identifier et de prévenir ces conflits d'intérêts.

Quant aux évaluateurs étrangers, ils ne sont pas indispensables pour l'évaluation individuelle de chaque formation. En revanche, leur présence est très importante pour les entités de recherche et les établissements.

Pour les entités de recherche, la proportion d'évaluateurs étrangers varie selon les disciplines, mais elle tourne autour de 20 %. Dans nos comités d'évaluation pour les unités de recherche, nous avons 20 % d'étrangers, presque toujours des européens, en raison du prix des billets d'avion. Cela dit, les européens représentent quand même cinq cents millions de personnes, on peut trouver des experts de qualité au niveau de l'espace européen. Cette proportion est un peu en-deçà des objectifs que nous nous étions fixés au début ; nous sommes obligés de limiter les déplacements pour des raisons de budget. De plus, les conditions de transport et d'hébergement que nous offrons sont quand même peu attractives pour des personnalités de haute portée.

Pour les établissements, la réduction des moyens de l'AERES, puis du Haut Conseil, a eu une conséquence : alors qu'en 2013 on avait essayé d'augmenter la proportion d'évaluateurs étrangers (nous étions à près de 25 %), nous avons dû, cette année, la réduire un peu, nous en sommes à 15 % d'évaluateurs étrangers en ce qui concerne les établissements.

En ce qui concerne les politiques de site, j'en ai un peu parlé tout à l'heure en réponse à une question de madame Gillot. Nous sommes totalement engagés dans l'évaluation des politiques de site. Nous essayons de nous adapter aux situations rencontrées, qui sont très diverses. Vous verrez sur le site Internet du Haut Conseil que le premier rapport de l'évaluation d'une politique de site a été publié, il concerne l'université Paris-Est ; le suivant va bientôt y figurer également, concernant la COMUE Grenoble-Alpes. Nous constatons actuellement une dynamique très intéressante au niveau territorial.

La notation des formations n'a jamais déclenché les mêmes problèmes que pour les unités de recherche, mais dans l'ensemble la suppression de la notation pour les formations est vécue plutôt comme une étape difficile par les experts et les évalués. Cette suppression a clairement affaibli le rôle de l'évaluation et du Haut Conseil dans sa perception par les évalués, et elle a pesé plutôt négativement sur l'implication des experts. À l'inverse, les rapports d'évaluation pourraient prendre un sens renforcé, c'est pourquoi je pense qu'il est un peu tôt pour porter un jugement sur l'impact de la disparition de la notation concernant les formations. Cela peut rendre les rapports d'évaluation plus explicites, en les focalisant sur des points d'attention utiles pour les établissements ; cette évolution peut donc se révéler positive.

La suppression de la notation multicritères pour les unités de recherche a rencontré au début l'incompréhension d'un certain nombre de présidents de comité, qui n'étaient pas d'accord pour réaliser les appréciations textuelles. Nous avons essuyé un certain nombre de refus lors de la première campagne de mise en place ; aujourd'hui, la situation évolue un petit peu plus favorablement. L'orientation du ministère de ne plus tenir compte de la notation dans le financement des universités a conduit à faire tomber la notation, puisque le principal demandeur qu'était le ministère a dit qu'il n'en avait plus besoin, ce qui a justifié a posteriori l'abandon de la notation. En revanche, certains présidents d'université disent être en difficulté pour porter des jugements sur les unités se trouvant dans leur périmètre. L'INRA nous a, au contraire, fait part récemment de sa satisfaction, l'abandon de la notation les forçant à lire les rapports d'évaluation. Je pense donc qu'il est un peu tôt pour porter un jugement ; il faudra revoir dans deux ou trois ans les résultats effectifs de cette suppression.

Aucun commentaire n'a encore été formulé sur cette intervention.

Inscription
ou
Connexion