2005

Evaluation de la recherche

L'évaluation de la recherche s'impose peu à peu dans les hautes écoles. Couplée à l'évaluation de l'enseignement, elle s'intègre dans une série de mesures visant à améliorer la qualité de la recherche scientifique et à valoriser les points forts et les centres d'excellence des universités.

Signes des temps dominés par la mise en compétition des scientifiques et des institutions pour les uns, elle traduit, pour les autres, une volonté de transparence: lorsque de l'argent est investi dans un domaine, n'est-on pas en droit d'attendre un rapport sur les résultats obtenus? L'évaluation de la recherche répond également à un besoin interne. Faire le point, mesurer ses forces et ses faiblesses constituent, ici comme ailleurs, les premiers pas en vue de s'améliorer.

Le principal reproche adressé à l'évaluation, telle qu'elle est pratiquée dans la plupart des hautes écoles, concerne la méthode employée. Basée principalement - mais pas uniquement - sur des critères quantitatifs et notamment bibliométriques, le fameux impact factor mesurant la qualité des journaux scientifiques dans lesquels les chercheurs et les groupes publient, cette méthode crée des distorsions bien connues des universitaires.

"Appliqués à la littérature, ces critères établiraient qu'un Balzac est nettement plus performant qu'un Beckett…", résume Dominique Belin, professeur à la Faculté de médecine. La quantité au détriment de l'originalité, en d'autres termes. "L'autoévaluation est une bonne chose et je sais pertinemment qu'aucun système n'est parfait. Cela dit, je pense que les fruits de la recherche se récoltent sur une longue durée. Il ne faut donc pas se leurrer sur la validité des résultats en un ou deux ans", ajoute le professeur.

Calcul à froid
Pour les personnes chargées d'élaborer les méthodes d'évaluation, cette dernière répond à une logique qui échappe en bonne partie aux universités. Les bailleurs de fonds, publics et privés, réclament de plus en plus de transparence et des preuves d'efficience. C'est un fait. "A partir de là, il s'agit d'avoir recours à la méthode la moins mauvaise dans l'opinion des premiers concernés, à savoir, les chercheurs. Et dans cette optique, il est préférable d'élaborer nos propres outils, adaptés aux réalités de chaque faculté, plutôt que de nous les voir imposés, dans un proche avenir, par l'extérieur", relève Claus Hässig, responsable du secteur recherche au Rectorat.

En Suisse, l'évaluation de la recherche est déjà entrée dans les mœurs auprès des écoles polytechniques fédérales, mais aussi à l'Université de Zurich. qui s'en sert pour sa planification stratégique. Elle est pratique courante dans les pays scandinaves et anglo-saxons, dont les universités compte parmi les meilleures d'Europe.

A l'Université de Genève, la Faculté de médecine fait figure de pionnière, puisqu'un système d'évaluation est déjà en place depuis plusieurs années. Ce système est aussi à l'avant-garde de toutes les facultés de médecine de Suisse. Il est basé sur la qualité des publications, les fonds de recherche externe obtenus et les charges d'enseignement. A terme, il est envisagé de mettre en place des méthodes pour l'ensemble de l'institution, en les adaptant au contexte de chaque domaine, point crucial, puisque chaque discipline a ses spécificités et ses critères d'excellence. Des systèmes d'évaluation de l'enseignement étant également en fonction, ces deux baromètres devraient en fin de compte être couplés pour aboutir à une vue d'ensemble des activités académiques des hautes écoles.

Le temps des mimosas
Coordinatrice de l'évaluation à la Faculté de médecine, Stéphane Jouve-Couty souhaite dissiper des malentendus: "L'évaluation n'est pas une sanction. Le but n'est pas de montrer du doigt tel ou tel, mais de se donner les moyens d'améliorer les conditions de la recherche." L'évaluation vise ainsi à produire une cartographie, un diagnostic des activités de recherche de la Faculté. Il s'agit d'identifier les secteurs les plus performants, les pôles d'excellence, capables d'attirer des ressources supplémentaires, tout en apportant un soutien aux groupes plus faibles, en favorisant, par exemple, la coopération avec des groupes plus actifs. Quelles que soient les critiques adressées à la méthode, celle-ci a l'avantage de mettre tout le monde sur un pied d'égalité.

Concrètement, l'évaluation est pratiquée indépendamment à chaque échelon de la Faculté: département, groupe de recherche, personnes. A chaque fois, la méthode employée est ajustée au contexte. "Il faut comparer ce qui est comparable", souligne Stéphane Jouve-Couty: "la situation est complètement différente, par exemple, en médecine fondamentale et en médecine clinique, et si l'on évalue un groupe de recherche ou tout un département." Par ailleurs, les outils d'évaluation sont régulièrement réadaptés en collaboration avec les chercheurs. Enfin, la méthode est transparente et les résultats mis à disposition.

…et quelques pétales
Dans le système MIMOSA, mis en place en 1998 pour l'évaluation des départements de la Faculté, les critères bibliométriques habituels, y compris l'impact factor, sont pondérés par des indicateurs, tels que le rapport aux performances d'ensemble de la discipline, la place du chercheur dans la liste des auteurs de la publication, ou encore la capacité à attirer des fonds.

Sept ans après son éclosion, MIMOSA a-t-il atteint l'âge de raison? "Nous pouvons en tout cas apercevoir bien d'effets positifs", observe Stéphane Jouve-Couty. En termes de relève tout d'abord. Dès lors que les secteurs les plus actifs ont été identifiés, il est possible d'y orienter les jeunes chercheurs. Cela permet également des synergies intéressantes entre groupes de recherche. Par ailleurs, la Faculté de médecine dispose ainsi de son propre bilan de santé(1), l'évaluation s'accompagne alors d'initiatives pour mieux encadrer les groupes qui éprouvent des difficultés. "Et pour le reste, chacun continue de vivre sa vie!", ajoute la chercheuse avant de refermer ses gros classeurs.

(1) Un rapport est publié chaque année.

 

Une expérience positive à généraliser, selon le vice-recteur Peter Suter
Le vice-recteur Peter Suter, qui a porté pendant son mandat de doyen l'implantation de Mimosa en Médecine, pilotera la généralisation et l'adaptation progressives du système aux autres secteurs de l'Université: "Mimosa a répondu à nos attentes. Depuis quelques années, nous notons une amélioration constante de l'impact des publications de la Faculté de médecine. L'Université peut profiter de cette expérience positive. Une commission d'évaluation et de promotion de la recherche de l'Université est en train d'être mise en route, et elle réunira toutes les facultés. C'est dès aujourd'hui que nous devons être prêts à affronter une concurrence de plus en plus vive et mettre en évidence encore davantage le potentiel d'excellence dont jouit notre Université. Une évaluation objective et transparente des performances académiques est une base indispensable pour assurer le développement de domaines forts dans chaque faculté et chaque département."
16 février 2005
  2005