La mise en concurrence des établissements universitaires à l’échelle mondiale s’est renforcée par l’émergence des classements internationaux faisant aujourd’hui autorité. Sur quels critères le classement de Shanghaï, le THE (Times Higher Education) ou le QS (Quacquarelli Symonds) reposent-ils pour noter les établissements ?
C. Musselin : Tous s’appuient sur des critères « objectifs » qui peuvent varier d’un classement à l’autre (nombre d’enseignants, nombre d’étudiants, part des internationaux, nombre de publications…) mais qui permettent de calculer des ratios d’encadrement ou de productivité scientifique. Ces critères sont le plus souvent renseignés par les établissements eux-mêmes mais aussi parfois « aspirés » sur leurs sites. Sont aussi utilisées les bases de données de citations comme Scopus et Web of Science pour repérer les publications ou les listes de chercheurs les plus cités et leur affiliation professionnelle. Grande différence toutefois entre le classement de Shanghaï d’un côté et THE et QS de l’autre : les seconds incluent aussi des critères réputationnels collectés par sondage d’opinion auprès de membres de la communauté académique auxquels il est demandé quels sont selon eux les dix meilleurs établissements dans leur discipline, et d’employeurs, qui sont contactés par ceux que j’appellerai dans ce texte « les classeurs ».
Tout a commencé au niveau international — car les classements d’institutions existaient dans certains pays depuis très longtemps — quand le gouvernement chinois a demandé au professeur Liu de l’université Jiao-Tong à Shanghaï, de construire un instrument de mesure permettant de savoir comment se situaient les établissements chinois dans le monde. Celui-ci a alors élaboré un classement à partir des éléments qu’il pouvait recueillir sur les sites des établissements ou via les bases de données mentionnées plus haut. Les critères utilisés, très tournés vers la recherche, dépendaient donc de ce qui était accessible sans solliciter les établissements. Ces critères n’ont pas varié depuis la création de ce classement, ce qui permet une assez grande comparabilité dans le temps. Des classements par domaine disciplinaire sont venus ensuite s’ajouter à celui des établissements.
THE et QS, qui n’étaient qu’un au départ, ont aussi défini leurs propres critères. Il en va de même pour tous les autres classements internationaux existants. Je pense à celui de Leiden, qui est plus scientométrique, ou à U-Multirank, qui a été développé au niveau européen et qui permet des classements pluriels : à partir des mêmes données, on peut classer les meilleurs établissements pour une licence en ingénierie ou pour un master dans cette même discipline.
Après la séparation de THE et QS, chacun a redéfini ses critères et dans les deux cas, ils ne sont pas aussi stables que ceux de Shanghaï. Par exemple, les pondérations entre les critères ont évolué. Par ailleurs, les institutions classées ne sont pas passives et elles essaient parfois de convaincre les classeurs d’introduire des modifications ou de redéfinir les frontières d’accès au classement : qu’on se rappelle le travail ministériel qui avait été engagé en France pour faire prendre en compte les COMUE [communautés d’universités et établissements] !
Les classeurs ont par ailleurs une imagination débordante, et on observe une tendance à multiplier les catégories et à inventer d’autres objets de classement : les jeunes universités, les universités les plus innovantes, les universités ayant le plus d’impact…
Les systèmes de notation en ligne ont-ils également participé à la mise en compétition des universités ?
Le fait de développer des indicateurs, de réaliser des classements, de transformer des évaluations en notes, puis de rendre publiques ces informations en les mettant en ligne a indubitablement participé à l’accroissement de la mise en compétition des universités, des équipes de recherche et des universitaires. Cela a suscité des réactions en retour. Par exemple, du temps où l’AERES attribuait des notes aux laboratoires de recherche, on a vu des responsables de laboratoire, des présidents ou présidentes d’université, prendre des mesures visant à sanctionner ou au contraire à soutenir des équipes ayant obtenu un B ou un C, de manière à améliorer leur notation au coup suivant… et donc d’être mieux évalués que leurs homologues concurrents.
Dans certains cas, ces données chiffrées sont devenues des critères de décision pour des recrutements, des promotions, ou l’attribution de financement, ce qui a fort heureusement été dénoncé et a conduit à une déclaration internationale, la DORA (Declaration on Research Assessment) : les institutions qui y souscrivent (84 en France) s’engagent à mener des évaluations basées sur le contenu des productions scientifiques et non sur le « h-index », le « citation index », l’« impact factor » ou toute autre métrique. Cela ne restreint pas l’intensité de la compétition, mais au moins ne la réduit pas à de simples données quantitatives.
Il faut ajouter par ailleurs que toute compétition s’accompagne de nouvelles sociabilités et c’est aussi ce que l’on a observé. Comme l’a écrit Georg Simmel, puis comme Harrison White l’a montré dans ses analyses des marchés, les compétiteurs s’observent et ont intérêt à échanger avec ceux qu’ils considèrent comme étant leurs semblables, afin de défendre leurs intérêts communs, de mieux se connaître, voire d’établir des règles de bonne conduite. Et c’est ce que l’on a pu constater dans le secteur universitaire. Dans plusieurs pays, on a vu se former des « clubs » d’établissements sur la base de ce qu’ils estiment être leur statut commun : le Russell Group en Grande-Bretagne, U15 en Allemagne, la CURIF puis UDICE (qui réunit les neuf établissements labellisés IDEX — Initiatives d’excellence) en France… Et au niveau européen, on trouve bien sûr la LERU (Ligue européenne des universités de recherche) ou The Guild. Développer des liens privilégiés est d’autant plus central que la coopération est au moins aussi importante que la compétition pour produire de la connaissance. La compétition scientifique n’est pas darwinienne : elle est simmelienne.