Centre d’Etudes et de Recherches en Administration Publique

Autres articles de cette rubrique

Mots-clés

Recherche

Accueil du site - Repéré pour vous - Livres et revues - Revue Esprit, « Les mirages de l’excellence », n°7, juillet 2012.

« Les revues, l’évaluation et l’espace public intellectuel », Marc-Olivier Padis

L’excellence est devenue au cours de l’évolution de la réforme de l’enseignement supérieur en France, un terme clé des annonces ministérielles. Comme le note Marc-Olivier Padis, Rédacteur en chef de la revue Esprit : « Le terme par définition attractif et vague, est propre aux instrumentalisations : l’excellence est à la fois présentée comme un projet de promotion de la recherche française au niveau international et un label, quand il donne droit à des financements particuliers ».

Si on met de côté les refus de principe de l’évaluation ou les aspects méthodologiques souvent trop formels, une approche contradictoire et dès lors un vrai débat démocratique manquent.

La question de l’évaluation est d’autant plus importante que les procédures d’évaluation se sont, comme on le sait, étendues à toutes les professions et ne concernent plus seulement les cadres mais la moitié des salariés en France, sans oublier à un niveau macro l’évaluation des politiques publiques.

La partie thématique de la revue est consacrée principalement au rôle et à l’usage de l’évaluation dans l’enseignement supérieur. Ainsi le numéro contient-il des textes sur les mathématiques à l’épreuve de l’ « excellence », le déséquilibre de l’évaluation entre les sciences humaines et les sciences exactes, les stratégies d’excellence comme un risque de fragmentation pour les universités ?, etc….

A cet égard l’auteur de l’introduction rejoint la contributrice Eve Chiapello qui dans son article « Ecoles de commerce : la pression de l’internationalisation » constate que les écoles d’économie et de gestion « … adaptent leurs stratégies à des évaluations exogènes puissantes, qui sont celles de la mobilité internationale des étudiants et des offres d’emploi ». Dans ce cas, évaluation et contraintes extérieures se confondent.

L’évaluation même imparfaite s’impose avec force, parce qu’elle fournit « des repères minimaux dans un monde peu lisible ». Mais « L’ironie est que les indicateurs, mal compris et utilisés, contribuent à plus d’opacité… ».

L’article de Marc-Olivier Padis sur les revues académiques a retenu plus spécialement notre attention.

La publication d’articles de recherches dans des revues savantes est devenue un indicateur essentiel de performance (dans le processus d’évaluation). C’est pour cette raison que le statut des articles de recherche se transforme.

Les objectifs poursuivis par l’évaluation sont généralement considérés comme légitimes (bonne allocation des ressources, limitation de l’arbitraire hiérarchique, etc…) mais alors comment se fait-il que l’évaluation suscite tant de débats se demande l’auteur.

Dans les faits, on est passé d’une évaluation professionnelle (par les pairs) référant aux normes de la discussion académique soustraite par définition aux usages finalisés, à une évaluation de compétition dans le cadre du marché académique mondial.

Selon Padis, le classement de Shanghaï n’est vraiment significatif que par la réception démesurée dont il a fait l’objet [1]. Toutefois, en dépit de ses défauts, il révèle un besoin de comparabilité internationale des institutions. Plusieurs projets alternatifs sont en cours dont un programme européen paramétrable par l’usager (U-Multirank). Cela signifie que l’utilisateur a la possibilité de choisir les critères pertinents à son estime, et de disposer des informations utiles par rapport à ses besoins spécifiques.

Dans le cas des revues, la construction des chiffres qui font référence est issue d’une base bibliométrique généraliste et internationale, Science Citation Index (1960) qui au fil des années a donné l’actuel Web of Science après un rachat par Thomson Reuters. Elle a été développée par un entrepreneur, tout d’abord dans les domaines des sciences de la vie et de la chimie parce qu’un marché de l’information rapide existait dans ces secteurs.

Les contraintes de l’information, à une époque où les moyens informatiques n’étaient pas aussi puissants ont conduit à considérer que dans chaque discipline, 10 % des revues recensables regroupaient 90 % de l’information pertinente si elles étaient correctement sélectionnées.

Mais les bases de données furent élaborées au départ pour des disciplines (Sciences de la matière et de la vie) dont les contraintes s’appliquent mal aux sciences humaines où les livres, jusqu’il y a peu, comptaient plus que les articles et où les données sont moins vites périmées.

L’arrivée d’une autre base, Scopus (éditeur Elsevier) laisse espérer que d’autres langues que l’anglais seront prises en considération (entre autres le français et l’espagnol).

Les multinationales actives sur ce marché très lucratif à savoir Elsevier, Springer et Wiley, ont majoré de façon considérable le prix des abonnements universitaires.

Dès lors Marc-Oliver Padis se demande pour quelles raisons ne pas supprimer cette rente de situation en publiant le résultat des chercheurs sur des archives ouvertes en ligne ou un site universitaire de prépublication.

Seule l’évaluation entre pairs (en « double aveugle » à savoir par deux lecteurs sur un texte anonyme) et donc la confrontation avec ses collègues semble en justifier le maintien. L’auteur considère que la position économique des revues de recherche est « fragile » si leur justification ne repose plus que sur la validation entre pairs. Il semble évident que « … l’évaluation pousse à la spécialisation, puisqu’il faut publier dans des revues repérées comme le centre de la discipline, alors même que la « culture générale » est en crise et que le débat public a besoin de médiateurs capables de lier les sujets entre eux ».

Pour le contributeur, l’université doit « rendre possibles et utiles des usages non savants de la connaissance », ce qui implique une émancipation vis-à-vis des normes d’évaluation spécifiques à la recherche, qui sont balisées par la vérification entre pairs. Et le Rédacteur en chef de la revue de conclure que l’espace intellectuel de revues généralistes non savantes conserve plus que jamais son sens pour aider à animer un débat démocratique informé et constructif.

Comme on le sait, la revue semestrielle Pyramides du CERAP est en accès libre à l’exception des deux dernières livraisons. Elle s’inscrit donc largement dans un projet de diffusion maximale et s’efforce d’alimenter le débat public via des informations et des éléments d’analyse. Il importe aussi de garder à l’esprit le fait que la revue du CERAP est issue d’un projet mixte associant dès l’origine, académiques et acteurs administratifs. Cela en fait sa force et sa faiblesse, et en tous les cas sa singularité.

Alexandre Piraux.

notes:

[1] Selon Ghislaine Filliatreau, directrice de l’Observatoire des sciences et techniques, la méthodologie retenue par l’université de Jiao Tong (Shanghaï) appelle un « modèle implicite » celui de l’université américaine de Harvard, première du classement depuis le début (2003). Selon François Garçon, enseignant chercheur à Paris-I en publiant leurs articles dans une langue morte, le français, les chercheurs « perdent » pour le classement de Shanghaï. Par ailleurs, le premier établissement de recherche en France n’est pas un établissement d’enseignement supérieur, mais le CNRS. Or il s’avère qu’un article scientifique rédigé au nom de cet organisme ne compte pas pour ledit classement, Le Monde du jeudi 16 août 2012.