Quand on sabote la communauté scientifique

À une époque où il est interdit aux employés fédéraux de prononcer l’expression «changement climatique», la droite tente régulièrement de saper la légitimité des universités, et les frais de scolarité ont grimpé en flèche avec l’endettement des étudiants, il semble pervers que les universitaires mettent davantage en danger leur mission d’éduquer et d’éclairer. Pourtant, en adoptant une forme maligne de pseudoscience, ils ont accompli cela.
Quelle est la méthode scientifique? Ses particularités font l’objet d’un débat, mais les scientifiques comprennent qu’il s’agit d’un processus systématique de collecte de preuves par l’observation et l’expérimentation. Les données sont analysées et cette analyse est partagée avec une communauté de pairs qui étudient et débattent de ses résultats afin de déterminer leur validité. Albert Einstein a appelé cela le raffinement de la pensée quotidienne. »
Il existe de nombreuses raisons pour lesquelles cette méthode s’est avérée si efficace dans l’apprentissage de la nature: l’ancrage des résultats dans la recherche, l’ouverture du débat et de la discussion, et la nature cumulative de l’entreprise scientifique, pour n’en nommer que quelques-uns. Il y a des spécialistes des sciences sociales, des philosophes et des historiens qui étudient la manière dont les sciences sont menées, mais les scientifiques qui travaillent apprennent par l’apprentissage dans les laboratoires des écoles supérieures.
Les scientifiques ont théorisé, expérimenté et débattu de leur chemin vers des percées étonnantes, de la double hélice d’ADN à la théorie quantique. Mais ils ne sont pas arrivés à ces découvertes par la concurrence et le classement, qui sont tous deux élémentaires au monde des affaires. C’est une entreprise, après tout, qui s’efforce d’être la plus performante sur son marché respectif. Les scientifiques qui adoptent ce mode de pensée trahissent leurs propres voies d’investigation, et la pratique est devenue très courante.
Voici cinq façons dont la logique capitaliste a saboté la communauté scientifique.
1. Facteur d’impact
Les scientifiques s’efforcent de publier dans les revues présentant le facteur d’impact le plus élevé, ou le nombre moyen de citations reçues au cours des deux dernières années. Souvent, ces publications seront de connivence pour manipuler leur nombre. Les citations de revues suivent ce que l’on appelle une règle 80/20: dans une revue donnée, 80% des citations proviennent de 20% du total des articles publiés: cela signifie que le travail d’un auteur peut apparaître dans une revue à fort impact sans jamais être cité. Le classement est si important dans ce processus que les facteurs d’impact sont calculés à la troisième décimale. En science », écrit l’historien canadien Yves Gingras dans son livre Bibliometrics and Research Evaluation, il y a très peu de phénomènes naturels que l’on puisse prétendre connaître avec une telle exactitude. Par exemple, qui veut savoir que la température est de 20,233 degrés Celsius? »
On pourrait tout aussi bien se demander pourquoi nous devons savoir que le facteur d’impact d’un journal est de 2,222 alors que celui d’un autre est de 2,220.
2. L’indice H
Si le classement des revues universitaires n’était pas suffisamment destructeur, l’indice h applique la même pseudoscience aux chercheurs individuels. Défini comme le nombre d’articles publiés par un scientifique ayant obtenu au moins ce nombre de citations chacun, l’indice h de votre scientifique préféré peut être trouvé grâce à une recherche rapide dans Google Scholar. L’indice h, note Gingras en bibliométrie, n’est ni une mesure de la quantité (production) ni de la qualité de l’impact; il s’agit plutôt d’un composite d’entre eux. Il combine arbitrairement le nombre d’articles publiés avec le nombre de citations qu’ils ont reçues. »
Sa valeur ne diminue également jamais. Un chercheur qui a publié trois articles cités 60 fois chacun a un indice h de trois, tandis qu’un chercheur qui a publié neuf articles cités neuf fois chacun a un indice h de neuf. Le chercheur avec un indice h de neuf est-il trois fois meilleur chercheur que son homologue lorsque le premier a été cité 81 fois et le second 180 fois? Gingras conclut: Il est certainement surprenant de voir des scientifiques, qui sont censés avoir une formation mathématique, perdre tout sens critique face à une figure aussi simpliste. »
3. Altmetrics
Une alternative aux facteurs d’impact et aux index h est appelée alt-metrics », qui cherche à mesurer la portée d’un article par ses impressions sur les réseaux sociaux et le nombre de fois qu’il a été téléchargé. Mais le classement basé sur les likes et les followers n’est pas plus scientifique que l’indice h magique. Et bien sûr, ces plateformes sont conçues pour générer des clics plutôt que d’informer leurs utilisateurs. Il est toujours important de se rappeler que Twitter n’est pas si important
4. Classements universitaires
Le réseau d’universités américain est l’un des moteurs du pays le plus riche du monde, créé au fil des générations grâce à des milliards de dollars d’investissement. Ses diplômés gèrent les économies les plus complexes, enquêtent sur les problèmes les plus difficiles et inventent les créations les plus avancées que la planète ait jamais vues. Et ils ont permis à leurs agendas d’être manipulés par un petit magazine appelé US News and World Report, qui les classe selon une formule mystérieuse.
En 1983, lorsqu’elle a commencé à classer les collèges et universités, elle l’a fait sur la base d’enquêtes d’opinion auprès des présidents d’université. Au fil du temps, son algorithme est devenu plus complexe, ajoutant des éléments comme l’indice h des chercheurs, les facteurs d’impact pour le journalisme universitaire, les subventions et les dons. Cathy ‘Neil du blog note dans son livre Weapons of Math Destruction que, si vous regardez ce développement du point de vue d’un président d’université, c’est en fait assez triste… ici, ils étaient au sommet de leur carrière consacrant une énorme énergie à augmenter les performances dans quinze domaines définis par un groupe de journalistes dans un magazine d’actualité de second niveau. »
Pourquoi ces institutions incroyablement puissantes ont-elles abandonné la pensée critique pour s’évaluer?
5. Grades
Le péché originel dont tous les autres découlent pourrait bien être la manière désinvolte que les scientifiques attribuent des notes et des classements numériques à leurs élèves. Pour le répéter, seules l’observation, l’expérience, l’analyse et le débat ont produit nos plus grandes percées scientifiques. Malheureusement, les scientifiques sont arrivés à la conclusion que si la valeur d’un étudiant peut être quantifiée, il en va de même pour les revues et les institutions. L’écrivain en éducation Alfie Kohn a compilé le dossier le plus complet contre les notes. Surtout, note-t-il, les notes ont tendance à favoriser la réussite au détriment de l’apprentissage. »
Ce n’est qu’en reconnaissant que nous ne sommes pas liés à un modèle basé sur le marché que nous pourrons commencer à inverser ces tendances.