Le point sur la fraude scientifique

Science Fish, de Steve Rainwater, licence CC BY-SA

Mardi dernier nous vous parlions ici-même des papiers frauduleux, ces fausses publications générées par ordinateur ("fake papers"). Quelques jours auparavant, une polémique éclaboussait la biologie française. Le plagiat fait quant à lui l'objet de vraies campagnes de sensibilisation des communautés universitaires.

La fraude scientifique est définie comme "une action destinée à tromper dans le champ de la recherche scientifique", sous trois formes principales : "la falsification de données, la fabrication de données et le plagiat. (source : wikipédia). De plus en plus relayée dans les médias, elle témoigne à la fois des difficultés de la recherche et de l'importance du pacte de confiance entre science et société.

Pour comprendre l'écho de ces mauvaises pratiques, il faut revenir au contexte de la publication scientifique.

Côté chercheurs, d'abord. La fameuse injonction de publier, "publish or perish" incite les chercheurs à multiplier les publications pour être visibles, reconnus et donc subventionnés. Le système de l'évaluation de la recherche est pourtant fortement critiqué depuis des années mais il peine à trouver d'autres critères que la publication pour évaluer les institutions et leurs équipes. Objet de toutes les attentions, des financeurs aux chercheurs, elle est monnayable et favorise les dérives : technique du salami, renvoi d'ascenseur en matière de citations, choix des projets de recherche en fonction de leur "publiabilité", invisibilité des résultats négatifs... et soumission de faux articles générés par des machines. C'est ici le système de production scientifique qui est pointé du doigt, avec pour risque, en toile de fonds, une stagnation de la recherche.

Photo de Chris Drum, un livre de published & perished  Gilbar, Steven & Dean Stewart (ed) PUBLISHED & PERISHED: Memoria, Eulogies & Remembarances of American Writers, Godine '02, 1st edn, (47 well considered and often startlingly honest appraisals of great names in American literature, memorialized, eulogized, and sometimes criticized by their closest friends and peers

Il existe un autre versant : celui des éditeurs scientifiques. C'est parce qu'ils sont réputés garants de la bonne évaluation scientifique de l'article que les revues scientifiques ont un coût : on paie pour publier et on paie pour accéder à l'article (note 1). Là encore, le contexte joue contre les éditeurs : la montée des tarifs est à l'origine d'un malaise grandissant des chercheurs et des institutions acculés par des budgets en baisse. D'autant que de nouveaux modèles de publication se développent comme l'open access (note 2), la pré-évaluation avant soumission (Rubriq), ou encore l'évaluation post-publication. La tension monte lorsqu'un groupe comme Nature (NPG) lance son service d'accélérateur : payer plus pour être évalué plus vite (et donc publié plus vite). Une science à deux vitesses ?

De la difficulté d'être évalué. Un second risque est l'installation d'un climat de suspicion généralisée entre chercheurs. Pubpeer, spécialiste de l'évaluation collaborative post-publication, est ainsi montré du doigt pour l'agressivité de son principe d'anonymat des commentaires : il suffit de chercher une publication (par son DOI, son auteur, etc.) et l'on peut ajouter un commentaire qui sera public. Ouverture du débat scientifique ou porte ouverte aux dénigrements ou laudations intéressés ? (3)

Dans ce contexte, on comprend que les faux pas des éditeurs qui publient des articles contestables ou contestés (parfois même après des années), ne passent pas. On comprend aussi l'importance pour les institutions de recherche de sensibiliser tous les acteurs aux bonnes pratiques de la recherche et à la reconnaissance des fraudes et manquements. En témoigne ce Guide pour promouvoir une recherche intègre et responsable proposé fin 2014 par le comité d'éthique du CNRS.

Vraiment?

Vraiment?

Notes et références

Aller plus loin :

(1) Pour publier un article, il faut souvent s'acquitter du coût de publication auprès de l'éditeur, jusqu'à 3000$ parfois : ce sont les APC, pour Article processing charge, dont le montant varie selon la notoriété de la revue et son mode d'accès. Publier dans une revue en libre accès coûte ainsi généralement plus cher que dans les revues commercialisées (qui coûtent, elles, une seconde fois au contribuable via les abonnements des chercheurs aux revues, voire une troisième fois si on compte le premier coût de la recherche effectuée en amont de l'article).

(2) Open access : la pression est moindre car le mouvement, dans un contexte de forte légitimité scientifique des éditeurs, a été largement récupéré par les éditeurs avec le modèle "gold open access". Cela dit, la sensibilisation à la diffusion libre et ouverte à tous des résultats de la recherche a fait son chemin.

(3) Le principe d'anonymat de Pubpeer : la question rappelle la vieille interrogation sur la fiabilité de Wikipédia, qui a su mettre, depuis, des gardes-fous. Mais les enjeux diffèrent.

Images : "Science Fish", de Steve Rainwater, licence CC BY-SA. "Published and perished", photo de Chris Drum, un livre de Steven Gilbar Steven et Dean Stewart.

Vers la fin des publications frauduleuses en recherche ?

Techaleidoscope, d'Opensourceway, licence CC-BY-SA

Avez-vous déjà entendu parler des "fake papers", ces publications frauduleuses  "rédigées" automatiquement par ordinateur avec un logiciel comme SCIgen ou Mathgen et soumises à publication ? Elles défraient régulièrement la chronique parce qu'elles mettent en lumière les failles du système de publication des résultats de la recherche, y compris chez les grands éditeurs scientifiques. Elles interpellent également l'éthique du chercheur, vertu cardinale de l'intégrité des activités scientifiques. Une telle fraude expose à la fois le chercheur incriminé, son institution et l'éditeur fautif de la mauvaise (ou fausse ?) évaluation.

C'est d'ailleurs dans ce but qu'avait été créé SCIgen à l'origine, en 2005, par des étudiants : ils voulaient démontrer la supercherie de ces pseudo-conférences qui ne pratiquent aucune évaluation scientifique des papiers soumis. Librement accessible en ligne, le logiciel a servi de canulars, de sensibilisation aux problèmes d'évaluation des revues... et petit à petit de vrai générateur d'articles pour des vrais fraudeurs.

scidetectC'est pourquoi certains ont travaillé à la conception d'un outil détecteur de fraude scientifique. Après les logiciels anti-plagiat, voici donc SciDetect, qui traque les fausses publications scientifiques, un logiciel conçu par l'Université Joseph Fourier de Grenoble et l'éditeur Springer.

La nouvelle fait grand bruit dans les milieux de la recherche et de l'édition. Est-ce que cela signe pour autant la fin des fraudes orchestrées par ordinateur ? Si l'on en croit l'expérience de l'anti-plagiat, c'est une étape qui marque une meilleure sensibilisation mais il est probable que les logiciels s'adaptent pour ne pas être détectés, puis pour mieux détecter, comme pour les antivirus. Toujours est-il que Springer vient tout juste de procéder à un retrait d'une publication : on n'en connait certes pas encore la raison...

Prochain billet : Le point sur la fraude scientifique

Plagiat dans la recherche : ne fermons pas les yeux

Jean-Noël Darde, Maître de conférences en Sciences de l’information et de la communication à l’Université Paris 8 Saint-Denis, se lance dans une grande bataille contre le plagiat dans la recherche universitaire.

Auteur et éditeur du blog Archéologie du copier-coller, il poursuit ses investigations et lance une pétition déjà signée par plus de 70 universitaires.