Gros plan sur les Editions Le Pommier : Petites Pommes du Savoir et Essais

"Comprendre le monde qui nous entoure..." Telle est la devise des Editions Le Pommier qui proposent plusieurs collections de livres axés sur la vulgarisation des savoirs. Ici, nous vous proposons un rapide tour d'horizon de deux grands ensembles de collections de cet éditeur "passeur de sciences" :

Les Petites Pommes du savoir

Cette collection, regroupe, avec "Les Plus Grandes Petites Pommes du savoir" et autres "Mini Pommes" des ouvrages en petits formats facilement glissables dans une poche et rapides à lire en maximum 63 pages.

A partir d'une question simple, comme "Pourquoi la nuit est noire ? " ou "Comment voient les bébés? ", un spécialiste reconnu du monde scientifique vient présenter les grandes connaissances actuelles de façon simple, claire et accessible à tous.

Bibliographie Des Petites Pommes du Savoir disponibles dans les BU de La Réunion, par liste alphabétique des auteurs :

Pour connaître l'emplacement d'un titre, cliquez sur la liste puis sur "Où le trouver". La plupart des titres sont disponibles à la BU Sciences, d'autres à la BU Tampon, à la BU Droit-Lettres... Vous pouvez les faire venir dans votre BU habituelle (gratuit). 

Site web des Editions Le Pommier > Collection Les Petites Pommes du savoir

Les Essais Le Pommier

Pour aller plus loin, Le Pommier propose plusieurs collections d'essais pour réfléchir sur les sciences (ou la technologie) et leurs usages. Philosophie, citoyenneté, éducation, santé publique, éthique, sont autant de pistes proposées pour faire fructifier les connaissances.

  

Le Pommier est aussi un grand éditeur des travaux philosophiques de Michel Serres depuis les années2000.

Bibliographie...non exhaustive des essais du Pommier   (à retrouver sur notre catalogue)

  • Bernard Salanié. L’économie sans tabou. 2004.
  • Christian Marendaz. Du regard à l’émotion: la vision, le cerveau, l’affectif. 2009.
  • Elena Pasquinelli. Du labo à l’école, science et apprentissage. 2014.
  • Éric Lambin. Une écologie du bonheur. 2009.
  • François Moutou. Des épidémies, des animaux et des hommes. 2015.
  • Frank Ryan. Virus & hommes, un destin commun ? 2011.
  • Gordon L Kane. Supersymétrie. 2003.
  • Hubert Reeves. Petite histoire de la matière et de l’univers.  2009.
  • Jean-Louis Hartenberger. Nous, les mammifères. 2013.
  • Luc-Alain Giraldeau. Dans l’oeil du pigeon: évolution, hérité et culture. 2016.
  • Marc Lachièze-Rey. Au-delà de l’espace et du temps: la nouvelle physique.  2008.
  • Marie-Françoise Chevallier-Le Guyader, et al. Abécaire citoyen des sciences. 2017.
  • Michel Serres. Hominescence. 2001.
  • Michel Serres. L’incandescent. 2003.
  • Naomi Oreskes, et Erik M Conway. Les marchands de doute ou Comment une poignée de scientifiques ont masqué la vérité sur des enjeux de société tels que le tabagisme et le réchauffement climatique. 2012.
  • Philippe Bordeyne et al. Éthique et changement climatique. 2009.
  • Serge Abiteboul et Gilles Dowek. Le temps des algorithmes. 2017.
  • Stéphane Sarrade. La chimie d’une planète durable. 2011.
  • Virginie Cazes-Duvat et Alexandre Magnan. Ces îles qui pourraient disparaître. 2012.
  • Virginie Cazes-Duvat et Alexandre Magnan. Des catastrophes... « naturelles » ? 2014.
  • Yves Quéré. Enseigner, communiquer: un art, ou un métier ? 2008.

Bibliographies à retrouver sur notre catalogue ou également disponibles sur notre compte Zotero en ligne : https://www.zotero.org/bureunion/items/collectionKey/CUJB5F28

6 astuces pour truquer votre H-index

Le H-index est un indicateur bibliométrique en vogue depuis sa création en 2005 par le chercheur en physique Jorge E. Hirsch (Université de Californie à San Diego). L'avantage de cette mesure synthétique et facilement compréhensible est qu'elle résume à la fois la productivité et l'impact des publications d'un chercheur.

Définition : Le H-Index d'un chercheur est le plus grand nombre H de publications tel que chaque article a reçu au moins H citations

Calculer votre H-Index est relativement simple. Classez d'abord tous vos articles scientifiques par ordre décroissant de citations. Attribuez un rang à chaque item. Comparez maintenant le rang des articles et le nombre de citations. Quand le rang de l'article est supérieur au nombre de citations, alors le rang précédent équivaut à votre H-Index :

h-index

Dans l'exemple ci-dessus, le H-Index est de 6. Le rang dépasse le nombre de citations à l'article E (7>3). Le rang précédent est donc le H-Index.

Voici maintenant quelques astuces pour faire progresser votre h-index sans trop vous fatiguer :

  1. Ni trop productif, ni trop d'impact : que vous disposiez de 3 publications citées 1000 fois ou de 1000 publications citées 3 fois, le résultat est le même, votre H-Index sera de 3. Préférez un juste milieu, une publication régulière de papiers modérément influents.
  2. Choisissez la base de données la plus avantageuse : le H-Index est calculé par les principales bases de données bibliographiques : Web of Science, Scopus, Google Scholar. Comme ces bases n'indexent pas les mêmes revues, faites le comparatif pour déterminer laquelle vous est la plus favorable.
  3. Oubliez livres, chapitres et brevets, ne publiez plus que des articles et des conférences : livres, chapitres et brevets sont généralement mal comptabilisés par les bases de données. Optez plutôt pour les types de publication les mieux reconnues dans les bases !
  4. Devenez un passager clandestin de la publication scientifique : le H-Index ne prend en compte ni le nombre de co-auteurs de la publication, ni leur position relative dans la publication. Que vous ayez rédigé seul un livre primé de 700 pages ou que vous soyez 28e co-auteur sur 41, le H-Index sera calculé de la même manière, dés lors pourquoi se compliquer la vie ? Privilégiez le ventre mou du peloton des co-auteurs, il vous garantira une progression régulière sans vous épuiser.
  5. Laissez faire le temps (et arrêtez de publier) : la jeunesse est l'ennemi du H-Index ! Le jeune chercheur combine faible nombre de publications et faible nombre de citations, une véritable tare lorsqu'il s'agit de comparer son H-Index au sein des équipes de recherche. L'astuce consiste à être déjà un chercheur expérimenté avec une production scientifique conséquente. Vous pourrez même vous arrêter de publier bien avant l'âge de la retraite, les citations faisant le travail pour vous, votre H-Index progressera sans que vous vous en souciez. N'oubliez pas, votre H-Index ne pourra jamais diminuer !
  6. Publiez un article négatif de référence internationale : L'astuce ultime pour vous assurer d'un H-Index d'excellence réside dans la publication d'un (et de préférence plusieurs) articles négatifs dans votre champ de recherche. Des articles tellement négatifs qu'ils seront pris en contre-exemple et donc cités en masse par les chercheurs du monde entier. Votre carrière scientifique risque d'être compromise sur le long terme mais vous verrez votre H-Index décoller en flèche vers les sommets de la gloire bibliométrique !

Loin de nous l'idée de vous inciter à manipuler vos indicateurs bibliométriques. Ces quelques astuces ont uniquement pour vocation à vous alerter sur les mécanismes parfois douteux de leur production pour ainsi les utiliser en toute connaissance de cause.

Le point sur la fraude scientifique

Science Fish, de Steve Rainwater, licence CC BY-SA

Mardi dernier nous vous parlions ici-même des papiers frauduleux, ces fausses publications générées par ordinateur ("fake papers"). Quelques jours auparavant, une polémique éclaboussait la biologie française. Le plagiat fait quant à lui l'objet de vraies campagnes de sensibilisation des communautés universitaires.

La fraude scientifique est définie comme "une action destinée à tromper dans le champ de la recherche scientifique", sous trois formes principales : "la falsification de données, la fabrication de données et le plagiat. (source : wikipédia). De plus en plus relayée dans les médias, elle témoigne à la fois des difficultés de la recherche et de l'importance du pacte de confiance entre science et société.

Pour comprendre l'écho de ces mauvaises pratiques, il faut revenir au contexte de la publication scientifique.

Côté chercheurs, d'abord. La fameuse injonction de publier, "publish or perish" incite les chercheurs à multiplier les publications pour être visibles, reconnus et donc subventionnés. Le système de l'évaluation de la recherche est pourtant fortement critiqué depuis des années mais il peine à trouver d'autres critères que la publication pour évaluer les institutions et leurs équipes. Objet de toutes les attentions, des financeurs aux chercheurs, elle est monnayable et favorise les dérives : technique du salami, renvoi d'ascenseur en matière de citations, choix des projets de recherche en fonction de leur "publiabilité", invisibilité des résultats négatifs... et soumission de faux articles générés par des machines. C'est ici le système de production scientifique qui est pointé du doigt, avec pour risque, en toile de fonds, une stagnation de la recherche.

Photo de Chris Drum, un livre de published & perished  Gilbar, Steven & Dean Stewart (ed) PUBLISHED & PERISHED: Memoria, Eulogies & Remembarances of American Writers, Godine '02, 1st edn, (47 well considered and often startlingly honest appraisals of great names in American literature, memorialized, eulogized, and sometimes criticized by their closest friends and peers

Il existe un autre versant : celui des éditeurs scientifiques. C'est parce qu'ils sont réputés garants de la bonne évaluation scientifique de l'article que les revues scientifiques ont un coût : on paie pour publier et on paie pour accéder à l'article (note 1). Là encore, le contexte joue contre les éditeurs : la montée des tarifs est à l'origine d'un malaise grandissant des chercheurs et des institutions acculés par des budgets en baisse. D'autant que de nouveaux modèles de publication se développent comme l'open access (note 2), la pré-évaluation avant soumission (Rubriq), ou encore l'évaluation post-publication. La tension monte lorsqu'un groupe comme Nature (NPG) lance son service d'accélérateur : payer plus pour être évalué plus vite (et donc publié plus vite). Une science à deux vitesses ?

De la difficulté d'être évalué. Un second risque est l'installation d'un climat de suspicion généralisée entre chercheurs. Pubpeer, spécialiste de l'évaluation collaborative post-publication, est ainsi montré du doigt pour l'agressivité de son principe d'anonymat des commentaires : il suffit de chercher une publication (par son DOI, son auteur, etc.) et l'on peut ajouter un commentaire qui sera public. Ouverture du débat scientifique ou porte ouverte aux dénigrements ou laudations intéressés ? (3)

Dans ce contexte, on comprend que les faux pas des éditeurs qui publient des articles contestables ou contestés (parfois même après des années), ne passent pas. On comprend aussi l'importance pour les institutions de recherche de sensibiliser tous les acteurs aux bonnes pratiques de la recherche et à la reconnaissance des fraudes et manquements. En témoigne ce Guide pour promouvoir une recherche intègre et responsable proposé fin 2014 par le comité d'éthique du CNRS.

Vraiment?

Vraiment?

Notes et références

Aller plus loin :

(1) Pour publier un article, il faut souvent s'acquitter du coût de publication auprès de l'éditeur, jusqu'à 3000$ parfois : ce sont les APC, pour Article processing charge, dont le montant varie selon la notoriété de la revue et son mode d'accès. Publier dans une revue en libre accès coûte ainsi généralement plus cher que dans les revues commercialisées (qui coûtent, elles, une seconde fois au contribuable via les abonnements des chercheurs aux revues, voire une troisième fois si on compte le premier coût de la recherche effectuée en amont de l'article).

(2) Open access : la pression est moindre car le mouvement, dans un contexte de forte légitimité scientifique des éditeurs, a été largement récupéré par les éditeurs avec le modèle "gold open access". Cela dit, la sensibilisation à la diffusion libre et ouverte à tous des résultats de la recherche a fait son chemin.

(3) Le principe d'anonymat de Pubpeer : la question rappelle la vieille interrogation sur la fiabilité de Wikipédia, qui a su mettre, depuis, des gardes-fous. Mais les enjeux diffèrent.

Images : "Science Fish", de Steve Rainwater, licence CC BY-SA. "Published and perished", photo de Chris Drum, un livre de Steven Gilbar Steven et Dean Stewart.

Vers la fin des publications frauduleuses en recherche ?

Techaleidoscope, d'Opensourceway, licence CC-BY-SA

Avez-vous déjà entendu parler des "fake papers", ces publications frauduleuses  "rédigées" automatiquement par ordinateur avec un logiciel comme SCIgen ou Mathgen et soumises à publication ? Elles défraient régulièrement la chronique parce qu'elles mettent en lumière les failles du système de publication des résultats de la recherche, y compris chez les grands éditeurs scientifiques. Elles interpellent également l'éthique du chercheur, vertu cardinale de l'intégrité des activités scientifiques. Une telle fraude expose à la fois le chercheur incriminé, son institution et l'éditeur fautif de la mauvaise (ou fausse ?) évaluation.

C'est d'ailleurs dans ce but qu'avait été créé SCIgen à l'origine, en 2005, par des étudiants : ils voulaient démontrer la supercherie de ces pseudo-conférences qui ne pratiquent aucune évaluation scientifique des papiers soumis. Librement accessible en ligne, le logiciel a servi de canulars, de sensibilisation aux problèmes d'évaluation des revues... et petit à petit de vrai générateur d'articles pour des vrais fraudeurs.

scidetectC'est pourquoi certains ont travaillé à la conception d'un outil détecteur de fraude scientifique. Après les logiciels anti-plagiat, voici donc SciDetect, qui traque les fausses publications scientifiques, un logiciel conçu par l'Université Joseph Fourier de Grenoble et l'éditeur Springer.

La nouvelle fait grand bruit dans les milieux de la recherche et de l'édition. Est-ce que cela signe pour autant la fin des fraudes orchestrées par ordinateur ? Si l'on en croit l'expérience de l'anti-plagiat, c'est une étape qui marque une meilleure sensibilisation mais il est probable que les logiciels s'adaptent pour ne pas être détectés, puis pour mieux détecter, comme pour les antivirus. Toujours est-il que Springer vient tout juste de procéder à un retrait d'une publication : on n'en connait certes pas encore la raison...

Prochain billet : Le point sur la fraude scientifique