Skip to content

Latest commit

 

History

History
147 lines (123 loc) · 10.6 KB

Urfist-Paris_stage_bibliometrie_20180528.md

File metadata and controls

147 lines (123 loc) · 10.6 KB

Stage bibliométrie -- Urfist

Matériel de stage : http://urfist.chartes.psl.eu/ressources/liens-utiles-sur-les-notions-de-facteurs-d-impact-et-de-citations-support-complementaire

Contexte international

Classement de Shanghai

  • Miroir aux alouettes : le classement de Shangaï. Depuis 1999, mis en application en 2003. But : orienter les étudiants avancés chinois vers des établissements prestigieux et permettre de voir l’évolution du potentiel scientifique et technique chinois.
  • Modèle repris dans le monde entier pour l’évaluation. http://www.shanghairanking.com/
  • Classement général superficiel : http://www.shanghairanking.com/ARWU2017.html Modèle : Harvard, valeur 100, tout le monde est évalué à travers lui. France, 40e rang avec UPMC et 41e avec Paris-Sud (Paris 11).
  • Classement fondé sur les établissements d’enseignement supérieur : or, prestige de la France est lié aux EPST, INSERM, INRIA, CNRS. Le prestige français transparait au travers des UMR, mais est mal représenté.
  • Méthodologie du classement : http://www.shanghairanking.com/ARWU-Methodology-2017.html Critères :
    • Alumni of an institution winning Nobel Prizes and Fields Medals 10%
    • Staff of an institution winning Nobel Prizes and Fields Medals 20%
    • Highly cited researchers in 21 broad subject categories 20%
    • Papers published in Nature and Science 20% (sauf pour les SHS, exemple de la London Schools of Economics)
    • Papers indexed in Science Citation Index-expanded and Social Science Citation Index 20%
    • Per capita academic performance of an institution 10%
    • Pour moitié, ce classement est réalisé autour du WOS (highly citer, papiers published in Nature and Science, etc.).
  • Chercheurs, en particulier en biomédical ont de plus en plus besoin de publier rapidement dans ce système. Favorise les expériences one shot. Depuis 4 ou 5 ans, les rétractations d’articles sont en augmentation.
  • Intégrité scientifique : honnêteté intellectuelle à la paillasse. Voir pubpeer, qui relève régulièrement les manquements et fautes commises dans le domaine de l’intégrité scientifique. Enquête Nature : 70% des chercheurs interrogés ne peuvent pas répliquer les expériences de leurs collègues et 50% ne peuvent même pas refaire leur expérience.

Highly cited (Clarivates)

Contexte national

Deux indicateurs bibliométriques mesurent la part de la science française par rapport au reste du monde : ils sont déclinés sur les deux programmes recherche du MESRI (programmes 172 et 150).Les trois premiers sous-indicateurs mesurent la part des publications de référence internationale produites par les opérateurs du programme dans le monde, en Europe (UE 28) et au sein de l’espace France-Allemagne-Royaume-Uni.

  • Article : sur support actualisé, suit les évolutions de la technologie. Vs livre, temporalité trop longue, écrit dans une langue nationale.
  • Articles : publication ET reconnaissance.
  • Comme les autorités n’ont pas le temps de lire les articles, méthode de calcul simple et rapide : la citation devient le critère de calcul de la reconnaissance après la production.
  • Publications retenues par le WoS. Données validées par l’OST du HCERES sont parfois lacunaires (Poumeyrol à Bx a trouvé 27% d’erreurs).
  • Facteur d’impact calculé sur les 2 années qui précèdent l’année de référence (= l’année qu’on consulte). On favorise les disciplines dont les papiers sont beaucoup cités en un minimum de temps (en biologie moléculaire, une bibliographie est périmée au bout de 15 jours).
  • Les 3 piliers de la LOLF : articles et données ; brevets ; PCRD.

Bases de l’ISI

WoS & ResearcherID

  • http://isiknowledge.com
  • Affiliations : facile dans des petits instituts comme l’IFREMER, impossible en université.
  • Recherche par auteur sur le WOS : problème des homonymes et des affiliations
  • Si ResearcherID, on retrouve les publications http://www.researcherid.com/ et les métriques par chercheur
  • ResearcherID plus fiable pour retrouver les publications que la recherche par auteur du WoS. Si pas d’abonnement au WoS, permet de récupérer des infos de publications.
  • Bouton ResearcherID pour les pages web.
  • ResearcherID inféodé au WoS

ORCID

Autres identifiants

  • IdHAL
  • ResearcherId
  • IdRef
  • VIAF
  • ISNI

WOS et organisations

Collègues référents

  • Opalia : logiciel qui permet de faire des appariements de caractères sur les affiliations. Interroge HAL, le WOSF, etc, etc. Par Fréd Bordignon
  • P7 : N. Reymonet fait partie de l’atelier Bibliométrie de l’Urfist.

Mode de comptage

Facteur h

  • George Hirsch, physicien
  • Au moins 57 articles cités au moins 57 fois
  • Ne rend pas service aux jeunes doctorants géniaux… Voir http://www.pnas.org/content/107/50/21233 avant 35 ans, le facteur h est nocif.
  • Autocitations de l’auteur : de 2 ordres. Autorisation d’excellence quand le chercheur fait référence dans sa discipline et s’autocite. Autocitation de complaisance pour accroitre son facteur h.
  • Autocitations éditeur : demande pressante de l’éditeur ou du reviewer.
  • Faire la différence entre sum of times cited (citations en vrac) et citing articles.
  • NB : le WOS fonctionne sur des moyennes et pas sur des médianes, ce qui pose problème.
  • Plusieurs co-signataires : tout le monde obtient le même nombre de citations, même si certains ont plus travaillé que d’autres. Importance du 1er auteur.

SIGAPS / SAMPRA

  • Nombre de points par auteurs : voir Derancourt C, Devos P, Moore N, Rouvillain J-L. Modèle de valorisation des publications médicales scientifiques : le logiciel SIGAPS. /data/revues/01519638/v141i8-9/S0151963814005043/ [Internet]. 6 sept 2014 [cité 28 mai 2018]; Disponible sur: http://www.em-consulte.com/en/article/921749
  • Particularité pour la santé

Facteur g

Publish or perish

  • https://harzing.com/resources/publish-or-perish
  • Basé sur google scholar, mais des erreurs
  • Intéressant sur le plan de la métrique alternative
  • Proscrit par l’INSHS
  • Intéressant pour les métriques alternatives : pondérations liées à l’ancienneté, au nombre d’auteurs, etc.

Journal citation reports

CiteSeerX

##WOS

  • Cited Reference Search
  • Citation des preprints : ne met pas en avant la publication officielle, mais c’est bien, ça montre la valeur du preprint. Lorsque les preprints sont récents, met en valeur le preprint. Si citation de vieux preprints, problème : contenus périmés.
  • Elsevier accepte désormais la citation des preprints.
  • Publications dans les revues sont les seules agréées par l’administration (= les revues du WOS retenues par la LOLF).

Clarivate

  • https://clarivate.com/essays/journal-selection-process/
  • revue par les pairs
  • subventionnement et sponsoring
  • chartes éthiques des revues issues de la charte de l’American chemical society.
  • métadonnées doivent être de nature à retrouver les articles de façon correcte. Disparités importantes malgré les consignes. Forme qui permet de se substituer aux formes erratiques : DOI
  • Master Journal List http://mjl.clarivate.com/

Google scholar

  • indice h5 : facteur ne s’applique pas qu’à des personnes, peut s’appliquer à des revues. h5 : mesure sur 5 ans.
  • informatique : ostracisme de la part des mathématiciens. Peu d’articles en informatique, plutôt des communications rédigées à la va-vite. Absents du WOS jusqu’en 2008. Google scholar leur permettait d’avoir un référencement international. Scopus est apparu au même moment et a récupéré toute la littérature informatique qui n’était pas dans le WOS. A partir de 2008, le WOS a injecté les communications de la littérature informatique. Absents du JCR.

Eigenfactor

  • C’est pas un truc de vétéran grincheux, mais c’était mieux avant.

Scimago Journal & country Rank

  • SJR : 4 universités espagnoles qui travaillent pour Elsevier
  • même chose que l’Eigenfactor
  • Elsevier a encouragé le SJR
  • h index : calcul brut
  • corpus de Scopus, plus large que le corpus du WOS.
  • SNIP : important par rapport au domaine. Impact de citation d’une revue dans un champ disciplinaire donné. Un champ disciplinaire d’une revue J est défini par l’ensemble des articles qui citent la revue J et donc l’ensemble des revues auxquels appartiennent ces articles.