C’è il «doping» delle citazioni dietro al miracolo della nostra ricerca
Lo studio: l’autopromozione falsa i parametri
Gian Antonio Stella
«Come ho scritto io, scritto io, scritto io, scritto io...». L’eccesso di vanità rischia di creare qualche problema alla comunità scientifica italiana. Un monitoraggio di tre studiosi intitolato «Citarsi addosso» mostra come buona parte della prodigiosa impennata tricolore nelle citazioni sulle riviste scientifiche mondiali sia dovuta a una crescita esponenziale delle auto-citazioni.
Lo studio Citation gaming induced by bibliometric evaluation: a country-level comparative analysis, pubblicato dalla rivista scientifica «Plos One» della Public Library of Science di San Francisco e firmato da Alberto Baccini, Eugenio Petrovich e Giuseppe De Nicolao, i primi due dell’Università di Siena, il terzo di quella di Pavia, è micidiale. E accusa il sistema della ricerca italiano, ridisegnato dalla riforma Gelmini del 2010, di esser infettato da un vizietto sempre più diffuso. In pratica ammassare nel curriculum più citazioni possibili «per superare le cosiddette “soglie bibliometriche”» e guadagnarsi l’Abilitazione Scientifica Nazionale indispensabile per il reclutamento e la promozione, ha dato vita a un fenomeno abnorme.
«A dispetto dei pesanti tagli ai finanziamenti e al personale», dice lo studio dei tre docenti, «la ricerca italiana ha compiuto una specie di miracolo: il suo impatto, misurato in termini di citazioni e produttività, non solo non è diminuito, ma è addirittura aumentato. Nel 2012, in termini d’impatto citazionale pesato (field-weighted citation impact), non solo le pubblicazioni italiane hanno superato quelle statunitensi ma l’Italia è salita al secondo posto nella classifica dei Paesi G8, appena dietro al Regno Unito. Di questo passo, secondo uno studio commissionato dal governo britannico l’Italia finirà per scalzare la Gran Bretagna dal primo posto. Anche Nature, in un recente editoriale, ha riconosciuto il continuo miglioramento della performance italiana, nonostante il basso livello di spesa pubblica in ricerca e sviluppo, ampiamente al di sotto della media europea».
L’ultimo Annuario Scienza Tecnologia e Società di Observa curato da Giuseppe Pellegrini e Barbara Saracino conferma: nel panorama mondiale per gli investimenti in ricerca e sviluppo in percentuale sul Pil, il nostro Paese arranca. La classifica, influenzata anche dal peso del comparto militare, vede in testa Israele col 4,3% e noi al 27° posto con l’1,3%, quota quasi dimezzata rispetto a quella media dell’Ocse (2,3%) e nettamente più bassa di quella dell’Unione europea pari al 1,9%. Numeri che si rispecchiano nella percentuale di ricercatori nel settore R&S: ogni 1.000 occupati ce ne sono 17,4 in Israele, 14,9 in Danimarca, 14,4 in Svezia, 8,1 nella Ue a 28 e 5,1 da noi.
Sia chiaro: la quota di scienziati italiani che riescono a ottenere finanziamenti internazionali alla ricerca è altissima. A dispetto di quanto spendono (poco) lo Stato, le università e le imprese, i nostri giovani sono storicamente ai primissimi posti a livello mondiale. Ed è giusto che l’Italia vada orgogliosa di loro.
Quella delle citazioni, però, è un’altra faccenda. Denunciata già cinque anni fa, ad esempio, da Francesco Margiocco. Che su Il Secolo XIX raccontò il caso di una piccola casa editrice che aveva esagerato nelle autocitazioni al punto di spingere «il colosso Thomson Reuters che, fra l’altro, stila ogni anno l’elenco delle riviste scientifiche più prestigiose» a radiare per un anno tre pubblicazioni mediche.
Lo studio
A dispetto dei forti tagli nei fondi, l’impatto delle nostre pubblicazioni
è da record: un’anomalia
«Più una rivista si autocita», scriveva l’autore della denuncia giornalistica, «più cresce il suo impact factor. Thomson Reuters se n’è accorta anni fa e ha cominciato a radiare dal suo albo, annualmente, chi pratica l’autocitazionismo fraudolento». O il fittissimo scambio di citazioni reciproche. Così «l’impact factor cresce, e molto. Cresce anche, di pari passo, l’autorevolezza dei loro autori (se sono citati così spesso, vorrà dire che sono bravi) e dell’Università» di riferimento, in quel caso quella di Chieti e Pescara.
Un caso, dice la ricerca di Baccini, De Nicolao e Petrovich, niente affatto isolato. Anzi. Tanto che l’Italia risulta ora una «vera e propria tigre della scienza europea»: «Per la prima volta, il nostro studio mostra chiaramente che la recente impennata dell’impatto citazionale dell’Italia è essenzialmente un miraggio, prodotto da un cambiamento del comportamento citazionale dei ricercatori italiani dopo la riforma. Per dimostrarlo, abbiamo ideato un semplice indicatore di auto-referenzialità della ricerca (Inwardness). Tale indicatore misura quale proporzione delle citazioni totali ricevute da un Paese provengano dal Paese stesso, cioè quanto dell’impatto totale di un Paese sia dovuto a citazioni “endogene”. In questo modo, l’indicatore è sensibile sia alle autocitazioni che ai cosiddetti “club citazionali” intranazionali — gruppi di ricercatori che si scambiano opportunisticamente citazioni tra di loro — in quanto entrambi i tipi di citazione provengono dal Paese stesso».
Grazie a questo indicatore, «abbiamo osservato che dopo il 2009 l’autoreferenzialità italiana compie un vero e proprio salto nella grande maggioranza dei settori di ricerca, distaccandosi nettamente dai trend degli altri membri del G10». Certo, come dicevamo davanti stanno sempre gli Stati Uniti. Ovvio: hanno la maggior parte dei premi Nobel nella chimica, della fisica, della medicina... Una potenza di fuoco imbattibile. Ma «dietro gli Usa, nel 2016 l’Italia diventa, sia globalmente sia nella maggior parte dei campi di ricerca, il Paese col più alto indice di autoreferenzialità citazionale».
In pratica, è la tesi dei tre studiosi, «la necessità di raggiungere gli obiettivi bibliometrici fissati da Anvur ha creato un forte incentivo all’autocitazione e alla creazione di club citazionali. Tali comportamenti sono diventati così pervasivi da alterare sensibilmente e rapidamente il valore di Inwardness su scala nazionale, sia globalmente che nella maggior parte dei settori. L’incremento dell’impatto italiano registrato nei ranking risulta così essere il frutto di un doping citazionale collettivo». Rileggiamo l’accusa: «doping citazionale collettivo». In pratica, «dietro il miracolo italiano non ci sono politiche della scienza miracolose, ma una gigantesca mascherata bibliometrica».
Potete scommetterci: nel nostro mondo scientifico scoppieranno polemiche a non finire. Ma sarebbe il caso di chiederci: non sarà il sistema di reclutamento, così come fatto, ad essere sbagliato?