Cambiare i concorsi senza merito
di GIORGIO ISRAEL
di GIORGIO ISRAEL
IL TENTATIVO di riaprire i concorsi fermi da anni sta gettando nel marasma l’università italiana. La materia ha aspetti tecnici indigesti ma la sostanza è chiara e di interesse generale. Il nodo da sciogliere è come selezionare i nuovi docenti evitando arbitrii e favoritismi. Ciò richiede un processo di valutazione della ricerca scientifica quanto più possibile imparziale.
Se chiedessimo a una persona ragionevole come valutare un lavoro scientifico la risposta non potrebbe che essere: leggendolo. Beninteso, facendolo leggere a più lettori competenti e indipendenti, con regole che garantiscano imparzialità. Questa è la procedura classica («peer review»), che ha pregi evidenti pur non garantendo del tutto dall’arbitrio e dagli errori. Il guaio è che la produzione scientifica è cresciuta in modo esponenziale ed è sempre più difficile leggere con calma e serietà i milioni di articoli che si affacciano ogni anno sulle migliaia di riviste scientifiche, per non dire dei libri. Di qui l’emergere della «bibliometria», la cui essenza si compendia nella formula: valutare i lavori scientifici senza leggerli. È l’imitazione dei procedimenti di valutazione dei prodotti commerciali. Nessuno si sognerebbe di aprire e assaggiare tutte le scatole di pelati immesse sul mercato. Basta fare un’indagine di mercato analizzando il gradimento del prodotto dei consumatori. Nel nostro caso si tratterebbe di raccogliere le valutazioni dei lettori di un articolo, il che è praticamente impossibile. L’idea è allora di assumere come indicatore di qualità il numero di citazioni del lavoro scientifico e di valutare «prodotto» e autore attraverso alcuni parametri statistici, circa i quali non affliggeremo il lettore. Il fatto paradossale è che lo studio delle citazioni fu pensato, in ambito sociologico, per dimostrare che la scienza non è un’attività di ricerca del vero, bensì un’impresa condizionata da tanti aspetti sociali. Difatti, si cita per motivi tutt’altro che «oggettivi»: per esibire le proprie conoscenze, per debito intellettuale, per servilismo accademico, per esaltare la propria scuola, per denigrare qualcuno, si omette di citare per ostilità tra scuole, ecc. Assumere il numero di citazioni come indice oggettivo della qualità di un lavoro scientifico è paradossale. Inoltre, è noto che quanto più un indicatore sociale è usato per assumere decisioni e tanto più è soggetto a pressioni corruttive e distorce i processi sociali che deve monitorare: è la cosiddetta legge di Campbell o di Goodhart. Numerose ricerche hanno mostrato che la bibliometria induce comportamenti scorretti: persone o gruppi che si citano all’impazzata per far crescere i loro parametri, mentre l’analisi di contenuto degli articoli citati rivela spesso una qualità infima, e persino casi di plagio. In fondo, il vizio è nell’idea di mutuare metodi appropriati alla produzione di merci ma non a quella delle idee. Un indice di qualità delle scatole di pelati è la loro standardizzazione, cioè che i prodotti siano il più possibile simili, in modo che aprendoli non vi siano sorprese. Ma standardizzare la ricerca scientifica e la cultura è un obbiettivo demenziale e distruttivo. Il valore dei lavori scientifici sta nella loro individualità: l’uno è eccelso, l’altro modesto ma utile, un altro è da cestinare. Perciò, non si scappa: vanno letti. Le citazioni rendono conto della qualità in minima parte, tanto più se la base di dati dei lavori citati è gestita da ditte private interessate a censire solo le riviste, e solo certe riviste, ignorando i libri e tutto ciò che ha a che fare con la cultura umanistica.
Per queste e molte altre ragioni la bibliometria è aspramente criticata, proprio negli Usa dove è nata e proprio negli ambienti scientifici. Comunque, non v’è Paese al mondo in cui la bibliometria sia una procedura di Stato per selezionare i docenti. Negli Usa i docenti sono reclutati per lo più discrezionalmente dai direttori di dipartimento. Poi, assunto e direttore saranno chiamati a rispondere del loro operato.
In Italia si sta mettendo in opera qualcosa di unico al mondo, e con enorme sperpero di risorse: la bibliometria di Stato gestita insindacabilmente da un ente di nomina politica, l’Anvur (Agenzia di valutazione dell’università e della ricerca). In realtà, le intenzioni dichiarate dalla politica durante l’approvazione della riforma erano opposte: «Mai una valutazione a monte, bensì a valle. Le università assumano liberamente e poi saranno valutate, premiate o penalizzate secondo gli effetti delle loro decisioni». Ma la cultura liberale in Italia è debole e le intenzioni si sono ribaltate. Ministero e Anvur hanno dettato i criteri statistici - anche qui ricorrendo a un sistema unico al mondo, il calcolo della «mediana» - che determinano chi ha diritto a entrare in commissione e a presentarsi come candidato. Il sapere è stato diviso in due, tra settore scientifico (soggetto alla bibliometria) e settore umanistico, comunque soggetto a parametri statistici basati sulle citazioni e una classifica di qualità delle riviste decisa dall’Anvur. Sono emerse situazioni assurde, ingiustizie patenti, e il verificarsi della legge di Campbell, con l’arrembaggio a farsi classificare al primo livello le proprie riviste. Le proteste dilagano e si prospettano numerosi e fondati ricorsi legali. È il marasma di cui si diceva all’inizio.
Di fronte a questa situazione l’Anvur ha prodotto un imbarazzante documento. Da un lato si ammette che i metodi di calcolo sono cambiati a più riprese, per evitare situazioni platealmente assurde, fornendo così ironicamente la dimostrazione della mancanza di oggettività della bibliometria. Dall’altro, si tenta di scaricare la responsabilità sul decreto ministeriale, in cui le definizioni statistiche sarebbero ambigue, e si lamenta di non aver potuto disporre di un’anagrafe della ricerca. L’autocritica è evidente ma è troppo parziale: ci si ostina a dire che la metodologia scelta non dà luogo a risultati inaccettabili, mentre le prove del contrario sono evidenti. Inoltre, tentare di uscirne aprendo un palleggio di responsabilità col ministero significa aprire la strada alla catastrofe finale.
Una persona ragionevole deve chiedersi «come uscirne», nel presupposto che ostinarsi è irragionevole. Se non si vuole andare avanti a costo di finire sugli scogli, né scegliere la via opposta (la più onesta) di dire «ci siamo sbagliati, ricominciamo presto tutto daccapo», la via per salvare i concorsi è una sola. Il ministero emetta un provvedimento con forza normativa secondo cui i calcoli delle «mediane» dell’Anvur sono un elemento di valutazione tra i tanti di cui le commissioni terranno conto nel giudizio dei candidati, e non sono un fattore di esclusione dei commissari. I difetti di una simile scelta sono evidenti, ma sarebbe scandaloso commettere ingiustizie (escludere commissari validissimi e demolire interi settori) solo per salvare le teorie sballate dell’Anvur. In futuro, un’Anvur opportunamente ripensata dovrà attenersi alla funzione davvero utile: valutare ex-post le scelte fatte e i risultati ottenuti, senza fanatismi statistici e senza assumere un ruolo da commissariato tecnico-politico.
V’è infine un aspetto singolarmente trascurato. Un professore universitario non è solo un ricercatore ma anche un insegnante. L’università ha la funzione di formare e non solo di produrre ricerca. Vi sono docenti che insegnano senza far ricerca da anni, ma vi sono studiosi che si occupano egoisticamente delle proprie ricerche insegnando poco o male. È sconcertante che questo aspetto sia assente nella valutazione, mentre è centrale nei sistemi universitari di qualità che proclamiamo di voler imitare. Basterebbe questo per accantonare il pessimo lavoro che è stato fatto.