Occorre un vaccino contro l’accanimento parametrico

Va bene. Lo ammetto. Ho sbagliato. Ho commesso un errore nel credere che i “parametri oggettivi” fossero l’arma finale contro una certa autoreferenzialità accademica.

Ricordo un intervento di stampa di circa 25 anni fa intitolato, più o meno, “Salgo in cattedra con il computer”. Invocava l’uso dell’Impact factor (If) per classificare le pubblicazioni nei concorsi universitari. Per i non addetti ai lavori: l’If è un indicatore della popolarità, e quindi dell’interesse e della diffusione, di una rivista scientifica. È una spia, seppur indiretta, dell’importanza di un lavoro e quindi della qualità della ricerca svolta dall’autore. L’If sarebbe stato presto seguito dal Citation index (Ci), un indice dell’interesse per una pubblicazione misurato dal numero di volte in cui un altro ricercatore fa riferimento a quel risultato scientifico, prescindendo dall’If della rivista. If e Ci sarebbero poi stati integrati dall’H-index, un ulteriore indicatore “globale” in grado di combinare l’insieme delle pubblicazioni più citate di un ricercatore con il numero di citazioni ricevute in altre pubblicazioni.

Loading…

Sembrava una rivoluzione: con i “parametri oggettivi”, almeno nei settori dove la bibliometria era possibile, si poteva contrastare la autoreferenzialità di tante commissioni di concorso che operavano sulla base del principio: “Siamo noi i soli in grado di determinare chi fa buona scienza e chi no”. Per l’azione di contrasto, cosa meglio di una serie di robusti indicatori riconosciuti dalla comunità accademica? Nel tempo, tuttavia, quello che era stato concepito come uno strumento per contrastare gli abusi, si è trasformato in uno strumento vessatorio.

Sia chiaro che non sto attaccando la valutazione della ricerca. Semmai il contrario. Sono, e non da oggi, un convinto sostenitore della necessità di basare la ripartizione delle risorse non solo su riscontri oggettivi e trasparenti, ma anche su un’assunzione di responsabilità dei decisori. Proprio per difendere il principio della valutazione, penso sia doveroso segnalare i pericoli e le conseguenze dell’“accanimento parametrico”.

Nel mese passato, tutta la comunità accademica (circa 50mila unità) ha partecipato alla selezione dei prodotti della ricerca da sottoporre all’esercizio periodico di valutazione della qualità della ricerca (Vqr). Nelle aree bibliometriche (scienze, tecnologie, medicina e altre) ai ricercatori e alle ricercatrici è stato chiesto di selezionare tra le proprie pubblicazioni, in sequenza, 1) quelle con l’If più alto e, tra queste, 2) quelle con il Ci più alto, e, tra queste, 3) quelle con il numero di autocitazioni più basso, e, tra queste, 4) quelle che, possibilmente, non avessero coautori nello stesso dipartimento (scoraggiando così alcune collaborazioni). Tutto finalizzato a ottenere il miglior risultato “parametrico” della propria produzione, per poterla poi riversare nella produzione scientifica del Dipartimento e quindi in quella dell’Università di appartenenza. Il risultato di questo esercizio globale, come in passato, sarà utilizzato per stabilire indicatori di distribuzione delle risorse a livello ministeriale. Finalità giusta e condivisibile ma, per capirne l’impatto, si rifletta sul fatto che tutto il personale docente e ricercatore di “area bibliometrica” ha dovuto dedicare molto tempo a questa operazione. Anche con solo un’ora a testa (ma è stato molto di più) si tratta di decine di migliaia di ore di lavoro, a cui vanno aggiunte quelle del personale amministrativo. Tutto lavoro che – a mio avviso – potrebbe oggi essere tranquillamente affidato a un protocollo di intelligenza artificiale che interroghi le banche dati e individui la selezione ottimale per ciascuno di noi. Non dovrebbe essere difficile.