La forma consueta con la quale si diffonde il sapere scientifico è la pubblicazione su riviste, possibilmente internazionali e in lingua inglese, visto che l’inglese ormai è la lingua franca della comunicazione scientifica. Esistono riviste più o meno “blasonate” e obiettivo dei ricercatori è di pubblicare su quelle più prestigiose perché ormai è prassi comune che la carriera, così come i concorsi, si basi in modo preponderante sulla quantità delle pubblicazioni e sul prestigio delle riviste, nonché sul numero di citazioni che i propri articoli ricevono nei lavori di altri ricercatori. Ogni rivista che si rispetti, poi, seleziona gli articoli da pubblicare tramite un processo di “peer review”, ovvero di valutazione preventiva da parte di esperti della materia, presumibilmente indipendenti, ossia senza interessi propri che possano ostacolare una valutazione onesta.
Un sistema perfetto, quindi? Non proprio. Analizziamo alcuni aspetti.
Il primo è il modo per misurare il “prestigio” della rivista, il cosiddetto “impact factor”. L’impact factor è un numero che ogni anno l’ISI (Institute for Scientific Information) assegna alle riviste che esso censisce e che pubblica su Journal Citation Report: non sono tutte perché l’inclusione è a discrezione dell’editore di JCR. L’impact factor è un indice inventato da Eugene Garfield nel 1955 per aiutare i bibliotecari a decidere quali riviste conservare in visione e quali trasferire in magazzino e per orientare le politiche di abbonamento delle Università e dei Centri di ricerca. Garfield nel 1960 fondò l’ISI che nel 1962 fu acquisito dall’Editore Thomson, ora confluito in Thomson-Reuters.
Nonostante lo stesso Garfield e Thomson-Reuters scoraggino l’uso dell’impact factor nelle valutazioni individuali dei ricercatori, questa è ormai una prassi assai diffusa perché, essendo un numero apparentemente “oggettivo”, evita contestazioni dei giudizi delle commissioni di valutazione da parte di candidati delusi.
Non voglio dilungarmi sui limiti dell’impact factor. Vi rimando ad un articolo, ormai un classico, di Alessandro Figà Talamanca, matematico italiano, pubblicato quasi vent’anni fa e di veramente piacevole lettura: “Come valutare ‘obiettivamente’ la qualità della ricerca scientifica: Il caso dell’‘Impact Factor’”, Bollettino dell’Unione Matematica Italiana,Serie 8 2-A, 1999.
Voglio solo segnalare che l’impact actor di una rivista si basa sul rapporto tra il numero delle citazioni ricevute dagli articoli che essa pubblica rispetto al numero degli articoli stessi. Una rivista i cui articoli ricevono tante citazioni quanti gli articoli pubblicati ha un IF pari a 1; se il numero delle citazioni è di dieci volte il numero degli articoli pubblicati l’IF è pari a 10.
La maggior parte delle riviste sono probabilmente serie e non operano per influire sull’impact factor. Ma basta “raccomandare” agli Autori di citare lavori pubblicati sulla stessa rivista o su riviste dello stesso editore o di citare solo lavori recenti, visto che sono solo i tre anni precedenti che influiscono sull’IF e fattori distorsivi si presentano con tutta evidenza.
Il primo fattore di “imperfezione” del sistema di diffusione del sapere scientifico è la “tirannia dell’impact factor” (e di altri indici bibliometrici che per brevità non cito). Poiché, come dicevo, la carriera dei ricercatori è spesso fortemente condizionata dagli indici bibliometrici, la conseguenza è che “what you value is what you get”. I ricercatori, che non sono scemi, si adeguano e mettono al vertice delle loro priorità di pubblicare il maggior numero di lavori sulle riviste con l’impact factor maggiore. Anche sul comportamento di alcuni ricercatori si possono avanzare riserve quando adottano prassi poco “etiche” quali lo spezzettare artificiosamente un lavoro in più articoli, il pubblicare articoli simili su riviste diverse, puntando al fatto che anche i revisori non possano conoscere tutto quanto è stato pubblicato. Ma consideriamole pure deviazioni minoritarie.
Ma qual è il destino delle pubblicazioni sulle riviste internazionali? Di essere lette da una frazione esigua di specialisti della medesima disciplina. Ribadisco: di una medesima disciplina e in numero esiguo. Ora chiarisco il concetto.
La maggior parte delle riviste scientifiche sono specialistiche, focalizzate su singole discipline o su settori specifici di singole discipline. I revisori (peer reviewers) devono essere altrettanto competenti e specialisti, per poter comprendere il linguaggio, spesso gergale, i metodi impiegati, la discussione dei risultati. Se non lo fossero, la qualità delle revisioni sarebbe scadente perché passerebbero inosservati errori d’impostazione anche gravi; ma se lo sono, significa che il sapere resta confinato all’interno dell’area disciplinare o ad un suo settore limitato; alla faccia dei richiami all’interdisciplinarità e alla transdisciplinarità che riempiono i proclami su come si dovrebbe impostare la ricerca ma che restano “grida nel deserto”.
Un altro limite del sistema corrente, meno considerato ma forse più grave, è nel numero delle pubblicazioni collegato al fatto che, su carta o sul web, vanno comunque lette e capite da una mente umana. Vi do alcune cifre tratte dal settore che conosco meglio, l’agricoltura e tutte le scienze collegate.
Dal 1973 sono pubblicati i CAB Abstracts. CAB stava per Commonwealth Agricultural Bureau, (ora CABI – Centre for Agriculture and Biosciences International, https://www.cabi.org/). CAB Abstracts è un database che contiene quasi nove milioni di record (8,9), ciascuno riferito ad una pubblicazione scientifica nel settore allargato dell’agricoltura; ogni record contiene, oltre alla citazione, un riassunto.
Immaginiamo ora che un ricercatore intenda formarsi una visione di quanto è stato pubblicato e che dedichi dieci minuti di tempo alla lettura di un abstract (il che non è molto). Supponendo che lavori otto ore al giorno per 210 giorni l’anno, impiegherebbe 883 anni (ottocentoottantatre!) per leggere i riassunti. Vero è che le singole aree coperte da CAB Abstracts sono una quarantina e spaziano dalla genetica alla patologia, all’entomologia, alla chimica, persino all’eco-turismo e che non si può pensare che un ricercatore si interessi a tutte.
Ma anche se si limitasse ad una sola area (sempre in barba alla multidisciplinarità!) impiegherebbe mediamente 22 anni (ventidue!) a leggere i riassunti. Dopodiché dovrebbe decidere di quali valga la pena di leggere l’intero articolo.
Questa è chiaramente un’estremizzazione, ma dà il senso del fatto che la stragrande maggioranza di quello che viene pubblicato non sarà mai letto nemmeno da coloro che si occupano della stessa disciplina. Quanto sapere viene sprecato? Quante volte si reinventa la ruota? Quante ricerche affrontano questioni già risolte?
Molti ricercatori, inoltre, in ciò spinti anche dalle stesse riviste e dai revisori, si limitano a considerare solo le pubblicazioni più recenti, degli ultimi 3-5 anni e ad ignorare deliberatamente, come obsoleto, tutto quanto viene prima.
Ha senso tutto questo? A me sembra proprio di no. A me sembra necessario innovare drasticamente il modo in cui si produce e si condivide nuova conoscenza. Ma come?
Provo a ipotizzare due strade.
La prima è di passare dalla pubblicazione di risultati sintetizzati dall’Autore alla pubblicazione dei singoli dati raccolti. Attualmente la prassi è di esporre i materiali e i metodi con i quali una ricerca è stata impostata e condotta, i risultati ottenuti espressi in modo sintetico (medie, varianze, correlazioni e altri indici statistici) e discutere quanto se ne deduce.
Un grosso passo in avanti sarebbe la pubblicazione dei dati grezzi, in modo che chiunque possa rielaborarli a modo suo, in modi magari non previsti dallo stesso ricercatore che aveva impostato le prove. Ovviamente si dovrebbero pubblicare dati “annotati”, ossia accompagnati da tutte quelle informazioni che servono a comprendere le condizioni nelle quali sono stati raccolti. La pubblicazione dei data-set in modalità “open”, soprattutto se nella modalità cosiddetta “linked open data” consentirebbe a chiunque di riutilizzarli in contesti più ampi e quindi di moltiplicarne il valore. Non sto scoprendo nulla. I dati aperti, accessibili ai computer tramite ricerche nel web (come con Google ricerchiamo i testi), sono già una realtà ma ancora poco diffusa. Ci sono anche “riviste” nel web specializzate proprio nella pubblicazione di data-set. La CE sta incoraggiando ad adottare una strategia “open by default” per i dati dei progetti che finanzia. Ma il tutto è ancora troppo limitato.
Probabilmente, per il già citato principio “what you value is what you get” bisognerebbe valutare i ricercatori non tanto per le pubblicazioni tradizionali quanto per i data-set pubblicati e la loro qualità accertata da revisori indipendenti, come si fa ora per gli articoli. Credo che le cose cambierebbero rapidamente.
Un’altra strada è molto più radicale e, per ora, niente più che una “visione” del futuro alla Nicholas Negroponte. Si tratta di un superamento dell’attuale “metodo sperimentale”, così come applicato nella maggior parte delle scienze della vita e, probabilmente, delle scienze sociali.
In generale il metodo sperimentale si basa sull’inferenza statistica, ossia sul derivare considerazioni di portata generale (inferenze) su una “popolazione” attraverso osservazioni limitate (su un “campione”). Come definire la popolazione, come estrarre il campione, come “stratificarlo”, come elaborare i dati è oggetto della metodologia statistica nelle sue varie branche. Se il metodo è corretto, è lecito trarre conclusioni generali da osservazioni particolari associando alle conclusioni un determinato livello di fiducia.
Ora immaginiamo che invece che ricorrere a campioni noi possiamo raccogliere dati sull’intera popolazione. Invece che un campionamento si tratterebbe di un censimento. Avremmo una mole impressionante di dati ma completi. Non occorrerebbero elaborazioni statistiche se non semplici statistiche descrittive.
Ma quanto siamo lontani da questa realtà? In alcuni settori non molto.
In agricoltura, ad esempio, sensori multispettrali applicati ai satelliti consentono di determinare molti parametri dell’ambiente (umidità, temperatura, colore, copertura vegetale) con una scala ormai molto grande, che per alcune bande corrisponde a pixel di 10 m (100 pixel in un ettaro). Le tecniche basate sul laser (LIDAR), con strumenti portati da aerei o droni consentono misure a terra e della vegetazione con precisioni di centimetri. In entrambi i casi il costo di realizzazione dei rilievi per unità di superficie decresce rapidissimamente, rendendo possibili rilievi a tappeto su intere regioni. Se si dispone di dati georiferiti per singole colture o varietà (es. attraverso i DB realizzati per la PAC) è immaginabile incrociare i dati per definire le rese produttive in funzione delle condizioni dell’ambiente.
In medicina si potrebbero raccogliere dati in tempo reale sullo stato fisiologico delle persone non solo per individuare tempestivamente condizioni di criticità, ma anche per studiare a tappeto e in condizioni reali le relazioni tra stato di salute e benessere e parametri fisiologici. Già adesso moltissime persone fanno uso di sistemi di monitoraggio delle attività che misurano il battito cardiaco, il tipo di attività, l’entità degli sforzi, ecc. Aggiungendo altri parametri si può avere un quadro almeno approssimativo dello stato fisiologico. Se (o quando) la maggior parte delle persone sarà “tracciato” in questo modo, la quantità di dati a disposizione dei medici e dei ricercatori potrebbe limitare la necessità di ricorrere a esperimenti.
Forse, e non a torto, questa prospettiva di essere sempre sotto l’occhio di un “grande fratello” (alla Orwell!) è preoccupante, anche per usi non corretti di informazioni personali che sono emersi recentemente, ma resta il fatto che la capacità di immagazzinare e analizzare enormi quantità di dati (Big Data) sta facendo crescere l’attenzione sull’esplorazione dei dati (data mining) come strada maestra della conoscenza, al posto dell’esperimento, metodologicamente corretto ma necessariamente limitato.
Credo che quanto prima il mondo della ricerca e dell’accademia si renderà conto dei limiti insiti nell’attuale sistema della conoscenza e della sua diffusione e delle nuove strade aperte meglio sarà. Non sono molto ottimista sul fatto che la consapevolezza maturi dall’interno; sono troppi i ricercatori che sono veramente convinti che sia giusto e corretto essere misurati con gli indici bibliometrici e che l’obiettivo unico del loro lavoro sia pubblicare. Credo piuttosto che questo cambiamento copernicano sarà imposto dalla società civile come presupposto per ricostituire un rapporto positivo tra scienza e società che in questi ultimi decenni si è sgretolato.
Stefano BISOFFI
Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto