Sopravviveremo alla complessità? (prima parte)

E’ chiaro a tutti che viviamo in un mondo sempre più complesso, in cui le componenti che interagiscono tra loro sono sempre più numerose e sono parti di reti di relazioni sempre più vaste e ramificate. Ma siamo attrezzati per gestirla? Chi non ha mai sentito citare “approccio olistico”, “gestione della complessità”, “transdisciplinarità”?

Nella gestione della complessità io vedo tre questioni principali:

  1. Come facciamo a comprenderla e a dominarla? Come facciamo ad orientarci in reti che sembrano labirinti nei quali entriamo senza una mappa? Possiamo affidarci alla tecnologia; ad esempio all’intelligenza artificiale?
  2. Come facciamo a far sì che la complessità porti stabilità, come negli ecosistemi naturali, invece che instabilità e caos?
  3. Come ci attrezziamo “culturalmente” per migliorare la nostra capacità di capire e gestire sistemi complessi?

In questa prima parte provo ad affrontare la prima questione, la più ardua.

La mente umana non è predisposta per gestire la complessità. L’uomo cerca regole, punti di riferimento per orientarsi, componenti principali. La mente dell’uomo crea una mappa semplificata della realtà che gli consente di navigare a vista.

Non che l’uomo neghi la complessità del mondo reale; semplicemente ragiona su un piccolo sottoinsieme delle sue componenti e soprattutto delle possibili interazioni tra queste. Perché altrimenti è perso.

Dalla ricerca agraria voglio trarre un esempio: quello degli esperimenti “fattoriali”. Ad esempio, se si vogliono valutare gli effetti di diversi livelli di combinazioni di fertilizzazione azotata (N), di potassio (K) e di fosforo (P) con diversi livelli di irrigazione (I), diverse profondità di lavorazione del terreno (L) e così via, per l’influenza che essi esercitano sulla produzione di una coltura (es. mais), la modalità tipica è di definire vari livelli (dosi) di applicazione di ciascun fattore (supponiamo tre) e applicare ad uno o più appezzamenti (parcelle) ogni combinazione di livelli di ciascun fattore. Nel caso in esame le combinazioni sarebbero 3(N) x 3(K) x 3(P) x 3(I) x 3 (L) = 243. Ma a parte la complessità di realizzazione (la programmazione statistica degli esperimenti consente alcune semplificazioni), è l’interpretazione dei dati che pone grossi problemi.

Possiamo stimare statisticamente l’effetto “principale” di ciascun fattore. Ad esempio, l’effetto delle diverse dosi di N quando applicate ad un insieme di tutte le combinazioni degli altri fattori e livelli: potremmo ad esempio trovare che all’aumentare della dose aumenta la produzione. E così per gli altri fattori.

Ma poi ci sono le “interazioni”. Ad es. NxK: qual è l’effetto delle dosi di N applicate a parcelle che hanno ricevuto diversi livelli di K (e un insieme di tutte le combinazioni di livelli di P, I, L)? Potrebbe esserci una risposta diversa all’azoto in funzione del livello di K che può orientarci verso una combinazione ottimale dei due elementi.

E le interazioni più complesse? NxKxP. Qual è l’effetto di differenti livelli di P quando applicato a ciascuna combinazione di NxP (9) ma con un insieme di tutti i livelli di I e L?

E le interazioni NxKxPxI? E NxKxPxIxL? Statisticamente possiamo stabilire se siano “significative” (ovvero, probabilisticamente parlando, non imputabili al caso); ma nella pratica come le interpretiamo? Quale indicazione pratica trarne? Molto difficile. Non per nulla gli agronomi considerano interessanti gli effetti principali e le interazioni a due fattori; poco quelle superiori: perché non si capisce bene come vadano interpretate e quindi non sono molto utili nella pratica.

Nell’esempio appena fatto, oltretutto, stiamo parlando di una realtà semplificata, costruita dall’uomo secondo uno schema definito. Immaginiamo la difficoltà di interpretare relazioni complesse in sistemi naturali, semplicemente con la misura e l’osservazione.

O più ancora in sistemi sociali o economici, nei quali magari l’osservatore interferisce con il fenomeno.

Una risposta possibile è affidarsi alla tecnologia informatica, alle capacità dei computer di elaborare enormi quantità di dati in poco tempo e senza errori.

Per molti fenomeni già ci si affida totalmente alla tecnologia nella gestione di sistemi complessi. La gestione del traffico aereo, la rete di distribuzione dell’energia elettrica, le transazioni bancarie, le previsioni meteorologiche non sarebbero possibili se non si fossero sviluppati sistemi automatici che hanno sostituito l’uomo e che rispetto all’uomo sono molto più affidabili e veloci.

Anche i modelli matematici applicati all’analisi di fenomeni naturali (clima), o legati alle attività dell’uomo (produzioni agricole) o alle grandezze economiche e finanziarie sono sempre più sofisticati ed efficaci, anche se, dal punto di vista logico, si basano sempre su una semplificazione della realtà, sulla riduzione della complessità ad un modello interpretativo..

Ma come scrisse George P.E. Box All models are wrong, but some models are useful. Sbagliati perché sono sempre approssimazioni e mai rappresentazioni esatte della realtà; utili perché un’approssimazione è sempre meglio che navigare nel buio.

Credo che nessuno dubiti dell’utilità di modelli e algoritmi per l’interpretazione e la gestione di sistemi fisici o magari biologici.

Ma altrettanto, se non più complessi, sono i fenomeni sociali e politici, che pure sono fondamentali nelle società moderne.

Le relazioni tra tipi, tempi e modalità del lavoro e paghe, tra lavoro e disoccupazione, tra capitale, lavoro, consumi, tasse e servizi, tra politica e amministrazione, tra famiglia, scuola e ambiente sociale nell’educazione, tra redditi, stili di vita, diete, salute e spesa sanitaria, tra integrazione e respingimento di migranti, … sono anch’esse complesse e potrebbero essere analizzate con modelli logici e matematici, alla ricerca di combinazioni ottimali o quantomeno soddisfacenti, o per prevedere, e quindi poter evitare, collassi e catastrofi.

Ma chi accetterebbe di affidare ad un modello matematico le decisioni su aspetti che, correttamente, riteniamo “politici”? In democrazia non importa che le opinioni siano giuste o sbagliate (o, probabilisticamente parlando, più giuste che sbagliate o viceversa). Ognuno ha diritto di scegliersi i rappresentanti che ritiene più adatti a difendere quelle opinioni, giuste o sbagliate che siano, perlomeno in una “democrazia rappresentativa”; o magari di difenderle e diffonderle in prima persona, come adesso sembra possibile (illusione?), con i mezzi di interazione sociale tramite Internet, in un’ipotesi (illusione?) di “democrazia diretta”.

Il fatto che ognuno di noi abbia una visione limitata delle cose, che sia condizionato dai propri interessi nella scelta di cosa ritenere giusto o sbagliato, o che semplicemente affronti le questioni politiche come il tifo nel calcio, per senso di appartenenza più che per una valutazione “oggettiva” della realtà, fa sì che la complessità venga affrontata in modo assai diverso da quanto si vorrebbe in teoria. Non c’è “approccio olistico”, ma solo una rappresentazione semplificata, interessata, preconcetta della realtà.

Credo che, al di là delle esortazioni ricorrenti ad affrontare la complessità con strumenti adeguati, dobbiamo rassegnarci a vivere in un mondo in cui decisioni che ci riguardano da vicino siano assunte “con la pancia” più che “con la testa”; perlomeno in una società che voglia definirsi democratica.

Forse sono condizionato, in questa mia valutazione, dalla deriva populista che ha preso il dibattito politico in anni recenti, non solo in Italia. Ma è questa la democrazia? David Brooks scrisse in un articolo pubblicato sul New York Times (1): Democracy is not average people selecting average leaders. It is average people with the wisdom to select the best prepared. E tra le caratteristiche di un buon leader politico, Brooks mette al primo posto la “prudenza” che definisce così: “It is the ability to grasp the unique pattern of a specific situation. It is the ability to absorb the vast flow of information and still discern the essential current of events — the things that go together and the things that will never go together. It is the ability to engage in complex deliberations and feel which arguments have the most weight”. Non è altro che la capacità di assumere decisioni avvedute in situazioni complesse.

Non resta che sperare in una democrazia in cui sia recuperata la capacità di scegliere come propri rappresentanti persone preparate e prudenti.

Stefano BISOFFI

(1) “Why Experience Matters”: https://www.nytimes.com/2008/09/16/opinion/16brooks.html), 15 settembre 2008.

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto.

Quanto sapere sprecato!

La forma consueta con la quale si diffonde il sapere scientifico è la pubblicazione su riviste, possibilmente internazionali e in lingua inglese, visto che l’inglese ormai è la lingua franca della comunicazione scientifica. Esistono riviste più o meno “blasonate” e obiettivo dei ricercatori è di pubblicare su quelle più prestigiose perché ormai è prassi comune che la carriera, così come i concorsi, si basi in modo preponderante sulla quantità delle pubblicazioni e sul prestigio delle riviste, nonché sul numero di citazioni che i propri articoli ricevono nei lavori di altri ricercatori. Ogni rivista che si rispetti, poi, seleziona gli articoli da pubblicare tramite un processo di “peer review”, ovvero di valutazione preventiva da parte di esperti della materia, presumibilmente indipendenti, ossia senza interessi propri che possano ostacolare una valutazione onesta.

Un sistema perfetto, quindi? Non proprio. Analizziamo alcuni aspetti.

Il primo è il modo per misurare il “prestigio” della rivista, il cosiddetto impact factor. L’impact factor è un numero che ogni anno l’ISI (Institute for Scientific Information) assegna alle riviste che esso censisce e che pubblica su Journal Citation Report: non sono tutte perché l’inclusione è a discrezione dell’editore di JCR. L’impact factor è un indice inventato da Eugene Garfield nel 1955 per aiutare i bibliotecari a decidere quali riviste conservare in visione e quali trasferire in magazzino e per orientare le politiche di abbonamento delle Università e dei Centri di ricerca. Garfield nel 1960 fondò l’ISI che nel 1962 fu acquisito dall’Editore Thomson, ora confluito in Thomson-Reuters.

Nonostante lo stesso Garfield e Thomson-Reuters scoraggino l’uso dell’impact factor nelle valutazioni individuali dei ricercatori, questa è ormai una prassi assai diffusa perché, essendo un numero apparentemente “oggettivo”, evita contestazioni dei giudizi delle commissioni di valutazione da parte di candidati delusi.

Non voglio dilungarmi sui limiti dell’impact factor. Vi rimando ad un articolo, ormai un classico, di Alessandro Figà Talamanca, matematico italiano, pubblicato quasi vent’anni fa e di veramente piacevole lettura: “Come valutare ‘obiettivamente’ la qualità della ricerca scientifica: Il caso dell’‘Impact Factor’”, Bollettino dell’Unione Matematica Italiana,Serie 8 2-A, 1999.

Voglio solo segnalare che l’impact actor di una rivista si basa sul rapporto tra il numero delle citazioni ricevute dagli articoli che essa pubblica rispetto al numero degli articoli stessi. Una rivista i cui articoli ricevono tante citazioni quanti gli articoli pubblicati ha un IF pari a 1; se il numero delle citazioni è di dieci volte il numero degli articoli pubblicati l’IF è pari a 10.

La maggior parte delle riviste sono probabilmente serie e non operano per influire sull’impact factor. Ma basta “raccomandare” agli Autori di citare lavori pubblicati sulla stessa rivista o su riviste dello stesso editore o di citare solo lavori recenti, visto che sono solo i tre anni precedenti che influiscono sull’IF e fattori distorsivi si presentano con tutta evidenza.

Il primo fattore di “imperfezione” del sistema di diffusione del sapere scientifico è la “tirannia dell’impact factor (e di altri indici bibliometrici che per brevità non cito). Poiché, come dicevo, la carriera dei ricercatori è spesso fortemente condizionata dagli indici bibliometrici, la conseguenza è che “what you value is what you get”. I ricercatori, che non sono scemi, si adeguano e mettono al vertice delle loro priorità di pubblicare il maggior numero di lavori sulle riviste con l’impact factor maggiore. Anche sul comportamento di alcuni ricercatori si possono avanzare riserve quando adottano prassi poco “etiche” quali lo spezzettare artificiosamente un lavoro in più articoli, il pubblicare articoli simili su riviste diverse, puntando al fatto che anche i revisori non possano conoscere tutto quanto è stato pubblicato. Ma consideriamole pure deviazioni minoritarie.

Ma qual è il destino delle pubblicazioni sulle riviste internazionali? Di essere lette da una frazione esigua di specialisti della medesima disciplina. Ribadisco: di una medesima disciplina e in numero esiguo. Ora chiarisco il concetto.

La maggior parte delle riviste scientifiche sono specialistiche, focalizzate su singole discipline o su settori specifici di singole discipline. I revisori (peer reviewers) devono essere altrettanto competenti e specialisti, per poter comprendere il linguaggio, spesso gergale, i metodi impiegati, la discussione dei risultati. Se non lo fossero, la qualità delle revisioni sarebbe scadente perché passerebbero inosservati errori d’impostazione anche gravi; ma se lo sono, significa che il sapere resta confinato all’interno dell’area disciplinare o ad un suo settore limitato; alla faccia dei richiami all’interdisciplinarità e alla transdisciplinarità che riempiono i proclami su come si dovrebbe impostare la ricerca ma che restano “grida nel deserto”.

Un altro limite del sistema corrente, meno considerato ma forse più grave, è nel numero delle pubblicazioni collegato al fatto che, su carta o sul web, vanno comunque lette e capite da una mente umana. Vi do alcune cifre tratte dal settore che conosco meglio, l’agricoltura e tutte le scienze collegate.

Dal 1973 sono pubblicati i CAB Abstracts. CAB stava per Commonwealth Agricultural Bureau, (ora CABI – Centre for Agriculture and Biosciences International, https://www.cabi.org/). CAB Abstracts è un database che contiene quasi nove milioni di record (8,9), ciascuno riferito ad una pubblicazione scientifica nel settore allargato dell’agricoltura; ogni record contiene, oltre alla citazione, un riassunto.

Immaginiamo ora che un ricercatore intenda formarsi una visione di quanto è stato pubblicato e che dedichi dieci minuti di tempo alla lettura di un abstract (il che non è molto). Supponendo che lavori otto ore al giorno per 210 giorni l’anno, impiegherebbe 883 anni (ottocentoottantatre!) per leggere i riassunti. Vero è che le singole aree coperte da CAB Abstracts sono una quarantina e spaziano dalla genetica alla patologia, all’entomologia, alla chimica, persino all’eco-turismo e che non si può pensare che un ricercatore si interessi a tutte.

Ma anche se si limitasse ad una sola area (sempre in barba alla multidisciplinarità!) impiegherebbe mediamente 22 anni (ventidue!) a leggere i riassunti. Dopodiché dovrebbe decidere di quali valga la pena di leggere l’intero articolo.

Questa è chiaramente un’estremizzazione, ma dà il senso del fatto che la stragrande maggioranza di quello che viene pubblicato non sarà mai letto nemmeno da coloro che si occupano della stessa disciplina. Quanto sapere viene sprecato? Quante volte si reinventa la ruota? Quante ricerche affrontano questioni già risolte?

Molti ricercatori, inoltre, in ciò spinti anche dalle stesse riviste e dai revisori, si limitano a considerare solo le pubblicazioni più recenti, degli ultimi 3-5 anni e ad ignorare deliberatamente, come obsoleto, tutto quanto viene prima.

Ha senso tutto questo? A me sembra proprio di no. A me sembra necessario innovare drasticamente il modo in cui si produce e si condivide nuova conoscenza. Ma come?

Provo a ipotizzare due strade.

La prima è di passare dalla pubblicazione di risultati sintetizzati dall’Autore alla pubblicazione dei singoli dati raccolti. Attualmente la prassi è di esporre i materiali e i metodi con i quali una ricerca è stata impostata e condotta, i risultati ottenuti espressi in modo sintetico (medie, varianze, correlazioni e altri indici statistici) e discutere quanto se ne deduce.

Un grosso passo in avanti sarebbe la pubblicazione dei dati grezzi, in modo che chiunque possa rielaborarli a modo suo, in modi magari non previsti dallo stesso ricercatore che aveva impostato le prove. Ovviamente si dovrebbero pubblicare dati “annotati”, ossia accompagnati da tutte quelle informazioni che servono a comprendere le condizioni nelle quali sono stati raccolti. La pubblicazione dei data-set in modalità “open”, soprattutto se nella modalità cosiddetta “linked open data” consentirebbe a chiunque di riutilizzarli in contesti più ampi e quindi di moltiplicarne il valore. Non sto scoprendo nulla. I dati aperti, accessibili ai computer tramite ricerche nel web (come con Google ricerchiamo i testi), sono già una realtà ma ancora poco diffusa. Ci sono anche “riviste” nel web specializzate proprio nella pubblicazione di data-set. La CE sta incoraggiando ad adottare una strategia “open by default” per i dati dei progetti che finanzia. Ma il tutto è ancora troppo limitato.

Probabilmente, per il già citato principio “what you value is what you get” bisognerebbe valutare i ricercatori non tanto per le pubblicazioni tradizionali quanto per i data-set pubblicati e la loro qualità accertata da revisori indipendenti, come si fa ora per gli articoli. Credo che le cose cambierebbero rapidamente.

Un’altra strada è molto più radicale e, per ora, niente più che una “visione” del futuro alla Nicholas Negroponte. Si tratta di un superamento dell’attuale “metodo sperimentale”, così come applicato nella maggior parte delle scienze della vita e, probabilmente, delle scienze sociali.

In generale il metodo sperimentale si basa sull’inferenza statistica, ossia sul derivare considerazioni di portata generale (inferenze) su una “popolazione” attraverso osservazioni limitate (su un “campione”). Come definire la popolazione, come estrarre il campione, come “stratificarlo”, come elaborare i dati è oggetto della metodologia statistica nelle sue varie branche. Se il metodo è corretto, è lecito trarre conclusioni generali da osservazioni particolari associando alle conclusioni un determinato livello di fiducia.

Ora immaginiamo che invece che ricorrere a campioni noi possiamo raccogliere dati sull’intera popolazione. Invece che un campionamento si tratterebbe di un censimento. Avremmo una mole impressionante di dati ma completi. Non occorrerebbero elaborazioni statistiche se non semplici statistiche descrittive.

Ma quanto siamo lontani da questa realtà? In alcuni settori non molto.

In agricoltura, ad esempio, sensori multispettrali applicati ai satelliti consentono di determinare molti parametri dell’ambiente (umidità, temperatura, colore, copertura vegetale) con una scala ormai molto grande, che per alcune bande corrisponde a pixel di 10 m (100 pixel in un ettaro). Le tecniche basate sul laser (LIDAR), con strumenti portati da aerei o droni  consentono misure a terra e della vegetazione con precisioni di centimetri. In entrambi i casi il costo di realizzazione dei rilievi per unità di superficie decresce rapidissimamente, rendendo possibili rilievi a tappeto su intere regioni. Se si dispone di dati georiferiti per singole colture o varietà (es. attraverso i DB realizzati per la PAC) è immaginabile incrociare i dati per definire le rese produttive in funzione delle condizioni dell’ambiente.

In medicina si potrebbero raccogliere dati in tempo reale sullo stato fisiologico delle persone non solo per individuare tempestivamente condizioni di criticità, ma anche per studiare a tappeto e in condizioni reali le relazioni tra stato di salute e benessere e parametri fisiologici. Già adesso moltissime persone fanno uso di sistemi di monitoraggio delle attività che misurano il battito cardiaco, il tipo di attività, l’entità degli sforzi, ecc. Aggiungendo altri parametri si può avere un quadro almeno approssimativo dello stato fisiologico. Se (o quando) la maggior parte delle persone sarà “tracciato” in questo modo, la quantità di dati a disposizione dei medici e dei ricercatori potrebbe limitare la necessità di ricorrere a esperimenti.

Forse, e non a torto, questa prospettiva di essere sempre sotto l’occhio di un “grande fratello” (alla Orwell!) è preoccupante, anche per usi non corretti di informazioni personali che sono emersi recentemente, ma resta il fatto che la capacità di immagazzinare e analizzare enormi quantità di dati (Big Data) sta facendo crescere l’attenzione sull’esplorazione dei dati (data mining) come strada maestra della conoscenza, al posto dell’esperimento, metodologicamente corretto ma necessariamente limitato.

Credo che quanto prima il mondo della ricerca e dell’accademia si renderà conto dei limiti insiti nell’attuale sistema della conoscenza e della sua diffusione e delle nuove strade aperte meglio sarà. Non sono molto ottimista sul fatto che la consapevolezza maturi dall’interno; sono troppi i ricercatori che sono veramente convinti che sia giusto e corretto essere misurati con gli indici bibliometrici e che l’obiettivo unico del loro lavoro sia pubblicare. Credo piuttosto che questo cambiamento copernicano sarà imposto dalla società civile come presupposto per ricostituire un rapporto positivo tra scienza e società che in questi ultimi decenni si è sgretolato.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto

A quale logica deve ispirarsi la ricerca pubblica?

La ricerca pubblica utilizza risorse dei contribuenti ed è quindi naturale che si pretenda che essa sia utile, che valga i soldi che costa. In genere si usa dire che la ricerca deve avere un “impatto” concreto; ma la questione non è così semplice, perché tutto dipende da quali criteri si debbano adottare per valutare l’utilità, da chi debba trarre beneficio dai risultati e in che tempi gli effetti positivi si debbano manifestare.

Negli ultimi anni in Europa, con il 7° Programma Quadro della ricerca e ancor più con il suo successore Horizon 2020, ma anche a livello nazionale e regionale si è affermata l’idea che la ricerca debba innanzitutto avvantaggiare le imprese, perché queste creano ricchezza per il Paese, danno lavoro alle persone e sono quindi il motore del benessere. Non si parla più solo di finanziare la ricerca ma anche, ed ora forse principalmente, l’innovazione, ossia la traduzione dei risultati in prodotti o servizi resi disponibili sul mercato.

In realtà non è detto che gli interessi dell’impresa privata (e del capitale investito che essa intende far fruttare) coincidano con gli interessi della società. La famosa “mano invisibile” del libero mercato teorizzata da Adam Smith in “The Wealth of Nations” ha dimostrato molto chiaramente i propri limiti nel costruire un benessere diffuso e soprattutto distribuito in modo equo. Mi riferisco in particolare ad una crescente divaricazione fra la remunerazione del capitale rispetto al lavoro, alle frequenti esternalità negative dei processi produttivi, alla competizione impari tra le imprese più forti e le più deboli che produce sì vincitori ma anche molti sconfitti, alla capacità delle imprese di esercitare un’influenza sulla politica minando il dialogo democratico.

Analizziamo allora le diverse logiche possibili per definire quali siano i criteri che debbano guidare gli investimenti pubblici in ricerca:

  1. Ricerca per le imprese e con le imprese: come sopra accennato, questa è l’idea attualmente prevalente; le agende strategiche di ricerca sono dettate dall’industria, centrate sulle sue aspettative di innovazione e di crescita della capacità competitiva. Le imprese, soprattutto le grandi imprese, che spesso sono anche quelle con notevoli capacità di ricerca proprie, sommano così alle risorse finanziarie e alle competenze interne anche le risorse messe a disposizione dalle amministrazioni pubbliche, sia attraverso finanziamenti diretti che attraverso i finanziamenti concessi alle università e agli enti pubblici di ricerca (EPR).
  2. Un’altra possibile logica per la ricerca pubblica è di finanziare esclusivamente la ricerca “libera”: è detta anche ricerca di base, pura, fondamentale, ”curiosity driven” ed è finalizzata solo all’accrescimento delle conoscenze, senza considerazione per l’applicabilità dei risultati nella vita reale. Starà poi a chi sarà in grado di combinare i pezzi di conoscenza in qualcosa di applicabile di trarne i frutti. Molti strumenti di uso comune (es. i telefoni cellulari) utilizzano tecnologie di origine disparata e nate da ricerche di base (la trasmissione radio, il laser, i cristalli liquidi, …). Alla fine, con ogni probabilità, sarebbero sempre le imprese più forti economicamente e con le maggiori competenze tecnologiche a trarne i maggiori vantaggi, cui si aggiungerebbero start-up innovative, magari nate da costole delle università o degli EPR (spin-off). Una forte spinta alla ricerca di base è data dai programmi europei finanziati attraverso lo European Research Council.
  3. All’estremo opposto si colloca una situazione in cui l’intervento pubblico nella ricerca è minimo o addirittura assente, o magari limitato al finanziamento del “metabolismo basale” (stipendi del personale di ruolo, funzionamento) delle università e degli EPR o a parte di esso, obbligando le istituzioni a ricercare finanziamenti “sul mercato” per avviare programmi effettivi di ricerca. Ovviamente la ricerca sarebbe, ancor più che nel primo caso, fortemente plasmata sugli interessi dei finanziatori. Vale il detto inglese “who pays the piper calls the tune” (chi paga i suonatori sceglie la musica). Non è una situazione tanto remota, visto che in molti Paesi avanzati i finanziamenti pubblici per la ricerca sono drammaticamente in calo.
  4. Un approccio radicalmente diverso è quello che definisco reverse engineering: si potrebbe ipotizzare una “società ideale” nella quale prevalgano valori condivisi di solidarietà, eguaglianza, rispetto per l’ambiente, attenzione ai diritti e alle legittime aspettative delle generazioni future, un benessere (inteso letteralmente come ben essere) diffuso ma determinato più dalla qualità delle relazioni e dalle possibilità di sviluppo della personalità e delle capacità creative che dal consumo di risorse. Da questo modello ideale si dovrebbero derivare le esigenze di ricerca, ovvero indirizzare la ricerca verso quelle innovazioni tecnologiche e sociali che meglio possano condurvici. Si tratta di un’utopia, forse, ma perché rinunciare a porre i “valori” come criteri guida, anziché il mercato, la crescita economica, la competitività?
  5. Meno utopistica ma altrettanto orientata alla società nel suo insieme è una ricerca pubblica che tuteli prioritariamente gli interessi collettivi, spesso calpestati in una logica di mercato, soprattutto nella sua estremizzazione neo-liberista. La ricerca dovrebbe tutelare la salute pubblica (ad esempio verificando in modo indipendente le possibili conseguenze negative di nuovi materiali e di nuove tecnologie), dovrebbe favorire la conservazione e il miglioramento dei beni comuni: l’ambiente, le acque, il territorio, la biodiversità; tutti ambiti che non possono essere soggetti alla logica del mercato. Scrisse Karl Polany (The Great Transformation, 1944): Market-based mechanisms cannot be expected to provide solutions to societal and environmental challenges (Non ci si può aspettare che meccanismi basati sul mercato offrano soluzioni a sfide sociali e ambientali). La ricerca pubblica avrebbe quindi una funzione di garanzia del bene pubblico rispetto agli interessi privati.

Queste cinque categorie sono ovviamente caratterizzazioni estreme di logiche che possono in parte convivere. Nessuna rappresenta da sola una soluzione ideale o quantomeno soddisfacente. È però importante conservarle come schemi mentali nei dibattiti sulla ricerca e sulle sue priorità.

Va anche sfatato un mito: che la ricerca cosiddetta “applicata” sia sempre in grado di avere “impatti” concreti nell’arco di vita dei progetti di ricerca o anche in momenti immediatamente successivi. Uno studio molto interessante condotto qualche anno fa dall’INRA (Institut National de la Recherche Agronomique) analizzando retrospettivamente alcune innovazioni rilevanti in campo agricolo e tracciando i risultati della ricerca scientifica che li avevano resi possibili, aveva determinato in quasi vent’anni la distanza temporale tra risultati scientifici ed effetti tangibili. Ciò significa che quando in sede di predisposizione di progetti si insiste sull’impatto che avranno le ricerche, il più delle volte si tratta di affermazioni esageratamente ottimistiche e quindi di scarso valore.

Ritornando quindi alle parole iniziali, credo che si dovrebbe sostituire alla parola “impatto”, che tra l’altro evoca immagini poco positive, le parole “creazione di valore”: la ricerca deve “creare valore”. L’ambiguità in realtà permane anche sul concetto di valore, che è essenzialmente monetario in una logica di puro mercato, ma che è ben più elevato e nobile, anche se difficilmente misurabile, se nel “Valore” si comprendono quei fattori immateriali che danno un senso alla vita.

Spostare l’attenzione della ricerca dalle imprese alla società nel suo insieme avrebbe anche l’effetto di ricostruire intorno alla ricerca e ai ricercatori un consenso e una fiducia che attualmente è assai modesta.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto

Ma cos’è la destra, cos’è la sinistra?

Ricordate la canzone di Gaber? Il bagno è di destra, la doccia di sinistra; il culatello di destra e la mortadella di sinistra.

Ora sembra che le differenze tra destra e sinistra si riducano a queste banalità, con partiti e schieramenti che, come squadre di calcio, si distinguono più per la maglia che indossano che per come giocano; con tifoserie che, come quelle del calcio, si schierano di qua o di là per senso di appartenenza più che per condivisione di linee politiche.

Ma cos’è la destra, cos’è la sinistra? Esiste ancora un senso in queste parole? Forse gli unici che l’hanno capito sono i “Cinque Stelle” che si dichiarano “né di destra né di sinistra”; sanno bene che se scegliessero un’etichetta o l’altra perderebbero una fetta consistente di coloro che li hanno votati, tanti “di destra” e tanti “di sinistra”.

Rimane allora qualcosa, di una diversità ideale (non ideologica, perché l’ideologia è acritica, come il tifo!) tra destra e sinistra che sopravviva ancora oggi all’abuso che si è fatto di queste due parole? Io credo di sì e provo a spiegarlo.

La contrapposizione ideale oggi è tra individuo e società, tra utilità personale e utilità collettiva, tra proprietà privata e beni comuni. Intendiamoci: questi sono i due poli, ma come i poli geografici sono zone inospitali; in mezzo c’è un’ampia gamma di gradazioni possibili, ma le due direzioni vanno riconosciute come riferimenti, appunto, ideali.

Nessuno, perlomeno nei Paesi di tradizione democratica, penserebbe di abolire la proprietà privata: la casa, la macchina e gli elettrodomestici (anche se qui si potrebbe aprire un altro ragionamento in un ambito di economia circolare), gli arredi, magari la seconda casa, i risparmi in banca, la terra degli agricoltori, il laboratorio dell’artigiano, l’impresa che dà lavoro.

Ma è legittimo porsi il dubbio se sia ammissibile che alcuni, pochi, pochissimi abbiano proprietà private per un valore pari alla metà del resto del mondo; redditi individuali maggiori del PIL di interi Paesi. E’ legittimo porsi il dubbio se il neoliberismo, in cui i capitali seguono la finanza e non gli investimenti produttivi, possa essere accettato come fondamento della nostra società. E’ legittimo porsi il dubbio se sia ammissibile che la maggior parte del reddito d’impresa remuneri il capitale e non il lavoro. E’ legittimo porsi il dubbio se sia ammissibile che i Paesi del Nord del mondo, per il livello di consumi che hanno, continuino ad essere i maggiori responsabili dei cambiamenti climatici e quelli del Sud del mondo le prime vittime.

Nemmeno l’altro estremo è un panorama attraente. L’abolizione della proprietà privata, la collettivizzazione di terre e fabbriche, lo Stato padrone di tutto ed elargitore dei mezzi di sussistenza, sono esperienze fallimentari già percorse da vari regimi. Uno scenario in cui tutti i gatti sono grigi, l’iniziativa individuale è mortificata, in cui tutti sono uguali ma alcuni “più uguali degli altri” non è certo la società in cui la maggior parte di noi vorrebbe vivere.

Fra questi estremi, che ormai ha poco senso definire con i termini di destra e sinistra, si collocano i modelli di società possibili e le scelte politiche possibili, con la consapevolezza che non si può avere “la botte piena e la moglie ubriaca”, che non si può promettere meno tasse e più servizi, o lavoro per tutti e favorire nel contempo il capitalismo finanziario, libertà di circolazione dei capitali ed equità fiscale, deregulation e tutela dei diritti.

Tutti noi ce la prendiamo con la storia, ma io dico che la colpa è nostra: è evidente che la gente è poco seria quando parla di sinistra o destra” (Gaber).

“We are the 99%” era lo slogan del movimento “Occupy Wall Street”. Rendiamoci conto che il “bene comune” è il bene del 99%, non dell’1%; che ci sono beni collettivi, come ambiente, clima, biodiversità che non hanno e non possono avere un prezzo. Vi invito a leggere o rileggere l’enciclica di Papa Francesco “Laudato sii”, messaggio chiaro e autorevole in difesa del bene comune, del patrimonio naturale e sociale di tutti gli uomini e delle generazioni future.

Tutto il vecchio moralismo è di sinistra la mancanza di morale è a destra; anche il Papa ultimamente è un po’ a sinistra” (Gaber).

Gaber profetico? Naturalmente il moralismo non è la morale ma la sua caricatura; se non vogliamo conservare le vecchie distinzioni, diciamo che Papa Francesco non è un moralista (e ne ha dato prova in diverse occasioni) ma è difensore di una morale: quella del bene comune, della solidarietà, dell’equità.

E’ di sinistra? O è semplicemente una visione del mondo di buon senso? Decidete voi.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto