Quanto sapere sprecato!

La forma consueta con la quale si diffonde il sapere scientifico è la pubblicazione su riviste, possibilmente internazionali e in lingua inglese, visto che l’inglese ormai è la lingua franca della comunicazione scientifica. Esistono riviste più o meno “blasonate” e obiettivo dei ricercatori è di pubblicare su quelle più prestigiose perché ormai è prassi comune che la carriera, così come i concorsi, si basi in modo preponderante sulla quantità delle pubblicazioni e sul prestigio delle riviste, nonché sul numero di citazioni che i propri articoli ricevono nei lavori di altri ricercatori. Ogni rivista che si rispetti, poi, seleziona gli articoli da pubblicare tramite un processo di “peer review”, ovvero di valutazione preventiva da parte di esperti della materia, presumibilmente indipendenti, ossia senza interessi propri che possano ostacolare una valutazione onesta.

Un sistema perfetto, quindi? Non proprio. Analizziamo alcuni aspetti.

Il primo è il modo per misurare il “prestigio” della rivista, il cosiddetto impact factor. L’impact factor è un numero che ogni anno l’ISI (Institute for Scientific Information) assegna alle riviste che esso censisce e che pubblica su Journal Citation Report: non sono tutte perché l’inclusione è a discrezione dell’editore di JCR. L’impact factor è un indice inventato da Eugene Garfield nel 1955 per aiutare i bibliotecari a decidere quali riviste conservare in visione e quali trasferire in magazzino e per orientare le politiche di abbonamento delle Università e dei Centri di ricerca. Garfield nel 1960 fondò l’ISI che nel 1962 fu acquisito dall’Editore Thomson, ora confluito in Thomson-Reuters.

Nonostante lo stesso Garfield e Thomson-Reuters scoraggino l’uso dell’impact factor nelle valutazioni individuali dei ricercatori, questa è ormai una prassi assai diffusa perché, essendo un numero apparentemente “oggettivo”, evita contestazioni dei giudizi delle commissioni di valutazione da parte di candidati delusi.

Non voglio dilungarmi sui limiti dell’impact factor. Vi rimando ad un articolo, ormai un classico, di Alessandro Figà Talamanca, matematico italiano, pubblicato quasi vent’anni fa e di veramente piacevole lettura: “Come valutare ‘obiettivamente’ la qualità della ricerca scientifica: Il caso dell’‘Impact Factor’”, Bollettino dell’Unione Matematica Italiana,Serie 8 2-A, 1999.

Voglio solo segnalare che l’impact actor di una rivista si basa sul rapporto tra il numero delle citazioni ricevute dagli articoli che essa pubblica rispetto al numero degli articoli stessi. Una rivista i cui articoli ricevono tante citazioni quanti gli articoli pubblicati ha un IF pari a 1; se il numero delle citazioni è di dieci volte il numero degli articoli pubblicati l’IF è pari a 10.

La maggior parte delle riviste sono probabilmente serie e non operano per influire sull’impact factor. Ma basta “raccomandare” agli Autori di citare lavori pubblicati sulla stessa rivista o su riviste dello stesso editore o di citare solo lavori recenti, visto che sono solo i tre anni precedenti che influiscono sull’IF e fattori distorsivi si presentano con tutta evidenza.

Il primo fattore di “imperfezione” del sistema di diffusione del sapere scientifico è la “tirannia dell’impact factor (e di altri indici bibliometrici che per brevità non cito). Poiché, come dicevo, la carriera dei ricercatori è spesso fortemente condizionata dagli indici bibliometrici, la conseguenza è che “what you value is what you get”. I ricercatori, che non sono scemi, si adeguano e mettono al vertice delle loro priorità di pubblicare il maggior numero di lavori sulle riviste con l’impact factor maggiore. Anche sul comportamento di alcuni ricercatori si possono avanzare riserve quando adottano prassi poco “etiche” quali lo spezzettare artificiosamente un lavoro in più articoli, il pubblicare articoli simili su riviste diverse, puntando al fatto che anche i revisori non possano conoscere tutto quanto è stato pubblicato. Ma consideriamole pure deviazioni minoritarie.

Ma qual è il destino delle pubblicazioni sulle riviste internazionali? Di essere lette da una frazione esigua di specialisti della medesima disciplina. Ribadisco: di una medesima disciplina e in numero esiguo. Ora chiarisco il concetto.

La maggior parte delle riviste scientifiche sono specialistiche, focalizzate su singole discipline o su settori specifici di singole discipline. I revisori (peer reviewers) devono essere altrettanto competenti e specialisti, per poter comprendere il linguaggio, spesso gergale, i metodi impiegati, la discussione dei risultati. Se non lo fossero, la qualità delle revisioni sarebbe scadente perché passerebbero inosservati errori d’impostazione anche gravi; ma se lo sono, significa che il sapere resta confinato all’interno dell’area disciplinare o ad un suo settore limitato; alla faccia dei richiami all’interdisciplinarità e alla transdisciplinarità che riempiono i proclami su come si dovrebbe impostare la ricerca ma che restano “grida nel deserto”.

Un altro limite del sistema corrente, meno considerato ma forse più grave, è nel numero delle pubblicazioni collegato al fatto che, su carta o sul web, vanno comunque lette e capite da una mente umana. Vi do alcune cifre tratte dal settore che conosco meglio, l’agricoltura e tutte le scienze collegate.

Dal 1973 sono pubblicati i CAB Abstracts. CAB stava per Commonwealth Agricultural Bureau, (ora CABI – Centre for Agriculture and Biosciences International, https://www.cabi.org/). CAB Abstracts è un database che contiene quasi nove milioni di record (8,9), ciascuno riferito ad una pubblicazione scientifica nel settore allargato dell’agricoltura; ogni record contiene, oltre alla citazione, un riassunto.

Immaginiamo ora che un ricercatore intenda formarsi una visione di quanto è stato pubblicato e che dedichi dieci minuti di tempo alla lettura di un abstract (il che non è molto). Supponendo che lavori otto ore al giorno per 210 giorni l’anno, impiegherebbe 883 anni (ottocentoottantatre!) per leggere i riassunti. Vero è che le singole aree coperte da CAB Abstracts sono una quarantina e spaziano dalla genetica alla patologia, all’entomologia, alla chimica, persino all’eco-turismo e che non si può pensare che un ricercatore si interessi a tutte.

Ma anche se si limitasse ad una sola area (sempre in barba alla multidisciplinarità!) impiegherebbe mediamente 22 anni (ventidue!) a leggere i riassunti. Dopodiché dovrebbe decidere di quali valga la pena di leggere l’intero articolo.

Questa è chiaramente un’estremizzazione, ma dà il senso del fatto che la stragrande maggioranza di quello che viene pubblicato non sarà mai letto nemmeno da coloro che si occupano della stessa disciplina. Quanto sapere viene sprecato? Quante volte si reinventa la ruota? Quante ricerche affrontano questioni già risolte?

Molti ricercatori, inoltre, in ciò spinti anche dalle stesse riviste e dai revisori, si limitano a considerare solo le pubblicazioni più recenti, degli ultimi 3-5 anni e ad ignorare deliberatamente, come obsoleto, tutto quanto viene prima.

Ha senso tutto questo? A me sembra proprio di no. A me sembra necessario innovare drasticamente il modo in cui si produce e si condivide nuova conoscenza. Ma come?

Provo a ipotizzare due strade.

La prima è di passare dalla pubblicazione di risultati sintetizzati dall’Autore alla pubblicazione dei singoli dati raccolti. Attualmente la prassi è di esporre i materiali e i metodi con i quali una ricerca è stata impostata e condotta, i risultati ottenuti espressi in modo sintetico (medie, varianze, correlazioni e altri indici statistici) e discutere quanto se ne deduce.

Un grosso passo in avanti sarebbe la pubblicazione dei dati grezzi, in modo che chiunque possa rielaborarli a modo suo, in modi magari non previsti dallo stesso ricercatore che aveva impostato le prove. Ovviamente si dovrebbero pubblicare dati “annotati”, ossia accompagnati da tutte quelle informazioni che servono a comprendere le condizioni nelle quali sono stati raccolti. La pubblicazione dei data-set in modalità “open”, soprattutto se nella modalità cosiddetta “linked open data” consentirebbe a chiunque di riutilizzarli in contesti più ampi e quindi di moltiplicarne il valore. Non sto scoprendo nulla. I dati aperti, accessibili ai computer tramite ricerche nel web (come con Google ricerchiamo i testi), sono già una realtà ma ancora poco diffusa. Ci sono anche “riviste” nel web specializzate proprio nella pubblicazione di data-set. La CE sta incoraggiando ad adottare una strategia “open by default” per i dati dei progetti che finanzia. Ma il tutto è ancora troppo limitato.

Probabilmente, per il già citato principio “what you value is what you get” bisognerebbe valutare i ricercatori non tanto per le pubblicazioni tradizionali quanto per i data-set pubblicati e la loro qualità accertata da revisori indipendenti, come si fa ora per gli articoli. Credo che le cose cambierebbero rapidamente.

Un’altra strada è molto più radicale e, per ora, niente più che una “visione” del futuro alla Nicholas Negroponte. Si tratta di un superamento dell’attuale “metodo sperimentale”, così come applicato nella maggior parte delle scienze della vita e, probabilmente, delle scienze sociali.

In generale il metodo sperimentale si basa sull’inferenza statistica, ossia sul derivare considerazioni di portata generale (inferenze) su una “popolazione” attraverso osservazioni limitate (su un “campione”). Come definire la popolazione, come estrarre il campione, come “stratificarlo”, come elaborare i dati è oggetto della metodologia statistica nelle sue varie branche. Se il metodo è corretto, è lecito trarre conclusioni generali da osservazioni particolari associando alle conclusioni un determinato livello di fiducia.

Ora immaginiamo che invece che ricorrere a campioni noi possiamo raccogliere dati sull’intera popolazione. Invece che un campionamento si tratterebbe di un censimento. Avremmo una mole impressionante di dati ma completi. Non occorrerebbero elaborazioni statistiche se non semplici statistiche descrittive.

Ma quanto siamo lontani da questa realtà? In alcuni settori non molto.

In agricoltura, ad esempio, sensori multispettrali applicati ai satelliti consentono di determinare molti parametri dell’ambiente (umidità, temperatura, colore, copertura vegetale) con una scala ormai molto grande, che per alcune bande corrisponde a pixel di 10 m (100 pixel in un ettaro). Le tecniche basate sul laser (LIDAR), con strumenti portati da aerei o droni  consentono misure a terra e della vegetazione con precisioni di centimetri. In entrambi i casi il costo di realizzazione dei rilievi per unità di superficie decresce rapidissimamente, rendendo possibili rilievi a tappeto su intere regioni. Se si dispone di dati georiferiti per singole colture o varietà (es. attraverso i DB realizzati per la PAC) è immaginabile incrociare i dati per definire le rese produttive in funzione delle condizioni dell’ambiente.

In medicina si potrebbero raccogliere dati in tempo reale sullo stato fisiologico delle persone non solo per individuare tempestivamente condizioni di criticità, ma anche per studiare a tappeto e in condizioni reali le relazioni tra stato di salute e benessere e parametri fisiologici. Già adesso moltissime persone fanno uso di sistemi di monitoraggio delle attività che misurano il battito cardiaco, il tipo di attività, l’entità degli sforzi, ecc. Aggiungendo altri parametri si può avere un quadro almeno approssimativo dello stato fisiologico. Se (o quando) la maggior parte delle persone sarà “tracciato” in questo modo, la quantità di dati a disposizione dei medici e dei ricercatori potrebbe limitare la necessità di ricorrere a esperimenti.

Forse, e non a torto, questa prospettiva di essere sempre sotto l’occhio di un “grande fratello” (alla Orwell!) è preoccupante, anche per usi non corretti di informazioni personali che sono emersi recentemente, ma resta il fatto che la capacità di immagazzinare e analizzare enormi quantità di dati (Big Data) sta facendo crescere l’attenzione sull’esplorazione dei dati (data mining) come strada maestra della conoscenza, al posto dell’esperimento, metodologicamente corretto ma necessariamente limitato.

Credo che quanto prima il mondo della ricerca e dell’accademia si renderà conto dei limiti insiti nell’attuale sistema della conoscenza e della sua diffusione e delle nuove strade aperte meglio sarà. Non sono molto ottimista sul fatto che la consapevolezza maturi dall’interno; sono troppi i ricercatori che sono veramente convinti che sia giusto e corretto essere misurati con gli indici bibliometrici e che l’obiettivo unico del loro lavoro sia pubblicare. Credo piuttosto che questo cambiamento copernicano sarà imposto dalla società civile come presupposto per ricostituire un rapporto positivo tra scienza e società che in questi ultimi decenni si è sgretolato.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto

A quale logica deve ispirarsi la ricerca pubblica?

La ricerca pubblica utilizza risorse dei contribuenti ed è quindi naturale che si pretenda che essa sia utile, che valga i soldi che costa. In genere si usa dire che la ricerca deve avere un “impatto” concreto; ma la questione non è così semplice, perché tutto dipende da quali criteri si debbano adottare per valutare l’utilità, da chi debba trarre beneficio dai risultati e in che tempi gli effetti positivi si debbano manifestare.

Negli ultimi anni in Europa, con il 7° Programma Quadro della ricerca e ancor più con il suo successore Horizon 2020, ma anche a livello nazionale e regionale si è affermata l’idea che la ricerca debba innanzitutto avvantaggiare le imprese, perché queste creano ricchezza per il Paese, danno lavoro alle persone e sono quindi il motore del benessere. Non si parla più solo di finanziare la ricerca ma anche, ed ora forse principalmente, l’innovazione, ossia la traduzione dei risultati in prodotti o servizi resi disponibili sul mercato.

In realtà non è detto che gli interessi dell’impresa privata (e del capitale investito che essa intende far fruttare) coincidano con gli interessi della società. La famosa “mano invisibile” del libero mercato teorizzata da Adam Smith in “The Wealth of Nations” ha dimostrato molto chiaramente i propri limiti nel costruire un benessere diffuso e soprattutto distribuito in modo equo. Mi riferisco in particolare ad una crescente divaricazione fra la remunerazione del capitale rispetto al lavoro, alle frequenti esternalità negative dei processi produttivi, alla competizione impari tra le imprese più forti e le più deboli che produce sì vincitori ma anche molti sconfitti, alla capacità delle imprese di esercitare un’influenza sulla politica minando il dialogo democratico.

Analizziamo allora le diverse logiche possibili per definire quali siano i criteri che debbano guidare gli investimenti pubblici in ricerca:

  1. Ricerca per le imprese e con le imprese: come sopra accennato, questa è l’idea attualmente prevalente; le agende strategiche di ricerca sono dettate dall’industria, centrate sulle sue aspettative di innovazione e di crescita della capacità competitiva. Le imprese, soprattutto le grandi imprese, che spesso sono anche quelle con notevoli capacità di ricerca proprie, sommano così alle risorse finanziarie e alle competenze interne anche le risorse messe a disposizione dalle amministrazioni pubbliche, sia attraverso finanziamenti diretti che attraverso i finanziamenti concessi alle università e agli enti pubblici di ricerca (EPR).
  2. Un’altra possibile logica per la ricerca pubblica è di finanziare esclusivamente la ricerca “libera”: è detta anche ricerca di base, pura, fondamentale, ”curiosity driven” ed è finalizzata solo all’accrescimento delle conoscenze, senza considerazione per l’applicabilità dei risultati nella vita reale. Starà poi a chi sarà in grado di combinare i pezzi di conoscenza in qualcosa di applicabile di trarne i frutti. Molti strumenti di uso comune (es. i telefoni cellulari) utilizzano tecnologie di origine disparata e nate da ricerche di base (la trasmissione radio, il laser, i cristalli liquidi, …). Alla fine, con ogni probabilità, sarebbero sempre le imprese più forti economicamente e con le maggiori competenze tecnologiche a trarne i maggiori vantaggi, cui si aggiungerebbero start-up innovative, magari nate da costole delle università o degli EPR (spin-off). Una forte spinta alla ricerca di base è data dai programmi europei finanziati attraverso lo European Research Council.
  3. All’estremo opposto si colloca una situazione in cui l’intervento pubblico nella ricerca è minimo o addirittura assente, o magari limitato al finanziamento del “metabolismo basale” (stipendi del personale di ruolo, funzionamento) delle università e degli EPR o a parte di esso, obbligando le istituzioni a ricercare finanziamenti “sul mercato” per avviare programmi effettivi di ricerca. Ovviamente la ricerca sarebbe, ancor più che nel primo caso, fortemente plasmata sugli interessi dei finanziatori. Vale il detto inglese “who pays the piper calls the tune” (chi paga i suonatori sceglie la musica). Non è una situazione tanto remota, visto che in molti Paesi avanzati i finanziamenti pubblici per la ricerca sono drammaticamente in calo.
  4. Un approccio radicalmente diverso è quello che definisco reverse engineering: si potrebbe ipotizzare una “società ideale” nella quale prevalgano valori condivisi di solidarietà, eguaglianza, rispetto per l’ambiente, attenzione ai diritti e alle legittime aspettative delle generazioni future, un benessere (inteso letteralmente come ben essere) diffuso ma determinato più dalla qualità delle relazioni e dalle possibilità di sviluppo della personalità e delle capacità creative che dal consumo di risorse. Da questo modello ideale si dovrebbero derivare le esigenze di ricerca, ovvero indirizzare la ricerca verso quelle innovazioni tecnologiche e sociali che meglio possano condurvici. Si tratta di un’utopia, forse, ma perché rinunciare a porre i “valori” come criteri guida, anziché il mercato, la crescita economica, la competitività?
  5. Meno utopistica ma altrettanto orientata alla società nel suo insieme è una ricerca pubblica che tuteli prioritariamente gli interessi collettivi, spesso calpestati in una logica di mercato, soprattutto nella sua estremizzazione neo-liberista. La ricerca dovrebbe tutelare la salute pubblica (ad esempio verificando in modo indipendente le possibili conseguenze negative di nuovi materiali e di nuove tecnologie), dovrebbe favorire la conservazione e il miglioramento dei beni comuni: l’ambiente, le acque, il territorio, la biodiversità; tutti ambiti che non possono essere soggetti alla logica del mercato. Scrisse Karl Polany (The Great Transformation, 1944): Market-based mechanisms cannot be expected to provide solutions to societal and environmental challenges (Non ci si può aspettare che meccanismi basati sul mercato offrano soluzioni a sfide sociali e ambientali). La ricerca pubblica avrebbe quindi una funzione di garanzia del bene pubblico rispetto agli interessi privati.

Queste cinque categorie sono ovviamente caratterizzazioni estreme di logiche che possono in parte convivere. Nessuna rappresenta da sola una soluzione ideale o quantomeno soddisfacente. È però importante conservarle come schemi mentali nei dibattiti sulla ricerca e sulle sue priorità.

Va anche sfatato un mito: che la ricerca cosiddetta “applicata” sia sempre in grado di avere “impatti” concreti nell’arco di vita dei progetti di ricerca o anche in momenti immediatamente successivi. Uno studio molto interessante condotto qualche anno fa dall’INRA (Institut National de la Recherche Agronomique) analizzando retrospettivamente alcune innovazioni rilevanti in campo agricolo e tracciando i risultati della ricerca scientifica che li avevano resi possibili, aveva determinato in quasi vent’anni la distanza temporale tra risultati scientifici ed effetti tangibili. Ciò significa che quando in sede di predisposizione di progetti si insiste sull’impatto che avranno le ricerche, il più delle volte si tratta di affermazioni esageratamente ottimistiche e quindi di scarso valore.

Ritornando quindi alle parole iniziali, credo che si dovrebbe sostituire alla parola “impatto”, che tra l’altro evoca immagini poco positive, le parole “creazione di valore”: la ricerca deve “creare valore”. L’ambiguità in realtà permane anche sul concetto di valore, che è essenzialmente monetario in una logica di puro mercato, ma che è ben più elevato e nobile, anche se difficilmente misurabile, se nel “Valore” si comprendono quei fattori immateriali che danno un senso alla vita.

Spostare l’attenzione della ricerca dalle imprese alla società nel suo insieme avrebbe anche l’effetto di ricostruire intorno alla ricerca e ai ricercatori un consenso e una fiducia che attualmente è assai modesta.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto

Ma cos’è la destra, cos’è la sinistra?

Ricordate la canzone di Gaber? Il bagno è di destra, la doccia di sinistra; il culatello di destra e la mortadella di sinistra.

Ora sembra che le differenze tra destra e sinistra si riducano a queste banalità, con partiti e schieramenti che, come squadre di calcio, si distinguono più per la maglia che indossano che per come giocano; con tifoserie che, come quelle del calcio, si schierano di qua o di là per senso di appartenenza più che per condivisione di linee politiche.

Ma cos’è la destra, cos’è la sinistra? Esiste ancora un senso in queste parole? Forse gli unici che l’hanno capito sono i “Cinque Stelle” che si dichiarano “né di destra né di sinistra”; sanno bene che se scegliessero un’etichetta o l’altra perderebbero una fetta consistente di coloro che li hanno votati, tanti “di destra” e tanti “di sinistra”.

Rimane allora qualcosa, di una diversità ideale (non ideologica, perché l’ideologia è acritica, come il tifo!) tra destra e sinistra che sopravviva ancora oggi all’abuso che si è fatto di queste due parole? Io credo di sì e provo a spiegarlo.

La contrapposizione ideale oggi è tra individuo e società, tra utilità personale e utilità collettiva, tra proprietà privata e beni comuni. Intendiamoci: questi sono i due poli, ma come i poli geografici sono zone inospitali; in mezzo c’è un’ampia gamma di gradazioni possibili, ma le due direzioni vanno riconosciute come riferimenti, appunto, ideali.

Nessuno, perlomeno nei Paesi di tradizione democratica, penserebbe di abolire la proprietà privata: la casa, la macchina e gli elettrodomestici (anche se qui si potrebbe aprire un altro ragionamento in un ambito di economia circolare), gli arredi, magari la seconda casa, i risparmi in banca, la terra degli agricoltori, il laboratorio dell’artigiano, l’impresa che dà lavoro.

Ma è legittimo porsi il dubbio se sia ammissibile che alcuni, pochi, pochissimi abbiano proprietà private per un valore pari alla metà del resto del mondo; redditi individuali maggiori del PIL di interi Paesi. E’ legittimo porsi il dubbio se il neoliberismo, in cui i capitali seguono la finanza e non gli investimenti produttivi, possa essere accettato come fondamento della nostra società. E’ legittimo porsi il dubbio se sia ammissibile che la maggior parte del reddito d’impresa remuneri il capitale e non il lavoro. E’ legittimo porsi il dubbio se sia ammissibile che i Paesi del Nord del mondo, per il livello di consumi che hanno, continuino ad essere i maggiori responsabili dei cambiamenti climatici e quelli del Sud del mondo le prime vittime.

Nemmeno l’altro estremo è un panorama attraente. L’abolizione della proprietà privata, la collettivizzazione di terre e fabbriche, lo Stato padrone di tutto ed elargitore dei mezzi di sussistenza, sono esperienze fallimentari già percorse da vari regimi. Uno scenario in cui tutti i gatti sono grigi, l’iniziativa individuale è mortificata, in cui tutti sono uguali ma alcuni “più uguali degli altri” non è certo la società in cui la maggior parte di noi vorrebbe vivere.

Fra questi estremi, che ormai ha poco senso definire con i termini di destra e sinistra, si collocano i modelli di società possibili e le scelte politiche possibili, con la consapevolezza che non si può avere “la botte piena e la moglie ubriaca”, che non si può promettere meno tasse e più servizi, o lavoro per tutti e favorire nel contempo il capitalismo finanziario, libertà di circolazione dei capitali ed equità fiscale, deregulation e tutela dei diritti.

Tutti noi ce la prendiamo con la storia, ma io dico che la colpa è nostra: è evidente che la gente è poco seria quando parla di sinistra o destra” (Gaber).

“We are the 99%” era lo slogan del movimento “Occupy Wall Street”. Rendiamoci conto che il “bene comune” è il bene del 99%, non dell’1%; che ci sono beni collettivi, come ambiente, clima, biodiversità che non hanno e non possono avere un prezzo. Vi invito a leggere o rileggere l’enciclica di Papa Francesco “Laudato sii”, messaggio chiaro e autorevole in difesa del bene comune, del patrimonio naturale e sociale di tutti gli uomini e delle generazioni future.

Tutto il vecchio moralismo è di sinistra la mancanza di morale è a destra; anche il Papa ultimamente è un po’ a sinistra” (Gaber).

Gaber profetico? Naturalmente il moralismo non è la morale ma la sua caricatura; se non vogliamo conservare le vecchie distinzioni, diciamo che Papa Francesco non è un moralista (e ne ha dato prova in diverse occasioni) ma è difensore di una morale: quella del bene comune, della solidarietà, dell’equità.

E’ di sinistra? O è semplicemente una visione del mondo di buon senso? Decidete voi.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto