Le rivolte degli agricoltori sbagliano il bersaglio

Non si è ancora sopita la protesta degli agricoltori di vari Paesi europei; i loro trattori sono ancora incolonnati per le nostre strade o fermi ad occupare piazze in diverse città. Sicuramente ci sono molte ragioni che giustificano la rabbia, a partire dalla remunerazione del lavoro:

    • il prezzo che i consumatori pagano al (super)mercato per i prodotti alimentari viene assorbito prevalentemente dall’industria di trasformazione e dalla distribuzione;
    • il costo dei fertilizzanti e dei prodotti fitosanitari è cresciuto significativamente, anche a seguito della guerra in Ucraina;
    • siccità e inondazioni hanno ridotto le produzioni in molte parti d’Italia e d’Europa con un impatto diretto sulle aziende agricole.

Quello che fatico a comprendere è il bersaglio: l’Europa. Per diverse ragioni:

    • La PAC (Politica Agricola Comune) non è imposta da un’Autorità sovranazionale; è il frutto di una concertazione tra Commissione (in cui ogni Stato Membro ha un proprio Commissario), il Consiglio (espressione dei Governi in carica) e il Parlamento (eletto dai cittadini). Chi critica “l’Europa”, soprattutto se è parte del Governo nazionale, dovrebbe chiedersi dov’era quando la PAC è stata decisa. Si erano distratti un attimo? Era stata decisa “col favore delle tenebre”?
    • La PAC assorbe circa il 40% delle risorse gestite dalla Commissione Europea; nessun altro settore economico è destinatario di tanti quattrini. Una buona parte di questi soldi arriva agli agricoltori come “pagamenti diretti”, ovvero contributi legati al possesso della terra, non alla sua destinazione colturale. Forse questi soldi sono ritenuti insufficienti; forse troppi soldi vanno a chi già ha redditi elevati (anche se ci sono dei tetti da non superare); forse dovrebbero essere meglio mirati. Ma ignorarli non si può.
    • Come giustificare queste erogazioni nei confronti dell’opinione pubblica? La Commissione, sempre d’accordo con Consiglio e Parlamento, ha nel corso del tempo ridotto la quota dei pagamenti diretti (c.d. “primo pilastro”) spostandoli al “secondo pilastro”, ovvero ad azioni che favoriscono il settore agricolo con mezzi diversi (assistenza tecnica, assicurazioni, organizzazione della produzione e commercializzazione) in un’ottica complessiva di “sviluppo agricolo”. Nel secondo pilastro sono stati inseriti anche incentivi per la preservazione degli ecosistemi, diminuire le emissioni di gas serra, favorire la biodiversità, nella consapevolezza che ad un contributo che grava su tutti i cittadini debba anche corrispondere un beneficio per la collettività.
    • Questo “secondo pilastro” per chiarezza, viene co-finanziato a livello nazionale o regionale e sono i rappresentanti dei territori (le Regioni in Italia) che definiscono le priorità insieme alla Commissione. Quest’ultima deve garantire che vengano rispettati i principi di fondo della PAC.
    • Molta, troppa burocrazia? Forse, ma questo è anche determinato dalla molteplicità di azioni finanziabili e dalla necessità, trattandosi di soldi pubblici, di garantire che siano spesi correttamente. Può darsi che la progressiva digitalizzazione e gli strumenti tecnologici (es. telerilevamento) miglioreranno la situazione.

I prezzi pagati agli agricoltori per i loro prodotti in azienda (farm gate) sono spesso vergognosamente bassi rispetto ai prezzi pagati dai consumatori finali. Un litro di latte viene pagato agli allevatori 45 centesimi; dal consumatore, al supermercato, almeno il triplo; spesso anche il quadruplo o il quintuplo. E’ difficile pensare che raccogliere, pastorizzare, confezionare e distribuire il latte costi tre, quattro, cinque volte quanto mantenere la mucca, nutrirla, mantenerla in salute, mungerla.

Analoghe situazioni si verificano per molti altri prodotti agricoli, ma ritengo che la soluzione non possa essere cercata in un cambio delle politiche agricole regionali, nazionali o europee, bensì in un cambio dei rapporti di forza nelle filiere. Finché i gruppi d’acquisto che riforniscono la grande distribuzione non troveranno dall’altra parte organizzazioni dei produttori capaci di contrattare sul libero mercato con altrettanta forza data dai numeri, non c’è speranza di cambiamento. Il tempo dei prezzi garantiti a livello europeo, che aveva portato all’eccesso di produzione e conseguente distruzione di prodotti in molti settori è finito.

E veniamo alla questione più critica delle proteste degli agricoltori, ma anche più scandalosa delle risposte date dalla politica alle contestazioni: le misure previste dalla PAC a favore della biodiversità e della mitigazione dei cambiamenti climatici.

Partiamo da una considerazione di carattere generale: gli agricoltori sono i più esposti, i più vulnerabili ai cambiamenti del clima e alla perdita di biodiversità degli ecosistemi agrari e forestali. La siccità, le inondazioni, le tempeste di vento colpiscono le colture molto più che le industrie, gli uffici, i trasporti, i servizi. Gli agricoltori dovrebbero essere quindi in prima linea con i movimenti ambientalisti, dovrebbero insultare chi parla di “ideologia” della tutela dell’ambiente. I rischi climatici e di perdita della biodiversità sono “scienza” non “ideologia”.

Gli agricoltori dovrebbero anche essere consapevoli del fatto che i sistemi alimentari (dal campo alla tavola) sono i responsabili di circa un quarto delle emissioni di gas serra in atmosfera e che quindi anche all’agricoltura si deve richiedere di “fare la propria parte”. Destinare il 4% della superficie alla conservazione della biodiversità, ridurre gradualmente il consumo di pesticidi e di fertilizzanti sono azioni delle quali gli stessi agricoltori beneficerebbero con una migliore funzionalità dei suoli, la salvaguardia degli insetti utili (api in testa ma anche parassiti di insetti dannosi alle colture) e, non da ultimo, una riduzione dei costi per prodotti chimici. Che questo sia possibile è dimostrato dall’esistenza e progressiva espansione dell’agricoltura biologica.

Ciò che gli agricoltori dovrebbero pretendere è, piuttosto, che anche gli altri settori della società siano chiamati a contribuire alla “transizione ecologica” in misura analoga, dai trasporti, al turismo, all’industria. E tutti noi, se vogliamo contribuire alla mitigazione dei cambiamenti climatici e alla salvaguardia di biodiversità e ambiente, dovremmo adottare comportamenti individuali più sostenibili nella nostra vita quotidiana. Questo sarebbe una dimostrazione di solidarietà con gli agricoltori, molto più che lo smantellamento del “Green Deal” e delle strategie “Farm to Fork” e sulla Biodiversità come sembra si appresti a fare la Commissione.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto

Dopo il COVID-19

Foto da https://www.bbc.com/news/health-51214864

Scrivo l’11 aprile 2020, il giorno dopo l’annuncio del Presidente del Consiglio che la nostra “reclusione” per limitare la diffusione del COVID-19 durerà ancora fino al 3 maggio. Poi si vedrà.

E’ un periodo in cui non si fa altro che parlare del corona-virus, dei morti e dei contagiati. La paura del contagio sta ancora mettendo in ombra le preoccupazioni per quanto dovremo affrontare dopo l’emergenza. Per ora il principio (politically correct) che di fronte alle vite umane non si debba parlare di economia sta prevalendo, anche se gli imprenditori già reclamano a gran voce una ripresa delle attività produttive. E non si può nemmeno dar loro torto perché le risorse che saranno necessarie per curare le ferite e riprendere una vita “normale” non si creano se non in modo effimero con il debito e che ogni debito dovrà essere ripagato nel tempo o, in caso di default, spalmato su tutti, rendendoci tutti più poveri, soprattutto quelli che sono poveri già oggi.

Ma lasciamo per il momento da parte la questione del debito pubblico. Quali sono le prospettive dal punto di vista epidemiologico? Lo dico subito, non sono né un epidemiologo, né un infettivologo né tantomeno un virologo e pertanto potrei dire cose di scarso rigore scientifico. Queste, però, sono le mie considerazioni:

  1. L’epidemia non sarà sconfitta se non quando si realizzerà la famosa “immunità di gregge” attraverso un contagio che raggiunga almeno il 60-70% della popolazione o attraverso una vaccinazione di massa. Visto che pare che il vaccino non sarà disponibile prima di un anno o forse più, dovremo fare i conti con una persistente diffusione del COVID-19. Al momento in Italia sono stati diagnosticati 150.000 casi; supponiamo anche, forse esagerando o forse no, che per ogni diagnosticato ci siano tre asintomatici che, pur contagiati, non si sono ammalati. In totale sarebbero 600 mila persone, l’1% della popolazione. Di qui all’immunità di gregge, se prima non arriva il vaccino, la strada è ancora lunga. Le misure di confinamento sociale possono mantenere il numero dei casi entro limiti gestibili dalla Sanità pubblica ma non certo debellare la malattia. Quindi dovremo convivere con il COVID-19 ancora a lungo; se non altro fino a quando potremo essere vaccinati. E intanto si potrà solo modulare il grado di ritorno all’attività in modo tale da evitare che un eccessivo rilassamento delle restrizioni faccia ripartire l’epidemia a livelli insostenibili.

E dal punto di vista economico e sociale?

  1. Alcuni settori della nostra economia non si riprenderanno più, perlomeno per alcuni anni. Il turismo in primo luogo, visto che dipende dai viaggi, dalla convivenza in luoghi ristretti, dalla frequentazione di ambienti (ristoranti, musei, spiagge, …) ove il contatto umano è inevitabile o addirittura fa parte dell’esperienza desiderata. Alberghi, ristoranti, stabilimenti balneari, negozi di moda, musei, linee aeree stenteranno a sopravvivere.
  2. Il settore alimentare, apparentemente, non dovrebbe essere particolarmente colpito, visto che la gente continuerà ad aver bisogno di mangiare. La domanda, quindi, non dovrebbe scendere, anche se si rivolgerà a canali in parte diversi dal passato recente. Non si mangerà fuori, in ristoranti o mense aziendali; si mangerà in casa e quindi aumenteranno (come già si è visto) le vendite dei supermercati e le vendite on line. Chi riforniva i ristoranti, i bar, gli alberghi e le mense dovrà trovare canali alternativi di vendita. Anche i mercati rionali e la vendita diretta (farmers’ markets) saranno vittime del COVID-19. Qualcuno saprà adattarsi, e vari agricoltori già lo fanno rivolgendosi alla vendita on line o a canali di “Community Supported Agriculture” ma molti ci lasceranno le penne.
  3. Sul lato della produzione, invece, le difficoltà saranno notevoli, soprattutto per la difficoltà di reperire manodopera stagionale che, in Italia, è largamente straniera ed ora ha difficoltà di movimento (es. da Romania o Polonia) o di autorizzazione al lavoro; in particolare i molti immigrati africani nel Meridione d’Italia. A questo si aggiunge, come aggravante, la diffusione del lavoro nero. I produttori rischiano pertanto di lasciare sul campo parte del prodotto e questo si tradurrà per loro in un danno economico e per il consumatore in un aumento dei prezzi. Il rischio maggiore, in un’ottica di salute pubblica, è che l’aumento dei prezzi induca scelte alimentari poco corrette dal punto di vista nutrizionale ma meno care per il portafoglio; o addirittura, anche questo sta già avvenendo, metta le famiglie nell’impossibilità di spendere il necessario per la sopravvivenza.
  4. Il commercio internazionale, che in anni normali consente di sfruttare i “vantaggi competitivi” di diverse parti della terra per produrre derrate a poco prezzo per tutto il mondo, sta mostrando crepe. Alcuni Paesi hanno già eretto barriere all’esportazione (prima assicuriamo il cibo per noi poi vendiamo quel che avanza: es. Romania) o all’importazione (facciamo sì che i nostri produttori vendano i loro prodotti prima di quelli importati dall’estero: es Bulgaria). E’ evidente che ci saranno (e già ci sono) ripercussioni sui prezzi.
  5. Anche per questo molte voci, in molti Paesi, reclamano l’autosufficienza alimentare come obiettivo: produrre da sé il necessario senza dover dipendere da importazioni incerte. E’ un modo per proteggersi in caso di nuove emergenze ma è evidente che, ancorché l’autosufficienza fosse tecnicamente perseguibile, anche questa scelta sarebbe costosa.

E dal punto di vista politico e delle relazioni internazionali?

  1. Un altro rischio ben diverso dall’autosufficienza alimentare sta emergendo, ed è quello del nazionalismo o sovranismo; l’applicazione del principio “prima gli Italiani”, “America first” o, in altre parole, “ognuno per sé”. Purtroppo, è l’esatto contrario di ciò che serve per superare crisi globali come questa che stiamo vivendo e quella che vivremo dopo. Solo dalla collaborazione internazionale, dal dialogo multilaterale, dalla capacità di vedere oltre il proprio confine, dal mettere in comune le forze, la conoscenza, l’intelligenza nasceranno soluzioni efficaci. Purtroppo non è quello che stiamo osservando nel mondo: le organizzazioni internazionali sono indebolite dall’ostinazione di molti Paesi, grandi e piccoli, a voler fare da sé. Le Nazioni Unite, l’Organizzazione Mondiale della Sanità, l’Unesco, l’Unicef, la FAO, soffrono per il fatto che non hanno denti per mordere e che si reggono sulla disponibilità dei Paesi membri di seguirne le raccomandazioni. Con il COVID-19 è emersa con drammatica chiarezza la scarsa volontà di quasi tutti i Paesi che pure fanno parte dell’Organizzazione Mondiale della Sanità di seguirne le raccomandazioni. Ognuno per sé, a modo proprio.

Adesso siamo ancora in una fase di “stupore”, chiusi in casa ad aspettare non si sa bene quale futuro. Ma tra un po’ la crisi colpirà con disoccupazione, fallimenti, povertà diffusa. Scopriremo (stiamo già scoprendo) che avremmo bisogno di più medici e infermieri e letti d’ospedale ma non avremo i soldi per pagarli. Anche nell’ipotesi che restasse l’attuale struttura di imposizione fiscale (nonostante si promettano alleggerimenti) ci sarà una base imponibile minore e quindi meno soldi per pagare quei servizi pubblici che ora capiamo quanto siano necessari. E in più avremo un debito pubblico ancora maggiore di quello già enorme di prima del COVID-19.

Non voglio farla troppo lunga anche perché non sono né voglio sembrare un profeta, ma credo che sia ragionevole attendersi un periodo di recessione profonda, se non di depressione. Ciò che sarà determinante sarà il modo in cui cercare di uscirne. Se la parola d’ordine sarà tornare al più presto al punto di partenza, con tutti i problemi irrisolti, le diseguaglianze, i cambiamenti climatici, la perdita di biodiversità, lo sfruttamento incontrollato delle risorse in nome della crescita economica misurata con il Prodotto Interno Lordo, allora avremo perso un’occasione.

Le crisi possono anche servire ad imboccare strade nuove, a sviluppare relazioni non predatorie con l’ambiente, a salvaguardare il clima dai cambiamenti indotti dal modo in cui sfruttiamo le risorse naturali, a perseguire stili di vita e abitudini che realizzino le nostre aspirazioni senza compromettere quelle altrui. Occorrono il coraggio e la determinazione di affrontare transizioni epocali verso quel “safe and just operating space” che coniughi giustizia sociale[1] e rispetto per l’ambiente[2] [3].

Se il mondo sarà più povero di oggi, e noi pure, la nostra intelligenza si vedrà nelle scelte che faremo: se saremo “homo homini lupus” l’avvenire sarà ben drammatico e il futuro vedrà un avvitamento su guerre, disastri ambientali, carestie, migrazioni epocali, nuove epidemie.

Se prevarrà la convinzione che “siamo tutti sulla stessa barca” e che sia più opportuno trovare un modo equo di convivere, allora forse in questo mondo ci sarà spazio per tutti per vivere una vita sana, dignitosa e forse anche felice.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto

 

 

[1] Raworth K. 2017. Doughnut Economics. Seven ways to Think Like a 21st -Century Economist. Random House Business Books. London

[2] Rockström J et al. 2009. A safe operating space for humanity. Nature 461, 472–475. doi: 10.1038/461472a; pmid: 19779433

[3] Steffen W et al. 2015. Planetary boundaries: Guiding human development on a changing planet. Science 347, 1259855 (2015). DOI: 10.1126/science.1259855 Downloaded from http://science.sciencemag.org/ on March 14, 2017

Tipping point

Tipping point potrebbe essere tradotto (dall’inglese) come “punto di non ritorno”. Nel caso dei cambiamenti climatici esso significa una soglia di temperatura oltre la quale il riscaldamento continuerebbe a valanga, in modo irreversibile, senza alcuna possibilità per l’umanità di fermarlo o di invertire la rotta.

Nessuno sa di preciso quale sia questa soglia; gli obiettivi che l’accordo di Parigi del 2015 si prefiggeva erano dettati più da buon senso e da buone intenzioni che da dati scientifici certi. L’accordo prevedeva che ogni Paese mettesse in atto tutte le misure necessarie per contenere il riscaldamento globale entro i 2°C rispetto al periodo preindustriale, possibilmente entro 1,5°C. Ma qual è la ragione di questi valori? In parte pragmatismo: siamo già a +1°C, con un trend in aumento; dire che ormai non c’è più nulla da fare significa lavare le coscienze: se ogni sacrificio per salvare il clima è inutile, che senso ha impegnarsi? Quindi: 2°C, meglio se 1,5°C. Così si dà il senso di un certo margine di manovra, seppure stretto, anzi, secondo i più recenti rapporti dei ricercatori, strettissimo.

Un problema sottovalutato nel dibattito generale sul clima è che i cambiamenti indotti da un aumento della temperatura non agiscano in modo indipendente ed additivo ma rinforzandosi a vicenda. Steffen et al. (2018)[1] espongono molto chiaramente il rischio che si inneschino una serie di feedback positivi che facciano raggiungere più rapidamente di quanto si pensi un punto di non ritorno, nonostante interventi (ahimè tardivi) di ridurre le emissioni di gas ad effetto serra.

Un paio di esempi:

  1. I ghiacci già si sciolgono per effetto della temperatura attuale: una superficie bianca, che riflette la luce del sole viene rimpiazzata da una superficie scura (terra o oceani) che si scalda di più: più ghiaccio si scioglie per effetto del calore più il riscaldamento accelera.
  2. Nelle zone artiche (Russia, Canada) il riscaldamento porta allo scioglimento del permafrost, il terreno che è permanentemente ghiacciato al disotto di uno strato sottile che si sgela d’estate. I terreni a permafrost sono estremamente ricchi di sostanza organica che, sciogliendosi, si ossida emettendo CO2 o si decompone anaerobicamente emettendo metano (CH4), entrambi gas ad effetto serra; il secondo quasi trenta volte più potente del primo. Più aumenta la temperatura, più si scioglie il permafrost, più aumentano le emissioni di gas ad effetto serra che fanno ulteriormente crescere la temperatura.
  3. Nel mare è disciolta, sotto forma di acido carbonico, molta CO2 che altrimenti sarebbe in atmosfera. Ma l’equilibrio chimico è influenzato dalla temperatura: più questa si alza e più CO2 passa dall’acqua all’atmosfera contribuendo ulteriormente all’effetto serra.

Già lo scorso anno l’IPCC aveva pubblicato un rapporto[2] sui livelli di emissioni nette che consentirebbero di restare entro +1,5°C: azzeramento entro il 2055. Obiettivo possibile? Forse sì; concretamente attuabile nell’attuale frammentazione del panorama internazionale, in cui ogni Paese sembra voler andare per la sua strada e addirittura gli Stati Uniti rinnegano l’accordo di Parigi? Difficile. Qualche segnale incoraggiante viene dalle dichiarazioni del nuovo Presidente della Commissione Europea (emissioni nette pari a zero entro il 2050) e da analoghi o ancor più stringenti impegni assunti da Paesi quali il Regno Unito e la Germania, ma sono poche e probabilità che si raggiunga un’unità d’intenti e d’azione a livello mondiale, anche perché a dover compiere i sacrifici maggiori sono i Paesi ricchi.

Il primo passo dovrebbe essere eliminare ogni incentivo economico o fiscale a settori o attività economiche che aggravano i cambiamenti climatici; ma già in Italia si è visto che anche solo ventilare una riduzione dei benefici fiscali per l’autotrasporto (restituzione delle accise sul gasolio) o per l’agricoltura (gasolio a prezzo agevolato) suscita immediate reazioni difensive delle categorie colpite, tali da spaventare qualsiasi politico, anche se ben intenzionato.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto

 

[1] https://www.pnas.org/content/115/33/8252

[2] https://report.ipcc.ch/sr15/pdf/sr15_spm_final.pdf

Sopravviveremo alla complessità? (terza parte)

Nelle prime due parti di questa breve serie dedicata alla complessità ho cercato di riflettere su due aspetti: come orientarsi in sistemi complessi (https://www.bisoffi.it/2018/11/21/sopravviveremo-alla-complessita-prima-parte/) e come far sì che la complessità generi stabilità invece che caos (https://www.bisoffi.it/2018/12/24/sopravviveremo-alla-complessita-seconda-parte/).

In questa terza parte voglio formulare alcune proposte su come prepararci culturalmente a capire realtà complesse e navigarvi senza perdere l’orientamento. Non sono né uno psicologo né un filosofo e pertanto prendete queste considerazioni come ragionamenti ispirati da buon senso (spero).

La prima idea è che l’istruzione dovrebbe preparare meglio di come faccia ora a comprendere i contesti. Mi spiego. Adesso succede (esagero un po’) che uno studente studi in parallelo gli autori greci classici, la storia medievale, la filosofia dell’illuminismo, l’arte del rinascimento e la letteratura del periodo crepuscolare. Ogni settore è affrontato come se fosse un contenitore chiuso, come se tra letteratura, arte, filosofia, storia, musica di un determinato periodo non ci fossero relazioni strettissime che, se emergessero, farebbero comprendere i diversi contesti storici e culturali in maniera assai più efficace che con un approccio per pezzi discronici.

Ho fatto un esempio tratto dalle discipline umanistiche, ma anche tra materie scientifiche ci sono legami che spesso si comprendono troppo tardi e solo per chi svolge studi avanzati di matematica, statistica, fisica, astronomia, chimica, biologia. Come si può “capire” la fisica senza una buona base matematica?

Capisco che i programmi scolastici siano difficili da confezionare ma uno sforzo per raccordare le materie aiuterebbe a sviluppare gli strumenti mentali e culturali per scoprire le interrelazioni tra elementi di sistemi complessi anche al di fuori dell’ambito scolastico.

Un’altra proposta, che per la verità sta trovando spazio nella scuola grazie soprattutto a insegnanti intelligenti, è di affrontare problemi e realizzare progetti in modo non solo interdisciplinare ma anche transdisciplinare. Un progetto di trasformazione di un’azienda agricola (esempio molto parziale e specifico) non è mai solo tecnico o biologico ma anche economico, sociale, di marketing.

Ricordo un viaggio di studio che feci trent’anni fa nella provincia cinese dello Shandong, in una Cina rurale molto, molto diversa da quella di oggi; nelle campagne coltivavano pioppi in piantagioni fitte per produrre pali che servivano a sostenere i tetti delle case dei villaggi; ebbene, un ricercatore del nord-Europa disse ai colleghi cinesi che avrebbero dovuto piantare i pioppi a distanza di nove metri l’uno dall’altro perché così il volume di legno prodotto sarebbe stato massimizzato; evidentemente aveva in mente la destinazione industriale del legno nel suo Paese e non aveva capito che nello spazio necessario per coltivare una pianta alle spaziature da lui consigliate, i contadini cinesi avrebbero ricavato in 3-4 anni oltre cinquanta pali. Senza contare che un contadino cinese aveva a disposizione, allora,  non più di due “mu” (1 mu = 1/15 di ettaro) e non avrebbe potuto campare piantando solo una quindicina di piante come suggeriva lo scienziato. A queste assurdità può portare una considerazione puramente tecnica non inserita nel contesto socio-economico reale.

Un terzo contributo potrebbe venire dall’abitudine al dialogo, anche questo da coltivare soprattutto in ambito scolastico ma anche lavorativo. Il dialogo è cosa ben diversa dalla discussione in cui si cerca di far prevalere il proprio punto di vista, la propria tesi, talora i propri pregiudizi. Il vero dialogo parte dalla convinzione che il proprio punto di vista non sia sempre e necessariamente l’unico ammissibile, che possano esistere ragioni che non siamo stati in grado di vedere da soli, che la verità possa stare anche altrove; il dialogo è una ricerca reciproca, una scoperta, un’esplorazione, un arricchimento della realtà.

Un altro suggerimento è imparare (ancora idealmente a scuola) ad utilizzare schemi grafici per illustrare le relazioni tra componenti dei sistemi, a sfruttare meglio l’intelligenza visiva. Provate a guardare la figura che accompagna questo articolo: illustra un generico sistema di controllo. A mio parere (ma sono particolarmente affezionato agli schemi grafici) si capisce al volo la logica che lo sottende.

Adesso provate a descriverlo a parole …

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto.

Quanto sapere sprecato!

La forma consueta con la quale si diffonde il sapere scientifico è la pubblicazione su riviste, possibilmente internazionali e in lingua inglese, visto che l’inglese ormai è la lingua franca della comunicazione scientifica. Esistono riviste più o meno “blasonate” e obiettivo dei ricercatori è di pubblicare su quelle più prestigiose perché ormai è prassi comune che la carriera, così come i concorsi, si basi in modo preponderante sulla quantità delle pubblicazioni e sul prestigio delle riviste, nonché sul numero di citazioni che i propri articoli ricevono nei lavori di altri ricercatori. Ogni rivista che si rispetti, poi, seleziona gli articoli da pubblicare tramite un processo di “peer review”, ovvero di valutazione preventiva da parte di esperti della materia, presumibilmente indipendenti, ossia senza interessi propri che possano ostacolare una valutazione onesta.

Un sistema perfetto, quindi? Non proprio. Analizziamo alcuni aspetti.

Il primo è il modo per misurare il “prestigio” della rivista, il cosiddetto impact factor. L’impact factor è un numero che ogni anno l’ISI (Institute for Scientific Information) assegna alle riviste che esso censisce e che pubblica su Journal Citation Report: non sono tutte perché l’inclusione è a discrezione dell’editore di JCR. L’impact factor è un indice inventato da Eugene Garfield nel 1955 per aiutare i bibliotecari a decidere quali riviste conservare in visione e quali trasferire in magazzino e per orientare le politiche di abbonamento delle Università e dei Centri di ricerca. Garfield nel 1960 fondò l’ISI che nel 1962 fu acquisito dall’Editore Thomson, ora confluito in Thomson-Reuters.

Nonostante lo stesso Garfield e Thomson-Reuters scoraggino l’uso dell’impact factor nelle valutazioni individuali dei ricercatori, questa è ormai una prassi assai diffusa perché, essendo un numero apparentemente “oggettivo”, evita contestazioni dei giudizi delle commissioni di valutazione da parte di candidati delusi.

Non voglio dilungarmi sui limiti dell’impact factor. Vi rimando ad un articolo, ormai un classico, di Alessandro Figà Talamanca, matematico italiano, pubblicato quasi vent’anni fa e di veramente piacevole lettura: “Come valutare ‘obiettivamente’ la qualità della ricerca scientifica: Il caso dell’‘Impact Factor’”, Bollettino dell’Unione Matematica Italiana,Serie 8 2-A, 1999.

Voglio solo segnalare che l’impact actor di una rivista si basa sul rapporto tra il numero delle citazioni ricevute dagli articoli che essa pubblica rispetto al numero degli articoli stessi. Una rivista i cui articoli ricevono tante citazioni quanti gli articoli pubblicati ha un IF pari a 1; se il numero delle citazioni è di dieci volte il numero degli articoli pubblicati l’IF è pari a 10.

La maggior parte delle riviste sono probabilmente serie e non operano per influire sull’impact factor. Ma basta “raccomandare” agli Autori di citare lavori pubblicati sulla stessa rivista o su riviste dello stesso editore o di citare solo lavori recenti, visto che sono solo i tre anni precedenti che influiscono sull’IF e fattori distorsivi si presentano con tutta evidenza.

Il primo fattore di “imperfezione” del sistema di diffusione del sapere scientifico è la “tirannia dell’impact factor (e di altri indici bibliometrici che per brevità non cito). Poiché, come dicevo, la carriera dei ricercatori è spesso fortemente condizionata dagli indici bibliometrici, la conseguenza è che “what you value is what you get”. I ricercatori, che non sono scemi, si adeguano e mettono al vertice delle loro priorità di pubblicare il maggior numero di lavori sulle riviste con l’impact factor maggiore. Anche sul comportamento di alcuni ricercatori si possono avanzare riserve quando adottano prassi poco “etiche” quali lo spezzettare artificiosamente un lavoro in più articoli, il pubblicare articoli simili su riviste diverse, puntando al fatto che anche i revisori non possano conoscere tutto quanto è stato pubblicato. Ma consideriamole pure deviazioni minoritarie.

Ma qual è il destino delle pubblicazioni sulle riviste internazionali? Di essere lette da una frazione esigua di specialisti della medesima disciplina. Ribadisco: di una medesima disciplina e in numero esiguo. Ora chiarisco il concetto.

La maggior parte delle riviste scientifiche sono specialistiche, focalizzate su singole discipline o su settori specifici di singole discipline. I revisori (peer reviewers) devono essere altrettanto competenti e specialisti, per poter comprendere il linguaggio, spesso gergale, i metodi impiegati, la discussione dei risultati. Se non lo fossero, la qualità delle revisioni sarebbe scadente perché passerebbero inosservati errori d’impostazione anche gravi; ma se lo sono, significa che il sapere resta confinato all’interno dell’area disciplinare o ad un suo settore limitato; alla faccia dei richiami all’interdisciplinarità e alla transdisciplinarità che riempiono i proclami su come si dovrebbe impostare la ricerca ma che restano “grida nel deserto”.

Un altro limite del sistema corrente, meno considerato ma forse più grave, è nel numero delle pubblicazioni collegato al fatto che, su carta o sul web, vanno comunque lette e capite da una mente umana. Vi do alcune cifre tratte dal settore che conosco meglio, l’agricoltura e tutte le scienze collegate.

Dal 1973 sono pubblicati i CAB Abstracts. CAB stava per Commonwealth Agricultural Bureau, (ora CABI – Centre for Agriculture and Biosciences International, https://www.cabi.org/). CAB Abstracts è un database che contiene quasi nove milioni di record (8,9), ciascuno riferito ad una pubblicazione scientifica nel settore allargato dell’agricoltura; ogni record contiene, oltre alla citazione, un riassunto.

Immaginiamo ora che un ricercatore intenda formarsi una visione di quanto è stato pubblicato e che dedichi dieci minuti di tempo alla lettura di un abstract (il che non è molto). Supponendo che lavori otto ore al giorno per 210 giorni l’anno, impiegherebbe 883 anni (ottocentoottantatre!) per leggere i riassunti. Vero è che le singole aree coperte da CAB Abstracts sono una quarantina e spaziano dalla genetica alla patologia, all’entomologia, alla chimica, persino all’eco-turismo e che non si può pensare che un ricercatore si interessi a tutte.

Ma anche se si limitasse ad una sola area (sempre in barba alla multidisciplinarità!) impiegherebbe mediamente 22 anni (ventidue!) a leggere i riassunti. Dopodiché dovrebbe decidere di quali valga la pena di leggere l’intero articolo.

Questa è chiaramente un’estremizzazione, ma dà il senso del fatto che la stragrande maggioranza di quello che viene pubblicato non sarà mai letto nemmeno da coloro che si occupano della stessa disciplina. Quanto sapere viene sprecato? Quante volte si reinventa la ruota? Quante ricerche affrontano questioni già risolte?

Molti ricercatori, inoltre, in ciò spinti anche dalle stesse riviste e dai revisori, si limitano a considerare solo le pubblicazioni più recenti, degli ultimi 3-5 anni e ad ignorare deliberatamente, come obsoleto, tutto quanto viene prima.

Ha senso tutto questo? A me sembra proprio di no. A me sembra necessario innovare drasticamente il modo in cui si produce e si condivide nuova conoscenza. Ma come?

Provo a ipotizzare due strade.

La prima è di passare dalla pubblicazione di risultati sintetizzati dall’Autore alla pubblicazione dei singoli dati raccolti. Attualmente la prassi è di esporre i materiali e i metodi con i quali una ricerca è stata impostata e condotta, i risultati ottenuti espressi in modo sintetico (medie, varianze, correlazioni e altri indici statistici) e discutere quanto se ne deduce.

Un grosso passo in avanti sarebbe la pubblicazione dei dati grezzi, in modo che chiunque possa rielaborarli a modo suo, in modi magari non previsti dallo stesso ricercatore che aveva impostato le prove. Ovviamente si dovrebbero pubblicare dati “annotati”, ossia accompagnati da tutte quelle informazioni che servono a comprendere le condizioni nelle quali sono stati raccolti. La pubblicazione dei data-set in modalità “open”, soprattutto se nella modalità cosiddetta “linked open data” consentirebbe a chiunque di riutilizzarli in contesti più ampi e quindi di moltiplicarne il valore. Non sto scoprendo nulla. I dati aperti, accessibili ai computer tramite ricerche nel web (come con Google ricerchiamo i testi), sono già una realtà ma ancora poco diffusa. Ci sono anche “riviste” nel web specializzate proprio nella pubblicazione di data-set. La CE sta incoraggiando ad adottare una strategia “open by default” per i dati dei progetti che finanzia. Ma il tutto è ancora troppo limitato.

Probabilmente, per il già citato principio “what you value is what you get” bisognerebbe valutare i ricercatori non tanto per le pubblicazioni tradizionali quanto per i data-set pubblicati e la loro qualità accertata da revisori indipendenti, come si fa ora per gli articoli. Credo che le cose cambierebbero rapidamente.

Un’altra strada è molto più radicale e, per ora, niente più che una “visione” del futuro alla Nicholas Negroponte. Si tratta di un superamento dell’attuale “metodo sperimentale”, così come applicato nella maggior parte delle scienze della vita e, probabilmente, delle scienze sociali.

In generale il metodo sperimentale si basa sull’inferenza statistica, ossia sul derivare considerazioni di portata generale (inferenze) su una “popolazione” attraverso osservazioni limitate (su un “campione”). Come definire la popolazione, come estrarre il campione, come “stratificarlo”, come elaborare i dati è oggetto della metodologia statistica nelle sue varie branche. Se il metodo è corretto, è lecito trarre conclusioni generali da osservazioni particolari associando alle conclusioni un determinato livello di fiducia.

Ora immaginiamo che invece che ricorrere a campioni noi possiamo raccogliere dati sull’intera popolazione. Invece che un campionamento si tratterebbe di un censimento. Avremmo una mole impressionante di dati ma completi. Non occorrerebbero elaborazioni statistiche se non semplici statistiche descrittive.

Ma quanto siamo lontani da questa realtà? In alcuni settori non molto.

In agricoltura, ad esempio, sensori multispettrali applicati ai satelliti consentono di determinare molti parametri dell’ambiente (umidità, temperatura, colore, copertura vegetale) con una scala ormai molto grande, che per alcune bande corrisponde a pixel di 10 m (100 pixel in un ettaro). Le tecniche basate sul laser (LIDAR), con strumenti portati da aerei o droni  consentono misure a terra e della vegetazione con precisioni di centimetri. In entrambi i casi il costo di realizzazione dei rilievi per unità di superficie decresce rapidissimamente, rendendo possibili rilievi a tappeto su intere regioni. Se si dispone di dati georiferiti per singole colture o varietà (es. attraverso i DB realizzati per la PAC) è immaginabile incrociare i dati per definire le rese produttive in funzione delle condizioni dell’ambiente.

In medicina si potrebbero raccogliere dati in tempo reale sullo stato fisiologico delle persone non solo per individuare tempestivamente condizioni di criticità, ma anche per studiare a tappeto e in condizioni reali le relazioni tra stato di salute e benessere e parametri fisiologici. Già adesso moltissime persone fanno uso di sistemi di monitoraggio delle attività che misurano il battito cardiaco, il tipo di attività, l’entità degli sforzi, ecc. Aggiungendo altri parametri si può avere un quadro almeno approssimativo dello stato fisiologico. Se (o quando) la maggior parte delle persone sarà “tracciato” in questo modo, la quantità di dati a disposizione dei medici e dei ricercatori potrebbe limitare la necessità di ricorrere a esperimenti.

Forse, e non a torto, questa prospettiva di essere sempre sotto l’occhio di un “grande fratello” (alla Orwell!) è preoccupante, anche per usi non corretti di informazioni personali che sono emersi recentemente, ma resta il fatto che la capacità di immagazzinare e analizzare enormi quantità di dati (Big Data) sta facendo crescere l’attenzione sull’esplorazione dei dati (data mining) come strada maestra della conoscenza, al posto dell’esperimento, metodologicamente corretto ma necessariamente limitato.

Credo che quanto prima il mondo della ricerca e dell’accademia si renderà conto dei limiti insiti nell’attuale sistema della conoscenza e della sua diffusione e delle nuove strade aperte meglio sarà. Non sono molto ottimista sul fatto che la consapevolezza maturi dall’interno; sono troppi i ricercatori che sono veramente convinti che sia giusto e corretto essere misurati con gli indici bibliometrici e che l’obiettivo unico del loro lavoro sia pubblicare. Credo piuttosto che questo cambiamento copernicano sarà imposto dalla società civile come presupposto per ricostituire un rapporto positivo tra scienza e società che in questi ultimi decenni si è sgretolato.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto

A quale logica deve ispirarsi la ricerca pubblica?

La ricerca pubblica utilizza risorse dei contribuenti ed è quindi naturale che si pretenda che essa sia utile, che valga i soldi che costa. In genere si usa dire che la ricerca deve avere un “impatto” concreto; ma la questione non è così semplice, perché tutto dipende da quali criteri si debbano adottare per valutare l’utilità, da chi debba trarre beneficio dai risultati e in che tempi gli effetti positivi si debbano manifestare.

Negli ultimi anni in Europa, con il 7° Programma Quadro della ricerca e ancor più con il suo successore Horizon 2020, ma anche a livello nazionale e regionale si è affermata l’idea che la ricerca debba innanzitutto avvantaggiare le imprese, perché queste creano ricchezza per il Paese, danno lavoro alle persone e sono quindi il motore del benessere. Non si parla più solo di finanziare la ricerca ma anche, ed ora forse principalmente, l’innovazione, ossia la traduzione dei risultati in prodotti o servizi resi disponibili sul mercato.

In realtà non è detto che gli interessi dell’impresa privata (e del capitale investito che essa intende far fruttare) coincidano con gli interessi della società. La famosa “mano invisibile” del libero mercato teorizzata da Adam Smith in “The Wealth of Nations” ha dimostrato molto chiaramente i propri limiti nel costruire un benessere diffuso e soprattutto distribuito in modo equo. Mi riferisco in particolare ad una crescente divaricazione fra la remunerazione del capitale rispetto al lavoro, alle frequenti esternalità negative dei processi produttivi, alla competizione impari tra le imprese più forti e le più deboli che produce sì vincitori ma anche molti sconfitti, alla capacità delle imprese di esercitare un’influenza sulla politica minando il dialogo democratico.

Analizziamo allora le diverse logiche possibili per definire quali siano i criteri che debbano guidare gli investimenti pubblici in ricerca:

  1. Ricerca per le imprese e con le imprese: come sopra accennato, questa è l’idea attualmente prevalente; le agende strategiche di ricerca sono dettate dall’industria, centrate sulle sue aspettative di innovazione e di crescita della capacità competitiva. Le imprese, soprattutto le grandi imprese, che spesso sono anche quelle con notevoli capacità di ricerca proprie, sommano così alle risorse finanziarie e alle competenze interne anche le risorse messe a disposizione dalle amministrazioni pubbliche, sia attraverso finanziamenti diretti che attraverso i finanziamenti concessi alle università e agli enti pubblici di ricerca (EPR).
  2. Un’altra possibile logica per la ricerca pubblica è di finanziare esclusivamente la ricerca “libera”: è detta anche ricerca di base, pura, fondamentale, ”curiosity driven” ed è finalizzata solo all’accrescimento delle conoscenze, senza considerazione per l’applicabilità dei risultati nella vita reale. Starà poi a chi sarà in grado di combinare i pezzi di conoscenza in qualcosa di applicabile di trarne i frutti. Molti strumenti di uso comune (es. i telefoni cellulari) utilizzano tecnologie di origine disparata e nate da ricerche di base (la trasmissione radio, il laser, i cristalli liquidi, …). Alla fine, con ogni probabilità, sarebbero sempre le imprese più forti economicamente e con le maggiori competenze tecnologiche a trarne i maggiori vantaggi, cui si aggiungerebbero start-up innovative, magari nate da costole delle università o degli EPR (spin-off). Una forte spinta alla ricerca di base è data dai programmi europei finanziati attraverso lo European Research Council.
  3. All’estremo opposto si colloca una situazione in cui l’intervento pubblico nella ricerca è minimo o addirittura assente, o magari limitato al finanziamento del “metabolismo basale” (stipendi del personale di ruolo, funzionamento) delle università e degli EPR o a parte di esso, obbligando le istituzioni a ricercare finanziamenti “sul mercato” per avviare programmi effettivi di ricerca. Ovviamente la ricerca sarebbe, ancor più che nel primo caso, fortemente plasmata sugli interessi dei finanziatori. Vale il detto inglese “who pays the piper calls the tune” (chi paga i suonatori sceglie la musica). Non è una situazione tanto remota, visto che in molti Paesi avanzati i finanziamenti pubblici per la ricerca sono drammaticamente in calo.
  4. Un approccio radicalmente diverso è quello che definisco reverse engineering: si potrebbe ipotizzare una “società ideale” nella quale prevalgano valori condivisi di solidarietà, eguaglianza, rispetto per l’ambiente, attenzione ai diritti e alle legittime aspettative delle generazioni future, un benessere (inteso letteralmente come ben essere) diffuso ma determinato più dalla qualità delle relazioni e dalle possibilità di sviluppo della personalità e delle capacità creative che dal consumo di risorse. Da questo modello ideale si dovrebbero derivare le esigenze di ricerca, ovvero indirizzare la ricerca verso quelle innovazioni tecnologiche e sociali che meglio possano condurvici. Si tratta di un’utopia, forse, ma perché rinunciare a porre i “valori” come criteri guida, anziché il mercato, la crescita economica, la competitività?
  5. Meno utopistica ma altrettanto orientata alla società nel suo insieme è una ricerca pubblica che tuteli prioritariamente gli interessi collettivi, spesso calpestati in una logica di mercato, soprattutto nella sua estremizzazione neo-liberista. La ricerca dovrebbe tutelare la salute pubblica (ad esempio verificando in modo indipendente le possibili conseguenze negative di nuovi materiali e di nuove tecnologie), dovrebbe favorire la conservazione e il miglioramento dei beni comuni: l’ambiente, le acque, il territorio, la biodiversità; tutti ambiti che non possono essere soggetti alla logica del mercato. Scrisse Karl Polany (The Great Transformation, 1944): Market-based mechanisms cannot be expected to provide solutions to societal and environmental challenges (Non ci si può aspettare che meccanismi basati sul mercato offrano soluzioni a sfide sociali e ambientali). La ricerca pubblica avrebbe quindi una funzione di garanzia del bene pubblico rispetto agli interessi privati.

Queste cinque categorie sono ovviamente caratterizzazioni estreme di logiche che possono in parte convivere. Nessuna rappresenta da sola una soluzione ideale o quantomeno soddisfacente. È però importante conservarle come schemi mentali nei dibattiti sulla ricerca e sulle sue priorità.

Va anche sfatato un mito: che la ricerca cosiddetta “applicata” sia sempre in grado di avere “impatti” concreti nell’arco di vita dei progetti di ricerca o anche in momenti immediatamente successivi. Uno studio molto interessante condotto qualche anno fa dall’INRA (Institut National de la Recherche Agronomique) analizzando retrospettivamente alcune innovazioni rilevanti in campo agricolo e tracciando i risultati della ricerca scientifica che li avevano resi possibili, aveva determinato in quasi vent’anni la distanza temporale tra risultati scientifici ed effetti tangibili. Ciò significa che quando in sede di predisposizione di progetti si insiste sull’impatto che avranno le ricerche, il più delle volte si tratta di affermazioni esageratamente ottimistiche e quindi di scarso valore.

Ritornando quindi alle parole iniziali, credo che si dovrebbe sostituire alla parola “impatto”, che tra l’altro evoca immagini poco positive, le parole “creazione di valore”: la ricerca deve “creare valore”. L’ambiguità in realtà permane anche sul concetto di valore, che è essenzialmente monetario in una logica di puro mercato, ma che è ben più elevato e nobile, anche se difficilmente misurabile, se nel “Valore” si comprendono quei fattori immateriali che danno un senso alla vita.

Spostare l’attenzione della ricerca dalle imprese alla società nel suo insieme avrebbe anche l’effetto di ricostruire intorno alla ricerca e ai ricercatori un consenso e una fiducia che attualmente è assai modesta.

Stefano BISOFFI

Articolo liberamente riproducibile purché si indichino l’Autore e il link da cui è tratto