Archivio per la categoria ‘Scienza’

Union of Concerned ScientistsLa parola d’ordine dev’essere PRAGMATISMO.

Non è vero che per frenare il riscaldamento globale dovremmo cambiare radicalmente il nostro stile di vita.

Quello che dobbiamo fare è alla nostra portata, ed è scritto nei rapporti elaborati dal Gruppo Intergovernativo sui Cambiamenti Climatici: entro undici anni dovremmo ridurre della metà le emissioni di CO2, metano e N2O (più alcuni altri gas) rispetto a i livelli del 2017, e poi portarle a zero entro altri trenta anni.

Ciò si ottiene (1) utilizzando principalmente (non esclusivamente) sistemi energetici a basse emissioni di carbonio, come quelli basati su energia eolica, solare, geotermica, nucleare, idroelettrica, ecc; (2) modificando alcune politiche agroalimentari e di allevamento; (3) catturando CO2 nell’atmosfera e pompandola sottoterra.

Un approccio pragmatico è di gran lunga preferibile a un approccio radicale. Gli approcci radicali e ideologici provocano aspre reazioni popolari, manicheismo, discussioni politiche senza fine e in definitiva inazione.

E un approccio pragmatico consiste nel focalizzare l’attenzione innanzitutto sugli aspetti più rilevanti del problema:

(A) Assistiamo a estenuanti discussioni, nei media e in politica, su auto elettriche e edifici intelligenti. Ma il grosso del problema è altrove. Il 70% delle emissioni di gas serra sono dovute a (a) produzione di energia elettrica, (b) agricoltura, allevamento, silvicoltura e altri usi del suolo, (c) produzione industriale. Concentriamoci su questi primi, entro il 2030, con magari un focus meno ossessivo sui trasporti (14% delle emissioni), edifici (6%) e altre fonti (10%).

(B) Sette paesi più l’UE generano due terzi delle emissioni da combustibili fossili. Sembra ovvio che gli sforzi politici dovrebbero concentrarsi soprattutto lì, con un’attenzione minore agli altri 200 paesi.

(C) L’industria è responsabile del 25% delle emissioni totali di gas serra. Addirittura, 90 imprese sembrano aver prodotto da sole il 63% di CO2 e metano introdotti dalle attività umane nell’atmosfera dal 1854 al 2010. Si tratta di 50 aziende di proprietà di investitori privati, 31 società di proprietà statale, e 9 stati-nazione: tutti producono petrolio, gas naturale, carbone e cemento. L’autore dello studio ha osservato che i massimi dirigenti di tutte queste entità occuperebbero solo un paio di autobus se si riunissero per parlarne…

Ancora pragmatismo. Prendiamo i Gilet Gialli, partiti dalla protesta per un piccolo aumento del prezzo della benzina. I governanti saggi sanno che, se si vuole introdurre una tassa per motivi ecologici, occorre abbassare approssimativamente di un importo uguale alcune altre tasse sulle stesse coorti di cittadini .

A volte si può evitare del tutto la tassa ecologica: ad esempio, riducendo il limite di velocità del 10% si otterrebbe una discesa esponenziale delle emissioni. Si potrebbe anche, e forse è questa la singola misura più utile, incentivare le persone a sbarazzarsi di quel 25% di veicoli a motore che producono due terzi delle emissioni.

Oppure si può combinare le tre misure, la tassa, il limite di velocità, gli incentivi, per raggiungere un obiettivo globale. Sembrano, sono, cose facili da fare. E senza dare la stura a grandi dibattiti sul futuro della civiltà.

E non è che un esempio. Un pragmatismo simile può essere adottato sulla produzione di carne e quella di oli alimentari, sulle fonti rinnovabili di energia, o su incentivi economici per la “decarbonizzazione”.

La roboante retorica di una revisione apocalittica dello stile di vita, in Occidente o in Oriente, può essere utile per attirare l’attenzione sul problema e in qualche modo utile per fissare obiettivi molto generali, identificando le forze politiche in gioco. Ma per quanto riguarda il da farsi, le risposte sono davanti al nostro naso e alla portata.

Annunci

Mi accorgo che molti non sanno nulla del riscaldamento globale. La questione è in realtà alquanto semplice da spiegare.

La temperatura della superficie terrestre ha attraversato numerose altalene. Da alcuni decenni, però, l’evidenza paleoclimatica indica che l’aumento di temperatura in atto adesso è circa dieci volte più rapido della velocità media dei riscaldamenti avvenuti alla fine delle ultime sette ere glaciali.

gton30A ciò si è aggiunta l’osservazione di un veloce e, nell’intensità, inedito aumento della presenza di anidride carbonica (CO2) nell’atmosfera.

Proprio da queste due principali constatazioni partì la discussione scientifica sul riscaldamento globale in atto, con controversie che si sono spente all’incirca dopo il 2005. I negazionisti, oggi, fanno ancora circolare le tesi degli studiosi che 25-30 anni fa non erano d’accordo sull’origine antropica del riscaldamento globale. E quelle tesi erano rispettabilissime allora. Ma sono state in seguito confutate e superate.

La famosa CO2 c’entra per la ragione seguente. I “gas serra” abilitano la nostra vita sul pianeta. Senza di loro, la radiazione solare terrebbe la temperatura media della superficie terrestre a soli -18°C; sono invece proprio i gas serra a impedire alla gran parte del calore di venire riflessa verso lo spazio, e così quella temperatura sta intorno ai +15°.

Ossia: minuscole e pressoché invisibili molecole di vapor acqueo (soprattutto) e di gas, come il CO2, consentono la presenza dell’uomo sulla Terra.

Purtroppo, da molti decenni questo provvidenziale effetto serra si è guastato per via di extra emissioni di alcune di quelle molecole, specie CO2, metano ed N2O, causate da deforestazione, agricoltura, allevamento e soprattutto combustione di carbone e petrolio.

Con appena un terzo di quelle molecole gassose in più, l’effetto serra ha accelerato in modo abnorme e sta scaldando troppo la superficie terrestre, soprattutto dal 1975-1980 in avanti.

impostures-intellectuellesSono stato divertito, poi inorridito e infine immalinconito dalla lettura di Fashionable Nonsense: Postmodern Intellectuals’ Abuse of Science, in cui i fisici Alan Sokal e Jean Bricmont passano in rassegna le assurdità scritte su argomenti scientifici da intellettuali francesi che raccolsero grande successo sia mediatico sia accademico all’epoca del «nebuloso Zeitgeist che abbiamo chiamato “postmodernismo”», per usare le parole degli autori.

Per mia colpa e disonore, il libro ha raggiunto la mia attenzione solo oggi, più di vent’anni dopo la prima pubblicazione in francese nel 1997.

Dalla fine degli anni Sessanta ai primi anni Novanta, gli autori francesi Gilles Deleuze, Félix Guattari, Jacques Lacan, Julia Kristeva, Luce Irigaray, Bruno Latour, Jean Baudrillard, Paul Virilio e molti dei loro discepoli a volte religiosamente devoti scrivevano lunghe pagine senza senso nel maldestro tentativo di importare (inutilmente) concetti matematici e fisici nelle loro discipline, come la psicoanalisi, la linguistica o la filosofia.

Così facendo, essi dimostrarono una conoscenza superficiale e spesso superata della maggior parte dei termini impiegati (parliamo di paroloni come ad es. funzione, ascissa, caos, infinito, velocità, topologia, costante universale, cardinali transfiniti, numeri irrazionali, numeri immaginari, teoremi di Gödel, serie di Taylor, geometria di Riemann o euclidea, …). Ma la naïveté scientifica non impedì loro di infarcire molti dei propri scritti, compresi i più importanti e celebrati, con abbondante terminologia con pretese di scientificità.

Forse lo facevano con la genuina intenzione di mostrare l’applicabilità di taluni concetti scientifici nelle loro discipline. In tal caso, però, avrebbero dovuto come minimo spiegare (se non dimostrare) tale presunta applicabilità. Ma non l’hanno mai fatto.

Date un po’ un’occhiata a questo PDF del libro o, come vi suggerisco caldamente, procuratevi una copia in biblioteca o libreria, e, horribile visu, guardate coi vostri occhi

>>> Lacan vaneggiare di “topologia psicoanalitica” (pagine 19-24); confondere numeri irrazionali e numeri immaginari (25); scrivere formule ridicole (inducendo gli autori a sospettare che egli stia semplicemente prendendo in giro il lettore, pagina 26); costruire un collegamento immaginario tra logica matematica e linguistica (30); ed essenzialmente mostrare un’erudizione assai superficiale che meglio avrebbe fatto a nascondere (36);

>>>Deleuze e Guattari proferire parole come “caos”, “ascissa”, “funzione” o “acceleratore di particelle” in totale dispregio dei loro rispettivi significati scientifici e senza alcuno scopo diverso da uno forse metaforico che tuttavia non spiegano (pagine 156-157); ignorare l’evoluzione dell’analisi infinitesimale nei due secoli precedenti (160-161); delirare sulla biologia (166-167):

>>> Kristeva confondere l’insieme [0,1] della logica booleana con l’intervallo [0,1] della retta reale (pagine 39-40); applicare allo studio dei testi poetici, senza offrire alcuna giustificazione sia essa letterale o metaforica, l’assioma della scelta dell’insiemistica, di cui mostra di saper quasi nulla (43-44); e in definitiva «tentare di impressionare il lettore con parole stravaganti che evidentemente non capisce» (pagina 48).

>>> Irigaray pensare che Einstein fosse interessato a “accelerazioni senza riequilibrazioni elettromagnetiche” (un concetto senza senso, pag 107); confondere Relatività speciale e Relatività generale (107); sostenere che E=mc2 è una “equazione sessista” perché “privilegia la velocità della luce rispetto ad altre [imprecisate, NdT] velocità che sono vitali per noi” (109); vaneggiare di meccanica dei fluidi (110-116); pasticciare con l’abc della logica matematica (117-120);

>>> Latour discettare di Relatività senza capire il concetto di sistema di riferimento (125-128); e chiudere un suo saggio pasticciato sul tema affermando di avere “insegnato qualcosa” ad Einstein (130).

Una volta colte colle mani nella marmellata, le star “postmoderniste” risposero che la terminologia scientifica nei loro scritti è usata metaforicamente e non dovrebbe essere presa alla lettera. Poi, messi alle strette, arrivavano al punto di affermare che i loro testi non erano né letterali né metaforici e che i critici provenienti dalla “scienza dura” semplicemente non avevano gli strumenti culturali per capirli.

Ma che tristezza, amici! Se avete fatto il primo biennio di matematica o fisica o chimica o ingegneria, o semplicemente avete alle spalle un buon liceo scientifico, risolverete quella polemica, ahinoi, molto semplicemente: vi basterà leggere le pagine che ho indicato sopra … Fatelo. E poi chiedetevi, con me: che bisogno c’era, di scrivere quelle fesserie? Come può una persona colta degradarsi a tal punto?

I difensori delle stelle si risolsero infine a dire che il libro di Sokal e Bricmont faceva parte di un più ampio attacco conservatore americano agli intellettuali francesi di sinistra. Vabbè… Ma che tristezza, amici, che delusione (La mia Parigi dei Settanta 😢)! A chiunque sappia distinguere una serie di Taylor da un hamburger, risulta evidente, dopo aver letto quegli obbrobbrii, che anche se il libro fosse stato fabbricato furtivamente a Langley, i testi originali in esso contenuti non sono mai stati rinnegati: cioè, la CIA potrebbe aver inventato il commento, ma il testo francese di origine è lì per noi da contemplare, purtroppo.horror La Logique du sens di Deleuze o i séminaires di Lacan non sono mai stati ripubblicati previa rimozione delle stupidaggini pseudoscientifiche. Vien da piangere.

Gli autori Sokal e Bricmont furono colpiti dal fatto che quegli intellettuali non si fossero preoccupati di offrire spiegazioni circa il come i vari concetti scientifici che essi sollevavano potessero essere applicati alle loro discipline: in che modo, quegli strumenti delle scienze “dure” potrebbero risultare utili in psicoanalisi, in linguistica, in critica letteraria? Nessuno lo ha mai chiarito.

Da parte mia, sono invece rimasto scioccato dal fatto che qualcuno che abusa di concetti sui quali non sa nulla e li infila in testi finalizzati a épater le bourgeois possa non solo diventare famoso nei media ma anche conquistare cattedre nelle principali università parigine. O forse questi eccessi sono finiti, dopo la furia degli anni Settanta? Non lo so più.

E poi, la domanda delle domande: si tratta di occasionali scivoloni, infortuni che occorrono a chiunque, grandi compresi, anche per iscritto, e che non macchiano l’opera omnia?

Che diamine. Abbiamo sempre saputo che gente come Lacan o Deleuze non si occupavano di scienza, ma che importa? Ciò non gli impediva di essere importanti e profondi comunque. Io amo e per quel che posso coltivo la scienza, ma scientista non sono. Sospetto, con Polonio, che il Vero possa essere un Mentitore; con Dylan, che la Verità sia un discorso da ubriachi; con Amleto, che ci siano più cose in cielo e in terra, di quante ne sogni la filosofia. Epperò: uno che può essere cialtrone studiato per 50 pagine, può essere credibile per le restanti 250?

E: se essi dopo il libro qui in oggetto non hanno fatto un po’ di retromarcia, significa (a) che credevano veramente alle corbellerie che avevano scritto oppure (b) che erano così glorificati e supponenti da ritenersi al riparo da una critica radicale? E poi Barthes, Derrida, Foucault, che li incensavano per quelle opere gravide di stupidaggini? Mio Dio 😱

Post scriptum: La storica della fisica Mara Beller scrisse (su Physics Today nel 1999) che non è del tutto giusto incolpare i filosofi postmoderni di aver tratto conclusioni senza senso dalla fisica quantistica, dal momento che molte di quelle conclusioni furono tratte anche da alcuni insigni fisici quantistici, come Bohr o Heisenberg quando si avventurarono in filosofia. E’ vero. Ma né Bohr né Heisenberg ebbero fama e posizioni accademiche per aver scritto assurdità: iniziarono a dare i numeri dopo essere diventati leggende …

Ci sono quaranta celebri pagine nella Chartreuse, in cui Fabrizio del Dongo vaga a lungo per il campo di Waterloo durante la battaglia.

La sua personale esperienza è significativa per lui e per l’economia del romanzo. Ma non è Fabrizio la persona più adatta a decifrare la strategia, e neppure la tattica, degli eserciti sul terreno: egli percepisce solo frammenti e scene isolate, che non gli consentono di ricostruire il senso dell’evento collettivo.

Da qualche decennio, i metodi scientifici applicati alla scienze sociali e umane ci permettono di capire meglio la società.tdbu

Le letture che di essa facciamo tu o io estrapolando le nostre personali microesperienze possono a volte essere anche molto lontane da quel che emerge dopo un’analisi statistica rigorosa, e lo sono spesso quando i fenomeni in osservazione sono complessi o anche solo complicati.

Allo stesso modo, il medico mi è di enorme aiuto, ma non può prescindere dagli studi basati sul metodo scientifico, perché sa che se si basasse solo sulla sua personale esperienza commetterebbe più errori del necessario.

napalm51Ne abbiamo parlato qualche anno fa.

E adesso la cosa sta approdando sui media italiani: “La scienza vive un’epidemia di studi inservibili”, portale Aduc, 11.1.2017.

Insomma, tra poco anche in Italia tutti sapranno che «l’85 percento degli sforzi dedicati a ricerche biomediche sono solo uno spreco»; che molti studi «non apportano niente di valido o, peggio, procedono facendo riferimento ad interpretazioni statistiche preconcepite e che non sono certe»; che questi sono autoinganni «che [possono] moltiplicare la quantità di falsi positivi»; che «non dobbiamo dimenticare il ruolo complice […] di riviste importanti, che preferiscono pubblicare risultati […] che provocano molto rumore e impatto, prima di assicurarsi e verificare […] l’affidabilità degli stessi».

Sono tutte parole di scienziati, i quali ormai riconoscono che c’è una dilagante crisi di riproducibilità nelle scienze della vita. Ossia: in medicina e biologia si pubblicano un’infinità di esperimenti che nessuno scienziato riesce a verificare.

La possibilità di rifare, o almeno riprodurre, un lavoro scientifico pubblicato da altri, è uno dei pilastri fondanti della scienza: se salta questo vincolo, allora si cade nel ciarpame, fra Stamina e Nature non c’è più differenza.

Questo problemino, al quale occorrerà metter mano alla svelta anche se non sarà facile, esplode proprio nel momento storico in cui la fuffa anti-scientifica di provenienza pop o commerciale è forse a un massimo: creazionismo (che Trump vuole rivitalizzare), no-Ogm, no-vaccini, no-glutine, Stamina, e così via.

Tra poco, i propalatori per interesse di notizie farlocche avranno una formidabile freccia al loro arco: se la maggior parte degli studi scientifici sono infondati, chi impedisce a chicchessia di metter su un blog o un giornale in cui si discetta di medicina?

E la moltitudine dei webeti che «si informano in rete» e cascano in ogni sorta di imbroglio, gli faranno un’immensa eco. Non è una prospettiva incoraggiante.

Uno dei prodi Prodi

Pubblicato: 13 dicembre 2016 da Paolo Magrassi in Scienza
Tag:,

prodi2.jpgMi era sfuggito che a Würzburg, una delle più antiche università tedesche, fosse da un decennio istituita la cattedra Giovanni Prodi in algebra non lineare. Vi vengono associati due docenti stranieri all’anno, uno per semestre, i quali vengono poi incoraggiati a pubblicare insieme a colleghi residenti o ad affiancare insieme un tesista.

Giovanni Prodi, fratello di Romano e di numerosi valenti intellettuali, è scomparso nel 2010. Avevo comprato il suo Analisi Matematica (Boringhieri) quaranta anni fa, per reperirvi chiarimenti intorno ai testi di analisi e geometria di cui disponevo. Manco a dirlo, ottenni i chiarimenti che cercavo ma mi sorse un numero anche più grande di dubbi nuovi: quel che succede sempre in quei casi.

Così per circa un lustro odiai cordialmente il Prodi. E proprio per quello oggi sono orgoglioso di avere fatto la sua conoscenza in tali circostanze, e commosso di apprendere che la sua opera sia celebrata anche in Baviera.

1Life sciences and social sciences are producing an ever-increasing number of unreliable results, as suggested by the disturbingly low reproducibility of their published experiments.

The problem is as follows.

The possibility for third-party researchers to replicate a scientific study published by others, is one of the founding pillars of science. If you remove the replicability constraint, then no differentiation is possible between real science and fake science.

In some fields, such as epidemiology or large clinical trials or huge particle-accelerator physics experiments, it becomes foolishly impractical (e.g., expensive) to replicate experiments entirely. In these cases a lower-level control strategy is applied, called reproducibility: data sets and computer code, produced by and employed for conducting the experiment, are made available to others for verifying published results and carrying out alternative analyses.

About ten years ago, Stanford professor John Ioannidis noted that, increasingly, biomedical research experiments were becoming irreproducible (“Why most published research findings are false”, PLoS Medicine, 2005): if you studied a published experiment and set out to analyse its data, you would seldom come up with the same conclusions as the original authors.

This consciousness grew within the scientific community, with Ioannidis becoming one of the most quoted authors, until it made it to the New York Timesin 2014. From then on, the dirty little secret was no longer concealable.

Today, scientific repositories like Nature maintain lists of best practices and publish special issues on reproducible research.

The problem of social-science and life-science research (think of the grandiose studies to explore the effects of a new drug or medical procedure) having become largely irreproducible has been attributed to the combination of three causes.

One is the complexity of the experiments, often entailing the scrutiny of large samples of living individuals (humans or other animals), each representing in itself a complex organism. The second factor is the publish-or-peril atmosphere that dominates academia, infusing a sense of urgency in spreading results sometimes long before the author(s) herself is confident on their validity.

The third factor being blamed is what we could call the “data science myth”: the idea that as long as I have a huge set of useful data taken from the real world, someway or another I am bound to find a routine that will run over it and infer some logical result.

One example of such fallacy that has gained much attention of late is the abuse of p-values, a kind of inferential statistics from which researchers… infer much more than would be allowed by logic. As an example, p-value statistics can tell us if a drug does differentiate from placebo: however it does not tell us if the drug produces the intended effects, and more statistical tests are necessary to reach such conclusion. On the contrary, pharma studies often draw conclusions from the p-test only.

These distortions concern disciplines ranging from medicine to sociology, from economics to biology. In one semi-serious study aimed at debunking the mythology of p values, listening to music by the Beatles was found to make undergraduates younger; in another, eating chocolate helped people to lose weight. All supported by robust P values

This has become so serious that in 2016 the American Statistical Association has issued a warning, explaining why too often the P-value measurement strategy is abused.

However this is not going to be easy. People with mathematical-logic backgrounds who have happened to work side-by-side with colleagues from social or life sciences, have sometimes found certain inference subtleties to go unappreciated. In fact, statistics is one of mathematics’ most difficult domains, if not the toughest, and it often challenges hard-science folks too, not excluding mathematicians.

And there is more. «Decisions that are made earlier in data analysis have a much greater impact [than P value analysis] on results — from experimental design to batch effects, lack of adjustment for confounding factors, or simple measurement error. Arbitrary levels of statistical significance can be achieved by changing the ways in which data are cleaned, summarized or modeled». Or, to state it in one of my favorite mottos: If tortured long enough, data will confess anything…

This reproducibility crisis is a symptom of the data-science myth/abuse: the idea that we can automatically infer conclusions from data, which causes a declining attention on the mechanisms of logic.

Ultra-powerful Artificial Intelligence software contributes to consolidate such myth. DeepBlue showed long ago that it could take all the logical steps necessary to beating a Chess grandmaster. AlphaGo demonstrates intuition by inferring a good Go move from a pattern-matching exercise. Watson infers the meaning of a human phrase using more or less the same strategy…

The extensive and now irreplaceable use of computers in fields such as computational biology and many others, may fool even very skilled humans, such as researchers, into thinking that the answer is in the data, always. And, of course, it’s Big.