Posts contrassegnato dai tag ‘complessità’

napalm51Ne abbiamo parlato qualche anno fa.

E adesso la cosa sta approdando sui media italiani: “La scienza vive un’epidemia di studi inservibili”, portale Aduc, 11.1.2017.

Insomma, tra poco anche in Italia tutti sapranno che «l’85 percento degli sforzi dedicati a ricerche biomediche sono solo uno spreco»; che molti studi «non apportano niente di valido o, peggio, procedono facendo riferimento ad interpretazioni statistiche preconcepite e che non sono certe»; che questi sono autoinganni «che [possono] moltiplicare la quantità di falsi positivi»; che «non dobbiamo dimenticare il ruolo complice […] di riviste importanti, che preferiscono pubblicare risultati […] che provocano molto rumore e impatto, prima di assicurarsi e verificare […] l’affidabilità degli stessi».

Sono tutte parole di scienziati, i quali ormai riconoscono che c’è una dilagante crisi di riproducibilità nelle scienze della vita. Ossia: in medicina e biologia si pubblicano un’infinità di esperimenti che nessuno scienziato riesce a verificare.

La possibilità di rifare, o almeno riprodurre, un lavoro scientifico pubblicato da altri, è uno dei pilastri fondanti della scienza: se salta questo vincolo, allora si cade nel ciarpame, fra Stamina e Nature non c’è più differenza.

Questo problemino, al quale occorrerà metter mano alla svelta anche se non sarà facile, esplode proprio nel momento storico in cui la fuffa anti-scientifica di provenienza pop o commerciale è forse a un massimo: creazionismo (che Trump vuole rivitalizzare), no-Ogm, no-vaccini, no-glutine, Stamina, e così via.

Tra poco, i propalatori per interesse di notizie farlocche avranno una formidabile freccia al loro arco: se la maggior parte degli studi scientifici sono infondati, chi impedisce a chicchessia di metter su un blog o un giornale in cui si discetta di medicina?

E la moltitudine dei webeti che «si informano in rete» e cascano in ogni sorta di imbroglio, gli faranno un’immensa eco. Non è una prospettiva incoraggiante.

Da un po’ di anni nutrivo tra me e me la sensazione che la ricerca scientifica medica procedesse un tantino alla carlona.

hd

Me lo suggerivano l’uragano di pubblicazioni fantasticamente superiore, nel numero, a tutte le altre discipline insieme, la frequenza e la portata dei capovolgimenti di fronte, l’occhiuto sostegno di Big Pharma, e la scarsa competenza con la quale sui journals medici si [mal]tratta la statistica. E non mi riferisco alle rivistacce per miserelli, ma anche ai più bei nomi.

Adesso, salta ufficialmente fuori che la maggioranza dei risultati scientifici in scienze della vita (non solo medicina) sarebbero irriproducibili, ossia trastulli onanistici non verificabili.

Speriamo che la notizia non trapeli oltre il circoletto degli aficionados (che però in Usa comprende adesso anche il NYT)! Se arrivasse da noi sui media, se ne servirebbero subito gli “stamina” e i Di Bella per avvalorare le loro pratiche scalcagnate.

Sul Domenicale ritrovo Gloria Origgi, compilatrice della sgraziata ricerca “tarocca” di cui dissi tempo addietro, intenta a vergare un [meritevole] necrologio di Elinor Ostrom. Ne esce, ahinoi, il tratteggio di un’eroina pop, e la valenza scientifica della studiosa sfuma via indignata cum gemitu.

Il racconto, infatti, del lavoro di Ostrom come contrapposto a quello di Hardin (The Tragedy Of The Commons) è una semplificazione cara ai media e al dibattituccio ideologico che vede contrapposti coloro che vorrebbero tutto ridotto a un mondo francescano di beni comuni e coloro che vedono il bisogno di privatizzare ogni cosa per “efficientare”. Analisi per slogan, insomma: robetta del genere nucleare sì / nucleare no, bio vs. Ogm, e via semplificando.

Il grande contributo di Ostrom è stato invece quello di definire i vincoli necessari affinché un bene comune sia sostenibile (Governing the Commons […]) e possa sfuggire al suo “tragico” destino. Il lavoro di Ostrom è consequenziale a quello di Hardin, e non banalmente contrapposto, come il Domenicale sostiene adottando la bassa lettura ideologica. Non solo, ma, come spiega bene Vernon Smith, le ricerche di Ostrom incontrarono anche numerosi esempi di fallimento di gestione dei beni comuni. L’interesse di Elinor Ostrom si accentrò sempre sul chiedersi quali fossero i fattori che facevano funzionare la gestione e quali fossero invece quelli del fallimento.

Il modo di porgere l’argomento adottato dal Domenicale sta alla soluzione del problema dei commons come i ragionamenti svolti il 16 agosto dai contradaioli senesi stanno alla logica aristotelica. Come nel caso del problema energetico, di quello ecologico, di quello alimentare, e di altri al centro del nostro futuro planetario, la riduzione delle questioni a contrapposizioni estreme non fa che ultrasemplificare i termini e, in definitiva, impedisce di capire alcunché.

Eccovi due grafici interessanti. Il primo è l’andamento del prezzo dell’oro negli ultimi 37 anni: osservate l’impressionante impennata dell’ultimo decennio circa.

Il secondo grafico è l’andamento degli ultimi 60 giorni: dall’esplosione di inizio agosto, quando ai primi crolli della finanza mondiale l’oro salì ai 1900 $/oncia, all’incredibile calo degli ultimi 4-5 giorni, che hanno fatto registrare un -20% nonostante le finanze mondiali vadano peggio di prima.

I tentativi di spiegare il crollo del prezzo di un bene rifugio proprio nel bel mezzo di una crisi terrificante sono eroici quanto inconcludenti. Fra qualche decennio, forse, sapremo…

OPEN INNOVATION: Aprire i confini dell’azienda e dei suoi partner per andare “nella nuvola” alla ricerca di innovazioni, di prodotto ma anche di processo. Vedasi, ad esempio, il crowdsourcing stile Innocentive o Yet2.com.

Questa è una delle più grandi potenzialità del web 2.0, se non la più grande in assoluto.

OPEN SOURCE: Adottare software coperto da licenze non proprietarie.

Purtroppo, le licenze OS sono una piccola giungla. Si va dal software “libero” (quello duro e puro di Stallman), che è protetto da licenze GPL molto restrittive, a quello genericamente Open Source, che è il modello adottato dai software vendor.

Se per fare un nuovo software utilizzate un software GPL-ato, ossia libero, allora anche il nuovo software diventa GPL-ato e libero. Risultato? Nessun software vendor fa software GPL-ato (che non lo distinguerebbe per nulla dagli altri vendor e anzi metterebbe subito nelle loro mani il sw sviluppato ex novo).

E siccome l’86% del software OS è prodotto da aziende (e non da individui sfaccendati, come vuole il leit motiv dominante), ecco che in pratica tutto il sw OS interessante non è affatto “libero”, bensì coperto da licenze concepite appositamente per lasciare spazio alle interpretazioni pseudo-proprietarie.

(Se non ci avete capito nulla, siete in folta compagnia: adottare software OS, per un’azienda, significa infatti dotarsi di uno Studio Legale molto preparato. L’OS è per l’80% Diritto e per il 20% Informatica).

OPEN SOURCE = OPEN INNOVATION? Purtroppo no. Almeno per il momento, i due termini sono disgiunti.

Il software libero, ancora nel 2010, non funziona proprio sul terreno delle innovazioni: se uno inventa un nuovo software, tenta di capitalizzare sull’idea per farci i quattrini. Sicchè, a tutt’oggi, il software GPL-ato non è quasi mai innovativo (per gli utenti), e si limita a riprodurre innovazioni già avvenute e a trasportarle in ambito “libero”.

I software liberi, e in gran parte anche quelli OS, si manifestano quasi sempre laddove i vendor non hanno più interesse a competere e preferiscono operare su una piattaforma comune -un po’ come le piattaforme delle automobili di oggi. Essi finiscono dunque con l’essere, paradossalmente, funzionali al sistema dominante che vorrebbero sovvertire.

Sarebbe fantastico, invece, se tutte le invenzioni (e qui il discorso si allarga al tema più generale dell’Open Content) venissero messe sul libero mercato con licenza tipo GPL: l’autore continuerebbe a essere riconosciuto e remunerato, ma tutti potrebbero utilizzare l’innovazione (software, farmaco, macchina) per trarne delle altre, che a loro volta sarebbero automaticamente GPL-ate.

Un mondo migliore di quello attuale, dominato da brevetti ed avvocati e dalle multinazionali che possono permettersi i migliori.

UN NUOVO MONDO?: Purtroppo, molti sono gli ostacoli che dovranno essere superati per arrivare all’innovazione libera, ammesso che ci si arrivi.

Intanto, le aziende che vivono di brevetti (come le farmaceutiche, le bioagricolturali, le elettroniche, ecc.) fanno lobbismo per tutelare interessi che ritengono messi a repentaglio dall’innovazione aperta.

Poi, molti giuristi dicono che più ampio è lo spazio concesso alle utilizzazioni libere o soggette solo al pagamento del compenso, tanto più è compresso il diritto d’autore. E, nella “società della conoscenza”, dobbiamo stare molto attenti a non buttare, con l’acqua sporca dei brevetti e dei copyright, il bambino dell’innovazione, dell’invenzione. Per questo c’è chi ha proposto schemi di proprietà intellettuali (come Creative Commons) che si sforzano di conciliare il capitalismo con l”innovazione aperta e libera.

Forse la strada è tracciata -grazie a gente come Richard Stallman e Lawrence Lessig– verso un futuro di innovazione libera, dunque “vera” open innovation.

Ma l’obiettivo appare lontano nel tempo e molti aspetti devono ancora essere sviscerati, soprattutto per quanto attiene al rapporto politico tra creatività e profitto.

Uno degli ostacoli sul percorso sono i pasdaràn che vivono il software libero come una fede religiosa. Costoro fanno, presso il pubblico generale, una propaganda negativa al movimento stesso che venerano, un po’ come gli adoratori di Padre Pio, che secondo le stesse gerarchie ecclesiastiche offrono una visione caricaturale del Cattolicesimo.

I pasdaràn dell’OS stanno alla liberazione della creatività come i fanatici dei “km zero” e i bigotti del “solare” o dell'”eolico” stanno all’ecologia. Ossia: i problemi sono più complessi di quanto essi credono e, propugnando ora questa ora quella “soluzione finale” che poi si rivela una bufala, fanno sorgere nel pubblico e nei politici il sospetto che sotto sotto ci sia una fanfaluca anziché un’idea molto valida.

Vabbe’, in macroeconomia è impossibile fare le previsioni. Ma riusciamo, almeno a posteriori, a capire l’accaduto? Pare proprio di no.

Infatti, non solo

Un economista è un esperto che domani saprà perché le cose che aveva previsto ieri per oggi non si siano verificate. [L.J. Peter, 1975]

Ma, addirittura:

Se tutti gli economisti venissero distesi uno dopo l’altro, non raggiungerebbero alcuna conclusione. [G.B. Shaw, 1933]

Se il figlio diventa uno spiantato o un inguaribile drogato, i genitori, anche esaminando le scelte passate, non sempre riescono a ricostruire l’accaduto e capire cosa si è sbagliato.

Così accade anche in economia, una scienza che, oltre a essere estremamente complessa, non è una scienza perché le manca il lato sperimentale.

Le scienze galileiane (fisica, chimica, biologia…) organizzano esperimenti controllati per testare la validità o meno delle teorie. All’economia, specie la macroeconomia, questo privilegio è quasi sempre precluso. Non possiamo, oggi, far fallire la Grecia per vedere quali sarebbero gli impatti (intorno ai quali si discute senza accordo da settimane)…

Questa limitazione è fatale. Posso far cadere una mela dall’albero per vedere se e quanto Newton aveva ragione. Posso pensare di misurare se la luce delle stelle viene per caso flessa dalla Luna, per vedere se e quanto la teoria della Relatività Generale è corretta. Ma in economia gli studiosi sono fermi allo stadio che, nelle scienze oggi galileiane, era quello dei fisici greci 2500 anni fa: osservare il mondo passivamente per vedere se accade qualcosa che corrobora le mie ipotesi.

L’atteggiamento speculativo e inattivo può indurre gravi distorsioni, come infatti accadde alla fisica fino a Galileo.

Una di queste distorsioni è che, mentre siedo e aspetto conferme alla mia splendida teoria, eventuali accadimenti del mondo reale che potrebbero suonare come smentite io li ignoro oppure li classifico come “mostri“: un po’ come accadde ai pitagorici quando Ippaso di Metaponto si accorse che il rapporto tra la lunghezza della diagonale di un quadrato e quella del lato era un numero con infinite cifre decimali.

L’atteggiamento puramente speculativo e l’impossibilità di avvalersi dell’approccio sperimentale sono i macigni che gravano sul dorso dell’economia e fanno sì che tante delle discussioni tra economisti finiscano col suonare grottesche, come quando, dopo la crisi dell’autunno 2008, si discusse per mesi circa come fossero effettivamente andate le cose nel ’29 (circostanza sulla quale, manco a dirlo, la comunità scientifica economica è discorde).

La non scientificità (che non significa dilettantismo o incompetenza, ma solo una limitazione metodologica) è quella che rende l’economia oggetto di barzellette e battute da sempre, nonostante essa sia zeppa di studiosi di immenso talento e, specie durante il Novecento, abbia importato e spesso ideato teorie molto sottili e apparati matematici di enorme sofisticazione.

Anche le scienze galileiane della natura hanno branche che si trovano in condizioni analoghe. Per esempio, la climatologia è un dominio ricco di comportamenti emergenti (ossia di fenomeni inspiegabili sulla base di leggi fisiche fondamentali) e deprivato della possibilità di organizzare esperienze empiriche controllate.

Possiamo osservare i fenomeni, persino quelli verificatisi milioni di anni fa (per esempio carotando i ghiacci del Polo). Ma non possiamo scatenare El Nino o organizzare un ciclone per scopi sperimentali.

E infatti, quello è un campo nel quale le discussioni non mancano, con l’aggiunta di noiose distorsioni indotte dalla politica, proprio come accade in economia.

Ma c’è una sottile, eppure decisiva differenza con l’economia. La climatologia siede su discipline sottostanti (fisica, chimica, biologia) che sono permeate dello spirito galieiano. La macroeconomia, invece, poggia solo sulla matematica (che è uno strumento, un linguaggio; non una scienza galileiana) e su teorie assiomatiche poco o punto sorrette da dati empirici.

La razionalità degli agenti economici, la naturale efficienza del mercato e la “mano invisibile” di Adam Smith sono esempi di impostazioni sostanzialmente assiomatiche dell’economia, ossia assunte come ipotesi di lavoro e mai testate con esperimenti controllati.

Esse sono state messe in discussione sia da lavori teorici sia da risultati empirici di laboratorio, come ad esempio quelli provenienti dall’economia comportamentale (un bel blog che segnala spesso queste lacune è quello di Alessandro Cravera).

Certo, la rapacità alla Gordon Gekko.

Certo, il corto respiro, il focus sui risultati del trimestre e i bonus stratosferici pagati anche a chi piazzava junk bonds.

Certo, il ribasso dei prezzi delle case in Usa.

Eccetera.

Ma perché la comunità finanziaria intera ci è cascata in pieno?

Perché, all’avvicinarsi del meltdown del settembre 2008, non è cresciuto un consenso di opinioni tese ad ammonire su rischi gravissimi e imminenti?

Perché siamo ridotti a spolverare qualche sparuto maverick, che magari allora sparava cacchiate a vanvera (un po’ come il tizio che “previde” il terremoto dell’Aquila, sbagliando giorno e città) mentre oggi, a cose fatte, lo si vuol far passare come cassandra preveggente e inascoltata?

Tutto quel che avevamo erano premonizioni vaghe e generiche, che non portavano a intravedere la magnitudine e l’epoca del crack.

Non si è riusciti a prevedere l’evento, nel senso di specificarne l’epoca, il luogo e la portata, con sufficiente affidabilità e accuratezza da giustificare il costo della risposta.

Perché?

Per due ragioni, io credo.

La prima è che l’economia non è una scienza. È zeppa di modelli matematici complicatissimi ma, poiché manca del coté sperimentale, non va soggetta alla ripetibilità empirica tipica del modello scientifico.

La seconda ragione, collegata alla prima, è la copula gaussiana di Li, di cui già dicemmo ante, inadatta ad avvertire il rischio delle correlazioni di insolvenza.

Ossia, il modello matematico utilizzato per il risk assessment delle collateralized debt obligations era debole nel misurare rischi del tipo di quello del Wobbly Bridge di Londra.

Nell’estate del 2000 a Londra si è inaugurato il Millennium Bridge (un ponte pedonale), e dopo un solo giorno lo si è dovuto chiudere perché oscillava sotto i piedi della folla!

L’oscillazione era dovuta al feedback positivo che si innescava.

La gente, quando cammina, tende a oscillare un pochino lateralmente. Un certo numero di persone che camminino in fase possono trasmettere la loro piccola oscillazione, appena percettibile, al ponte. Altre persone, che pure sono fuori fase, tendono a camminare in fase a loro volta perché, inconsciamente, sentono oscillare flebilmente la strada sotto i piedi e quindi fanno un movimento che si oppone a quella sensazione.

Più gente si adatta alla fase, più il fenomeno di amplifica… Alla fine, se non si sta attenti, il ponte si spezza.

E la rottura può avvenire molto rapidamente, facendo passare in pochissimo tempo da stabilità a crack, perché da un certo momento in poi la fasatura delle camminate cresce in modo rampante, esponenziale. Sono le cosidette catastrofi.

Per fortuna, il Millennium Bridge fu chiuso prima che crollasse, perché ci si accorse che oscillava troppo lateralmente.

Le oscillazioni dei mercati finanziari dell’estate-autunno 2008, invece (compreso il primo fallimento nella storia di una banca d’affari, Bear Stearns, in primavera), non hanno fatto presagire il crollo catastrofico di settembre.

Però il crollo è avvenuto per una ragione non molto dissimile da quella del Millennium Bridge: l’accumularsi, improvvisamente rapido, vertiginosamente rapido, di una serie di piccoli fallimenti (di mutuatari). Il feedback positivo.

Era possibile prevedere? Io non lo so.

Le “piccole oscillazioni” dei mesi precedenti la catastrofe non sono state sufficienti a prevedere un crollo. E quando la crescita esponenziale delle oscillazioni è diventata insopportabile, le conseguenze erano già catastrofiche.

Si è intervenuti, ma un po’ tardi.

I fenomeni caotici-catastrofici sono per definizione imprevedibili, nel senso che a un certo punto le cose prendono una piega ingovernabile in modo indeterminato.

Abbiamo, però, un modo statistico di “prevedere il caos”: osservare il sistema per un tempo abbastanza lungo, così da misurare per quanto tempo, in media, esso riposa intorno ai propri attrattori.

Chissà…