Posts contrassegnato dai tag ‘complessità’

napalm51Ne abbiamo parlato qualche anno fa.

E adesso la cosa sta approdando sui media italiani: “La scienza vive un’epidemia di studi inservibili”, portale Aduc, 11.1.2017.

Insomma, tra poco anche in Italia tutti sapranno che «l’85 percento degli sforzi dedicati a ricerche biomediche sono solo uno spreco»; che molti studi «non apportano niente di valido o, peggio, procedono facendo riferimento ad interpretazioni statistiche preconcepite e che non sono certe»; che questi sono autoinganni «che [possono] moltiplicare la quantità di falsi positivi»; che «non dobbiamo dimenticare il ruolo complice […] di riviste importanti, che preferiscono pubblicare risultati […] che provocano molto rumore e impatto, prima di assicurarsi e verificare […] l’affidabilità degli stessi».

Sono tutte parole di scienziati, i quali ormai riconoscono che c’è una dilagante crisi di riproducibilità nelle scienze della vita. Ossia: in medicina e biologia si pubblicano un’infinità di esperimenti che nessuno scienziato riesce a verificare.

La possibilità di rifare, o almeno riprodurre, un lavoro scientifico pubblicato da altri, è uno dei pilastri fondanti della scienza: se salta questo vincolo, allora si cade nel ciarpame, fra Stamina e Nature non c’è più differenza.

Questo problemino, al quale occorrerà metter mano alla svelta anche se non sarà facile, esplode proprio nel momento storico in cui la fuffa anti-scientifica di provenienza pop o commerciale è forse a un massimo: creazionismo (che Trump vuole rivitalizzare), no-Ogm, no-vaccini, no-glutine, Stamina, e così via.

Tra poco, i propalatori per interesse di notizie farlocche avranno una formidabile freccia al loro arco: se la maggior parte degli studi scientifici sono infondati, chi impedisce a chicchessia di metter su un blog o un giornale in cui si discetta di medicina?

E la moltitudine dei webeti che «si informano in rete» e cascano in ogni sorta di imbroglio, gli faranno un’immensa eco. Non è una prospettiva incoraggiante.

Da un po’ di anni nutrivo tra me e me la sensazione che la ricerca scientifica medica procedesse un tantino alla carlona.

hd

Me lo suggerivano l’uragano di pubblicazioni fantasticamente superiore, nel numero, a tutte le altre discipline insieme, la frequenza e la portata dei capovolgimenti di fronte, l’occhiuto sostegno di Big Pharma, e la scarsa competenza con la quale sui journals medici si [mal]tratta la statistica. E non mi riferisco alle rivistacce per miserelli, ma anche ai più bei nomi.

Adesso, salta ufficialmente fuori che la maggioranza dei risultati scientifici in scienze della vita (non solo medicina) sarebbero irriproducibili, ossia trastulli onanistici non verificabili.

Speriamo che la notizia non trapeli oltre il circoletto degli aficionados (che però in Usa comprende adesso anche il NYT)! Se arrivasse da noi sui media, se ne servirebbero subito gli “stamina” e i Di Bella per avvalorare le loro pratiche scalcagnate.

Sul Domenicale ritrovo Gloria Origgi, compilatrice della sgraziata ricerca “tarocca” di cui dissi tempo addietro, intenta a vergare un [meritevole] necrologio di Elinor Ostrom. Ne esce, ahinoi, il tratteggio di un’eroina pop, e la valenza scientifica della studiosa sfuma via indignata cum gemitu.

Il racconto, infatti, del lavoro di Ostrom come contrapposto a quello di Hardin (The Tragedy Of The Commons) è una semplificazione cara ai media e al dibattituccio ideologico che vede contrapposti coloro che vorrebbero tutto ridotto a un mondo francescano di beni comuni e coloro che vedono il bisogno di privatizzare ogni cosa per “efficientare”. Analisi per slogan, insomma: robetta del genere nucleare sì / nucleare no, bio vs. Ogm, e via semplificando.

Il grande contributo di Ostrom è stato invece quello di definire i vincoli necessari affinché un bene comune sia sostenibile (Governing the Commons […]) e possa sfuggire al suo “tragico” destino. Il lavoro di Ostrom è consequenziale a quello di Hardin, e non banalmente contrapposto, come il Domenicale sostiene adottando la bassa lettura ideologica. Non solo, ma, come spiega bene Vernon Smith, le ricerche di Ostrom incontrarono anche numerosi esempi di fallimento di gestione dei beni comuni. L’interesse di Elinor Ostrom si accentrò sempre sul chiedersi quali fossero i fattori che facevano funzionare la gestione e quali fossero invece quelli del fallimento.

Il modo di porgere l’argomento adottato dal Domenicale sta alla soluzione del problema dei commons come i ragionamenti svolti il 16 agosto dai contradaioli senesi stanno alla logica aristotelica. Come nel caso del problema energetico, di quello ecologico, di quello alimentare, e di altri al centro del nostro futuro planetario, la riduzione delle questioni a contrapposizioni estreme non fa che ultrasemplificare i termini e, in definitiva, impedisce di capire alcunché.

Eccovi due grafici interessanti. Il primo è l’andamento del prezzo dell’oro negli ultimi 37 anni: osservate l’impressionante impennata dell’ultimo decennio circa.

Il secondo grafico è l’andamento degli ultimi 60 giorni: dall’esplosione di inizio agosto, quando ai primi crolli della finanza mondiale l’oro salì ai 1900 $/oncia, all’incredibile calo degli ultimi 4-5 giorni, che hanno fatto registrare un -20% nonostante le finanze mondiali vadano peggio di prima.

I tentativi di spiegare il crollo del prezzo di un bene rifugio proprio nel bel mezzo di una crisi terrificante sono eroici quanto inconcludenti. Fra qualche decennio, forse, sapremo…

OPEN INNOVATION: Aprire i confini dell’azienda e dei suoi partner per andare “nella nuvola” alla ricerca di innovazioni, di prodotto ma anche di processo. Vedasi, ad esempio, il crowdsourcing stile Innocentive o Yet2.com.

Questa è una delle più grandi potenzialità del web 2.0, se non la più grande in assoluto.

OPEN SOURCE: Adottare software coperto da licenze non proprietarie.

Purtroppo, le licenze OS sono una piccola giungla. Si va dal software “libero” (quello duro e puro di Stallman), che è protetto da licenze GPL molto restrittive, a quello genericamente Open Source, che è il modello adottato dai software vendor.

Se per fare un nuovo software utilizzate un software GPL-ato, ossia libero, allora anche il nuovo software diventa GPL-ato e libero. Risultato? Nessun software vendor fa software GPL-ato (che non lo distinguerebbe per nulla dagli altri vendor e anzi metterebbe subito nelle loro mani il sw sviluppato ex novo).

E siccome l’86% del software OS è prodotto da aziende (e non da individui sfaccendati, come vuole il leit motiv dominante), ecco che in pratica tutto il sw OS interessante non è affatto “libero”, bensì coperto da licenze concepite appositamente per lasciare spazio alle interpretazioni pseudo-proprietarie.

(Se non ci avete capito nulla, siete in folta compagnia: adottare software OS, per un’azienda, significa infatti dotarsi di uno Studio Legale molto preparato. L’OS è per l’80% Diritto e per il 20% Informatica).

OPEN SOURCE = OPEN INNOVATION? Purtroppo no. Almeno per il momento, i due termini sono disgiunti.

Il software libero, ancora nel 2010, non funziona proprio sul terreno delle innovazioni: se uno inventa un nuovo software, tenta di capitalizzare sull’idea per farci i quattrini. Sicchè, a tutt’oggi, il software GPL-ato non è quasi mai innovativo (per gli utenti), e si limita a riprodurre innovazioni già avvenute e a trasportarle in ambito “libero”.

I software liberi, e in gran parte anche quelli OS, si manifestano quasi sempre laddove i vendor non hanno più interesse a competere e preferiscono operare su una piattaforma comune -un po’ come le piattaforme delle automobili di oggi. Essi finiscono dunque con l’essere, paradossalmente, funzionali al sistema dominante che vorrebbero sovvertire.

Sarebbe fantastico, invece, se tutte le invenzioni (e qui il discorso si allarga al tema più generale dell’Open Content) venissero messe sul libero mercato con licenza tipo GPL: l’autore continuerebbe a essere riconosciuto e remunerato, ma tutti potrebbero utilizzare l’innovazione (software, farmaco, macchina) per trarne delle altre, che a loro volta sarebbero automaticamente GPL-ate.

Un mondo migliore di quello attuale, dominato da brevetti ed avvocati e dalle multinazionali che possono permettersi i migliori.

UN NUOVO MONDO?: Purtroppo, molti sono gli ostacoli che dovranno essere superati per arrivare all’innovazione libera, ammesso che ci si arrivi.

Intanto, le aziende che vivono di brevetti (come le farmaceutiche, le bioagricolturali, le elettroniche, ecc.) fanno lobbismo per tutelare interessi che ritengono messi a repentaglio dall’innovazione aperta.

Poi, molti giuristi dicono che più ampio è lo spazio concesso alle utilizzazioni libere o soggette solo al pagamento del compenso, tanto più è compresso il diritto d’autore. E, nella “società della conoscenza”, dobbiamo stare molto attenti a non buttare, con l’acqua sporca dei brevetti e dei copyright, il bambino dell’innovazione, dell’invenzione. Per questo c’è chi ha proposto schemi di proprietà intellettuali (come Creative Commons) che si sforzano di conciliare il capitalismo con l”innovazione aperta e libera.

Forse la strada è tracciata -grazie a gente come Richard Stallman e Lawrence Lessig– verso un futuro di innovazione libera, dunque “vera” open innovation.

Ma l’obiettivo appare lontano nel tempo e molti aspetti devono ancora essere sviscerati, soprattutto per quanto attiene al rapporto politico tra creatività e profitto.

Uno degli ostacoli sul percorso sono i pasdaràn che vivono il software libero come una fede religiosa. Costoro fanno, presso il pubblico generale, una propaganda negativa al movimento stesso che venerano, un po’ come gli adoratori di Padre Pio, che secondo le stesse gerarchie ecclesiastiche offrono una visione caricaturale del Cattolicesimo.

I pasdaràn dell’OS stanno alla liberazione della creatività come i fanatici dei “km zero” e i bigotti del “solare” o dell'”eolico” stanno all’ecologia. Ossia: i problemi sono più complessi di quanto essi credono e, propugnando ora questa ora quella “soluzione finale” che poi si rivela una bufala, fanno sorgere nel pubblico e nei politici il sospetto che sotto sotto ci sia una fanfaluca anziché un’idea molto valida.

Vabbe’, in macroeconomia è impossibile fare le previsioni. Ma riusciamo, almeno a posteriori, a capire l’accaduto? Pare proprio di no.

Infatti, non solo

Un economista è un esperto che domani saprà perché le cose che aveva previsto ieri per oggi non si siano verificate. [L.J. Peter, 1975]

Ma, addirittura:

Se tutti gli economisti venissero distesi uno dopo l’altro, non raggiungerebbero alcuna conclusione. [G.B. Shaw, 1933]

Se il figlio diventa uno spiantato o un inguaribile drogato, i genitori, anche esaminando le scelte passate, non sempre riescono a ricostruire l’accaduto e capire cosa si è sbagliato.

Così accade anche in economia, una scienza che, oltre a essere estremamente complessa, non è una scienza perché le manca il lato sperimentale.

Le scienze galileiane (fisica, chimica, biologia…) organizzano esperimenti controllati per testare la validità o meno delle teorie. All’economia, specie la macroeconomia, questo privilegio è quasi sempre precluso. Non possiamo, oggi, far fallire la Grecia per vedere quali sarebbero gli impatti (intorno ai quali si discute senza accordo da settimane)…

Questa limitazione è fatale. Posso far cadere una mela dall’albero per vedere se e quanto Newton aveva ragione. Posso pensare di misurare se la luce delle stelle viene per caso flessa dalla Luna, per vedere se e quanto la teoria della Relatività Generale è corretta. Ma in economia gli studiosi sono fermi allo stadio che, nelle scienze oggi galileiane, era quello dei fisici greci 2500 anni fa: osservare il mondo passivamente per vedere se accade qualcosa che corrobora le mie ipotesi.

L’atteggiamento speculativo e inattivo può indurre gravi distorsioni, come infatti accadde alla fisica fino a Galileo.

Una di queste distorsioni è che, mentre siedo e aspetto conferme alla mia splendida teoria, eventuali accadimenti del mondo reale che potrebbero suonare come smentite io li ignoro oppure li classifico come “mostri“: un po’ come accadde ai pitagorici quando Ippaso di Metaponto si accorse che il rapporto tra la lunghezza della diagonale di un quadrato e quella del lato era un numero con infinite cifre decimali.

L’atteggiamento puramente speculativo e l’impossibilità di avvalersi dell’approccio sperimentale sono i macigni che gravano sul dorso dell’economia e fanno sì che tante delle discussioni tra economisti finiscano col suonare grottesche, come quando, dopo la crisi dell’autunno 2008, si discusse per mesi circa come fossero effettivamente andate le cose nel ’29 (circostanza sulla quale, manco a dirlo, la comunità scientifica economica è discorde).

La non scientificità (che non significa dilettantismo o incompetenza, ma solo una limitazione metodologica) è quella che rende l’economia oggetto di barzellette e battute da sempre, nonostante essa sia zeppa di studiosi di immenso talento e, specie durante il Novecento, abbia importato e spesso ideato teorie molto sottili e apparati matematici di enorme sofisticazione.

Anche le scienze galileiane della natura hanno branche che si trovano in condizioni analoghe. Per esempio, la climatologia è un dominio ricco di comportamenti emergenti (ossia di fenomeni inspiegabili sulla base di leggi fisiche fondamentali) e deprivato della possibilità di organizzare esperienze empiriche controllate.

Possiamo osservare i fenomeni, persino quelli verificatisi milioni di anni fa (per esempio carotando i ghiacci del Polo). Ma non possiamo scatenare El Nino o organizzare un ciclone per scopi sperimentali.

E infatti, quello è un campo nel quale le discussioni non mancano, con l’aggiunta di noiose distorsioni indotte dalla politica, proprio come accade in economia.

Ma c’è una sottile, eppure decisiva differenza con l’economia. La climatologia siede su discipline sottostanti (fisica, chimica, biologia) che sono permeate dello spirito galieiano. La macroeconomia, invece, poggia solo sulla matematica (che è uno strumento, un linguaggio; non una scienza galileiana) e su teorie assiomatiche poco o punto sorrette da dati empirici.

La razionalità degli agenti economici, la naturale efficienza del mercato e la “mano invisibile” di Adam Smith sono esempi di impostazioni sostanzialmente assiomatiche dell’economia, ossia assunte come ipotesi di lavoro e mai testate con esperimenti controllati.

Esse sono state messe in discussione sia da lavori teorici sia da risultati empirici di laboratorio, come ad esempio quelli provenienti dall’economia comportamentale (un bel blog che segnala spesso queste lacune è quello di Alessandro Cravera).

Certo, la rapacità alla Gordon Gekko.

Certo, il corto respiro, il focus sui risultati del trimestre e i bonus stratosferici pagati anche a chi piazzava junk bonds.

Certo, il ribasso dei prezzi delle case in Usa.

Eccetera.

Ma perché la comunità finanziaria intera ci è cascata in pieno?

Perché, all’avvicinarsi del meltdown del settembre 2008, non è cresciuto un consenso di opinioni tese ad ammonire su rischi gravissimi e imminenti?

Perché siamo ridotti a spolverare qualche sparuto maverick, che magari allora sparava cacchiate a vanvera (un po’ come il tizio che “previde” il terremoto dell’Aquila, sbagliando giorno e città) mentre oggi, a cose fatte, lo si vuol far passare come cassandra preveggente e inascoltata?

Tutto quel che avevamo erano premonizioni vaghe e generiche, che non portavano a intravedere la magnitudine e l’epoca del crack.

Non si è riusciti a prevedere l’evento, nel senso di specificarne l’epoca, il luogo e la portata, con sufficiente affidabilità e accuratezza da giustificare il costo della risposta.

Perché?

Per due ragioni, io credo.

La prima è che l’economia non è una scienza. È zeppa di modelli matematici complicatissimi ma, poiché manca del coté sperimentale, non va soggetta alla ripetibilità empirica tipica del modello scientifico.

La seconda ragione, collegata alla prima, è la copula gaussiana di Li, di cui già dicemmo ante, inadatta ad avvertire il rischio delle correlazioni di insolvenza.

Ossia, il modello matematico utilizzato per il risk assessment delle collateralized debt obligations era debole nel misurare rischi del tipo di quello del Wobbly Bridge di Londra.

Nell’estate del 2000 a Londra si è inaugurato il Millennium Bridge (un ponte pedonale), e dopo un solo giorno lo si è dovuto chiudere perché oscillava sotto i piedi della folla!

L’oscillazione era dovuta al feedback positivo che si innescava.

La gente, quando cammina, tende a oscillare un pochino lateralmente. Un certo numero di persone che camminino in fase possono trasmettere la loro piccola oscillazione, appena percettibile, al ponte. Altre persone, che pure sono fuori fase, tendono a camminare in fase a loro volta perché, inconsciamente, sentono oscillare flebilmente la strada sotto i piedi e quindi fanno un movimento che si oppone a quella sensazione.

Più gente si adatta alla fase, più il fenomeno di amplifica… Alla fine, se non si sta attenti, il ponte si spezza.

E la rottura può avvenire molto rapidamente, facendo passare in pochissimo tempo da stabilità a crack, perché da un certo momento in poi la fasatura delle camminate cresce in modo rampante, esponenziale. Sono le cosidette catastrofi.

Per fortuna, il Millennium Bridge fu chiuso prima che crollasse, perché ci si accorse che oscillava troppo lateralmente.

Le oscillazioni dei mercati finanziari dell’estate-autunno 2008, invece (compreso il primo fallimento nella storia di una banca d’affari, Bear Stearns, in primavera), non hanno fatto presagire il crollo catastrofico di settembre.

Però il crollo è avvenuto per una ragione non molto dissimile da quella del Millennium Bridge: l’accumularsi, improvvisamente rapido, vertiginosamente rapido, di una serie di piccoli fallimenti (di mutuatari). Il feedback positivo.

Era possibile prevedere? Io non lo so.

Le “piccole oscillazioni” dei mesi precedenti la catastrofe non sono state sufficienti a prevedere un crollo. E quando la crescita esponenziale delle oscillazioni è diventata insopportabile, le conseguenze erano già catastrofiche.

Si è intervenuti, ma un po’ tardi.

I fenomeni caotici-catastrofici sono per definizione imprevedibili, nel senso che a un certo punto le cose prendono una piega ingovernabile in modo indeterminato.

Abbiamo, però, un modo statistico di “prevedere il caos”: osservare il sistema per un tempo abbastanza lungo, così da misurare per quanto tempo, in media, esso riposa intorno ai propri attrattori.

Chissà…

Mi è piaciuta la presentazione di System S, la nuova piattaforma di Complex Event Processing dell’Ibm.

Gli amanti della complessità potranno riconoscervi uno strumento concreto per monitorare situazioni complesse e, entro certi limiti, governarle.

[Appunti raccolti anche nel saggio pubblicato su Nova Review del Sole 24Ore in settembre 2008]

 Da sempre trascorro ogni estate un periodo in alta montagna. Il mio sforzo supremo di trekking è una salita che porta a un rifugio situato a 3029 metri di quota dal quale, dopo aver riposato, quelli più ardimentosi e più in forma di me partono col buio e, affrettandosi a compiere il viaggio di andata e ritorno (di sette ore) prima che il sole del mezzogiorno provochi smottamenti e incrinature nei ghiacciai, superano un dislivello di 900 metri per giungere alla vetta del monte Ortles, il più alto delle Alpi a est del Bernina.

Il percorso presenta difficoltà modeste per un alpinista, ma è molto rischioso se non si è professionisti o se non si ha una guida, e ovviamente occorrono un’attrezzatura ad hoc e una buona preparazione fisica. Vi sono salite su terreno misto di roccia, neve e ghiaccio, passaggi di III grado non attrezzati, ghiacciai con pendenze anche del 45% e crepacci a profusione.

Il fenomeno che non finirà mai di stupire sia me sia le guide alpine del posto è la quantità di gente che compie quel percorso in scarpe da ginnastica. In estate, l’elicottero del soccorso alpino è in servizio permanente per trasportare decine di traumatizzati e/o congelati agli ospedali del circondario, e ogni settimana si assiste al recupero di qualche cadavere.

Se uno va in alta montagna con le scarpe da tennis, si espone a un rischio enorme e dimostra di essere più scriteriato che avventuroso.

 

Ora so che vi domanderete che diavolo c’entri con tutto ciò, ma sta di fatto che, progredendo nelle sue indagini, la scienza si è venuta occupando di fenomeni sempre più complessi.

Già verso la fine dell’Ottocento Henri Poincaré si era accorto che un sistema apparentemente semplice come quello costituito da tre pianeti nello spazio, benché soggetto alle leggi note e ordinate della meccanica newtoniana, poteva esibire anche comportamenti non-deterministici. Per la prima volta il caos faceva la sua intrusione in un contesto strutturato e meccanicistico. Questi studi furono proseguiti nei decenni successivi da matematici e fisici come Hadamard, Birkhoff, Schrödinger, Littelwood, Kolmogorov. Negli anni ’70 del Novecento, poi, i matematici Yorke, Mandelbrot e Lorenz portarono alle formalizzazioni oggi ancora prevalenti circa i comportamenti caotici.

Prima ancora di Poincaré, la scienza si era dedicata anche allo studio delle situazioni nelle quali il comportamento di un sistema è molto difficile da spiegare sulla base delle proprietà delle sue parti, perché queste interagiscono fra di loro.

I comportamenti della materia a livello macroscopico spesso appaiono contrastanti con le leggi microscopiche che riguardano atomi e molecole. Per esempio, a zero oC congela un bicchier d’acqua ma non la singola molecola di H2O. Per fare un altro esempio, tutti abbiamo ben chiaro che non è possibile riavere le uova dopo avere cucinato la omelette o far tornare nel contenitore il deodorante dopo averlo spruzzato in aria; eppure, le leggi della meccanica (newtoniana o quantistica) sono perfettamente reversibili, ossia sembrerebbero indicare che il filmato della storia potrebbe essere fatto scorrere all’indietro. Del resto, anche nel mondo biologico o sociale, non mancano esempi di questo genere: le colonie di formiche si comportano in modo imprevedibilmente intelligente se pensiamo alle facoltà dei singoli individui, e le folle negli stadi sono diverse dalla somma dei singoli individui.

La difficoltà dello spiegare in modo riduzionistico (ossia scomponendo in parti via via più semplici) il comportamento emergente di un sistema si rivelò già, in un certo senso, nella seconda metà dell’Ottocento, e fisici come Boltzmann e Gibbs dovettero ricorrere a metodi statistici (anziché esatti e puntuali) e concetti sistemici (anziché atomici e molecolari), come quello di entropia. Il filone proseguì, sia in campo classico (Einstein, Koopman, von Neumann, Birkhoff) sia in campo quantistico (Bose, Einstein, Fermi tra gli altri), e il ventennio 1950-70  portò a un nuovo livello di maturazione la nostra visione sui sistemi macroscopici.

Ad esempio, il chimico-fisico Ilya Prigogine, ponendo lo sguardo su una zona ancora poco esplorata, ossia lo stato dei sistemi quando essi sono lontani dall’equilibrio dinamico (come ad esempio lo stato critico al confine tra quello gassoso e quello liquido), si accorse che in quelle situazioni può verificarsi una cosa sorprendente: pur soggetto a oscillazioni caotiche, il sistema può tendere a uno stato di maggiore organizzazione, perdendo entropia.

Nel 1972 Philip W. Anderson scrisse su Science un articolo (More Is Different) che rifondò la fisica degli stati solidi e gassosi e inaugurò gli studi “complessi”, mettendo in discussione l’approccio riduzionistico in base al quale le leggi fondamentali della natura sarebbero solo quelle che regolano le particelle elementari, dalle quali sarebbe possibile ricavare tutto il resto.

Da allora, a ogni successivo livello di indagine (le particelle elementari, i nuclei, gli atomi, le molecole, le proteine e così via, salendo nella scala geometrica) competono le proprie leggi fondamentali e nessun gruppo di leggi è più autorevole, “più basilare” degli altri. La sfida della complessità non è tanto un attacco a problemi complessi visti in contrapposizione a quelli “semplici” del passato, quanto un punto di vista nuovo sull’indagine scientifica. 

L’accelerazione verso una complessità sempre maggiore si è accentuata negli ultimi 50 anni del Novecento, grazie al concorso di due nuovi fattori: la nascita degli approcci interdisciplinari e la comparsa dei computer.

Gli anni ‘40 hanno visto sorgere la necessità di sforzi interdisciplinari per affrontare nuove sfide, come ad esempio quelle poste dagli organismi viventi. Virus, batteri, cellule sono sì fatti di atomi e molecole, ma si comportano in modo ancora più “strano” delle perturbazioni atmosferiche, dell’aria intorno alle ali degli aerei supersonici e della propagazione delle onde nelle fibre ottiche (per citare problemacci “non lineari” noti agli ingegneri).

Nel 1944 Erwin Schrödinger, uno dei padri della meccanica quantistica, scrisse il pamphlet What Is Life?, proponendo un modello fisico del materiale genetico e gettando un ponte destinato a durare per sempre tra fisica e biologia: Watson e Crick, gli scopritori del Dna, lo citeranno come un lavoro ispiratore. 

Norbert WienerNegli stessi anni nasceva la prima disciplina programmaticamente interdisciplinare, la cibernetica, sotto l’impulso di matematici come Wiener, von Neumann e Weaver, di biologi come Maturana, di biongegneri come Lettvin, di neurofisiologi come McCulloch, di cardiologi come Rosenblueth, di logici come Pitts. Si era ormai capito che l’iperspecializzazione portava ottimi risultati localmente ma serviva a poco per affrontare certe sfide globali, a molte facce interconnesse.

Negli anni ’60 ebbe grande impulso anche la Teoria dei Sistemi (Bertalanffy, Bánáthy, Zwicky), tentativo di formalizzare in modo matematico la fenomenologia naturale più complessa, e vista da alcuni, oggi, come un altro sinonimo ancora di “teoria della complessità”. Il Santa Fé Institute, organizzazione di ricerca non-profit, è stato fondato nei primi anni ’80 per perseguire gli studi interdisciplinari che sono solitamente così difficili da svolgersi nelle istituzioni accademiche ordinarie, dove ricerche, pubblicazioni, cattedre e carriere sono rigidamente compartimentate per discipline e anzi branche di discipline.

La comparsa dei computer, infine, ha aperto la possibilità di far compiere da loro, beninteso dopo aver programmato sotto forma di software gli opportuni modelli matematici riflettenti la realtà fisica o chimica o biologica in esame, esperimenti che sarebbero impossibili in vivo, e ha dato formidabile impulso alla escalation verso problemi sempre più complessi (complessi non solo perché complicati, ma anche perché interrelati, intricati, “tessuti assieme”, come scende dall’etimo dell’aggettivo complesso, complector).

Così, oggi, i fisici della Sapienza di Roma studiano potentissime architetture elaborative per attaccare problemi come la forma delle nuvole nel vento o il modo con cui la panna si diluisce nel caffè. I matematici usano i computer per comprendere il misterioso ordine che sembra emergere dalla disposizione caotica dei numeri primi.

La progressiva accelerazione sul terreno dell’atteggiamento complesso si somma alla sempre maggiore ‘contemporaneità’ della scienza, dovuta al fatto che, come osservò De Solla Price, vivono intorno a noi la stragrande maggioranza (forse il 99%) di tutti gli scienziati più produttivi di ogni tempo.

La vertigine che ne deriva colpisce l’immaginazione di molti che guardano la scienza dal di fuori, e ha dato vita a una variegata letteratura sulla complessità che ha componenti giornalistiche (per esempio Mitchell Waldrop, Kevin Kelly), pseudo-scientifiche (Stuart Kauffman, Michael Crichton, la letteratura per il management), filosofiche (Edgar Morin).

A causa del non sempre solidissimo background scientifico degli autori coinvolti, gli esiti sono molto alterni, e spaziano dal puro e semplice nonsenso all’appassionata affermazione di valori come l’interdisciplinarità o l’anti-scientismo, ossia la sacrosanta opposizione a chi pensa che con i soli approcci logico-deduttivi e sperimentali troveremo risposte a ogni quesito esistenziale. Contributi importanti in questo senso sono venuti soprattutto da Edgar Morin.

Purtroppo, accade che alcuni di quegli entusiasti commentatori e i loro seguaci cadano a volte preda della sindrome delle scarpe da tennis sul ghiacciaio.

Un conto, infatti, è raccontare le sfida della complessità con piglio divulgativo alla Piero Angela, oppure costruire metafore e analogie con le scienze umane e sociali, oppure ancora indagare le implicazioni epistemologiche dei progressi (o degli stalli) scientifici.

Altro è salire semplicemente in cattedra quando si è privi dell’armamentario matematico senza il quale è impossibile scalare le vette della scienza. Quando provengono da persone in queste condizioni, affermazioni del tipo “ci serve una vista post-cartesiana della scienza che vada al di là del puro determinismo” (cosa avvenuta da un un bel po’ nell’indagine scientifica) o “si affermi dunque una nuova concezione del sapere” (vabbe’) e “occorre sbarazzarsi delle nozioni classiche di legge, previsione e determinismo” (in cambio di cosa, non è dato sapere) fanno l’effetto della vista di quei tizi che salgono l’Ortles in T-shirt e sneakers.

Nella letteratura di management, poi, gli esempi orripilanti di presunzione parascientifica abbondano, e i consulenti vi si avvinghiano per inebetire i clienti col terrorismo culturale e irretirli con discorsi cool.

Ad esempio, da dieci anni circola un paper pubblicato su Administrative Science Quarterly che è stato finora citato 1100 volte da altri autori come una sorta di Bibbia della Complessità nel Management ma che in realtà, anziché “estendere il pensiero manageriale sulla teoria della complessità”, come ampollosamente annunciato nel sommario e nello stesso titolo, si limita a fare riferimenti suggestivi a un’abborracciata letteratura divulgativa e ammette di non avere provato empiricamente nulla circa il rapporto tra complessità e organizzazione (vedi il riquadro più avanti).

Avventurandosi a parlare di scienza, anziché limitarsi a raccontare le sfide della complessità e le possibili analogie col mondo gestionale e/o sociale, alcuni autori, speaker e insegnanti di management cadono nei crepacci che li attendono minacciosi ai confini delle loro competenze.

L’articolo cui ci riferiamo nel testo è “The Art of Continuous Change: Linking Complexity Theory and Time-Paced Evolution in Relentlessly Shifting Organizations”, di Shona Brown e Kathleen Eisenhardt. Fra l’altro, com’è tipico dei lavori scientifici mal riusciti, vi si presenta una bibliografia molto lunga, con citazioni di opere scollegate dal contenuto del paper e di altre che palesemente le autrici non hanno letto, come ad esempio un celebre testo divulgativo del grande ed eccentrico fisico teorico Murray Gell-Mann.

Ci affrettiamo ad aggiungere che non mancano i casi di segno opposto. Ad esempio, l’insegnante dell’INSEAD Philip Anderson ha fornito un’eccellente rassegna in “Complexity Theory and Organization Science”, Organization Science, Vol. 10, No. 3, May-June, 1999. E anche la libera letteratura manageriale italiana si è recentemente arricchita di un testo che, nonostante incorra in alcuni degli errori ai quali accenniamo qui, viene redento dalla passione, dall’eclettismo, dalla maestria e dalla competenza manageriale dell’autore, il quale ci presenta una credibile rivoluzione copernicana del modo di guardare all’impresa, alla dirigenza e agli investimenti. Si tratta di “Competere nella complessità” di Alessandro Cravera, ETAS 2008.