Visualizzazione post con etichetta legge di potenza. Mostra tutti i post
Visualizzazione post con etichetta legge di potenza. Mostra tutti i post

martedì 11 dicembre 2018

Se tu sei cosi brillante perche’ non sei anche ricco? Questione di fortuna.


Le persone di maggiore successo non sono sempre quelle piu’ talentuose, ma solo quelle piu’ fortunate. Questo il risultato di un modello di ricchezza sviluppato da 3 fisici italiani dell’Universita’ di Catania e pubblicato su Arxiv (Link1, Link2). La distribuzione della ricchezza come noto, segue un pattern ben definito chiamato la regola 80:20 (o principio di Pareto), l’80% della ricchezza e’ posseduta dal 20% delle persone. In uno studio pubblicato l’anno scorso addirittura e’ riportato che solo 8 persone posseggono la ricchezza totale di quella dei 3.8 miliardi di persone piu’ povere al mondo. Questo sembra accadere in tutte le societa’ e a tutte le scale. Si tratta di un noto pattern chiamato legge di potenza che appare in un ampio intervallo di fenomeni sociali. Ma la distribuzione della ricchezza e’ quella che genera  piu’ controversie a causa dei problemi che solleva sull’equita’ e sul merito. Perche’ mai solo una piccola parte di persone nel mondo dovrebbe possedere tanta ricchezza? La risposta tipica a questa domanda e’ che noi viviamo in una societa’ meritocratica dove le persone vengono premiate in base al loro talento, intelligenza, sforzi, ostinita’. Nel tempo, questo si traduce nella distribuzione di ricchezza che osserviamo nella realta’.  C’e’ un problema pero’ con questa idea: mentre la distribuzione della ricchezza segue una legge di potenza (distribuzione di Pareto), la distribuzione dell’intelligenza e delle abilita’ in genere segue una distribuzione normale che e’ simmetrica rispetto al valore medio. Per esempio, l’intelligenza che viene misurata tramite il test IQ, ha un valore medio di 100 e si distribuisce in modo simmetrico rispetto a questo valore. Nessuno ha mai ottenuto 1000 o 10000. Lo stesso e’ vero per lo sforzo che puo’ essere misurato in ore lavorate. Qualche persona lavora piu’ ore della media e qualche altra di meno, ma nessuno lavora milioni di ore piu’ di altri.

Eppure quando si tratta dei premi che si possono ricevere per il lavoro, alcune persone ottengono ricompense milioni di volte piu’ remunerative di altri. Per di piu’, diversi studi hanno mostrato che in genere le persone piu’ ricche non sono quelle piu’ talentuose. Quali fattori, allora determinano il modo in cui gli individui diventano ricchi? E’ possibile che il caso giochi un ruolo maggiore di quello che ognuno di noi si aspetta? E come possono questi fattori, qualunque essi siano, essere sfruttati per rendere il mondo un posto migliore e più giusto dove vivere?

Una risposta viene proprio grazie al lavoro di A. Pluchino e 2 suoi colleghi dell’Universita’ di Catania. Questo team ha creato un modello al computer utilizzando NetLogo un ambiente di programmazione a multi-agenti. Grazie ad esso hanno potuto analizzare il ruolo del caso in un processo in cui un gruppo di persone con un certo talento esplora le opportunita’ della vita. I risultati sono veramente illuminanti. Le loro simulazioni riproducono accuratamente la distribuzione della ricchezza nel mondo reale. Ma gli individui piu’ ricchi non sono quelli piu’ talentuosi (sebbene essi abbiano comunque un certo livello di talento). Essi sono semplicemente i piu’ fortunati. E questo ha un’implicazione significativa sul modo in cui le societa’ possono ottimizzare i ritorni degli investimenti che si fanno, dal mercato alla scienza. Il modello sviluppato e’ abbastanza semplice. Esso consiste di N persone, ognuna con un certo livello di talento (abilita’, intelligenza, destrezza e cosi via). Questo talento e’ distribuito secondo una Gaussiana intorno ad un valore medio e una certa deviazione standard. Alcune persone, quindi sono piu’ talentuose della media ma nessuna lo e’ per piu’ ordini di grandezza.

clip_image001

Questa e’ la stessa distribuzione che ritroviamo per caratteristiche umane come l’altezza e il peso. Alcune persone sono piu’ alte o piu’ basse della media, ma nessuno ha le dimensioni di un moscerino o di un elefante. Alla fine siamo abbastanza simili tra noi. Il modello costruito, ha seguito ogni individuo per 40 anni di vita lavorativa (dai 20 ai 60 anni). Durante questo tempo, gli individui possono aver sperimentato degli eventi fortuiti che hanno potuto sfruttare per aumentare la loro ricchezza se abbastanza talentuosi. Allo stesso modo, possono anche subire degli eventi sfortunati che possono ridurre la loro ricchezza. Questi eventi sono completamente casuali. Alla fine dei 40 anni, il team ha fatto un ranking degli individui in base alla ricchezza accumulata e studiato le caratteristiche di questa distribuzione. Hanno poi ripetuto la simulazione molte volte per verificare la robustezza dei risultati.

clip_image003

In questa figura un esempio di configurazione iniziale di una simulazione. Ci sono 1000 individui (agenti) con diversi gradi di talento e distribuiti in modo casuale all’interno di un mondo quadrato fatto di 201x201 striscie con condizioni al contorno periodiche. Durante ogni simulazione che copre diverse dozzine di anni queste persone vengono esposte ad un certo numero di eventi fortunati (cerchi di colore verde) e sfortunati (cerchi di colore rosso) che si muovono attraverso il mondo quadrato con traiettorie del tutto casuali.


La distribuzione della ricchezza che emerge dalle simulazioni e’ esattamente quella vista nel mondo reale. La legge 80:20 viene rispettata, in quanto l’80% della popolazione possiede il 20% del capitale totale, mentre il rimanente 20% possiede l’80% di questo capitale. Questo risultato non sarebbe sorprendente o sleale se il 20% delle persone piu’ ricche fosse anche quello piu’ talentuoso. Ma questo non e’ quello che emerge dallo studio.

clip_image005

Gli individui piu’ ricchi, in genere non sono quelli piu’ talentuosi o prossimi a essi. Il massimo successo non coincide con il massimo talento e viceversa.

clip_image007

Quindi se non e’ il talento, quali altri fattori causano questa distribuzione di ricchezza fortemente scodata? La simulazione chiaramente individua nella pura fortuna tale fattore. Facendo una classifica degli individui secondo il numero di eventi favorevoli e sfavorevoli subiti nei 40 anni di lavoro, e’ evidente che gli individui con maggiore successo sono anche i piu’ fortunati. E quelli che hanno avuto meno successo sono proprio quelli piu’ sfortunati (maggiore numero di eventi negativi).

clip_image009

Questo risultato ha delle implicazioni molto profonde per la societa’. Quale e’ la strategia piu’ efficace per esplorare il ruolo della fortuna nel successo di una persona? Il team ha verificato questo aspetto usando il metodo con cui vengono stabiliti i fondi per la ricerca scientifica. Le agenzie di finanziamento di tutto il mondo sono interessate a massimizzare il loro ritorno sull'investimento nel mondo scientifico. Recentemente l’European Reserch Council ha investito 1.7 miliardi di dollari in un programma per studiare la serendipita’, cioe’ il ruolo della fortuna nelle scoperte scientifiche, e come essa puo’ essere sfruttata per migliorare i risultati del finanziamento. E questo studio di Pluchino e il suo team  ben si presta a dare una risposta a questa domanda. In esso vengono esplorati diversi modelli di finanziamento per capire quale di essi produce il miglior ritorno quando si tiene in considerazione la fortuna. In particolare sono stati studiati 3 modelli in cui il fondo e’ distribuito equamente a tutti gli scienziati, distribuito a caso ad un numero limitato di scienziati o dato preferenzialmente a quelli che hanno avuto piu’ successo in passato. Quale e’ la migliore strategia? La risposta e’ controintuitiva ed il primo modello. Si avete capito bene quella che assegna il fondo in modo equo a tutti gli scienziati. E subito dopo la seconda e terza strategia vincente e’ quella che prevede di assegnare a caso il fondo al 10 o 20% degli scienziati. In questi casi, i ricercatori riescono ad ottenere un vantaggio dalle scoperte per serendipita’ che avvengono nel tempo. Col senno di poi e’ ovvio che se uno scienziato ha fatto una scoperta nel passato non significa che ha una probabilita’ maggiore di farne un’altra nel futuro. Un simile approccio potrebbe essere applicato anche negli investimenti di altro tipo di aziende, come una piccola o grande impresa, startup tecnologiche o anche per la creazione casuale di eventi fortunati. E’ chiaro che c’e’ bisogno di ulteriori indagini e studio su questo argomento prima di poter dare un giudizio definitivo. I primi risultati sono di sicuro rivoluzionari e in controtendenza, con una prospettiva di applicazione del tutto nuova e molto interessante. Non ci resta che aspettare ulteriori dettagli….

domenica 5 marzo 2017

L’auto-organizzazione dei mercati finanziari

 
Il crollo del mercato azionario e’ un calo improvviso e drammatico dei prezzi delle azioni con conseguente perdita significativa di ricchezza. I crolli in genere sono guidati dal panico degli investitori e da fattori economici sottostanti. Spesso essi seguono le cosiddette bolle speculative del mercato azionario. I crolli sono dei veri e propri fenomeni sociali dove gli eventi economici si combinano con il comportamento e la psicologia della folla formando un loop con retroazione positiva dove la vendita iniziale da parte di un piccolo gruppo convince sempre piu’ persone a fare la stessa cosa. Sono stati individuati dei path preferenziali che portano ad una crisi del mercato:
1) Un periodo prolungato di aumento dei prezzi delle azioni e un eccessivo ottimismo economico
2) Un mercato dove i rapporti P/E superano significativamente il valore medio di lungo termine
3) L’uso estensivo del cosiddetto Margin debt da parte degli investitori (il margin debt e’ il denaro che gli investitori prendono in prestito per esempio dalle banche per acquistare delle azioni)
La caratterizzazione matematica dei movimenti dei mercati azionari e quindi la possibilita’ di prevedere i crolli del mercato sono stati da sempre un campo di interesse di economisti, matematici e ultimamente anche di fisici. L’assunzione convenzionale e’ quella di un mercato che si muove seguendo una distribuzione log-normale. In altre parole si assume che il logaritmo dei rendimenti (rapporto tra prezzo di oggi St e quello di ieri St-1) sia distribuito come una gaussiana (distribuzione a campana).

image

Questa assunzione comunque non e’ sempre vera come si puo’ osservare prendendo come esempio i prezzi dell’ultimo anno del titolo Google. Il test di normalita’ di Shapiro-Wilk non passa essendo il valore molto prossimo a zero (una distribuzione normale deve avere questo parametro tendente a 1).


image


La stessa cosa e’ vera per i rendimenti del titolo Apple nell’ultimo anno.


image

Per questo motivo il matematico Benoit Mandelbrot nel 1963 suggeri’ che questa statistica fosse incorretta osservando che i movimenti significativi dei prezzi (i crolli) sono molto piu’ comuni di quanto previsto da una distribuzione lognormale. Dopo le osservazioni di Mandelbrot altri studiosi hanno suggerito che i movimenti del mercato vengono spiegati meglio da concetti utilizzati in teoria del caos e dell’analisi non-lineare. Tutto questo e’ stato riassunto con linguaggio non matematico da George Soros nel suo libro “L’alchimia della finanza” dove parla di quella che lui chiama la riflessivita’ dei mercati e i loro movimenti non lineari. La tesi principale e’ che i mercati sono tutt’altro che efficienti e che l’uomo oeconomicus e’ tutt’altro che razionale. Al contrario i prezzi di mercato riflettono piu’ che altro l’ignoranza i pregiudizi e spesso l’irrazionalita’ di milioni di investitori. Essi non riflettono accuratamente le condizioni sottostanti fornendo un quadro che in un modo o nell'altro è sempre di parte o distorto. Le visioni distorte dei protagonisti del mercato ed espresse nei prezzi possono, in certe circostanze, intaccare i fondamentali del mercato. Questo circuito di andata e ritorno tra i prezzi di mercato e la realtà sottostante e’ la reflexivity, "riflessività" di Soros. I mercati finanziari riflettono sempre questo circuito a due vie e possono a tratti allontanarsi molto dal cosiddetto equilibrio. In altre parole, è tipico dei mercati finanziari essere predisposti alla creazione di bolle speculative. In economia non vince l'ordine, ma il suo contrario, perché le scelte operate ad alto livello sui mercati internazionali sono pur sempre il frutto di interessi (e di errori) di singoli individui. L'economia viene influenzata (quindi subisce un riflesso) dalle condizioni sociali vigenti, che raramente sono di stabilità; molto più spesso sono di panico, paura, euforia. Condizioni che, se portate alle estreme conseguenze, possono sfociare in situazioni d'emergenza quali una bolla immobiliare e il crollo delle borse. In economia una bolla speculativa e’ una particolare fase di mercato caratterizzata da un aumento considerevole e ingiustificato dei prezzi di uno o più beni, dovuto ad una crescita della domanda repentina e limitata nel tempo. Alla fase di nascita e di crescita della bolla segue poi la fase di scoppio che tende a ripristinare i valori originari del bene in questione. L'eccesso di domanda che spinge verso l'alto in poco tempo il valore di un bene, di un servizio, di una impresa o più semplicemente di un titolo, si può ricondurre all'irrazionale (o razionale) euforia di soggetti economici convinti che una nuova industria, un nuovo prodotto, una nuova tecnologia potranno offrire cospicui guadagni e registrare una crescita senza precedenti. Scatta, pertanto, la corsa all'acquisto del diritto, nella speranza di rivendere lo stesso ad un prezzo superiore. La corsa all'acquisto provoca un aumento del prezzo che conferma, agli occhi di molti, la bontà della precedente previsione di un futuro aumento del prezzo del diritto. Questo stimola ulteriormente gli acquisti e quindi fa aumentare ancora una volta il prezzo. La profezia in altri termini si avvera, inducendo nuovi soggetti economici ad acquistare i medesimi titoli. Tra questi, man mano che i valori crescono, si annoverano sempre più soggetti solitamente restii ad acquistare strumenti finanziari dal rischio elevato. Quando il valore dei titoli scende repentinamente e si assiste a un cambiamento radicale delle prospettive economiche retrostanti, si parla di scoppio della bolla speculativa. L'eccesso di acquisto di un diritto, infatti, ad un certo punto si arresta. Le cause possono essere almeno tre:
  • è difficile trovare nuovi investitori disposti ad acquistare ulteriori diritti ad un prezzo che nel frattempo è diventato elevato;
  • chi ha comperato diritti in precedenza è spinto a vendere i titoli per monetizzare il guadagno;
  • le ottimistiche prospettive di guadagno precedentemente formulate possono essere riviste e ridimensionate.
Alla fase di crescita dei valori segue dunque una fase opposta, durante la quale si assiste ad un calo considerevole delle quotazioni. All'eccesso di vendite contribuiscono la consapevolezza che, di fronte a prospettive economiche meno ottimistiche, i valori dei titoli trattati sono destinati a calare e la volontà di molti possessori di titoli di cederli prima che si verifichino ulteriori diminuzioni del valore.
Torniamo alla non linearita’ dei mercati riportando una ricerca del MIT che ha evidenziato come la frequenza dei crolli di mercato segue una legge di potenza cosi’ come fanno i terremoti (vedi altri post sul mio blog su questo tema) e altri sistemi naturali. Ma la cosa strana e’ che il mercato non ha nulla di naturale essendo un mondo artificiale. Il mercato e’ pieno di casualita’, ma alla fine della giornata emerge un chiaro pattern che combacia con i pattern evidenziati in sistemi diversi come terremoti, distribuzione delle dimensioni delle citta’ e le parole in un vocabolario. Gli studiosi del MIT hanno anche trovato che le ampie fluttuazioni dei prezzi sono indotte dai partecipanti al mercato quando essi si trovano ad operare sotto pressione. Come in Giappone, per esempio, hanno costruito palazzi che resistono a sismi di forte entita’ ed evitare tante vittime, allo stesso modo bisogna fare in economia anche se e’ molto difficile. Oltre ai crolli del mercato, anche i volumi, le azioni vendute/comprate in un giorno e i prezzi delle azioni seguono una legge di potenza. Questo vuol dire per esempio, che il numero di giorni in cui il prezzo di una data azione si muove del 1% e’ 8 volte il numero di giorni in cui l’azione si muove del 2%, che a sua volta sara’ 8 volte il numero di giorni che il prezzo dell’azione si muove del 4% , che sara’ 8 volte il numero di giorni in cui il prezzo dell’azione si e’ mosso del 8% e cosi via. Per comprendere questi pattern il team del MIT ha analizzato i grossi azionisti, come i fondi comuni di investimento con piu’ di 100 milioni di dollari in attivo. Anche loro seguono una legge di potenza; il numero di azionisti che gestiscono 1 miliardo di dollari e’ il doppio di quelli che gestiscono 2 miliardi che a sua volta e’ il doppio di quelli che gestiscono 4 miliardi e cosi via (per chi di voi mi segue da tempo si sara’ accorti che questa altro non e’ che la cosiddetta legge di Zipf). Quando gli enti, come quelli che gestiscono i fondi comuni, che possono muovere grosse quantita’ di soldi si trovano a lavorare sotto pressione si possono avere grosse fluttuazioni di prezzi e la possibilita’ quindi di una bolla che a tendere puo’ diventare un vero e proprio crollo. Questi e altri studi dimostrano in modo inequivocabile che i crolli del mercato sono un chiaro segno di criticita’ auto-organizzata del mercato stesso. Le forti fluttuazioni delle quotazioni in borsa, come gli improvvisi crolli sono determinati dal loro naturale funzionamento, anche in assenza di fragilità strutturale o di interferenze malavitose criminali. Lo stato di non equilibrio è uno stato critico e quindi presenta cambiamenti improvvisi ed inspiegabili, che fortunatamente sono rari, come rari sono i terremoti catastrofici. Le gigantesche e rovinose crisi finanziarie, anche se rare (e più rare sono, più sono nefaste) sono eventi ordinari del tutto naturali e seguono le stesse leggi fisiche dei terremoti. Un’altra ricerca fatta all’Istituto dei Sistemi Complessi in New England ha trovato dei segnali premonitori dei crolli del mercato usando dei nuovi strumenti statistici sviluppati nell’ambito della teoria della complessita’. Questo lavoro suggerisce che il panico che porta ai crolli del mercato deriva da un’aumentata mimicita’ cioe’ della serie che ognuno copia l’altro. Un significativo aumento della mimica nel mercato si e’ presentato per esempio nell’anno precedente ad ognuno dei crolli degli ultimi 25 anni. Quando gli investitori copiano molto da vicino gli spunti degli altri e’ facile entrare in una situazione di panico che coinvolge il mercato. Quando i grandi investitori iniziano a vendere delle azioni, essi guidano il prezzo in basso in quanto la vendita genera paura nei piccoli investitori che iniziano a vendere anche loro. Se questo loop va fuori controllo il mercato entra in uno stato di panico. Quest’ultimo in economia come in altri aspetti della vita, puo’ essere generato da reali minacce esterne al sistema ma anche da nervosismo auto-generato internamente al sistema. Indipendentemente dal fatto che la minaccia e’ reale o immaginaria, un sistema vivente entra in uno stato di panico quando e’ sopraffatto da agitazione, ansia e paura. Maggiore e’ il numero di organismi presenti nel sistema e piu’ catastrofici sono gli effetti generati dal panico. Cercare di prevedere il comportamento di sistemi sociali ed economici in generale e’ molto complicato. Essi sono composti da agenti umani, tutti con i loro interessi personali, strategie e obiettivi. Ci sono comunque dei casi in cui le interazioni tra individui danno origine ad un comportamento collettivo. In questi casi, la previsione e’ possibile in quanto se gli individui si muovono insieme lo spazio dei possibili risultati del sistema si rimpicciolisce. In questo modo se il panico e’ realmente la causa delle crisi finanziarie, se si riesce a quantificarlo si potrebbe pensare di prevedere quando queste crisi si presenteranno. Proviamo allora a rispondere a queste due questioni:

· E’ possibile quantificare il panico?
· E’ possibile usare il panico per prevedere le crisi del mercato?

Nell’economia tradizionale i prezzi riflettono le aspettative degli individui in base alle notizie: solo le informazioni esterne al sistema possono guidare le decisioni. In realta’, i mercati sono delle vere e proprie reti di influenza (Fig. 1): le persone parlano tra loro e guardano quello che fanno gli altri prima di decidere cosa fare. Questo significa che per avere il quadro completo del sistema, bisogna considerare anche l’imitazione interna al sistema stesso.


                         Economia tradizionale                                            Sistemi complessi

image

Fig. 1 Confronto tra la prospettiva del mercato tradizionale, dove solo le notizie dall’esterno influenzano le decisioni dei singoli agenti (nodi), e quella complessa dove viene considerata l’interazione interna tra gli agenti.


Il gruppo di studiosi del New England ha costruito un modello includendo entrambi i fattori e verificato il comportamento di tale modello sui dati economici per quantificare i due effetti. Per semplificare, il sistema puo’ essere pensato come una rete completamente connessa con N nodi, dove ogni nodo puo’ assumere i valori binari +1 o -1. Ad ogni step temporale, un nodo guarda i primi vicini, ne prende uno a caso, e con una certa probabilita’, copia quello che sta facendo. Alcuni nodi sono fissi e non possono cambiare il loro valore. I nodi che fluttuano nel tempo rappresentano gli investitori mentre quelli fissi le notizie economiche provenienti dai mass media.
Alcune volte il valore delle azioni dipende dalle notizie e altre volte dalla copia dei primi vicini. Il valore binario che le azioni possono assumere rappresenta il segno del rendimento. Il numero di nodi fissi (notizie) che influenzano il valore delle azioni positivamente puo’ essere indicato con la lettera U mentre il numero che influenza il valore delle azioni negativamente puo’ essere indicato con D. Questo modello e’ simile a quello di Ising nel senso che riesce a descrivere la transizione da stati ordinati a disordinati e viceversa. I parametri importanti che determinano il comportamento di questo modello sono due:

· Il rapporto tra i collegamenti (links) esterni ed interni (cioe’ l’influenza delle notizie (U+D)/N)
· La frazione dei nodi positivi (cioe’ il rapporto (U-D)/N).

Qui di seguito i risultati dell’applicazione del modello a dei dati reali. E’ stato considerato l’indice Russel 3000 che comprende le 3000 azioni americane piu’ negoziate in borsa. La figura 2 indica il co-movimento delle azioni nel tempo nel senso che rappresenta il numero di giorni dell’anno in cui una frazione del mercato si muove in alto (o in basso). Intuitivamente se in media piu’ del 50% del mercato si muove nella stessa direzione (in alto o in basso) questo rappresenta un co-movimento. Nel 2000 per esempio la curva mostra un picco a 1/2 il che significa che il prezzo del 50% di azioni si sta muovendo in alto e il 50% in basso. Le linee continue rappresentano le distribuzioni sperimentali mentre le linee tratteggiate rappresentano il risultato del modello. Come si vede il fit e’ molto buono.
 

image

Fig. 2 Sull‘asse verticale e’ riportato la frazione di giorni dell’anno in cui una certa frazione di azioni (asse orizzontale) si e’ mossa in alto (rendimento positivo).


Nei 6 anni riportati in figura 2, si vede che avvicinandosi al 2008 la curva si appiattisce indicando che la probabilita’ di qualsiasi frazione e’ sempre la stessa. Quindi la probabilita’ che una larga parte del mercato si muova nella stessa direzione (in alto o in basso), in qualsiasi giorno dell’anno aumenta drammaticamente. Un livello cosi alto di co-movimento puo’ dare origine ad un comportamento collettivo e quindi ad una crisi finanziaria. Notare come dal 2000 al 2008 il valore del parametro U diminuisce indicando chiaramente una minore influenza delle notizie dei mass media sul sistema (i nodi fissi) e quindi una maggiore tendenza all’imitazione interna. Analiticamente la probabilita’ di co-movimento e’ data da:

image

dove N e’ il numero di azioni, k il numero di azioni con rendimento positivo e le parentesi indicano i coefficienti binomiali. Il comportamento del modello e’ controllato dall’intensità’ degli stimoli esterni U e D rispetto a quelli delle interazioni interne alla rete. Quando le interazioni interne sono deboli in confronto alle forze esterne (D, U>>1), la distribuzione e’ normale. Quando le interazioni interne sono forti (U e D piccoli) allora la distribuzione inizia a diventare uniforme, diventando esattamente uniforme in corrispondenza del valore critico D=U=1, dove l’influenza esterna ha l’intensita’ di un singolo nodo. Nella parte alta della figura 3 e’ riportato l’andamento temporale del parametro U. Mentre negli anni 90 c’era una situazione salutare per la borsa la stessa cosa non si puo’ dire oggi poiche’ ognuno cerca di copiare l’altro. La seconda immagine della figura 3 indica gli 8 giorni con crollo del prezzo significativo nel periodo 1985-2010 indicati con delle linee rosse. Questi sono stati raggruppati in 4 finestre temporali indicate in celeste. Come utilizzare il parametro U per individuare questi giorni?
 

image

Fig. 3 Il pannello in alto mostra l’andamento del parametro U nel tempo. Quello in basso invece mostra la variazione annuale del parametro U come frazione della sua standard deviation calcolata sugli anni precedenti.


Piu’ che il valore di U e’ importante considerare il cambiamento di U da un anno a quello precedente diviso la standard deviation delle sue fluttuazioni. Ogni crollo e’ preceduto da un semplice pattern. Facciamo partire il nostro orologio quando il cambiamento di U scende al di sotto di 2 standard deviations: all’interno del prossimo anno ci sara’ un crollo significativo del mercato. Si azzera l’orologio una volta che la variazione di U diventa positiva di nuovo. Se si segue questo pattern si puo’ vedere come tutti gli otto crolli vengono previsti correttamente. Non ci sono ne’ falsi positivi ne’ falsi negativi. Questo ricorda molto da vicino il comportamento collettivo dei sistemi complessi. Una volta che il sistema subisce una perturbazione (rilassamento) c’e’ un rilascio improvviso di energia e poi molto lentamente il sistema si porta di nuovo verso uno stato di criticita’ pronto a dare origine ad una nuova catastrofe (o valanga nell’esperimento del mucchietto di sabbia di Per Back...). Costruire modelli e’ divertente, e anche se tutti i modelli sono sbagliati, qualcuno di questi e’ certamente utile.
Un altro modello che merita la nostra attenzione e’ quello proposto da due fisici polacchi e che utilizza il cosiddetto esponente di Hurst per fare una previsione statistica dei crolli del mercato. Vediamo di cosa si tratta. Anche in questo studio viene evidenziata la complessita’ del sistema finanziario e della sua non predicibilità. Comunque dalla meccanica statistica sappiamo che non c’e’ bisogno di sapere dove si muovera’ esattamente una particella del sistema per trovare l’equazione di stato di questo sistema. Ricordiamo che l’equazione di stato fornisce una relazione matematica tra due o più variabili di stato associate alla materia, come temperatura, pressione, volume o energia interna. Le equazioni di stato sono utili nella descrizione delle proprietà dei fluidi (e delle loro miscele), dei solidi e persino per descrivere l'interno delle stelle. L’equazione di stato e’ sufficiente nelle applicazioni pratiche per darci un’informazione globale del sistema grazie alle variabili macroscopiche che sono legate a quelle microscopiche a noi inaccessibili. In molti casi questa conoscenza e’ sufficiente ad indicarci la direzione in cui il sistema evolvera’. Allo stesso modo i due fisici si chiedono se e’ possibile trovare dei parametri macroscopici relativi al mercato che possano essere degli indicatori delle dinamiche interne del sistema finanziario. Come gia’ detto la distribuzione dei rendimenti non segue esattamente una legge Gaussiana quanto invece una legge di potenza e quindi e’ normale attendersi delle correlazioni di lungo periodo cioe’ una sorta di lunga memoria del mercato. Quindi e’ giusto andare a cercare tali correlazioni nei dati storici dei mercati azionari. Cio’ e’ stato fatto da questo team polacco utilizzando la cosiddetta tecnica DFA (Detrended Fluctuations Analysis). Questa applicata alle serie temporali degli strumenti finanziari permette di estrarre l’esponente di Hurst che misura il livello di persistenza di un dato segnale. Se il sistema coincidesse con un cammino casuale il valore dell’esponente H sarebbe di 0.5 indicando una serie di eventi indipendenti: ogni variazione non è influenzata dalle precedenti e nemmeno influenzerà quelle future. Se invece l’esponente e’  maggiore di 0.5 questo sta a significare che la distanza coperta dal sistema è assai maggiore di quella predetta dal random walk model: il sistema risulta caratterizzato da un effetto memoria per il quale ogni osservazione è influenzata da quelle passate ed influenzerà quelle future. Se questo esponente e’ diverso da 0.5 questo implica l’esistenza di correlazioni a lungo range. In particolare se l’esponente di Hurst e’ maggiore di 0.5 allora il segnale e’ persistente mentre se e’ minore di 0.5 allora il segnale e’ anti-persistente. Per serie persistente, intendiamo una serie caratterizzata da una dipendenza positiva tra le variazioni generate dal processo: se nell’ultima osservazione abbiamo registrato un incremento (decremento) è più probabile che l’osservazione successiva registri un ulteriore incremento (decremento). La probabilità di registrare due variazioni di segno concorde risulta tanto più alta quanto piu’ H si avvicina ad uno. Per anti-persistente invece intendiamo una serie che se in un dato periodo ha subito un incremento (decremento) è più probabile registrare un successivo decremento (incremento) che un ulteriore incremento (decremento). La serie risulta più volatile di una serie casuale (poiché caratterizzata da più frequenti inversioni) tanto più il valore di H si avvicina a zero. Prima di un cambio drammatico del prezzo di uno strumento finanziario ci si aspetta che esso venga preceduto da uno stato di eccitazione del mercato (nervosismo) che a sua volta e’ riflesso dalla forma dei cambiamenti di prezzo dei giorni seguenti. Questi cambiamenti dovrebbero diventare meno correlati prima di un crollo nel trend del segnale. Al contrario quando il trend nel mercato e’ forte e ben determinato, un aumento (diminuzione) del prezzo visto nel passato recente rende piu’ probabile un segnale in crescita (decrescita) anche nel futuro immediato, In altre parole l’esponente di Hurst dovrebbe mostrare una diminuzione significativa e repentina se il trend sta cambiando velocemente la sua direzione come in caso di crollo del mercato. Tra le varie tecniche disponibili per calcolare l’esponente di Hurst i due studiosi hanno scelto quella del DFA essendo piu’ robusta e applicata all’indice Dow Jones Industrial Average (DJIA). Nella fig 4 possiamo vedere il trend dell’indice DJIA e il valore dell’esponente di Hurst indicato con alfa per diversi valori di N che indicano la lunghezza delle finestre temporali in cui viene diviso il segnale come richiesto dalla tecnica DFA. Notiamo che per N=350 e 420 l’esponente di Hurst e’ molto simile cosa non vera invece per N=210. All’aumentare di N si nota come l’andamento dell’esponente diventa piu’ liscio (smooth). Comunque la scelta di N e’ del tutto empirica e non c’e’ alcuna legge per determinarlo. Per l’analisi del segnale DJIA riportato nella figura 5 il valore di N scelto e’ stato di 240. Il primo crollo analizzato e’ stato quello del 1929 il cui dettaglio e’ mostrato in fig 6. Si vede chiaramente come l’abbassamento repentino del valore del DJIA corrisponde ad un abbassamento dell’esponente di Hurst con quest’ultimo che raggiunge il minimo assoluto del periodo a circa 0.45, 2 settimane prima del crollo. Per verificare se questa coincidenza fosse semplicemente dovuta al caso i due fisici polacchi hanno ripetuto la stessa analisi per il crollo del 1987 e 1998 confermando un abbassamento dell’esponente di Hurst (nervosismo dei mercati) alcune settimane prima del crollo del mercato. In definitiva essi hanno provato che l’esponente di Hurst si abbassa drasticamente prima di ogni crollo dell’indice DJIA. Questo conferma che l’esponente di Hurst puo’ essere usato come misura dello stato attuale di eccitazione del mercato anche se va ricordato che fattori esterni agli investitori possono accelerare o decelarare il valore dell’esponente di Hurst e mettere in crisi la previsione.
Prima di chiudere il post va precisato che i modelli descritti fin qui e tanti altri simili che si possono trovare in rete non hanno la pretesa di predire quando ci sara’ il prossimo crollo finanziario o il prossimo terremoto. Essi nascono con il solo intento di fare una previsione statistica. Nessuno sapra’ la data e l’ora esatta del prossimo crollo finanziario o terremoto. L’unica cosa possibile e’ calcolare la probabilita’ che in un certo periodo possa presentarsi una crisi finanziaria o un terremoto. E niente di piu’.
 

image

Fig 4, Andamento nel tempo dell’esponente di Hurst indicato con alfa per l’indice DJIA nel periodo Feb 1913-Giu 1914 per tre differenti finestre temporali N. I valori di alfa sono stati moltiplicati per 2 e spostati lungo l’asse verticale per apprezzare le differenze.

 

image

Fig 5. Andamento dell’indice DJIA tra il 1896 e 2003. Gli eventi economici piu’ importanti sono riportati sulla curva.

 

image

Fig 6. Il crollo del 1929. In alto l’andamento del DJIA e in basso il corrispondente esponente di Hurst, In corrispondenza del crollo dei prezzi si nota un repentino abbassamento dell’esponente.


mercoledì 25 novembre 2015

La scienza della criticita’ autorganizzata. Una passeggiata attraverso sistemi fisici, biologici, sociali e aziendali

 

“Bisogna unire cio’ che e’ completo e cio’ che non lo e’,

cio’ che e’ concordee cio’ che e’ discorde, cio’ che e’

in armonia e cio’ che e’ in contrasto”

Il mese di Novembre il Complexity Institute organizza il “Complexity Management Literacy Meeting “. Questo incontro nasce da un’idea del prof. Alberto Felice De Toni (Rettore dell’Universita’ di Udine) per condividere le letture in tema di Complexity Management. L’evento e’ al suo secondo anno con sede a Fiesole. L’anno scorso ho avuto la possibilita’ di presentare un libro che io ritengo molto importante per chi lavora sulla complessita’: How neature works di Per Bak un fisico danese morto prematuramente nel 2002. Il libro (che si trova solo in inglese) ben scritto e condensato segue un doppio filo narrativo: la teoria SOC (self-organizing criticality) con diversi esempi pratici, e le opinioni/critiche dell’autore alla scienza moderna. Per poter introdurre la teoria SOC bisogna un attimo spendere qualche parola sulla legge di potenza  (piu’ volte discussa in questo blog). Si tratta di una legge del tipo:

N(x)=ax-s

con a una costante e s l’esponente della potenza. In un grafico a doppia scala logaritmica questa appare come una linea retta in quanto in base alle proprieta’ dei logaritmi abbiamo:

Ln(N(x))=Ln(a)-sLn(x)

Come pdf (probability density function) invece, la legge di potenza appare come una curva rassomigliante ad un dinosauro della specie diplodocus. Moltissimi risultati cadono nella prima parte dell’asse x (valori bassi) e pochi risultati a valori elevati di x (la coda della distribuzione o del diplodocus  se volete). Quale e’ la caratteristica particolare che fa di questa legge una legge molto comune in natura? La sua invarianza di scala . A qualsiasi ingrandimento la osserviamo appare sempre la stessa. Il tutto e’ uguale alle parti e viceversa. Ma questo ci ricorda degli enti geometrici altrettanto importanti e famosi: i frattali. Alla base di questi oggetti, infatti c’e’ una legge di potenza  all’azione che fa si per esempio che un piccolo ramo assomigli all’albero intero o che un piccolo pezzo di broccolo romanesco assomigli all’intero cavolo. 

In termini matematici l’invarianza di scala significa che se moltiplichiamo la x per un fattore c la forma matematica della y non cambia:

N(cx)=a(cx)-s=ac-sx-s=a’x-s

con a’=ac-s una nuova costante. Un oggetto geometrico autosimilare (cioe’ che soddisfa l’invarianza di scala ) e’ la cosiddetta curva di Koch:

Questi oggetti furono scoperti nel 1979 dal matematico polacco Benoit Mandelbrot. Per capire di cosa si tratta supponiamo di voler misurare la lunghezza della costa dell’Inghilterra. Partiamo con un righello di lunghezza l e misurariamo la costa. Fatto cio’, riduciamo il righello di un certo fattore  e rimisuriamo di nuovo. E cosi via. Cosi facendo ci accorgiamo che non esiste una sola misura della costa dell’Inghilterra ma tante a seconda della lunghezza del righello utilizzato (sensibilita’ della misura). Questo significa che non c’e’ una scala unica ma tante scale. Vale la relazione:

L=Al-D con 1<D<2

dove L e’ il perimetro dell’Inghilterra ed l la lunghezza del righello. La costante D (un numero reale) e’ detta la dimensione frattale. In questo caso D vale ~1.25. Questo significa che la spezzata sovrapposta all’isola dell’Inghilterra e’ un oggetto geometrico che sta tra una linea (D=1) e una superficie (D=2).

Osserviamo che D altro non e’ che la pendenza della retta in scala bilogaritmica  di equazione:

Ln(L)=Ln(A)-DLn(l)

Mandelbrot  ha dato il suo nome anche ad uno dei frattali piu’ belli e misteriosi mai scoperti che solo la potenza di calcolo dei computer ci ha permesso di ammirare. Puo’ essere generato utilizzando un sistema di 2 equazioni:

e colorando opportunamente i punti del piano (x,y) a seconda della velocita’ di fuga all’infinito delle soluzioni dopo un certo numero di iterazioni. Nell’immagine seguente i punti in nero sono quelli che rimangono intrappolati e non riescono a scappare all’infinito. Gli altri colori invece indicano la velocita’ con cui le soluzioni esplodono all’infinito.

Grazie all’autosimilarita’ , gli oggetti frattali seguono la legge di potenza e quindi la distribuzione con lunga coda (detta di anche distribuzione di Pareto) dove non c’e’ alcun valore tipico intorno al quale si disperdono gli altri valori. Per gli oggetti non frattali accade esattamente l’opposto: la distribuzione dei valori e’ Gaussiana  e quindi c’e’ un valore medio ben definito con la maggior parte dei punti concentrati intorno ad esso. Un esempio e’ quello mostrato nell’immagine sottostante dove i dischi hanno un diametro di 1 cm e che a causa degli errori randomici puo’ oscillare intorno a questo valore medio.

Ben diversa la situazione di un insieme di dischi con diametro variabile da valori piccoli fino a valori molto grandi come accade per esempio con le dimensioni del pietrisco presente su una spiaggia.

Gli oggetti frattali matematici sono diversi da quelli che si trovano in Natura in quanto solo con la matematica e’ possibile iterare il processo all’infinito. Questo comunque non toglie nulla alla bellezza di tali pseudo-frattali come mostrato nelle immagini seguenti.

Se alla base dei frattali c’e’ la legge di potenza allora questa e’ la firma dei sistemi complessi. Quest’ultimi infatti nello spazio delle fasi (lo spazio i cui punti rappresentano gli stati possibili del sistema) generano strutture molto belle chiamate attrattori strani  e altro non sono che degli oggetti frattali. L’esempio piu’ noto e’ l’attrattore strano di Lorenz anche chiamato “farfalla di Lorenz”.

Esso rappresenta l’evoluzione nello spazio delle fasi del tempo meteorologico. Quando lo stato del sistema arriva in questa regione, esso rimarra’ intrappolato per tutto il tempo e descrivera’ una curva particolare che si avvolgera’ su stessa senza intersecarsi mai in alcun punto. Queste curve, man mano che il sistema cambia nel tempo, diventano sempre piu’ complesse, annodandosi su stesse, stratificandosi e dando vita a forme particolari. Il concetto di complessità, in contrapposizione al riduzionismo  della fisica classica, si è affermato come un formidabile apparato interpretativo di vari fenomeni fisici, biologici e sociali. Nell'approccio riduzionista, il comportamento di un sistema è compreso, quando è noto il comportamento di tutte le singole parti che lo compongono. Per quanto complicata possa essere una struttura, la comprensione delle sue componenti semplici, è sufficiente per comprenderne il tutto. È per tale motivo che possiamo costruire un orologio o una memoria a semiconduttori. L'orologio potrà essere composto da oltre 500 elementi, tra loro interconnessi con vari ingranaggi, ma il suo comportamento non ci riserverà mai sorprese. Esso sara’ lineare. Piccoli cambiamenti in entrata produrranno solo e sempre piccoli cambiamenti in uscita. Nei comportamenti complessi le cose invece non vanno esattamente così. Una cellula biologica per esempio, è composta da un insieme di elementi: nucleo, mitocondri, membrana, apparato del Golgi ecc., ma difficilmente potremo comprendere il comportamento della cellula, semplicemente andando ad analizzare il comportamento delle sue componenti. Allo stesso modo, non può essere compreso il comportamento del cervello, anche se sappiamo come si comporta il singolo neurone. In questo senso il comportamento dei sistemi complessi è emergente.

Anche se la fisica e’ espressa con semplici ed eleganti formule matematiche come F = ma , la nostra esperienza giornaliera ci racconta una realta’ che tanto semplice non e’. La superficie della terra e’ un intricato conglomerato di montagne, oceani, isole, fiumi, vulcani, terremoti, tornado ognuno con una sua propria dinamica interna. Non e’ forse tutto cio’ complesso? Gli alberi per caso sono triangoli e cilindri? Le montagne delle piramidi? Le nuvole delle sfere? La geometria Euclidea non e’ quella della Natura. La geometria della natura e’ quella frattale. Il comportamento complesso della Natura riflette la tendenza dei sistemi a molte componenti con interazioni non lineari ad evolvere in uno stato critico il cui attrattore nello spazio delle fasi e’ un frattale. E qui entra in gioco la teoria sviluppata da Per Bak denominata SOC. Quando un sistema complesso senza variare alcun parametro interno ma solo grazie ad una lenta e piccola perturbazione esterna si porta in uno stato critico (terremoti, valanghe, incendi delle foreste etc.) fuori dall’equilibrio anche un piccolo cambiamento in ingresso puo’ portare ad una risposta catastrofica. Gli eventi catastrofici hanno la stessa causa di quelli di piccola entita’. Quando un sistema e’ in uno stato critico e risponde ad una qualsiasi perturbazione puo’ generare eventi di tutte le dimensioni. Da quelli insignificanti a quelli catastrofici. Di nuovo una legge di scala e quindi una legge di potenza. L’esempio utilizzato da Per Bak e’ quello del mucchietto di sabbia. Supponiamo di avere un tavolo e di far cadere su di esso della sabbia. Man mano che questa cade crescera’ un mucchietto fino a che questo non raggiungera’ una certa altezza critica. Se adesso facciamo cadere un granello alla volta questo trasferira’ dell’energia al mucchietto. Il sistema e’ da considerare come un network aperto costituito da un numero elevato di componenti (granelli) interagenti tra loro in modo non lineare. L’energia rilasciata dal granello che cade sul mucchietto viene dissipata dal sistema stesso attraverso la generazione di valanghe di diverse dimensioni che riporteranno il sistema di nuovo nel suo stato critico.

I sistemi che sono all’equilibrio non possono in nessun modo mostrare segni di SOC. Essi devono essere per forza all’edge of chaos, cioe’ in bilico continuo tra ordine e disordine come gia’ piu’ volte sottolineato in diversi post di questo blog.

Dopo lo sviluppo della teoria SOC da parte di Per Bak, e’ stato verificato che tantissimi altri sistemi complessi anche molto diversi tra loro sono tutti riconducibili ad un semplice modello matematico dotato della stessa logica di base e di una stessa firma matematica: la legge di potenza. Ordine e disordine sono due situazioni estreme ma tutto sommato facili da trattare. La stessa cosa non e’ vera per le situazioni intermedie a cavallo dell’orlo del caos, cioe’ per sistemi complessi lontani dall’equilibrio che non soddisfano l’ipotesi di ergodica’ in quanto visitano regioni dello spazio delle fasi in modo diseguale, muovendosi su di un attrattore strano.

Quale e’ il motivo per cui i sistemi complessi abbiano scelto degli attrattori strani nello spazio matematico delle fasi diventa quindi chiaro. L’adozione di una dinamica critica infatti, permette al sistema di evitare i minuscoli attrattori classici forniti dalla dinamica dissipativa. Un esempio di un cosiddetto ciclo limite nello spazio delle fasi chiarira’ meglio il concetto di attrattore classico. Traiettorie che partono da punti iniziali diversi si avvicinano sempre piu’ all’orbita periodica finale. E da qui il sistema non puo’ piu’ sfuggire. Rimane come congelato nel ghiaccio del mondo delle fasi.

Cosa fare quindi per non rimanere congelati ed avere cosi’ la possibilita’ di adattarsi ai cambiamenti esterni? E’ necessario uno spazio maggiore da percorrere pur rimanendo in un volume ristretto. E questo lo puo’ garantire solo un oggetto frattale come l’attrattore strano. Il sistema rimane confinato intorno all’attrattore senza mai essere intrappolato, garantendo cosi l’evoluzione e l’adattamento. Anche se questo e’ a scapito della prevedibilita’ a lungo termine. Come la teoria del chaos ci ha insegnato, un attrattore strano ha una dipendenza sensibile dalle condizioni iniziali. Traiettorie che partono vicine nello spazio delle fasi nel tempo divergono esponenzialmente muovendosi lungo l’attrattore. Si tratta di quello che viene chiamato effetto farfalla. Un battito di ali a Buenos Aires puo’ generare un tornado a New York.

Ma come fece Per Bak ad arrivare alla sua teoria del SOC? Partendo da alcune osservazioni empiriche generali come la legge di Gutenberg-Richter  sui terremoti, l’andamento delle estinzioni biologiche, le transizioni di fase e la legge di Zipf  per citarne solo alcune. La prima come e’ facile capire fu elaborata da Gutenberg e Richter che osservarono come la magnitudo (cioe’ l’intensita’) dei terremoti segua una distribuzione di Pareto anziché la piu’ nota Gaussiana. Questo significa che se grafichiamo questa legge su due assi in scala logaritmica osserveremo una retta con pendenza negativa come per i terremoti registrati dal 1974 al 1983 nella zona New Madrid dell’USA.

Di nuovo una legge di potenza:

N~M-b

con N il numero di terremoti, M la magnitudo e b un esponente reale. Questa legge ad invarianza di scala ci dice semplicemente che i terremoti catastrofici sono solo dei terremoti partiti piccoli e che non si sono fermati subito. E’ come l’effetto domino. Un terremoto di piccole dimensioni equivale alla caduta di poche tessere dopo la perturbazione iniziale mentre un terremoto catastrofico equivale alla caduta di tutte le tessere una dopo l’altra. I terremoti di piccola intensita’ altro non sono che dei terremoti catastrofici mancati, morti precocemente senza arrecare gravi danni. Quello catastrofico e quello di piccola entita’ quindi condividono le stesse proprieta’ e caratteristiche. Non c’e’ nulla che distingua un terremoto piccolo da uno grande a parte la dimensione.

Se osserviamo la serie di grafici sottostanti vediamo come emerge una valanga simile a quella dell’esperimento del mucchietto di sabbia di Per Bak anche per I terremoti.

In alto a sinistra (a) viene raffigurato lo stress nel suolo prima di una scossa principale. La regione ingrandita e’ di colore arancione che indica un alto stress. In (b) invece viene riportato lo stress della stessa regione dopo la scossa principale e in (c) la differenza tra il dopo e il prima. Ecco apparire la “valanga” con gli elementi del network rotti che hanno rilasciato l’energia e quindi lo stress. Una volta che il sistema raggiunge lo stato critico basta una qualsiasi perturbazione anche molto piccola per innescare la scossa (la caduta delle tessere nell’effetto domino) e rilasciare cosi l’energia. Dopo questo evento il sistema si ri-allontanerà dall’equilibrio molto lentamente per portarsi gradualmente (senza alcun intervento esterno) di nuovo verso lo stato critico da cui si potra’ scatenare un nuovo terremoto di qualsiasi intensita’. Tutto questo ci fa capire bene come sia impossibile prevedere il giorno, l’ora e il posto dove avverra’ un terremoto nonche’ la sua magnitudo. Il sistema si autorganizza in modo autonomo e nessuno sa quando veramente raggiungera’ un livello altamente critico. E una volta che parte la scossa nessun potra’ sapere se diventera’ “grande” oppure no, in altri termini quante tessere verranno abbattute dall’effetto domino. Lasciamo adesso i terremoti per passare alle estinzioni biologiche. Con questo termine si intende la scomparsa definitiva di una specie sulla Terra (spesso indicata anche come estinzione di massa). Da non confondere invece con l’estinzione di base che altro non e’ che il rumore di fondo del processo evolutivo. Si tratta della continua scomparsa di famiglie, con una progressiva tendenza a calare nel corso delle ere geologiche. Le cause di queste estinzioni sono per lo piu’ da ricercarsi tra fattori locali quali competizione per spazio e cibo, predazioni e cosi via. Ad oggi esistono diversi modelli di estinzione. In particolare quelli piu’ importanti sono quello graduale e quello catastrofico ( o dell’equilibrio punteggiato). Quest’ultimo stabilisce che la maggior parte dei cambiamenti avvengono attraverso eventi catastrofici piu’ che con cambiamenti graduali come si credeva in passato. Ci sono lunghi periodi di stabilita’ intervallati a momenti di rapida differenziazione. Dopo le catastrofi ci sono delle vere e proprie esplosioni di vita.

Questo modello e’ suffragato dalle osservazioni empiriche come quelle riportate di seguito. Sulla sinistra abbiamo la percentuale di estinzione delle specie marine negli ultimi 600 milioni di anni mentre sulla destra la distribuzione di tali estinzioni. E’ chiara la comparsa di una legge di potenza. Tante estinzioni di piccole dimensioni e solo poche catastrofiche che danno una spinta all’evoluzione.

I due fenomeni riportati fin qui fanno intuire che in questi sistemi complessi fino a quanto non si raggiunge la criticita’ non succede quasi nulla. Una volta che questa viene superata la risposta del sistema e’ over amplificata e non c’e’ traccia di linearita’. Esattamente come avviene anche nelle transizioni di fase o nei sistemi percolativi. L’unica differenza significativa rispetto ai sistemi critici auto-organizzati e’ che i sistemi che subiscono transizioni di fase lo fanno perche’ c’e’ un parametro esterno che viene opportunamente modulato (per esempio la temperatura). La criticita’ quindi non e’ spontanea come per i sistemi critici autorganizzati dove basta una forza esterna ma e’ indotta. Un esempio molto noto di sistema percolativo e’ quello del ferromagnetismo. Alcune sostanze hanno la proprieta’ di acquistare una magnetizzazione, cioe’ un momento di dipolo magnetico, quando vengono immerse in un campo magnetico esterno (paramagnetici). Tra queste sostanze ce ne sono diverse che al di sotto di una temperatura critica rimangono magnetiche anche in assenza di campo esterno (magneti permanenti o sostanze ferromagnetiche). Nei materiali paramagnetici gli atomi possiedono un momento magnetico dovuto agli spin  degli elettroni (che possono essere pensati come tante piccole calamite a causa della rotazione su se stessi). In condizioni normali questi momenti magnetici sono orientati casualmente in tutte le direzioni e la risultante e’ zero. In presenza di un campo magnetico esterno pero’, essi si orientano nella stessa direzione del campo magnetico e la risultante non e’ piu’ nulla. La sostanza e’ diventata magnetica. Ma se eliminiamo il campo esterno termina anche il magnetismo della sostanza. Questo almeno per i materiali paramagnetici. Per quelli ferromagnetici invece se togliamo il campo esterno e la temperatura e’ al di sotto di quella che viene chiamata “temperatura critica”, il momento magnetico si annulla. Da dove deriva il ferromagnetismo? Dall’interazione di scambio fra i momenti magnetici atomici che favorisce l’allineamento degli spin  essendo l’energia di una coppia di spin allineati minore di quella di una coppia spaiata (forze all’ordine). Questa interazione e’ chiamata interazione di scambio e se e’ abbastanza forte riesce a contrastare l’effetto della temperatura (forza al disordine) che tende invece a disordinare i singoli momenti magnetici.

Questo fenomeno puo’ essere simulato con il cosiddetto modello di Ising. In due dimensioni possiamo pensare ad una matrice bidimensionale con ogni sito occupato da uno spin che puo’ assumere due stati up (+1) e down (-1). Partendo da una condizione iniziale completamente casuale, usando la temperatura come parametro esterno e l’interazione tra gli spin dei primi vicini si prova che al di sotto di un valore critico della temperatura si formano delle isole di spin up e isole di spin down (le valanghe del mucchietto di sabbia). Questo significa che il sistema ha due possibili stati e che al di la del segno risulta quindi magnetizzato. Al di sopra della temperatura critica la distribuzione degli spin e’ totalmente casuale e quindi la risultante e’ nulla cioe’ la sostanza risulta non magnetizzata.

Cosa succede a T=Tc ? Partono valanghe (isole) di spin di diverse dimensioni. E’ il punto dove una qualsiasi perturbazione esterna locale si espande facilmente all’intero sistema con tutti gli atomi vicini che collaborano a portare su o giu’ il loro spin. A questa temperatura avviene la cosiddetta percolazione del sistema, cioe’ si forma un path che permette da andare da un lato all’altro dello spazio delle fasi. Osservate per esempio la zona nera alla temperatura critica. Essa e’ continua tra il lato superiore e quello inferiore dello spazio. Lo stesso comportamento lo si ottiene nel caso si cerca di simulare come si diffondono gli incendi nelle foreste. Supponiamo di piazzare degli alberi a caso su una matrice rettangolare del piano (potrebbe essere l’equivalente di una cella nera) e ipotizziamo di appiccare il fuoco a qualcuno degli alberi presenti. Il fuoco passa da un albero all’altro solo se questi sono primi vicini tra loro. Qual’e’ la densita’ minima per cui il fuoco potenzialmente investe l’intera foresta? Si tratta di verificare per quale valore di densita’ (numeri di alberi per area) la simulazione porta ad un path percolativo. La soglia e’ un numero molto prossimo al 60% cioe’ 0.593. L’ultima evidenza empirica di sistemi con criticita’ organizzata e’ la cosiddetta legge di Zipf  gia’ riportata in passato in questo blog. La legge deve il suo nome al linguista George Zipf che nel 1949 la descrisse in “Human Behaviour and the Principle of least-effort” (Comportamento umano e il principio del minimo sforzo). Si tratta di una legge empirica che descrive la frequenza di un evento Pr facente parte di un insieme, in funzione della posizione (detta rango o rank in inglese) nell’ordinamento decrescente rispetto alla frequenza stessa di tale evento:

f(Pr)=c/r

dove c e’ una costante di normalizzazione e r il rango. Zipf sviluppo’ questa legge osservando la distribuzione delle popolazioni all’interno delle citta’ e la distribuzione delle parole in un testo come un romanzo. Se si grafica la frequenza in funzione del rank in scala bilogaritmica si ottiene di nuovo una legge di potenza con esponente pari a 1.

Queste le evidenze empiriche da cui parti’ lo studio di Per Bak per spiegare la legge di potenza della dimensione delle valanghe. Una volta elencati i fatti empirici da cui e’ partito per sviluppare la SOC, Per Bak riporta alcuni sistemi da lui modellizzati. Uno di questi e’ il seguente.

Abbiamo una matrice di pendoli collegati tra loro con molle elastiche. Ad un certo punto si perturba la matrice facendo oscillare un pendolo a caso che andra’ a colpire i primi vicini. Ad ogni perturbazione effettuata con energia diversa si contano quanti pendoli riescono ad effettuare una rotazione completa (valanga). Come scoperto da Bak il numero di valanghe di dimensione S segue una legge di potenza:

N(S)~S-a

Come sempre, in un grafico bilogaritmico apparira’ come una linea retta. Qui di seguito la rappresentazione di un modello di una griglia 50x50 di pendoli con un esponente di circa 1.1.

Una diversa nomenclatura ma la stessa matematica dei pendoli e’ quella del modello del mucchietto di sabbia gia’ introdotto precedentemente. Le valanghe prodotte dalla caduta del singolo granello una volta che il sistema si porta in uno stato di criticita’ autorganizzata hanno dimensioni che seguono una chiara legge di potenza. Si riporta di seguito una versione semplificata di tale modello per mostrane le caratteristiche peculiari. Supponiamo di avere una matrice bidimensionale che rappresenti un mucchietto come mostrato sotto. Un granello (cioe’ un quadratino) cade giu’ (in nero) se la sua differenza in altezza e’ maggiore di 1. Questo puo’ destabilizzare le altre particelle e dare vita ad un fenomeno cooperativo che noi chiamiamo valanga.

Un modello analogo puo’ essere implementato in due dimensioni dove in ogni cella inseriamo in modo del tutto casuale dei numeri da 0 a 4. Quando una cella raggiunge la soglia 4 essa si scarica cedendo un granello a ciascuna delle celle vicine lungo le quattro direzioni geografiche. Nell’immagine di seguito la dinamica di un tale modello. L’ultima matrice mostra la valanga con delle celle in nero. Queste sono le celle che si sono scaricate (quelle grigie) e che hanno almeno un lato in comune tra loro.

Se invece della sabbia si usa del riso il risultato e’ lo stesso. La distribuzione della dimensione delle valanghe segue sempre una legge di potenza. L’unica differenza e’ che il riso essendo piu’ grande dei granelli di sabbia e’ piu’ lento nel raggiungere lo stato critico.

Ma cosa hanno di cosi interessante questi risultati ottenuti da Per Bak? In poche parole il fatto che la sabbia o il riso si organizzano in uno stato critico altamente orchestrato senza alcun parametro di controllo, senza alcun direttore di orchestra o supervisore. La dimensione delle valanghe segue una legge di potenza e questa e’ la firma dei sistemi complessi e quindi degli oggetti frattali. Un modello analogo a quello dei pendoli accoppiati e’ stato utilizzato anche per spiegare il meccanismo dei terremoti. Ci sono due piani di cui uno fisso collegati tra loro da molle a loro volta collegate a dei blocchi liberi di muoversi sul piano fisso (rappresentanti la pressione sul materiale vicino ad una faglia).

Il piano superiore viene spinto con una certa forza indicata da una freccia. Il moto tettonico e’ simulato dal piano movibile agganciato a sua volta ai diversi blocchi. La matematica che descrive questo modello e’ molto simile a quella del mucchietto di sabbia e riesce a catturare le caratteristiche essenziali della legge di Gutenberg-Richter. Questo prova che la crosta terrestre e’ un sistema autorganizzato in uno stato critico. La causa dei terremoti di bassa intensita’ e’ la stessa di quelli catastrofici. Diversamente da un sistema all’equilibrio non ci sono scale caratteristiche ma sono possibili fluttuazioni a tutte le scale.

Un ulteriore modello riportato da Per Bak nel suo libro e’ quello del gioco Life (o gioco della Vita ) inventato dal matematico Conway . Si tratta ancora una volta di una matrice bidimensionale di celle che possono avere due stati 1 e 0 (viva e morta o viceversa). Questi vengono aggiornati ad ogni step temporale secondo delle regole molto semplici. Lo stato di ogni cella dipende dai suoi primi vicini (8 celle): se ci sono meno di due celle intorno ad una cella viva, questa muore di “solitudine”. Se ci sono piu’ di tre celle vive, la cella centrale muore a causa del “sovraffollamento”. Se ci sono esattamente due o tre celle vive la cella centrale resta viva. Se intorno ad una cella morta ci sono esattamente tre celle vive, questa cambia il suo stato e da morta passa a viva. Quello che Conway scopri e’ che a partire da semplici regole si possono generare fenomeni altamente complessi. Cosa confermata anche da Stephen Wolfram  con i suoi automi cellulari unidimensionali e da Kauffman  con le sue reti booleane. E non solo. Il noto computer scientist, Christopher Langton, ha dimostrato che per il gioco Vita e’ possibile definire un parametro di controllo da lui chiamato lambda, che varia tra 0 ed 1 a seconda delle regole utilizzate. Cambiando opportunamente le regole del gioco e quindi il valore di lambda, quello che Langton ha scoperto e’ che solo le regole scelte da Conway sono quelle che generano un comportamento complesso del sistema. Tutte le altre producono solo sistemi stabili o caotici e quindi non interessanti. Il parametro lambda indica la strada per il margine del caos dove e’ possibile la vita artificiale e forse anche quella naturale. Per questo stesso gioco anche Per Bak ha dato un suo contributo. Nel 1989 infatti, simulo’ il gioco facendolo evolvere da stati iniziali casuali fino a quando non raggiungeva uno stato statico o oscillatorio. Defini’ il tempo T come quello necessario a raggiungere uno di questi stati e con S (dimensione della valanga) il numero di celle nate e morte durante la simulazione. Il gioco fu ripetuto moltissime volte e con grande sorpresa Bak ottenne di nuovo una legge di potenza con un esponente pari a 1.6 per le scale temporali e 1.4 per le scale spaziali.

Gli esempi riportati fin qui dimostrano in modo inequivocabile l’ubiquita’ delle leggi di potenza in Natura e in ambito sociale. Esse sono la firma indistinguibile della complessita’ e dell’autosimilarita’ (invarianza di scala). La SOC di Per Bak e’ una teoria per spiegare la complessita’ e il catastrofismo senza l’aggiustamento di un parametro esterno. Gli ingredienti essenziali sono:

· Un sistema di molti elementi

· Interazioni non lineari tra gli elementi

· Soglia di attivazione

· Meccanismo di lenta perdita ad una perturbazione esterna

Ampie fluttuazioni dell’output di tali sistemi non possono essere manipolate e quindi evitate. E nemmeno previste. Ogni variazione, anche se piccola, in ingresso ad un sistema nello stato critico si propaghera’ quasi istantaneamente a tutto il sistema (cooperazione). Queste scoperte fin dall’inizio si dimostrarono essere in opposizione alle teorie lineari meccanicistiche, sostenendo che la stessa vita, l’evoluzione e il cambiamento non nascono dall’ordine, dalla simmetria e dalle leggi, ma dal disordine, dal caos e dall’instabilita’. La SOC suggerisce una nuova idea di equilibrio. Non piu’ solo evoluzioni verso stati stazionari o periodici (immutabili nel tempo) ma anche la possibilita’ di convergenza verso cicli non periodici, cioe’ verso gli attrattori strani. L’equilibrio non e’ piu’ uno stato imprigionato ne’ uno stato che periodicamente torna a replicarsi. E’ una fluttuazione di origine endogena (interna), aperiodica, erratica. Le dinamiche di equilibrio sono caratterizzate da fluttuazioni e catastrofi su qualsiasi scala di osservazione in un continuum che va dal livello micro a quello macro, e tutte regolate dalla stessa legge di probabilita’: la legge di potenza. Solo l’edge del chaos e quindi la SOC garantisce l’evoluzione e l’adattamento di una organizzazione. La teoria sviluppata da Per Bak ha il vantaggio di accorpare in un unico modello la spiegazione delle piccole-medie fluttuazioni e delle grandi catastrofi dei sistemi complessi come le aziende, la societa’, le organizzazioni, le placche terrestri e cosi via. Le catastrofi non hanno nulla di speciale anche se sono imprevedibili e inevitabili. Inevitabili perche’ se vogliamo garantire l’evoluzione e l’adattamento di un sistema esso deve stare a cavallo del confine tra ordine e disordine. Se ricerchiamo solo l’ordine, ci conformiamo alle regole e ci abituiamo alla normalita’ il che significa fossilizzarsi. D’altro canto, la spasmodica ricerca della novita’, l’infrangere le regole e la vita spericolata possono portarci alla disintegrazione (disordine). L’orlo del caos e’ dove la vita ha abbastanza stabilita’ da sostenersi e creativita’ sufficiente da meritare il nome di vita. Solo mantenendo il passo dell’evoluzione e cambiando continuamente, i sistemi complessi possono rimanere se stessi. L’orlo del caos e’ pertanto il luogo del cambiamento, dell’innovazione e della discontinuita’. Come Vasco Rossi canta in Sally: “la vita e’ un brivido che vola via, e’ tutto in equilibrio sopra la follia”. La caduta del muro di Berlino nel 1989 è un esempio di come da uno stato di apparente "stabilità" e di solido ordine costituito, nella fattispecie il bipolarismo Usa-Urss, si possa verificare un evento apparentemente improvviso ed imprevisto dal quale poi si innesca un processo a catena che, attraverso un aumento del disordine, porta il sistema verso un nuovo stato ed un nuovo ordine o, meglio, un nuovo "disordine ordinato“. Chi lo aveva previsto? Eppure è accaduto ... e soli 2 anni dopo l’Urss, il grande nemico dell'Occidente, si è dissolto dando origine ad un processo di "balcanizzazione" che avrebbe interessato drammaticamente le sue ex repubbliche e la zona d'influenza dell'Europa orientale (ex Jugoslavia in primis). Nella storia, dunque, accadono degli "eventi di rottura", che rimescolano gli equilibri internazionali e nazionali, che sono in molti casi inattesi e le cui conseguenze sono ancora più imprevedibili (effetto valanga). Cosa possiamo dire invece per le aziende e il management? Ci possono essere delle implicazioni da parte della teoria SOC anche per questo tipo di sistema complesso?  Di sicuro un’azienda con la sua organizzazione e’ un sistema altamente complesso. In essa i manager si trovano a dover decidere una varieta’ di piccole o grandi azioni per tenere un team o l’azienda stessa sulla strada per il raggiungimento dell’obiettivo. In accordo con la legge di potenza saranno piu’ le azioni piccole che grandi quelle che verrano settate. I manager tendono ad applicare la regola del minimo sforzo di Zipf per semplificare le loro responsabilita’ in presenza di complessita’ casuale. L’influenza e il controllo di tipo top-down e’ quello piu’ utilizzato visto che e’ il piu’ semplice da applicare. Comunicazioni multidirezionali e complicate saranno meno frequenti anche se sono quelle piu’ effettive. Sempre seguendo il paradigma del SOC/Pareto i manager tendono a fare le cose piu’ semplici rispetto a quelle piu’ difficili anche se queste sono quelle che con molta probabilita’ funzioneranno. Sono costantemente soggetti alla legge di potenza anche se loro ne ignorano l’esistenza applicando i principi del riduzionismo, linearita’ e indipendenza degli eventi. Gli individui come gli atomi e le molecole interagiscono tra loro. L’interazione genera un ordine emergente nel quale sono presenti caratteristiche non rinvenibili nei singoli elementi originari da cui deriva la cosiddetta forza del team. La rete e’ molto importante. Il tipo e il numero di relazioni fra i nodi definisce l’architettura della rete. La diversita’ e’ fondamentale. La rete opera in un contesto (ambiente), si adatta alle sue sollecitazioni ed evolve. Sotto particolari condizioni un insieme di agenti eterogenei alla ricerca del benessere individuale raggiunge un ordine di livello superiore, cioe’ i singoli elementi si auto-organizzano attorno ad un ordine emergente. La catastrofe e’ dietro l’angolo ma dobbiamo accettarla (anche perche’ come i cigni neri e’ rara) se vogliamo rimanere all’edge del caos. Qui emergono fenomeni di cooperazione a tutte le scale (valanghe). Il team diventa un piccolo mondo (veicolazione veloce dell’informazione e della conoscenza) e puo’ adattarsi piu’ facilmente ai cambiamenti dell’ambiente esterno senza rimanere intrappolato in piccoli attrattori. Nello spazio delle fasi il sistema visitera’ in maniera non ergodica nuovi spazi lungo gli attrattori strani. La Teoria SOC quindi fornisce i presupposti per un management in condizioni di incertezza e rischio estremo. La rete di piccolo mondo (cioe’ allo stato critico) favorisce la diffusione virale della conoscenza, dell’informazione e dell’innovazione. Basta attivare opportunamente gli hub (gli untori). La formazione di reti interconnesse ed interdipendenti insieme alla disgregazione di strutture rigidamente gerarchiche governate da un management “task e goal” driven (manager semaforo anziche’ rotonda) da’ origine a maggiore flessibilita’, maggiori capacita’ di adattamento e di modifica dell’ambiente. Secondo la teoria di Per Bak la causa dei piccoli slittamenti (segnali deboli) e quella delle valanghe (segnali forti) e’ la stessa. I “segnali deboli” sono molto importanti anche se in genere non attirano l’attenzione dei decision makers. Essi sono i potenziali precursori degli eventi estremi (siano essi buoni o cattivi) anche se appaiono come eventi casuali, insignificanti e quindi trascurati o ignorati; eppure essi possono spiraleggiare ed evolvere in eventi estremi di proporzioni disastrose. Se i manager prendessero coscienza della teoria dell’invarianza di scala (legge di potenza) di sicuro riuscirebbero a vedere meglio i segnali deboli prima che questi esplodano in eventi estremi. Quest’ultimi (valanghe) sono imprevedibili ma non inaspettati. Tutti gli eventi estremi hanno una fase di incubazione. E’ compito del manager “capire/interpretare” i segnali deboli che arrivano durante questa fase. Anche se le valanghe sono casuali l’effetto che esse hanno su di noi non e’ tanto casuale. Quindi il management piu’ che cercare di prevedere deve elaborare delle strategie su come comportarsi in caso esse accadono (prevenzione anziche previsione). Non possiamo sapere cosa ci aspetta, ma possiamo imparare ad affrontare l’impatto degli eventi estremi su di noi. In sintesi il manager deve imparare a fare, adattarsi ed essere piu’ che prevedere, pianificare e teorizzare. Bisogna fare attenzione a non settare azioni per i piccoli vantaggi visibili con effetti collaterali invisibili potenzialmente devastanti. I manager per prevedere il futuro usano medie e approssimazioni lineari dei fenomeni perpetuando cosi’ illusioni di stabilita’ e di facilita’ di comprensione del mondo che sono di fatto grossolanamente incorrette e pericolose. Il mondo non e’ lineare. Anzi. C’e’ il bisogno di una nuova statistica diversa da quella a cui siamo abituati (distribuzione Gaussiana). Le leggi di potenza obbediscono alla distribuzione di Pareto (80/20 rule) piu’ che a quella Gaussiana in cui gli eventi vengono assunti come indipendenti. Quando gli eventi sono interdipendenti (come ci insegna la SOC) la distribuzione Gaussiana non e’ piu’ adatta in quanto gli eventi estremi (catastrofi) sono piu’ probabili di quanto essa ci dica. La distribuzione di Pareto diversamente da quella Normale o Gaussiana non e’ caratterizzata da un valore medio e una standard deviation finita. I ricercatori e manager devono rendersi conto che gli eventi estremi (catastrofi) sono una parte naturale del mondo sociale ed e’ l’unico modo per mantenere l’equilibrio critico al confine tra l’ordine e il caos.

Termino questo post con due vignette sulla fallacia del valore medio. Enjoy

http://www.wikio.it