sabato 9 gennaio 2016

Ma i numeri primi sono veramente casuali?

Prima di tutto vediamo cosa significa casualità o come dicono gli inglesi randomness.

Per randomness i matematici e fisici intendono il caos, l’imprevedibilità, l’assenza di strutture interne, l’assenza di qualsiasi particolare configurazione. Per generare un risultato randomico , normalmente si usa una moneta o un dado. Ma nel caso di una sequenza di numeri, come per esempio quella dei numeri primi , 2, 3, 5, 7, 11,13,17,19, 23…. che cosa significa randomico? Semplicemente che non è possibile trovare un algoritmo, una formula matemtica che riproduca esattamente la sequenza, cioè che non è possibile determinare il prossimo termine della sequenza a partire da quelli conosciuti.

Prima dell’avvento della meccanica quantistica c’era un comune accordo tra tutti gli scienziati che “Dio non gioca ai dadi”, cioè la casualità nel lancio di una moneta era solo dovuto al risultato della nostra ignoranza su tutte le forze coinvolte. Se avessimo conosciuto tutto con esattezza allora la casualità sarebbe scomparsa.

La meccanica quantistica, invece, ha mostrato che Dio gioca ai dadi: il comportamento della materia a livello microscopico è imprevedibile. Non c’è modo di prevedere, per esempio, quando un nucleo radioattivo decadrà.

Un team di ricercatori, nel 2003, ha fatto una scoperta proprio sulla distribuzione dei numeri primi nella sequenza dei numeri interi. Il Team costituito da tre fisici dell’Università di Boston, Pradeep Kumar, Plamen Ivanov e Eugene Stanley, ha trovato una specie di ordine nella distribuzione dei primi che mai nessuno aveva notato.

Essi hanno considerato la distanza tra due numeri primi consecutivi e poi la differenza tra queste distanze chiamandola incremento. Per i numeri primi  minori di 20 abbiamo 1, 2, 2, 4, 2, 4, 2 come distanze e 1, 0, 2, -2, 2, -2 come incrementi (vedi figura 1).

Considerando tutti i numeri primi  minori di 50.000.000 hanno trovato che la distribuzione degli incrementi non è quella di una sequenza randomica in quanto esibisce degli alti picchi in corrispondenza di determinati valori di incrementi, dei picchi medi e picchi bassi per altri valori, con una chiara oscillazione di periodo 3 (vedi figura 2). I valori positivi sono quasi sempre seguiti da valori corrispondenti negativi. La frequenza degli incrementi decresce esponenzialmente e questo andamento è evidente sia per i picchi alti che per quelli bassi, formando una forma a “doppia tenda” (vedi figura 2 (b)). Inoltre la frequenza per gli incrementi positivi e quelli negativi è quasi la stessa come si può vedere nella figura 2.

 

Figura 1 Distanze tra numeri primi consecutivi (a) e i loro incrementi (b).

 

Figura 2 Istogramma degli incrementi per il primo milione di numeri primi. La frequenza con cui compaiono gli incrementi mostra un sistema oscillante con periodo 3. Gli incrementi con valori (6k+2) e –(6k+2) per k=0,1,2,3... sono quelli più frequenti. Seguono gli incrementi con valori (6k+4) e –(6k+4) e poi ci sono quelli rari in corrispondenza degli incrementi 6k e -6k (a). Al centro viene riportata la stessa distribuzione ma in scala semilogaritmica (b). E nell’ultimo grafico (c) la stessa cosa ma prendendo il valore assoluto dei valori negativi. Si può vedere chiaramente una legge di potenza.

 

Due ricercatori cinesi hanno ottenuto dei risultati analoghi effettuando dei test di randomness (chiamati FIPS che sta per Federal Information processing Standard) sulla stessa sequenza degli incrementi usata dai tre fisici di Boston. Il test statistico è costituito da 4 differenti sotto-test che sono utilizzati per verificare se una sequenza di numeri è realmente casuale. I risultati ottenuti hanno evidenziato che dei 4 sotto-test effettuati solo due hanno superato la verifica. Questo significa che la distribuzione dei numeri primi non sembra essere una sequenza casuale in senso stretto confermando i risultati dei ricercatori di Boston.

Della serie, casuale (randomica) ma non troppo. Se anche Dio si divertisse a giocare con i dadi, per i numeri primi deve essere successo qualche cosa di strano che al momento non ci è dato sapere.

Un risultato analogo per gli incrementi è visibile anche nella sequenza delle distanze tra i numeri primi. In un mio lavoro, pubblicato sulla rivista matematica SNJ (Smarandache Notions Journal) nel 2002, è riportato l’istogramma della frequenza delle distanze diviso 2 in scala lineare e semilogaritmica (vedi figura 3) da cui si evince un andamento oscillante sovrapposto ad un comportamento esponenziale. In questo caso i picchi delle frequenze sono in corrispondenza delle distanze i cui valori sono multipli di 3.

 

Figura 3 Istogramma delle distanze in scala lineare e semilogaritmica.(Da un articolo dell’autore pubblicato sul giornale SNJ n.13 del 2002)

 

E la sorpresa non finisce qui. La distribuzione dei numeri primi, infatti, mostra un’altra caratteristica che è comune a molti sistemi naturali: il cosiddetto rumore rosa. In fisica si definisce rumore rosa o rumore 1/f, un particolare tipo di rumore in cui le componenti a bassa frequenza f hanno potenza (energia per unità di tempo) maggiore di quelle ad alta frequenza, a differenza del rumore bianco, invece, in cui la potenza è uguale per qualsiasi frequenza (vedi figura 4).

 

Figura 4 Rumore rosa (destra) e rumore bianco (sinistra). Sull’asse verticale viene riportata la potenza e su quello orizzontale la frequenza. Si vede chiaramente che il rumore rosa si concentra nella regione delle basse frequenze mentre quello bianco dappertutto.

 

Se indichiamo con S(f) lo spettro di potenza in funzione della frequenza f,  per il rumore rosa varrà una legge del tipo:    

S(f)=k/fb

dove b è un coefficiente il cui valore è compreso tra 0 e 2 e k una costante. 

Un fisico teorico dell’Università Polacca, Marek Wolf, in un suo articolo ha mostrato che il numero di primi all’interno di particolari intervalli di interi si comporta come un segnale con rumore rosa. In particolare per tutti gli interi tra 1 e N, vengono formati M intervalli di lunghezza L in modo che M=N/L. Dopo di che vengono contati quanti numeri primi ci sono in ogni intervallo formando una sequenza 

XL(t) 

con t=1 per il primo intervallo, 2 per il secondo e cosi via. Nella figura 5 viene mostrato l’andamento di questa sequenza in funzione di t. Calcolando lo spettro di potenza  di questa sequenza, interpretata come un segnale temporale, Wolf si è accorto che esso si comporta come il rumore rosa con un coefficiente pari a 1.64:

SX(f)=k/f1.64

 

Figura 5 Andamento della sequenza XL (vedi testo per la definizione) in funzione di t

 

Nella figura 6, in scala logaritmica viene riportato lo spettro S in funzione della frequenza. Si può vedere chiaramente che indipendentemente dalla lunghezza scelta per gli intervalli, c’è un andamento lineare tra le due variabili, cioè:

ln(SX(f))~b*ln(f) --> SX(f)~f-b

L’indipendenza di b da l sembra suggerire una qualche sorta di auto-similarità nella distribuzione dei primi, un fenomeno già osservato in altri contesti. Questo significa che il tutto sembra essere simile alla parte che è una caratteristica fondamentale della teoria dei frattali piu’ volte trattati in questo blog.

Molti dei sistemi naturali che mostrano un rumore rosa, sono stati spiegati ricorrendo a modelli di tipo SOC  (Self organized criticality), cioè sistemi che autonomamente si auto-organizzano  in uno stato critico come i mucchietti di sabbia, i terremoti o gli incendi delle foreste.

 

Figura 6 Spettro di frequenza della sequenza XL . È chiaro l’andamento lineare indipendente dalla lunghezza degli intervalli.

 

Si tratta di sistemi in uno stato critico. Basta una piccola variazione in ingresso per produrre grosse variazioni in uscita (come il granello di sabbia che può innescare una valanga). La stessa vita può essere interpretata come un sistema in uno stato critico. In bilico tra l’ordine e il caos, la frontiera dove il comportamento di un sistema può essere estremamente complesso. Un po’ a sinistra di questa frontiera e il sistema diventa regolare, ordinato; un po’ a destra e diventa altamente disordinato. La vita è continuamente in bilico tra ordine e disordine. Il primo a parlare di SOC fu il fisico Bak , per spiegare il comportamento dei granelli di sabbia osservato in un suo esperimento che consisteva nel far cadere un granello alla volta al di sopra di un piano. Il più delle volte al cadere di un unico granello di sabbia non succedeva praticamente nulla di significativo. Altre volte invece il granello innescava una reazione a catena nel mucchietto di sabbia, con la generazione di una valanga. Bak  modellò questo sistema con un reticolo bidimensionale e delle regole molto semplici. In modo casuale erano fatti cadere dei granelli di sabbia all’interno del reticolo. Se una cella conteneva più di 4 granelli, questi venivano ridistribuiti alle 4 celle adiacenti o perse al di fuori della frontiera del reticolo. La ridistribuzione portava a delle instabilità con la possibilità di produrre valanghe di dimensioni sempre più grandi (vedi figura 7).

 

Figura 7 Modello del mucchietto di sabbia usato da Bak. I numeri nelle griglie rappresentano il numero di granelli al tempo t. Le diverse rappresentazioni sono immagini del modello a diversi istanti di tempo (da sinistra verso destra e dall’alto verso il basso). Quando una cella raggiunge 4 c’è una ridistribuzione dei granelli nei primi vicini. In nero viene rappresentata una valanga.

 

Misurando la dimensione di tutte le valanghe prodotte, Bak  si accorse, che come per il rumore rosa, alla base del sistema c’era una legge di potenza (vedi figura 8).

Le piccole valanghe erano molto più frequenti di quelle catastrofiche cosi come succede per i terremoti ,  la dimensione degli incendi  nelle foreste, il numero di vittime di un attacco terroristico, il numero di vittime delle guerre e cosi via. Emerge sempre una legge di potenza anche se con coefficienti diversi tra loro (vedi figura 9). Tornando ai numeri primi  questo significa che anche essi possono essere consierati come un sistema in uno stato di criticità auto-organizzata? E se questo fosse vero cosa ha spinto questo insieme verso la criticita’?  Domande a cui nessuno oggi sa rispondere. 

 

Figura 8 Frequenza P(S) delle dimensioni S delle valanghe nel modello del mucchietto di sabbia di Bak. Notare la scala bi logaritmica. Si tratta di una legge di potenza, che evidenzia come ci sia un elevato numero di valanghe di piccole dimensioni e poche valanghe catastrofiche.

 

Figura 9 Legge di potenza per diversi sistemi come: terremoti (f), nomi persone (k) e popolazione citta'(l). Sull’asse verticale è riportata la probabilità che l’evento si verifichi.

mercoledì 25 novembre 2015

La scienza della criticita’ autorganizzata. Una passeggiata attraverso sistemi fisici, biologici, sociali e aziendali

 

“Bisogna unire cio’ che e’ completo e cio’ che non lo e’,

cio’ che e’ concordee cio’ che e’ discorde, cio’ che e’

in armonia e cio’ che e’ in contrasto”

Il mese di Novembre il Complexity Institute organizza il “Complexity Management Literacy Meeting “. Questo incontro nasce da un’idea del prof. Alberto Felice De Toni (Rettore dell’Universita’ di Udine) per condividere le letture in tema di Complexity Management. L’evento e’ al suo secondo anno con sede a Fiesole. L’anno scorso ho avuto la possibilita’ di presentare un libro che io ritengo molto importante per chi lavora sulla complessita’: How neature works di Per Bak un fisico danese morto prematuramente nel 2002. Il libro (che si trova solo in inglese) ben scritto e condensato segue un doppio filo narrativo: la teoria SOC (self-organizing criticality) con diversi esempi pratici, e le opinioni/critiche dell’autore alla scienza moderna. Per poter introdurre la teoria SOC bisogna un attimo spendere qualche parola sulla legge di potenza  (piu’ volte discussa in questo blog). Si tratta di una legge del tipo:

N(x)=ax-s

con a una costante e s l’esponente della potenza. In un grafico a doppia scala logaritmica questa appare come una linea retta in quanto in base alle proprieta’ dei logaritmi abbiamo:

Ln(N(x))=Ln(a)-sLn(x)

Come pdf (probability density function) invece, la legge di potenza appare come una curva rassomigliante ad un dinosauro della specie diplodocus. Moltissimi risultati cadono nella prima parte dell’asse x (valori bassi) e pochi risultati a valori elevati di x (la coda della distribuzione o del diplodocus  se volete). Quale e’ la caratteristica particolare che fa di questa legge una legge molto comune in natura? La sua invarianza di scala . A qualsiasi ingrandimento la osserviamo appare sempre la stessa. Il tutto e’ uguale alle parti e viceversa. Ma questo ci ricorda degli enti geometrici altrettanto importanti e famosi: i frattali. Alla base di questi oggetti, infatti c’e’ una legge di potenza  all’azione che fa si per esempio che un piccolo ramo assomigli all’albero intero o che un piccolo pezzo di broccolo romanesco assomigli all’intero cavolo. 

In termini matematici l’invarianza di scala significa che se moltiplichiamo la x per un fattore c la forma matematica della y non cambia:

N(cx)=a(cx)-s=ac-sx-s=a’x-s

con a’=ac-s una nuova costante. Un oggetto geometrico autosimilare (cioe’ che soddisfa l’invarianza di scala ) e’ la cosiddetta curva di Koch:

Questi oggetti furono scoperti nel 1979 dal matematico polacco Benoit Mandelbrot. Per capire di cosa si tratta supponiamo di voler misurare la lunghezza della costa dell’Inghilterra. Partiamo con un righello di lunghezza l e misurariamo la costa. Fatto cio’, riduciamo il righello di un certo fattore  e rimisuriamo di nuovo. E cosi via. Cosi facendo ci accorgiamo che non esiste una sola misura della costa dell’Inghilterra ma tante a seconda della lunghezza del righello utilizzato (sensibilita’ della misura). Questo significa che non c’e’ una scala unica ma tante scale. Vale la relazione:

L=Al-D con 1<D<2

dove L e’ il perimetro dell’Inghilterra ed l la lunghezza del righello. La costante D (un numero reale) e’ detta la dimensione frattale. In questo caso D vale ~1.25. Questo significa che la spezzata sovrapposta all’isola dell’Inghilterra e’ un oggetto geometrico che sta tra una linea (D=1) e una superficie (D=2).

Osserviamo che D altro non e’ che la pendenza della retta in scala bilogaritmica  di equazione:

Ln(L)=Ln(A)-DLn(l)

Mandelbrot  ha dato il suo nome anche ad uno dei frattali piu’ belli e misteriosi mai scoperti che solo la potenza di calcolo dei computer ci ha permesso di ammirare. Puo’ essere generato utilizzando un sistema di 2 equazioni:

e colorando opportunamente i punti del piano (x,y) a seconda della velocita’ di fuga all’infinito delle soluzioni dopo un certo numero di iterazioni. Nell’immagine seguente i punti in nero sono quelli che rimangono intrappolati e non riescono a scappare all’infinito. Gli altri colori invece indicano la velocita’ con cui le soluzioni esplodono all’infinito.

Grazie all’autosimilarita’ , gli oggetti frattali seguono la legge di potenza e quindi la distribuzione con lunga coda (detta di anche distribuzione di Pareto) dove non c’e’ alcun valore tipico intorno al quale si disperdono gli altri valori. Per gli oggetti non frattali accade esattamente l’opposto: la distribuzione dei valori e’ Gaussiana  e quindi c’e’ un valore medio ben definito con la maggior parte dei punti concentrati intorno ad esso. Un esempio e’ quello mostrato nell’immagine sottostante dove i dischi hanno un diametro di 1 cm e che a causa degli errori randomici puo’ oscillare intorno a questo valore medio.

Ben diversa la situazione di un insieme di dischi con diametro variabile da valori piccoli fino a valori molto grandi come accade per esempio con le dimensioni del pietrisco presente su una spiaggia.

Gli oggetti frattali matematici sono diversi da quelli che si trovano in Natura in quanto solo con la matematica e’ possibile iterare il processo all’infinito. Questo comunque non toglie nulla alla bellezza di tali pseudo-frattali come mostrato nelle immagini seguenti.

Se alla base dei frattali c’e’ la legge di potenza allora questa e’ la firma dei sistemi complessi. Quest’ultimi infatti nello spazio delle fasi (lo spazio i cui punti rappresentano gli stati possibili del sistema) generano strutture molto belle chiamate attrattori strani  e altro non sono che degli oggetti frattali. L’esempio piu’ noto e’ l’attrattore strano di Lorenz anche chiamato “farfalla di Lorenz”.

Esso rappresenta l’evoluzione nello spazio delle fasi del tempo meteorologico. Quando lo stato del sistema arriva in questa regione, esso rimarra’ intrappolato per tutto il tempo e descrivera’ una curva particolare che si avvolgera’ su stessa senza intersecarsi mai in alcun punto. Queste curve, man mano che il sistema cambia nel tempo, diventano sempre piu’ complesse, annodandosi su stesse, stratificandosi e dando vita a forme particolari. Il concetto di complessità, in contrapposizione al riduzionismo  della fisica classica, si è affermato come un formidabile apparato interpretativo di vari fenomeni fisici, biologici e sociali. Nell'approccio riduzionista, il comportamento di un sistema è compreso, quando è noto il comportamento di tutte le singole parti che lo compongono. Per quanto complicata possa essere una struttura, la comprensione delle sue componenti semplici, è sufficiente per comprenderne il tutto. È per tale motivo che possiamo costruire un orologio o una memoria a semiconduttori. L'orologio potrà essere composto da oltre 500 elementi, tra loro interconnessi con vari ingranaggi, ma il suo comportamento non ci riserverà mai sorprese. Esso sara’ lineare. Piccoli cambiamenti in entrata produrranno solo e sempre piccoli cambiamenti in uscita. Nei comportamenti complessi le cose invece non vanno esattamente così. Una cellula biologica per esempio, è composta da un insieme di elementi: nucleo, mitocondri, membrana, apparato del Golgi ecc., ma difficilmente potremo comprendere il comportamento della cellula, semplicemente andando ad analizzare il comportamento delle sue componenti. Allo stesso modo, non può essere compreso il comportamento del cervello, anche se sappiamo come si comporta il singolo neurone. In questo senso il comportamento dei sistemi complessi è emergente.

Anche se la fisica e’ espressa con semplici ed eleganti formule matematiche come F = ma , la nostra esperienza giornaliera ci racconta una realta’ che tanto semplice non e’. La superficie della terra e’ un intricato conglomerato di montagne, oceani, isole, fiumi, vulcani, terremoti, tornado ognuno con una sua propria dinamica interna. Non e’ forse tutto cio’ complesso? Gli alberi per caso sono triangoli e cilindri? Le montagne delle piramidi? Le nuvole delle sfere? La geometria Euclidea non e’ quella della Natura. La geometria della natura e’ quella frattale. Il comportamento complesso della Natura riflette la tendenza dei sistemi a molte componenti con interazioni non lineari ad evolvere in uno stato critico il cui attrattore nello spazio delle fasi e’ un frattale. E qui entra in gioco la teoria sviluppata da Per Bak denominata SOC. Quando un sistema complesso senza variare alcun parametro interno ma solo grazie ad una lenta e piccola perturbazione esterna si porta in uno stato critico (terremoti, valanghe, incendi delle foreste etc.) fuori dall’equilibrio anche un piccolo cambiamento in ingresso puo’ portare ad una risposta catastrofica. Gli eventi catastrofici hanno la stessa causa di quelli di piccola entita’. Quando un sistema e’ in uno stato critico e risponde ad una qualsiasi perturbazione puo’ generare eventi di tutte le dimensioni. Da quelli insignificanti a quelli catastrofici. Di nuovo una legge di scala e quindi una legge di potenza. L’esempio utilizzato da Per Bak e’ quello del mucchietto di sabbia. Supponiamo di avere un tavolo e di far cadere su di esso della sabbia. Man mano che questa cade crescera’ un mucchietto fino a che questo non raggiungera’ una certa altezza critica. Se adesso facciamo cadere un granello alla volta questo trasferira’ dell’energia al mucchietto. Il sistema e’ da considerare come un network aperto costituito da un numero elevato di componenti (granelli) interagenti tra loro in modo non lineare. L’energia rilasciata dal granello che cade sul mucchietto viene dissipata dal sistema stesso attraverso la generazione di valanghe di diverse dimensioni che riporteranno il sistema di nuovo nel suo stato critico.

I sistemi che sono all’equilibrio non possono in nessun modo mostrare segni di SOC. Essi devono essere per forza all’edge of chaos, cioe’ in bilico continuo tra ordine e disordine come gia’ piu’ volte sottolineato in diversi post di questo blog.

Dopo lo sviluppo della teoria SOC da parte di Per Bak, e’ stato verificato che tantissimi altri sistemi complessi anche molto diversi tra loro sono tutti riconducibili ad un semplice modello matematico dotato della stessa logica di base e di una stessa firma matematica: la legge di potenza. Ordine e disordine sono due situazioni estreme ma tutto sommato facili da trattare. La stessa cosa non e’ vera per le situazioni intermedie a cavallo dell’orlo del caos, cioe’ per sistemi complessi lontani dall’equilibrio che non soddisfano l’ipotesi di ergodica’ in quanto visitano regioni dello spazio delle fasi in modo diseguale, muovendosi su di un attrattore strano.

Quale e’ il motivo per cui i sistemi complessi abbiano scelto degli attrattori strani nello spazio matematico delle fasi diventa quindi chiaro. L’adozione di una dinamica critica infatti, permette al sistema di evitare i minuscoli attrattori classici forniti dalla dinamica dissipativa. Un esempio di un cosiddetto ciclo limite nello spazio delle fasi chiarira’ meglio il concetto di attrattore classico. Traiettorie che partono da punti iniziali diversi si avvicinano sempre piu’ all’orbita periodica finale. E da qui il sistema non puo’ piu’ sfuggire. Rimane come congelato nel ghiaccio del mondo delle fasi.

Cosa fare quindi per non rimanere congelati ed avere cosi’ la possibilita’ di adattarsi ai cambiamenti esterni? E’ necessario uno spazio maggiore da percorrere pur rimanendo in un volume ristretto. E questo lo puo’ garantire solo un oggetto frattale come l’attrattore strano. Il sistema rimane confinato intorno all’attrattore senza mai essere intrappolato, garantendo cosi l’evoluzione e l’adattamento. Anche se questo e’ a scapito della prevedibilita’ a lungo termine. Come la teoria del chaos ci ha insegnato, un attrattore strano ha una dipendenza sensibile dalle condizioni iniziali. Traiettorie che partono vicine nello spazio delle fasi nel tempo divergono esponenzialmente muovendosi lungo l’attrattore. Si tratta di quello che viene chiamato effetto farfalla. Un battito di ali a Buenos Aires puo’ generare un tornado a New York.

Ma come fece Per Bak ad arrivare alla sua teoria del SOC? Partendo da alcune osservazioni empiriche generali come la legge di Gutenberg-Richter  sui terremoti, l’andamento delle estinzioni biologiche, le transizioni di fase e la legge di Zipf  per citarne solo alcune. La prima come e’ facile capire fu elaborata da Gutenberg e Richter che osservarono come la magnitudo (cioe’ l’intensita’) dei terremoti segua una distribuzione di Pareto anziché la piu’ nota Gaussiana. Questo significa che se grafichiamo questa legge su due assi in scala logaritmica osserveremo una retta con pendenza negativa come per i terremoti registrati dal 1974 al 1983 nella zona New Madrid dell’USA.

Di nuovo una legge di potenza:

N~M-b

con N il numero di terremoti, M la magnitudo e b un esponente reale. Questa legge ad invarianza di scala ci dice semplicemente che i terremoti catastrofici sono solo dei terremoti partiti piccoli e che non si sono fermati subito. E’ come l’effetto domino. Un terremoto di piccole dimensioni equivale alla caduta di poche tessere dopo la perturbazione iniziale mentre un terremoto catastrofico equivale alla caduta di tutte le tessere una dopo l’altra. I terremoti di piccola intensita’ altro non sono che dei terremoti catastrofici mancati, morti precocemente senza arrecare gravi danni. Quello catastrofico e quello di piccola entita’ quindi condividono le stesse proprieta’ e caratteristiche. Non c’e’ nulla che distingua un terremoto piccolo da uno grande a parte la dimensione.

Se osserviamo la serie di grafici sottostanti vediamo come emerge una valanga simile a quella dell’esperimento del mucchietto di sabbia di Per Bak anche per I terremoti.

In alto a sinistra (a) viene raffigurato lo stress nel suolo prima di una scossa principale. La regione ingrandita e’ di colore arancione che indica un alto stress. In (b) invece viene riportato lo stress della stessa regione dopo la scossa principale e in (c) la differenza tra il dopo e il prima. Ecco apparire la “valanga” con gli elementi del network rotti che hanno rilasciato l’energia e quindi lo stress. Una volta che il sistema raggiunge lo stato critico basta una qualsiasi perturbazione anche molto piccola per innescare la scossa (la caduta delle tessere nell’effetto domino) e rilasciare cosi l’energia. Dopo questo evento il sistema si ri-allontanerà dall’equilibrio molto lentamente per portarsi gradualmente (senza alcun intervento esterno) di nuovo verso lo stato critico da cui si potra’ scatenare un nuovo terremoto di qualsiasi intensita’. Tutto questo ci fa capire bene come sia impossibile prevedere il giorno, l’ora e il posto dove avverra’ un terremoto nonche’ la sua magnitudo. Il sistema si autorganizza in modo autonomo e nessuno sa quando veramente raggiungera’ un livello altamente critico. E una volta che parte la scossa nessun potra’ sapere se diventera’ “grande” oppure no, in altri termini quante tessere verranno abbattute dall’effetto domino. Lasciamo adesso i terremoti per passare alle estinzioni biologiche. Con questo termine si intende la scomparsa definitiva di una specie sulla Terra (spesso indicata anche come estinzione di massa). Da non confondere invece con l’estinzione di base che altro non e’ che il rumore di fondo del processo evolutivo. Si tratta della continua scomparsa di famiglie, con una progressiva tendenza a calare nel corso delle ere geologiche. Le cause di queste estinzioni sono per lo piu’ da ricercarsi tra fattori locali quali competizione per spazio e cibo, predazioni e cosi via. Ad oggi esistono diversi modelli di estinzione. In particolare quelli piu’ importanti sono quello graduale e quello catastrofico ( o dell’equilibrio punteggiato). Quest’ultimo stabilisce che la maggior parte dei cambiamenti avvengono attraverso eventi catastrofici piu’ che con cambiamenti graduali come si credeva in passato. Ci sono lunghi periodi di stabilita’ intervallati a momenti di rapida differenziazione. Dopo le catastrofi ci sono delle vere e proprie esplosioni di vita.

Questo modello e’ suffragato dalle osservazioni empiriche come quelle riportate di seguito. Sulla sinistra abbiamo la percentuale di estinzione delle specie marine negli ultimi 600 milioni di anni mentre sulla destra la distribuzione di tali estinzioni. E’ chiara la comparsa di una legge di potenza. Tante estinzioni di piccole dimensioni e solo poche catastrofiche che danno una spinta all’evoluzione.

I due fenomeni riportati fin qui fanno intuire che in questi sistemi complessi fino a quanto non si raggiunge la criticita’ non succede quasi nulla. Una volta che questa viene superata la risposta del sistema e’ over amplificata e non c’e’ traccia di linearita’. Esattamente come avviene anche nelle transizioni di fase o nei sistemi percolativi. L’unica differenza significativa rispetto ai sistemi critici auto-organizzati e’ che i sistemi che subiscono transizioni di fase lo fanno perche’ c’e’ un parametro esterno che viene opportunamente modulato (per esempio la temperatura). La criticita’ quindi non e’ spontanea come per i sistemi critici autorganizzati dove basta una forza esterna ma e’ indotta. Un esempio molto noto di sistema percolativo e’ quello del ferromagnetismo. Alcune sostanze hanno la proprieta’ di acquistare una magnetizzazione, cioe’ un momento di dipolo magnetico, quando vengono immerse in un campo magnetico esterno (paramagnetici). Tra queste sostanze ce ne sono diverse che al di sotto di una temperatura critica rimangono magnetiche anche in assenza di campo esterno (magneti permanenti o sostanze ferromagnetiche). Nei materiali paramagnetici gli atomi possiedono un momento magnetico dovuto agli spin  degli elettroni (che possono essere pensati come tante piccole calamite a causa della rotazione su se stessi). In condizioni normali questi momenti magnetici sono orientati casualmente in tutte le direzioni e la risultante e’ zero. In presenza di un campo magnetico esterno pero’, essi si orientano nella stessa direzione del campo magnetico e la risultante non e’ piu’ nulla. La sostanza e’ diventata magnetica. Ma se eliminiamo il campo esterno termina anche il magnetismo della sostanza. Questo almeno per i materiali paramagnetici. Per quelli ferromagnetici invece se togliamo il campo esterno e la temperatura e’ al di sotto di quella che viene chiamata “temperatura critica”, il momento magnetico si annulla. Da dove deriva il ferromagnetismo? Dall’interazione di scambio fra i momenti magnetici atomici che favorisce l’allineamento degli spin  essendo l’energia di una coppia di spin allineati minore di quella di una coppia spaiata (forze all’ordine). Questa interazione e’ chiamata interazione di scambio e se e’ abbastanza forte riesce a contrastare l’effetto della temperatura (forza al disordine) che tende invece a disordinare i singoli momenti magnetici.

Questo fenomeno puo’ essere simulato con il cosiddetto modello di Ising. In due dimensioni possiamo pensare ad una matrice bidimensionale con ogni sito occupato da uno spin che puo’ assumere due stati up (+1) e down (-1). Partendo da una condizione iniziale completamente casuale, usando la temperatura come parametro esterno e l’interazione tra gli spin dei primi vicini si prova che al di sotto di un valore critico della temperatura si formano delle isole di spin up e isole di spin down (le valanghe del mucchietto di sabbia). Questo significa che il sistema ha due possibili stati e che al di la del segno risulta quindi magnetizzato. Al di sopra della temperatura critica la distribuzione degli spin e’ totalmente casuale e quindi la risultante e’ nulla cioe’ la sostanza risulta non magnetizzata.

Cosa succede a T=Tc ? Partono valanghe (isole) di spin di diverse dimensioni. E’ il punto dove una qualsiasi perturbazione esterna locale si espande facilmente all’intero sistema con tutti gli atomi vicini che collaborano a portare su o giu’ il loro spin. A questa temperatura avviene la cosiddetta percolazione del sistema, cioe’ si forma un path che permette da andare da un lato all’altro dello spazio delle fasi. Osservate per esempio la zona nera alla temperatura critica. Essa e’ continua tra il lato superiore e quello inferiore dello spazio. Lo stesso comportamento lo si ottiene nel caso si cerca di simulare come si diffondono gli incendi nelle foreste. Supponiamo di piazzare degli alberi a caso su una matrice rettangolare del piano (potrebbe essere l’equivalente di una cella nera) e ipotizziamo di appiccare il fuoco a qualcuno degli alberi presenti. Il fuoco passa da un albero all’altro solo se questi sono primi vicini tra loro. Qual’e’ la densita’ minima per cui il fuoco potenzialmente investe l’intera foresta? Si tratta di verificare per quale valore di densita’ (numeri di alberi per area) la simulazione porta ad un path percolativo. La soglia e’ un numero molto prossimo al 60% cioe’ 0.593. L’ultima evidenza empirica di sistemi con criticita’ organizzata e’ la cosiddetta legge di Zipf  gia’ riportata in passato in questo blog. La legge deve il suo nome al linguista George Zipf che nel 1949 la descrisse in “Human Behaviour and the Principle of least-effort” (Comportamento umano e il principio del minimo sforzo). Si tratta di una legge empirica che descrive la frequenza di un evento Pr facente parte di un insieme, in funzione della posizione (detta rango o rank in inglese) nell’ordinamento decrescente rispetto alla frequenza stessa di tale evento:

f(Pr)=c/r

dove c e’ una costante di normalizzazione e r il rango. Zipf sviluppo’ questa legge osservando la distribuzione delle popolazioni all’interno delle citta’ e la distribuzione delle parole in un testo come un romanzo. Se si grafica la frequenza in funzione del rank in scala bilogaritmica si ottiene di nuovo una legge di potenza con esponente pari a 1.

Queste le evidenze empiriche da cui parti’ lo studio di Per Bak per spiegare la legge di potenza della dimensione delle valanghe. Una volta elencati i fatti empirici da cui e’ partito per sviluppare la SOC, Per Bak riporta alcuni sistemi da lui modellizzati. Uno di questi e’ il seguente.

Abbiamo una matrice di pendoli collegati tra loro con molle elastiche. Ad un certo punto si perturba la matrice facendo oscillare un pendolo a caso che andra’ a colpire i primi vicini. Ad ogni perturbazione effettuata con energia diversa si contano quanti pendoli riescono ad effettuare una rotazione completa (valanga). Come scoperto da Bak il numero di valanghe di dimensione S segue una legge di potenza:

N(S)~S-a

Come sempre, in un grafico bilogaritmico apparira’ come una linea retta. Qui di seguito la rappresentazione di un modello di una griglia 50x50 di pendoli con un esponente di circa 1.1.

Una diversa nomenclatura ma la stessa matematica dei pendoli e’ quella del modello del mucchietto di sabbia gia’ introdotto precedentemente. Le valanghe prodotte dalla caduta del singolo granello una volta che il sistema si porta in uno stato di criticita’ autorganizzata hanno dimensioni che seguono una chiara legge di potenza. Si riporta di seguito una versione semplificata di tale modello per mostrane le caratteristiche peculiari. Supponiamo di avere una matrice bidimensionale che rappresenti un mucchietto come mostrato sotto. Un granello (cioe’ un quadratino) cade giu’ (in nero) se la sua differenza in altezza e’ maggiore di 1. Questo puo’ destabilizzare le altre particelle e dare vita ad un fenomeno cooperativo che noi chiamiamo valanga.

Un modello analogo puo’ essere implementato in due dimensioni dove in ogni cella inseriamo in modo del tutto casuale dei numeri da 0 a 4. Quando una cella raggiunge la soglia 4 essa si scarica cedendo un granello a ciascuna delle celle vicine lungo le quattro direzioni geografiche. Nell’immagine di seguito la dinamica di un tale modello. L’ultima matrice mostra la valanga con delle celle in nero. Queste sono le celle che si sono scaricate (quelle grigie) e che hanno almeno un lato in comune tra loro.

Se invece della sabbia si usa del riso il risultato e’ lo stesso. La distribuzione della dimensione delle valanghe segue sempre una legge di potenza. L’unica differenza e’ che il riso essendo piu’ grande dei granelli di sabbia e’ piu’ lento nel raggiungere lo stato critico.

Ma cosa hanno di cosi interessante questi risultati ottenuti da Per Bak? In poche parole il fatto che la sabbia o il riso si organizzano in uno stato critico altamente orchestrato senza alcun parametro di controllo, senza alcun direttore di orchestra o supervisore. La dimensione delle valanghe segue una legge di potenza e questa e’ la firma dei sistemi complessi e quindi degli oggetti frattali. Un modello analogo a quello dei pendoli accoppiati e’ stato utilizzato anche per spiegare il meccanismo dei terremoti. Ci sono due piani di cui uno fisso collegati tra loro da molle a loro volta collegate a dei blocchi liberi di muoversi sul piano fisso (rappresentanti la pressione sul materiale vicino ad una faglia).

Il piano superiore viene spinto con una certa forza indicata da una freccia. Il moto tettonico e’ simulato dal piano movibile agganciato a sua volta ai diversi blocchi. La matematica che descrive questo modello e’ molto simile a quella del mucchietto di sabbia e riesce a catturare le caratteristiche essenziali della legge di Gutenberg-Richter. Questo prova che la crosta terrestre e’ un sistema autorganizzato in uno stato critico. La causa dei terremoti di bassa intensita’ e’ la stessa di quelli catastrofici. Diversamente da un sistema all’equilibrio non ci sono scale caratteristiche ma sono possibili fluttuazioni a tutte le scale.

Un ulteriore modello riportato da Per Bak nel suo libro e’ quello del gioco Life (o gioco della Vita ) inventato dal matematico Conway . Si tratta ancora una volta di una matrice bidimensionale di celle che possono avere due stati 1 e 0 (viva e morta o viceversa). Questi vengono aggiornati ad ogni step temporale secondo delle regole molto semplici. Lo stato di ogni cella dipende dai suoi primi vicini (8 celle): se ci sono meno di due celle intorno ad una cella viva, questa muore di “solitudine”. Se ci sono piu’ di tre celle vive, la cella centrale muore a causa del “sovraffollamento”. Se ci sono esattamente due o tre celle vive la cella centrale resta viva. Se intorno ad una cella morta ci sono esattamente tre celle vive, questa cambia il suo stato e da morta passa a viva. Quello che Conway scopri e’ che a partire da semplici regole si possono generare fenomeni altamente complessi. Cosa confermata anche da Stephen Wolfram  con i suoi automi cellulari unidimensionali e da Kauffman  con le sue reti booleane. E non solo. Il noto computer scientist, Christopher Langton, ha dimostrato che per il gioco Vita e’ possibile definire un parametro di controllo da lui chiamato lambda, che varia tra 0 ed 1 a seconda delle regole utilizzate. Cambiando opportunamente le regole del gioco e quindi il valore di lambda, quello che Langton ha scoperto e’ che solo le regole scelte da Conway sono quelle che generano un comportamento complesso del sistema. Tutte le altre producono solo sistemi stabili o caotici e quindi non interessanti. Il parametro lambda indica la strada per il margine del caos dove e’ possibile la vita artificiale e forse anche quella naturale. Per questo stesso gioco anche Per Bak ha dato un suo contributo. Nel 1989 infatti, simulo’ il gioco facendolo evolvere da stati iniziali casuali fino a quando non raggiungeva uno stato statico o oscillatorio. Defini’ il tempo T come quello necessario a raggiungere uno di questi stati e con S (dimensione della valanga) il numero di celle nate e morte durante la simulazione. Il gioco fu ripetuto moltissime volte e con grande sorpresa Bak ottenne di nuovo una legge di potenza con un esponente pari a 1.6 per le scale temporali e 1.4 per le scale spaziali.

Gli esempi riportati fin qui dimostrano in modo inequivocabile l’ubiquita’ delle leggi di potenza in Natura e in ambito sociale. Esse sono la firma indistinguibile della complessita’ e dell’autosimilarita’ (invarianza di scala). La SOC di Per Bak e’ una teoria per spiegare la complessita’ e il catastrofismo senza l’aggiustamento di un parametro esterno. Gli ingredienti essenziali sono:

· Un sistema di molti elementi

· Interazioni non lineari tra gli elementi

· Soglia di attivazione

· Meccanismo di lenta perdita ad una perturbazione esterna

Ampie fluttuazioni dell’output di tali sistemi non possono essere manipolate e quindi evitate. E nemmeno previste. Ogni variazione, anche se piccola, in ingresso ad un sistema nello stato critico si propaghera’ quasi istantaneamente a tutto il sistema (cooperazione). Queste scoperte fin dall’inizio si dimostrarono essere in opposizione alle teorie lineari meccanicistiche, sostenendo che la stessa vita, l’evoluzione e il cambiamento non nascono dall’ordine, dalla simmetria e dalle leggi, ma dal disordine, dal caos e dall’instabilita’. La SOC suggerisce una nuova idea di equilibrio. Non piu’ solo evoluzioni verso stati stazionari o periodici (immutabili nel tempo) ma anche la possibilita’ di convergenza verso cicli non periodici, cioe’ verso gli attrattori strani. L’equilibrio non e’ piu’ uno stato imprigionato ne’ uno stato che periodicamente torna a replicarsi. E’ una fluttuazione di origine endogena (interna), aperiodica, erratica. Le dinamiche di equilibrio sono caratterizzate da fluttuazioni e catastrofi su qualsiasi scala di osservazione in un continuum che va dal livello micro a quello macro, e tutte regolate dalla stessa legge di probabilita’: la legge di potenza. Solo l’edge del chaos e quindi la SOC garantisce l’evoluzione e l’adattamento di una organizzazione. La teoria sviluppata da Per Bak ha il vantaggio di accorpare in un unico modello la spiegazione delle piccole-medie fluttuazioni e delle grandi catastrofi dei sistemi complessi come le aziende, la societa’, le organizzazioni, le placche terrestri e cosi via. Le catastrofi non hanno nulla di speciale anche se sono imprevedibili e inevitabili. Inevitabili perche’ se vogliamo garantire l’evoluzione e l’adattamento di un sistema esso deve stare a cavallo del confine tra ordine e disordine. Se ricerchiamo solo l’ordine, ci conformiamo alle regole e ci abituiamo alla normalita’ il che significa fossilizzarsi. D’altro canto, la spasmodica ricerca della novita’, l’infrangere le regole e la vita spericolata possono portarci alla disintegrazione (disordine). L’orlo del caos e’ dove la vita ha abbastanza stabilita’ da sostenersi e creativita’ sufficiente da meritare il nome di vita. Solo mantenendo il passo dell’evoluzione e cambiando continuamente, i sistemi complessi possono rimanere se stessi. L’orlo del caos e’ pertanto il luogo del cambiamento, dell’innovazione e della discontinuita’. Come Vasco Rossi canta in Sally: “la vita e’ un brivido che vola via, e’ tutto in equilibrio sopra la follia”. La caduta del muro di Berlino nel 1989 è un esempio di come da uno stato di apparente "stabilità" e di solido ordine costituito, nella fattispecie il bipolarismo Usa-Urss, si possa verificare un evento apparentemente improvviso ed imprevisto dal quale poi si innesca un processo a catena che, attraverso un aumento del disordine, porta il sistema verso un nuovo stato ed un nuovo ordine o, meglio, un nuovo "disordine ordinato“. Chi lo aveva previsto? Eppure è accaduto ... e soli 2 anni dopo l’Urss, il grande nemico dell'Occidente, si è dissolto dando origine ad un processo di "balcanizzazione" che avrebbe interessato drammaticamente le sue ex repubbliche e la zona d'influenza dell'Europa orientale (ex Jugoslavia in primis). Nella storia, dunque, accadono degli "eventi di rottura", che rimescolano gli equilibri internazionali e nazionali, che sono in molti casi inattesi e le cui conseguenze sono ancora più imprevedibili (effetto valanga). Cosa possiamo dire invece per le aziende e il management? Ci possono essere delle implicazioni da parte della teoria SOC anche per questo tipo di sistema complesso?  Di sicuro un’azienda con la sua organizzazione e’ un sistema altamente complesso. In essa i manager si trovano a dover decidere una varieta’ di piccole o grandi azioni per tenere un team o l’azienda stessa sulla strada per il raggiungimento dell’obiettivo. In accordo con la legge di potenza saranno piu’ le azioni piccole che grandi quelle che verrano settate. I manager tendono ad applicare la regola del minimo sforzo di Zipf per semplificare le loro responsabilita’ in presenza di complessita’ casuale. L’influenza e il controllo di tipo top-down e’ quello piu’ utilizzato visto che e’ il piu’ semplice da applicare. Comunicazioni multidirezionali e complicate saranno meno frequenti anche se sono quelle piu’ effettive. Sempre seguendo il paradigma del SOC/Pareto i manager tendono a fare le cose piu’ semplici rispetto a quelle piu’ difficili anche se queste sono quelle che con molta probabilita’ funzioneranno. Sono costantemente soggetti alla legge di potenza anche se loro ne ignorano l’esistenza applicando i principi del riduzionismo, linearita’ e indipendenza degli eventi. Gli individui come gli atomi e le molecole interagiscono tra loro. L’interazione genera un ordine emergente nel quale sono presenti caratteristiche non rinvenibili nei singoli elementi originari da cui deriva la cosiddetta forza del team. La rete e’ molto importante. Il tipo e il numero di relazioni fra i nodi definisce l’architettura della rete. La diversita’ e’ fondamentale. La rete opera in un contesto (ambiente), si adatta alle sue sollecitazioni ed evolve. Sotto particolari condizioni un insieme di agenti eterogenei alla ricerca del benessere individuale raggiunge un ordine di livello superiore, cioe’ i singoli elementi si auto-organizzano attorno ad un ordine emergente. La catastrofe e’ dietro l’angolo ma dobbiamo accettarla (anche perche’ come i cigni neri e’ rara) se vogliamo rimanere all’edge del caos. Qui emergono fenomeni di cooperazione a tutte le scale (valanghe). Il team diventa un piccolo mondo (veicolazione veloce dell’informazione e della conoscenza) e puo’ adattarsi piu’ facilmente ai cambiamenti dell’ambiente esterno senza rimanere intrappolato in piccoli attrattori. Nello spazio delle fasi il sistema visitera’ in maniera non ergodica nuovi spazi lungo gli attrattori strani. La Teoria SOC quindi fornisce i presupposti per un management in condizioni di incertezza e rischio estremo. La rete di piccolo mondo (cioe’ allo stato critico) favorisce la diffusione virale della conoscenza, dell’informazione e dell’innovazione. Basta attivare opportunamente gli hub (gli untori). La formazione di reti interconnesse ed interdipendenti insieme alla disgregazione di strutture rigidamente gerarchiche governate da un management “task e goal” driven (manager semaforo anziche’ rotonda) da’ origine a maggiore flessibilita’, maggiori capacita’ di adattamento e di modifica dell’ambiente. Secondo la teoria di Per Bak la causa dei piccoli slittamenti (segnali deboli) e quella delle valanghe (segnali forti) e’ la stessa. I “segnali deboli” sono molto importanti anche se in genere non attirano l’attenzione dei decision makers. Essi sono i potenziali precursori degli eventi estremi (siano essi buoni o cattivi) anche se appaiono come eventi casuali, insignificanti e quindi trascurati o ignorati; eppure essi possono spiraleggiare ed evolvere in eventi estremi di proporzioni disastrose. Se i manager prendessero coscienza della teoria dell’invarianza di scala (legge di potenza) di sicuro riuscirebbero a vedere meglio i segnali deboli prima che questi esplodano in eventi estremi. Quest’ultimi (valanghe) sono imprevedibili ma non inaspettati. Tutti gli eventi estremi hanno una fase di incubazione. E’ compito del manager “capire/interpretare” i segnali deboli che arrivano durante questa fase. Anche se le valanghe sono casuali l’effetto che esse hanno su di noi non e’ tanto casuale. Quindi il management piu’ che cercare di prevedere deve elaborare delle strategie su come comportarsi in caso esse accadono (prevenzione anziche previsione). Non possiamo sapere cosa ci aspetta, ma possiamo imparare ad affrontare l’impatto degli eventi estremi su di noi. In sintesi il manager deve imparare a fare, adattarsi ed essere piu’ che prevedere, pianificare e teorizzare. Bisogna fare attenzione a non settare azioni per i piccoli vantaggi visibili con effetti collaterali invisibili potenzialmente devastanti. I manager per prevedere il futuro usano medie e approssimazioni lineari dei fenomeni perpetuando cosi’ illusioni di stabilita’ e di facilita’ di comprensione del mondo che sono di fatto grossolanamente incorrette e pericolose. Il mondo non e’ lineare. Anzi. C’e’ il bisogno di una nuova statistica diversa da quella a cui siamo abituati (distribuzione Gaussiana). Le leggi di potenza obbediscono alla distribuzione di Pareto (80/20 rule) piu’ che a quella Gaussiana in cui gli eventi vengono assunti come indipendenti. Quando gli eventi sono interdipendenti (come ci insegna la SOC) la distribuzione Gaussiana non e’ piu’ adatta in quanto gli eventi estremi (catastrofi) sono piu’ probabili di quanto essa ci dica. La distribuzione di Pareto diversamente da quella Normale o Gaussiana non e’ caratterizzata da un valore medio e una standard deviation finita. I ricercatori e manager devono rendersi conto che gli eventi estremi (catastrofi) sono una parte naturale del mondo sociale ed e’ l’unico modo per mantenere l’equilibrio critico al confine tra l’ordine e il caos.

Termino questo post con due vignette sulla fallacia del valore medio. Enjoy

mercoledì 21 ottobre 2015

Quando la fisica arriva a Wall Street

 

Negli  ultimi  anni  ha  visto la luce, un  nuovo  campo  scientifico  interdisciplinare, l’econofisica (contrazione di economia e fisica) che applica i concetti della fisica statistica ai sistemi economici/finanziari considerati come sistemi complessi che evolvono. Anche se nato da poco questo campo sta vedendo un interesse in netto aumento con tante pubblicazioni e meeting annuali. La ricerca condotta nel campo dell’econofisica puo’ essere divisa in due grossi filoni: econofisica statistica ed econofisica basata sugli agenti (agent-based). Entrambi questi sotto campi hanno le stesse fondamenta poiche' considerano i sistemi socioeconomici come sistemi complessi. Entrambi inoltre evitano di fare assunzioni a priori e basano la loro metodologia sulle verifiche empiriche. Pur tuttavia c’e’ una differenza in quanto non usano la stessa metodologia computazionale. Mentre l’econofisica ad agent-based tratta modelli microscopici applicati ad agenti eterogenei e con capacita’ di apprendimento, l’econofisica statistica usa degli agenti con intelligenza zero (in questo caso il sistema e' immaginato come costituito da particelle che quindi “non pensano”) le cui interazioni sono completamente casuali. Mentre l’econofisica a “agent-based” cerca di riprodurre le regolarita’ statistiche osservate nei sistemi economici/finanziari, l’econofisica statistica cerca di descrivere queste regolarita’ direttamente dall’evoluzione di questi sistemi. In definitiva esiste un’unica econofisica anche se i fisici hanno sviluppato due differenti modi di trattare le regolarita’ statistiche che caratterizzano la complessita’ dei sistemi economici.

Econofisica statistica

L’econofisica statistica come gia’ detto e’ l’applicazione della fisica statistica all’economia e spesso associata con i cosiddetti “fatti stilizzati”. Questi si riferiscono ai fatti empirici che nascono dallo studio statistico delle serie temporali della finanza e che sembrano essere persistenti nel tempo, locazione geografica e mercati. Poiche’ questa disciplina si fonda sull’analisi delle serie temporali essa richiede molti dati storici sui prezzi, volumi o transazioni.

Alcuni dei risultati di queste analisi hanno portato a modelli che descrivono fenomeni quali: la distribuzione empirica dei ritorni con code “larghe (fat)”, l’assenza di autocorrelazioni o il clustering della volatilita’ (piu’ avanti questi concetti saranno ripresi in dettaglio).

In quest'ambito i sistemi economici sono pensati  come costituiti da elementi multipli che interagiscono tra loro in modo da generare delle macro-proprieta’ del sistema. Queste macro-proprieta’ possono essere caratterizzate in termini di regolarita’ statistiche. Contrariamente all’economia, l’econofisica statistica stabilisce che solo le macro-proprieta’ del sistema possono essere osservate e analizzate. Non c’e’ alcuna modellizzazione del comportamento razionale delle persone come nell’econofisica a “agent-based”.

Econofisica ad agenti

Contrariamente all’econofisica statistica, l’econofisica ad agenti e’ basata su un approccio micro piuttosto che macro, in quanto essa analizza il comportamento del singolo componente. In questo caso i singoli agenti sono visti come eterogenei e possono differire in tantissimi modi: geneticamente, culturalmente, attraverso i social networks, per le preferenze ecc. Mentre nel caso dell’econofisica statistica si utilizzano i dati storici con agenti a intelligenza zero, nel caso dell’econofisica ad agenti sono utilizzati i dati generati dai modelli che auto-evolvono (con agenti che apprendono). Entrambi i campi sono complementari: da un lato l’utilizzo della statistica da’ un insieme di informazioni quantitative sulle macro-regolarita’ osservate nel mondo complesso dell’economia, dall’altro la modellizzazione ad agenti fornisce i micro-fondamenti per le regolarita’ statistiche che emergono a un livello macro del sistema socio-economico.

Un modello attribuisce agli operatori finanziari una linea di condotta equiparabile al “comportamento del branco”. Secondo questo modello, le reti di informazione crescono fino a spingere interi “cluster” di operatori a muoversi sulla base delle notizie acquisite; a tale movimento di gruppo, segue di norma un rallentamento e poi una ripartenza in base a nuove notizie. Studiando accuratamente l’andamento dei listini, un altro gruppo di studiosi ha rilevato la presenza di una relazione secondo la quale la fluttuazione di un prezzo si muove come l’inverso della quarta potenza della sua frequenza, indipendentemente dalle proporzioni della fluttuazione medesima. Questa legge di potenza non è prevedibile con i tradizionali modelli di fluttuazioni. Vale la pena citare brevemente anche il modello di mercato sviluppato da Victor Eguíluz, del Niels Bohr Institute di Copenhagen, e Martín Zimmermann, dell’Università di Buenos Aires. Nel loro modello, gli agenti di Borsa sono rappresentati dai vertici di una rete di connessioni casuali. Gli agenti connessi tra loro rappresentano gruppi di investitori che condividono le stesse informazioni, opinioni o strumenti di analisi e fanno acquisti identici. Il modello porta a una legge di distribuzione delle fluttuazioni di mercato in ottimo accordo con i dati reali.

L’emergenza di nuovi strumenti statistici

Negli ultimi cinquanta anni, l’indice leptocurtico ha generato tantissimi dibattiti in finanza. L’indice di curtosi in statistica determina la forma di una distribuzione “misurando” lo “spessore” delle code. Per la distribuzione di Gauss ci sono tre possibilita’: curva leptocurtica, normocurtica e platicurtica. La prima e’ molto concentrata intorno alla media, la seconda e’ normalmente concentrata intorno alla media e l’ultima e’ poco concentrata intorno alla media.

La teoria dei mercati efficienti fin dalla sua nascita era basata sull’ipotesi che le fluttuazioni degli indici finanziari fossero sostanzialmente casuali. Da un punto di vista fisico questo equivale a un comportamento browniano.

Il moto e’ molto irregolare e la traiettoria sembra non avere tangente in alcun punto. Il movimento delle diverse particelle e’ indipendente e la loro composizione e densita’ non ha alcun effetto sul moto. Piu’ le particelle sono piccole, il fluido meno viscoso e la temperatura piu’ elevata e piu’ il moto e’ attivo. Esso non cessa mai. Aumentando la risoluzione del microscopio e variando la scala di osservazione si vede sempre un moto simile. Questa proprieta’ va sotto il nome di autosimilarita’ o invarianza di scala. Queste fluttuazioni casuali si distribuiscono secondo una legge Gaussiana la cui ampiezza o standard deviation aumenta nel tempo:

σ~√t

Comunque il rumore associato ai sistemi finanziari spesso esibisce comportamenti anomali con salti completamente imprevisti degli indici e senza nessuna apparente spiegazione. Vedi come esempio il confronto riportato di seguito:

Dagli anni 60 molti scienziati tra cui Mandelbrot, ispirati dal lavoro di Levy e Gnedenko/Kolmogorov proposero una legge di Pareto (un caso specifico del cosiddetto processo stabile di Levy) per descrivere l’evoluzione non gaussiana del logaritmo dei prezzi P.

In genere in econofisica piu’ che lavorare direttamente sui prezzi si preferisce usare i cosiddetti ritorni finanziari. Quest’ultimi sono definiti come il logaritmo naturale dei cambiamenti di un indice finanziario X in un certo intervallo che puo’ variare da pochi secondi a molti giorni.

S(t)=ln(X(t+dt))-ln(X(t))

I processi stabili di Levy sono dei processi casuali infinitamente divisibili ed hanno la proprieta’ di scalare (autosimilarita’) nel senso che le variabili finanziarie (giornaliere, settimanili, mensili...) possono essere studiate con una distribuzione stabile della stessa forma per ogni livello di granularita’. I movimenti di Levy sono dei processi che seguono una legge α-stable del tipo:

P(X>x)=x-α

con alfa un parametro costante con valore tra 0 e 2 (vedi figura qui sotto con distribuzione di Levy a diversi valori del parametro alfa).

Qui di seguito la distribuzione del logaritmo dei ritorni dell’indice messicano IPC dal 19 Aprile 1990 al 17 Settembre 2004 e quella del DJ dal 19 Aprile del 1990 al 17 Settembre del 2004. Osservare come queste due distribuzioni siano lontane dall’essere Gaussiane (code molto larghe).

Il parametro alfa si riferisce alla forma della distribuzione: piu’ alfa e’ basso e piu’ frequentemente possiamo osservare eventi estremi (eventi situati nelle code). Quest’ultimi sono molto piu’ frequenti quanto si analizzano i ritorni di un indice su tempi corti (grafico b e c) contrariamente a quanto accade invece per del rumore Gaussiano (grafico d).

Le leggi di potenza (y=cx-a) e le proprieta’ di scaling sono oggi molto comuni e sono state individuate in moltissimi fenomeni fisici come i terremoti, DNA, diffusione delle epidemie, il volo degli albatros e cosi via. Secondo quanto riportato dallo scienziato  Dubkov:

“ E’ meraviglioso come la stessa equazione di diffusione possa descrivere il comportamento dei neutroni in un reattore nucleare, la luce nell’atmosfera, la variazione degli indici di borsa, il movimento delle particelle di polvere sospese in un fluido ecc. Il fatto che fenomeni completamente diversi vengono descritti dalle stesse identiche equazioni e’ un’indicazione diretta che il problema non riguarda il meccanismo concreto del fenomeno quanto piuttosto le qualita’ comuni della classe di fenomeni simili.”

Le leggi di potenza sono le impronte dei sistemi complessi in natura e societa’. E’ logico quindi pensare a sistemi al di fuori dell’equilibrio, stati critici, auto-organizzazione, vita all’edge del chaos e criticita’ auto-organizzata (SOC), tutti temi trattati piu’ volte in questo blog.

Agli inizi del 1990, a causa del valore non finito della varianza della distribuzione stabile di Levy (L_stable), fu introdotta una nuova tecnica statistica: il troncamento della distribuzione stabile di Levy (TLF) cioe’ una sua normalizzazione usando una particolare funzione in modo da evitare una varianza infinita. In quest’ottica le distribuzioni di Levy stabili vengono utilizzate con la condizione che ci sia una lunghezza di “cut-off” per la variazione dei prezzi al di sopra della quale la distribuzione diventa normale. In genere si scrive:

P(X>x)=Pα(x)φ(x)=x-α φ(x)

dove Pα e’ la distribuzione stabile di Levy e la funzione φ(x) e’ quella di troncamento che permette di ottenere una varianza finita. Questa funzione puo’ assumere forme diverse e la sua scelta dipende solo dalla bonta’ dell’adattamento del modello ai dati empirici. Qui di seguito un esempio di fitting dei dati utilizzando la distribuzione stabile di Levy (stable) la distribuzione TLF e la distribuzione normale utilizzando i ritorni dell’indice S&P500 dal 1926 al 2009. L’asse verticale e’ in scala logaritmica in base 10 per vedere meglio le code. Si osserva che la distribuzione normale non e’ adeguata per ritorni al di sotto e al di sopra del 15%. La distribuzione di Levy stabile si adatta bene ai dati anche se le code si estendono oltre il valore massimo e minimo storico dei ritorni. Questo risulta in una varianza infinita. La distribuzione TLF e’ quella che si adatta bene ai dati ed ha le code troncate cosi come si vede nella realta’ (varianza finita). La questione delle code e’ molto importante quando si deve stabilire il rischio di un ribasso del prezzo. La distribuzione normale infatti tende a sottostimare questo rischio. I ritorni negativi possono avere valori ben piu’ alti di quanto previsto dalla legge Gaussiana. Mantegna e Stanley (due studiosi di econofisica) hanno dimostrato che per piccoli intervalli temporali (per es. 1 minuto) la distribuzione TLF si approssima a quella di Levy stabile mentre per ampi ma finiti intervalli temporali (per esempio 1 anno) la distribuzione TLF converge lentamente alla distribuzione Gaussiana. In altre parole, man mano che aumenta il tempo di osservazione passiamo da una distribuzione di Levy stabile a una Gaussiana passando per la TLF.

Le crisi finanziarie

Come la meccanica quantistica e la statistica ci hanno insegnato viviamo in un mondo dominato dall’imprevedibilità. Eppure fin dalla sua comparsa sulla terra l’uomo ha cercato di prevedere il futuro ma senza grandi successi. Come riportato da Taleb nel suo Cigno nero (l’evento rarissimo e imprevedibile, con un impatto enorme e che cerchiamo di giustificare post mortem per renderlo meno casuale di quanto non sia in realta’): “per prevedere e’ necessario conoscere le tecnologie che saranno scoperte in futuro, ma tale conoscenza ci permetterebbe quasi automaticamente di iniziare a svilupparle adesso. Ergo, non sappiamo quel che sapremo.” E ancora “e’ impossibile prevedere il futuro guardando alla storia in quanto la storia ha tantissimi gradi di liberta’ ”. In altre parole se abbiamo una sequenza di numeri e cerchiamo di prevedere il prossimo abbiamo infinite scelte cioe’ infiniti gradi di liberta’. Supponiamo di avere dei numeri positivi crescenti. La cosa piu’ ovvia e’ quella di pensare che in futuro il trend sara’ ancora in crescita. Ma cio’ potrebbe essere sbagliato semplicemente perche’ la sequenza iniziale altro non e’ che la parte in salita di una funzione seno oppure la parte del ramo di una parabola e cosi via. Tutti sappiamo che praticamente e’ impossibile prevedere un terremoto, una valanga, una rivoluzione, un’estinzione, la reazione di un cane a un nostro calcio. Guardiamo per esempio il grafico qui di seguito e cerchiamo di capire come potrebbe continuare il trend dopo la linea gialla.

Una possibilita’ (seguendo i baffi del mitico Dali) potrebbe essere un andamento che continua a essere stabile con oscillazioni intorno a 45. Sara’ cosi?

Questo e’ il grafico reale. Tra 6000 e 5000 anni fa si vede una caduta repentina del tutto imprevedibile guardando i dati precedenti. Il cigno nero e’ entrato in azione.

E la stessa sorte tocca anche alle crisi finanziarie. Non possono essere previste. Nonostante cio’ l’obiettivo degli economisti e di limitare i danni potenziali. In che modo? Cercando di capire l’incertezza finanziaria. Dal 1970 sono stati sviluppati molto modelli per descrivere l’evoluzione dei mercati finanziari. Questi modelli assumono che i mercati siano dei sistemi “tranquilli” dove gli eventi estremi sono assenti. Purtroppo nella realta’ questo non e’ vero. Le diverse crisi finanziarie degli ultimi anni hanno mostrato che i mercati finanziari sono piu’ volatili e turbolenti di quanto si pensasse. L’inadeguatezza dei modelli tradizionali e’ stata una delle cause che hanno favorito lo sviluppo dell’econofisica. La crescita di quest’ultima nelle pagine delle riviste di fisica ha probabilmente contribuito al suo riconoscimento ufficiale e dal 2003 e’ una sotto-categoria della fisica.

Il filone dei modelli predittivi delle crisi finanziarie risalgono agli anni 90. Molti studiosi hanno lavorato su questo tema tra cui Didier Sornette dell’Universita’ della Svizzera a cui si deve il termine di “re drago” in opposizione al “cigno nero” di Taleb. Sornette e altri hanno sviluppato una teoria chiamata appunto “dragon king”. Con questo termine ci si riferisce a eventi estremi come i cigni neri ma che sono pero’ dei casi a parte, cioe’ sono speciali. Sono generati da meccanismi specifici che potrebbero renderli prevedibili e forse controllabili. Consideriamo ad esempio la serie temporale del valore finanziario di una data azione. Avremo degli andamenti altalenanti. Una buona misura del rischio di questo mercato finanziario è dato dall'ampiezza della differenza tra alti e bassi che rappresentano lo scenario peggiore, quando e’ stato comprato al massimo e venduto al minimo. La frequenza di questa circostanza di alti e bassi di diversa entità, e’ riportata nel grafico sottostante. E’ interessante notare che il 99% delle differenze tra alti e bassi di diversa ampiezza può essere rappresentato da una potenza universale rappresentata dalla linea rossa. Ancor più interessante, ci sono casi estremi, eccezioni che sono al di sopra di questa linea rossa, che capitano con una frequenza almeno 100 volte superiore a quanto l'estrapolazione preveda basandosi sulla calibrazione del restante 99% di alti e bassi. Sono dovuti a dipendenze drastiche, cosicché a perdite seguono altre perdite seguite da altre perdite, che sono seguite da altre perdite. Questo tipo di dipendenza viene largamente mancato dai normali strumenti di gestione del rischio, che li ignora e vede lucertole dove dovrebbe vedere draghi. Il meccanismo alla base di un dragon-king è una lenta maturazione verso l'instabilità, ossia la bolla finanziaria, e il culmine della bolla spesso e’ lo scoppio. È simile al lento riscaldamento dell'acqua in una provetta che raggiunge il punto di ebollizione, a cui si verifica l'instabilità dell'acqua e si passa alla fase di transizione verso il vapore. Questo processo, che è assolutamente non lineare non può essere previsto da tecniche standard, ma è il riflesso di un comportamento collettivo emergente che è sostanzialmente endogeno. Quindi la causa del crollo (crisi) deve essere cercata in un’instabilità insita nel sistema, che qualunque piccola perturbazione puo’ far scattare.

Ci sono molti segnali d'allarme che vengono previsti da questa teoria (early warning o weak signals in inglese). Uno di essi e’ la crescita super-esponenziale con riscontri positivi. Cosa significa? Immaginiamo di avere un investimento che rende cinque per cento il primo anno, dieci per cento il secondo anno, venti per cento il terzo anno, quaranta per cento il quarto anno. Non è meraviglioso? È una crescita super-esponenziale. Una crescita esponenziale standard corrisponde a un tasso di crescita costante, diciamo del dieci per cento. Il punto è che, molte volte durante le bolle, ci sono riscontri positivi, più volte, tanto che la crescita precedente incrementa, spinge, e aumenta la crescita successiva attraverso questo tipo di crescita esponenziale, che è molto incisiva, e non sostenibile. E l'idea chiave è che la soluzione matematica di questa classe di modelli mostra un numero limitato di singolarità il che significa che ci sara’ un momento critico tc in cui il sistema si spezzerà, cambierà regime. Potrebbe essere un crollo. Potrebbe essere solo una stabilizzazione, o qualcos'altro. L'idea chiave è che l'informazione sul momento critico è contenuta nelle prime fasi dello sviluppo di questa crescita super-esponenziale. Questa teoria e’ stata applicata con successo nella diagnostica della rottura degli elementi metallici utilizzati per i razzi spaziali. Ancor più sorprendente è che lo stesso tipo di teoria si applica alla biologia e alla medicina, al parto, e agli attacchi epilettici. Dai sette mesi di gravidanza, una madre comincia a sentire episodi anticipatori delle contrazioni dell'utero che sono i segni di queste maturità che vanno verso l'instabilità, cioe’ quella di dare alla luce il bambino, il dragon-king. Se si misurano i segnali premonitori, si possono identificare problemi pre e post-maturità in anticipo. Gli attacchi epilettici si verificano anche loro in misura diversa, e quando il cervello entra in uno stato super-critico, ci sono i dragon-king che hanno un certo grado di prevedibilità e questo può aiutare il paziente ad affrontare meglio questa malattia. Questa teoria e’ stata applicata a molti sistemi, tra cui smottamenti e crolli di ghiacciai anche se l’applicazione più importante è nella finanza. Adottando una formulazione simile a quella dei precursori dei terremoti, Sornette ha postulato che i prezzi delle azioni seguono un pattern log-periodico prima che avvenga la crisi:

per t<tc.

Questa equazione genera fluttuazioni intorno al trend del prezzo con frequenza sempre maggiore. Qui pt indica il prezzo dell’azione al tempo t. Il tempo tc rappresenta il tempo critico e cioe’ una singolarita’ dopo la quale ci sara’ un crash. A, B, C, m, ω, tc e Φ sono tutti parametri liberi del modello. Purtroppo non tutte queste previsioni fatte in anticipo dal gruppo di Sornette si sono poi materializzate. Come puo’ essere visto nella figura che segue, per l’indice tedesco DAX la previsione fatta nel 2003 per gli anni successivi non e’ stata proprio felice visto la non perfetta correlazione tra il fit (linea continua e tratteggiata) e il dato reale.

Questo modello ha generato enorme eccitazione tra gli studiosi e sulla stampa nonche’ un elevato numero di articoli. Nonostante cio’ quasi nessuno sembra essere riuscito a riprodurre i risultati del gruppo di Sornette (vedi Thomas Lux 2007).

Altri gruppi di studiosi come per esempio gli ecologisti Cees Dicks, Cars Hommes, Marten Scheffer, Stephen Carpenter solo per citarne alcuni stanno cercando di applicare metodologie diverse per provare a prevedere le transizioni critiche analizzando gli early signals. Sono transizioni critiche per esempio l’improvvisa desertificazione di una regione, la morte di un lago a causa di alghe assassine, l’improvvisa scomparsa di una particolare specie animale, il crollo di un titolo e cosi via. Riconoscendo che i sistemi economici sono da considerare dei sistemi complessi non puo’ essere accettata l’idea tradizionale di un sistema economico all’equilibrio. Essi vanno considerati come dei processi a piu’ stati di equilibrio come accade in ecologia. Quindi i crolli dei mercati vengono guidati principalmente da eventi endogeni e una possibile previsione richiede la comprensione dei meccanismi alla base di questi sistemi. Gli early signals utilizzati in questi modelli si basano principalmente sulla misura del cosiddetto rallentamento critico (critical slowing down) in cui il sistema si porta quando si avvicina a una transizione critica. Il primo a suggerire di utilizzare queste tecniche per i dati finanziari e’ stato Marten Sheffer (professore di scienze ambientali) nel 2009. L’idea di base e’ quella che le transizioni critiche in un sistema complesso avvengono quando il suo attrattore (vedi post precedente su questo blog per i dettagli) scompare forzando il sistema a saltare attraverso una fase transiente in un nuovo attrattore. La figura seguente mostra un esempio di sistema di questo tipo dove all’aumentare di un parametro di controllo emerge un punto critico (tipping point). In questa situazione anche una piccola perturbazione puo’ indurre il sistema a significativi cambiamenti. Una volta che si supera la soglia (F1) l’intero sistema transita verso un diverso attrattore. Anche se il parametro di controllo e’ riabbassato, il sistema rimarra’ vicino al nuovo attrattore. Solo spostando il parametro di controllo ben oltre la soglia F1 si potra’ riconquistare il precedente stato (soglia F2). Questo tipo di comportamento si chiama isteresi.

Quando un sistema dinamico si avvicina al punto critico esso diventa significativamente lento nel recuperare l’equilibrio dopo una piccola perturbazione essendo il bacino di attrazione poco profondo e quindi la forza di richiamo al punto di equilibrio diminuisce (condizione b nella figura sopra). In questa condizione (critical slowing down) si dice anche che il sistema e’ poco resiliente in quanto una piccola sollecitazione non lo fa ritornare al suo punto di equilibrio. Avvicinandosi quindi a un punto critico il sistema complesso diventa sempre meno resiliente, aumenta la sua variabilita’ (le oscillazioni nella buca sono piu’ ampie) e addirittura puo’ iniziare a visitare il nuovo bacino di attrazione senza ancora caderci definitivamente dentro cosa che succede appena oltre c (figura sopra). Questa teoria e’ stata applicata alle seguenti serie temporali finanziarie per verificare se fosse possibile prevedere le transizioni critiche del passato dove c’erano stati dei chiari crolli:

Come early signals sono stati utilizzati il coefficiente di autocorrelazione (lag 1) e la varianza dei ritorni (vedi post precedente su questo blog). La figura sottostante mostra l’analisi dei segnali deboli 6 mesi circa prima del cosiddetto “Lunedi nero” analizzando l’indice S&P500. In a) e’ riportato il logaritmo dell’indice originario. La linea verticale identifica la transizione critica dell’indice avvenuta nel 1987. La linea centrale rossa mostra la tendenza dell’indice (smoothing line). La freccia mostra la finestra che viene spostata lungo l’asse temporale per prendere i valori su un intervallo prefissato. Spostandosi verso destra si aggiungono nuovi valori mentre vengono rimossi quelli a sinistra una volta che escono dalla finestra (rolling trend). Nella sezione b) vengono mostrati i residui rispetto alla linea centrale di trend (cioe’ rispetto alla linea rossa). In c), d) vengono riportati gli indici di autocorrelazione mentre in e) quello di varianza. Essi mostrano abbastanza chiaramente che il grande crollo del “Lunedi nero” viene preceduto da un trend a salire suggerendo che il sistema S&P500 mostra un rallentamento critico (critical slowing down) prima di raggiungere il punto di transizione critica. Risultati analoghi sono stati ottenuti per la crisi asiatica e la bolla del Dot-com. Invece per la crisi finanziaria del 2008 i risultati non sono stati univoci nel senso che parametri diversi hanno mostrato trend opposti. Questo suggerisce che la metodologia del rallentamento critico da sola non basta e se si vuole aumentare l’accuratezza delle previsioni bisogna trovare altri metodi piu’ sofisticati.

 

 I fatti stilizzati

Vengono chiamati in questo modo i macro-pattern osservati in differenti situazioni e che appaiono avere una verita’ empirica. In altre parole l’econofisica statistica studia i fatti empirici che non possono essere spiegati dai modelli teorici dell’economia.

1. Fat-tail: L’inadeguatezza nel descrivere le distribuzioni finanziarie con la distribuzione Gaussiana e l’introduzione di distribuzioni con code “larghe” e’ stato uno dei primi fatti stilizzati e probabilmente quello all’origine dell’econofisica.

2. Autocorrelazione: Un altro fatto stilizzato studiato dall’econofisica si riferisce all’osservazione nei dati reali di correlazioni e auto-correlazioni tra le variabili come i prezzi delle azioni, i ritorni, i volumi delle transazioni ecc. L’assunzione di un modello Gaussiano invece, implica l’assenza di auto-correlazioni per i ritorni finanziari cioe’ una loro indipendenza dalla scala temporale.

3. Clustering: le proprieta’ statistiche delle distribuzioni cambiano col tempo. Una tra queste caratteristiche piu’ conosciuta e’ il raggruppamento (clustering) della volatilita’. I grandi cambiamenti tendono a essere seguiti da cambiamenti grandi di entrambi i segni mentre i piccoli cambiamenti tendono a essere seguiti da piccoli cambiamenti. Piu’ precisamente i ritorni assoluti o elevati al quadrato mostrano una funzione di auto-correlazione che decade lentamente nel tempo.

4. Aggregazione normale: aggregando i ritorni dei prezzi su scale temporali sempre piu’ lunghe fa si che la distribuzione si sposti da fortemente leptocurtica a quasi normale (gaussiana).

Macroeconomia e organizzazioni industriali

Molti studiosi si sono dedicati anche allo studio dei moltissimi dati generati dalle aziende come vendite, numero di impiegati, numero di pezzi prodotti ecc. Tra questi G. Stanley ha analizzato le aziende americane utilizzando il data base Standard and Poor’s COMPUSTAT. Qui di seguito quello che ha trovato:

1. La dimensione delle aziende americane segue una distribuzione log-normale

2. Esiste una relazione tra la deviazione standard σ dei tassi di crescita delle aziende e la dimensione s:

con beta quasi uguale a 0.2.

3. La densita’ condizionale dei tassi di crescita annuali delle aziende p(rt|st-1) con s la dimensione dell’azienda (per es. il numero di impiegati) e r il suo tasso di crescita, rt=st-st-1 ha una forma esponenziale:

La proprieta’ 1) e’ ben conosciuta e prende il nome di legge di “Gibrat dell’effetto proporzionale”: se il processo di crescita delle aziende e’ guidato da un semplice processo stocastico con tassi di crescita indipendenti e distribuiti normalmente, allora la dispersione delle dimensioni delle aziende all’interno dell’economia segue la distribuzione log-normale. Non tutti gli studiosi, comunque sono concordi   sulla  distribuzione log-normale.   Alcuni    infatti   ritengono  che  la  distribuzione di Pareto  

s~s0r-0.6

con coefficiente uguale a -0.6 sia piu’ adatta a fittare i dati reali (di nuovo una legge di potenza). r rappresenta il ranking delle aziende in base alla loro dimensione. Se l’azienda piu’ grande di America, per esempio, ha 100000 impiegati, allora quella in posizione dieci ne avra’ ~10. Questo significa che le persone si aggregano insieme per formare un’azienda e le aziende a loro volta si aggregano insieme. Gli impiegati di un'azienda hanno abilita’ eterogenee, esibiscono una razionalita’ limitata e interagiscono direttamente uno con l’altro fuori dall’equilibrio in team di produzione. Ogni impiegato fa parte di un’azienda e ogni azienda ha una sua locazione spaziale (geografica). Spesso gli impiegati tendono a cambiare azienda per avere uno stipendio maggiore o addirittura per creare una nuova azienda. Nel tempo il movimento di questi lavoratori da un’azienda a un’altra si combina con il movimento delle aziende da una locazione a un’altra dando origine a dei clusters di lavoratori e di aziende. Questo modello oltre a spiegare la legge di potenza osservata per le aziende spiega anche quella osservata per la dimensione delle citta’ come evidenziato nel grafico sottostante.

Conclusioni

Qualunque cosa faccia il mercato azionario, la gente vuole sapere come l’ha fatta, perché, e per quale motivo non ha fatto qualcosa di diverso

Richard S. Wurman, professore al Massachusetts Institute of Technology di Boston uno dei massimi esperti mondiali di gestione dell’informazione, ben descrive con queste parole l’ansia da informazione che affligge il nostro tempo.

Lo studio dei mercati finanziari finalizzato a una previsione tendente a matematiche certezze, è destinato ad avere sempre più un ruolo primario per l’economia globale. Una simile tendenza è stata fotografata dalla rivista Science attraverso un’indagine fatta un po’ anni fa dalla quale si evince che “nel 2007 due studiosi su quattro che hanno ricevuto il dottorato in fisica teorica a Harvard, lavorano a Wall Street ... dei circa venti che hanno ricevuto il dottorato in fisica teorica durante gli ultimi cinque anni dall'università di Stanford, solo due o tre lavorano ancora nel campo della fisica, mentre otto o nove stanno lavorando nella finanza”. L’impiego dei fisici in altre discipline come l’economia e’ stato possibile grazie ai nuovi concetti emersi negli ultimi anni.  Il “riduzionismo”, il concetto di “equilibrio asintotico”, la “linearità” dei modelli, che hanno caratterizzato da sempre la fisica newtoniana, stanno lasciando il posto allo studio delle dinamiche non lineari. L’introduzione massiccia dei calcolatori ha permesso lo studio delle dinamiche non lineari in maniera nativa e senza la necessità di effettuare approssimazioni. La fisica e la matematica, sono state interessate da un proliferare di nuovi concetti come quelli di caos deterministico, frattali e complessità, che ne hanno letteralmente rivoluzionato l’approccio creando nuovi settori di ricerca. Come gia’ ribadito piu’ volte in questo blog nei sistemi complessi, piccole perturbazioni si amplificano fino a generare modelli del tutto imprevedibili secondo leggi deterministiche; modelli che comunque si dimostrano robusti e stabili. Il mercato globale presenta le medesime caratteristiche di un sistema complesso governato da dinamiche non lineari, caos deterministico e processi stocastici. Per Eugene Stanley, professore di fisica alla Boston University e gia’ citato in questo post, dal punto di vista della meccanica statistica, l'economia è un semplice fenomeno e conoscere le leggi della fisica facilita, indubbiamente, il compito di maneggiare ampi insiemi di dati. Ecco quindi spiegato il connubio fra fisica ed economia, connubio dal quale, nel 1997, ha avuto origine l’Econofisica.

http://www.wikio.it