domenica 13 marzo 2016

Matematica e Google

 

image

Molte persone credono che la matematica sia una disciplina fine a se stessa molto astratta e praticamente inutile. I matematici vengono visti come esseri strani che vivono in un universo tutto loro e si occupano di cose che solo loro capiscono e che non servono nella vita di tutti i giorni.

E’ possibile che ci sia qualche cosa di vero in queste affermazioni. Ma di sicuro se non ci fossero stati gli sviluppi matematici fatti negli ultimi anni, molte delle funzionalità che oggi utilizziamo non sarebbero disponibili. La tecnologia avanza con l’avanzare della ricerca matematica e non solo. Anche se molti di noi non se ne accorgono, ogni giorno facciamo uso della matematica. Vogliamo fare un elenco delle applicazioni che vedono coinvolta la ricerca matematica? Proviamoci.

· Fotografia digitale

· Musica digitale

· Film e tv digitali

· Telefonia mobile

· Crittografia

· Navigatore satellitare

· TAC (tomografia assiale computerizzata)

· Previsioni meteo

· Analisi di rischio

· Analisi di economia

· Internet

e tante altre. In questo post, come si intuisce dal titolo ci occuperemo di Internet e in particolare del Page Ranking di Google cioe’ dell’algoritmo utilizzato da Google per assegnare un fattore di importanza alle pagine trovate dal motore di ricerca.

Due studenti dell’Università’ di Stanford, Sergey Brin e Larry Page, hanno fatto la loro fortuna inventando uno dei più potenti motori di ricerca del web “Google”.

Ma cosa deve fare esattamente un motore di ricerca?

Semplicemente ordinare le pagine presenti sul web in base alla loro importanza ogni qualvolta un utente effettua una ricerca. Ma come si può definire l’importanza (page rank) di una pagina?

L’idea dei due studenti e’ stata la seguente.

Ogni pagina web ha una sua propria importanza che deriva dalle connessioni (non direttamente dai contenuti). L’importanza di una pagina viene trasferita in parti uguali alle pagine che essa punta. Quindi l’importanza di una pagina e’ data dalla somma delle frazioni di importanza che gli derivano dalle pagine che ad essa puntano. Facendo ricorso ad una analogia nella vita di tutti i giorni: una persona importante da’ importanza alle persone che frequenta e allo stesso tempo una persona e’ importante se frequenta molte persone importanti.

Passiamo al modello matematico. Supponiamo di numerare le pagine del web da 1 a n. Definiamo la matrice di connettività nel seguente modo:

image

dove i vari elementi sono uguali a 1 se c’e’ un link tra la pagina i e la pagina j altrimenti sono uguali a zero. Facciamo un esempio con 4 pagine, cioè n=4 e supponiamo di avere la seguente matrice di connettività:

image

Schematizziamo le connessioni tra le varie pagine con delle frecce ottenendo il seguente grafo:

image

Sommando i valori della riga i si trova il numero di link che partono dalla pagina i. Indichiamo questo numero con Pi. Sommando, invece, i valori della colonna j si trova il numero di pagine che puntano alla pagina j che indicheremo con Aj. Se adesso indichiamo con xj l’importanza della pagina j risulta che:

image

per j che varia da 1 a n. Considerando il sistema di 4 pagine precedente, possiamo per esempio scrivere:

image

Si tratta, in generale, di un sistema lineare di n equazioni in n incognite. Le soluzioni xj danno il livello di importanza delle singole pagine, cioè il page rank.

Ad oggi, pensate che ci sono circa n=8500000000 pagine attive.

Comunque l’equazione da noi ricavata e’ una versione semplificata. In effetti quella usata da Google e’ data da:

image

dove d e’ un parametro compreso fra 0 e 1, che di solito viene messo a 0.85. I valori di xj sono compresi tra 0 (pagina non importante) e 1 (pagina importantissima.

Ma e’ possibile risolvere un sistema lineare con 8.5 miliardi di incognite? Se utilizzassimo il metodo di eliminazione questo richiederebbe circa 4*109 operazioni matematiche. Sic!

Il calcolatore più veloce esistente al mondo (il Blue Gene dell’IBM) richiederebbe più di 36 milioni di anni per risolvere un tale sistema. Un tempo da ere geologiche....

Eppure Page e Brin calcolano il page rank in continuazione. Come fanno?

Anche se la tecnologia fosse in grado di costruire un computer 1000 volte o anche un milione di volte più veloce sarebbe sempre impossibile risolvere il problema di Google in tempo reale. E allora?

La soluzione la si può ottenere solo sviluppando nuovi metodi matematici. E’ quello che hanno fatto i due sviluppatori di Google che utilizzano il seguente algoritmo.

Prima di tutto assegnano alle pagine dei valori di importanza xj qualsiasi. Inizialmente non importa quale sia il valore. Dopo di che si sostituiscono questi numeri nell’equazione riportata precedentemente ricavando dei nuovi valori di importanza in accordo alla matrice di connettività e ai valori di Pi. A questo punto si inseriscono sempre nella stessa equazione come valori di ingresso xj quelli appena ottenuti. E si ricavano nuovi valori e cosi via. In questo modo viene generata una successione di approssimazioni successive che converge alla soluzione del sistema qualunque siano i valori iniziali utilizzati. Nella figura qui sotto viene riportato l’andamento delle soluzioni del sistema per il caso di 4 pagine riportato sopra come esempio. Notiamo la rapida convergenza delle soluzioni.

image

Andamento delle soluzioni del sistema Page rank per il caso di 4 pagine

Per fare un passo dell’algoritmo qui descritto bisogna eseguire tante moltiplicazioni quanti sono gli elementi non nulli della matrice di connettività C e all’incirca altrettante addizioni. Su ogni riga della matrice C, comunque, mediamente ci sono pochi elementi diversi da zero. Se supponiamo che questo numero sia 50, un passo del metodo iterativo spiegato, su Blue Gene impiegherebbe solo 2 millesimi di secondo. Se anche fossero necessari 1000 passi iterativi basterebbero 2 secondi per approssimare la soluzione di Google.

Fin dalla sua introduzione l’equazione del PageRank  ha ricevuto l’attenzione di moltissimi studiosi che hanno cercato di migliore in tutti i modi il metodo di soluzione del sistema lineare. Qualche anno fa ugruppo di studiosi, tra cui alcuni italiani dell’università’ di Roma e Cagliari, hanno usato un nuovo approccio molto più veloce di quelli esistenti oggi, ricorrendo ad un’analogia con la Fisica Quantistica. In particolare, hanno mostrato che e’ possibile riarrangiare l’equazione Page Rank in modo da ottenere un’equazione simile all’equazione di Schrödinger.

Vi ricordo che l'equazione di Schrödinger rappresenta una delle più importanti conquiste della fisica ed in particolare della meccanica quantistica. Quest'ultima, risalente alla metà degli anni venti e’ stata sviluppata soprattutto da de Broglie e Schrödinger e si basa sul cosiddetto approccio ondulatorio della materia. In questa ottica, si rappresentano le particelle con delle funzioni d'onda in quanto si e’ visto che in certi esperimenti le particelle elementari mostrano comportamenti ondulatori. La funzione d’onda va interpretata in termini probabilistici, cioè il suo modulo al quadrato altro non rappresenta che la probabilità di trovare la particella in un punto x al tempo t. L’equazione di Schrodinger e’ scritta come:

image

dove psi e’ la funzione d’onda, i e’ l’unita immaginaria, h tagliato una costante fisica, m la massa della particella, V(x) il potenziale in cui e’ immersa la particella e i simboli d/dt e d2/dx2 sono la derivata rispetto al tempo e la derivata seconda rispetto alla posizione rispettivamente. Si rimanda il lettore ad un qualsiasi testo di analisi matematica per la definizione di derivata. In parole molto semplici la derivata di una funzione f rispetto al tempo, df/dt , indica quanto rapidamente f cambia al variare del tempo.

Esprimere il PageRank in termini di una funzione d’onda che obbedisce ad un’equazione simil-Schrödinger permette, secondo questo studio, di localizzare velocemente le pagine con un rank più alto senza utilizzare procedure iterative, chiarendo nel contempo il ruolo della topologia nella diffusione delle informazioni nelle reti complesse.

Nell’equazione riarrangiata del PageRank, il potenziale V dell’equazione di Schrödinger corrisponde alla differenza tra il numero di links entranti Pj e il numero di links uscenti Aj da ogni pagina (i nodi della rete mostrata qui di seguito).

 

image

Rappresentazione dell’equazione PageRank e la sua controparte quantistica. Nelle immagini in basso vengono rappresentati il potenziale V e il corrispondente PageRank misurato lungo dei dischi concentrici intorno ad un vertice.

Quando il potenziale V e’ minore di zero (minima energia) la funzione d’onda dell’equazione PageRank e’ localizzata in questa buca di potenziale e il suo valore e’ massimo, indicando che quel nodo, cioè la pagina e’ importante.

Allo stesso modo, quando il potenziale V e’ positivo la funziona d’onda e’ localizzata in questo picco di potenziale e mostra il suo valore più basso, indicando che la pagina non e’ importante.

Questa analogia formale con la fisica quantistica mette a disposizione dello studio del PageRank una serie di strumenti teorici consolidati, sviluppati dai fisici, come la teoria perturbativa.

La differenza di scala tra il mondo delle particelle sub-atomiche ed il Web è enorme ma i ricercatori sono convinti che il loro lavoro potrà portare benefici a tutto quel campo di ricerca che si collega al  PageRank  e che comprende, per esempio, la propagazione della fiducia nei social network od una più efficiente classificazione delle pagine web.

image

Curve di livello del potenziale V e della funzione d’onda. Si può vedere come in prossimità del minimo del potenziale corrisponde il massimo della funzione d’onda e quindi dell’importanza della pagina web. Il calcolo e’ stato effettuato sempre considerando i dischi concentrici dell’immagine precedente

sabato 9 gennaio 2016

Ma i numeri primi sono veramente casuali?

Prima di tutto vediamo cosa significa casualità o come dicono gli inglesi randomness.

Per randomness i matematici e fisici intendono il caos, l’imprevedibilità, l’assenza di strutture interne, l’assenza di qualsiasi particolare configurazione. Per generare un risultato randomico , normalmente si usa una moneta o un dado. Ma nel caso di una sequenza di numeri, come per esempio quella dei numeri primi , 2, 3, 5, 7, 11,13,17,19, 23…. che cosa significa randomico? Semplicemente che non è possibile trovare un algoritmo, una formula matemtica che riproduca esattamente la sequenza, cioè che non è possibile determinare il prossimo termine della sequenza a partire da quelli conosciuti.

Prima dell’avvento della meccanica quantistica c’era un comune accordo tra tutti gli scienziati che “Dio non gioca ai dadi”, cioè la casualità nel lancio di una moneta era solo dovuto al risultato della nostra ignoranza su tutte le forze coinvolte. Se avessimo conosciuto tutto con esattezza allora la casualità sarebbe scomparsa.

La meccanica quantistica, invece, ha mostrato che Dio gioca ai dadi: il comportamento della materia a livello microscopico è imprevedibile. Non c’è modo di prevedere, per esempio, quando un nucleo radioattivo decadrà.

Un team di ricercatori, nel 2003, ha fatto una scoperta proprio sulla distribuzione dei numeri primi nella sequenza dei numeri interi. Il Team costituito da tre fisici dell’Università di Boston, Pradeep Kumar, Plamen Ivanov e Eugene Stanley, ha trovato una specie di ordine nella distribuzione dei primi che mai nessuno aveva notato.

Essi hanno considerato la distanza tra due numeri primi consecutivi e poi la differenza tra queste distanze chiamandola incremento. Per i numeri primi  minori di 20 abbiamo 1, 2, 2, 4, 2, 4, 2 come distanze e 1, 0, 2, -2, 2, -2 come incrementi (vedi figura 1).

Considerando tutti i numeri primi  minori di 50.000.000 hanno trovato che la distribuzione degli incrementi non è quella di una sequenza randomica in quanto esibisce degli alti picchi in corrispondenza di determinati valori di incrementi, dei picchi medi e picchi bassi per altri valori, con una chiara oscillazione di periodo 3 (vedi figura 2). I valori positivi sono quasi sempre seguiti da valori corrispondenti negativi. La frequenza degli incrementi decresce esponenzialmente e questo andamento è evidente sia per i picchi alti che per quelli bassi, formando una forma a “doppia tenda” (vedi figura 2 (b)). Inoltre la frequenza per gli incrementi positivi e quelli negativi è quasi la stessa come si può vedere nella figura 2.

 

Figura 1 Distanze tra numeri primi consecutivi (a) e i loro incrementi (b).

 

Figura 2 Istogramma degli incrementi per il primo milione di numeri primi. La frequenza con cui compaiono gli incrementi mostra un sistema oscillante con periodo 3. Gli incrementi con valori (6k+2) e –(6k+2) per k=0,1,2,3... sono quelli più frequenti. Seguono gli incrementi con valori (6k+4) e –(6k+4) e poi ci sono quelli rari in corrispondenza degli incrementi 6k e -6k (a). Al centro viene riportata la stessa distribuzione ma in scala semilogaritmica (b). E nell’ultimo grafico (c) la stessa cosa ma prendendo il valore assoluto dei valori negativi. Si può vedere chiaramente una legge di potenza.

 

Due ricercatori cinesi hanno ottenuto dei risultati analoghi effettuando dei test di randomness (chiamati FIPS che sta per Federal Information processing Standard) sulla stessa sequenza degli incrementi usata dai tre fisici di Boston. Il test statistico è costituito da 4 differenti sotto-test che sono utilizzati per verificare se una sequenza di numeri è realmente casuale. I risultati ottenuti hanno evidenziato che dei 4 sotto-test effettuati solo due hanno superato la verifica. Questo significa che la distribuzione dei numeri primi non sembra essere una sequenza casuale in senso stretto confermando i risultati dei ricercatori di Boston.

Della serie, casuale (randomica) ma non troppo. Se anche Dio si divertisse a giocare con i dadi, per i numeri primi deve essere successo qualche cosa di strano che al momento non ci è dato sapere.

Un risultato analogo per gli incrementi è visibile anche nella sequenza delle distanze tra i numeri primi. In un mio lavoro, pubblicato sulla rivista matematica SNJ (Smarandache Notions Journal) nel 2002, è riportato l’istogramma della frequenza delle distanze diviso 2 in scala lineare e semilogaritmica (vedi figura 3) da cui si evince un andamento oscillante sovrapposto ad un comportamento esponenziale. In questo caso i picchi delle frequenze sono in corrispondenza delle distanze i cui valori sono multipli di 3.

 

Figura 3 Istogramma delle distanze in scala lineare e semilogaritmica.(Da un articolo dell’autore pubblicato sul giornale SNJ n.13 del 2002)

 

E la sorpresa non finisce qui. La distribuzione dei numeri primi, infatti, mostra un’altra caratteristica che è comune a molti sistemi naturali: il cosiddetto rumore rosa. In fisica si definisce rumore rosa o rumore 1/f, un particolare tipo di rumore in cui le componenti a bassa frequenza f hanno potenza (energia per unità di tempo) maggiore di quelle ad alta frequenza, a differenza del rumore bianco, invece, in cui la potenza è uguale per qualsiasi frequenza (vedi figura 4).

 

Figura 4 Rumore rosa (destra) e rumore bianco (sinistra). Sull’asse verticale viene riportata la potenza e su quello orizzontale la frequenza. Si vede chiaramente che il rumore rosa si concentra nella regione delle basse frequenze mentre quello bianco dappertutto.

 

Se indichiamo con S(f) lo spettro di potenza in funzione della frequenza f,  per il rumore rosa varrà una legge del tipo:    

S(f)=k/fb

dove b è un coefficiente il cui valore è compreso tra 0 e 2 e k una costante. 

Un fisico teorico dell’Università Polacca, Marek Wolf, in un suo articolo ha mostrato che il numero di primi all’interno di particolari intervalli di interi si comporta come un segnale con rumore rosa. In particolare per tutti gli interi tra 1 e N, vengono formati M intervalli di lunghezza L in modo che M=N/L. Dopo di che vengono contati quanti numeri primi ci sono in ogni intervallo formando una sequenza 

XL(t) 

con t=1 per il primo intervallo, 2 per il secondo e cosi via. Nella figura 5 viene mostrato l’andamento di questa sequenza in funzione di t. Calcolando lo spettro di potenza  di questa sequenza, interpretata come un segnale temporale, Wolf si è accorto che esso si comporta come il rumore rosa con un coefficiente pari a 1.64:

SX(f)=k/f1.64

 

Figura 5 Andamento della sequenza XL (vedi testo per la definizione) in funzione di t

 

Nella figura 6, in scala logaritmica viene riportato lo spettro S in funzione della frequenza. Si può vedere chiaramente che indipendentemente dalla lunghezza scelta per gli intervalli, c’è un andamento lineare tra le due variabili, cioè:

ln(SX(f))~b*ln(f) --> SX(f)~f-b

L’indipendenza di b da l sembra suggerire una qualche sorta di auto-similarità nella distribuzione dei primi, un fenomeno già osservato in altri contesti. Questo significa che il tutto sembra essere simile alla parte che è una caratteristica fondamentale della teoria dei frattali piu’ volte trattati in questo blog.

Molti dei sistemi naturali che mostrano un rumore rosa, sono stati spiegati ricorrendo a modelli di tipo SOC  (Self organized criticality), cioè sistemi che autonomamente si auto-organizzano  in uno stato critico come i mucchietti di sabbia, i terremoti o gli incendi delle foreste.

 

Figura 6 Spettro di frequenza della sequenza XL . È chiaro l’andamento lineare indipendente dalla lunghezza degli intervalli.

 

Si tratta di sistemi in uno stato critico. Basta una piccola variazione in ingresso per produrre grosse variazioni in uscita (come il granello di sabbia che può innescare una valanga). La stessa vita può essere interpretata come un sistema in uno stato critico. In bilico tra l’ordine e il caos, la frontiera dove il comportamento di un sistema può essere estremamente complesso. Un po’ a sinistra di questa frontiera e il sistema diventa regolare, ordinato; un po’ a destra e diventa altamente disordinato. La vita è continuamente in bilico tra ordine e disordine. Il primo a parlare di SOC fu il fisico Bak , per spiegare il comportamento dei granelli di sabbia osservato in un suo esperimento che consisteva nel far cadere un granello alla volta al di sopra di un piano. Il più delle volte al cadere di un unico granello di sabbia non succedeva praticamente nulla di significativo. Altre volte invece il granello innescava una reazione a catena nel mucchietto di sabbia, con la generazione di una valanga. Bak  modellò questo sistema con un reticolo bidimensionale e delle regole molto semplici. In modo casuale erano fatti cadere dei granelli di sabbia all’interno del reticolo. Se una cella conteneva più di 4 granelli, questi venivano ridistribuiti alle 4 celle adiacenti o perse al di fuori della frontiera del reticolo. La ridistribuzione portava a delle instabilità con la possibilità di produrre valanghe di dimensioni sempre più grandi (vedi figura 7).

 

Figura 7 Modello del mucchietto di sabbia usato da Bak. I numeri nelle griglie rappresentano il numero di granelli al tempo t. Le diverse rappresentazioni sono immagini del modello a diversi istanti di tempo (da sinistra verso destra e dall’alto verso il basso). Quando una cella raggiunge 4 c’è una ridistribuzione dei granelli nei primi vicini. In nero viene rappresentata una valanga.

 

Misurando la dimensione di tutte le valanghe prodotte, Bak  si accorse, che come per il rumore rosa, alla base del sistema c’era una legge di potenza (vedi figura 8).

Le piccole valanghe erano molto più frequenti di quelle catastrofiche cosi come succede per i terremoti ,  la dimensione degli incendi  nelle foreste, il numero di vittime di un attacco terroristico, il numero di vittime delle guerre e cosi via. Emerge sempre una legge di potenza anche se con coefficienti diversi tra loro (vedi figura 9). Tornando ai numeri primi  questo significa che anche essi possono essere consierati come un sistema in uno stato di criticità auto-organizzata? E se questo fosse vero cosa ha spinto questo insieme verso la criticita’?  Domande a cui nessuno oggi sa rispondere. 

 

Figura 8 Frequenza P(S) delle dimensioni S delle valanghe nel modello del mucchietto di sabbia di Bak. Notare la scala bi logaritmica. Si tratta di una legge di potenza, che evidenzia come ci sia un elevato numero di valanghe di piccole dimensioni e poche valanghe catastrofiche.

 

Figura 9 Legge di potenza per diversi sistemi come: terremoti (f), nomi persone (k) e popolazione citta'(l). Sull’asse verticale è riportata la probabilità che l’evento si verifichi.

mercoledì 25 novembre 2015

La scienza della criticita’ autorganizzata. Una passeggiata attraverso sistemi fisici, biologici, sociali e aziendali

 

“Bisogna unire cio’ che e’ completo e cio’ che non lo e’,

cio’ che e’ concordee cio’ che e’ discorde, cio’ che e’

in armonia e cio’ che e’ in contrasto”

Il mese di Novembre il Complexity Institute organizza il “Complexity Management Literacy Meeting “. Questo incontro nasce da un’idea del prof. Alberto Felice De Toni (Rettore dell’Universita’ di Udine) per condividere le letture in tema di Complexity Management. L’evento e’ al suo secondo anno con sede a Fiesole. L’anno scorso ho avuto la possibilita’ di presentare un libro che io ritengo molto importante per chi lavora sulla complessita’: How neature works di Per Bak un fisico danese morto prematuramente nel 2002. Il libro (che si trova solo in inglese) ben scritto e condensato segue un doppio filo narrativo: la teoria SOC (self-organizing criticality) con diversi esempi pratici, e le opinioni/critiche dell’autore alla scienza moderna. Per poter introdurre la teoria SOC bisogna un attimo spendere qualche parola sulla legge di potenza  (piu’ volte discussa in questo blog). Si tratta di una legge del tipo:

N(x)=ax-s

con a una costante e s l’esponente della potenza. In un grafico a doppia scala logaritmica questa appare come una linea retta in quanto in base alle proprieta’ dei logaritmi abbiamo:

Ln(N(x))=Ln(a)-sLn(x)

Come pdf (probability density function) invece, la legge di potenza appare come una curva rassomigliante ad un dinosauro della specie diplodocus. Moltissimi risultati cadono nella prima parte dell’asse x (valori bassi) e pochi risultati a valori elevati di x (la coda della distribuzione o del diplodocus  se volete). Quale e’ la caratteristica particolare che fa di questa legge una legge molto comune in natura? La sua invarianza di scala . A qualsiasi ingrandimento la osserviamo appare sempre la stessa. Il tutto e’ uguale alle parti e viceversa. Ma questo ci ricorda degli enti geometrici altrettanto importanti e famosi: i frattali. Alla base di questi oggetti, infatti c’e’ una legge di potenza  all’azione che fa si per esempio che un piccolo ramo assomigli all’albero intero o che un piccolo pezzo di broccolo romanesco assomigli all’intero cavolo. 

In termini matematici l’invarianza di scala significa che se moltiplichiamo la x per un fattore c la forma matematica della y non cambia:

N(cx)=a(cx)-s=ac-sx-s=a’x-s

con a’=ac-s una nuova costante. Un oggetto geometrico autosimilare (cioe’ che soddisfa l’invarianza di scala ) e’ la cosiddetta curva di Koch:

Questi oggetti furono scoperti nel 1979 dal matematico polacco Benoit Mandelbrot. Per capire di cosa si tratta supponiamo di voler misurare la lunghezza della costa dell’Inghilterra. Partiamo con un righello di lunghezza l e misurariamo la costa. Fatto cio’, riduciamo il righello di un certo fattore  e rimisuriamo di nuovo. E cosi via. Cosi facendo ci accorgiamo che non esiste una sola misura della costa dell’Inghilterra ma tante a seconda della lunghezza del righello utilizzato (sensibilita’ della misura). Questo significa che non c’e’ una scala unica ma tante scale. Vale la relazione:

L=Al-D con 1<D<2

dove L e’ il perimetro dell’Inghilterra ed l la lunghezza del righello. La costante D (un numero reale) e’ detta la dimensione frattale. In questo caso D vale ~1.25. Questo significa che la spezzata sovrapposta all’isola dell’Inghilterra e’ un oggetto geometrico che sta tra una linea (D=1) e una superficie (D=2).

Osserviamo che D altro non e’ che la pendenza della retta in scala bilogaritmica  di equazione:

Ln(L)=Ln(A)-DLn(l)

Mandelbrot  ha dato il suo nome anche ad uno dei frattali piu’ belli e misteriosi mai scoperti che solo la potenza di calcolo dei computer ci ha permesso di ammirare. Puo’ essere generato utilizzando un sistema di 2 equazioni:

e colorando opportunamente i punti del piano (x,y) a seconda della velocita’ di fuga all’infinito delle soluzioni dopo un certo numero di iterazioni. Nell’immagine seguente i punti in nero sono quelli che rimangono intrappolati e non riescono a scappare all’infinito. Gli altri colori invece indicano la velocita’ con cui le soluzioni esplodono all’infinito.

Grazie all’autosimilarita’ , gli oggetti frattali seguono la legge di potenza e quindi la distribuzione con lunga coda (detta di anche distribuzione di Pareto) dove non c’e’ alcun valore tipico intorno al quale si disperdono gli altri valori. Per gli oggetti non frattali accade esattamente l’opposto: la distribuzione dei valori e’ Gaussiana  e quindi c’e’ un valore medio ben definito con la maggior parte dei punti concentrati intorno ad esso. Un esempio e’ quello mostrato nell’immagine sottostante dove i dischi hanno un diametro di 1 cm e che a causa degli errori randomici puo’ oscillare intorno a questo valore medio.

Ben diversa la situazione di un insieme di dischi con diametro variabile da valori piccoli fino a valori molto grandi come accade per esempio con le dimensioni del pietrisco presente su una spiaggia.

Gli oggetti frattali matematici sono diversi da quelli che si trovano in Natura in quanto solo con la matematica e’ possibile iterare il processo all’infinito. Questo comunque non toglie nulla alla bellezza di tali pseudo-frattali come mostrato nelle immagini seguenti.

Se alla base dei frattali c’e’ la legge di potenza allora questa e’ la firma dei sistemi complessi. Quest’ultimi infatti nello spazio delle fasi (lo spazio i cui punti rappresentano gli stati possibili del sistema) generano strutture molto belle chiamate attrattori strani  e altro non sono che degli oggetti frattali. L’esempio piu’ noto e’ l’attrattore strano di Lorenz anche chiamato “farfalla di Lorenz”.

Esso rappresenta l’evoluzione nello spazio delle fasi del tempo meteorologico. Quando lo stato del sistema arriva in questa regione, esso rimarra’ intrappolato per tutto il tempo e descrivera’ una curva particolare che si avvolgera’ su stessa senza intersecarsi mai in alcun punto. Queste curve, man mano che il sistema cambia nel tempo, diventano sempre piu’ complesse, annodandosi su stesse, stratificandosi e dando vita a forme particolari. Il concetto di complessità, in contrapposizione al riduzionismo  della fisica classica, si è affermato come un formidabile apparato interpretativo di vari fenomeni fisici, biologici e sociali. Nell'approccio riduzionista, il comportamento di un sistema è compreso, quando è noto il comportamento di tutte le singole parti che lo compongono. Per quanto complicata possa essere una struttura, la comprensione delle sue componenti semplici, è sufficiente per comprenderne il tutto. È per tale motivo che possiamo costruire un orologio o una memoria a semiconduttori. L'orologio potrà essere composto da oltre 500 elementi, tra loro interconnessi con vari ingranaggi, ma il suo comportamento non ci riserverà mai sorprese. Esso sara’ lineare. Piccoli cambiamenti in entrata produrranno solo e sempre piccoli cambiamenti in uscita. Nei comportamenti complessi le cose invece non vanno esattamente così. Una cellula biologica per esempio, è composta da un insieme di elementi: nucleo, mitocondri, membrana, apparato del Golgi ecc., ma difficilmente potremo comprendere il comportamento della cellula, semplicemente andando ad analizzare il comportamento delle sue componenti. Allo stesso modo, non può essere compreso il comportamento del cervello, anche se sappiamo come si comporta il singolo neurone. In questo senso il comportamento dei sistemi complessi è emergente.

Anche se la fisica e’ espressa con semplici ed eleganti formule matematiche come F = ma , la nostra esperienza giornaliera ci racconta una realta’ che tanto semplice non e’. La superficie della terra e’ un intricato conglomerato di montagne, oceani, isole, fiumi, vulcani, terremoti, tornado ognuno con una sua propria dinamica interna. Non e’ forse tutto cio’ complesso? Gli alberi per caso sono triangoli e cilindri? Le montagne delle piramidi? Le nuvole delle sfere? La geometria Euclidea non e’ quella della Natura. La geometria della natura e’ quella frattale. Il comportamento complesso della Natura riflette la tendenza dei sistemi a molte componenti con interazioni non lineari ad evolvere in uno stato critico il cui attrattore nello spazio delle fasi e’ un frattale. E qui entra in gioco la teoria sviluppata da Per Bak denominata SOC. Quando un sistema complesso senza variare alcun parametro interno ma solo grazie ad una lenta e piccola perturbazione esterna si porta in uno stato critico (terremoti, valanghe, incendi delle foreste etc.) fuori dall’equilibrio anche un piccolo cambiamento in ingresso puo’ portare ad una risposta catastrofica. Gli eventi catastrofici hanno la stessa causa di quelli di piccola entita’. Quando un sistema e’ in uno stato critico e risponde ad una qualsiasi perturbazione puo’ generare eventi di tutte le dimensioni. Da quelli insignificanti a quelli catastrofici. Di nuovo una legge di scala e quindi una legge di potenza. L’esempio utilizzato da Per Bak e’ quello del mucchietto di sabbia. Supponiamo di avere un tavolo e di far cadere su di esso della sabbia. Man mano che questa cade crescera’ un mucchietto fino a che questo non raggiungera’ una certa altezza critica. Se adesso facciamo cadere un granello alla volta questo trasferira’ dell’energia al mucchietto. Il sistema e’ da considerare come un network aperto costituito da un numero elevato di componenti (granelli) interagenti tra loro in modo non lineare. L’energia rilasciata dal granello che cade sul mucchietto viene dissipata dal sistema stesso attraverso la generazione di valanghe di diverse dimensioni che riporteranno il sistema di nuovo nel suo stato critico.

I sistemi che sono all’equilibrio non possono in nessun modo mostrare segni di SOC. Essi devono essere per forza all’edge of chaos, cioe’ in bilico continuo tra ordine e disordine come gia’ piu’ volte sottolineato in diversi post di questo blog.

Dopo lo sviluppo della teoria SOC da parte di Per Bak, e’ stato verificato che tantissimi altri sistemi complessi anche molto diversi tra loro sono tutti riconducibili ad un semplice modello matematico dotato della stessa logica di base e di una stessa firma matematica: la legge di potenza. Ordine e disordine sono due situazioni estreme ma tutto sommato facili da trattare. La stessa cosa non e’ vera per le situazioni intermedie a cavallo dell’orlo del caos, cioe’ per sistemi complessi lontani dall’equilibrio che non soddisfano l’ipotesi di ergodica’ in quanto visitano regioni dello spazio delle fasi in modo diseguale, muovendosi su di un attrattore strano.

Quale e’ il motivo per cui i sistemi complessi abbiano scelto degli attrattori strani nello spazio matematico delle fasi diventa quindi chiaro. L’adozione di una dinamica critica infatti, permette al sistema di evitare i minuscoli attrattori classici forniti dalla dinamica dissipativa. Un esempio di un cosiddetto ciclo limite nello spazio delle fasi chiarira’ meglio il concetto di attrattore classico. Traiettorie che partono da punti iniziali diversi si avvicinano sempre piu’ all’orbita periodica finale. E da qui il sistema non puo’ piu’ sfuggire. Rimane come congelato nel ghiaccio del mondo delle fasi.

Cosa fare quindi per non rimanere congelati ed avere cosi’ la possibilita’ di adattarsi ai cambiamenti esterni? E’ necessario uno spazio maggiore da percorrere pur rimanendo in un volume ristretto. E questo lo puo’ garantire solo un oggetto frattale come l’attrattore strano. Il sistema rimane confinato intorno all’attrattore senza mai essere intrappolato, garantendo cosi l’evoluzione e l’adattamento. Anche se questo e’ a scapito della prevedibilita’ a lungo termine. Come la teoria del chaos ci ha insegnato, un attrattore strano ha una dipendenza sensibile dalle condizioni iniziali. Traiettorie che partono vicine nello spazio delle fasi nel tempo divergono esponenzialmente muovendosi lungo l’attrattore. Si tratta di quello che viene chiamato effetto farfalla. Un battito di ali a Buenos Aires puo’ generare un tornado a New York.

Ma come fece Per Bak ad arrivare alla sua teoria del SOC? Partendo da alcune osservazioni empiriche generali come la legge di Gutenberg-Richter  sui terremoti, l’andamento delle estinzioni biologiche, le transizioni di fase e la legge di Zipf  per citarne solo alcune. La prima come e’ facile capire fu elaborata da Gutenberg e Richter che osservarono come la magnitudo (cioe’ l’intensita’) dei terremoti segua una distribuzione di Pareto anziché la piu’ nota Gaussiana. Questo significa che se grafichiamo questa legge su due assi in scala logaritmica osserveremo una retta con pendenza negativa come per i terremoti registrati dal 1974 al 1983 nella zona New Madrid dell’USA.

Di nuovo una legge di potenza:

N~M-b

con N il numero di terremoti, M la magnitudo e b un esponente reale. Questa legge ad invarianza di scala ci dice semplicemente che i terremoti catastrofici sono solo dei terremoti partiti piccoli e che non si sono fermati subito. E’ come l’effetto domino. Un terremoto di piccole dimensioni equivale alla caduta di poche tessere dopo la perturbazione iniziale mentre un terremoto catastrofico equivale alla caduta di tutte le tessere una dopo l’altra. I terremoti di piccola intensita’ altro non sono che dei terremoti catastrofici mancati, morti precocemente senza arrecare gravi danni. Quello catastrofico e quello di piccola entita’ quindi condividono le stesse proprieta’ e caratteristiche. Non c’e’ nulla che distingua un terremoto piccolo da uno grande a parte la dimensione.

Se osserviamo la serie di grafici sottostanti vediamo come emerge una valanga simile a quella dell’esperimento del mucchietto di sabbia di Per Bak anche per I terremoti.

In alto a sinistra (a) viene raffigurato lo stress nel suolo prima di una scossa principale. La regione ingrandita e’ di colore arancione che indica un alto stress. In (b) invece viene riportato lo stress della stessa regione dopo la scossa principale e in (c) la differenza tra il dopo e il prima. Ecco apparire la “valanga” con gli elementi del network rotti che hanno rilasciato l’energia e quindi lo stress. Una volta che il sistema raggiunge lo stato critico basta una qualsiasi perturbazione anche molto piccola per innescare la scossa (la caduta delle tessere nell’effetto domino) e rilasciare cosi l’energia. Dopo questo evento il sistema si ri-allontanerà dall’equilibrio molto lentamente per portarsi gradualmente (senza alcun intervento esterno) di nuovo verso lo stato critico da cui si potra’ scatenare un nuovo terremoto di qualsiasi intensita’. Tutto questo ci fa capire bene come sia impossibile prevedere il giorno, l’ora e il posto dove avverra’ un terremoto nonche’ la sua magnitudo. Il sistema si autorganizza in modo autonomo e nessuno sa quando veramente raggiungera’ un livello altamente critico. E una volta che parte la scossa nessun potra’ sapere se diventera’ “grande” oppure no, in altri termini quante tessere verranno abbattute dall’effetto domino. Lasciamo adesso i terremoti per passare alle estinzioni biologiche. Con questo termine si intende la scomparsa definitiva di una specie sulla Terra (spesso indicata anche come estinzione di massa). Da non confondere invece con l’estinzione di base che altro non e’ che il rumore di fondo del processo evolutivo. Si tratta della continua scomparsa di famiglie, con una progressiva tendenza a calare nel corso delle ere geologiche. Le cause di queste estinzioni sono per lo piu’ da ricercarsi tra fattori locali quali competizione per spazio e cibo, predazioni e cosi via. Ad oggi esistono diversi modelli di estinzione. In particolare quelli piu’ importanti sono quello graduale e quello catastrofico ( o dell’equilibrio punteggiato). Quest’ultimo stabilisce che la maggior parte dei cambiamenti avvengono attraverso eventi catastrofici piu’ che con cambiamenti graduali come si credeva in passato. Ci sono lunghi periodi di stabilita’ intervallati a momenti di rapida differenziazione. Dopo le catastrofi ci sono delle vere e proprie esplosioni di vita.

Questo modello e’ suffragato dalle osservazioni empiriche come quelle riportate di seguito. Sulla sinistra abbiamo la percentuale di estinzione delle specie marine negli ultimi 600 milioni di anni mentre sulla destra la distribuzione di tali estinzioni. E’ chiara la comparsa di una legge di potenza. Tante estinzioni di piccole dimensioni e solo poche catastrofiche che danno una spinta all’evoluzione.

I due fenomeni riportati fin qui fanno intuire che in questi sistemi complessi fino a quanto non si raggiunge la criticita’ non succede quasi nulla. Una volta che questa viene superata la risposta del sistema e’ over amplificata e non c’e’ traccia di linearita’. Esattamente come avviene anche nelle transizioni di fase o nei sistemi percolativi. L’unica differenza significativa rispetto ai sistemi critici auto-organizzati e’ che i sistemi che subiscono transizioni di fase lo fanno perche’ c’e’ un parametro esterno che viene opportunamente modulato (per esempio la temperatura). La criticita’ quindi non e’ spontanea come per i sistemi critici autorganizzati dove basta una forza esterna ma e’ indotta. Un esempio molto noto di sistema percolativo e’ quello del ferromagnetismo. Alcune sostanze hanno la proprieta’ di acquistare una magnetizzazione, cioe’ un momento di dipolo magnetico, quando vengono immerse in un campo magnetico esterno (paramagnetici). Tra queste sostanze ce ne sono diverse che al di sotto di una temperatura critica rimangono magnetiche anche in assenza di campo esterno (magneti permanenti o sostanze ferromagnetiche). Nei materiali paramagnetici gli atomi possiedono un momento magnetico dovuto agli spin  degli elettroni (che possono essere pensati come tante piccole calamite a causa della rotazione su se stessi). In condizioni normali questi momenti magnetici sono orientati casualmente in tutte le direzioni e la risultante e’ zero. In presenza di un campo magnetico esterno pero’, essi si orientano nella stessa direzione del campo magnetico e la risultante non e’ piu’ nulla. La sostanza e’ diventata magnetica. Ma se eliminiamo il campo esterno termina anche il magnetismo della sostanza. Questo almeno per i materiali paramagnetici. Per quelli ferromagnetici invece se togliamo il campo esterno e la temperatura e’ al di sotto di quella che viene chiamata “temperatura critica”, il momento magnetico si annulla. Da dove deriva il ferromagnetismo? Dall’interazione di scambio fra i momenti magnetici atomici che favorisce l’allineamento degli spin  essendo l’energia di una coppia di spin allineati minore di quella di una coppia spaiata (forze all’ordine). Questa interazione e’ chiamata interazione di scambio e se e’ abbastanza forte riesce a contrastare l’effetto della temperatura (forza al disordine) che tende invece a disordinare i singoli momenti magnetici.

Questo fenomeno puo’ essere simulato con il cosiddetto modello di Ising. In due dimensioni possiamo pensare ad una matrice bidimensionale con ogni sito occupato da uno spin che puo’ assumere due stati up (+1) e down (-1). Partendo da una condizione iniziale completamente casuale, usando la temperatura come parametro esterno e l’interazione tra gli spin dei primi vicini si prova che al di sotto di un valore critico della temperatura si formano delle isole di spin up e isole di spin down (le valanghe del mucchietto di sabbia). Questo significa che il sistema ha due possibili stati e che al di la del segno risulta quindi magnetizzato. Al di sopra della temperatura critica la distribuzione degli spin e’ totalmente casuale e quindi la risultante e’ nulla cioe’ la sostanza risulta non magnetizzata.

Cosa succede a T=Tc ? Partono valanghe (isole) di spin di diverse dimensioni. E’ il punto dove una qualsiasi perturbazione esterna locale si espande facilmente all’intero sistema con tutti gli atomi vicini che collaborano a portare su o giu’ il loro spin. A questa temperatura avviene la cosiddetta percolazione del sistema, cioe’ si forma un path che permette da andare da un lato all’altro dello spazio delle fasi. Osservate per esempio la zona nera alla temperatura critica. Essa e’ continua tra il lato superiore e quello inferiore dello spazio. Lo stesso comportamento lo si ottiene nel caso si cerca di simulare come si diffondono gli incendi nelle foreste. Supponiamo di piazzare degli alberi a caso su una matrice rettangolare del piano (potrebbe essere l’equivalente di una cella nera) e ipotizziamo di appiccare il fuoco a qualcuno degli alberi presenti. Il fuoco passa da un albero all’altro solo se questi sono primi vicini tra loro. Qual’e’ la densita’ minima per cui il fuoco potenzialmente investe l’intera foresta? Si tratta di verificare per quale valore di densita’ (numeri di alberi per area) la simulazione porta ad un path percolativo. La soglia e’ un numero molto prossimo al 60% cioe’ 0.593. L’ultima evidenza empirica di sistemi con criticita’ organizzata e’ la cosiddetta legge di Zipf  gia’ riportata in passato in questo blog. La legge deve il suo nome al linguista George Zipf che nel 1949 la descrisse in “Human Behaviour and the Principle of least-effort” (Comportamento umano e il principio del minimo sforzo). Si tratta di una legge empirica che descrive la frequenza di un evento Pr facente parte di un insieme, in funzione della posizione (detta rango o rank in inglese) nell’ordinamento decrescente rispetto alla frequenza stessa di tale evento:

f(Pr)=c/r

dove c e’ una costante di normalizzazione e r il rango. Zipf sviluppo’ questa legge osservando la distribuzione delle popolazioni all’interno delle citta’ e la distribuzione delle parole in un testo come un romanzo. Se si grafica la frequenza in funzione del rank in scala bilogaritmica si ottiene di nuovo una legge di potenza con esponente pari a 1.

Queste le evidenze empiriche da cui parti’ lo studio di Per Bak per spiegare la legge di potenza della dimensione delle valanghe. Una volta elencati i fatti empirici da cui e’ partito per sviluppare la SOC, Per Bak riporta alcuni sistemi da lui modellizzati. Uno di questi e’ il seguente.

Abbiamo una matrice di pendoli collegati tra loro con molle elastiche. Ad un certo punto si perturba la matrice facendo oscillare un pendolo a caso che andra’ a colpire i primi vicini. Ad ogni perturbazione effettuata con energia diversa si contano quanti pendoli riescono ad effettuare una rotazione completa (valanga). Come scoperto da Bak il numero di valanghe di dimensione S segue una legge di potenza:

N(S)~S-a

Come sempre, in un grafico bilogaritmico apparira’ come una linea retta. Qui di seguito la rappresentazione di un modello di una griglia 50x50 di pendoli con un esponente di circa 1.1.

Una diversa nomenclatura ma la stessa matematica dei pendoli e’ quella del modello del mucchietto di sabbia gia’ introdotto precedentemente. Le valanghe prodotte dalla caduta del singolo granello una volta che il sistema si porta in uno stato di criticita’ autorganizzata hanno dimensioni che seguono una chiara legge di potenza. Si riporta di seguito una versione semplificata di tale modello per mostrane le caratteristiche peculiari. Supponiamo di avere una matrice bidimensionale che rappresenti un mucchietto come mostrato sotto. Un granello (cioe’ un quadratino) cade giu’ (in nero) se la sua differenza in altezza e’ maggiore di 1. Questo puo’ destabilizzare le altre particelle e dare vita ad un fenomeno cooperativo che noi chiamiamo valanga.

Un modello analogo puo’ essere implementato in due dimensioni dove in ogni cella inseriamo in modo del tutto casuale dei numeri da 0 a 4. Quando una cella raggiunge la soglia 4 essa si scarica cedendo un granello a ciascuna delle celle vicine lungo le quattro direzioni geografiche. Nell’immagine di seguito la dinamica di un tale modello. L’ultima matrice mostra la valanga con delle celle in nero. Queste sono le celle che si sono scaricate (quelle grigie) e che hanno almeno un lato in comune tra loro.

Se invece della sabbia si usa del riso il risultato e’ lo stesso. La distribuzione della dimensione delle valanghe segue sempre una legge di potenza. L’unica differenza e’ che il riso essendo piu’ grande dei granelli di sabbia e’ piu’ lento nel raggiungere lo stato critico.

Ma cosa hanno di cosi interessante questi risultati ottenuti da Per Bak? In poche parole il fatto che la sabbia o il riso si organizzano in uno stato critico altamente orchestrato senza alcun parametro di controllo, senza alcun direttore di orchestra o supervisore. La dimensione delle valanghe segue una legge di potenza e questa e’ la firma dei sistemi complessi e quindi degli oggetti frattali. Un modello analogo a quello dei pendoli accoppiati e’ stato utilizzato anche per spiegare il meccanismo dei terremoti. Ci sono due piani di cui uno fisso collegati tra loro da molle a loro volta collegate a dei blocchi liberi di muoversi sul piano fisso (rappresentanti la pressione sul materiale vicino ad una faglia).

Il piano superiore viene spinto con una certa forza indicata da una freccia. Il moto tettonico e’ simulato dal piano movibile agganciato a sua volta ai diversi blocchi. La matematica che descrive questo modello e’ molto simile a quella del mucchietto di sabbia e riesce a catturare le caratteristiche essenziali della legge di Gutenberg-Richter. Questo prova che la crosta terrestre e’ un sistema autorganizzato in uno stato critico. La causa dei terremoti di bassa intensita’ e’ la stessa di quelli catastrofici. Diversamente da un sistema all’equilibrio non ci sono scale caratteristiche ma sono possibili fluttuazioni a tutte le scale.

Un ulteriore modello riportato da Per Bak nel suo libro e’ quello del gioco Life (o gioco della Vita ) inventato dal matematico Conway . Si tratta ancora una volta di una matrice bidimensionale di celle che possono avere due stati 1 e 0 (viva e morta o viceversa). Questi vengono aggiornati ad ogni step temporale secondo delle regole molto semplici. Lo stato di ogni cella dipende dai suoi primi vicini (8 celle): se ci sono meno di due celle intorno ad una cella viva, questa muore di “solitudine”. Se ci sono piu’ di tre celle vive, la cella centrale muore a causa del “sovraffollamento”. Se ci sono esattamente due o tre celle vive la cella centrale resta viva. Se intorno ad una cella morta ci sono esattamente tre celle vive, questa cambia il suo stato e da morta passa a viva. Quello che Conway scopri e’ che a partire da semplici regole si possono generare fenomeni altamente complessi. Cosa confermata anche da Stephen Wolfram  con i suoi automi cellulari unidimensionali e da Kauffman  con le sue reti booleane. E non solo. Il noto computer scientist, Christopher Langton, ha dimostrato che per il gioco Vita e’ possibile definire un parametro di controllo da lui chiamato lambda, che varia tra 0 ed 1 a seconda delle regole utilizzate. Cambiando opportunamente le regole del gioco e quindi il valore di lambda, quello che Langton ha scoperto e’ che solo le regole scelte da Conway sono quelle che generano un comportamento complesso del sistema. Tutte le altre producono solo sistemi stabili o caotici e quindi non interessanti. Il parametro lambda indica la strada per il margine del caos dove e’ possibile la vita artificiale e forse anche quella naturale. Per questo stesso gioco anche Per Bak ha dato un suo contributo. Nel 1989 infatti, simulo’ il gioco facendolo evolvere da stati iniziali casuali fino a quando non raggiungeva uno stato statico o oscillatorio. Defini’ il tempo T come quello necessario a raggiungere uno di questi stati e con S (dimensione della valanga) il numero di celle nate e morte durante la simulazione. Il gioco fu ripetuto moltissime volte e con grande sorpresa Bak ottenne di nuovo una legge di potenza con un esponente pari a 1.6 per le scale temporali e 1.4 per le scale spaziali.

Gli esempi riportati fin qui dimostrano in modo inequivocabile l’ubiquita’ delle leggi di potenza in Natura e in ambito sociale. Esse sono la firma indistinguibile della complessita’ e dell’autosimilarita’ (invarianza di scala). La SOC di Per Bak e’ una teoria per spiegare la complessita’ e il catastrofismo senza l’aggiustamento di un parametro esterno. Gli ingredienti essenziali sono:

· Un sistema di molti elementi

· Interazioni non lineari tra gli elementi

· Soglia di attivazione

· Meccanismo di lenta perdita ad una perturbazione esterna

Ampie fluttuazioni dell’output di tali sistemi non possono essere manipolate e quindi evitate. E nemmeno previste. Ogni variazione, anche se piccola, in ingresso ad un sistema nello stato critico si propaghera’ quasi istantaneamente a tutto il sistema (cooperazione). Queste scoperte fin dall’inizio si dimostrarono essere in opposizione alle teorie lineari meccanicistiche, sostenendo che la stessa vita, l’evoluzione e il cambiamento non nascono dall’ordine, dalla simmetria e dalle leggi, ma dal disordine, dal caos e dall’instabilita’. La SOC suggerisce una nuova idea di equilibrio. Non piu’ solo evoluzioni verso stati stazionari o periodici (immutabili nel tempo) ma anche la possibilita’ di convergenza verso cicli non periodici, cioe’ verso gli attrattori strani. L’equilibrio non e’ piu’ uno stato imprigionato ne’ uno stato che periodicamente torna a replicarsi. E’ una fluttuazione di origine endogena (interna), aperiodica, erratica. Le dinamiche di equilibrio sono caratterizzate da fluttuazioni e catastrofi su qualsiasi scala di osservazione in un continuum che va dal livello micro a quello macro, e tutte regolate dalla stessa legge di probabilita’: la legge di potenza. Solo l’edge del chaos e quindi la SOC garantisce l’evoluzione e l’adattamento di una organizzazione. La teoria sviluppata da Per Bak ha il vantaggio di accorpare in un unico modello la spiegazione delle piccole-medie fluttuazioni e delle grandi catastrofi dei sistemi complessi come le aziende, la societa’, le organizzazioni, le placche terrestri e cosi via. Le catastrofi non hanno nulla di speciale anche se sono imprevedibili e inevitabili. Inevitabili perche’ se vogliamo garantire l’evoluzione e l’adattamento di un sistema esso deve stare a cavallo del confine tra ordine e disordine. Se ricerchiamo solo l’ordine, ci conformiamo alle regole e ci abituiamo alla normalita’ il che significa fossilizzarsi. D’altro canto, la spasmodica ricerca della novita’, l’infrangere le regole e la vita spericolata possono portarci alla disintegrazione (disordine). L’orlo del caos e’ dove la vita ha abbastanza stabilita’ da sostenersi e creativita’ sufficiente da meritare il nome di vita. Solo mantenendo il passo dell’evoluzione e cambiando continuamente, i sistemi complessi possono rimanere se stessi. L’orlo del caos e’ pertanto il luogo del cambiamento, dell’innovazione e della discontinuita’. Come Vasco Rossi canta in Sally: “la vita e’ un brivido che vola via, e’ tutto in equilibrio sopra la follia”. La caduta del muro di Berlino nel 1989 è un esempio di come da uno stato di apparente "stabilità" e di solido ordine costituito, nella fattispecie il bipolarismo Usa-Urss, si possa verificare un evento apparentemente improvviso ed imprevisto dal quale poi si innesca un processo a catena che, attraverso un aumento del disordine, porta il sistema verso un nuovo stato ed un nuovo ordine o, meglio, un nuovo "disordine ordinato“. Chi lo aveva previsto? Eppure è accaduto ... e soli 2 anni dopo l’Urss, il grande nemico dell'Occidente, si è dissolto dando origine ad un processo di "balcanizzazione" che avrebbe interessato drammaticamente le sue ex repubbliche e la zona d'influenza dell'Europa orientale (ex Jugoslavia in primis). Nella storia, dunque, accadono degli "eventi di rottura", che rimescolano gli equilibri internazionali e nazionali, che sono in molti casi inattesi e le cui conseguenze sono ancora più imprevedibili (effetto valanga). Cosa possiamo dire invece per le aziende e il management? Ci possono essere delle implicazioni da parte della teoria SOC anche per questo tipo di sistema complesso?  Di sicuro un’azienda con la sua organizzazione e’ un sistema altamente complesso. In essa i manager si trovano a dover decidere una varieta’ di piccole o grandi azioni per tenere un team o l’azienda stessa sulla strada per il raggiungimento dell’obiettivo. In accordo con la legge di potenza saranno piu’ le azioni piccole che grandi quelle che verrano settate. I manager tendono ad applicare la regola del minimo sforzo di Zipf per semplificare le loro responsabilita’ in presenza di complessita’ casuale. L’influenza e il controllo di tipo top-down e’ quello piu’ utilizzato visto che e’ il piu’ semplice da applicare. Comunicazioni multidirezionali e complicate saranno meno frequenti anche se sono quelle piu’ effettive. Sempre seguendo il paradigma del SOC/Pareto i manager tendono a fare le cose piu’ semplici rispetto a quelle piu’ difficili anche se queste sono quelle che con molta probabilita’ funzioneranno. Sono costantemente soggetti alla legge di potenza anche se loro ne ignorano l’esistenza applicando i principi del riduzionismo, linearita’ e indipendenza degli eventi. Gli individui come gli atomi e le molecole interagiscono tra loro. L’interazione genera un ordine emergente nel quale sono presenti caratteristiche non rinvenibili nei singoli elementi originari da cui deriva la cosiddetta forza del team. La rete e’ molto importante. Il tipo e il numero di relazioni fra i nodi definisce l’architettura della rete. La diversita’ e’ fondamentale. La rete opera in un contesto (ambiente), si adatta alle sue sollecitazioni ed evolve. Sotto particolari condizioni un insieme di agenti eterogenei alla ricerca del benessere individuale raggiunge un ordine di livello superiore, cioe’ i singoli elementi si auto-organizzano attorno ad un ordine emergente. La catastrofe e’ dietro l’angolo ma dobbiamo accettarla (anche perche’ come i cigni neri e’ rara) se vogliamo rimanere all’edge del caos. Qui emergono fenomeni di cooperazione a tutte le scale (valanghe). Il team diventa un piccolo mondo (veicolazione veloce dell’informazione e della conoscenza) e puo’ adattarsi piu’ facilmente ai cambiamenti dell’ambiente esterno senza rimanere intrappolato in piccoli attrattori. Nello spazio delle fasi il sistema visitera’ in maniera non ergodica nuovi spazi lungo gli attrattori strani. La Teoria SOC quindi fornisce i presupposti per un management in condizioni di incertezza e rischio estremo. La rete di piccolo mondo (cioe’ allo stato critico) favorisce la diffusione virale della conoscenza, dell’informazione e dell’innovazione. Basta attivare opportunamente gli hub (gli untori). La formazione di reti interconnesse ed interdipendenti insieme alla disgregazione di strutture rigidamente gerarchiche governate da un management “task e goal” driven (manager semaforo anziche’ rotonda) da’ origine a maggiore flessibilita’, maggiori capacita’ di adattamento e di modifica dell’ambiente. Secondo la teoria di Per Bak la causa dei piccoli slittamenti (segnali deboli) e quella delle valanghe (segnali forti) e’ la stessa. I “segnali deboli” sono molto importanti anche se in genere non attirano l’attenzione dei decision makers. Essi sono i potenziali precursori degli eventi estremi (siano essi buoni o cattivi) anche se appaiono come eventi casuali, insignificanti e quindi trascurati o ignorati; eppure essi possono spiraleggiare ed evolvere in eventi estremi di proporzioni disastrose. Se i manager prendessero coscienza della teoria dell’invarianza di scala (legge di potenza) di sicuro riuscirebbero a vedere meglio i segnali deboli prima che questi esplodano in eventi estremi. Quest’ultimi (valanghe) sono imprevedibili ma non inaspettati. Tutti gli eventi estremi hanno una fase di incubazione. E’ compito del manager “capire/interpretare” i segnali deboli che arrivano durante questa fase. Anche se le valanghe sono casuali l’effetto che esse hanno su di noi non e’ tanto casuale. Quindi il management piu’ che cercare di prevedere deve elaborare delle strategie su come comportarsi in caso esse accadono (prevenzione anziche previsione). Non possiamo sapere cosa ci aspetta, ma possiamo imparare ad affrontare l’impatto degli eventi estremi su di noi. In sintesi il manager deve imparare a fare, adattarsi ed essere piu’ che prevedere, pianificare e teorizzare. Bisogna fare attenzione a non settare azioni per i piccoli vantaggi visibili con effetti collaterali invisibili potenzialmente devastanti. I manager per prevedere il futuro usano medie e approssimazioni lineari dei fenomeni perpetuando cosi’ illusioni di stabilita’ e di facilita’ di comprensione del mondo che sono di fatto grossolanamente incorrette e pericolose. Il mondo non e’ lineare. Anzi. C’e’ il bisogno di una nuova statistica diversa da quella a cui siamo abituati (distribuzione Gaussiana). Le leggi di potenza obbediscono alla distribuzione di Pareto (80/20 rule) piu’ che a quella Gaussiana in cui gli eventi vengono assunti come indipendenti. Quando gli eventi sono interdipendenti (come ci insegna la SOC) la distribuzione Gaussiana non e’ piu’ adatta in quanto gli eventi estremi (catastrofi) sono piu’ probabili di quanto essa ci dica. La distribuzione di Pareto diversamente da quella Normale o Gaussiana non e’ caratterizzata da un valore medio e una standard deviation finita. I ricercatori e manager devono rendersi conto che gli eventi estremi (catastrofi) sono una parte naturale del mondo sociale ed e’ l’unico modo per mantenere l’equilibrio critico al confine tra l’ordine e il caos.

Termino questo post con due vignette sulla fallacia del valore medio. Enjoy

http://www.wikio.it