Visualizzazione post con etichetta statistica. Mostra tutti i post
Visualizzazione post con etichetta statistica. Mostra tutti i post

venerdì 10 maggio 2019

Paradossi della statistica

E’ possibile che la panna acida possa avere un impatto sulle cadute da motocicletta? O che il numero di persone morte per caduta dalla propria sedia a rotelle sia legato al costo delle patatine? O anche che il numero di film interpretati  da Cages sia proporzionale al numero di persone morte per annegamento in piscina? E mai possibile credere alla cosiddetta maledizione di Ramsey, che stabilisce che ogni volta che il centrocampista gallese dell’Arsenal, Aaron Ramsey segna un gol, qualcuno di famoso nel mondo muore?
Ovviamente no anche se sembra essere cosi: grafici divertenti rivelano come la statistica possa creare delle false relazioni (date un occhiata qui). Gli scienziati quotidianamente sono impegnati a cercare possibili correlazioni all’interno di grandi moli di dati per verificare ed eventualmente dimostrare certe teorie. Ma se due insieme di dati sono correlati tra loro da un punto di vista statistico non significa necessariamente che essi realmente siano strettamenti legati tra loro. Trovare una correlazione tra due insiemi non sempre significa causazione. 






Questi grafici sono degli esempi di correlazioni spurie. Queste correlazioni in genere vengono trovate dai computer. Date due qualsiasi variabili essi calcolano velocemente grazie ai loro algoritmi interni un coefficiente statistico chiamato “erre quadro R2” la cui vicinanza ad uno indica la bonta’ della correlazione. Ma la correlazione statistica in se non dice quasi nulla. C’e’ bisogno della conferma da parte dell’analista. Quello che esso deve fare e’ semplice: guardare i grafici che hanno una buona correlazione statistica, formulare un’ipotesi ed eventualmente rigettarla in base alla sua esperienza personale e background culturale. In genere se X e Y mostrano una correlazione quello che si fa e’ far variare la X e vedere cosa succede alla Y anche se cio’ non e’ sempre possibile. In un mondo sempre piu’ dominato dal machine learning e dalla scienza dei dati questo diventa il vero problema: l’incapacita’ di stabilire se una correlazione e’ casuale o causale. Questo non lo puo’ fare un computer ma solo un umano. Tutti gli scienziati del mondo stanno lavorando a questo problema e al momento non esiste alcuna soluzione. Trovare i meccanismi causali e’ il principale scopo di molte ricerche scientifiche in quanto ogni volta che troviamo un meccanismo causale riusciamo a fare un passo avanti nella conoscenza del mondo che ci circonda. A volte capita di vedere delle correlazioni che non riusciamo a spiegare e questo determina uno stimolo per gli scienziati a cercare una potenziale causa. Un buon esempio di correlazione che porta a delle conclusioni importanti e’ quello della connessione tra il tumore ai polmoni e il fumo. Agli inizi del 1990 si osservo’ un aumento di casi di tumore ai polmoni e nessuno sapeva il perche’. Nel 1929 il fisico Fritz Lickint pubblico’ un articolo in cui mostrava che i pazienti con cancro ai polmoni per lo piu’ erano stati dei fumatori. Questo articolo diede inizio a tutta una ricerca grazie alla quale gli scienziati riconobbero la pericolosita’ del fumo. Senza il grafico di correlazione tutto questo non sarebbe potuto accadere. Le correlazioni tra due variabili possono essere delle mere coincidenze, o il risultato di una connessione causale sottostante. Ogni volta che vediamo una correlazione abbiamo l’opportunita’ di capire di cosa si tratti.
A volte le correlazioni tra due enti possono apparire spurie a causa delle cosiddette variabili omesse o lurking variables. Sono proprio le variabili omesse a confondere le acque in quanto si muovono con le due variabili considerate ma non vengono osservate. Per esempio se guardiamo alla correlazione tra anni di istruzione e salario futuro si rischia di sopravvalutare l’effetto causale dell’istruzione sul salario se non si tiene conto per esempio della variabile abilita’. La ragione e’ che l’istruzione assorbe l’effetto dell’abilita’. Individui piu’ abili studiano per piu’ anni e guadagnano di piu’. Questo fa si ch uno pensa che il guadagno sia tutto dovuto all’istruzione senza pensare pero ‘ all’abilita’ della persona.
In generale, quindi un grafico da solo non serve a nulla. Da un punto di vista statistico le variabili omesse sono I serial killer di chi vuole dimostrare qualche cosa con un grafico. Altro esempio famoso di lurking variables e’ quello delle cicogne del paese austriaco di Oldenburg. Riportando sulle ascisse di un grafico XY il numero di nidi di cicogne e in ordinate la popolazione del paese si osserva una correlazione positiva tra queste due variabili, correlazione ovviamente inaspettata. E’ possibile ipotizzare quindi che ci sia in giro qualche variabile omessa come il numero di cacciatori nelle campagne, il numero di comignoli delle nuove case, un migliore habitat nelle zone di riproduzione delle cicogne o chissa’ cos’altro.




Passiamo a un tema connesso che va sotto il nome di paradosso di Simpson, cioe’ l’apparire di contraddizioni tra l’analisi di dati aggregati e dati disaggregati. Vediamo un esempio. Nel 1973 l’universita’ di Berkeley fu uno dei primi atenei ad essere denunciato per discriminazione di genere. Per l'ammissione al semestre autunnale di quell'anno furono esaminate 12.763 domande di iscrizione (8442 di ragazzi e 4321 di ragazze) e le ammissioni, suddivise per genere, furono quelle riportate nella tabella seguente.


Per l'università fu naturale disaggregare i dati per capire quali dipartimenti avevano contribuito a questa discrepanza. Quelli che seguono sono i dati dei sei principali dipartimenti. 


Qui la differenza di genere è ancora più marcata: risultano ammessi circa il 45% dei maschi e il 30% delle femmine. Eppure in 4 dipartimenti la percentuale di ragazze ammesse è maggiore, mentre nei rimanenti due il vantaggio dei maschi è contenuto. In altre parole, il dato complessivo dei sei dipartimenti mostra una discriminazione verso le femmine, mentre nel dato disaggregato non appare alcuna discriminazione o addirittura si può pensare ad una discriminazione contro i maschi. La spiegazione è nel fatto che i dati precedenti non tengono conto delle scelte dei dipartimenti da parte delle candidate/dei candidati. Le ragazze tendevano ad iscriversi ai dipartimenti piu’ selettivi, nei quali la percentuale di ammissioni era inferiore, mentre i maschi si iscrivevano spesso a dipartimenti in cui era più facile essere ammessi. Un altro esempio in cui la presenza di variabili nascoste porta ad una forma di confondimento e’ il seguente. Durante una riunione di facoltà, un gruppo di insegnanti decise di aver bisogno di capire per gli studenti quale poteva essere la durata ottimale dello studio al fine di ottenere risultati sempre piu’ soddisfacenti. Raccolsero cosi le ore di studio dei diversi studenti e li confrontarono  con i punteggi dei loro test. I risultati furono sbalorditivi. Per la confusione di tutti, meno uno studente studiava, più in alto tendeva ad arrivare nei test.


In effetti, il coefficiente associato a questa correlazione e’ di -0.79, una relazione fortemente negativa. Gli insegnanti avrebbero dovuto incoraggiare i loro studenti a studiare di meno? In che modo i dati avrebbero potuto sostenere una simile richiesta? Sicuramente mancava qualcosa.
Dopo aver discusso i risultati, gli insegnanti convennero di consultare lo statistico della scuola che suggerì loro di analizzare i dati di ciascun corso individualmente. Qui la situazione per educazione fisica.


Una correlazione di 0,63! Ecco il paradosso di Simpson. Un fenomeno statistico in cui una relazione apparentemente forte si inverte o scompare quando viene introdotta una terza variabile confondente. Codificando a colori ogni corso separatamente per distinguerli l'uno dall'altro appare questo grafico.


In questo modo gli insegnanti finalmente capirono che più ore uno studente studiava, più il voto tendeva ad essere alto come ci si aspetta. L’Inclusione del corso di studio nell'analisi statistica aveva completamente invertito la relazione iniziale dando un senso cosi a dei dati che inizialmente sembravano segnalare una correlazione spuria. Il paradosso di Simpson e’ molto importante in statistica medica quando si deve indagare l’efficacia di nuovi farmaci o  l’impatto di un fattore esterno tipo il fumo delle sigarette sulla salute.
Volendo quantificare l’impatto del fumo sulla salute delle persone, possiamo prendere 2 gruppi (fumatori e non fumatori) e stabilire il numero di decessi in percentuale. Supponiamo che le persone dei due gruppi vengano divisi per fascie di eta’ come mostrato nella tabella seguente. 



Calcoliamo il numero di decessi percentuale per i fumatori e non fumatori usando la media ponderata. Per i fumatori abbiamo:

% decessi fumatori= (3.6*(55+62)+2.4(124+157)+…..)/(117+281+….+77)=36.63%
% decessi non fumatori=(1.6*(55+62)+3.1(124+157)+…..)/(117+281+….+77)=25.84%

Fumare allunga la vita? E’ mai possibile? No. L’anomalia sta nel non aver considerata una variabile nascosta importante: l’eta delle persone. Se guardiamo, infatti alle singole fasce ci accorgiamo che su 7 gruppi solo una volta la percentuale di decessi per non fumatori e’ maggiore di quella dei fumatori. Per il restante 85% dei casi invece e’ vero il contrario come ci si aspetta.
Un altro esempio dal mondo medico. Due cure (X e Y) per il trattamento dei calcoli renali sono state sperimentate su due gruppi di 350 pazienti, con il risultato che la percentuale di successi è stata del 78% per la cura X e dell’83% per la cura Y. Se però si separano i risultati rispetto alla gravità della malattia, la conclusione cambia: si scopre che per i casi gravi la percentuale di successi è stata del 73% per la cura X e del 69% per la cura Y; mentre per i casi non gravi la percentuale di successi è stata del 93% per la cura X e dell’87% per la cura Y.
In altre parole, i pazienti sono stati suddivisi in due gruppi (calcoli piccoli e calcoli grandi); per ciascuno dei due gruppi sembra migliore la cura X, ma se non suddividiamo i pazienti allora, nel gruppo complessivo, sembra migliore la cura Y. Per capire cosa è successo controlliamo innanzitutto i numeri.



che mostrano un fatto aritmetico non molto intuitivo:


Abbiamo quindi otto numeri positivi a, b, r, s, A, B, R, S tali che


È utile visualizzare questo fatto nel modo seguente. Possiamo, ad esempio, vedere la frazione / come il coefficiente angolare della retta che collega l'origine con il punto (, ) nel piano cartesiano. Analogamente / è il coefficiente angolare della retta che collega l'origine con il punto (, ). Infine ( + )/( + ) è il coefficiente angolare della retta che collega l'origine con il punto ( + , + ), cioè con la somma dei vettori (, ) e (, ), ottenuta attraverso la regola del parallelogrammo.
Ora osserviamo che la diseguaglianza A/B>a/b significa che la semiretta che parte dall’origine e passa per il punto (b,a) sta sotto quella che passa per (B,A) e analogamente per gli altri punti. La seconda figura mostra un esempio in cui le tre diseguaglianze A/B>a/b, R/S>r/s, (A+R)/(B+S)<(a+r)/(b+s) sono soddisfatte. 



Tornando all’esempio delle cure, non è difficile spiegare cosa è successo. Le consistenze dei quattro gruppi rispetto alla gravità della malattia erano molto diverse: inoltre i medici tendevano a somministrare la cura X (migliore) ai casi più gravi (calcoli grandi) e la cura Y (meno efficace) ai casi meno gravi (calcoli piccoli). Il risultato complessivo è quindi sostanzialmente determinato dai gruppi 2 e 3 nella tabella.


Somministrando la cura X prevalentemente a malati gravi (e la cura Y prevalentemente a malati non gravi), come è stato fatto nello studio in considerazione, si ottiene che l'efficacia globale della cura X è inferiore, e questo potrebbe portare alla discutibile conclusione che la cura X è meno efficace. Concludendo, una correlazione non ci dice assolutamente nulla sui rapporti causali sottostanti. Chi in assenza di esperimenti cerca di dimostrare qualche cosa con un grafico non conosce la statistica o e’ in cattiva fede.

lunedì 24 luglio 2017

Dai bosoni W/Z all’archeologia


Una delle quattro forze fondamentali in natura e’ quella debole detta anche forza nucleare debole. Tale forza e’ responsabile del decadimento beta dei nuclei atomici, una delle reazioni nucleari spontanee (radiottivita’) grazie alle quali elementi chimici instabili si trasformano in altri con diverso numero atomico Z. Quest’ultimo indica il numero di protoni all’interno del nucleo atomico ed e’ pari al numero di elettroni che orbitano intorno al nucleo essendo l’atomo elettricamente neutro. Un altro numero che caratterizza i nuclei atomici e’ il cosiddetto numero di massa A che indica la somma dei protoni e neutroni (detti anche nucleoni) all’interno del nucleo atomico. Ma in cosa consiste il decadimento beta? Nell’emissione di un elettrone o di un positrone (una particella analoga all’elettrone ad eccezione della carica che e’ positiva) da parte del nucleo. Ma come e’ possibile che da un nucleo venga fuori un elettrone/positrone se esso e’ costituito solo da protoni e neutroni? E’ qui che entra in gioco l’interazione debole con i suoi mediatori (cioe’ le particelle che vengono scambiate in una interazione), i bosoni W e Z. Nel modello Standard ci sono tre tipi di bosone: i fotoni, i gluoni e i bosoni W/Z responsabili rispettivamente della forza elettromagnetica, nucleare forte e nucleare debole. I fotoni e gluoni sono senza massa, mentre i bosoni W/Z sono massivi. C’e’ un quarto bosone al momento solo ipotizzato che e’ il gravitone, il mediatore della forza di gravita’. Ma torniamo al nucleo atomico. I neutroni e protoni non sono particelle fondamentali in quanto sono costituite a loro volta da 3 quarks.  Esistono sei diversi tipi di quark: su (u), giu’ (d), incanto (c), strano (s), basso (b) e alto (t) che si distinguono per massa e carica elettrica. Quest’ultima e’ una frazione della carica dell’elettrone e vale -1/3 per quark s, d, b, e +2/3 per i quark u, c, t. I quark formano combinazioni in cui la somma delle cariche e’ un numero intero: protoni e neutroni sono formati  rispettivamente da due quark u e da un quark d, due quark d e uno u entrambi con carica totale 0. I quarks vengono tenuti insieme tra loro, dalla forza forte, la stessa che lega tra loro protoni e neutroni e decadono, a causa della forza debole. Essi si trasformano da u a d e viceversa, trasformando cosi’ protoni in neutroni e viceversa. Un neutrone per esempio, si trasforma in un protone emettendo un bosone W il quale a sua volta decade immediatamente in un elettrone e un antineutrino elettronico.


image


L'osservazione diretta del bosone W è avvenuta nel gennaio del 1983 grazie all'utilizzo dell'acceleratore SPS (Super Proton Synchrotron) del CERN durante gli esperimenti UA1 (condotto dal premio Nobel Carlo Rubbia) e UA2, realizzati grazie agli sforzi di una grande collaborazione di scienziati. Pochi mesi più tardi avvenne anche l'osservazione del bosone Z. Il decadimento beta e’ uno di tre possibili tipi di decadimento radioattivo da parte dei nuclei instabili: decadimento alfa, decadimento beta e decadimento gamma. Nel primo caso si tratta dell’emissione di un nucleo di He (due protoni e due neutroni) da parte del nucleo, nel secondo caso come gia’ detto dell’emissione di un elettrone e nel terzo caso di una diseccitazione del nucleo tramite emissione di un fotone gamma energetico. Per ogni valore di massa atomica A vi sono uno o piu’ nuclei stabili.

image

Per i nuclei instabili il numero di decadimenti al secondo definisce l’attivita’ radioattiva di un materiale, quantita’ indipendente dal tipo di decadimento o dall’energia della radiazione emessa. Contrariamente al decadimento beta in cui avviene la trasformazione di un protone in un neutrone e viceversa, il decadimento alfa e’ un esempio del cosiddetto effetto tunnel previsto dalla meccanica quantistica. Il nucleo puo’ essere modellizzato come una buca di energia all’interno della quale si trovano intrappolati i nucleoni. L’altezza di questa barriera dipende dal rapporto Z/R dove Z e’ il numero di protoni e R il raggio del nucleo. I nucleoni non hanno abbastanza energia per superare la barriera ma possono liberarsi perforandola se questa e’ abbastanza sottile.

clip_image007

Il decadimento beta e’ quello che subisce, insieme a tanti altri, un elemento della nostra tavola periodica alla base della nostra vita: il carbonio.
Questo elemento in natura si presenta con tre isotopi con diverse abbondanze: C12 (99%), C13 (<1%) e C14 (tracce). Tutto gli elementi chimici con un certo numero atomico Z e diverso numero di massa (diverso numero di neutroni) hanno le stesse caratteristiche chimiche avendo la stessa configurazione di elettroni esterni e vengono chiamati isotopi. I primi due isotopi del C sono stabili mentre il terzo e’ radioattivo di natura cosmo genica in quanto si forma in atmosfera in seguito al bombardamento dei raggi cosmici. La reazione viene innescata nel momento in cui l’interazione di un raggio cosmico con un atomo dell’atmosfera produce un neutrone che viene a sua volta assorbito da un atomo di azoto. Questo determina l’espulsione di un protone, per cui il numero atomico si riduce di 1 e il nucleo dell’atomo di azoto si trasforma in un nucleo di carbonio con numero di massa 14:

n + 14N –> 15N –> 14C + 1H+

Il 14C cosi formato non e’ un nuclide stabile e subira’ dopo un certo tempo una disintegrazione tramite emissione beta trasformandosi nello stesso elemento che lo ha generato e cioe l’azoto 14.

14C –> 14N + e- + ave

dove ave e’ l’antineutrino elettronico. La disintegrazione di un nucleo radioattivo e’ un processo statistico e segue le regole dei fenomeni casuali: non e’ possibile in nessun modo sapere quando un nucleo radioattivo si disintegrera’. Tuttavia, anche in presenza di pochi milligrammi di sostanza radioattiva abbiamo a che fare con milioni se non anche miliardi di atomi, per cui da un punto di vista statistico e’ possibile conoscere con buona precisione quanti (ma non quali) di essi si disintegreranno in un certo intervallo di tempo. Il numero di disintegrazioni che avvengono nell’unita’ di tempo viene definito come l’attivita’ della sorgente radioattiva. L’attivita’ si misura in Bequerel che corrisponde ad 1 disintegrazione per secondo. Data una sorgente radioattiva che non scambia materia con l’esterno, mano a mano che i nuclei si disintegrano, il loro numero diminuisce, e quindi diminuisce la probabilita’ di disintegrazioni successive; la radioattivita’ quindi diminuisce allo stesso modo della concentrazione dei nuclei radioattivi. La velocita’ con cui decade un radioisotopo, non e’  costante ma varia nel tempo: man mano che la concentrazione diminuisce, anche la velocita’ diminuisce, per cui il decadimento di un radioisotopo segue una curva di tipo esponenziale.

a1

Se come fatto per il decadimento alfa, modelliziamo il decadimento beta con una buca di potenziale, e’ possibile immaginare che la particella beta sia all’interno del nucleo e continuamente sbatta sulle pareti della buca cercando di uscire fuori. La probabilita’ che questo avvenga e’ molto bassa ma non zero. Per il decadimento del 14C e’ di 3.83*10-12 sec-1. Questo significa che in circa 32000 anni avremo quasi 4 disintegrazioni o allo stesso modo che la probabilita’ per un nucleo di 14C di decadere in un tempo dt e’ data da:

dP=λ*dt

dove lambda e’ proprio la probabilita’ di decadimento per unita’ di tempo. Supponendo di avere N atomi di carbonio 14 ad un istante to, il numero di decadimenti avvenuti nell’intervallo dt successivo e’ dato da:

dN=N*dP=N* λ*dt

dN/N= λ*dt

Integrando ambo i membri si ottiene l’equazione cercata:

N(t)=No*e- λ*t

dove No e’ il numero iniziale di atomi 14C e N(t) il numero di 14C ancora non disintegrati. La differenza tra questi due numeri da’ il numero di atomi che si sono disintegrati nell’intervallo di tempo t. Si definisce tempo di dimezzamento del nucleo radioattivo di un certo tipo, il tempo che occorre perche’ il numero di questi nuclei diminuisca di un fattore 2, cioe’ perche’ il numero di questi nuclei passi da No a No/2. Usando l’equazione esponenziale del decadimento si ricava facilmente il tempo di dimezzamento dato da:

T1/2 =ln(2)/ λ

clip_image010

Maggiore e’ il valore della costante di decadimento minore sara’ il tempo di dimezzamento e piu’ velocemente i nuclidi iniziali si disintegreranno. Il Carbonio 14 ha un tempo di dimezzamento di 5730 anni e questo fa si che possa essere utilizzato come ottimo “orologio” per le datazioni archeologiche.
La tecnica del radiocarbonio permette di datare qualsiasi materiale di origine organica, cioe’ che derivi da qualche cosa che sia stato vivo, come ossa, legno, stoffa, carta, semi, polline, pergamena e pellame in genere, carboni (non fossili) e tessuti  risalendo cosi all’epoca della morte dell’individuo da cui proviene il campione, purche’ non siano passati piu’ di 60000 anni (dopo tale periodo il carbonio 14 residuo e’ talmente esiguo da non permettere misure attendibili neppure con le tecniche piu’ sofisticate). Il metodo di datazione con il 14C fu messo a punto da un team di chimici dell’Universita’ di Chicago diretti da Willard Libby, che per questo ricevette il premio Nobel nel 1960. Le prime datazioni radiocarboniche si ebbero perciò a partire dal 1950. Nonostante col passare del tempo abbiamo capito che i presupposti su cui si basava il metodo di Libby erano veri solo in prima approssimazione, la Comunità Scientifica ha comunque deciso di continuare ad eseguire le datazioni secondo tali assunzioni, ottenendo così una “datazione radiocarbonica convenzionale” (CRA). Tale datazione, fornita dai laboratori, viene poi sottoposta ad una calibrazione, al fine di ottenere la data “reale” di calendario, confrontando la datazione convenzionale con quelle ottenute da campioni di età nota. La data calibrata, soprattutto per certi periodi, si discosta notevolmente da quella convenzionale e va considerata come la miglior stima della data “vera”. La datazione radiocarbonica convenzionale (CRA), non calibrata, è normalmente espressa in anni BP (Before Present, calcolati a ritroso a partire dal 1950) e deve essere sempre pubblicata, insieme a quella calibrata, nelle relazioni scientifiche. La datazione calibrata è invece normalmente espressa come data di calendario (calendar age), in anni BC (Before Christ) o AD (Anno Domini), a seconda che si tratti di anni prima o dopo Cristo. L’assunzione principale su cui si basa il metodo della datazione a radiocarbonio e’ che la frazione di 14C nell’atmosfera terrestre è approssimativamente costante. E visto che esiste un decadimento, deve necessariamente esistere anche una “fonte” da cui “viene generato” continuamente “nuovo” radiocarbonio. Tale “fonte” è il bombardamento dell’atmosfera terrestre ad opera dei raggi cosmici come gia’ anticipato precedentemente. A causa dei raggi cosmici nell’atmosfera si ha la continua trasformazione di atomi di azoto in atomi di radiocarbonio. Appena formatosi, il 14C reagisce con l’ossigeno atmosferico trasformandosi in biossido di carbonio (14CO2, anidride carbonica) radioattivo, che va a mescolarsi con quello composto da carbonio stabile (12CO2 e 13CO2). Data la relativa costanza del flusso cosmico, la velocità con cui il 14C si forma è, in prima approssimazione, costante. Poiché il decadimento è funzione della frazione di isotopo radioattivo presente, si arriva ad un equilibrio: la frazione di 14C si stabilizza su di un valore tale che “tanto ne decade quanto se ne forma”. Tale equilibrio si ha con una frazione di 14C (sotto forma di 14CO2) uguale a 1.2*10-12. In realtà, come vedremo tra poco, il flusso di radiazione cosmica ha avuto nel passato forti fluttuazioni, il che (insieme ad altri fenomeni di minore entità) ha indotto una sensibile variazione della frazione di 14C nell’atmosfera durante i millenni: questo è il principale (ma non unico) motivo per cui si devono calibrare le datazioni radiocarboniche convenzionali. Finché un individuo è vivo, scambia continuamente materia (e quindi anche carbonio) con l’esterno: le piante verdi assimilano anidride carbonica dall’atmosfera con la fotosintesi clorofilliana; gli erbivori mangiano le piante, ma vengono spesso a loro volta mangiati dai carnivori; inoltre piante, erbivori e carnivori respirano (emettendo anidride carbonica), mentre tutti gli animali producono escrementi. Per questo motivo esiste un sostanziale equilibrio tra la frazione di 14C dell’atmosfera e quella presente negli esseri viventi: infatti le molecole contenenti i diversi isotopi del carbonio, reagiscono in maniera del tutto analoga, non essendo chimicamente distinguibili. Perciò la frazione di 14C negli esseri viventi è pressoché la stessa di quella atmosferica. Quando un individuo muore, se non ci sono inquinamenti, non scambia più carbonio con l’ambiente, per cui il suo 14C comincia a diminuire (con ritmo noto) a causa del decadimento radioattivo, non venendo più reintegrato dall’esterno. Da qui la possibilità di datare reperti di origine organica in base alla diminuzione della frazione di 14C. Confrontando la frazione di 14C di un campione da datare con quella di materiale organico recente (“standard moderno”), si può calcolare il tempo trascorso dalla morte dell’individuo da cui il campione deriva. Ma come detto questa datazione chiamata  convenzionale deve essere opportunamente calibrata per tener conto di alcune assunzioni fatte da Libby e risultate non completamente vere. Uno dei presupposti errati, viene corretto subito: si tratta dell’errore indotto dal frazionamento isotopico (in seguito al quale la frazione di 14C in un essere vivente non è la stessa di quella atmosferica). Sappiamo che gli isotopi di un elemento sono chimicamente indistinguibili tra loro, nel senso che reagiscono allo stesso modo, dando luogo agli stessi prodotti; tuttavia, a causa della diversa massa dei loro nuclei, presentano lievi differenze nella velocità di reazione. Poiché durante le trasformazioni biochimiche (fotosintesi, metabolismo) che hanno luogo negli esseri viventi, reagisce solo una certa percentuale di atomi, fino al raggiungimento dell’equilibrio chimico, accade che nei prodotti di reazione tende a crescere la concentrazione degli isotopi più “veloci” a reagire, a discapito di quelli più “lenti”. Nel campione da analizzare, quindi la frazione di 14C residuo non è determinata solo dal tempo trascorso dopo la morte (decadimento radioattivo), ma anche dall’entità del frazionamento isotopico. Fortunatamente è possibile correggere questo errore misurando la frazione 13C/12C nel campione da datare: essendo tali isotopi stabili, una loro variazione rispetto al valore atteso è dovuta esclusivamente al frazionamento isotopico, che può così essere quantificato. Si definisce “δ13C” (“delta-C13”) la variazione (espressa in “per mille”) della frazione 13C/12C del campione in esame rispetto a quella di uno standard internazionale VPDB (Vienna Pee Dee Belemnite) costituito da carbonato di calcio fossile. L’errore indotto dal frazionamento isotopico non è in genere molto grande, ma è giusto correggerlo.
Il calcolo della datazione radiocarbonica convenzionale, cioè della “datazione radiocarbonica non calibrata corretta 13C”, avviene tramite la formula:

tanni=K*ln(Ans/Anc)=K*ln(Rns/Rnc)

dove t e’ il tempo trascorso espresso in anni contato a ritroso a partire dal 1950, K una costante ricavata da un T1/2 convenzionale di 5568 anni detto T1/2 di Libby, Ans l’attivita’ normalizzata (cioe’ corretta rispetto al frazionamento isotopico mediante il delta C13) dello standard moderno, Anc l’attivita’ normalizzata del campione da datare e R il rapporto di 14C/12C con i pedici uguali a quelli gia’ riportati per l’attivita’ A.
Come già riportato, la data radiocarbonica convenzionale si esprime in anni BP (before present) a partire dal 1950. Naturalmente, trattandosi di un dato che scaturisce da misure sperimentali, è affetto da un errore statistico, per cui il risultato viene espresso con un range la cui ampiezza dipende dalla precisione delle misure. Per esempio, una data del tipo: 2950 ± 30 BP (1σ, confidenza del 68,3 %) indica una data radiocarbonica convenzionale (corretta C13 non calibrata) compresa tra il 1030 a.C. ed il 970 a.C., con un grado di confidenza di circa il 68%. Passiamo adesso al cosiddetto effetto serbatoio. Ogni essere vivente è in equilibrio con la sua “riserva” (reservoir) ambientale, che normalmente è costituita dall’atmosfera, dove il 14C è distribuito in maniera omogenea a causa dei continui rimescolamenti meteorologici. Tuttavia esistono anche reperti che provengono da esseri vissuti in fondo a mari o laghi, dove la “riserva” di carbonio può avere una composizione isotopica assai diversa da quella atmosferica: infatti, oltre ad esserci un certo “ritardo” nella diffusione in profondità dell’anidride carbonica, le rocce calcaree di alcuni fondali vengono in parte disciolte dall’acido carbonico dell’acqua e liberano quindi carbonio “antico”, ormai privo di 14C. La “riserva” acquatica fa così “invecchiare” i reperti derivati da esseri che sono vissuti in essa (effetto serbatoio); per questo, occorre porre attenzione anche alle popolazioni che si nutrono prevalentemente di pesce. Ciò comporta errori nelle datazioni dell’ordine di alcuni secoli (in certi casi addirittura millenni!), per cui sono stati approntati dei database di “riserve” acquatiche che forniscono dati per correggere in tal senso le datazioni radiocarboniche ottenute. Tali correzioni vengono effettuate dai software di calibrazione, alcuni dei quali sono appunto collegati con database di “riserve” acquatiche. Per passare dalla datazione convenzionale a quella calibrata si confronta la datazione radiocarbonica CRA con curve di calibrazione, ottenute datando col metodo del radiocarbonio reperti di epoca nota: utilizzando legno ricavato da tronchi datati mediante la dendrocronologia, sono state costruite curve di calibrazione per gli ultimi 11.000 anni. Basandosi invece sulla crescita annuale dei coralli, ci si è potuti spingere fino a circa 24.000 anni fa; ancora più in là (circa 45.000 anni) si può arrivare grazie ai depositi laminari lacustri (varve). La calibrazione si effettua mediante software specializzati, che spesso correggono anche l’eventuale “effetto serbatoio” se si indica il bacino acquatico da cui proviene il reperto. Mentre la datazione radiocarbonica convenzionale viene di solito pubblicata con un range di errore espresso in “± anni”, con confidenza del 68,3% (1 σ), la datazione calibrata viene in genere fornita come intervallo (range) di date di calendario entro il quale la data “vera” ha il 95,4% di probabilità di cadere (limiti di confidenza del 95,4% = 2 σ). Le curve di calibrazione purtroppo non hanno un andamento continuo, ma procedono a “denti di sega”, per cui, ad una datazione radiocarbonica convenzionale, possono corrispondere più datazioni di calendario (calibrate). E’ chiaro che, poiché sia la data radiocarbonica convenzionale, sia la curva stessa di calibrazione hanno un certo margine di errore, confrontando le due, gli errori si combinano, allargando il range dei risultati; inoltre, desiderando una confidenza del 95,4% (invece del 68,3%), ovviamente l’intervallo si fa ancora più ampio. Si può dire quindi che la calibrazione normalmente peggiora la precisione della misura (la dispersione della misura intorno al valore medio), aumentandone tuttavia notevolmente l’accuratezza (cioè la “vicinanza” al valore “vero”). Senza calibrare, si sarebbe molto precisi (con un range magari inferiore a ± 20 anni), ma intorno a date spesso... completamente sbagliate! A titolo di esempio riportiamo la calibrazione riguardante la datazione radiocarbonica della mummia del Similaun:
Data radiocarbonica convenzionale: 4550 ± 19 BP (1 σ, confidenza del 68,3%)

Data calibrata: 3370 - 3320 BC (primo range, 2 σ, confidenza del 95,4%)

3230 - 3100 BC (secondo range, 2 σ, confidenza del 95,4%)

La presenza di due range è dovuta all’andamento seghettato della curva di calibrazione. Possiamo perciò dire che l’uomo del Similaun è vissuto, con 95 probabilità su 100, tra il 3370 ed il 3100 a.C.

clip_image011
clip_image012

Purtroppo questo andamento non lineare della curva di calibrazione dovuto essenzialmente all’attivita’ solare che cambia nel tempo puo’ portare ad una datazione ambigua come il caso qui sotto dove un oggetto di circa 200 anni vecchio potrebbe essere fatto risalire intorno al 1650 o a circa il 1800.

clip_image013

Il sole produce il cosiddetto “vento solare” che deflette i raggi cosmici. I periodi di elevata attivita’ solare coincidono con una bassa produzione di 14C e viceversa come si puo’ vedere dal grafico seguente.

clip_image014

Un altro fattore che determina delle fluttuazioni del contenuto di 14C nell’atmosfera e’ il campo magnetico terrestre. La sua intensita’, infatti, modula la produzione del radiocarbonio in quanto il campo magnetico scherma l’atmosfera dal bombardamento dei raggi cosmici elettricamente carichi riducendo cosi il rapporto di 14C/12C.

clip_image016

I test nucleari in atmosfera sono un’altra sorgente di variabilita’ con un picco di 14C tra il 1950 e il 1960 con un raddoppiamento dell’attivita’ del radiocarbonio. Questa enorme quantita’ di radiocarbonio e’ stata gradualmente rimossa dall’atmosfera dai processi naturali.
clip_image018
Negli ultimi anni durante la rivoluzione industriale un ulteriore inquinamento dell’atmosfera a causa dei combustibili fossili ha determinato un significativo aumento del carbonio stabile in quanto essendo il carbone molto antico non ha piu’ alcuna presenza in esso di 14C.

clip_image020

La datazione radiocarbonica, come anticipato si ottiene confrontando la radioattività specifica del campione da datare con i corrispondenti valori di uno “standard moderno”. Esistono diversi tipi di standard moderno per il 14C ma quello piu’ in uso e’ il cosiddetto Standard Assoluto, costituito da legno del 1890, la cui radioattività specifica e’ riportata alla data convenzionale del 1950, in base al calcolo del decadimento radioattivo. Per lo Standard Assoluto (che a sua volta poi viene utilizzato per tarare gli Standard Primari), è stato scelto legname del 1890 perchè anteriore al XX secolo, durante il quale sono avvenuti, per mano dell’uomo, due fenomeni opposti e fortemente perturbatori della frazione di 14C nell’atmosfera:

1. l’utilizzo di combustibili fossili (carbon fossile, petrolio, metano, mentre in passato si bruciavano solamente legna o carbone di legna) che diminuiscono la frazione di radiocarbonio nell’atmosfera immettendo CO2 praticamente ormai priva di 14C (completamente decaduto dopo milioni di anni).
2. esplosioni nucleari nell’atmosfera (dal 1945 alla metà degli anni Sessanta), che, emettendo neutroni, hanno aumentato notevolmente la frazione di 14C.

Anche operando con le massime precauzioni, nelle misure del 14C esiste sempre un inevitabile “rumore di fondo” (background), introdotto dagli strumenti e/o dall’ambiente in cui si opera. Per questo occorre “sottrarre” il background alle misure effettuate sia sul campione da datare che sullo standard moderno. Per valutare il valore del background si eseguono misure su un apposito “bianco”, cioè su materiale contenente carbonio esclusivamente fossile (antracite, lignite) ormai privo di 14C, trattato e misurato nelle stesse esatte condizioni con cui sono stati trattati e misurati il campione da datare e lo standard moderno. Affinché le correzioni siano efficaci, poiché strumenti, solventi e ambiente variano nel tempo, occorre che le misure sui campioni da datare, sullo standard moderno e sul bianco (trattati allo stesso identico modo) vengano effettuate sullo stesso strumento più o meno contemporaneamente.
Sia il campione da datare, sia lo standard moderno, sia il background, per poter essere misurati, devono subire un trattamento chimico che li trasformi in una forma utilizzabile dallo strumento; tuttavia, prima di procedere alla trasformazione chimica, il campione deve subire un pretrattamento fisico per eliminare ogni forma di inquinamento, nonché per fargli assumere una consistenza adatta alle successive manipolazioni. Il pretrattamento fisico consiste in genere nell’asportazione meccanica delle zone più esterne del campione, le più suscettibili ad essere inquinate; allo scopo vengono utilizzati bisturi, scalpelli e carte abrasive. Nel caso delle stoffe, si ricorre spesso anche ad una “pulizia” con ultrasuoni. Successivamente il campione viene opportunamente sminuzzato per essere più facilmente aggredito dalle sostanze chimiche nei trattamenti successivi. Il pretrattamento chimico varia a seconda della natura del campione da datare e dal tipo di inquinanti che si sospettano essere presenti: in buona parte dei casi, si effettua il cosiddetto “ciclo AAA” (acido-alcalino-acido) che consiste in un primo trattamento a caldo con acido cloridrico (HCl) diluito, per eliminare eventuali tracce di calcare; segue poi uno alcalino con soda (NaOH) per eliminare gli acidi umici di origine organica in genere presenti nel terreno; si esegue quindi un nuovo trattamento acido per eliminare l’eventuale carbonato di calcio formatosi a causa dell’anidride carbonica assorbita dalla soda durante il trattamento alcalino. Spesso viene effettuato anche un lavaggio con solventi organici per eliminare grassi, resine, cere ed altre sostanze liposolubili. Lavando naturalmente con acqua distillata alla fine di ogni passaggio e quindi essiccando. Un caso assai difficile è rappresentato dal materiale osseo: oltre alla grande faciltà ad assorbire impurezze (data la loro struttura porosa), le ossa sono costituite in gran parte da materiale inorganico; inoltre, il poco materiale organico presente (per la maggior parte collagene e poche altre proteine), spesso si altera con inclusione di contaminanti. Vengono utilizzati diversi tipi di analisi e purificazione per isolare materiale quanto piu’ possibile incontaminato. Per questo motivo, anche utilizzando poi per la datazione sistemi molto sensibili, per le ossa è comunque sempre necessaria una maggior quantità di sostanza rispetto ad altri tipi di reperto. Dopo il pretrattamento (fisico e chimico), il campione da datare, lo standard moderno ed il background devono subire un trattamento chimico per assumere una “forma” utilizzabile dagli strumenti con cui verranno misurati. La prima fase consiste nella produzione di anidride carbonica: se si tratta di materiale organico, questo viene bruciato in presenza di ossigeno e di ossido di rame come catalizzatore; se invece si ha a che fare con materiale carbonatico (es. conchiglie), esso viene idrolizzato con acido cloridrico. In ambedue i casi si forma anidride carbonica (CO2), che verrà purificata. Se si effettua la datazione per via radiometrica, si può utilizzare un contatore proporzionale a gas (come fece Libby nei suoi primi esperimenti), soprattutto nelle nuove versioni di piccole dimensioni, utilizzando direttamente l’anidride carbonica (CO2), oppure trasformandola in metano o acetilene. Altrimenti (sempre operando per via radiometrica) si può ricorrere alla scintillazione liquida. In questo caso, l’anidride carbonica (CO2) viene fatta reagire con litio fuso, fino a formare carburo di litio (Li2C2); questi, reagendo con acqua, dà luogo ad acetilene (C2H2), che viene poi trasformata in benzene (C6H6), che è poi miscelato con lo scintillatore per essere “contato” in un beta counter a scintillazione liquida. Se invece si utilizza la tecnica della spettrometria di massa con acceleratore (AMS) per la misura del rapporto C14 su C12, l’anidride carbonica viene ridotta a grafite (carbonio puro) mediante idrogeno (H2) in presenza di un catalizzatore. I piccoli campioni di grafite così ottenuti, depositati su dischetti di alluminio, vengono poi analizzati dal sistema AMS.
Vediamo adesso come funzionano i tre contatori: contatore a gas, contatore scintillatore e AMS. Il primo strumento e’ un contatore che misura la radioattivita’ residua del C14. E’ costituito da un piccolo tubo metallico chiuso alle estremita’ da 2 tappi isolanti (quarzo) al centro del quale e’ teso un elettrodo metallico che viene mantenuto ad un potenziale positivo rispetto al tubo (circa 1000 V). Una volta fatto il vuoto nel tubo viene iniettato il gas da misurare (anidride carbonica, metano o acetilene) ottenuto dal campione da datare. Quando un nucleo radioattivo decade emette un elettrone che viene accelerato verso il filo metallico centrale ionizzando le molecole presenti nel tubo.

Risultati immagini per contatore a gas datazione c14


Questo innesca una vera e propria valanga di elettroni che determina un segnale proporzionale all’energia della particella beta. Il metodo radiometrico è assai preciso quando si ha a disposizione una notevole quantità di materiale non eccessivamente antico, quando cioè c’è una sufficiente quantità di atomi di 14C e quindi di radioattività residua. Passiamo adesso al contatore a scintillazione. In questo caso il campione (benzene) viene miscelato con uno scintillatore liquido costituito da una soluzione contenente una sostanza organica fluorescente che quando viene colpita dalla radiazione beta ne assorbe l’energia per poi rilasciarla immediatamente sotto forma di impulso luminoso (scintilla). Il campione mescolato allo scintillatore viene posto in un boccettino trasparente ed inserito nell’apparato di conteggio (beta counter), dove un fotomoltiplicatore  capta il “lampo” e lo trasforma in un segnale elettrico che viene “contato” da un contatore elettronico.

image

L’ultimo strumento e’ l’AMS cioe’ lo spettrometro di massa. In questo caso il materiale da misurare (campione da datare, standard moderno o “bianco”), sotto forma di piccolissime quantità di grafite (carbonio “puro”, depositato su dischetti di alluminio) viene bombardato, sotto vuoto, da un flusso di ioni di cesio positivi. le particelle ionizzate vengono fatte passare in un tubo curvato a formare un certo angolo (per esempio di 90°), alle estremità del quale è applicata una certa differenza di potenziale. Il tubo è immerso in un campo magnetico di intensità variabile: ad ogni suo valore, saranno solo le particelle di una certa massa ad uscire dall’estremità del tubo (le altre si perderanno “sbattendo” contro le pareti). In questo modo è possibile selezionare all’uscita del tubo particelle di diversa massa (spettrometria di massa). La spettrometria di massa è ampiamente utilizzata nei laboratori chimici (insieme ad altre tecniche analitiche) per individuare la struttura ed il peso molecolare delle molecole.


image




domenica 5 marzo 2017

L’auto-organizzazione dei mercati finanziari

 
Il crollo del mercato azionario e’ un calo improvviso e drammatico dei prezzi delle azioni con conseguente perdita significativa di ricchezza. I crolli in genere sono guidati dal panico degli investitori e da fattori economici sottostanti. Spesso essi seguono le cosiddette bolle speculative del mercato azionario. I crolli sono dei veri e propri fenomeni sociali dove gli eventi economici si combinano con il comportamento e la psicologia della folla formando un loop con retroazione positiva dove la vendita iniziale da parte di un piccolo gruppo convince sempre piu’ persone a fare la stessa cosa. Sono stati individuati dei path preferenziali che portano ad una crisi del mercato:
1) Un periodo prolungato di aumento dei prezzi delle azioni e un eccessivo ottimismo economico
2) Un mercato dove i rapporti P/E superano significativamente il valore medio di lungo termine
3) L’uso estensivo del cosiddetto Margin debt da parte degli investitori (il margin debt e’ il denaro che gli investitori prendono in prestito per esempio dalle banche per acquistare delle azioni)
La caratterizzazione matematica dei movimenti dei mercati azionari e quindi la possibilita’ di prevedere i crolli del mercato sono stati da sempre un campo di interesse di economisti, matematici e ultimamente anche di fisici. L’assunzione convenzionale e’ quella di un mercato che si muove seguendo una distribuzione log-normale. In altre parole si assume che il logaritmo dei rendimenti (rapporto tra prezzo di oggi St e quello di ieri St-1) sia distribuito come una gaussiana (distribuzione a campana).

image

Questa assunzione comunque non e’ sempre vera come si puo’ osservare prendendo come esempio i prezzi dell’ultimo anno del titolo Google. Il test di normalita’ di Shapiro-Wilk non passa essendo il valore molto prossimo a zero (una distribuzione normale deve avere questo parametro tendente a 1).


image


La stessa cosa e’ vera per i rendimenti del titolo Apple nell’ultimo anno.


image

Per questo motivo il matematico Benoit Mandelbrot nel 1963 suggeri’ che questa statistica fosse incorretta osservando che i movimenti significativi dei prezzi (i crolli) sono molto piu’ comuni di quanto previsto da una distribuzione lognormale. Dopo le osservazioni di Mandelbrot altri studiosi hanno suggerito che i movimenti del mercato vengono spiegati meglio da concetti utilizzati in teoria del caos e dell’analisi non-lineare. Tutto questo e’ stato riassunto con linguaggio non matematico da George Soros nel suo libro “L’alchimia della finanza” dove parla di quella che lui chiama la riflessivita’ dei mercati e i loro movimenti non lineari. La tesi principale e’ che i mercati sono tutt’altro che efficienti e che l’uomo oeconomicus e’ tutt’altro che razionale. Al contrario i prezzi di mercato riflettono piu’ che altro l’ignoranza i pregiudizi e spesso l’irrazionalita’ di milioni di investitori. Essi non riflettono accuratamente le condizioni sottostanti fornendo un quadro che in un modo o nell'altro è sempre di parte o distorto. Le visioni distorte dei protagonisti del mercato ed espresse nei prezzi possono, in certe circostanze, intaccare i fondamentali del mercato. Questo circuito di andata e ritorno tra i prezzi di mercato e la realtà sottostante e’ la reflexivity, "riflessività" di Soros. I mercati finanziari riflettono sempre questo circuito a due vie e possono a tratti allontanarsi molto dal cosiddetto equilibrio. In altre parole, è tipico dei mercati finanziari essere predisposti alla creazione di bolle speculative. In economia non vince l'ordine, ma il suo contrario, perché le scelte operate ad alto livello sui mercati internazionali sono pur sempre il frutto di interessi (e di errori) di singoli individui. L'economia viene influenzata (quindi subisce un riflesso) dalle condizioni sociali vigenti, che raramente sono di stabilità; molto più spesso sono di panico, paura, euforia. Condizioni che, se portate alle estreme conseguenze, possono sfociare in situazioni d'emergenza quali una bolla immobiliare e il crollo delle borse. In economia una bolla speculativa e’ una particolare fase di mercato caratterizzata da un aumento considerevole e ingiustificato dei prezzi di uno o più beni, dovuto ad una crescita della domanda repentina e limitata nel tempo. Alla fase di nascita e di crescita della bolla segue poi la fase di scoppio che tende a ripristinare i valori originari del bene in questione. L'eccesso di domanda che spinge verso l'alto in poco tempo il valore di un bene, di un servizio, di una impresa o più semplicemente di un titolo, si può ricondurre all'irrazionale (o razionale) euforia di soggetti economici convinti che una nuova industria, un nuovo prodotto, una nuova tecnologia potranno offrire cospicui guadagni e registrare una crescita senza precedenti. Scatta, pertanto, la corsa all'acquisto del diritto, nella speranza di rivendere lo stesso ad un prezzo superiore. La corsa all'acquisto provoca un aumento del prezzo che conferma, agli occhi di molti, la bontà della precedente previsione di un futuro aumento del prezzo del diritto. Questo stimola ulteriormente gli acquisti e quindi fa aumentare ancora una volta il prezzo. La profezia in altri termini si avvera, inducendo nuovi soggetti economici ad acquistare i medesimi titoli. Tra questi, man mano che i valori crescono, si annoverano sempre più soggetti solitamente restii ad acquistare strumenti finanziari dal rischio elevato. Quando il valore dei titoli scende repentinamente e si assiste a un cambiamento radicale delle prospettive economiche retrostanti, si parla di scoppio della bolla speculativa. L'eccesso di acquisto di un diritto, infatti, ad un certo punto si arresta. Le cause possono essere almeno tre:
  • è difficile trovare nuovi investitori disposti ad acquistare ulteriori diritti ad un prezzo che nel frattempo è diventato elevato;
  • chi ha comperato diritti in precedenza è spinto a vendere i titoli per monetizzare il guadagno;
  • le ottimistiche prospettive di guadagno precedentemente formulate possono essere riviste e ridimensionate.
Alla fase di crescita dei valori segue dunque una fase opposta, durante la quale si assiste ad un calo considerevole delle quotazioni. All'eccesso di vendite contribuiscono la consapevolezza che, di fronte a prospettive economiche meno ottimistiche, i valori dei titoli trattati sono destinati a calare e la volontà di molti possessori di titoli di cederli prima che si verifichino ulteriori diminuzioni del valore.
Torniamo alla non linearita’ dei mercati riportando una ricerca del MIT che ha evidenziato come la frequenza dei crolli di mercato segue una legge di potenza cosi’ come fanno i terremoti (vedi altri post sul mio blog su questo tema) e altri sistemi naturali. Ma la cosa strana e’ che il mercato non ha nulla di naturale essendo un mondo artificiale. Il mercato e’ pieno di casualita’, ma alla fine della giornata emerge un chiaro pattern che combacia con i pattern evidenziati in sistemi diversi come terremoti, distribuzione delle dimensioni delle citta’ e le parole in un vocabolario. Gli studiosi del MIT hanno anche trovato che le ampie fluttuazioni dei prezzi sono indotte dai partecipanti al mercato quando essi si trovano ad operare sotto pressione. Come in Giappone, per esempio, hanno costruito palazzi che resistono a sismi di forte entita’ ed evitare tante vittime, allo stesso modo bisogna fare in economia anche se e’ molto difficile. Oltre ai crolli del mercato, anche i volumi, le azioni vendute/comprate in un giorno e i prezzi delle azioni seguono una legge di potenza. Questo vuol dire per esempio, che il numero di giorni in cui il prezzo di una data azione si muove del 1% e’ 8 volte il numero di giorni in cui l’azione si muove del 2%, che a sua volta sara’ 8 volte il numero di giorni che il prezzo dell’azione si muove del 4% , che sara’ 8 volte il numero di giorni in cui il prezzo dell’azione si e’ mosso del 8% e cosi via. Per comprendere questi pattern il team del MIT ha analizzato i grossi azionisti, come i fondi comuni di investimento con piu’ di 100 milioni di dollari in attivo. Anche loro seguono una legge di potenza; il numero di azionisti che gestiscono 1 miliardo di dollari e’ il doppio di quelli che gestiscono 2 miliardi che a sua volta e’ il doppio di quelli che gestiscono 4 miliardi e cosi via (per chi di voi mi segue da tempo si sara’ accorti che questa altro non e’ che la cosiddetta legge di Zipf). Quando gli enti, come quelli che gestiscono i fondi comuni, che possono muovere grosse quantita’ di soldi si trovano a lavorare sotto pressione si possono avere grosse fluttuazioni di prezzi e la possibilita’ quindi di una bolla che a tendere puo’ diventare un vero e proprio crollo. Questi e altri studi dimostrano in modo inequivocabile che i crolli del mercato sono un chiaro segno di criticita’ auto-organizzata del mercato stesso. Le forti fluttuazioni delle quotazioni in borsa, come gli improvvisi crolli sono determinati dal loro naturale funzionamento, anche in assenza di fragilità strutturale o di interferenze malavitose criminali. Lo stato di non equilibrio è uno stato critico e quindi presenta cambiamenti improvvisi ed inspiegabili, che fortunatamente sono rari, come rari sono i terremoti catastrofici. Le gigantesche e rovinose crisi finanziarie, anche se rare (e più rare sono, più sono nefaste) sono eventi ordinari del tutto naturali e seguono le stesse leggi fisiche dei terremoti. Un’altra ricerca fatta all’Istituto dei Sistemi Complessi in New England ha trovato dei segnali premonitori dei crolli del mercato usando dei nuovi strumenti statistici sviluppati nell’ambito della teoria della complessita’. Questo lavoro suggerisce che il panico che porta ai crolli del mercato deriva da un’aumentata mimicita’ cioe’ della serie che ognuno copia l’altro. Un significativo aumento della mimica nel mercato si e’ presentato per esempio nell’anno precedente ad ognuno dei crolli degli ultimi 25 anni. Quando gli investitori copiano molto da vicino gli spunti degli altri e’ facile entrare in una situazione di panico che coinvolge il mercato. Quando i grandi investitori iniziano a vendere delle azioni, essi guidano il prezzo in basso in quanto la vendita genera paura nei piccoli investitori che iniziano a vendere anche loro. Se questo loop va fuori controllo il mercato entra in uno stato di panico. Quest’ultimo in economia come in altri aspetti della vita, puo’ essere generato da reali minacce esterne al sistema ma anche da nervosismo auto-generato internamente al sistema. Indipendentemente dal fatto che la minaccia e’ reale o immaginaria, un sistema vivente entra in uno stato di panico quando e’ sopraffatto da agitazione, ansia e paura. Maggiore e’ il numero di organismi presenti nel sistema e piu’ catastrofici sono gli effetti generati dal panico. Cercare di prevedere il comportamento di sistemi sociali ed economici in generale e’ molto complicato. Essi sono composti da agenti umani, tutti con i loro interessi personali, strategie e obiettivi. Ci sono comunque dei casi in cui le interazioni tra individui danno origine ad un comportamento collettivo. In questi casi, la previsione e’ possibile in quanto se gli individui si muovono insieme lo spazio dei possibili risultati del sistema si rimpicciolisce. In questo modo se il panico e’ realmente la causa delle crisi finanziarie, se si riesce a quantificarlo si potrebbe pensare di prevedere quando queste crisi si presenteranno. Proviamo allora a rispondere a queste due questioni:

· E’ possibile quantificare il panico?
· E’ possibile usare il panico per prevedere le crisi del mercato?

Nell’economia tradizionale i prezzi riflettono le aspettative degli individui in base alle notizie: solo le informazioni esterne al sistema possono guidare le decisioni. In realta’, i mercati sono delle vere e proprie reti di influenza (Fig. 1): le persone parlano tra loro e guardano quello che fanno gli altri prima di decidere cosa fare. Questo significa che per avere il quadro completo del sistema, bisogna considerare anche l’imitazione interna al sistema stesso.


                         Economia tradizionale                                            Sistemi complessi

image

Fig. 1 Confronto tra la prospettiva del mercato tradizionale, dove solo le notizie dall’esterno influenzano le decisioni dei singoli agenti (nodi), e quella complessa dove viene considerata l’interazione interna tra gli agenti.


Il gruppo di studiosi del New England ha costruito un modello includendo entrambi i fattori e verificato il comportamento di tale modello sui dati economici per quantificare i due effetti. Per semplificare, il sistema puo’ essere pensato come una rete completamente connessa con N nodi, dove ogni nodo puo’ assumere i valori binari +1 o -1. Ad ogni step temporale, un nodo guarda i primi vicini, ne prende uno a caso, e con una certa probabilita’, copia quello che sta facendo. Alcuni nodi sono fissi e non possono cambiare il loro valore. I nodi che fluttuano nel tempo rappresentano gli investitori mentre quelli fissi le notizie economiche provenienti dai mass media.
Alcune volte il valore delle azioni dipende dalle notizie e altre volte dalla copia dei primi vicini. Il valore binario che le azioni possono assumere rappresenta il segno del rendimento. Il numero di nodi fissi (notizie) che influenzano il valore delle azioni positivamente puo’ essere indicato con la lettera U mentre il numero che influenza il valore delle azioni negativamente puo’ essere indicato con D. Questo modello e’ simile a quello di Ising nel senso che riesce a descrivere la transizione da stati ordinati a disordinati e viceversa. I parametri importanti che determinano il comportamento di questo modello sono due:

· Il rapporto tra i collegamenti (links) esterni ed interni (cioe’ l’influenza delle notizie (U+D)/N)
· La frazione dei nodi positivi (cioe’ il rapporto (U-D)/N).

Qui di seguito i risultati dell’applicazione del modello a dei dati reali. E’ stato considerato l’indice Russel 3000 che comprende le 3000 azioni americane piu’ negoziate in borsa. La figura 2 indica il co-movimento delle azioni nel tempo nel senso che rappresenta il numero di giorni dell’anno in cui una frazione del mercato si muove in alto (o in basso). Intuitivamente se in media piu’ del 50% del mercato si muove nella stessa direzione (in alto o in basso) questo rappresenta un co-movimento. Nel 2000 per esempio la curva mostra un picco a 1/2 il che significa che il prezzo del 50% di azioni si sta muovendo in alto e il 50% in basso. Le linee continue rappresentano le distribuzioni sperimentali mentre le linee tratteggiate rappresentano il risultato del modello. Come si vede il fit e’ molto buono.
 

image

Fig. 2 Sull‘asse verticale e’ riportato la frazione di giorni dell’anno in cui una certa frazione di azioni (asse orizzontale) si e’ mossa in alto (rendimento positivo).


Nei 6 anni riportati in figura 2, si vede che avvicinandosi al 2008 la curva si appiattisce indicando che la probabilita’ di qualsiasi frazione e’ sempre la stessa. Quindi la probabilita’ che una larga parte del mercato si muova nella stessa direzione (in alto o in basso), in qualsiasi giorno dell’anno aumenta drammaticamente. Un livello cosi alto di co-movimento puo’ dare origine ad un comportamento collettivo e quindi ad una crisi finanziaria. Notare come dal 2000 al 2008 il valore del parametro U diminuisce indicando chiaramente una minore influenza delle notizie dei mass media sul sistema (i nodi fissi) e quindi una maggiore tendenza all’imitazione interna. Analiticamente la probabilita’ di co-movimento e’ data da:

image

dove N e’ il numero di azioni, k il numero di azioni con rendimento positivo e le parentesi indicano i coefficienti binomiali. Il comportamento del modello e’ controllato dall’intensità’ degli stimoli esterni U e D rispetto a quelli delle interazioni interne alla rete. Quando le interazioni interne sono deboli in confronto alle forze esterne (D, U>>1), la distribuzione e’ normale. Quando le interazioni interne sono forti (U e D piccoli) allora la distribuzione inizia a diventare uniforme, diventando esattamente uniforme in corrispondenza del valore critico D=U=1, dove l’influenza esterna ha l’intensita’ di un singolo nodo. Nella parte alta della figura 3 e’ riportato l’andamento temporale del parametro U. Mentre negli anni 90 c’era una situazione salutare per la borsa la stessa cosa non si puo’ dire oggi poiche’ ognuno cerca di copiare l’altro. La seconda immagine della figura 3 indica gli 8 giorni con crollo del prezzo significativo nel periodo 1985-2010 indicati con delle linee rosse. Questi sono stati raggruppati in 4 finestre temporali indicate in celeste. Come utilizzare il parametro U per individuare questi giorni?
 

image

Fig. 3 Il pannello in alto mostra l’andamento del parametro U nel tempo. Quello in basso invece mostra la variazione annuale del parametro U come frazione della sua standard deviation calcolata sugli anni precedenti.


Piu’ che il valore di U e’ importante considerare il cambiamento di U da un anno a quello precedente diviso la standard deviation delle sue fluttuazioni. Ogni crollo e’ preceduto da un semplice pattern. Facciamo partire il nostro orologio quando il cambiamento di U scende al di sotto di 2 standard deviations: all’interno del prossimo anno ci sara’ un crollo significativo del mercato. Si azzera l’orologio una volta che la variazione di U diventa positiva di nuovo. Se si segue questo pattern si puo’ vedere come tutti gli otto crolli vengono previsti correttamente. Non ci sono ne’ falsi positivi ne’ falsi negativi. Questo ricorda molto da vicino il comportamento collettivo dei sistemi complessi. Una volta che il sistema subisce una perturbazione (rilassamento) c’e’ un rilascio improvviso di energia e poi molto lentamente il sistema si porta di nuovo verso uno stato di criticita’ pronto a dare origine ad una nuova catastrofe (o valanga nell’esperimento del mucchietto di sabbia di Per Back...). Costruire modelli e’ divertente, e anche se tutti i modelli sono sbagliati, qualcuno di questi e’ certamente utile.
Un altro modello che merita la nostra attenzione e’ quello proposto da due fisici polacchi e che utilizza il cosiddetto esponente di Hurst per fare una previsione statistica dei crolli del mercato. Vediamo di cosa si tratta. Anche in questo studio viene evidenziata la complessita’ del sistema finanziario e della sua non predicibilità. Comunque dalla meccanica statistica sappiamo che non c’e’ bisogno di sapere dove si muovera’ esattamente una particella del sistema per trovare l’equazione di stato di questo sistema. Ricordiamo che l’equazione di stato fornisce una relazione matematica tra due o più variabili di stato associate alla materia, come temperatura, pressione, volume o energia interna. Le equazioni di stato sono utili nella descrizione delle proprietà dei fluidi (e delle loro miscele), dei solidi e persino per descrivere l'interno delle stelle. L’equazione di stato e’ sufficiente nelle applicazioni pratiche per darci un’informazione globale del sistema grazie alle variabili macroscopiche che sono legate a quelle microscopiche a noi inaccessibili. In molti casi questa conoscenza e’ sufficiente ad indicarci la direzione in cui il sistema evolvera’. Allo stesso modo i due fisici si chiedono se e’ possibile trovare dei parametri macroscopici relativi al mercato che possano essere degli indicatori delle dinamiche interne del sistema finanziario. Come gia’ detto la distribuzione dei rendimenti non segue esattamente una legge Gaussiana quanto invece una legge di potenza e quindi e’ normale attendersi delle correlazioni di lungo periodo cioe’ una sorta di lunga memoria del mercato. Quindi e’ giusto andare a cercare tali correlazioni nei dati storici dei mercati azionari. Cio’ e’ stato fatto da questo team polacco utilizzando la cosiddetta tecnica DFA (Detrended Fluctuations Analysis). Questa applicata alle serie temporali degli strumenti finanziari permette di estrarre l’esponente di Hurst che misura il livello di persistenza di un dato segnale. Se il sistema coincidesse con un cammino casuale il valore dell’esponente H sarebbe di 0.5 indicando una serie di eventi indipendenti: ogni variazione non è influenzata dalle precedenti e nemmeno influenzerà quelle future. Se invece l’esponente e’  maggiore di 0.5 questo sta a significare che la distanza coperta dal sistema è assai maggiore di quella predetta dal random walk model: il sistema risulta caratterizzato da un effetto memoria per il quale ogni osservazione è influenzata da quelle passate ed influenzerà quelle future. Se questo esponente e’ diverso da 0.5 questo implica l’esistenza di correlazioni a lungo range. In particolare se l’esponente di Hurst e’ maggiore di 0.5 allora il segnale e’ persistente mentre se e’ minore di 0.5 allora il segnale e’ anti-persistente. Per serie persistente, intendiamo una serie caratterizzata da una dipendenza positiva tra le variazioni generate dal processo: se nell’ultima osservazione abbiamo registrato un incremento (decremento) è più probabile che l’osservazione successiva registri un ulteriore incremento (decremento). La probabilità di registrare due variazioni di segno concorde risulta tanto più alta quanto piu’ H si avvicina ad uno. Per anti-persistente invece intendiamo una serie che se in un dato periodo ha subito un incremento (decremento) è più probabile registrare un successivo decremento (incremento) che un ulteriore incremento (decremento). La serie risulta più volatile di una serie casuale (poiché caratterizzata da più frequenti inversioni) tanto più il valore di H si avvicina a zero. Prima di un cambio drammatico del prezzo di uno strumento finanziario ci si aspetta che esso venga preceduto da uno stato di eccitazione del mercato (nervosismo) che a sua volta e’ riflesso dalla forma dei cambiamenti di prezzo dei giorni seguenti. Questi cambiamenti dovrebbero diventare meno correlati prima di un crollo nel trend del segnale. Al contrario quando il trend nel mercato e’ forte e ben determinato, un aumento (diminuzione) del prezzo visto nel passato recente rende piu’ probabile un segnale in crescita (decrescita) anche nel futuro immediato, In altre parole l’esponente di Hurst dovrebbe mostrare una diminuzione significativa e repentina se il trend sta cambiando velocemente la sua direzione come in caso di crollo del mercato. Tra le varie tecniche disponibili per calcolare l’esponente di Hurst i due studiosi hanno scelto quella del DFA essendo piu’ robusta e applicata all’indice Dow Jones Industrial Average (DJIA). Nella fig 4 possiamo vedere il trend dell’indice DJIA e il valore dell’esponente di Hurst indicato con alfa per diversi valori di N che indicano la lunghezza delle finestre temporali in cui viene diviso il segnale come richiesto dalla tecnica DFA. Notiamo che per N=350 e 420 l’esponente di Hurst e’ molto simile cosa non vera invece per N=210. All’aumentare di N si nota come l’andamento dell’esponente diventa piu’ liscio (smooth). Comunque la scelta di N e’ del tutto empirica e non c’e’ alcuna legge per determinarlo. Per l’analisi del segnale DJIA riportato nella figura 5 il valore di N scelto e’ stato di 240. Il primo crollo analizzato e’ stato quello del 1929 il cui dettaglio e’ mostrato in fig 6. Si vede chiaramente come l’abbassamento repentino del valore del DJIA corrisponde ad un abbassamento dell’esponente di Hurst con quest’ultimo che raggiunge il minimo assoluto del periodo a circa 0.45, 2 settimane prima del crollo. Per verificare se questa coincidenza fosse semplicemente dovuta al caso i due fisici polacchi hanno ripetuto la stessa analisi per il crollo del 1987 e 1998 confermando un abbassamento dell’esponente di Hurst (nervosismo dei mercati) alcune settimane prima del crollo del mercato. In definitiva essi hanno provato che l’esponente di Hurst si abbassa drasticamente prima di ogni crollo dell’indice DJIA. Questo conferma che l’esponente di Hurst puo’ essere usato come misura dello stato attuale di eccitazione del mercato anche se va ricordato che fattori esterni agli investitori possono accelerare o decelarare il valore dell’esponente di Hurst e mettere in crisi la previsione.
Prima di chiudere il post va precisato che i modelli descritti fin qui e tanti altri simili che si possono trovare in rete non hanno la pretesa di predire quando ci sara’ il prossimo crollo finanziario o il prossimo terremoto. Essi nascono con il solo intento di fare una previsione statistica. Nessuno sapra’ la data e l’ora esatta del prossimo crollo finanziario o terremoto. L’unica cosa possibile e’ calcolare la probabilita’ che in un certo periodo possa presentarsi una crisi finanziaria o un terremoto. E niente di piu’.
 

image

Fig 4, Andamento nel tempo dell’esponente di Hurst indicato con alfa per l’indice DJIA nel periodo Feb 1913-Giu 1914 per tre differenti finestre temporali N. I valori di alfa sono stati moltiplicati per 2 e spostati lungo l’asse verticale per apprezzare le differenze.

 

image

Fig 5. Andamento dell’indice DJIA tra il 1896 e 2003. Gli eventi economici piu’ importanti sono riportati sulla curva.

 

image

Fig 6. Il crollo del 1929. In alto l’andamento del DJIA e in basso il corrispondente esponente di Hurst, In corrispondenza del crollo dei prezzi si nota un repentino abbassamento dell’esponente.


http://www.wikio.it