mercoledì 30 maggio 2012

Terremoti ed Internet. Simili ma non troppo

Visto i recenti avvenimenti dell’Emilia Romagna credo di fare cosa gradita ai frequentatori di questo blog pubblicando il capitolo 33 del mio libro L’Universo dei numeri, i numeri dell’universo. Buona lettura.

I terremoti sono fenomeni naturali che si verificano continuamente in zone ben precise della crosta terrestre, in relazione a complicati processi di evoluzione del nostro pianeta. Le aree, più frequentemente colpite dai terremoti, sono quelle che si trovano ai limiti delle placche o zolle, in cui è divisa la parte più esterna della terra (litosfera) secondo la teoria della tettonica a zolle. I terremoti avverrebbero proprio ai margini di tali blocchi, in quanto essi si avvicinano, si allontanano, oppure scorrono l’uno accanto all’altro provocando notevoli deformazioni della litosfera fino ad arrivare a delle fratture chiamate faglie, lungo le quali si verificano più facilmente le successive rotture della crosta terrestre (vedi figura 33.1).

Lungo queste fratture si generano intensi rilasci di energia sottoforma di onde meccaniche, definite appunto "onde sismiche". In generale, l’energia durante un terremoto, viene rilasciata tramite una forte scossa principale, per lo più preceduta da piccole scosse premonitrici, dette foreshocks, e seguita da una serie di numerosissime scosse dette aftershocks. Il volume di roccia da cui si origina la frattura e da cui quindi parte la propagazione delle onde sismiche, prende il nome di fuoco. Per semplicità, l’ubicazione della zona sorgente si assimila ad un punto denominato ipocentro; il suo corrispondente sulla superficie terrestre si chiama invece epicentro. I sismologi classificano i terremoti, in base alla profondità del loro ipocentro: superficiali (0-70 km), intermedi (70-300 km) e profondi (300-720 km). I terremoti superficiali sono quelli potenzialmente più distruttivi e pericolosi per gli insediamenti umani. Il meccanismo alla base dei terremoti è stato compreso in seguito alle ricerche del geologo F. Reid ed è da ricercare, come già detto, nelle forze tettoniche che continuano a deformare lentamente le rocce della crosta terrestre lungo le linee di separazione delle placche.

Figura 33.1 Le placche della litosfera (sinistra) e la distribuzione dei terremoti (destra).

Le rocce, che si deformano, immagazzinano energia elastica, proprio come fa un bastone, quando viene incurvato. Quando le forze di legame delle rocce vengono superate, si ha un brusco spostamento delle rocce nel punto più debole della faglia. Il movimento in quel punto (ipocentro del terremoto) provoca istantaneamente una deformazione più in là lungo la faglia, e qui si potrà verificare un ulteriore slittamento; il processo si ripete fino a, quando non si sarà liberata la maggior parte dell’energia elastica immagazzinata. Questo spostamento permette alla roccia deformata di ritornare di colpo alla sua posizione originale, producendo onde sismiche (vedi figura 33.2). Un parametro importante per caratterizzare un terremoto è la sua intensità; questa viene misurata per mezzo di due scale, che prendono il nome dagli scienziati che le hanno sviluppate: Mercalli e Richter. La Scala Mercalli è divisa in 12 gradi d’intensità crescente ed è basata sull’osservazione degli effetti del terremoto partendo da un valore 1 (impercettibile) fino ad un valore 12 (totalmente catastrofico). È opportuno sottolineare che con tale scala si misura l’intensità, cioè esclusivamente gli effetti che un terremoto produce sulle costruzioni, sul terreno e sugli insediamenti umani. La Scala Richter, invece, misura quantitativamente l’energia trasportata dalle onde sismiche secondo una scala che va da valori bassi, anche negativi, fino a valori compresi tra 8 e 9, misurati da appositi strumenti; con questa scala, quindi, si effettua una misura più oggettiva, cioè si calcola la magnitudo. La magnitudo (indicata con M) è una misura dell’energia rilasciata durante un terremoto nella porzione di crosta dove questo si genera.

 

Figura 33.2 Modello della tettonica a zolle.

I terremoti sono caratterizzati da una fenomenologia molto ricca, che da sempre ha attratto l’attenzione di fisici e matematici che li hanno considerati dei sistemi complessi non facili da analizzare. Questo perchè sia l’ampiezza che il luogo in cui un terremoto si presenta sono intrinsecamente probabilistici.

I sismologi hanno identificato due leggi empiriche che regolano i terremoti. Una è la legge di Gutenberg-Richter, che stabilisce che la frequenza dei terremoti obbedisce ad una legge di potenza rispetto all’energia rilasciata. Questa legge di potenza rende inutile ogni tentativo di distinguere statisticamente i terremoti in base alla loro magnitudo a causa dell’assenza di una scala tipica di energia. La presenza di una legge di potenza per l’energia rilasciata dai terremoti significa che in natura molto spesso i terremoti sono di bassa intensità e raramente solo sono catastrofici. Ma il meccanismo che regola le scosse di bassa intensità è lo stesso di quello che regola le scosse di alta intensità.

L’altra legge è quella di Omori, che stabilisce che il numero di scosse d’assestamento dopo la scossa principale segue una legge di decadimento del tipo:

dove p è una costante che varia da 0.5 a 2.5 con un valore tipico vicino ad 1. Questa legge stabilisce che il numero di scosse di assestamento diminuisce rapidamente subito dopo la scossa principale e poi molto lentamente nel tempo. I terremoti mostrano, anche, una struttura frattale sia da un punto di vista spaziale che temporale. Analizzando la distribuzione degli epicentri dei terremoti di particolari regioni della terra come quella mostrata in figura 33.3, i ricercatori hanno verificato che questi tendono a distribuirsi in clusters senza una particolare scala. Coprendo l’immagine della figura 33.3, con un reticolo di lunghezza fissata e colorando i quadratini di nero se in essi cade almeno un punto dell’epicentro di un terremoto, ci si accorge che la distribuzione spaziale originaria non cambia all’aumentare della dimensione dei quadrati del reticolo. A tutte le scale l’immagine che ne risulterà sarà sempre la stessa. Usando le tecniche descritte nel capitolo X, gli scienziati hanno calcolato una dimensione frattale tipica dei terremoti di circa 1.5. Lo stesso discorso vale anche considerando gli intervalli temporali che intercorrono tra i terremoti in un determinato arco temporale. Come si può vedere dalla figura 33.4, la distribuzione temporale dei terremoti con magnitudine maggiore di 6 non è del tutto casuale in quanto c’è un chiaro fenomeno di raggruppamento (clustering). Per capire se anche in questo caso abbiamo una mancanza di scala si può dividere l’asse temporale della figura 33.4, in intervalli temporali di diverse lunghezze come mostrato in figura 33.5. Si nota immediatamente che il comportamento generale della frequenza per una data scala appare simile a quello delle altre scale (invarianza di scala). Quello che è interessante è la ricorrenza dei picchi allo stesso istante su tutte le scale di tempo. Una chiara indicazione di una struttura frattale essendo gli eventi altamente localizzati nel tempo e presenti con una probabilità che è indipendente dalla scala temporale. Per essere più precisi si tratta di una struttura multi frattale, cioè una collezione di monofrattali sovrapposti che dà luogo a degli intervalli temporali più densamente popolati e ad altri meno (vedi figura 33.6). Tutto ciò ha una forte somiglianza con i sistemi complessi in stati critici lontani dall’equilibrio. Poiché l’approccio delle reti complesse si è dimostrato essere un potente mezzo per analizzare le strutture cinematiche e dinamiche dei sistemi complessi, alcuni ricercatori lo hanno applicato anche allo studio dei terremoti. In questo caso la rete viene costruita nel seguente modo. La regione geografica di interesse viene divisa in tante piccole celle di forma cubica. Una cella viene vista come un vertice (nodo) della rete se all’interno di essa si è manifestato un terremoto di qualsiasi magnitudo. Due terremoti successivi definiscono un arco tra due vertici. Se essi capitano nella stessa cella allora l’arco si richiude sullo stesso vertice (loop). Questa procedura rende possibile la mappatura degli eventi sismici tramite un grafo probabilistico dinamico, che chiameremo la rete dei terremoti.

 

Figura 33.3 Mappa dei terremoti avvenuti in Anatolia tra il 1900 e il 1992.

 

Figura 33.4 Momento sismico (una grandezza equivalente all’energia rilasciata durante un terremoto) nel tempo (in secondi). Il periodo temporale è 1984-2002. Sono stati considerati solo i terremoti con magnitudine maggiore di 6.

 

Figura 33.5 Evoluzione temporale degli eventi sismici avvenuti nella regione dell’Anatolia a differenti scale temporali.

 

Figura 33.6 Metodo per costruire un multi frattale. Si parte col considerare n eventi distribuiti su un intervallo temporale di lunghezza 4, lasciando vuoto il secondo sito. Alla seconda iterazione, la nuova distribuzione è la somma della configurazione per n=1 più una sua versione ingrandita due volte.

In questo modello, gli archi della rete rappresentano la correlazione tra gli eventi sismici (vedi figura 33.7). Dall’analisi di un tale modello emerge la presenza di alcuni nodi che corrispondono alle scosse principali con un numero molto elevato di connessioni (hubs). Ciò è in accordo con quanto scoperto dall’analisi dei dati reali che mostrano che le scosse di assestamento tendono sempre a ritornare nel luogo della scossa principale. Questo è il motivo per cui un nodo che rappresenta una scossa principale tende ad avere un numero elevato di connessioni, cioè tende a diventare un hub. Come mostrato in figura 33.8, la distribuzione delle connessioni segue una legge di potenza del tipo:

dove gamma è una costante positiva. Questo significa che la rete dei terremoti è una rete senza scala (scale-free), in accordo con la legge di Gutenberg-Richter, che stabilisce che la frequenza dei terremoti decade lentamente secondo una legge di potenza rispetto all’energia rilasciata. Dall’analisi della rete dei terremoti è emerso, anche, un rapporto dei coefficienti di clustering che può variare tra 50 e 100 a secondo della dimensione del reticolo utilizzato. Essendo il coefficiente di clustering notevolmente più grande di quello delle reti casuali e poiché la distanza media della rete dei terremoti è molto piccola, questo dimostra in modo inequivocabile che la rete dei terremoti è una rete di piccolo mondo. Per poter andare avanti con l’associazione tra terremoti e reti bisogna introdurre un’altra caratteristica importante delle reti complesse: l’organizzazione gerarchica. Per dimostrare che una rete è organizzata in modo gerarchico va analizzato il coefficiente di clustering in funzione del numero di connessioni di ogni nodo k. Se esso segue una legge di potenza del tipo:

allora la rete ha una struttura gerarchica. Questo è esattamente il caso della rete dei terremoti come si può vedere dalla figura 33.9. La presenza di una struttura gerarchica è molto importante da un punto di vista fisico. Per poterla spiegare, infatti, bisogna assumere che la regola “i ricchi diventano sempre più ricchi” non è vera per tutti i nodi della rete dei terremoti. Alcuni di questi associati a delle faglie attive possono disattivarsi attraverso il processo di rilascio dello stress da parte della faglia e quindi non possono più ricevere nuove connessioni.

 

Figura 33.7 Rete dei terremoti della California nel periodo 1984-2003.

 

Figura 33.8 Distribuzione delle connessioni per la rete dei terremoti della California nel periodo 1984-2003. In a è stato usato un reticolo con dimensioni 10x10x10 Km mentre in b un reticolo 5x5x5 Km.

La struttura gerarchica scompare se vengono rimosse le connessioni deboli (per esempio i terremoti con una magnitudo minore di 3).

 

Figura 33.9 Distribuzione del coefficiente di clustering per la rete dei terremoti della California nel periodo 1984-2003. In (a) è stato usato un reticolo con dimensioni 10x10x10 Km mentre in (b) un reticolo 5x5x5 Km.

La natura scale-free, il fenomeno di piccolo-mondo, la crescita inomogenea delle connessioni e la struttura gerarchica indicano che la rete dei terremoti è molto simile a quella di Internet, anche se differiscono in un punto. Si tratta della proprietà di correlazione delle connessioni. Essa indica qual è la probabilità che un nodo con molti gradi (pochi gradi) sia connesso ad uno con molti gradi o ad uno con pochi gradi. Se questo parametro tende ad aumentare al variare del numero di gradi k allora la rete è detta assortiva mentre se il parametro tende a diminuire la rete è detta disassortiva. Per la rete dei terremoti si trova una correlazione che tende ad aumentare come mostrato in figura 33.10, indicando che i terremoti costituiscono una rete assortiva. Perciò, i nodi con un numero elevato di connessioni tendono ad essere collegati uno all’altro, cioè i nodi che rappresentano terremoti più intensi, tendono ad essere connessi tra loro. Al contrario, Internet, è una rete disassortiva e quindi ha esattamente il comportamento opposto di quello della rete dei terremoti.

Altra caratteristica molto importante dei terremoti e la loro periodicità. Dopo quanto tempo mediamente un terremoto torna nel punto iniziale, cioè nel nodo iniziale della rete dei terremoti? Come mostrato in figura 33.11, la distribuzione dei periodi (che per una rete corrisponde al numero di connessioni Lp da attraversare) segue anch’essa una legge di potenza. Questo implica che ci sono terremoti con periodi molto lunghi, che, da un punto di vista statistico, rendono molto difficile stabilire dopo quanto tempo un terremoto si può ripresenterà in uno stesso luogo. Ciò rende quasi impossibile qualsiasi tipo di previsione.

Oltre all’approccio di rete complessa, i terremoti possono essere modellizzati efficacemente anche utilizzando la cosiddetta teoria SOC (Self-Organized criticality), secondo la quale i sistemi dinamici, lontani dall’equilibrio, possono evolvere spontaneamente verso uno stato critico, per un ampio intervallo di valori dei parametri caratteristici del sistema. Un esempio che illustra il meccanismo SOC è il cosiddetto modello del mucchietto di sabbia o “Sand-pile”. Si tratta di un piatto su cui si fanno cadere dall’alto, uno pera volta, dei granelli di sabbia. Questi granelli si disporranno in una struttura a “pila” di forma conica. Man mano che si aggiungono granelli di sabbia, la pendenza di questo cono aumenterà, fino a raggiungere un valore critico, oltre il quale qualsiasi aggiunta di granelli di sabbia determinerà delle valanghe che andranno a riempire gli spazi rimasti vuoti vicino alla pila di sabbia. Continuando ad aggiungere altra sabbia, il numero di granelli sovrabbonderà e cadrà al di là del piatto. Quando il numero dei granelli persi sarà uguale in media a quello dei grani aggiunti, il mucchietto raggiungerà il suo stato critico. Anche se questo modello è molto semplice, esso si adatta bene a descrivere molti sistemi fisici ed è in grado di generare distribuzioni con legge di potenza che come visto sono molto ricorrenti in natura.

 

Figura 33.10 Coefficiente di correlazione tra nodi al variare del numero di gradi k.

Gli aspetti fondamentali della teoria della criticità auto-organizzata possono essere cosi riassunti:

  1. La distribuzione della dimensione delle valanghe segue una legge di potenza
  1. Le leggi fisiche che regolano l’interazione tra i granelli di sabbia sono molto semplici. In altre parole per auto organizzarsi il sistema non ha bisogno di complicate leggi fisiche
  1. Le valanghe non avvengono in modo periodico ma in modo imprevedibile
  1. La superficie del mucchietto di sabbia mostra una struttura frattale

Come è possibile applicare questo modello ai terremoti? Basta ricordare che i terremoti sono associati allo scivolamento delle placche tettoniche lungo le faglie e che le forze tettoniche deformano lentamente le rocce della crosta terrestre lungo le faglie immagazzinando energia.

 

Figura 33.11 Coefficiente di correlazione tra nodi al variare del numero di gradi k.

Quando quest’ultima supera un valore critico, essa è rilasciata sotto forma di uno scivolamento di un blocco rispetto all’altro coinvolgendo un certo numero di blocchi vicini e dando luogo a “valanghe”. Il modello “sand-pile”, è stato proposto per la prima volta nel 1988 dallo scienziato Per Bak e può essere simulato usando una matrice con nxn celle, ognuna delle quali può interagire con le prime vicine (Nord, Sud, Est, Ovest). Ad ogni cella si attribuisce un valore numerico compreso in un certo intervallo come per esempio tra 1 e 14 e ad ogni numero viene associato un colore che va dal blu al rosso. Inizialmente le celle della matrice vengono forzate ad un valore tra 1 e 14 scelto in modo del tutto casuale (vedi figura 33.12).

 

Figura 33.12 Simulazione SOC. All’inizio il valore di ogni cella è del tutto casuale.

 

Si prende a caso una cella della matrice e si incrementa il suo valore numerico (che corrisponde allo stress o energia accumulata dalle rocce) di un’unità: questo processo corrisponde alla caduta di un granello di sabbia nel modello sand-pile ovvero ad un leggero aumento della tensione che si esercita tra blocchi (nel caso dei terremoti) o granelli contigui (nel caso del mucchietto di sabbia). Se il nuovo valore della cella è inferiore ad un valore critico Zc (che possiamo per esempio scegliere essere uguale a 14) allora si procede ad un’aggiunta di granelli altrimenti lo stress viene rilasciato ai primi 4 vicini. In quest’ultima ipotesi, bisogna valutare il valore numerico delle celle vicine e verificare se esso è inferiore o superiore al valore critico. Se è maggiore, allora, si procede analogamente a prima generando una valanga. Al termine di questa valanga, si procede all’aggiunta di ulteriori granelli di sabbia generando cosi ulteriori valanghe. C’è da tener presente comunque, una cosa molto importante. Inizialmente la matrice essendo in uno stato completamente casuale, non si trova in uno stato critico e quindi bisogna generare un certo numero di valanghe per portare il sistema in uno stato di criticità auto-organizzato, a partire dal quale una qualsiasi perturbazione genererà valanghe di differenti grandezze, la cui distribuzione seguirà una legge di potenza. Per determinare quando il sistema raggiunge lo stato critico si può fare nel seguente modo. Si segue la variazione nel tempo del valore medio di tutti gli elementi della matrice <z(t)>, cioè la somma dei valori della matrice diviso il numero totale delle celle e si verifica quando questo valore si porta ad un valore asintotico attorno al quale oscilla. Questo sarà lo stato critico (vedi figura 33.13) del sistema.

 

Figura 33.13 Simulazione SOC. Andamento del valore medio dei valori delle celle nel tempo.

 

Per l’esempio scelto, il valore critico è di circa 12.8. Quindi si registrerà una valanga solo se prima di aggiungere un granello di sabbia il valore medio di z è maggiore di 12.8. Facendo partire la simulazione, si osserveranno le diverse valanghe come mostrato in figura 33.14.

 

Figura 33.14 Simulazione SOC. Formazione delle prime valanghe col trascorrere del tempo.

 

I vari clusters di punti corrispondono alle celle che vengono interessate durante ogni valanga. Procedendo iterativamente con l’algo-ritmo si possono catalogare diverse valanghe in base alla loro dimensione. Una volta ottenuti questi risultati, si può riportare su scala bi-logaritmica la dimensione delle valanghe e quante volte ogni dimensione si è presentata (frequenza). La parte lineare di questo grafico segue una legge di potenza con un esponente uguale a circa -1 (vedi figura 33.15).

Ovviamente, la stessa simulazione può essere fatta anche partendo con una matrice iniziale non casuale ma con le celle in uno stato ben definito come mostrato in figura 33.16. In questo caso le celle centrali sono cariche di stress. Se si aggiungono a questa matrice altri grani, essa inizialmente conserva il ricordo della condizione iniziale, ma dopo un pò di tempo la tensione di stress accumulata al centro della matrice comincia a distribuirsi in modo eguale su tutti i siti. Dopo 500000 valanghe, la matrice si porta in uno stato di criticità auto organizzata, ed assume un aspetto simile a quello mostrato in figura 33.17.

 

Figura 33.15 Simulazione SOC. Legge di potenza.

 

Figura 33.16 Simulazione SOC. Celle centrali in uno stato critico.

 

Figura 33.17 Simulazione SOC. Stato finale della matrice della figura 33.16 dopo 500000 valanghe.

 

Questo risultato conferma l’ipotesi della teoria SOC, secondo cui il sistema lontano dall’equilibrio, indipendentemente dallo stato iniziale, si auto-organizza ed evolve verso uno stato critico. Anche per questa simulazione si può analizzare la distribuzione della dimensione delle valanghe, ottenendo per l’esponente della funzione potenza esattamente lo stesso valore precedente, cioè circa -1. Il grafico come quello mostrato in figura 33.15, riproduce qualitativamente la legge di Gutenberg-Richter dei terremoti. Nonostante la semplicità del modello SOC, se si variano opportunamente i pochi parametri della simulazione, è possibile ottenere diverse dinamiche con proprietà differenti. Che dire. Ancora una volta la matematica alla base di un semplice modello riesce a replicare il comportamento dei terremoti e di altri sistemi dinamici presenti in Natura. Delle semplice regole, e un numero elevato di parti connesse (interagenti) sono gli ingredienti giusti per dar vita a strutture complesse il cui comportamento non è prevedibile analizzando le sue parti.

venerdì 13 aprile 2012

E’ possibile che l’universo sia stato programmato per ospitare la vita?

Sara’ capitato a molti di voi di alzare lo sguardo al cielo in una notte buia e rendersi conto dell’immensita’ dell’universo, della sua bellezza e regolarita’. Tutto sembra funzionare alla  perfezione. Le leggi della fisica e i valori delle cosiddette costanti fisiche (come per es. la costante universale gravitazionale che regola l’attrazione tra due corpi massicci) sembrano essere quelle giuste affinche’ l’universo sia quello che e’. Se anche una delle proprieta’ fisiche fosse stata differente, le stelle, i pianeti e le galassie non si sarebbero mai formate. E la vita sarebbe stata impossibile.
Consideriamo per esempio il neutrone (la particella neutra presente nel nucleo degli atomi); esso e’ 1.00137841870 volte piu’ pesante del protone (l’altra particella presente nel nucleo con carica positiva) e questo fa si che il neutrone possa decadere in un protone, elettrone e neutrino (radiazione beta), un processo che ai tempi del Big Bang determino’ l’abbondanza di idrogeno ed elio e che fece si che il nostro universo fosse dominato dall’idrogeno. Se il rapporto delle masse del neutrone e del protone fosse stato leggermente diverso, noi vivremmo in un universo molto differente: uno per esempio in cui le stelle consumano velocemente il loro combustibile nucleare oppure uno in cui i protoni decadono in neutroni lasciando l’universo senza atomi. Universi che non hanno la possibilita’ di far evolvere la vita.
Voglio fare qui una breve divagazione nella fisica del chaos. Sicuramente molti di voi conosceranno l’effetto farfalla: un semplice battito d’ali in Brasile puo’ generare un tornado a New York. Questo perche’ il sistema dell’atmosfera terrestre e’ un sistema complesso con una dipendenza sensibile dalle condizioni iniziali. Qualche variazione inizialmente molto piccola puo’ essere amplificata nel tempo e diventare una variazione grandissima. Questo e’ tipico dei sistemi complessi che si trovano all’edge del chaos cioe’ in bilico tra un ordine perfetto e il disordine totale. Pensate alle transizioni di fase che portano un oggetto da solido a liquido e quindi in fase gassosa. La fase liquida puo’ essere considerata quella in bilico tra l’ordine perfetto dei reticoli cristallini dei solidi e il disordine totale delle molecole dei gas. Visto che il nostro universo ha una dipedenza sensibile dai valori delle costanti fisiche fondamentali sembra suggerire che esso possa essere considerato come un sistema complesso ai confini del chaos. E questo potrebbe spiegare perche’ in esso si e’ evoluta la vita. Sono in tanti gli scienziati che credono che solo nei sistemi all’edge del chaos si possa generare la vita in quanto non sono ne’ troppo ordinati da non potersi adattare alle condizioni esterne ne’ troppo disordinati da non riuscire ad imparare.
Esempi di valori di costanti fisiche regolate opportunamente per giustificare l’universo che oggi vediamo ce ne sono tanti. Se per esempio raddoppiassimo la carica di un elettrone, o cambiassimo di poco l’intensita’ della forza gravitazionale o della forza nucleare l’universo apparirebbe molto ma molto diverso.
La grande sfida per i fisici e’ di spiegare perche’ questi parametri hanno il valore che hanno e non un altro.         
E non solo. Un’ altra sfida e’ quella dell’energia oscura, l’energia che sta accelerando il nostro universo e di cui non conosciamo quasi nulla. Tutti i tentativi fatti dai fisici per determinare il valore aspettato di questa energia porta ad un valore 10^120 volte piu’ grande di quello aspettato.
Secondo il fisico Susskind dell’Universita’ di Stanford il grande mistero non e’ tanto spiegare perche’ esiste l’energia oscura quanto perche’ ce n’e’ cosi poca. Un valore leggermente piu’ alto avrebbe fatto espandere lo spazio-tempo cosi velocemente che le galassie non si sarebbero potute formare. 
Ci sono due possibili spiegazioni per un cosi’ perfetto “aggiustamento” delle costanti fisiche. Una e’ quella di far intervenire un Dio che ha programmato il tutto e l’altra che esista un grande numero di universi se non addirittura infiniti di cui il nostro e’ uno di essi

Questo insieme di universi e’ quello che i fisici chiamano il multiverso. In un multiverso le leggi fisiche e le costanti fondamentali sono diverse in ognuno dei suoi universi. Quindi il nostro non e’ particolare. Semplicemente ha avuto la fortuna di avere i valori giusti per far evolvere la vita. In altri universi meno fortunati questo purtroppo non e’ avvenuto. Questo e’ il cosiddetto principio antropico.  Non tutti i fisici pero’ condividono questa prospettiva. Lawrence Krauss dell’universita’ dell’Arizona, autore del libro “A Universe from nothing” vorrebbe capire perche’ l’universo e’ quello che e’ senza ricorrere alla casualita’ del multiverso.
Tuttavia l’idea del multiverso oggi sta prendendo sempre piu’ piede specialmente perche’ esso viene predetto da una teoria che e’ stata sviluppata per risolvere la questione della “piattezza” del nostro universo.



 
Tutte le misure effttuate fino ad ora hanno mostrato che il nostro spazio-tempo e’ piatto, cioe’ in esso vale la geometria Euclidea. Per esempio per un qualsiasi triangolo la somma degli angoli interni e’ sempre 180 gradi. Se lo spazio-tempo fosse stato curvato, invece questo non sarebbe stato vero. La “piattezza” del nostro spazio-tempo e’ stata confermata dalle misure accurate della radiazione cosmica di fondo, la luce che circa 380.000 anni dopo il Big Bang emerse dal nostro universo che fino a quel tempo era stato opaco assorbendo in continuazione i fotoni emessi all’atto del grande scoppio iniziale. 
Se l’universo e’ piatto questo implica che il parametro Omega, legato alla curvatura dello spazio-tempo e’ molto vicino al valore 1. E per avere oggi un universo con un valore Omega vicino a uno significa che un secondo dopo il Big Bang esso doveva avere un valore esattamente uguale a 1 con una precisione di decine di cifre decimali. Cosa ha fatto si che questo valore fosse esattamente uno e non un valore leggermente diverso?
La risposta e’ venuta nel 1979 dal fisico Alan Guth. Egli mostro’ che nei primi istanti dopo il Big Bang, l’universo subi’ un periodo di espansione esponenziale. Questa improvvisa espansione, che Guth chiamo’ inflazione rese il nostro universo osservabile piatto indipendentemente dal valore del parametro Omega prima dell’inflazione.
Alcuni fisici credono che l’inflazione continui ancora oggi in posti diversi e lontani dell’Universo, generando uno dopo l’altro nuovi universi ognuno con diverse proprieta’ fisiche. Questo e’ quello che viene chiamata l’eterna inflazione. Ogni universo e’ solo una piccola frazione di un universo piu’ grande che a sua volta e’ solo uno di un numero di altri infiniti universi. Ognuno di questi universi e’ il prodotto del suo proprio big bang. Questo multiverso puo’ essere rappresentato come un insieme di bolle. Ogni bolla rappresenta un universo infinito, e ci sono un infinita’ di bolle, cioe’ di universi.  


E’ possibile provare una tale ipotesi? Sembrerebbe di si. Se esistono infiniti universi allora e’ possibile che ci siano state nel passato delle collisioni tra essi lasciando un’impronta nella radiazione cosmica di fondo: dei cerchi concentrici in cui la temperatura dovrebbe essere leggermente diversa dalle zone circostanti.

L’analisi dei dati del satellite WMAP non ha evidenziato con certezza nessuna regione con questa forma anche se alcuni studiosi tra cui Stephen Feeney dell’University College London dicono di aver trovato qualche possibile prova di questi pattern circolari nella radiazione cosmica di fondo (vedi immagine sopra).
Qualche cosa di analogo sembra essere stato individuato anche da Roger Penrose e V. Gurzadyan come emerge da un loro lavoro pubblicato sul web.  Secondo la loro teoria questi dischi concentrici sono il segno di un universo ciclico eterno. Penrose spiega che l'inflazione non può spiegare lo stato di entropia molto basso in cui l'universo si pensa dovesse trovarsi all'inizio. Lui ed il suo co-autore, non credono che lo spazio ed il tempo hanno avuto inizio con il Big Bang, ma che invece, l'evento è stato soltanto uno tra tanti. Ogni "Big Bang" ha segnato l'inizio di una nuova era, ed il nostro universo è solo uno dei tanti universi ciclici, iniziando un nuovo universo al posto di quello di prima.

Purtroppo prima di essere certi di questi risultati c’e’ bisogno di misure della temperatura di fondo piu’ accurate che e’ proprio quello che sta facendo il satellite Planck con una risoluzione 3 volte maggiore di quella di WMAP. Con questa sensibilita’ dovrebbe essere possibile per gli scienziati individuare con certezza questi dischi concentrici rispetto al rumore di fondo.

L’eterna inflazione con la sua predizione del multiverso ci ricorda che i parametri che una volta si pensavano dover essere stati programmati esattamente al valore attuale, come Omega, possono essere spiegati da una teoria fisica piu’ fondamentale. E’ possibile che molte delle costanti i cui valori oggi non ci sappiamo spiegare potranno essere capite quando riusciremo ad arrivare ad una teoria del tutto o quando riusciremo a rivelare segnali di altri universi. Non ci resta che aspettare con fiducia.
 

lunedì 19 marzo 2012

Come le lenti gravitazionali ci mostrano la materia oscura.

Molti di voi avranno sentito parlare della curvatura della luce da parte di un corpo massiccio come una stella. Fu Einstein con l’introduzione della relativita’ generale ad ipotizzare cio’. Ma come puo’ la massa curvare i fotoni della luce che non hanno massa? In effetti e’ la curvatura dello spazio tempo generato dalla presenza di  una qualsiasi massa a curvare i raggi luminosi. Molti  di voi avranno visto l’immagine sottostante che rappresenta l’ammasso di galassie chiamato Abell Cluster 2218.


Se guardate attentamente noterete degli archi che altro non sono delle galassie di fondo che vengono distorte ed amplificate dal gigantesco ammasso di galassie Abell. Quando la luce che proviene da sorgenti piu’ lontane dell’ammasso passano nelle sue vicinanze subisce una deflessione che crea gli archi e i filamenti che vediamo.  Questo fenomeno e’ chiamato lente gravitazionale forte ed e’ uno degli spettacoli piu’ interessanti e belli dell’Universo. Sfortunatamente pero’ e’ un fenomeno molto raro. Infatti e’ molto difficile avere un allineamento tra la sorgente di luce e la massa che funziona da lente.


L’angolo di deflessione della luce verso la massa deflettente M e’ dato da:


dove G e’ la costante gravitazionale, r la distanza tra la massa M e il raggio di luce e c la velocita’ della luce. Questa semplice formula ci mostra come a partire dalla misura dell’angolo di deflessione dei raggi di luce e’ possibile risalire alla massa M del corpo deflettente.  
Oltre alle lenti gravitazionali forti esistono anche quelle che chiamiamo lenti gravitazionali deboli sicuramente meno spettacolari di quelle forti ma che come vedremo ritornano utili per mettere in evidenza la materia oscura. Come molti di voi sapranno, la materia visibile presente nell’universo e’ solo una piccola parte di quella necessaria per giustificare l’universo cosi come lo vediamo oggi. Dall’osservazione delle galassie a spirali si e’ visto che la velocita’ in funzione della distanza dal punto centrale della galassia si mantiene pressocche’ costante mentre tenendo conto della sola materia visibile la curva sarebbe stata quella tratteggiata in blu (curva A).


Per risolvere questo enigma gli astrofisici hanno ipotizzato la presenza nell’intero universo di materia non visibile, cioe’ materia che non emette luce ma che esercita un’attrazione gravitazionale sulla materia circostante. Ad oggi nessuno sa di cosa sia composta realmente questa materia oscura. Ci sono diverse ipotesi ma nessuna di esse ha trovato conferma nella realta’. Vediamo adesso come le lenti gravitazionali ci possono dare una mano nella comprensione della materia oscura.


Nell’immagine qui sopra e’ simulata una parte del nostro universo. In esso possono esserci delle regioni ricche di materia dove grazie all’azione della gravitazione questa comincia a formare degli ammassi. Ci sono altre regioni dove invece c’e’ assenza di materia e si formano dei grandi vuoti, chiamati voids. Quando la luce proveniente da sorgenti al di la’ di questi ammassi arriva ai nostri telescopi, essa non forma immagini spettacolari come quelle delle lenti gravitazionali forti; accade comunque un qualche cosa di molto interessante che noi possiamo studiare. Vediamo di cosa si tratta.
Supponiamo di avere delle sorgenti luminose di forma sferica distribuite a caso e supponiamo che non ci siano oggetti massivi tra esse e i nostri telescopi. Quello che vedremmo e’ un qualche cosa del genere.

Cosa succede se tra queste sorgenti e noi inseriamo un qualche oggetto massiccio? Ricordiamoci che siamo nell’ipotesi di assenza di lenti gravitazionali forti e quindi non ci aspettiamo di vedere archi, filamenti, o anelli.


I risultati di una simulazione mostrano comunque che le sorgenti di luce vengono distorte dall’effetto lente gravitazionale debole. Da sfere diventano degli ellissoidi piu’ o meno schiacciati. Bene. Tutto quello che dovremmo fare e’ misurare quanto ellettiche sono le galassie e da questo ricavare le masse presenti tra queste sorgenti e i nostri telescopi. Purtroppo le galassie reali hanno forme diverse tra loro e non sono delle sfere perfette come abbiamo supposto. Quando guardiamo gli oggetti nell’Universo abbiamo sempre l’effetto combinato di una debole distorsione dovuta all’effetto lente gravitazionale e dell’intrinseca ellitticita’ delle galassie (chiamato shape noise). Qui sotto una simulazione che fa vedere la differenza tra il caso con galassie suppooste sferiche (without shape noise) e quelle con forme diverse ( with shape noise).


Tipicamente l’ellitticita’ intrinseca e’ maggiore della distorsione gravitazionale. Ad ogni modo la misura di tante galassie puo’ essere combinata per mediare questo rumore. L’orientazione dell’ellitticita’ intrinseca delle galassie dovrebbe essere quasi tutta randomica cosi che l’allineamento sistematico tra galassie multiple generalmente si puo’ assumere essere causato dal solo effetto lente.  
Dalla misura dell’elletticita’ indotta dalla gravitazione e’ possibile risalire alla densita’ di materia visibile e non,  presente tra le sorgenti di luce e noi sulla Terra.  
Il confronto tra la distribuzione della materia oscura mappata con la tecnica del lensing debole, la distribuzione della materia visibile e quella dei raggi X rivela interessanti interconnessioni tra la materia oscura e i componenti delle stelle e dei gas.  Un esempio molto famoso e’ il cosiddetto Bullet Cluster che dista da noi circa 3,4 miliardi di anni luce. Quest’immagine e’ stata realizzata sovrapponendo alle galassie visibili nell’ottico, due nuvole di raggi X emesse da gas caldi e mostrate in rosso. Oltre alle masse visibili delle galassie e dei gas che emettono i raggi X c’e’ da aggiungere la materia oscura rappresentata come un alone blu. 
Gli astrofisici pensano che il Bullet Cluster si sia formato dallo scontro di due ammassi che hanno separato la materia oscura da quella barionica. L’osservazione dei raggi X mostra come la maggior parte della materia barionica del sistema e’ concentrata nel suo centro. Notare che la radiazione X e’ molto vicina al centro del sistema in quanto nel passare uno attraverso l’altro i due ammassi hanno rallentato le particelle di gas. Questo invece non e’ successo ai due aloni di materia oscura che risiedeva attorno ai due ammassi prima dello scontro e che e’ rimasta separata.


Da immagini come queste si e’ capito che la materia oscura non interagisce con la materia ordinaria ma contribuisce solo alla gravita’. La materia oscura non emette e non assorbe le radiazioni elettromagnetiche  e quindi non puo’ essere vista con i telescopi. Essa costituisce il 23% della materia presente nell’universo mentre solo il 4,6% e’ dovuto alla materia ordinaria e il rimanente 72% alla cosiddetta energia oscura responsabile dell’accelerazione attuale dell’universo. La quantita’ di materia presente nell’universo non e’ sempre stata costante. La sua percentuale era molto piu’ alta dopo 380000 anni dal big bang quando la radiazione finalmente non venne piu’ assorbita dagli elettroni e l’universo usci’ dal suo stato di opacita’ completa.  

In definitiva per sapere quanta massa c’e’ in un ammasso, e dove si trova questa massa, tutto quello che dobbiamo fare e’ misurare le sorgenti di luce che si trovano al di la dell’ammasso e fare entrare in gioco l’effetto lente gravitazionale debole. Tutto qui.
http://www.wikio.it