domenica 29 luglio 2012

Un problema molto complesso – La congettura di Collatz


Il primo a proporre questa congettura e’ stato Lothar Collatz nel 1937, da cui ha preso il nome. La congettura e’ anche conosciuta come il problema 3n+1. La sequenza di numeri coinvolti e’ riferita come la sequenza dei chicchi di grandine (hailstone sequence in inglese).
Questa congettura e’ cosi complicata da dimostrare, che il grande genio matematico Paul Erdos, un giorno disse che la matematica ancora non era pronta per risolvere un tale problema. Ma vediamo da vicino in che cosa consiste questa congettura.
Consideriamo un qualsiasi numero intero positivo n.
  1. Se n e’ pari, lo dividiamo per 2
  2. Se n e’ dispari, lo moltiplichiamo per 3 e aggiungiamo 1.
Se eseguiamo queste operazioni ripetutamente, prendendo come ingresso, il risultato dell’operazione precedente, si raggiunge sempre il numero 1 indipendentemente dal numero di partenza n.
Il numero di passi impiegati per arrivare ad 1 e’ detto il tempo totale di arresto del numero n (total stopping time in inglese). Nella figura 1 vengono riportati i tempi di arresto di tutti i numeri interi tra 2 e 9999, mentre nella figura 2 la frequenza con cui ogni tempo di arresto si presenta per valori di n tra 2 e 20000.
 

col2

Figura 1: Grafico dei tempi di arresto per i numeri da 2 a 9999.


Osservare che ci sono due picchi a circa 50 e 135 con oscillazioni che si accentuano nell’intorno di questi due picchi e che si smorzano verso le due code della distribuzione.
 

col3

Figura 2: Distribuzione dei tempi di arresto per i numeri da 2 a 20000.


Ovviamente la congettura di Collatz e’ equivalente ad affermare che per ogni n ci sia un tempo di arresto finito. Nel caso in cui esistesse un numero n che non arriva mai ad 1, perché entra in un loop non contenente 1 o perché cresce senza limite, allora la congettura di Collatz risulterebbe falsa.
Partendo, per esempio, col numero n=6, la sequenza per arrivare al punto fisso 1 prende 8 passi 6, 3, 10, 5, 16, 8, 4, 2, 1, con n=11 ci vogliono 14 passi, 11, 34, 17, 52, 26, 13, 40, 20, 10, 5, 16, 8, 4, 2, 1 e per n=27 ci vogliono ben 111 passi prima di arrivare ad 1, toccando numeri al di sopra di 9000 per poi discendere verso il suo attrattore. (vedi figura 3).
 

col4

Figura 3: Grafico della sequenza di Collatz per il numero di partenza 27. Il tempo di arresto e’ di 111 passi.


Qui di seguito il grafo diretto dei primi 20 numeri. Osservare come la sequenza di Collatz converge sempre al loop 4-2-1.
col5

  
La congettura, tramite l’utilizzo massiccio dei computer, e’ stata provata essere vera fino a 2.88×1018. Anche se questo numero e’ molto grande, non significa che la congettura e’ vera. Ci sono state altre congetture che si sono dimostrate false solo per valori veramente grandi.
Utilizzando comunque un approccio di tipo probabilistico, la congettura sembra essere vera. Considerando infatti, un numero intero dispari a caso si può verificare che in media la crescita aspettata della sequenza fino al numero dispari successivo e’ pari a 3/4 e quindi minore di 1. Questo dovrebbe comportare che ogni sequenza di Collatz dovrebbe decrescere man mano che si sviluppa. Ma questo dovrebbe provare solo che la sequenza eventualmente non diverge. Ma e’ sempre possibile che essa entri in un ciclo in cui non e’ presente l’uno. Quindi punto e a capo. Sono solo ipotesi e purtroppo fino a quando non arriverà una dimostrazione o un contro esempio rimaranno tali.
La congettura di Collatz ad oggi rimane irrisolta.
Sebbene il problema sia molto semplice da spiegare e da capire, la natura della congettura e il comportamento di questo sistema dinamico rende enormemente difficile provare o confutare la congettura.
Nel 1985 Lagarias cosi scriveva in merito alla congettura di Collatz:
La difficoltà del problema 3n+1 sembra essere legata al fatto che si tratta di un processo deterministico che simula un comportamento casuale (randomico). I metodi esistenti in Teoria dei numeri non sembrano essere adatti per la soluzione della congettura. In questo senso il problema ad oggi, sembra essere intrattabile.

sabato 14 luglio 2012

Piramidi di numeri primi palindromi

Sono tanti quelli che hanno avuto la possibilità di ammirare la grandiosità delle piramidi di Giza. Si tratta di opere straordinarie su cui ancora molto si discute. Non si sa ancora con certezza, se all’interno le pareti erano ricoperte di pitture e geroglifici come quasi tutte le altre tombe egizie. Se effettivamente fossero strutture legate ad oggetti stellari (vedi per esempio la teoria di Bouval secondo la quale le tre piramidi altro non sono che la rappresentazione sulla terra delle stelle della cintura della costellazione di Orione) o se invece fossero delle semplici tombe.

In questo capitolo, anche noi, ci occuperemo di piramidi, ma di piramidi matematiche i cui mattoni sono le pietre infrangibili della matematica: i numeri primi.

Ma non tutti i primi vanno bene. Per generare la simmetria delle piramidi rispetto all’asse centrale, bisogna considerare solo i primi palindromi. Ricordiamo che i numeri palindromi sono quei numeri che si leggono allo stesso modo da sinistra a destra e viceversa. Partendo col numero primo 2, per esempio, è possibile costruire due piramidi di altezza 5. Diversamente dagli antichi, noi costruiamo le nostre piramidi dall’alto verso il basso.

Ogni gradino è un numero primo palindromo con il precedente gradino che costituisce le cifre centrali. Queste due piramidi sono le più alte che si possono costruire partendo con il numero 2. Le piramidi più alte che si possono costruire partendo con i numeri primi di una sola cifra sono raffigurate di seguito.

Ma è possibile costruire piramidi sempre più alte?

Se invece di considerare come punto di partenza numeri primi ad una cifra, iniziamo le piramidi con numeri primi palindromi con più cifre è possibile costruirne di più alte? E l’altezza di queste piramidi è sempre finita? Abbiamo visto che partendo con un numero primo ad una cifra e aggiungendo ad ogni lato una nuova cifra, l’altezza massima che si riesce ad ottenere è 5. Questo perché dovendo essere ogni gradino un numero primo abbiamo solo 4 possibili scelte per le cifre da aggiungere su ogni lato: 1, 3, 7, 9.

Partendo con numeri primi più grandi probabilmente non aiuta molto di più. Ma ce ne sono così tanti con cui partire che si può avere fortuna. Qui un esempio di tronco di piramide di altezza 9, che ho trovato nel 2000 e pubblicato in internet sul sito dell’Enciclopedia on-line delle sequenze di numeri interi con codice identificativo A046210.

 

7159123219517

371591232195173

33715912321951733

7337159123219517337

973371591232195173379

39733715912321951733793

3397337159123219517337933

933973371591232195173379339

39339733715912321951733793393

Se invece di aggiungere due cifre, una per ogni lato, consideriamo la possibilità di aggiungerne 4, due per lato, allora partendo con il numero primo 2 è possibile costruire una piramide costituita da ben 26 gradini come mostrato di seguito. Proprio una bella struttura.

 

2

30203

903020309

3790302030973

98379030203097389

969837903020309738969

9996983790302030973896999

72999698379030203097389699927

997299969837903020309738969992799

9099729996983790302030973896999279909

94909972999698379030203097389699927990949

779490997299969837903020309738969992799094977

7977949099729996983790302030973896999279909497797

17797794909972999698379030203097389699927990949779771

751779779490997299969837903020309738969992799094977977157

7375177977949099729996983790302030973896999279909497797715737

72737517797794909972999698379030203097389699927990949779771573727

987273751779779490997299969837903020309738969992799094977977157372789

3098727375177977949099729996983790302030973896999279909497797715737278903

70309872737517797794909972999698379030203097389699927990949779771573727890307

397030987273751779779490997299969837903020309738969992799094977977157372789030793

3539703098727375177977949099729996983790302030973896999279909497797715737278903079353

36353970309872737517797794909972999698379030203097389699927990949779771573727890307935363

333635397030987273751779779490997299969837903020309738969992799094977977157372789030793536333

3433363539703098727375177977949099729996983790302030973896999279909497797715737278903079353633343

99343336353970309872737517797794909972999698379030203097389699927990949779771573727890307935363334399

La stessa cosa si può fare usando come seme di partenza gli altri numeri primi di una sola cifra. C’è una piramide di altezza 29 per entrambi i numeri di partenza 5 e 7, mentre per il numero primo 3 la massima altezza è 28.

Sicuramente aumentando la dimensione della stringa di numeri da aggiungere ai due lati porterà a piramidi con altezze sempre maggiori. Ma di quanto? Quante piramidi è possibile costruire?

Indichiamo con l(n) il numero di cifre del numero n. Sia f(n,h,d) il numero di piramidi con altezza h, con numero primo iniziale n e con d cifre aggiunte ad ogni passo.

Per esempio, f(2,1,d)=1 in quanto c’è una sola piramide con numero iniziale 2 e altezza 1.

Al contrario f(101,2,2)=4 in quanto ci sono 4 piramidi con numero iniziale 101, altezza 2 e passo 2.

È possibile stimare la funzione f(n,h,d) e quindi calcolare la massima altezza ottenibile?

La risposta è si.

In base al teorema dei numeri primi, il numero di primi tra 2 e x è dato in modo approssimato da x/ln(x). Un’interpretazione di questo teorema è che la probabilità che un numero intero scelto a caso sia primo è dato da 1/ln(x). Quando costruiamo la piramide di numeri primi palindromi spostandoci da un gradino a quello successivo, ci sono 10*d interi da provare e quindi:

Nella figura di seguito è riportato l’andamento della curva approssimata per il caso n=2 e d=2.

Grafico della funzione f(2,h,2)/f(2,h-1,2). Notare l’ottimo accordo tra i dati reali e quelli stimati.

La coincidenza tra i dati e la curva approssimata è molto buona.

Osservare che man mano che h cresce il numero delle piramidi comincia a decrescere rapidamente e tende verso zero.

Per questo motivo, due studiosi di numeri primi, G.L. Honaker e Chris Caldwell, hanno congetturato che:

Congettura: Tutte le piramidi prime palindrome con un fissato passo d, hanno un’altezza finita.

Essi hanno inoltre trovato una formula per f(n,h,d) data da:

Osservare che per d=3 e n=2 questa relazione predice che ci dovrebbero essere circa 1030 possibili piramidi. Questo fa capire che voler cercare le piramidi più alte con un programma per computer è impensabile. Considerando, comunque, un numero limitato di piramidi (un massimo di 160), Honaker e Caldwell hanno trovato un altezza massima di 94, 101, 102, e 100 per i numeri primi di partenza 2, 3, 5,e 7 rispettivamente. Se fissiamo il passo d, questo limita le piramidi ad avere un’altezza finita. E se invece permettiamo a d di prendere qualsiasi valore? Argomenti analoghi a quelli riportati precedentemente suggeriscono che per qualsiasi numero primo palindromo di partenza si dovrebbe essere capaci di costruire piramidi tanto alte quanto si vuole. Chiaramente l’altezza h delle piramidi in media è proporzionale allo step d. C’è un caso particolare molto interessante. Supponiamo che per ogni gradino della piramide, il numero palindromo da utilizzare, sia il più piccolo possibile indipendentemente da d. In questo caso partendo da 2 la piramide inizialmente dovrebbe essere la seguente:

 

2

727

37273

333727333

93337273339

309333727333903

1830933372733390381

92183093337273339038129

3921830933372733390381293

1333921830933372733390381293331

18133392183093337273339038129333181

 

Questa piramide può essere considerata come una sequenza dove ogni termine è rappresentato da un gradino. Cioè: a1=2, a2=727, a3=37273 ........

Questa sequenza può anche essere condensata scrivendo a1 seguito dalle cifre che sono aggiunte sulla sinistra ad ogni stadio della piramide.

2, 7, 3, 33, 9, 30, 18, 92, 3, 133, 18, 117, 17, 15, 346, 93, 33, 180, 120, 194, 126, 336, 331, 330, 95, 12, 118, 369, 39, 32, 165, 313, 165, 134, 13, 149, 195, 145, 158, 720, 18, 396, 193, 102, 737, 964, 722, 156, 106, 395, 945, 303, 310, 113, 150, 303, 715, 123

Un’altra sequenza di numeri primi palindromi può essere generata cercando di dare una risposta ad una questione che l’autore ha pubblicato su internet nel 2000 (sequenza A046210) e che recita:

Qual è il più piccolo numero primo palindromo che genera una piramide di altezza massima n?

La sequenza considerando d=1, inizia con:

11, 131, 2, 929, 10301, 16361, 10281118201, 35605550653, 7159123219517…

11 è il più piccolo numero primo che genera una piramide di altezza 1.

Infatti, tutti i numeri che si possono formare con le cifre 2, 3, 7, 9 non sono primi.

Il numero primo successivo 131, è il più piccolo numero primo che forma una piramide di altezza 2 e cosi via.

Come continua questa sequenza? Ad oggi nessuno lo sa, anche se nuove scoperte possono essere dietro l’angolo.

lunedì 2 luglio 2012

La gravita’. Una forza ancora misteriosa

 

La gravita’ e’ una delle quattro forze fondamentali della natura. Le altre tre sono la forza nucleare che tiene insieme i protoni e neutroni all’interno del nucleo, la forza debole che regola il decadimento beta del nucleo (un neutrone si trasforma in un protone con l’emissione di elettroni e neutrini) e la forza elettromagnetica che tiene insieme gli elettroni intorno al nucleo. La forza gravitazionale e’ di tipo attrattivo ed e’ quella che ci mantiene sulla superficie della Terra e quella che fa orbitare la luna intorno alla terra come anche la terra intorno al sole e cosi via.

Sia l’interazione nucleare forte che quella debole hanno un raggio di azione limitato mentre quella gravitazionale ed elettromagnetica hanno un raggio di azione infinito. Ma come si spiega un’interazione con raggio di azione infinito? Come fanno le cariche o le masse ad interagire a distanze anche infinite? Il modello Standard ha risolto il problema assumendo che la forza sia la manifestazione dello scambio di un quanto mediatore che viene continuamente scambiato tra due oggetti, siano esse cariche, masse o nucleoni. Per capire come funzionano le cose pensate a due giocatori di tennis che vengono mantenuti in gioco dalla palla che si scambiano. I giocatori interagiscono tra di loro grazie alla palla scambiata.

Tra i mediatori previsti dal modello standard solo il gravitone non e’ stato ancora scoperto.

Ritorniamo alla forza di gravita’ di Newton, scoperta nel 1687 e formulata nel modo seguente: tutti i corpi si attraggono reciprocamente con una forza di intensità

F= G· (M·m)/r2

dove G=6.67259X10-11 N·m2/Kg2 è la costante di gravitazione universale. Il modulo di questa forza quindi e’ direttamente proporzionale alle masse e inversamente proporzionale al quadrato della distanza. Osserviamo che la costante gravitazionale e’ un numero molto piccolo ma nonostante cio’ la gravitazione e’ la forza che permea l’intero universo ed esercita la sua azione fino ai confini estremi del cosmo. Se questa fosse solo leggermente piu’ piccola o piu’ grande del valore attuale l’universo non sarebbe quello che vediamo oggi.

La gravita’ e’ stata la forza che subito dopo il Big Bang ha attratto la materia in strutture molto grandi all’interno delle quali si sono poi formate le galassie nelle quali hanno avuto inizio le stelle.

Ed e’ sempre la gravita’ che regola la vita delle stelle e la loro morte una volta che esauriscono il combustibile nucleare compattando la materia e formando cosi stelle di neutroni o buchi neri.

Sulla Terra, essa trascina giu’ i massi dalle montagne, muove i ghiacciai, crea le maree, fa cadere le mele dagli alberi e ci affatica durante la salita. I fisici hanno compreso tutti i dettagli della gravita’ e riescono a fare previsioni con grande accuratezza. Ad ogni modo c’e’ il sospetto che c’e’ qualcosa che ancora manca, qualche cosa di abbastanza grande da cambiare o addirittura unificare la maggior parte delle nostre teorie dell’universo.

La gravita’ e’ stata la prima forza ad essere studiata. Il grande scienziato Isaac Newton nel 1666 cercando di comprendere il moto degli oggetti arrivo’ alla famosissima formula F=ma, cioe’ la forza che muove un oggetto e’ uguale al prodotto della sua massa per la sua accelerazione.

Piu’ la forza sull’oggetto e’ intensa e maggiore sara’ la sua accelerazione. Newton mettendo insieme la sua equazione con quella che aveva trovato Keplero, che dice che le distanze dei pianeti dal sole sono legate al tempo che i pianeti impiegano per orbitare intorno al sole, arriva alla descrizione del moto degli oggetti attratti dalla Terra. Ma non si fermo’ qui. Ando’ oltre estendendo la sua legge che aveva trovato per gli oggetti nelle vicinanze della Terra, agli oggetti celesti presenti in tutto l’universo. Newton chiamo’ questa legge la legge universale gravitazionale: indipendentemente se si tratta di una mela o di un pianeta, se si sta cadendo da un albero o orbitando nello spazio la legge che governa il nostro moto sara’ sempre la stessa. Usando l’equazione di Newton e’ possibile misurare le masse di oggetto lontani dalla Terra, come per esempio il sole, il pianeta Giove, la stella Sirio etc etc. Non solo. La gravitazione universale ci permette anche di “pesare” la cosiddetta materia oscura che permea l’intero universo e la cui natura e’ ancora sconosciuta.

 

Mappa in 3D della materia oscura (NASA, ESA and R. Massey)

La sua esistenza e’ stata formulata la prima volta all’interno del modello del Big Bang per spiegare la formazione delle galassie e degli ammassi in un tempo cosi breve come quello osservato per l’eta’ dell’universo (13.7 miliardi di anni). Un’evidenza osservativa della presenza della materia oscura e’ fornita dalle curve di rotazione delle galassie a spirale. Queste galassie posseggono una vasta popolazione di stelle che orbitano intorno al centro galattico. Secondo la terza legge di Keplero, le stelle con orbite galattiche piu’ grandi dovrebbero avere velocita’ di rotazione minori. Quindi le stelle alla periferia della galassia dovrebbero avere una velocita’ molto bassa come mostrato nel grafico sottostante dalla curva A.

 

Curva di rotazione di una galassia: (A): predetta; (B): osservata.

Tuttavia le misure effettuate dagli astronomi, mostrano una velocita’ per le stelle periferiche quasi uguale a quella delle stelle vicino al centro galattico come mostrato dalla curva B del grafico precedente. Questo andamento della velocita’ di rotazione puo’ essere spiegato introducendo il concetto di materia oscura che forma un alone intorno alle galassie che aumenta man mano che ci si sposta verso i confini della galassia. In prima approssimazione considerando una stella periferica di una qualsiasi galassia, l’eguaglianza tra la legge di gravitazione e la forza centrifuga ci porta alla seguente relazione

V 2(r) = GM(r)/r

dove v e’ la velocita’ rotazionale della stella alla distanza r dal centro galattico ed M la massa totale all’interno del raggio r. Affinche’ la velocita’ sia costante bisogna assumere che la massa aumenti con il raggio r. Ma dalle osservazioni delle galassie emerge che la materia visibile e’ concentrata principalmente nel centro galattico mentre diminuisce sempre di piu’ man mano che ci si sposta vero la periferia della galassia. Da qui la necessita’ di ipotizzare l’esistenza di una materia non visibile che aumenta verso l’esterno delle galassie.

Ritorniamo alla forza gravitazionale. Come abbiamo gia’ detto essa e’ una forza a lungo raggio ma non sappiamo come essa agisce tra i corpi istantaneamente a qualsiasi distanza essi si trovano. In effetti i fisici non hanno mai accettato di buon grado questa “azione a distanza” incluso lo stesso Newton.

Einstein anche non accettava questa idea e trovo’ un’alternativa. Nella sua teoria generale della relativita’ egli propose che la gravita’ altro non e’ che il risultato della natura dello spazio-tempo. Questo puo’ essere pensato come una struttura continua tridimensionale che un corpo puo’ deformare con la sua massa; piu’ un corpo e’ massiccio, maggiore e’ la deformazione. L’interazione gravitazionale viene interpretata in termini geometrici: un corpo massiccio deforma lo spazio tempo e se un corpo piu’ piccolo entra all’interno di questa “valle” esso comincera’ a ruotare intorno al grande corpo.

Ma la teoria di Einstein ha un problema: la gravita’ non si adegua alle altre tre forze presenti nell’universo (la forza elettromagnetica, la forza debole e quella forte). Quest’ultime possono essere descritte in termini quantistici come dei campi creati e trasportati da onde che allo stesso tempo possono essere anche particelle (dualita’ onda particelle). Ad oggi le onde gravitazionali anche se previste su base teorica ancora non sono state rilevate e le particelle associate a queste onde chiamate gravitoni probabilmente non potranno mai essere individuate. Questa forza cosi familiare, presente nella vita di tutti i giorni come si spiega allora?

E qui la gravita’ diventa strana. Se la gravita’ e’ come ritengono i fisici, la massa che dice allo spazio come curvare e lo spazio dice a sua volta alla massa come muoversi e chiaro che spazio e massa sono indissolubilmente legate tra loro.

Ma secondo la famosa equazione di Einstein E = mc2, la massa e’ equivalente all’energia da cui possiamo dedurre che anche lo spazio deve avere energia. E in effetti e’ proprio cosi. In meccanica quantistica, infatti, anche lo spazio vuoto ha un’energia diversa da zero e dai conti fatti dai fisici teorici questa energia dovrebbe essere cosi grande da curvare lo spazio in modo da poter ricondurre il nostro Universo alle dimensioni di un protone. Ma nella realta’ noi sappiamo che cio’ non e’ vero. E i problemi non finiscono qui. Negli ultimi anni le misure effettuate dagli astrofisici ci dicono che l’universo non sta decelerando sotto l’azione della gravita’ come previsto ma che addirittura sta accelerando. C’e’ qualche cosa che si sta opponendo alla azione attrattiva della gravitazione. Ma cosa? I fisici l’hanno chiamata energia oscura e la spiegazione piu’ elegante di questo concetto e’ l’energia associata al vuoto. In altre parole l’accelerazione dell’universo puo’ essere spiegata dalla cosiddetta costante cosmologica di Einstein indicata con Λ che e’ legata alla densita’ energetica del vuoto tramite l’equazione:

Qui G e’ la costante gravitazionale universale e rho la densita’ di energia del vuoto. Le osservazioni di un universo in accelerazione sembrano confermare la teoria inflazionistica di Alan Guth secondo la quale l’universo nascente passo’ attraverso una fase di espansione esponenziale spinto da una densita’ di energia di vuoto negativa (ovvero una pressione di vuoto positiva) cioe’:

dove c indica la velocita’ della luce e p la pressione.

Comunque l’energia del vuoto non risolve il problema dell’energia oscura. Infatti se si confronta la quantita’ di energia oscura presente nell’universo con quella relativa al vuoto si trova che questa e’ solo una piccola parte. E’ possibile che i calcoli siano sbagliati? Al momento nessuno lo sa. Forse la teoria delle stringhe o la teoria della gravitazione quantistica a loop un giorno potranno darci una risposta.

Un altro mistero legato alla forza di gravita’ e’ quello delle onde gravitazionali. Questo sono create quando dei corpi accelerati distorcono lo spazio-tempo. Un esempio e’ quello di due stelle di neutroni che coalescendo possono dare origine ad un buco nero. In questo caso lo spazio-tempo verrebbe cosi distorto che le onde gravitazionali prodotte dovrebbero avere intensita’ molto grandi e quindi rilevabili.

L’esperimento ad oggi piu’ sensibile e’ il Laser Interferometer Gravitational-waver Observatory anche chiamato LIGO, che puo’ misurare distorsioni fino a 10-18 metri. Comunque ad oggi non sono state ancora osservate onde gravitazionali. Ma potrebbe essere solo un problema di sensibilta’ degli strumenti. Per questo motivo l’esperimento LIGO sta ricevendo degli aggiornamenti per renderlo capace di rilevare onde gravitazionali su un largo volume di cielo.

La scoperta delle onde gravitazionali e’ molto importante non solo da un punto di vista teorico (a conferma di questa o quella teoria) ma anche da un punto di vista delle nuove informazioni che essa potrebbe portare.

Le onde gravitazionali, non trasportano solo energia, ma anche informazioni su come esse sono state prodotte. Per esempio le onde prodotte da un’esplosione di una supernova sono completamente diverse da quelle prodotte dalla fusione di due buchi neri. Le radiazioni elettromagnetiche possono essere assorbite o emesse dalla materia che si interpone tra noi e la sorgente astronomica. Questo rende gli oggetti osservati “sfocati” o addirittura non visibili. Per esempio con l’analisi della radiazione elettromagnetica non potremo mai studiare l’interno del sole o di una supernova ma solo gli strati piu’ esterni. Al contrario le onde gravitazionali potrebbero informarci sugli eventi che le hanno generate essendo trasparenti alla maggior parte degli oggetti astronomici.

Concludendo, la forza gravitazionale anche se e’ stata la prima delle forze ad essere scoperte e’ quella che ancora presenta molti interrogativi aperti a cui i fisici nei prossimi anni dovranno cercare di dare una risposta.

mercoledì 30 maggio 2012

Terremoti ed Internet. Simili ma non troppo

Visto i recenti avvenimenti dell’Emilia Romagna credo di fare cosa gradita ai frequentatori di questo blog pubblicando il capitolo 33 del mio libro L’Universo dei numeri, i numeri dell’universo. Buona lettura.

I terremoti sono fenomeni naturali che si verificano continuamente in zone ben precise della crosta terrestre, in relazione a complicati processi di evoluzione del nostro pianeta. Le aree, più frequentemente colpite dai terremoti, sono quelle che si trovano ai limiti delle placche o zolle, in cui è divisa la parte più esterna della terra (litosfera) secondo la teoria della tettonica a zolle. I terremoti avverrebbero proprio ai margini di tali blocchi, in quanto essi si avvicinano, si allontanano, oppure scorrono l’uno accanto all’altro provocando notevoli deformazioni della litosfera fino ad arrivare a delle fratture chiamate faglie, lungo le quali si verificano più facilmente le successive rotture della crosta terrestre (vedi figura 33.1).

Lungo queste fratture si generano intensi rilasci di energia sottoforma di onde meccaniche, definite appunto "onde sismiche". In generale, l’energia durante un terremoto, viene rilasciata tramite una forte scossa principale, per lo più preceduta da piccole scosse premonitrici, dette foreshocks, e seguita da una serie di numerosissime scosse dette aftershocks. Il volume di roccia da cui si origina la frattura e da cui quindi parte la propagazione delle onde sismiche, prende il nome di fuoco. Per semplicità, l’ubicazione della zona sorgente si assimila ad un punto denominato ipocentro; il suo corrispondente sulla superficie terrestre si chiama invece epicentro. I sismologi classificano i terremoti, in base alla profondità del loro ipocentro: superficiali (0-70 km), intermedi (70-300 km) e profondi (300-720 km). I terremoti superficiali sono quelli potenzialmente più distruttivi e pericolosi per gli insediamenti umani. Il meccanismo alla base dei terremoti è stato compreso in seguito alle ricerche del geologo F. Reid ed è da ricercare, come già detto, nelle forze tettoniche che continuano a deformare lentamente le rocce della crosta terrestre lungo le linee di separazione delle placche.

Figura 33.1 Le placche della litosfera (sinistra) e la distribuzione dei terremoti (destra).

Le rocce, che si deformano, immagazzinano energia elastica, proprio come fa un bastone, quando viene incurvato. Quando le forze di legame delle rocce vengono superate, si ha un brusco spostamento delle rocce nel punto più debole della faglia. Il movimento in quel punto (ipocentro del terremoto) provoca istantaneamente una deformazione più in là lungo la faglia, e qui si potrà verificare un ulteriore slittamento; il processo si ripete fino a, quando non si sarà liberata la maggior parte dell’energia elastica immagazzinata. Questo spostamento permette alla roccia deformata di ritornare di colpo alla sua posizione originale, producendo onde sismiche (vedi figura 33.2). Un parametro importante per caratterizzare un terremoto è la sua intensità; questa viene misurata per mezzo di due scale, che prendono il nome dagli scienziati che le hanno sviluppate: Mercalli e Richter. La Scala Mercalli è divisa in 12 gradi d’intensità crescente ed è basata sull’osservazione degli effetti del terremoto partendo da un valore 1 (impercettibile) fino ad un valore 12 (totalmente catastrofico). È opportuno sottolineare che con tale scala si misura l’intensità, cioè esclusivamente gli effetti che un terremoto produce sulle costruzioni, sul terreno e sugli insediamenti umani. La Scala Richter, invece, misura quantitativamente l’energia trasportata dalle onde sismiche secondo una scala che va da valori bassi, anche negativi, fino a valori compresi tra 8 e 9, misurati da appositi strumenti; con questa scala, quindi, si effettua una misura più oggettiva, cioè si calcola la magnitudo. La magnitudo (indicata con M) è una misura dell’energia rilasciata durante un terremoto nella porzione di crosta dove questo si genera.

 

Figura 33.2 Modello della tettonica a zolle.

I terremoti sono caratterizzati da una fenomenologia molto ricca, che da sempre ha attratto l’attenzione di fisici e matematici che li hanno considerati dei sistemi complessi non facili da analizzare. Questo perchè sia l’ampiezza che il luogo in cui un terremoto si presenta sono intrinsecamente probabilistici.

I sismologi hanno identificato due leggi empiriche che regolano i terremoti. Una è la legge di Gutenberg-Richter, che stabilisce che la frequenza dei terremoti obbedisce ad una legge di potenza rispetto all’energia rilasciata. Questa legge di potenza rende inutile ogni tentativo di distinguere statisticamente i terremoti in base alla loro magnitudo a causa dell’assenza di una scala tipica di energia. La presenza di una legge di potenza per l’energia rilasciata dai terremoti significa che in natura molto spesso i terremoti sono di bassa intensità e raramente solo sono catastrofici. Ma il meccanismo che regola le scosse di bassa intensità è lo stesso di quello che regola le scosse di alta intensità.

L’altra legge è quella di Omori, che stabilisce che il numero di scosse d’assestamento dopo la scossa principale segue una legge di decadimento del tipo:

dove p è una costante che varia da 0.5 a 2.5 con un valore tipico vicino ad 1. Questa legge stabilisce che il numero di scosse di assestamento diminuisce rapidamente subito dopo la scossa principale e poi molto lentamente nel tempo. I terremoti mostrano, anche, una struttura frattale sia da un punto di vista spaziale che temporale. Analizzando la distribuzione degli epicentri dei terremoti di particolari regioni della terra come quella mostrata in figura 33.3, i ricercatori hanno verificato che questi tendono a distribuirsi in clusters senza una particolare scala. Coprendo l’immagine della figura 33.3, con un reticolo di lunghezza fissata e colorando i quadratini di nero se in essi cade almeno un punto dell’epicentro di un terremoto, ci si accorge che la distribuzione spaziale originaria non cambia all’aumentare della dimensione dei quadrati del reticolo. A tutte le scale l’immagine che ne risulterà sarà sempre la stessa. Usando le tecniche descritte nel capitolo X, gli scienziati hanno calcolato una dimensione frattale tipica dei terremoti di circa 1.5. Lo stesso discorso vale anche considerando gli intervalli temporali che intercorrono tra i terremoti in un determinato arco temporale. Come si può vedere dalla figura 33.4, la distribuzione temporale dei terremoti con magnitudine maggiore di 6 non è del tutto casuale in quanto c’è un chiaro fenomeno di raggruppamento (clustering). Per capire se anche in questo caso abbiamo una mancanza di scala si può dividere l’asse temporale della figura 33.4, in intervalli temporali di diverse lunghezze come mostrato in figura 33.5. Si nota immediatamente che il comportamento generale della frequenza per una data scala appare simile a quello delle altre scale (invarianza di scala). Quello che è interessante è la ricorrenza dei picchi allo stesso istante su tutte le scale di tempo. Una chiara indicazione di una struttura frattale essendo gli eventi altamente localizzati nel tempo e presenti con una probabilità che è indipendente dalla scala temporale. Per essere più precisi si tratta di una struttura multi frattale, cioè una collezione di monofrattali sovrapposti che dà luogo a degli intervalli temporali più densamente popolati e ad altri meno (vedi figura 33.6). Tutto ciò ha una forte somiglianza con i sistemi complessi in stati critici lontani dall’equilibrio. Poiché l’approccio delle reti complesse si è dimostrato essere un potente mezzo per analizzare le strutture cinematiche e dinamiche dei sistemi complessi, alcuni ricercatori lo hanno applicato anche allo studio dei terremoti. In questo caso la rete viene costruita nel seguente modo. La regione geografica di interesse viene divisa in tante piccole celle di forma cubica. Una cella viene vista come un vertice (nodo) della rete se all’interno di essa si è manifestato un terremoto di qualsiasi magnitudo. Due terremoti successivi definiscono un arco tra due vertici. Se essi capitano nella stessa cella allora l’arco si richiude sullo stesso vertice (loop). Questa procedura rende possibile la mappatura degli eventi sismici tramite un grafo probabilistico dinamico, che chiameremo la rete dei terremoti.

 

Figura 33.3 Mappa dei terremoti avvenuti in Anatolia tra il 1900 e il 1992.

 

Figura 33.4 Momento sismico (una grandezza equivalente all’energia rilasciata durante un terremoto) nel tempo (in secondi). Il periodo temporale è 1984-2002. Sono stati considerati solo i terremoti con magnitudine maggiore di 6.

 

Figura 33.5 Evoluzione temporale degli eventi sismici avvenuti nella regione dell’Anatolia a differenti scale temporali.

 

Figura 33.6 Metodo per costruire un multi frattale. Si parte col considerare n eventi distribuiti su un intervallo temporale di lunghezza 4, lasciando vuoto il secondo sito. Alla seconda iterazione, la nuova distribuzione è la somma della configurazione per n=1 più una sua versione ingrandita due volte.

In questo modello, gli archi della rete rappresentano la correlazione tra gli eventi sismici (vedi figura 33.7). Dall’analisi di un tale modello emerge la presenza di alcuni nodi che corrispondono alle scosse principali con un numero molto elevato di connessioni (hubs). Ciò è in accordo con quanto scoperto dall’analisi dei dati reali che mostrano che le scosse di assestamento tendono sempre a ritornare nel luogo della scossa principale. Questo è il motivo per cui un nodo che rappresenta una scossa principale tende ad avere un numero elevato di connessioni, cioè tende a diventare un hub. Come mostrato in figura 33.8, la distribuzione delle connessioni segue una legge di potenza del tipo:

dove gamma è una costante positiva. Questo significa che la rete dei terremoti è una rete senza scala (scale-free), in accordo con la legge di Gutenberg-Richter, che stabilisce che la frequenza dei terremoti decade lentamente secondo una legge di potenza rispetto all’energia rilasciata. Dall’analisi della rete dei terremoti è emerso, anche, un rapporto dei coefficienti di clustering che può variare tra 50 e 100 a secondo della dimensione del reticolo utilizzato. Essendo il coefficiente di clustering notevolmente più grande di quello delle reti casuali e poiché la distanza media della rete dei terremoti è molto piccola, questo dimostra in modo inequivocabile che la rete dei terremoti è una rete di piccolo mondo. Per poter andare avanti con l’associazione tra terremoti e reti bisogna introdurre un’altra caratteristica importante delle reti complesse: l’organizzazione gerarchica. Per dimostrare che una rete è organizzata in modo gerarchico va analizzato il coefficiente di clustering in funzione del numero di connessioni di ogni nodo k. Se esso segue una legge di potenza del tipo:

allora la rete ha una struttura gerarchica. Questo è esattamente il caso della rete dei terremoti come si può vedere dalla figura 33.9. La presenza di una struttura gerarchica è molto importante da un punto di vista fisico. Per poterla spiegare, infatti, bisogna assumere che la regola “i ricchi diventano sempre più ricchi” non è vera per tutti i nodi della rete dei terremoti. Alcuni di questi associati a delle faglie attive possono disattivarsi attraverso il processo di rilascio dello stress da parte della faglia e quindi non possono più ricevere nuove connessioni.

 

Figura 33.7 Rete dei terremoti della California nel periodo 1984-2003.

 

Figura 33.8 Distribuzione delle connessioni per la rete dei terremoti della California nel periodo 1984-2003. In a è stato usato un reticolo con dimensioni 10x10x10 Km mentre in b un reticolo 5x5x5 Km.

La struttura gerarchica scompare se vengono rimosse le connessioni deboli (per esempio i terremoti con una magnitudo minore di 3).

 

Figura 33.9 Distribuzione del coefficiente di clustering per la rete dei terremoti della California nel periodo 1984-2003. In (a) è stato usato un reticolo con dimensioni 10x10x10 Km mentre in (b) un reticolo 5x5x5 Km.

La natura scale-free, il fenomeno di piccolo-mondo, la crescita inomogenea delle connessioni e la struttura gerarchica indicano che la rete dei terremoti è molto simile a quella di Internet, anche se differiscono in un punto. Si tratta della proprietà di correlazione delle connessioni. Essa indica qual è la probabilità che un nodo con molti gradi (pochi gradi) sia connesso ad uno con molti gradi o ad uno con pochi gradi. Se questo parametro tende ad aumentare al variare del numero di gradi k allora la rete è detta assortiva mentre se il parametro tende a diminuire la rete è detta disassortiva. Per la rete dei terremoti si trova una correlazione che tende ad aumentare come mostrato in figura 33.10, indicando che i terremoti costituiscono una rete assortiva. Perciò, i nodi con un numero elevato di connessioni tendono ad essere collegati uno all’altro, cioè i nodi che rappresentano terremoti più intensi, tendono ad essere connessi tra loro. Al contrario, Internet, è una rete disassortiva e quindi ha esattamente il comportamento opposto di quello della rete dei terremoti.

Altra caratteristica molto importante dei terremoti e la loro periodicità. Dopo quanto tempo mediamente un terremoto torna nel punto iniziale, cioè nel nodo iniziale della rete dei terremoti? Come mostrato in figura 33.11, la distribuzione dei periodi (che per una rete corrisponde al numero di connessioni Lp da attraversare) segue anch’essa una legge di potenza. Questo implica che ci sono terremoti con periodi molto lunghi, che, da un punto di vista statistico, rendono molto difficile stabilire dopo quanto tempo un terremoto si può ripresenterà in uno stesso luogo. Ciò rende quasi impossibile qualsiasi tipo di previsione.

Oltre all’approccio di rete complessa, i terremoti possono essere modellizzati efficacemente anche utilizzando la cosiddetta teoria SOC (Self-Organized criticality), secondo la quale i sistemi dinamici, lontani dall’equilibrio, possono evolvere spontaneamente verso uno stato critico, per un ampio intervallo di valori dei parametri caratteristici del sistema. Un esempio che illustra il meccanismo SOC è il cosiddetto modello del mucchietto di sabbia o “Sand-pile”. Si tratta di un piatto su cui si fanno cadere dall’alto, uno pera volta, dei granelli di sabbia. Questi granelli si disporranno in una struttura a “pila” di forma conica. Man mano che si aggiungono granelli di sabbia, la pendenza di questo cono aumenterà, fino a raggiungere un valore critico, oltre il quale qualsiasi aggiunta di granelli di sabbia determinerà delle valanghe che andranno a riempire gli spazi rimasti vuoti vicino alla pila di sabbia. Continuando ad aggiungere altra sabbia, il numero di granelli sovrabbonderà e cadrà al di là del piatto. Quando il numero dei granelli persi sarà uguale in media a quello dei grani aggiunti, il mucchietto raggiungerà il suo stato critico. Anche se questo modello è molto semplice, esso si adatta bene a descrivere molti sistemi fisici ed è in grado di generare distribuzioni con legge di potenza che come visto sono molto ricorrenti in natura.

 

Figura 33.10 Coefficiente di correlazione tra nodi al variare del numero di gradi k.

Gli aspetti fondamentali della teoria della criticità auto-organizzata possono essere cosi riassunti:

  1. La distribuzione della dimensione delle valanghe segue una legge di potenza
  1. Le leggi fisiche che regolano l’interazione tra i granelli di sabbia sono molto semplici. In altre parole per auto organizzarsi il sistema non ha bisogno di complicate leggi fisiche
  1. Le valanghe non avvengono in modo periodico ma in modo imprevedibile
  1. La superficie del mucchietto di sabbia mostra una struttura frattale

Come è possibile applicare questo modello ai terremoti? Basta ricordare che i terremoti sono associati allo scivolamento delle placche tettoniche lungo le faglie e che le forze tettoniche deformano lentamente le rocce della crosta terrestre lungo le faglie immagazzinando energia.

 

Figura 33.11 Coefficiente di correlazione tra nodi al variare del numero di gradi k.

Quando quest’ultima supera un valore critico, essa è rilasciata sotto forma di uno scivolamento di un blocco rispetto all’altro coinvolgendo un certo numero di blocchi vicini e dando luogo a “valanghe”. Il modello “sand-pile”, è stato proposto per la prima volta nel 1988 dallo scienziato Per Bak e può essere simulato usando una matrice con nxn celle, ognuna delle quali può interagire con le prime vicine (Nord, Sud, Est, Ovest). Ad ogni cella si attribuisce un valore numerico compreso in un certo intervallo come per esempio tra 1 e 14 e ad ogni numero viene associato un colore che va dal blu al rosso. Inizialmente le celle della matrice vengono forzate ad un valore tra 1 e 14 scelto in modo del tutto casuale (vedi figura 33.12).

 

Figura 33.12 Simulazione SOC. All’inizio il valore di ogni cella è del tutto casuale.

 

Si prende a caso una cella della matrice e si incrementa il suo valore numerico (che corrisponde allo stress o energia accumulata dalle rocce) di un’unità: questo processo corrisponde alla caduta di un granello di sabbia nel modello sand-pile ovvero ad un leggero aumento della tensione che si esercita tra blocchi (nel caso dei terremoti) o granelli contigui (nel caso del mucchietto di sabbia). Se il nuovo valore della cella è inferiore ad un valore critico Zc (che possiamo per esempio scegliere essere uguale a 14) allora si procede ad un’aggiunta di granelli altrimenti lo stress viene rilasciato ai primi 4 vicini. In quest’ultima ipotesi, bisogna valutare il valore numerico delle celle vicine e verificare se esso è inferiore o superiore al valore critico. Se è maggiore, allora, si procede analogamente a prima generando una valanga. Al termine di questa valanga, si procede all’aggiunta di ulteriori granelli di sabbia generando cosi ulteriori valanghe. C’è da tener presente comunque, una cosa molto importante. Inizialmente la matrice essendo in uno stato completamente casuale, non si trova in uno stato critico e quindi bisogna generare un certo numero di valanghe per portare il sistema in uno stato di criticità auto-organizzato, a partire dal quale una qualsiasi perturbazione genererà valanghe di differenti grandezze, la cui distribuzione seguirà una legge di potenza. Per determinare quando il sistema raggiunge lo stato critico si può fare nel seguente modo. Si segue la variazione nel tempo del valore medio di tutti gli elementi della matrice <z(t)>, cioè la somma dei valori della matrice diviso il numero totale delle celle e si verifica quando questo valore si porta ad un valore asintotico attorno al quale oscilla. Questo sarà lo stato critico (vedi figura 33.13) del sistema.

 

Figura 33.13 Simulazione SOC. Andamento del valore medio dei valori delle celle nel tempo.

 

Per l’esempio scelto, il valore critico è di circa 12.8. Quindi si registrerà una valanga solo se prima di aggiungere un granello di sabbia il valore medio di z è maggiore di 12.8. Facendo partire la simulazione, si osserveranno le diverse valanghe come mostrato in figura 33.14.

 

Figura 33.14 Simulazione SOC. Formazione delle prime valanghe col trascorrere del tempo.

 

I vari clusters di punti corrispondono alle celle che vengono interessate durante ogni valanga. Procedendo iterativamente con l’algo-ritmo si possono catalogare diverse valanghe in base alla loro dimensione. Una volta ottenuti questi risultati, si può riportare su scala bi-logaritmica la dimensione delle valanghe e quante volte ogni dimensione si è presentata (frequenza). La parte lineare di questo grafico segue una legge di potenza con un esponente uguale a circa -1 (vedi figura 33.15).

Ovviamente, la stessa simulazione può essere fatta anche partendo con una matrice iniziale non casuale ma con le celle in uno stato ben definito come mostrato in figura 33.16. In questo caso le celle centrali sono cariche di stress. Se si aggiungono a questa matrice altri grani, essa inizialmente conserva il ricordo della condizione iniziale, ma dopo un pò di tempo la tensione di stress accumulata al centro della matrice comincia a distribuirsi in modo eguale su tutti i siti. Dopo 500000 valanghe, la matrice si porta in uno stato di criticità auto organizzata, ed assume un aspetto simile a quello mostrato in figura 33.17.

 

Figura 33.15 Simulazione SOC. Legge di potenza.

 

Figura 33.16 Simulazione SOC. Celle centrali in uno stato critico.

 

Figura 33.17 Simulazione SOC. Stato finale della matrice della figura 33.16 dopo 500000 valanghe.

 

Questo risultato conferma l’ipotesi della teoria SOC, secondo cui il sistema lontano dall’equilibrio, indipendentemente dallo stato iniziale, si auto-organizza ed evolve verso uno stato critico. Anche per questa simulazione si può analizzare la distribuzione della dimensione delle valanghe, ottenendo per l’esponente della funzione potenza esattamente lo stesso valore precedente, cioè circa -1. Il grafico come quello mostrato in figura 33.15, riproduce qualitativamente la legge di Gutenberg-Richter dei terremoti. Nonostante la semplicità del modello SOC, se si variano opportunamente i pochi parametri della simulazione, è possibile ottenere diverse dinamiche con proprietà differenti. Che dire. Ancora una volta la matematica alla base di un semplice modello riesce a replicare il comportamento dei terremoti e di altri sistemi dinamici presenti in Natura. Delle semplice regole, e un numero elevato di parti connesse (interagenti) sono gli ingredienti giusti per dar vita a strutture complesse il cui comportamento non è prevedibile analizzando le sue parti.

venerdì 13 aprile 2012

E’ possibile che l’universo sia stato programmato per ospitare la vita?

Sara’ capitato a molti di voi di alzare lo sguardo al cielo in una notte buia e rendersi conto dell’immensita’ dell’universo, della sua bellezza e regolarita’. Tutto sembra funzionare alla  perfezione. Le leggi della fisica e i valori delle cosiddette costanti fisiche (come per es. la costante universale gravitazionale che regola l’attrazione tra due corpi massicci) sembrano essere quelle giuste affinche’ l’universo sia quello che e’. Se anche una delle proprieta’ fisiche fosse stata differente, le stelle, i pianeti e le galassie non si sarebbero mai formate. E la vita sarebbe stata impossibile.
Consideriamo per esempio il neutrone (la particella neutra presente nel nucleo degli atomi); esso e’ 1.00137841870 volte piu’ pesante del protone (l’altra particella presente nel nucleo con carica positiva) e questo fa si che il neutrone possa decadere in un protone, elettrone e neutrino (radiazione beta), un processo che ai tempi del Big Bang determino’ l’abbondanza di idrogeno ed elio e che fece si che il nostro universo fosse dominato dall’idrogeno. Se il rapporto delle masse del neutrone e del protone fosse stato leggermente diverso, noi vivremmo in un universo molto differente: uno per esempio in cui le stelle consumano velocemente il loro combustibile nucleare oppure uno in cui i protoni decadono in neutroni lasciando l’universo senza atomi. Universi che non hanno la possibilita’ di far evolvere la vita.
Voglio fare qui una breve divagazione nella fisica del chaos. Sicuramente molti di voi conosceranno l’effetto farfalla: un semplice battito d’ali in Brasile puo’ generare un tornado a New York. Questo perche’ il sistema dell’atmosfera terrestre e’ un sistema complesso con una dipendenza sensibile dalle condizioni iniziali. Qualche variazione inizialmente molto piccola puo’ essere amplificata nel tempo e diventare una variazione grandissima. Questo e’ tipico dei sistemi complessi che si trovano all’edge del chaos cioe’ in bilico tra un ordine perfetto e il disordine totale. Pensate alle transizioni di fase che portano un oggetto da solido a liquido e quindi in fase gassosa. La fase liquida puo’ essere considerata quella in bilico tra l’ordine perfetto dei reticoli cristallini dei solidi e il disordine totale delle molecole dei gas. Visto che il nostro universo ha una dipedenza sensibile dai valori delle costanti fisiche fondamentali sembra suggerire che esso possa essere considerato come un sistema complesso ai confini del chaos. E questo potrebbe spiegare perche’ in esso si e’ evoluta la vita. Sono in tanti gli scienziati che credono che solo nei sistemi all’edge del chaos si possa generare la vita in quanto non sono ne’ troppo ordinati da non potersi adattare alle condizioni esterne ne’ troppo disordinati da non riuscire ad imparare.
Esempi di valori di costanti fisiche regolate opportunamente per giustificare l’universo che oggi vediamo ce ne sono tanti. Se per esempio raddoppiassimo la carica di un elettrone, o cambiassimo di poco l’intensita’ della forza gravitazionale o della forza nucleare l’universo apparirebbe molto ma molto diverso.
La grande sfida per i fisici e’ di spiegare perche’ questi parametri hanno il valore che hanno e non un altro.         
E non solo. Un’ altra sfida e’ quella dell’energia oscura, l’energia che sta accelerando il nostro universo e di cui non conosciamo quasi nulla. Tutti i tentativi fatti dai fisici per determinare il valore aspettato di questa energia porta ad un valore 10^120 volte piu’ grande di quello aspettato.
Secondo il fisico Susskind dell’Universita’ di Stanford il grande mistero non e’ tanto spiegare perche’ esiste l’energia oscura quanto perche’ ce n’e’ cosi poca. Un valore leggermente piu’ alto avrebbe fatto espandere lo spazio-tempo cosi velocemente che le galassie non si sarebbero potute formare. 
Ci sono due possibili spiegazioni per un cosi’ perfetto “aggiustamento” delle costanti fisiche. Una e’ quella di far intervenire un Dio che ha programmato il tutto e l’altra che esista un grande numero di universi se non addirittura infiniti di cui il nostro e’ uno di essi

Questo insieme di universi e’ quello che i fisici chiamano il multiverso. In un multiverso le leggi fisiche e le costanti fondamentali sono diverse in ognuno dei suoi universi. Quindi il nostro non e’ particolare. Semplicemente ha avuto la fortuna di avere i valori giusti per far evolvere la vita. In altri universi meno fortunati questo purtroppo non e’ avvenuto. Questo e’ il cosiddetto principio antropico.  Non tutti i fisici pero’ condividono questa prospettiva. Lawrence Krauss dell’universita’ dell’Arizona, autore del libro “A Universe from nothing” vorrebbe capire perche’ l’universo e’ quello che e’ senza ricorrere alla casualita’ del multiverso.
Tuttavia l’idea del multiverso oggi sta prendendo sempre piu’ piede specialmente perche’ esso viene predetto da una teoria che e’ stata sviluppata per risolvere la questione della “piattezza” del nostro universo.



 
Tutte le misure effttuate fino ad ora hanno mostrato che il nostro spazio-tempo e’ piatto, cioe’ in esso vale la geometria Euclidea. Per esempio per un qualsiasi triangolo la somma degli angoli interni e’ sempre 180 gradi. Se lo spazio-tempo fosse stato curvato, invece questo non sarebbe stato vero. La “piattezza” del nostro spazio-tempo e’ stata confermata dalle misure accurate della radiazione cosmica di fondo, la luce che circa 380.000 anni dopo il Big Bang emerse dal nostro universo che fino a quel tempo era stato opaco assorbendo in continuazione i fotoni emessi all’atto del grande scoppio iniziale. 
Se l’universo e’ piatto questo implica che il parametro Omega, legato alla curvatura dello spazio-tempo e’ molto vicino al valore 1. E per avere oggi un universo con un valore Omega vicino a uno significa che un secondo dopo il Big Bang esso doveva avere un valore esattamente uguale a 1 con una precisione di decine di cifre decimali. Cosa ha fatto si che questo valore fosse esattamente uno e non un valore leggermente diverso?
La risposta e’ venuta nel 1979 dal fisico Alan Guth. Egli mostro’ che nei primi istanti dopo il Big Bang, l’universo subi’ un periodo di espansione esponenziale. Questa improvvisa espansione, che Guth chiamo’ inflazione rese il nostro universo osservabile piatto indipendentemente dal valore del parametro Omega prima dell’inflazione.
Alcuni fisici credono che l’inflazione continui ancora oggi in posti diversi e lontani dell’Universo, generando uno dopo l’altro nuovi universi ognuno con diverse proprieta’ fisiche. Questo e’ quello che viene chiamata l’eterna inflazione. Ogni universo e’ solo una piccola frazione di un universo piu’ grande che a sua volta e’ solo uno di un numero di altri infiniti universi. Ognuno di questi universi e’ il prodotto del suo proprio big bang. Questo multiverso puo’ essere rappresentato come un insieme di bolle. Ogni bolla rappresenta un universo infinito, e ci sono un infinita’ di bolle, cioe’ di universi.  


E’ possibile provare una tale ipotesi? Sembrerebbe di si. Se esistono infiniti universi allora e’ possibile che ci siano state nel passato delle collisioni tra essi lasciando un’impronta nella radiazione cosmica di fondo: dei cerchi concentrici in cui la temperatura dovrebbe essere leggermente diversa dalle zone circostanti.

L’analisi dei dati del satellite WMAP non ha evidenziato con certezza nessuna regione con questa forma anche se alcuni studiosi tra cui Stephen Feeney dell’University College London dicono di aver trovato qualche possibile prova di questi pattern circolari nella radiazione cosmica di fondo (vedi immagine sopra).
Qualche cosa di analogo sembra essere stato individuato anche da Roger Penrose e V. Gurzadyan come emerge da un loro lavoro pubblicato sul web.  Secondo la loro teoria questi dischi concentrici sono il segno di un universo ciclico eterno. Penrose spiega che l'inflazione non può spiegare lo stato di entropia molto basso in cui l'universo si pensa dovesse trovarsi all'inizio. Lui ed il suo co-autore, non credono che lo spazio ed il tempo hanno avuto inizio con il Big Bang, ma che invece, l'evento è stato soltanto uno tra tanti. Ogni "Big Bang" ha segnato l'inizio di una nuova era, ed il nostro universo è solo uno dei tanti universi ciclici, iniziando un nuovo universo al posto di quello di prima.

Purtroppo prima di essere certi di questi risultati c’e’ bisogno di misure della temperatura di fondo piu’ accurate che e’ proprio quello che sta facendo il satellite Planck con una risoluzione 3 volte maggiore di quella di WMAP. Con questa sensibilita’ dovrebbe essere possibile per gli scienziati individuare con certezza questi dischi concentrici rispetto al rumore di fondo.

L’eterna inflazione con la sua predizione del multiverso ci ricorda che i parametri che una volta si pensavano dover essere stati programmati esattamente al valore attuale, come Omega, possono essere spiegati da una teoria fisica piu’ fondamentale. E’ possibile che molte delle costanti i cui valori oggi non ci sappiamo spiegare potranno essere capite quando riusciremo ad arrivare ad una teoria del tutto o quando riusciremo a rivelare segnali di altri universi. Non ci resta che aspettare con fiducia.
 
http://www.wikio.it