venerdì 28 febbraio 2014

Una nuova stima della massa dei neutrini

 
Oggi parliamo di un argomento che mi sta molto a cuore visto che e’ stato argomento della mia tesi di laurea: la massa dei neutrini. All’epoca della mia tesi si pensava che la materia oscura che pervade l’intero universo potesse essere spiegata con la massa dei neutrini. Ci furono diversi esperimenti in tutto il mondo che cercavano di stabilire la massa di questi oggetti evanescenti e quello a cui partecipai anche io (CHARM II) era uno di questi. Si cercavano le cosiddette oscillazioni di neutrini (cioe’ il passaggio spontaneo dei neutrini da un sapore all’altro) previste teoricamente dal grande fisico italiano Bruno Pontecorvo che ho avuto la fortuna di conoscere di persona durante un convegno al CERN di Ginevra. La sua teoria prevede le oscillazioni dei neutrini solo se essi hanno una massa diversa da zero.
 
 
Nella figura sopra, la curva blu rappresenta la probabilità che il neutrino mantenga il sapore originario, mentre la curva rossa rappresenta la probabilità che cambi sapore. La frequenza di oscillazione dipende da Δm2, la differenza tra le masse al quadrato dei diversi neutrini.
 
 
Purtroppo CHARM II non fu in grado di rilevare tali oscillazioni. Esse furono osservate per la prima volta una decina di anni dopo all’osservatorio Giapponese di Super-Kamiokande. Tali esperimenti hanno permesso di determinare un limite superiore alla massa dei neutrini che pur risultando molto piccola non e’ uguale a zero in contrasto con quanto previsto dal Modello Standard. In questi giorni due ricercatori dell’Universita’ di Manchester e Nottingham sembrano aver stabilito con grande accuratezza la massa dei neutrini utilizzando i risultati del satellite Planck il cui compito e’ quello di mappare la radiazione cosmica di fondo (in inglese Cosmic Microwave Background CMB) e le misure della curvatura dello spazio-tempo tramite le lenti gravitazionali (per maggiori dettagli sulle lenti consultare il precedente post sul mio blog).
 
 
La radiazione cosmica di fondo e’ la luce residua dell’universo neonato partita 380000 anni dopo il Big Bang quando il raffreddamento dell’universo permise la formazione degli atomi neutri e alla luce di cominciare il suo grande viaggio attraverso l’oscurita’ dell’Universo ormai divenuto trasparente. I fotoni si separarono definitivamente dalla materia (vedi immagine sotto). Oggi questi fotoni fossili, infiacchiti dai miliardi di anni trascorsi bombardano in continuazione il nostro pianeta. La loro lunghezza d’onda e’ dell’ordine del millimetro e quindi fanno parte dello spettro delle micro-onde, le stesse di quelle prodotte nei nostri forni a micro-onde. Prima che la luce si disaccoppiasse dalla materia l’universo era completamente opaco in quanto i fotoni venivano continuamente catturati dalla materia. La radiazione cosmica di fondo, quindi e’ il segnale piu’ antico che possiamo captare oggi e la cosa piu’ lontana che possiamo osservare. La “mappatura” di questa radiazione di fondo ha permesso di scoprire che 380000 anni dopo il Big Bang la materia non era distribuita uniformemente (cosa che non avrebbe permesso la creazione di tutte le strutture cosmiche oggi visibili) ma c’erano delle disuniformita’ oggi visibili come piccolissime differenze di temperatura visto che l’energia dei fotoni e’ proporzionale alla densita’ della materia. Lo studio della radiazione fossile ha permesso agli scienziati di misurare accuratamente alcune costanti cosmologiche come la quantita’ di materia presente nel nostro Universo e la sua eta’. Tuttavia emergono alcune discrepanze quando si prendono in considerazione strutture dell’Universo su grande scala come la distribuzione delle galassie.
 
 
Come ha spiegato il professor Richard Battye dell’Universita’ di Manchester, il numero di ammassi di galassie osservato e’ minore di quello che i dati del satellite Planck sembrano suggerire. Inoltre i segnali di questi ammassi misurati grazie all’effetto delle lenti gravitazionali sono piu’ deboli di quanto previsto dalla distribuzione della radiazione cosmica di fondo (CMB). Un modo per risolvere questo dilemma e’ ipotizzare che i neutrini abbiano massa. Il loro effetto sarebbe quello di sopprimere la crescita delle strutture dense che portano alla formazione degli ammassi di galassie. L’interazione tra i neutrini e gli altri costituenti della natura e’ molto debole e quindi sono difficili da osservare. Inizialmente (come gia’ detto all’inizio di questo post) si suppose che essi fossero delle particelle prive di massa ma gli esperimenti successivi come quelli delle oscillazioni dei neutrini dimostrarono il contrario. La somma delle masse dei tre sapori di neutrino (elettronico, muonico e tauonico) era stata determinata essere maggiore di 0.06 eV (molto meno di un  miliardo di volte la massa del protone). Nello studio del Professor Battye e dei suoi collaboratori, combinando i risultati del satellite Planck e delle immagini di galassie lontane rese visibili dall’effetto delle lenti gravitazionali, e’ stato stabilito che la somma della massa dei neutrini e’ pari a 0.320+/-0.081 eV. Il Dottor Adam Moss, uno degli autori della ricerca, in un intervista ai giornalisti ha affermato che “se questo risultato verrà confermato da ulteriori analisi, non solo contribuirà ad accrescere le nostre conoscenze del mondo subatomico, ma sarà anche un’importante passo avanti per un’estensione del modello standard della cosmologia sviluppato negli ultimi dieci anni”.

sabato 1 febbraio 2014

Nuove conferme sull’esistenza della ragnatela cosmica

 

E’ di poche settimane fa la notizia dell’osservazione di alcuni filamenti di gas intergalattico tenuti insieme dalla materia oscura che si estendono tra le galassie dell’Universo. Si tratta del risultato di una ricerca effettuata da alcuni astronomi dell’Universita’ della California tra cui tre italiani usando il telescopio del WM Keck Observatory delle Hawaii. Per mettere in evidenza questi filamenti previsti dalle teorie cosmologiche e’ stato utilizzato un enorme quasar (UM287) a dieci miliardi di anni luce da noi. La radiazione emessa dal quasar fa brillare il gas intergalattico rendendolo visibile ai telescopi terrestri. I risultati sono in buon accordo con le previsioni teoriche. Qui sotto l’immagine vista al telescopio con a destra la simulazione della rete cosmica.

In effetti questo studio non ha rivelato la materia oscura ma solo il gas in essa contenuta. Ci sono stati pero’ in passato altri due studi che hanno messo in evidenza in modo indiretto la stessa materia oscura utilizzando le cosiddette lenti gravitazionali. Ma andiamo per ordine.

Oggi per interpretare le misure delle curve di velocita’ delle galassie, gli scienziati hanno supposto l’esistenza di una materia fredda, non barionica, non interagente con la normale materia barionica (quella di cui sono fatti gli atomi) e oscura (nel senso che non emette luce e nessun altro tipo di radiazione elettromagnatica). Circa il 25% della materia presente nell’universo e’ materia oscura. Quella barionica invece che vediamo con i nostri telescopi e’ solo il 5%. E di cosa e’ fatto il rimanente 70%? Dalla famosa equazione di Einstein che lega la materia all’energia, sappiamo che se esiste una materia oscura ad essa deve anche essere associata un’energia oscura che al momento non sia di preciso. Si sa solo che e’ responsabile dell’attuale accelerazione del nostro universo come evidenziato dalle piu’ recenti misure della costante di Hubble (che lega la velocita’ di recessione delle galassie con la loro distanza).

Simulazioni al computer mostrano che la materia oscura e’ distribuita lungo una struttura filamentosa come quella mostrata qui di seguito.

Le regioni piu’ brillanti sono quelle dove la materia oscura e’ piu’ densa delle regioni circostanti. I filamenti cosmici si intersecano in zone dello spazio dove c’e’ una grande densita’ di materia oscura e dove ci si aspetta di trovare grandi ammassi di galassie che dopo la loro formazione diventano visibili. Ci si aspettava quindi che alcuni filamenti di gas ionizzato intergalattico avessero un profilo simile a quello ottenuto nelle simulazioni della materia oscura. Ed è proprio questo quello che hanno osservato i ricercatori dell’Universita’ della California, grazie all’illuminazione fornita dal quasar.

Questo risultato molto importante si va ad aggiungere ad altri due ottenuti nel 2012 dal team di ricercatori guidati da Jorg Dietrich dell’Universita’ di Monaco e dell’Universita’ del Michigan e dal team coordinato da Mathilde Jauzac dell’Universita’ di Marsiglia e dell’Universita’ del Sud Africa. In entrambi questo studi non e’ stata analizzata la materia ordinaria ma direttamente la materia oscura. Ma come e’ stato possibile osservare l’invisibile? Per farlo i ricercatori sono ricorsi ad una speciale tecnica usata in astronomia, quella delle lenti gravitazionali. Vediamo meglio di cosa si tratta.

Si parla di lenti gravitazionali nell’universo, quando la luce da una stella molto lontana, viene deflessa da corpi molto massici che si trovano tra la sorgente e l’osservatore.

Tale effetto fu previsto da Einstein quando sviluppo’ la sua teoria generale della relatività. I fotoni emessi da una sorgente luminosa, quando passano vicino ad un corpo massiccio sentono l’attrazione gravitazionale di quest’ultimo. Chiaramente da un punto di vista della fisica classica questo fenomeno e’ difficile da spiegare visto che i fotoni sono oggetti senza massa; ma nella relativita’ generale in presenza di un corpo dotato di massa, si sviluppa un campo gravitazionale che altro non e’ che una perturbazione dello spazio-tempo. Questa perturbazione si traduce in un cambiamento del percorso della luce rispetto alla sua traiettoria originale e talvolta in cambiamenti significativi della forma e luminosita’ delle sorgenti astronomiche.

Il cammino dei raggi luminosi emessi da una sorgente lontana cambia a causa della deformazione dello spazio-tempo, cosicche’ all’osservatore arrivano dei raggi luminosi che, in assenza della massa deflettente, non sarebbe stato possibile ricevere. Questo effetto e’ paragonabile a quello di una lente ottica: cosi’ come la luce si propaga attraverso la lente con una velocita’ diversa da quella nel vuoto, allo stesso modo in presenza di un campo gravitazionale la luce si propaga “piu’ lentamente” , come se i fotoni fossero attratti dalla massa che produce il campo gravitazionale. Per questo motivo a tale fenomeno e’ stato dato il nome di lensing gravitazionale. A causa della deflessione dei raggi luminosi, l’osservatore vede delle immagini multiple della stessa sorgente. Se c’e’ un solo oggetto massiccio tra l’osservatore e la stella, allora si vedra’ qualche cosa come un immagine doppia della stessa. Qualche volta le immagini si possono unire tra loro dando l’impressione di un anello che circonda l’oggetto massiccio.

Se c’e’ più di un oggetto massiccio tra noi e la sorgente le cose diventano più complicate. In accordo alla cosiddetta congettura di Sun Hong Rhie, il numero di immagini create dalla deflessione della luce intorno ad n oggetti massici e’ sempre minore di 5n-5. Questo significa che in presenza di 4 oggetti massicci una stella dovrebbe essere vista come 15 sorgenti distinte. Le lenti gravitazionali sono molto importanti per studiare oggetti lontani che altrimenti non si vedrebbero con i telescopi a nostra disposizione in quanto molto piccoli. Le lenti gravitazionali infatti oltre a deflettere i raggi luminosi, come le lenti ottiche, hanno anche un effetto di amplificazione dell’immagine della sorgente luminosa. Ma come utilizzare le lenti gravitazionali per scovare la materia oscura? Secondo la relativita’ di Einstein in assenza di materia la luce dovrebbe viaggiare in linea retta. Ma in presenza di materia, per effetto lente, i raggi vengono deflessi. Ovviamente la luce da sorgenti lontane, raramente incontra un ammasso di materia tale da curvare fortemente la sua traiettoria e quindi facilmente visibile. Al contrario questi raggi luminosi subiscono una serie di piccole deflessioni tali (traiettoria di colore giallo nell’immagine sottostante) che un osservatore localizzato per esempio sulla destra del box mostrato qui sotto vede le immagini delle galassie “stirate” in una direzione comune determinata dalla distribuzione della materia oscura. Questa distorsione gravitazionale e’ aspettata essere molto piccola e quindi e’ richiesta un analisi statistica delle varie immagini del cielo.

Qui sotto viene mostrata un’immagine di quello che dovrebbe vedere l’osservatore immaginario posto sulla faccia a destra del parallelepipedo. I dischi blu sono le immagini di galassie lontane formate dopo che la loro luce ha attraversato la materia oscura. L’osservatore vede le galassie ma non i filamenti di materia oscura (oggetti in rosso e in bianco). In media queste galassie sono allungate lungo una direzione parallela ai filamenti della materia oscura. E’ proprio grazie a questa distorsione sistematica nelle immagini di galassie distanti, che si puo’ “vedere” la materia oscura.

>

Il team di Dietrich e’ riuscito a mettere in evidenza il filamento che connette i due componenti principali del super-ammasso Abell 222/223. I ricercatori hanno analizzato la distorsione luminosa di oltre 40mila galassie lontane riuscendo cosi a mettere in evidenza il filamento in Abell come mostrato nell’immagine dove l’ombreggiatura blu indica la densita’ della materia oscura.

Studiando le caratteristiche della luce analizzata, gli scienziati sono riusciti a calcolare la forma e la dimensioni del filamento, individuando una struttura con una massa compresa tra 6.5×1013 e 9.8x1013 volte quella del Sole. Le analisi effettuate con il telescopio spaziale XMM-Newton hanno inoltre evidenziato come il filamento emetta anche raggi X, indicando la presenza di una piccola parte di materia visibile costituita da gas caldo. Tutto questo accadeva nel Luglio del 2012. Pochi mesi dopo l’annuncio del gruppo del prof. Dietrich c’e’ stato un’altra comunicazione di grande importanza da parte del team capitanato da Jauzac. Contrariamente a quanto fatto dal gruppo precedente che era riuscito a tracciare un ritratto bidimensionale di un filamento di materia oscura, quello di Jauzac e’ riuscito a catturare un filamento di materia oscura in 3 dimensioni eliminando cosi molte delle limitazioni che si hanno nello studiare una struttura appiattita. Osservando con il telescopio Hubble l'ammasso galattico Macs J0717 e la luce delle galassie sulle sfondo con la tecnica delle lenti gravitazionali, è stato possibile rintracciare il filamento di materia oscura, dalle dimensioni giganti (lungo 60 milioni di anni luce). Ma non solo. Per aggiungere la tridimensionalità alle loro osservazioni i ricercatori hanno combinato immagini a colori e dati sulla posizione e sul movimento delle galassie immerse nel filamento, grazie alle misure delle loro velocità.   Qui sotto l’immagine ottenuta.

Tutti questi risultati oltre a confortare le teorie cosmiche, suggeriscono come in base ai calcoli effettuati questa ragnatela di materia oscura possa contenere piu’ massa di quanto creduto finora.

Per approfondire:

http://arxiv.org/abs/1401.4469

http://arxiv.org/abs/1207.0809

http://arxiv.org/abs/1109.3301

venerdì 20 dicembre 2013

La Super-simmetria alle corde

 

Il modello standard della fisica delle particelle, nonostante i successi registrati negli ultimi anni, tra cui la previsione del bosone di Higgs, non ancora riesce a spiegare completamente il nostro universo. Per esempio non riesce a spiegare la materia oscura che i cosmologi credono riempire l’interno Universo e il perche’ subito dopo il Big Bang sia sopravvissuta la materia all’antimateria. Alcune estensioni del modello standard come la Super-simmetria, riescono a spiegare questi fenomeni prevedendo l’esistenza di nuove particelle chiamate “sparticle” e nuove interazioni.

Come si puo’ vedere dalla tabella la Super-simmetria associa ad ogni fermione (particella con spin semintero – lo spin e’ una grandezza quantistica che non ha equivalente nella meccanica classica anche se per analogia puo’ essere assimilabile ad una rotazione della particella intorno ad un proprio asse) un bosone (spin intero) e viceversa. Si tratta di una simmetria fra fermioni e bosoni. Quindi ogni fermione ha un superpartner bosonico ed ogni bosone un superpartner fermionico. Le coppie vengono chiamate partner supersimmetrici e le nuove particelle chiamate spartner o sparticelle. Notare che lo spin delle sparticelle e’ equivalente a quello delle particelle meno ½. Fino ad oggi, nessuna di queste particelle e’ stata individuata sperimentalmente. Ma essendo la super-simmetria una teoria molto elegante da un punto di vista matematico si tende a credere che essa sia corretta anche se non c’e’ al momento nessun riscontro sperimentale. Anzi. Una delle ultime notizie apparse su Nature riguardante la misura del dipolo elettrico dell’elettrone eseguita dalla collaborazione ACME guidata dal professore David De Mille della Yale University e da John Doyle e Gerald Gabrielse della Harward University (link articolo) sembra mettere alle corde la supersimmetria. Anche se questi ultimi risultati sembrano indicare una non correttezza della teoria super-simmetrica, esistono delle versioni modificate di tale teoria in cui i risultati ottenuti potrebbero essere ancora spiegati. Ma che tipo di misura ha effettuato il gruppo della collaborazione ACME? Che cosa e’ il dipolo elettrico dell’elettrone? In genere si conosce il momento di dipolo di molecole con una loro struttura interna come mostrato in figura (il dipolo per definizione e’ un sistema composto da due cariche elettriche uguali e di segno opposte e separate da una distanza costante nel tempo).

Ma se l’elettrone e’ puntiforme come fa ad avere una struttura interna? E se non ha una struttura interna come fa ad avere un dipolo elettrico? Per capire il dipolo elettrico dell’elettrone bisogna far ricorso alla meccanica quantistica che prende il posto della fisica classica quando scendiamo a livello atomico. Secondo la meccanica quantistica il vuoto pullula di particelle virtuali ( si parla di mare di particelle virtuali) come coppie di elettrone-positrone (elettrone con carica positiva) che si formano e si annichilano di continuo vivendo per frazioni infinitesime di tempo. In una regione dove c’e’ un elettrone lo spazio e’ riempito con queste coppie e poiche’ l’elettrone e’ carico negativamente esso attirera’ a se i positroni e respingera’ gli elettroni virtuali. Ecco come si forma il dipolo. Una nuvola di cariche positive che scherma la carica negativa dell’elettrone cosiddetto nudo (bare electron) cioe’ l’elettrone reale e non virtuale.

 

Se analizziamo questo effetto inserendo tutte le particelle-antiparticelle cariche previste dal modello standard, la nuvola intorno all’elettrone dovrebbe avere una simmetria quasi sferica e quindi un momento di dipolo elettrico inferiore a 10-36 e.cm (ricordiamo che il momento di dipolo come detto precedentemente e’ dato da u=q.d dove q e’ la carica e d la distanza delle due cariche del dipolo). Se estendiamo il modello standard con la Super-simmetria allora la nuvola elettronica dovra’ contenere anche le nuove particelle cariche ( i partner simmetrici delle particelle ordinarie del modello Standard) e la previsione teorica del momento di dipolo elettronico da’ un valore di 5x10-25 e.cm, superiore a quello del caso Standard. Ma dal momento che il valore ottenuto dalla collaborazione ACME e’ di molto inferiore a quello teorico previsto dalla Super-simmetria (|u| < 8.7×10−29 e.cm al 90% di confidenza) questo sembra indicare l’assenza di particelle Super-simmetriche in Natura. Lo scarto e’ estremamente piccolo anche se significativo. Se l’elettrone avesse le dimensioni del nostro sistema solare, la differenza da una sfera perfetta non supererebbe lo spessore di un capello. La misura del dipolo dell’elettrone e’ stata effettuata utilizzando il concetto di spin degli elettroni. Cosi come un uovo fatto ruotare intorno ad un suo asse barcollera’ a causa della sua forma oblunga mentre una palla di biliardo no (essendo una sfera quasi perfetta) se l’elettrone quantistico non e’ perfettamente sferico oscillera’ intorno al suo asse di spin. I ricercatori dell’ACME con il loro esperimento sono andati alla ricerca di questi barcollamenti degli elettroni utilizzando delle molecole di monossido di Torio molto pesanti.

In base ai risultati ottenuti dal team del professore De Mille possiamo dunque dire che la teoria super-simmetrica e’ morta? Non ancora anche se in molti lo credono visti gli ultimi risultati dell’LHC del CERN. Ad esclusione dell’ultimo tassello mancante del modello standard, il bosone di Higgs, finora non sono stati trovati segnali di nuove particelle. Ed e’ altamente improbabile dopo questo risultato del dipolo elettrico dell’elettrone che possa emergere qualche nuova particella nel dominio dei TeV (teraelettronvolt 1012 eV). Di sicuro i fisici che studiano il dipolo degli elettroni continueranno a fare di tutto per spingere il limite della loro misura sempre piu’ basso, nella speranza che un segnale venga infine trovato. Per questo motivo la comunita’ dei fisici e’ in trepidante attesa dei risultati della prossima sessione di collisioni del LHC, prevista per il 2014 quando l’acceleratore arrivera’ ad energie mai raggiunte prima. Non ci resta che aspettare per capire se davvero la teoria della Super-simmetria anche se matematicamente elegante non e’ quella scelta dalla Natura.

Articolo su arxiv: http://arxiv.org/abs/1310.7534

domenica 3 novembre 2013

Prevedere in anticipo i movimenti dei criminali grazie alla matematica

 

Uno scopo per studiare il comportamento dei criminali e’ quello di riuscire a predire la prossima mossa analizzando i loro movimenti. Negli ultimi anni sono stati sviluppati diversi modelli matematici tra cui l’UCLA model (University of California, Los Angeles) o anche hotspot model. I crimini non mostrano una distribuzione uniforme ne’ a livello spaziale ne’ a livello temporale. Ci sono regioni che sembrano essere ragionevolmente sicure e altre che invece appaiono molto pericolose con tassi di atti criminali molto elevati. Sono questi aggregati (clusters) spazio-temporali che vengono chiamati “hotspot” e la cui evoluzione puo’ essere studiata a scale sempre piu’ piccole (migliore risoluzione sia spaziale che temporale) grazie ai continui miglioramenti della tecnologia delle mappe.

Sono state sviluppate diverse teorie per capire perché’ gli hotspots emergono in alcune zone piuttosto che in altre, come evolvono e come si legano al comportamento dei delinquenti, vittime, agenti delle forze dell’ordine e geografia locale. In generale, i crimini hanno luogo quando un delinquente incontra una vittima “adatta” o un’abitazione senza alcun impianto di sicurezza. In questo contesto, la struttura urbana puo’ giocare un ruolo importante forzando il movimento del delinquente e i potenziali obiettivi. Per esempio, la quantita’ di traffico, le proprieta’ abbandonate o vacanti, la densita’ di popolazione solo per citarne alcune possono influenzare il pattern dei crimini. Qui in basso il cambiamento degli hotspot relativi ai furti avvenuti nella citta’ di Long Beach in California nei mesi Giugno, Luglio e Agosto 2001 (sinistra) e nei mesi Settembre, Ottobre e Novembre 2001 a destra.

In un articolo pubblicato sull’ultimo numero del SIAM Journal on Applied Mathematics, i matematici Sorathan Chaturapruek, Jonah Breslau, Daniel Yazdi, Theodore Kolokolnikov, e Scott McCalla hanno proposto una modifica del modello hotspot introducendo la distribuzione di Levy per i movimenti dei criminali da un posto all’altro. I criminali tendono a muoversi localmente ma ogni tanto fanno delle esplorazioni in aree lontane cosi come succede per molti animali quando vanno alla ricerca del cibo (vedi capitolo “La matematica della sopravvivenza” del mio libro). Questo comportamento replica molto da vicino il comportamento di tutti gli umani quando si muovono da una citta’ all’altra (pendolari).

Lo scopo principale di questo lavoro e’ stato lo studio dei dati riguardanti i furti nelle abitazioni per capire come i ladri scelgono i loro obiettivi e da qui cercare di inferire i movimenti dei criminali (Link). Il modello analizza la formazione dei punti caldi (hotspot) con alto tasso di atti criminali ricorrendo alla teoria della finestra rotta (Link) che prevede un’alta attivita’ criminale in aree che sono state gia’ interessate in precedenza da crimini. E’ piu’ facile che venga visitato un appartamento che ha gia’ subito un furto di recente che non un appartamento che non e’ mai stato scassinato. Stessa cosa per gli appartamenti vicini. Questo e’ quello che dicono i dati degli scassi a disposizione degli studiosi; una casa gia’ scassinata o vicina ad essa e’ piu’ “interessante” per diverse ragioni, quali la conoscenza di come entrare, le informazioni sugli oggetti di valore presenti, l’abilita’ di movimento e una maggiore confidenza a scappare via.

Il modello UCLA iniziale assumeva che i criminali si muovessero solo localmente seguendo un moto Browniano (o randomico). Ma con questa nuova pubblicazione gli studiosi si sono resi conto che un modello piu’ realistico deve permettere ai criminali delle “passeggiate” occasionali come previsto nei modelli di Levy.

Quest’ultimi sono una versione modificata del modello random walk dove la lunghezza di un particolare tragitto e’ un numero casule e la direzione di questo percorso e’ scelta anch’essa in modo del tutto casuale. Le passeggiate di Levy sono del tutto simili al moto randomico ad eccezione del fatto che la lunghezza dei percorsi viene scelta a partire da una distribuzione di probabilita’ (una power distribution) che permette di avere ogni tanto delle distanze percorse molto lunghe (vedi grafico sottostante dove l e’ la lunghezza in metri ed n la frequenza).

L’uso del modello di Levy permette quindi una esplorazione piu’ efficiente di un territorio e questo spiega perche’ e’ stato incluso nel modello UCLA.

La distribuzione di Levy e’ data dalla seguente forma approssimata

P(l)~l-u

dove l indica la lunghezza del percorso e P la probabilita’. Il valore dell’esponente u controlla il tipo di movimento passando da uno completamente casuale per u>3 ad uno completamente balistico e che nel limite per u che tende ad 1 diventa una linea retta. Osserviamo che essendo la legge di Levy una legge di potenza, cio’ significa che e’ indipendente dalla scala usata (scale-free in inglese) e quindi alla sua base c’e’ una traiettoria con dimensioni frattale (ad ogni scala la forma dell’oggetto e’ sempre la stessa). Per la distribuzione riportata nel grafico precedente e relativa al volo delle api nella ricerca delle arnie a cui ritornare risulta una dimensione frattale di 1.2

I lunghi tragitti o voli corrispondono alle lunghe distanze coperte all’interno di una grande citta’ molto probabilmente con i bus o la metropolitana o per muoversi da una citta’ all’altra. Questo permette ai criminali di spostarsi verso zone piu’ interessanti per i furti invece che rimanere confinati all’interno del proprio quartiere come succedeva nel modello iniziale. I dati disponibili sulle distanze tra le case dei criminali e quelle scassinate mostra chiaramente che i ladri sono disponibili a muoversi per lunghi tratti pur di ottenere un bottino piu’ remunerativo. Questa tendenza dei ladri mostra comunque delle differenze a seconda dei tipi di criminali. I professionisti e i criminali con esperienza riescono a coprire distanze sicuramente maggiori dei giovani dilettanti. Un gruppo di criminali professionisti che pianificano un colpo ad una banca, per esempio, ragionevolmente seguira’ una distribuzione di Levy. Gli studiosi hanno visto che il modello di Levy rispetto a quello che avevano utilizzato all’inizio gli aumenta il numero di reati; ma se il modello prevede troppe passeggiate di Levy allora esso puo’ diventare meno efficace di quello Browniano. Nel linguaggio statistico significa che c’e’ un esponente ottimale nella distribuzione di Levy che massimizza il numero di clusters (spot) di reati e questo valore fa si che la distribuzione di Levy sia molto vicino ad un moto Browniano.

Distribuzione degli spot con maggiore tasso criminale per un modello Random walk sulla sinistra e sulla destra per un modello di Lévy.

Da un punto di visto matematico il modello usa un sistema di due equazioni differenziali parziali che definiscono la densita’ criminale (hotspot o cluster) e l’attrazione verso zone piu’ remunerative da un punto di vista del bottino. La prima equazione e’ locale mentre la seconda e’ non locale. I due ricercatori Kolokolnikov e McCalla spiegano che nei modelli oggi disponibili la locazione e la forma dei clusters con alto tasso di reati sono ben studiati e capiti mentre i movimenti dei criminali non sono monitorati e quindi non ben capiti. Nella nostra ricerca invece, continuano gli studiosi, abbiamo trovato una chiara relazione tra la dinamica dei clusters e come i criminali si muovono. Tali modelli possono aiutare a contrastare meglio i crimini. Spesso le forze dell’ordine di alcuni paesi si concentrano sul territorio dove abitano criminali conosciuti alla polizia per predire i futuri reati. Se la relazione tra il movimento dei ladri e la scelta degli obiettivi diventera’ piu’ chiara, allora la polizia potra’ schedulare meglio le ronde notturne per il controllo del territorio.

Uno dei risultati sorprendenti del modello UCLA e’ di sicuro l’aver dimostrato che i ladri possono ottenere dei grossi benefici semplicemente facendo alcuni “salti” in zone distanti e per il resto seguire un moto Browniano (randomico) intorno alle loro abitazioni.

Lo studio dei ricercatori continua e chissa’ quali altre sorprese ci riservera’ il futuro.

Riuscira’ la matematica ad abbattere il numero dei reati nelle grandi citta’? Io dico di si.

sabato 19 ottobre 2013

Onde gravitazionali: increspature del tessuto spazio-temporale



Albert Einstein predisse l’esistenza delle onde gravitazionali nel 1916 all’interno della teoria della Relativita’ Generale. In essa lo spazio e il tempo sono aspetti di una singola realta’ misurabile chiamata spazio-tempo. Materia ed energia sono le due facce della stessa medaglia. E’ possibile pensare allo spazio-tempo come ad un tessuto; la presenza di grandi quantita’ di materia o energia distorce lo spazio-tempo (cioe’ deforma il tessuto) ed e’ questa distorsione che noi percepiamo come gravita’. Oggetti in caduta libera, siano essi palloni, mele o satelliti, seguono il cammino piu’ corto in questo spazio-tempo curvato.
 

Attenzione. La ricostruzione bidimensionale riportata qui sopra e’ solo un modello usato per rappresentare quello che nella realta’ e’ uno spazio a 4 dimensioni (3 spaziali e una temporale). Osservare anche che la curvatura del tessuto e’ debole lontano dalla massa mentre e’ molto accentuata nelle sue vicinanze. E’ chiaro che la perturbazione dello spazio-tempo dipende dalla quantita’ di materia o di energia. Maggiore e’ la massa maggiore e’ la curvatura sia dello spazio che del tempo. Non e’ difficile quindi immaginare cosa succeda all’aumentare della massa. Ad un certo punto il tessuto si strappa e si forma quello che conosciamo come un buco nero. La massa e’ cosi’ grande che niente puo’ sfuggire al suo intenso campo gravitazionale. Qualsiasi cosa che orbita nelle vicinanze cade all’interno del buco nero senza mai piu’ poter tornare indietro incluso la luce.
Ma cosa sono le onde gravitazionali? La maggior parte degli scienziati le descrivono come delle “increspature” dello spazio-tempo cosi come una barca che attraversa l’oceano calmo produce delle onde nell’acqua. Queste onde dovrebbero essere prodotte da masse in movimento come stelle o buchi neri. Piu’ gli oggetti sono massicci e piu’ potenti saranno le onde gravitazionali; piu’ gli oggetti si muovono velocemente e maggiore sara’ il numero di onde prodotte in un certo intervallo di tempo. Gli eventi piu’ interessanti quindi per la rilevazione di onde gravitazionali sono: scontri tra buchi neri, scontro tra due galassie (merging in inglese) o coppie di stelle di neutroni.  


Buchi neri, stelle o galassie in orbita tra loro e ancora di piu’ se si scontrano, “emanano” onde gravitazionali verso lo spazio esterno che raggiungono poi la Terra. Le onde gravitazionali rispetto a quelle elettromagnetiche sono molte piu’ deboli ma hanno il vantaggio di poter passare attraverso la materia senza essere significativamente perturbate.Per questo ci possono aiutare a capire meglio l’universo. Per esempio l’unica possibilita’ per poterci avvicinare al Big Bang con le nostre osservazioni e’ quella di usare le onde gravitazionali in quanto con la luce possiamo arrivare fino a circa 300000 anni dopo il grande scoppio ( a causa della continua interazione dei fotoni con la materia in quel burrascoso periodo). Gli scienziati credono che come il Big Bang abbia creato la cosiddetta radiazione cosmica di fondo abbia dato origine anche ad un diluvio di onde gravitazionali. Da quello che sappiamo oggi queste onde sono l’unica forma di informazione capace di arrivare a noi dopo il Big Bang senza essere state distorte. Esse dovrebbero apparire come un fondo “stocastico” o “randomico” e dovrebbero portare con se le informazioni sulla loro violenta origine e sulla natura della gravita’ che non possono essere ottenute con nessun altro oggetto astronomico. Sfortunatamente quando queste onde arrivano sulla Terra sono estremamente deboli e quindi difficili da rilevare. Questo e’ dovuto al fatto che come per le onde nell’acqua, l’intensita’ diminuisce man mano che ci si allontana dalla sorgente. Gli scienziati hanno dovuto usare la loro immaginazione per realizzare degli strumenti abbastanza sensibili per cercare di rilevare queste leggere variazioni dello spazio-tempo. La tecnica e’ quella dell’interferometria. Delle masse di prova vengono poste a grande distanza tra loro e dei laser continuamente misurano la distanza di queste masse. Le masse sono libere di muoversi in modo che quando passa un’onda gravitazionale la distanza tra esse viene disturbata e quindi fluttua. In altre parole lo spazio tempo verra’ allungato o accorciato a seconda della direzione dell’onda gravitazionale. I laser registrano queste variazioni della distanza permettendo agli scienziati di poter capire se e’ passata o meno un’onda gravitazionale. Piu’ grande e’ la distanza tra le masse, e piu’ i laser sono sensibili alle piccole fluttuazioni. Al momento ci sono diversi progetti sparsi per il mondo alla ricerca di queste onde: LIGO (USA), VIRGO (Italia/Francia), GEO (Germania/Gran Bretagna), TAMA (Giappone) e il progetto LISA (Agenzia Spaziale Europea) che dovrebbe entrare in funzione nel 2017. Quest’ultimo sara’ l’unico rilevatore a non trovarsi sulla superficie terrestre ma nello spazio. Esso sara’ costituito da tre satelliti artificiali posti ai lati di un triangolo equilatero, separati tra loro da una distanza di 5 milioni di chilometri. Questo triangolo si muovera’ in un’orbita solare, alla distanza di 1UA dal sole.
 


Il rilevatore LIGO (Laser Interferometer Gravitational-Wave Observatory ) invece e’ stato uno dei primi interferometri costruiti e ad oggi e’ quello piu’ sensibile. Si trova in America ed e’ un progetto congiunto tra scienziati del California Institute of Technology (Caltech) e del Massachusetts of Technology (MIT). E’ costituito da 3 rivelatori posti nelle citta’ di  Livingston, Hanford Site e Richland. Ognuno di essi e’ costituito da due bracci lunghi dai 2 ai 4 Km, posti ad angoli di 90 gradi tra loro, con la luce che passa attraverso dei tubi a vuoto del diametro di 1 m. Un’onda gravitazionale che colpisce il rivelatore tendera’ in una direzione ad allungare leggermente il braccio e nell’altra ad accorciarlo.
 


Sono queste piccole variazioni che i fisici del pianeta stanno cercando. Ma nonostante i lunghi bracci, le onde gravitazionali piu’ intense cambierebbero la distanza tra le estremita’ dei bracci di solo circa 10-18 metri (cioe’ un 1 preceduto da 18 zeri). La massima risoluzione che si puo’ ottenere al momento con LIGO e’ dell’ordine di 5X10-22 metri. Ma come si spiegano queste piccole fluttuazioni? L’intensita’ del campo delle onde gravitazionali, e’ espressa dal fattore adimensionale h=(GM/Rc2)(v2/c2)
dove il primo fattore e’ il potenziale Newtoniano dovuto ad una massa M ad una distanza R diviso la velocita’ della luce al quadrato. Il secondo fattore invece e’ il fattore relativistico essendo il rapporto tra il quadrato della velocita’ del sistema e quella della luce al quadrato. Essendo le distanze R delle sorgenti di onde gravitazionali molto grandi questo fa si che il parametro h sia molto, molto piccolo, da rendere quasi impossibile l’individuazione delle onde gravitazionali.
Ad oggi nessuno degli esperimenti e’ riuscito a “vedere” le onde gravitazionali. Ma questo non e’ un insuccesso in quanto contribuisce comunque a chiarire alcuni aspetti della storia primordiale del nostro Universo. Di modelli dell’universo neonato ne esistono diversi (teoria delle stringhe) e grazie al fatto che fino ad oggi non sono state osservate le onde gravitazionali ha fatto in modo di poter eliminare diversi possibili modelli. E’ stato un altro piccolo passo nella comprensione dei parametri che descrivono l’evoluzione dell’universo pochi minuti dopo il Big Bang. Secondo la teoria delle stringhe e’ possibile che nella fase iniziale dell’universo si siano formate delle stringhe cosmiche successivamente “stirate” dall’espansione; queste stringhe avrebbero potuto formare degli anelli di energia producendo delle onde gravitazionali. Poiché’ queste non sono state osservate, quei modelli che prevedono onde gravitazionali molto intense subito dopo la nascita dell’universo possono essere abbandonati (vedi articolo An Upper Limit on the Amplitude of Stochastic Gravitational-Wave Background of Cosmological Origin su Nature).
Riuscire a dimostrare l’esistenza delle onde gravitazionali non portera’ solo ad una migliore conoscenza del nostro universo e della sua nascita ma anche una conferma della cosiddetta teoria quantistica dei campi. Secondo la meccanica quantistica (dualismo onda-particella) ogni particella può essere considerata come un’onda e allo stesso tempo ogni onda (come quella della luce) come costituita da particelle (i fotoni nel caso della luce). Come un’ onda elettromagnetica si puo’ considerare come una sovrapposizione di fotoni, allo stesso modo un’onda gravitazionale si puo’ considerare come costituita da quanti detti “gravitoni”, particelle di massa nulla e viaggianti alla velocita’ della luce esattamente come i fotoni per “trasportare” la forza da un oggetto all’altro. Quindi la rilevazione delle onde gravitazionali sarebbe una prova dell’esistenza del gravitone che e’ l’unico bosone ancora mancante nel quadro del modello standard. Secondo questo modello le forze fondamentali sono 4: 1) Forza elettromagnetica 2) Forza debole 3) Forza nucleare 4) Forza gravitazionale
e ognuna di queste ha un “vettore” che trasmette l’interazione tra gli oggetti chiamato bosone (l’onda rossa dell’immagine qui sotto).
 

La prima forza e’ responsabile dell’interazione tra cariche elettriche e il vettore portatore di tale forza si chiama fotone, la seconda e’ responsabile della radioattivita’ del nucleo e i portatori sono le famose particelle Zo e W+/W-, la terza e’ responsabile della coesione del nucleo col vettore chiamato gluone (dall’inglese colla) e l’ultima dell’interazione tra la materia presente nel nostro universo grazie allo scambio del gravitone. Riguardo le particelle fondamentali, secondo il modello standard tutto si riduce ai cosiddetti quark e leptoni come mostrato nella tabella sottostante.
 


E’ stato proprio il modello standard negli ultimi mesi a trovarsi sotto le luci della ribalta grazie alla scoperta del Bosone di Higgs al CERN di Ginevra. Nel modello standard infatti c’era un problema: le particelle non avrebbero dovuto avere una massa implicando delle forze a lungo raggio di azione. Ma noi sappiamo che cio’ non e’ vero come nel caso delle forze deboli dove il raggio di azione e’ molto corto essendo i quanti mediatori delle particelle molto pesanti. Tutto e’ andato al suo posto nel momento in cui e’ stata scoperta la particella di Higgs. Secondo quanto predetto da Higgs le particelle non hanno massa ma l’acquistano solo dopo aver interagito con un campo detto appunto campo di Higgs. In questa ottica, i bosoni della forza elettrodebole hanno una massa in quanto interagiscono col campo di Higgs mentre i fotoni no in quanto non interagiscono con esso.
Un’analogia usata comunemente per rappresentare la diversa interazione delle particelle elementari con il campo di Higgs, e quindi l’origine delle loro masse, è quella del gelataio che arriva su una spiaggia affollata da bambini; tutti i bambini corrono verso il gelataio rallentandone il suo moto e dando cosi l’impressione che il gelataio sia diventato piu’ “pesante” essendo diventato piu’ lento. Se il campo di Higgs (i bambini sulla spiaggia) non esistesse, l’universo sarebbe fatto di particelle (i gelatai) senza massa in moto alla velocità della luce!
In definitiva l’eventuale scoperta delle onde gravitazionali e del gravitone aggiungerebbe un altro tassello importante al modello standard e alla comprensione quindi del mondo che ci circonda.


Ieri, 11 Febbraio 2016 e' stato dato l'annuncio della scoperta delle onde gravitazionali da parte del team LIGO. Qui di seguito i dettagli tecnici. Buona lettura.

https://www.ligo.caltech.edu/system/media_files/binaries/301/original/detection-science-summary.pdf
http://www.wikio.it