domenica 18 marzo 2018

Una nuova fisica al lavoro nell’Universo?


Nel 1929 Hubble annunciò che la velocita’ radiale delle galassie era proporzionale alla loro distanza. In altre parole piu’ una galassia e’ distante da noi, piu’ la sua velocita’ di allontanamento e’ elevata. Il grafico seguente mostra i dati raccolti da Hubble con la velocita’ delle galassie riportata in ordinata e le loro distanze sulle ascisse:

clip_image001

La pendenza della retta che interpola queste misure è ora nota come costante di Hubble H. Dato che sia i kilometri che i Megaparsec sono unità di distanza, l'unità di misura di H è [1/tempo], essendo la velocita’ il rapporto tra spazio e tempo. Ma cosa rappresenta H? Il suo inverso e’ proprio l’eta’ dell’universo secondo la relazione di Hubble:

V=HD      da cui     D=V/H=Vt   con    t=1/H   appunto l’eta’ dell’universo.

Hubble trovo’ per il rapporto 1/H il valore di circa 2 miliardi di anni. Dal momento che tale valore dovrebbe approssimare l'età dell'Universo, e noi sappiamo (era noto anche nel 1929) che l'età della Terra supera i 2 miliardi di anni, il valore di H trovato da Hubble portò ad un generale scetticismo nei confronti dei modelli cosmologici, e fornì una motivazione a favore del modello stazionario, cioe’ quello di un universo non in espansione.

Tuttavia, pubblicazioni successive misero in luce alcuni errori compiuti da Hubble nelle sue misure. La correzione di questi errori portò ad un ridimensionamento verso il basso del valore della costante di Hubble. Attualmente il valore della costante e’ di 65±8 km/s/Mpc.
Con questo valore di H, l'età approssimativa dell'Universo è di 15 miliardi di anni. Qui di seguito i risultati recenti sulla relazione di Hubble la cui pendenza e’ pari a 65 Km/sec/Mpc.

clip_image003

Ma come faceva Hubble a misurare la velocita’ di una galassia lontana? Utilizzando quello che va sotto il nome di spostamento verso il rosso (redshift). La luce o una qualsisi altra radiazione elettromagnetica emessa da un oggetto in movimento ha una lunghezza d'onda maggiore di quella che aveva all'emissione. Ciò equivale a dire che nel caso della luce il colore si sposta nella direzione del rosso che e’ l'estremo inferiore dello spettro del visibile. Al contrario se un’oggetto si sta avvicinando la luce emessa si sposta verso il blu.

clip_image005

image


Se indichiamo con Le la lunghezza d’onda emessa e con Lo quella osservata e’ possibile scrivere:

1+ z=[(1+v/c)/(1-v/c)]1/2

dove c indica la velocita’ della luce, v la velocita’ dell’oggetto e il parametro z e’ dato da:

z=(Lo-Le)/Le

Quindi dalla misura di z cioe’ dello shift della luce si puo’ risalire alla velocita’ dell’oggetto che ha emesso la luce.

Per misurare la distanza delle galassie invece, Hubble aveva a disposizione tre metodologie ognuna valida per un certo intervallo di distanze. Il metodo piu’ antico e’ quello della parallasse che va bene per stelle non oltre i 500 anni luce. Si tratta di una tecnica geometrica che sfrutta lo spostamento delle stelle in primo piano rispetto a quelle fisse dovuto alla rotazione della terra intorno al sole. Il secondo metodo e’ quello delle Cefeidi, un tipo di stelle la cui luminosita’ varia periodicamente e che permettono di calcolare la loro distanza sfruttando la relazione tra quest’ultima e il periodo della loro luminosita’. L’intervallo di applicabilita’ va fino a circa 10 milioni di anni luce. L’ultimo metodo e’ quello delle supernove. Valutando l’andamento della luminosita’ di queste stelle subito dopo la loro esplosione e’ possibile calcolarne la luminosita’ assoluta e quindi la loro distanza. Questa tecnica permette di arrivare a distanze di alcune centinaia di milioni di anni luce.


clip_image009


Ma ritorniamo adesso alla costante di Hubble. E’ di qualche mese fa la notizia dell’utilizzo del telescopio spaziale Hubble per stabilire la misura piu’ precisa mai ottenuta della costante di Hubble. I risultati sono molto intriganti e sembrano evidenziare che ci sia qualche cosa di inaspettato al lavoro nell’universo. Questo perche’ i risultati confermano una fastidiosa discrepanza che mostra l’universo espandersi piu’ velocemente di quanto previsto dai dati relativi ai primi istanti del big bang. Il team di ricercatori capeggiato dal premio Nobel, Riess incluso anche l’italiano Stefano Casertano e Johns Hopkins, ha utilizzato Hubble per 6 anni aumentando il numero di stelle analizzate e con distanze fino a 10 volte maggiori di quelle ottenute precedentemente. Il valore della velocita’ di espansione ottenuto mostra una discrepanza di circa il 9% rispetto a quello previsto considerando i primi 378.000 anni dopo il Big Bang. Prima delle misure del telescopio Hubble, quelle effettuate dalla Agenzia spaziale Europea grazie al satellite Planck, avevano previsto per la costante di Hubble un valore intorno a 67 Km/sec per Megaparsec e non piu’ alto di 69 Km/sec/Mpc. Ma le misure recenti ottenute dal team di Riess riportano un valore della costante di Hubble di ben 73 Km/sec per Megaparsec, indicando che le galassie si stanno muovendo ad una velocita’ di allontanamento maggiore di quella prevista. I risultati della misura della costante di Hubble sono cosi precisi che gli astrofisici non possono non tener conto di questa incongruenza. Il team ritiene che alcune delle possibili spiegazioni per questa differenza siano legate all’universo oscuro che e’ il 95% della materia/energia contenuta nel nostro universo. La materia normale come stelle, pianeti e gas si crede costituisca solo il 5% del nostro universo. Il rimanente per il 25% e’ materia oscura e il 70% energia oscura, entrambi invisibili e mai rilevati in modo diretto. Vediamo la prima possibilita’. L’energia oscura, gia’ conosciuta in passato come fattore di accelerazione del nostro universo, sta spingendo lontano da noi le galassie con molta piu’ forza di quanto previsto. Questo potrebbe significare che l’accelerazione stessa potrebbe non essere costante ma cambiare nel tempo. Se questo fosse vero bisognerebbe allora rivedere il cosiddetto modello ACDM (Lambda cold dark matter) che spiega l’accelerazione del cosmo con la comparsa e scomparsa di particelle virtuali nello spazio vuoto che stirano lo spazio-tempo. Questo continuo ribollire del vuoto infatti non potrebbe spiegare un accelerazione che cambia col tempo.

clip_image011

Un’altra idea e’ quella che l’universo contenga delle nuove particelle subatomiche che viaggiano ad una velocita’ prossima a quella della luce. Si tratta di particelle velocissime, chiamate collettivamente “radiazione oscura”. Probabilmente si tratta di qualche cosa simile alle note particelle chiamate neutrini, creati nelle reazioni nucleari e nei decadimenti radioattivi. Diversamente da un neutrino normale pero’ che interagisce tramite la forza debole, queste nuove particelle dovrebbero essere influenzate solo dalla forza di gravita’ ed e’ per questo che hanno ricevuto il soprannome di “neutrini sterili”. Per analogia con i fotoni che sono i mediatori della forza elettromagnetica tra particelle, i neutrini sterili dovrebbero essere i mediatori delle interazioni tra particelle di materia oscura. E come per le particelle di materia oscura, anche la radiazione oscura non interagisce con la materia nominale. L’ultima possibile spiegazione e’ che la materia oscura interagisca piu’ fortemente con la materia nominale e/o la radiazione di quanto assunto fino ad ora. Al momento il team di Riess non ha una risposta al problema anche se sta continuando a raccogliere misure di stelle lontane per cercare di abbassare ulteriormente l’incertezza e migliorare la precisione sul valore della costante di Hubble.

Dove e’ possibile arrivare partendo da questo risultato?

Guardando i risultati ottenuti fino ad oggi e’ possibile come riportato da Riess, che l’energia oscura giochi un ruolo importante anche se e’ piu’ probabile che sia una qualche nuova particella o qualche cosa che ha a che fare con come interagisce la materia oscura. Normalmente quest’ultima viene considerata come costituita da WIMP, cioe’ da particelle pesanti che interagiscono debolmente con la materia nominale. Bene e’ possibile che l’interazione in fin dei conti non sia cosi debole come pensato. Questo potrebbe cambiare le cose e dare origine ad un qualche cosa simile all’universo che vediamo noi.

E se lo dice il premio Nobel Riess forse c’e’ da credere. Aspettiamo con impazienza le prossime scoperte. Fate le vostre scommesse. La fisica sta diventando misteriosa e magica.

domenica 25 febbraio 2018

Come torturare i dati per farli parlare

Il post di oggi e’ anomalo. Non si tratta del solito articolo. Ma di due presentazioni fatte alcuni anni fa per introdurre le tecniche di data mining/machine learning e  un ottimo software free (Orange) che ognuno puo’ scaricare ed utilizzare per fare un po’ di pratica. In queste slides vengono descritti i concetti base del machine learning, delle tecniche analitiche e del data mining quali decision tree, clustering, analisi di Bayes, association rules, self organizing maps, supported vector machines, random forest etc . L’idea alla base di queste due presentazioni è stata quella di introdurre i partecipanti (adesso i lettori del blog) nel mondo degli algoritmi sviluppati dalla cosiddetta computer science di cui tanto si sente parlare in ambiti quale l’internet delle cose, automobili senza guidatori, robots, droni  solo per citarni alcuni.

Il machine learning e’ fondamentale nello studio dei sistemi complessi in cui a causa dell’elevato numero di componenti e delle loro interazioni fortemente non lineari non si possono modellizzare facilmente. L’unica possibilita’ e’ quella di mettere al lavoro gli analytics oggi disponibili per cercare nella vasta mole dei dati le relazioni fondamentali, i patterns piu’ importanti, le informazioni nascoste come pepite all’interno delle miniere. Gli algoritmi di machine learning permettono di tirare fuori dai dati le informazioni utili riducendo in modo opportuno il volume dei dati. Pensate ad una piramide. Man mano che si sale verso l’alto, cioe’ man mano che il volume diminuisce emerge l’informazione.  MI fermo qui e vi lascio alle circa 200 slides. Buona lettura.  

Data mining e machine learning

Introduzione ad Orange


image

domenica 28 gennaio 2018

Gallerie spazio-temporali per unire relativita’ e quantizzazione


Nel 1935, alcuni fisici pubblicarono due articoli in cui venivano introdotti due concetti chiave dell’attuale cosmologia: l’entaglement e i wormholes.

Vediamo un attimo di cosa si tratta partendo dall’entaglement. Secondo la meccanica quantistica, le particelle entagled rimangono connesse tra loro anche se si trovano a distanze quasi infinite. Qualsiasi azione eseguita su una delle due particelle influenza il comportamento dell’altra. Questo significa per esempio che se in seguito ad una misura dello spin di una delle due particelle lo si trova up, quello dell’altra anche se misurato un’istante dopo sara’ down. Lo spin in meccanica quantistica e’ una grandezza fisica associata alle particelle e che ne definisce il loro stato quantico. Questa grandezza e’ una forma di momento angolare, avendo in comune la stessa dimensione. Per analogia richiama alla mente la rotazione di una particella intorno al proprio asse.

L’entaglement ha luogo quando le particelle interagiscono tra loro fisicamente. Per esempio un laser colpendo un particolare tipo di cristallo puo’ generare coppie di fotoni entagled che pur allontanandosi tra loro sempre di piu’ rimangono in connessione. Questa teoria che irrito’ non poco Einstein e’ anche riferita come “la spaventosa azione a distanza”. Come e’ possibile che due particelle anche a distanze enormi possano influenzarsi a vicenda subito se qualsiasi segnale nell’universo non puo’ viaggiare a velocita’ maggiore di quella della luce?

clip_image002

Passiamo adesso ai wormhole. Grazie alla teoria di Einstein oggi sappiamo che la trama del nostro universo e’ lo spazio-tempo. Esso puo’ essere deformato e distorto. Per fare questo lo spazio-tempo ha bisogno di grandi quantita’ di massa o di energia, ma teoricamente queste distorsioni sono possibili. Nel caso di un wormhole, si tratta di una scorciatoia ottenuta grazie alla deformazione del tessuto spazio-temporale. Immaginiamo di disegnare due punti su di un foglio di carta e di misurarne la distanza. Adesso pieghiamo il foglio in due sovrapponendo i due punti e attraversandoli con una penna. La distanza tra essi e’ decisamente inferiore a quella di prima. E’ esattamente quello che succede con un wormhole. Il problema di queste strutture e’ che essi sono instabili. Quando una particella vi entra dentro crea delle fluttuazioni che fanno collassare la struttura.
clip_image004
Nel 2013 Leonard Susskind un fisico di Stanford e Juan Maldacena dell’Advanced Study of Princeton hanno ipotizzato che questi due fenomeni siano la stessa cosa e questo potrebbe creare un ponte tra la teoria della relativita’ generale e la meccanica quantistica. Uno dei problemi più difficili che la fisica oggi si trova ad affrontare riguarda proprio queste due teorie  che funzionano perfettamente nel loro dominio di validita’ e che vanno invece in conflitto quando si cerca di combinarle. Susskind e Maldacena hanno riassunto il tutto in un’equazione: ER=EPR.
Non si tratta di un’equazione numerica, ma piuttosto di un’equazione con le iniziali dei nomi di alcuni importanti fisici teorici.
Nella parte a sinistra, ER stanno ad indicare Einstein e Nathan Rosen che in un articolo del 1935 descrissero la struttura dei wormhole, noti tecnicamente come ponti di Einstein-Rosen. A destra, invece, EPR stanno per Einstein, Rosen e Boris Podolsky, quest’ultimo co-autore di un altro articolo di quello stesso anno in cui veniva descritto l’entanglement quantistico. L’equazione semplicemente getta un ponte tra i wormhole e l’entaglement. E questa connessione potrebbe spiegare la continuita’ dello spazio tempo che diventerebbe cosi la manifestazione geometrica dell’entaglement.

clip_image006
Susskind va oltre e pensa che l’entaglement quantistico sia una forma di informazione, una stringa di 1 e di 0, e che quindi lo spazio tempo altro non sia che una manifestazione dell’informazione quantistica. Il principio ER=EPR, getta le basi per lo sviluppo della gravita’ quantistica anche se al momento non e’ chiaro come. E’ possibile che quando in laboratorio creiamo per esempio dei fotoni entangled questi siano connessi tramite un microscopico wormhole? Al momento nessuno lo sa anche se e’ affascinante pensare di si. In un nuovo articolo Susskind propone uno scenario dove ipotizza che delle particelle inizialmente entagled (correlate) si muovano in direzioni opposte dell’universo. Una volta lontane tra loro queste particelle collassano in buchi neri soggette alla loro stessa forza di gravita’. Secondo Susskind questi due buchi neri sono a loro volta connessi (entangled) tramite un gigantesco wormhole che attraversa l’universo da una parte all’altra. Dunque se l’equazione ER=EPR e’ giusta vuol dire che i due buchi neri saranno collegati da un gigantesco tunnel spazio temporale e l’entaglement altro non e’ che la descrizione geometrica di tali oggetti.
Teoria a dir poco sbalorditiva. Ma c’e’ la possibilita’ di provarla? Difficile dirlo. Di sicuro ci sono sempre piu’ ricercatori che iniziano a studiare questa ipotesi ed e’ possibile che in un prossimo futuro si riesca a gettare luce su uno dei misteri della Natura che assilla le menti di molti scienziati da quasi un secolo.
Secondo Susskind, “sembra ovvio che se ER = EPR è vera, allora siamo di fronte a qualcosa di grosso che potrebbe influenzare le fondamenta e le interpretazioni della meccanica quantisica. Se ho ragione, la meccanica quantistica e la gravità sono ancora di più correlate di quanto (almeno io) abbiamo mai pensato”.
https://arxiv.org/pdf/1707.04354
https://arxiv.org/pdf/1306.0533.pdf
https://arxiv.org/pdf/1604.02589
http://www.wikio.it