venerdì 12 aprile 2019

All’ombra del mastodontico mostro …..



Dopo la scoperta delle onde gravitazionali, un’altra previsione della relativita’ generale di Einstein ha avuto la sua conferma. La notizia ha fatto la sua comparsa sui media di tutto il mondo ieri, 10 Aprile 2019. La notizia si e’ subito sparsa a macchia d’olio lungo la rete del web e i social, spesso con post poco attendibili e informazioni inesatte. Di cosa si tratta? Ancora una volta gli scienziati ci hanno sorpreso e meravigliato. Questa volta abbiamo visto quello che per definizione non e’ possibile vedere. Si e’ proprio cosi. Si tratta della prima prova diretta visiva di una buco nero super-massiccio. L’immagine e’ il risultato di una collaborazione internazionale al lavoro da molti anni (Event Horizon Telescope Collaboration, in breve EHT). L’annuncio e’ arrivato con la pubblicazione di 6 articoli in un special issue del The Astrophysical Journal Letters (Link). Poiche’ ognuno di noi conosce i buchi neri per aver sentito o letto qualche cosa almeno una volta nella vita, si fa fatica a capire la portata della scoperta; diciamo che fino a ieri avevamo solo un’evidenza teorica, qualche immagine simulata al computer o una rappresentazione artistica di un buco nero. Nniente di piu’. Adesso invece non e’ piu’ cosi. Finalmente abbiamo una sua foto anche se alcune precisazioni sono necessarie. Ma procediamo con ordine.




La foto che ha fatto il giro del mondo in pratica e’ la prima immagine radio del buco nero super-massiccio (circa 6.5 miliardi di volte la massa del nostro Sole) al centro della galassia M87 anche conosciuta come Virgo A (una supergigante ellettica – vedi foto sotto) , a 55 milioni di anni luce dalla Terra.





L’immagine catturata dal team di ricercatori internazionali in effetti non e’ esattamente il buco nero; un buco nero e’ nero proprio perche’ la luce non puo’ scappare via essendo attratta dalla sua fortissima forza gravitazionale e quindi di per se un buco nero e’ invisibile. In realta’ l’immagine mostrata e’ quella che gli astronomi chiamano l’ombra proiettata del buco nero, con un anello luminoso formato dalla curvatura della radiazione che passa nelle vicinanze del buco nero dove lo spazio-tempo e’ fortemente deformato. Vediamo meglio cosa succede.
Un osservatore quando vede un oggetto luminoso nel cielo, in pratica sta ricevendo dei treni di fotoni (quanti del campo elettromagnetico) che colpiscono i suoi occhi. Dalla relativita’ di Einstein, sappiamo che qualsiasi massa perturba la tela dello spazio tempo e quindi e’ in grado di deviare anche i fotoni che a un certo punto non seguono piu’ la loro traiettoria rettilinea ma curvano.




Quando un buco nero e’ circondato da materiale luminoso (grazie all’accelerazione del forte campo gravitazionale il materiale nelle sue vicinanze diventa un plasma che emette onde elettromagnetiche) si riesce a vedere la sua sagoma se il materiale circostante a’ abbastanza trasparente da far passare i fotoni (vedi immagine sotto a sinistra dove i raggi in giallo sono i fotoni deviati e quelli neri catturati dal buco nero centrale nel piano equatoriale z=0). Questa ombra del buco nero e’ significativamente piu’ grande della reale dimensione dell’orizzonte degli eventi del buco nero. Questo perche’ l’ombra proiettata che osserviamo e’ l’ombra generata dalla zona di cattura dei fotoni e non l’orizzonte degli eventi stesso. Quest’ultimo e’ sempre interno alla sfera di cattura dei fotoni; confrontare il disco dell’immagine superiore a sinistra, cioe’ l’orizzonte degli eventi, con quello dell’immagine inferiore che invece rappresenta la zona di cattura della sfera di fotoni.



Nell’immagine di sinistra si e’ ipotizzato che il buco nero sia immobile. Nella realta’ esso ruota su stesso e quindi a causa dell’effetto di trascinamento (secondo la relativita’ un oggetto ruotante trascina lo spazio tempo intorno a se) l’ombra proiettata diventa distorta come mostrato nell’immagine sopra a destra. Questo si spiega semplicemente considerando la velocita’ di rotazione del materiale intorno al buco nero che sulla sua destra (la sinistra dell’osservatore) e’ diretta verso di noi e sulla sinistra in allontanamento da noi. L’immagine di seguito e’ la mappa delle velocita’ stellari della parte centrale di M87 rispetto ad un osservatore terrestre. In blu viene rappresentato il moto in direzione della Terra mentre in rosso quello in allontanamento dalla Terra. In giallo e verde le altre direzioni tra queste due estreme. Laddove abbiamo le regioni blu, avremo un anello piu’ luminoso rispetto a quelle rosse. Ecco spiegata l’asimmetria di luminosita’ nell’immagine del buco nero.




Cosa hanno utilizzato gli astronomi per ottenere questa immagine? Un telescopio chiamato Event Horizon. In effetti non si tratta di un singolo telescopio, ma di una matrice di 8 radio-telescopi posizionati in diversi continenti e disegnati proprio per catturare l’immagine diretta di un buco nero. Qui di seguito la posizione degli otto radio-telescopi: Arizona, Hawai, Messico, Cile, Spagna e Polo Sud. La scelta delle onde radio rispetto al visibile ha il vantaggio che la luce del Sole, le nuovole e la pioggia non influenzano le osservazioni degli oggetti celesti.




Come per la scoperta delle onde gravitazionali, anche in questo caso e’ stata usata la tecnica dell’interferometria per migliorare la risoluzione angolare dello strumento. Quest’ultima e’ l’abilita’ di un telescopio nel distinguere due oggetti molto vicini tra loro. In fisica sappiamo che la risoluzione R e’ approssimativamente data dal rapporto tra la lunghezza d’onda lambda e la dimensione del telescopio D. Piu’ e’ grande il diametro di un telescopio e piu’ R e’ piccola (migliore risoluzione angolare). Questa e’ la ragione per cui gli astronomi sono alla continua rincorsa di telescopi sempre piu’ grandi. Semplicemente per avere una vista sempre piu’ fine. Giusto per fare un confronto, la risoluzione di un occhio umano e’ di circa 60 arco-secondi di grado per la luce visibile e quella del telescopio Hubble con i suoi 2,4 metri di diametro e’ di circa 0.05 arcsec di gradi.
Ma cosa e’ un arcsec? Se consideriamo un cerchio esso puo’ essere diviso in gradi. Ogni grado puo’ essere diviso in 60 arcminuti e ogni minuto in 60 arcsecondi, cioe’ un grado corrisponde a 3600 sec di arco (arcsec).
Anche se la risoluzione del telescopio Hubble e’ impressionante, non e’ sufficiente per vedere l’orizzonte degli eventi di un buco nero. Per fotografare il buco nero al centro di M87 e’ stata necessaria una risoluzione di soli 22 micro arcsec di grado cioe 0.000022 arcsec di grado. Questo significa che la luna che ha una dimensione angolare di 0.5 gradi e’ qualche cosa come 82 milioni di volte piu’ grande della dimensione angolare del buco nero di M87. Per arrivare a questa risoluzione da capogiro si e’ pensato di far lavorare all’unisono gli 8 telescopi sparsi nel mondo con un D nella formula di R pari alla massima distanza tra qualsiasi coppia di telescopi nella matrice. E’ come se avessimo costruito un unico telescopio con un diametro enorme. Con questa risoluzione sarebbe possibile leggere un giornale posizionato sulla superficie lunare. Senza la necessaria risoluzione il buco sarebbe apparso come un semplice puntino come accade nel caso di due sorgenti luminose molto vicine in caso di basso potere risolutivo. Vedremmo una sola sorgente.



Ma se si tratta di radio-telescopi come hanno fatto gli scienziati a costruire l’immagine pubblicata all’inizio di questo post? In effetti non si tratta di un immagine nell’intervallo del visibile ma di un’immagine radio. Tra queste due radiazioni non c’e’ molta differenza a parte la lunghezza d’onda. Molto grande per le onde radio rispetto al visibile. Per il resto sono entrambe onde elettromagnetiche che si propagano alla velocita’ della luce grazie alla variazione combinata di campi elettrici e magnetici. Avendo una lunghezza d’onda diversa questi due tipi di onde interagiscono in modo diverso con la materia. Le onde radio per esempio, attraversano i muri mentre quelle della luce visibile no. Se la luce colpisce un certo oggetto, noi lo possiamo vedere grazie alla luce riflessa che arriva ai nostri occhi. Un’alternativa e’ quella di utilizzare una macchina fotografica o una camera e registrare la luce per poi rivedere l’oggetto in qualsiasi momento su un PC o sulla TV. L’immagine del buco nero pero’ come detto e’ un’immagine radio e quindi ogni pixel e’ la rappresentazione di una particolare onda radio. Quando per esempio vediamo il colore arancio, questo e’ un falso colore che sta a rappresentare le onde radio di circa 1 mm. La stessa cosa succede se vogliamo “vedere” un immagine negli infrarossi o ultravioletto. Dobbiamo convertire queste lunghezze d’onda in qualche cosa da poter vedere. In questo senso l’immagine del buco nero non e’ una normale fotografia ne’ qualche cosa che si puo’ vedere con un telescopio ottico. Pur tuttavia rimane inalterato il fascino e la bellezza con cui il buco nero si e’ presentato a noi, puntini infinitesimi sulla superficie di un piccolo pianetino in fuga nell’Universo.

martedì 22 gennaio 2019

Archeocarpologia

Oggi con grande piacere, dopo aver otternuto il permesso, pubblico la tesi di mia figlia Gilda che tratta di  un argomento scientifico ( e quindi in linea con i temi del blog) poco noto alla maggior parte delle persone. Si tratta dell’archeocarpologia e cioè dello studio dei resti di semi, frutti e annessi fiorali. Insieme all’archeopalinologia (studio dei pollini, spore) e all’Archeoxilo-antracologia (studio dei legni e dei carboni) costituisce la disciplina dell’archeobotanica che si occupa dello studio dei reperti vegetali sia microscopici che macroscopici provenienti da siti archeologici a partire dal paleolitico fino all’eta’ moderna. Il suo scopo è quello di trovare le relazioni esistenti fra l’uomo e l’ambiente vegetale e l’evolversi e il modificarsi nel tempo di tale interazione. Negli ultimi anni il contributo delle analisi archeobotaniche si è rivelato di fondamentale importanza in quanto non solo fornisce utili elementi per ricostruire l’evoluzione del paesaggio di un determinato sito, ma contribuisce anche a conoscere le attività dell’uomo nel corso del tempo, scoprendo ad esempio quali piante coltivava e raccoglieva, quali utilizzava e per quale scopo, oppure quali prodotti raccoglieva/trasformava (ceduazione dei boschi, vinificazione, trebbiatura, ecc.), o ancora, se vi erano boschi oppure zone umide o canali, ecc. fino ad acquisire importanti informazioni relative al substrato, al clima, all’orografia e alla topografia del territorio. Dopo questa breve  introduzione ritorniamo alla tesi dal titolo:  “Analisi carpologica del materiale rinvenuto in un pozzo adiacente al Santuario romano di Ercole in Alba Fucens”. Lo studio è stato effettuato sotto la direzione della Professoressa Sadori della Sapienza di Roma e ha avuto come oggetto lo studio dei resti carpologici rinvenuti durante gli scavi del 2011-2013, effettuati dalla Soprintendenza dell’Abruzzo sotto la direzione della dottoressa Ceccaroni, relatrice esterna della Tesi. Le conclusioni dello studio sono state molto interessanti per diversi motivi. Si e’ trattata della prima indagine archeocarpologica effettuata ad Alba Fucens, colonia romana risalente a circa il 300 aC e oggi ubicata a pochi chilometri da Avezzano.  E’ stata stabilita una significativa presenza di sambuco nero rispetto a siti analoghi di epoca romana. Questo sembra essere in linea con quanto stabilito dall’antropologa Nicolai, che in base ai suoi studi glottologici fa risalire il suffisso sabus, dei nomi Sabini, Sanniti e Sabelli (popoli dell’antico Abruzzo), a quello di sambus (sambuco) cioè popoli coltivatori del sambuco. Il ritrovamento di resti di uva, pesche, noci, nocciole, fico, ciliegio e more fa capire che la dieta di questi popoli di circa 2000 anni fa non era poi tanto diversa da quella che ancora sopravvive negli stessi luoghi oggi. Per le noci e le pesche, in particolare, si è stabilito  che già a quell’epoca  venissero coltivate, come anche probabilmente la vite. Un ultimo ritrovamento, degno di nota, è stato quello di una pianta spontanea (lisca natante) ritenuta con molto probabilità oggi assente in Italia e mai esistita in Abruzzo, secondo quanto riportato dal sito Acta Plantarum. A questo punto vi lascio alla lettura dello studio  sperando che vi possa piacere.
Link tesi

martedì 11 dicembre 2018

Se tu sei cosi brillante perche’ non sei anche ricco? Questione di fortuna.


Le persone di maggiore successo non sono sempre quelle piu’ talentuose, ma solo quelle piu’ fortunate. Questo il risultato di un modello di ricchezza sviluppato da 3 fisici italiani dell’Universita’ di Catania e pubblicato su Arxiv (Link1, Link2). La distribuzione della ricchezza come noto, segue un pattern ben definito chiamato la regola 80:20 (o principio di Pareto), l’80% della ricchezza e’ posseduta dal 20% delle persone. In uno studio pubblicato l’anno scorso addirittura e’ riportato che solo 8 persone posseggono la ricchezza totale di quella dei 3.8 miliardi di persone piu’ povere al mondo. Questo sembra accadere in tutte le societa’ e a tutte le scale. Si tratta di un noto pattern chiamato legge di potenza che appare in un ampio intervallo di fenomeni sociali. Ma la distribuzione della ricchezza e’ quella che genera  piu’ controversie a causa dei problemi che solleva sull’equita’ e sul merito. Perche’ mai solo una piccola parte di persone nel mondo dovrebbe possedere tanta ricchezza? La risposta tipica a questa domanda e’ che noi viviamo in una societa’ meritocratica dove le persone vengono premiate in base al loro talento, intelligenza, sforzi, ostinita’. Nel tempo, questo si traduce nella distribuzione di ricchezza che osserviamo nella realta’.  C’e’ un problema pero’ con questa idea: mentre la distribuzione della ricchezza segue una legge di potenza (distribuzione di Pareto), la distribuzione dell’intelligenza e delle abilita’ in genere segue una distribuzione normale che e’ simmetrica rispetto al valore medio. Per esempio, l’intelligenza che viene misurata tramite il test IQ, ha un valore medio di 100 e si distribuisce in modo simmetrico rispetto a questo valore. Nessuno ha mai ottenuto 1000 o 10000. Lo stesso e’ vero per lo sforzo che puo’ essere misurato in ore lavorate. Qualche persona lavora piu’ ore della media e qualche altra di meno, ma nessuno lavora milioni di ore piu’ di altri.

Eppure quando si tratta dei premi che si possono ricevere per il lavoro, alcune persone ottengono ricompense milioni di volte piu’ remunerative di altri. Per di piu’, diversi studi hanno mostrato che in genere le persone piu’ ricche non sono quelle piu’ talentuose. Quali fattori, allora determinano il modo in cui gli individui diventano ricchi? E’ possibile che il caso giochi un ruolo maggiore di quello che ognuno di noi si aspetta? E come possono questi fattori, qualunque essi siano, essere sfruttati per rendere il mondo un posto migliore e più giusto dove vivere?

Una risposta viene proprio grazie al lavoro di A. Pluchino e 2 suoi colleghi dell’Universita’ di Catania. Questo team ha creato un modello al computer utilizzando NetLogo un ambiente di programmazione a multi-agenti. Grazie ad esso hanno potuto analizzare il ruolo del caso in un processo in cui un gruppo di persone con un certo talento esplora le opportunita’ della vita. I risultati sono veramente illuminanti. Le loro simulazioni riproducono accuratamente la distribuzione della ricchezza nel mondo reale. Ma gli individui piu’ ricchi non sono quelli piu’ talentuosi (sebbene essi abbiano comunque un certo livello di talento). Essi sono semplicemente i piu’ fortunati. E questo ha un’implicazione significativa sul modo in cui le societa’ possono ottimizzare i ritorni degli investimenti che si fanno, dal mercato alla scienza. Il modello sviluppato e’ abbastanza semplice. Esso consiste di N persone, ognuna con un certo livello di talento (abilita’, intelligenza, destrezza e cosi via). Questo talento e’ distribuito secondo una Gaussiana intorno ad un valore medio e una certa deviazione standard. Alcune persone, quindi sono piu’ talentuose della media ma nessuna lo e’ per piu’ ordini di grandezza.

clip_image001

Questa e’ la stessa distribuzione che ritroviamo per caratteristiche umane come l’altezza e il peso. Alcune persone sono piu’ alte o piu’ basse della media, ma nessuno ha le dimensioni di un moscerino o di un elefante. Alla fine siamo abbastanza simili tra noi. Il modello costruito, ha seguito ogni individuo per 40 anni di vita lavorativa (dai 20 ai 60 anni). Durante questo tempo, gli individui possono aver sperimentato degli eventi fortuiti che hanno potuto sfruttare per aumentare la loro ricchezza se abbastanza talentuosi. Allo stesso modo, possono anche subire degli eventi sfortunati che possono ridurre la loro ricchezza. Questi eventi sono completamente casuali. Alla fine dei 40 anni, il team ha fatto un ranking degli individui in base alla ricchezza accumulata e studiato le caratteristiche di questa distribuzione. Hanno poi ripetuto la simulazione molte volte per verificare la robustezza dei risultati.

clip_image003

In questa figura un esempio di configurazione iniziale di una simulazione. Ci sono 1000 individui (agenti) con diversi gradi di talento e distribuiti in modo casuale all’interno di un mondo quadrato fatto di 201x201 striscie con condizioni al contorno periodiche. Durante ogni simulazione che copre diverse dozzine di anni queste persone vengono esposte ad un certo numero di eventi fortunati (cerchi di colore verde) e sfortunati (cerchi di colore rosso) che si muovono attraverso il mondo quadrato con traiettorie del tutto casuali.


La distribuzione della ricchezza che emerge dalle simulazioni e’ esattamente quella vista nel mondo reale. La legge 80:20 viene rispettata, in quanto l’80% della popolazione possiede il 20% del capitale totale, mentre il rimanente 20% possiede l’80% di questo capitale. Questo risultato non sarebbe sorprendente o sleale se il 20% delle persone piu’ ricche fosse anche quello piu’ talentuoso. Ma questo non e’ quello che emerge dallo studio.

clip_image005

Gli individui piu’ ricchi, in genere non sono quelli piu’ talentuosi o prossimi a essi. Il massimo successo non coincide con il massimo talento e viceversa.

clip_image007

Quindi se non e’ il talento, quali altri fattori causano questa distribuzione di ricchezza fortemente scodata? La simulazione chiaramente individua nella pura fortuna tale fattore. Facendo una classifica degli individui secondo il numero di eventi favorevoli e sfavorevoli subiti nei 40 anni di lavoro, e’ evidente che gli individui con maggiore successo sono anche i piu’ fortunati. E quelli che hanno avuto meno successo sono proprio quelli piu’ sfortunati (maggiore numero di eventi negativi).

clip_image009

Questo risultato ha delle implicazioni molto profonde per la societa’. Quale e’ la strategia piu’ efficace per esplorare il ruolo della fortuna nel successo di una persona? Il team ha verificato questo aspetto usando il metodo con cui vengono stabiliti i fondi per la ricerca scientifica. Le agenzie di finanziamento di tutto il mondo sono interessate a massimizzare il loro ritorno sull'investimento nel mondo scientifico. Recentemente l’European Reserch Council ha investito 1.7 miliardi di dollari in un programma per studiare la serendipita’, cioe’ il ruolo della fortuna nelle scoperte scientifiche, e come essa puo’ essere sfruttata per migliorare i risultati del finanziamento. E questo studio di Pluchino e il suo team  ben si presta a dare una risposta a questa domanda. In esso vengono esplorati diversi modelli di finanziamento per capire quale di essi produce il miglior ritorno quando si tiene in considerazione la fortuna. In particolare sono stati studiati 3 modelli in cui il fondo e’ distribuito equamente a tutti gli scienziati, distribuito a caso ad un numero limitato di scienziati o dato preferenzialmente a quelli che hanno avuto piu’ successo in passato. Quale e’ la migliore strategia? La risposta e’ controintuitiva ed il primo modello. Si avete capito bene quella che assegna il fondo in modo equo a tutti gli scienziati. E subito dopo la seconda e terza strategia vincente e’ quella che prevede di assegnare a caso il fondo al 10 o 20% degli scienziati. In questi casi, i ricercatori riescono ad ottenere un vantaggio dalle scoperte per serendipita’ che avvengono nel tempo. Col senno di poi e’ ovvio che se uno scienziato ha fatto una scoperta nel passato non significa che ha una probabilita’ maggiore di farne un’altra nel futuro. Un simile approccio potrebbe essere applicato anche negli investimenti di altro tipo di aziende, come una piccola o grande impresa, startup tecnologiche o anche per la creazione casuale di eventi fortunati. E’ chiaro che c’e’ bisogno di ulteriori indagini e studio su questo argomento prima di poter dare un giudizio definitivo. I primi risultati sono di sicuro rivoluzionari e in controtendenza, con una prospettiva di applicazione del tutto nuova e molto interessante. Non ci resta che aspettare ulteriori dettagli….

domenica 2 dicembre 2018

L’Universo dopo la missione Planck


Sono ormai 50 anni da quando abbiamo scoperto un fondo di microonde che arriva sulla terra proveniente da tutte le regioni del cielo. Queste radiazioni non provengono dal sole, da galassie o altre stelle ma sono la luce residua del Big Bang che oggi chiamiamo radiazione cosmica di fondo detta anche semplicemente radiazione di fondo e indicata con l’acronimo inglese CMB. Le missioni satellitari realizzate negli anni passati hanno avute tutte lo scopo di studiare le caratteristiche principali di tale radiazione e verificarne l’accordo con le previsioni teoriche. L’ultima di queste missioni ha visto impegnato il satellite Planck dell’agenzia spaziale europea, lanciato nel 2009. Grazie ad esso la nostra visione dell’Universo e’ cambiata radicalmente. Vediamo perche’. L’immagine seguente mostra come la temperatura associata all’energia di questa radiazione fossile, 380000 anni dopo il Big Bang, non e’ uniforme in tutte le direzioni dello spazio in quanto mostra delle piccole variazioni dell’ordine delle centinaia di microkelvin (il colore blu indica temperature piu’ basse e quello rosso temperature piu’ alte).

clip_image002

Per analizzare l'origine della radiazione cosmica di fondo è necessario tornare al periodo conosciuto come era della ricombinazione. Nell'Universo le condizioni cominciano a permettere la formazione di atomi di idrogeno, fenomeno detto appunto ricombinazione. L'energia di ionizzazione dell'idrogeno vale 13,6 eV, e dunque basta questa energia per staccare l'elettrone dal nucleo, ma a quel tempo la maggior parte dei fotoni possiede ancora un'energia maggiore di quel valore. Quindi ogni volta che un fotone interagisce con un atomo appena formatosi, quest'ultimo perde il proprio elettrone. Il fotone viene deflesso e questa interazione è descritta dal fenomeno chiamato scattering Thomson (figura seguente), responsabile dell'aspetto opaco dell'Universo di allora.

Related image

Per questo motivo il cammino libero percorso dai fotoni tra una collisione e l'altra è estremamente breve e impedisce appunto la formazione di atomi stabili. Con il passare del tempo però l'Universo si espande, la temperatura cala e di conseguenza anche l'energia dei fotoni diminuisce, facendo decrescere sempre più il numero di essi in grado di ionizzare gli atomi di idrogeno. Al termine di questo processo si hanno gli elettroni nel loro stato fondamentale e i fotoni ormai non più in grado di interagire con essi. Cessa dunque il fenomeno di scattering e l'Universo passa da uno stato opaco ad uno trasparente. Si parla quindi di disaccoppiamento tra materia e radiazione, perché da questo momento in poi i fotoni sono liberi di propagarsi in moto perenne nell'Universo, senza essere più deflessi, costituendo ciò che oggi è conosciuta appunto come radiazione cosmica di fondo. Importante notare come ricombinazione e disaccoppiamento sono fenomeni distinti e non avvengono contemporaneamente. A partire dal 1983 sono stati condotti diversi esperimenti per ottenere più informazioni, tra cui soprattutto l'effettiva temperatura dei fotoni della radiazione cosmica di fondo. Sono tre le missioni spaziali più famose a questo riguardo: COBE, acronimo di Cosmic Background Explorer, del 1992, WMAP, ovvero Wilkinson Microwave Anisotropy Probe, del 2001 e Planck, lanciato nel 2009. Quest'ultima nasce con gli obiettivi di misurare con grande precisione il CMB, osservare strutture dell'Universo come alcuni ammassi di galassie, studiare l'effetto chiamato lente gravitazionale e stimare i parametri osservativi. Questi obiettivi, uniti alla tecnologia utilizzata nella realizzazione dell'esperimento, rendono questa missione la più importante delle tre. Grazie ai dati raccolti, soprattutto da Planck, si sono fatti importanti passi avanti in questo campo. Oggi si sa infatti che la radiazione cosmica di fondo corrisponde esattamente alla radiazione emessa da un corpo nero, a una temperatura

T0 = 2.725+/- 0.001 K

a cui corrisponde un’energia media di questi fotoni di solo 1.126*10-22 Joule. Un corpo nero è, fisicamente parlando, un radiatore ideale, ovvero un ggetto che assorbe ogni tipo di radiazione elettromagnetica da cui viene colpito, senza riflettere energia. Il principio di conservazione dell'energia tuttavia non permette di assorbire semplicemente energia e quindi un corpo nero riemette tutta l'energia che ha ricevuto sotto forma di radiazione. Le missioni COBE e WMAP hanno confermato le ipotesi che erano state fatte sul CMB. È stato infatti dimostrato come lo spettro della radiazione cosmica di fondo corrisponda esattamente a quello di un corpo nero.

clip_image004

Il satellite Planck ha misurato le fluttuazioni in temperatura con una risoluzione che nessun altro satellite prima aveva fatto: circa 5 microkelvin rispetto ai 70 di COBE. Quest’alta risoluzione insieme alla capacita’ di misurare la polarizzazione di questa luce ci ha permesso di capire, misurare ed eliminare gli effetti della polvere (vedi immagine seguente) presente nella nostra galassia meglio di quanto fatto prima. Per ottenere le informazioni cosmologiche contenute in questo fondo e’ necessario conoscere tutti gli effetti che possono contaminare tale segnale.

clip_image006

Una volta che il segnale e’ stato ripulito esso puo’ essere analizzato per estrarre tutta l’informazione possibile. Questo significa usare le fluttuazioni in temperatura su larga, intermedia e piccola scala per cercare di capire:

· quanta materia normale, oscura ed energia oscura ci sono nell’universo

· la loro distribuzione iniziale

· la forma e curvatura dell’universo (vedi immagine seguente)

clip_image008

E’ possibile anche analizzare le diverse varieta’ di luce polarizzata di questa radiazione e ottenere altre informazioni molto utili per gli scienziati. Grazie a Planck adesso conosciamo alcuni dei parametri cosmologici con una maggiore precisione, come per esempio la costante di Hubble che oggi sappiamo essere un numero tra 67 e 68 Km/s/Mpc.

clip_image010

L’universo ha piu’ materia e si sta espandendo piu’ lentamente di quanto pensavamo prima. Prima dei risultati del satellite Planck, si pensava che l’universo fosse costituito per il 26% di materia e 74% di energia oscura con un tasso di espansione intorno a 70 Km/s/Mpc. Adesso invece la quantita’ di materia nell’universo corrisponde a circa il 31.5% (il cui 4.9% e’ materia normale e il rimanente materia oscura) mentre il 68.5% e’ energia oscura con una costante di Hubble di circa 67.4 Km/s/Mpc. Quest’ultima e’ in contrasto con altre misure che invece indicano un rate di 73 Km/s/Mpc. Questo punto e’ probabilmente una delle poche controversie ancora oggi rimanenti sul modello di universo. Grazie al satellite Planck sappiamo che ci sono solo 3 tipi di neutrino e la massa di ognuno di essi e’ non piu’ di 0.04 eV/c2, circa 10 milioni di volte meno massiccia di un elettrone. Un’altra indicazione e’ quella che l’universo e’ realmente piatto e la sua curvatura e’ non piu’ di 1 parte su 1000. A partire dall’intensita’ di questa radiazione di fondo e’ possibile utilizzare la trasformata di Fourier per ottenere lo spettro continuo delle fluttuazioni di temperatura. Per descrivere la distribuzione spaziale dell’intensita’ e quindi della temperatura si puo’ sfruttare il fatto che queste sono distribuite su una superficie sferica e quindi e’ possibile utilizzare una decomposizione in armoniche sferiche:

clip_image011

dove Yl,m e’ la funzione armonica sferica di grado l ed ordine m. Di seguito lo spettro ottenuto da Planck.

clip_image013

Esso tra le altre cose ha fornito anche una conferma della teoria dell’inflazione cosmica. Quest’ultima prevede che le fluttuazioni dell’universo al suo inizio dovrebbero essere pio’ o meno le stesse a tutte le scale con una piccolissima maggiore fluttuazione alle scale piu’ grandi. In accordo con i dati forniti da Planck questo significa che una delle quantita’ cosmologiche chiamata indice spettrale ed indicata con ns e’ prossima ad 1 (Planck da’ 0.965+/-0.05%) come ci si aspetta dalla teoria dell’inflazione. C’e’ anche un’altra questione a cui le misure di Planck possono dare un contributo. L’energia oscura che e’ estremamente sensibile alla radiazione di fondo e ai dati provenienti dall’universo ultra-distante (come le supernove di tipo Ia) e’ o no una costante cosmologica? Nel caso in cui lo fosse allora la sua equazione di stato indicata col parametro w dovrebbe essere esattamente pari a -1. Cosa dice Planck? Si e’ trovato un valore di -1.03 con una incertezza di solo 0.03.

clip_image015

Dopo la missione Planck, anche altre quantita’ hanno mostrato delle differenze anche se molto piccole. L’universo e’ diventato leggermente piu’ vecchio. Siamo a 13.8 miliardi di anni verso i precedenti 13.7 miliardi di anni. La distanza del confine osservabile dell’universo e’ un po’ piu’ piccola di quanto pensavamo: 46.1 invece di 46.5 miliardi di anni luce.

In definitiva possiamo dire che in base ai risultati del satellite Planck:

· il modello dell’inflazione e’ confermato

· esistono tre specie di neutrini

· l’universo si sta espandendo piu’ lentamente di quanto pensavamo prima e non c’e’ alcuna evidenza di una sua curvatura

· c’e’ un po’ piu’ materia oscura e materia standard di quanto pensavamo prima a scapito di un po’ meno di energia oscura.

· non c’e’ alcuna evidenza a favore dei modelli Big Rip e Big crunch dell’universo

clip_image017

Grazie alla missione Planck oggi abbiamo uno spettacolare accordo tra la radiazione di fondo (CMB) e le previsioni teoriche dell’universo contenente 5% di materia normale, 27% di materia oscura e 68% di energia oscura. Ci puo’ essere la possibilita’ di variazioni del 1-2% per questi valori, ma un universo senza materia oscura e senza energia oscura con i dati in nostro possesso non e’ pensabile. Entrambe sono reali e necessarie (vedi linea blu del grafico precedente per capire il buon accordo tra i dati teorici che prevedono la materia e l’energia oscura e i dati sperimentali rappresentati dai punti in rosso ottenuti da Planck).

Per approfondire:

https://www.cosmos.esa.int/documents/387566/387653/Planck_2018_results_L01.pdf/19301bb5-d646-f201-f136-d62910bf6a82

giovedì 16 agosto 2018

Quando alle particelle venne la massa


La massa è una grandezza onnipresente nella dinamica. Ma cosa è la massa di un corpo? Fin dalle scuole medie siamo stati abituati ad associare al concetto di massa quello di quantita’ di materia che costituisce un corpo, per cui quanto maggiore è la massa di un corpo tanto maggiore è la quantità di materia in esso contenuta. Da un punto di vista fisico però questa non è una definizione corretta. La massa come grandezza fisica compare la prima volta nella seconda legge di Newton (F=m*a) che stabilisce che la forza esercitata su un corpo di massa m è data dal prodotto della massa per l’accelerazione e che quindi quest’ultima è inversamente proporzionale alla forza. Ciò significa che presi due corpi di massa diversa se applichiamo ad essi la medesima forza otterremo un’accelerazione diversa; in particolare il corpo dotato di massa minore subirà l’accelerazione maggiore. Emerge cosi la definizione di massa: è quella caratteristica dei corpi che li induce ad opporsi alla modifica del loro stato di quiete o di moto. E’ infatti piu’ difficile accelerare oggetti con grandi masse rispetto a quelli con piccole masse.

Questa è la definizione della cosiddetta massa inerziale di un corpo. Ma la massa ha anche un’altra caratteristica diversa dall’inerzia, che è quella di esercitare una forza gravitazionale (F=G*(M*m)/d2) su altri corpi attirandoli a sè in modo inversamente proporzionale al quadrato della distanza tra i corpi (legge di gravitazione universale). In questo caso si parla di massa gravitazionale. La domanda sorge spontanea: c’è un qualche legame tra queste due definizioni? In genere si parla di massa senza preoccuparsi di specificare se sia quella inerziale o quella gravitazionale. Come mai? Perche’ esiste un principio chiamato il principio di equivalenza stabilito da Einstein nel 1907 che ce lo permette. Non c’e’ modo di distinguere gli effetti della gravita’ da quelli prodotti da un sistema di riferimento accelerato. Cosi la massa di un corpo che viene attratto dalla gravita’ terrestre non puo’ essere diversa da quella di un corpo soggetto ad un’accelerazione pari a quella terrestre in assenza clip_image002di gravità. Quindi massa inerziale e massa gravitazionale sono la stessa cosa. Ma da dove deriva la massa dei corpi? Ovviamente dalla massa delle particelle ultime che costituiscono la nostra realta’ come quarks ed elettroni. E da dove viene la massa delle particelle elementari che costituiscono il nostro Universo? Per rispondere dobbiamo partire da molto lontano, circa 13.8 miliardi di anni fa. Nei primi istanti dopo il Big Bang, l’Universo era molto caldo e pieno di particelle, antiparticelle e quanti di radiazione. Subito dopo ha iniziato ad espandersi raffreddandosi: le lunghezze d’onda di tutte le radiazioni sono state spostate a volori più alti e quindi ad energie piu’ basse (E=h/ʎ) in quanto stirate dall’estensione del tessuto spazio-temporale.

clip_image004

Se esistono particelle o antiparticelle che oggi ancora non abbiamo scoperte, di sicuro vennero create nei primi istanti di vita dell’Universo quando esso era caldissimo e c’era abbastanza energia per creare qualsiasi particella o antiparticella grazie all’equazione di Einstein E=mc2. Comunque le particelle massive come le conosciamo oggi a quei tempi ancora non avevano massa. E quindi viaggiavano alla velocità della luce come fanno oggi i fotoni, gluoni e onde gravitazionali che sono i mediatori (bosoni di gauge) delle interazioni elettromagnetiche, nucleari forti e gravitazionali rispettivamente.

image

Come mai le particelle si trovavano in uno stato cosi diverso da quello di oggi? Perchè la simmetria del campo elettrodebole che dà vita al bosone di Higgs ancora non si era rotta. Si trattava di un mondo molto diverso da quello di oggi. Non c’erano atomi, non c’era la tabella periodica, non c’era biologia, non c’erano stelle e non c’eravamo noi.

clip_image008

Se oggi diamo uno sguardo al Modello Standard esso e’ organizzato come segue:

· 6 quarks, ognuno dei quali in 3 stati di colore diversi e le loro controparti (antiquarks)

· 3 leptoni carichi (e, μ, τ) e 3 neutri (νe, νμ, ντ) e la loro controparte di antimateria

· 8 gluoni senza massa che mediano la forza nucleare forte tra i quarks

· 3 bosoni pesanti (W+, W-, and Z0) che mediano la forza nucleare debole

· il fotone (γ), senza massa e mediatore della forza elettromagnetica

All’inizio della storia dell’Universo pero’ come detto prima le cose non stavano cosi in quanto la simmetria elettrodebole ancora non era stata infranta. Invece dei bosoni dell’interazione debole ed elettromagnetica che conosciamo oggi (W+, W-, Z0, γ), c’erano 4 bosoni per la forza elettrodebole (W1, W2, W3, B) e tutti senza massa.

clip_image010

Le altre particelle erano le stesse di oggi ad eccezione del fatto che non avevano ancora la massa. Questo era quello che fluttuava nell’Universo primordiale con continui scontri, annichilazioni e creazione di particelle, tutte in moto alla velocità della luce. Tutto questo fino a quando l’energia dell’Universo scese al di sotto di un valore critico. Fino a questo momento il campo di Higgs lo si può pensare come del vino all’interno di una bottiglia.

clip_image012Quando il livello del vino e’ alto, se una goccia di olio cade nella bottiglia, essa rimarrà in superficie in un punto qualsiasi di un disco. Come il livello del liquido si abbassa, il fondo della bottiglia comincia ad emergere dal livello del vino che rimane separato in due diverse zone guardando la bottiglia esattamente di fronte a noi. Se adesso nella bottiglia cade una goccia di olio questa non potra’ andare ovunque come prima. Cadra’ di sicuro nel liquido che questa volta pero’ e’ clip_image014concentrato in un anello intorno al rialzo del fondo della bottiglia. Questo e’ quello che in fisica si chiama una rottura spontanea di simmetria. Quando succede questo il campo di Higgs si deposita sul fondo in uno stato di equilibrio di minima energia. Che comunque non è proprio zero ed è chiamato lo stato non nullo del vuoto. Mentre con la simmetria rispettata (bottiglia piena) le particelle non hanno massa, con quella rotta (bottiglia quasi vuota o vuota) cambia tutto.

Il primo a pensare a questo tipo di campo fu un fisico il cui cognome è proprio quello che oggi porta la particella piu’ importante del momento: Higgs. Egli nei primi anni sessanta oltre ai campi quantistici che caratterizzano le quattro forze fondamentali ipotizzò l’esistenza di un ulteriore campo phi che doveva pervadere l’intero spazio, e la cui energia poteva essere espressa come:

                                                        E(phi) =alpha*phi2+beta*phi4.

Quando l’età dell’universo era inferiore a 10-11 secondi, e la temperatura era superiore a 1015 gradi Kelvin, il campo di Higgs era effettivamente nullo perché, i parametri alpha e beta erano entrambi positivi e la minima energia si realizzava per phi=0 (vedi immagine seguente). Ma il raffreddamento dell’universo conseguente alla sua espansione portò ad una transizione di fase, riducendo il parametro alpha fino a renderlo negativo. L’energia del campo di Higgs assunse allora la tipica forma a sombrero dando luogo ad una situazione paradossale: la minima energia non si realizzava più per un valore nullo del campo, ma per uno dei valori caratterizzanti il “fondovalle” circolare. Scivolando caimagesualmente verso uno di questi valori il campo di Higgs operò una rottura di simmetria in quanto aveva selezionato un punto particolare tra tutti quelli (inizialmente equivalenti) del canyon. Osserviamo che la condizione con alpha positivo e beta negativo non e’ possibile in quanto la minima energia del sistema si ottiene per valori infiniti di phi. La rottura di simmetria del campo di Higgs ha portato ad una distinzione “tangibile” tra i vari bosoni. La sua comparsa ha prodotto una distinzione tra i fotoni, che non interagiscono col campo stesso e che hanno quindi continuato ad essere privi di massa, e i bosoni W e Z, che ne hanno acquisita una. Pertanto, la forza trasportata dai fotoni ha mantenuto un raggio di azione infinito, mentre quella veicolata dai bosoni W e Z lo ha ridotto drammaticamente, “sdoppiando” la forza elettrodebole originaria in forza elettromagnetica e forza debole. La comparsa di un mare di bosoni di Higgs che pervade l’intero spazio ha naturalmente dato origine alla massa di tutte le altre particelle, siano esse “materiali” quali i quark e gli elettroni, oppure mediatrici di forze (gli altri bosoni quali i gluoni, relativamente alla forza forte, e i gravitoni, relativamente alla forza gravitazionale). La stessa massa dei bosoni di Higgs è dovuta all’interazione di ognuno di essi con gli altri circostanti. In seguito al raffreddamento dell’Universo c’e’ stata una transizione spontanea di fase del campo di Higgs che ha acquistato cosi le caratteristiche odierne. Non è difficile imbattersi in sistemi fisici che subiscono una transizione di fase regolata da un parametro d’ordine quale, ad esempio, la temperatura. Il caso più comune è dato dall’acqua che, raffreddandosi al di sotto di 0 ºC, passa dallo stato liquido a quello solido. In questo passaggio essa riduce la propria simmetria. Poiché questo avviene senza alcun intervento esterno, si parla di rottura spontanea di simmetria. Tale rottura non è una specifica conseguenza dell’esempio appena discusso, ma è un risultato generale associato a qualunque tipo di transizione di fase, indipendentemente dal sistema fisico coinvolto.

clip_image018

Allo stato liquido le molecole hanno grande mobilità e, nel loro insieme, hanno una distribuzione caotica. Per temperature inferiori a 0 ºC le molecole si “incastrano” tra loro formando celle esagonali. Benché il ghiaccio possa apparire più simmetrico dell’acqua, in realtà è vero il contrario. L’aspetto caotico dell’acqua, infatti, non cambia, da qualunque punto di vista la si osservi: in altre parole, l’acqua è altamente simmetrica perché invariante per qualunque tipo di rotazione. Il ghiaccio, invece, è invariante solo per rotazioni di (multipli di) 60 gradi, e presenta quindi una simmetria inferiore.

Torniamo al campo di Higgs. Una volta che viene rotta la simmetria, il campo di Higgs origina 4 masse due cariche e due neutre e accadono le seguenti cose:

· Le particelle W1 e W2 “mangiano” i bosoni carichi del campo di Higgs diventando le particelle W+ e W- di oggi

· La particella W3 e B si mescolano insieme con una combinazione che “mangia” il bosone neutro del campo di Higgs diventando cosi il bosone Z0, e l’altra combinazione rimanendo a digiuno diventando il fotone senza massa che conosciamo oggi (γ).

· L’ultimo bosone di Higgs nato dalla rottura della simmetria guadagna massa e diventa quello che oggi chiamiamo il bosone di Higgs.

· Infine il bosone di Higgs si accoppia a tutte le particelle del modello Standard dando origine alla massa dell’Universo.

Questa in breve e’ la storia dell’origine della massa dell’Universo.

clip_image020

Questo processo e’ chiamato rottura spontanea della simmetria. E per i leptoni e i quarks del modello Standard, quando questa simmetria di Higgs viene rotta, ogni particella ottiene massa per due motivi:

1. Il valore di aspettazione del campo di Higgs (il suo valore medio pari a 246 GeV)

2. Una costante di accoppiamento

Il valore di aspettazione del campo di Higgs e’ lo stesso per tutte le particelle e non molto difficile da determinare. La costante di accoppiamento invece non solo e’ diversa per ognuna delle particelle del Modello Standard ma e’ anche arbitraria. Qui di seguito un’immagine che mostra come il bosone di Higgs dopo la rottura di simmetria si e’ accoppiato ai quarks, leptoni e bosoni W e Z dandogli massa. Non si e’ accoppiato con i fotoni e gluoni e questo fa si che queste particelle non abbiano massa.

clip_image022

clip_image024

clip_image025

image

A questo punto sappiamo che le particelle hanno massa, sappiamo come l’hanno ottenuta e quali sono le particelle responsabili. Ma ancora non abbiamo nessuna idea del perche’ le particelle abbiano proprio questi valori di massa e non altri. Esse hanno valori che coprono ben 7 ordini di grandezza con i neutrini essendo le particelle piu’ leggere e il top quark quelle piu’ pesanti.

clip_image028

Una volta che l’Universo ha acquistato la massa ha iniziato a fare cose che prima non poteva fare. Adesso mentre si raffredda puo’ creare particelle come protoni e neutroni. Creare successivamente i nuclei atomici e gli atomi neutri. Dopo un lasso di tempo molto lungo possono nascere le stelle, le galassie, i pianeti e finalmente la vita. Senza il bosone di Higgs nulla di tutto questo poteva accadere. Grazie al suo campo e il suo accoppiamento l’Universo e’ diventato quello che e’.

clip_image030

La scoperta del bosone di Higgs ha ulteriormente confermato la validita’ del modello standard che permette di descrivere l’Universo (ad eccezione della gravita’) con una formula (Lagrangiana, funzione data dalla differenza tra energia cinetica e quella potenziale di un sistema) molto elegante:

clip_image032

I protagonisti della lagrangiana del modello standard sono i campi, più fondamentali delle particelle dopo l’affermarsi del principio di indeterminazione di Heisenberg nella seconda metà degli anni venti del ’900. I campi sono quantità di vario genere con valori assegnati in ogni punto dello spazio e del tempo, mentre le particelle (l’elettrone, il fotone, ecc.) sono vibrazioni localizzate dei corrispondenti campi (il campo dell’elettrone, il campo elettromagnetico nel caso del fotone, ecc.), simili alle onde di un lago altrimenti calmo. Nel primo pezzo della lagrangiana, compaiono i campi dei mediatori delle interazioni elettromagnetiche (il fotone, “scoperto” da Einstein nel 1905), delle interazioni deboli (i bosoni W e Z, la cui scoperta valse il premio Nobel a Carlo Rubbia e Simon van der Meer) e delle interazioni forti (i gluoni, rivelati nel laboratorio Desy ad Amburgo alla fine degli anni settanta). Nel secondo e fino al quinto pezzo della lagrangiana intervengono i costituenti veri e propri della materia, denotati globalmente con la lettera greca Ψ: l’elettrone, il neutrino e i due quark, up e down, che sono i principali componenti del protone e del neutrone. In realtà, nel quarto pezzo, il campo Ψ porta un indice “i” o “j”, a ricordare che i campi di materia esistono in tre repliche, dunque “i, j” da 1 a 3, con interazioni identiche fra loro ma con masse diverse. È nell’universo primordiale che le repliche più pesanti, inizialmente scoperte nei raggi cosmici (il muone e il quark strange) e prodotte artificialmente negli acceleratori di alta energia (il leptone tau e i quark top, bottom e charm), vivono democraticamente insieme alla prima, quella di cui siamo fatti anche noi (l’elettrone e i quark up e down). Infine negli ultimi due pezzi, ma già anche nel quarto pezzo, compare il campo di Higgs, denotato con la lettera greca Φ, ultimo a completare il quadro delle particelle previste e scoperte nel modello standard: una progressione iniziata nel 1897 con la scoperta dell’elettrone e terminata nel 2012 con il bosone di Higgs. Chiudiamo in bellezza. Qui di seguito la formula per esteso della Lagrangiana del Modello Standard. E’ vero, il nostro Universo e’ scritto con il linguaggio della matematica, ma le formule non sono cosi semplici come quelle di Newton. Sono molto piu’ complesse specialmente se pensiamo che ancora manca il contributo della gravita’ che resiste a tutti gli attacchi dei fisici che la vogliono quantizzare.

clip_image034

http://www.wikio.it