Visualizzazione post con etichetta fisica. Mostra tutti i post
Visualizzazione post con etichetta fisica. Mostra tutti i post

domenica 22 luglio 2018

Cucinare una pizza: questione di fisica e non solo


Cuocere una pizza puo’ apparire un processo molto semplice a chi come noi e’ abituato a vedere questo disco di pasta uscire velocemente da un forno ed essere servito a tavola per la gioia di chi attende. Eppure in questo semplice processo c’e’ tanta fisica che tre studiosi hanno provato ad analizzare in un loro articolo apparso su arxiv nel mese di Giugno. Il loro obiettivo e’ stato quello di analizzare e confrontare la cottura di una pizza in un forno a legna e in uno elettrico. I principi e le equazioni chiamate in causa sono quelle della termodinamica, una branca della fisica.

Quando si parla di pizza, tutti pensano a Napoli anche se l’origine della pizza è molto piu’ antica. Nel Neolitico tra la Cina e le Americhe c’era gia’ l’abitudine di preparare delle focacce non lievitate fatte con farina di grano tenero (farro, orzo) che venivano poi cotte su pietre riscaldate. La parola pizza compare per la prima volta su una pergamena latina dove viene riportata una lista di donazioni fatte da un proprietario terriero al vescovo di Gaeta. Il documento datato al 996 d.C. stabiliva il dono di 12 pizze ogni Natale e Pasqua. La pizza comunque come la conosciamo oggi di sicuro e’ un invenzione dei napoletani, che aggiunsero gli ingredienti universalmente associato oggi alla pizza: pomodoro e mozzarella. I napoletani iniziarono ad usare il pomodoro dopo che Colombo ritorno’ dalle Americhe. Esso appare per la prima volta in un libro di cucina “Cuoco galante” del 1819, scritto dal cuoco Vincenzo Corrado. La mozzarella invece viene citata per la prima volta nel libro di ricette “Opera” del 1570 a cura di Bartolomeo Scappi. Diversi documenti dimostrano che fino al 18 secolo la pizza napoletana era un semplice disco di pasta cotto o fritto, con sopra lardo, formaggio pecorino, olive, sale o piccoli pesci chiamati cecinielli. Durante il 19 secolo ci furono fino a 200 pizzaioli sparsi per i vicoletti di Napoli a vendere le loro pizze cotte o fritte con sopra pomodoro e basilico. Nel 1889, dopo l’unificazione dell’Italia, il pizzaiolo Raffaele Esposito decise di fare un dono alla regina di Italia aggiungendo al pomodoro e al basilico, la mozzarella. La combinazione dei tre colori bianco, rosso e verde simboleggiava la bandiera italiana e da allora in poi questa pizza e’ venne chiamata Pizza Margherita. Raffaele certamente non poteva pensare che un semplice impasto potesse diventare uno degli oggetti più famosi al mondo. Oggi in Italia esistono diversi tipi di pizza a seconda della regione in cui viene preparata. Dalla pizza margherita, marinara e calzone della regione campana alla pizza di sfrigoli dell’abruzzo o alla sfinciuni siciliana solo per citarne alcune. Veniamo adesso alla studio vero e proprio. Quale e’ il segreto di una buona pizza? Come molti pizzaioli riportano, il forno a legno dovrebbe essere superiore a quello elettrico. La temperatura tipica per una pizza alla romana e’ tra 325-330 gradi centigradi mentre per quella napoletana e’ intorno ai 400 gradi. Con queste temperature una pizza è pronta in circa due minuti e un minuto rispettivamente. Assumendo che in un forno possono andare due pizze in contemporanea, in un ora e’ possibile fare tra le 50 e le 60 pizze romane. Nelle ore di picco, comunque i pizzaioli sono abituati ad alzare la temperatura del forno, arrivando anche a 390 gradi per ridurre cosi il tempo di cottura che passa da due minuti a circa 50 secondi e servendo cosi più clienti. Questa operazione quasi innocua, in effetti altera la qualità della pizza in quanto il fondo e la crosta vengono bruciate e il pomodoro non è cotto abbastanza. Poiché non è sempre possibile trovare una pizzeria con il forno a legna, e’ interessante analizzare i possibili vantaggi del forno a legna rispetto a quello elettrico e se c’è la possibilità di migliorare le prestazioni di quest’ultimo per fare una pizza decente. Iniziamo col richiamare alcune dei concetti di base sulla trasmissione del calore. Quando si parla di calore si ha in mente l’energia di un sistema associata al moto caotico degli atomi, molecole o altre particelle di cui e’ composto. Comunque va precisato che il calore come il lavoro non e’ una variabile di stato di un sistema in quanto dipende da come esso ha raggiunto il suo stato, cioe’ dipende dallo stato iniziale, quello finale e dal modo in cui tale variazione e’ stata compiuta. Come il lavoro, il calore e’ un modo conveniente per descrivere un trasferimento di energia. La quantita’ di calore necessaria ad aumentare la temperatura di una massa unitaria di un materiale di un grado Kelvin e’ chiamata calore specifico del materiale:

c=dQ/M*dT

Qui M e’ la massa del sistema e dQ e’ la quantita’ di calore richiesto per far variare la temperatura dT. Il calore specifico e’ misurato in J/(Kg*K).

In caso di contatto tra due sistemi con due temperature diverse, il calore fluira’ da quello piu’ caldo a quello piu’ freddo. Il flusso di calore q e’ la quantita’ di calore dQ che passa attraverso un’ area S per unita’ di tempo dt e nella direzione in cui cambia la temperatura:

q=dQ/(S*dt)

Nel caso piu’ semplice di un sistema omogeneo, combinando le due equazioni precedenti otteniamo:

q=(c*M*dT)/(S*dt)

Ricordando adesso la definizione di densita’ di materia rho=M/V=M/(S*dx) otteniamo:

q=c*rho*dx*dT/dt=c*rho*((dx)2/dt)*(dT/dx)=-k*dT/dx

dove k e’ la conducibilita’ termica e il termine dx2/dt e’ la diffusivita’ termica.

Questa equazione e’ conosciuta con il nome di legge di Fourier ed e’ valida per piccole variazioni di temperatura. Vediamo adesso come il calore penetra in un mezzo dalla superficie di contatto. Rifacendoci all’immagine precedente assumiamo che durante il tempo t la temperatura nel piccolo cilindro di lunghezza L e sezione S sia cambiata di un dT. Utilizzando la legge di Fourier e sostituendo dx con L otteniamo:

c*rho*L*(dT/t)=k*(dT/L)

Risolvendo rispetto ad L si ha:

L=((k*t)/(c*rho))1/2 =(csi*t)1/2

cioe’ il fronte di temperatura entra nel mezzo come la radice quadrata del tempo t. Il parametro csi e’ chiamato diffusivita’ termica. Ovviamente l’approccio semplicistico utilizzato ha portato ad un risultato non preciso in quanto l’equazione di Fourier richiede la soluzione di equazioni differenziali. Comunque la differenza tra la soluzione trovata e quella reale sta solo in una costante pi greco:

L=(pi*csi*t)1/2

Torniamo adesso ai due sistemi in contatto tra loro. Il primo con parametri k1, c1, rho1 e temperatura T1 e il secondo con parametri k2, c2, rho2 e T2. Indichiamo con To la temperatura all’interfaccia tra i due sistemi. Come detto precedentemente il calore fluisce dal corpo piu’ caldo a quello piu’ freddo, portando cosi la temperatura dei due mezzi alla temperatura di interfaccia To:

k1*((T1-To)/L1)=k2*(To-T2)/L2 (*)

cioe’

k1*((T1-To)/(pi*csi1*t)1/2)=k2*((To-T2)/(pi*csi2*t)1/2)

Risolvendo rispetto a To otteniamo

To=(T1+n21*T2)/(1+n21)

dove n21=(k2/k1)*(csi1/csi2)1/2

Notiamo che To non dipende dal tempo e quindi rimane costante durante il processo di trasferimento di calore. Nel caso di mezzi uguali con diverse temperature si ottiene

To=(T1+T2)/2

Cioe’ la temperatura all’interfaccia e’ semplicemente il valore medio delle due temperature. Siamo adesso pronti per passare allo studio del forno a legna. Iniziamo col calcolare la temperatura all’interfaccia tra il fondo della pizza e i mattoni del forno. I parametri necessari vengono riportati in questa tabella.

Assumendo che la temperatura iniziale dell’impasto sia di 20 gradi (Ti=20 C) e che la temperatura all’interno del forno di una pizzeria romana sia di 330 gradi (Tr=330 C) possiamo calcolare la temperatura all’interfaccia pizza- mattoni del forno:

Tir=(Tr+n21*Ti)/(1+n21)=(330+0.65*20)/1.65=208 C

Con queste temperature mediamente una pizza romana e’ pronta in circa 2 minuti. Ripetiamo adesso lo stesso calcolo per il forno elettrico la cui superficie dove viene poggiata la pizza e’ fatta di acciaio. Questa volta il coefficiente n21 sara’ 0.1 per cui la temperatura all’interfaccia pizza – superficie forno sara’:

Tir=(330+0.1*20)/1.1=300 C

Effettivamente la temperatura all’interfaccia e’ alta e questa determinera’ le classiche bruciature che tutti noi almeno una volta abbiamo visto sul fondo di una pizza. Nel caso della pizza napoletana questa temperatura sara’ ancora piu’ alta essendo la temperatura tipica del forno a legna di circa 400-450 gradi. A quale temperatura allora, nel caso di una pizza romana, dovrebbe essere impostato il forno elettrico per avere sul fondo della pizza la stessa temperatura di un forno a legna? Basta imporre nell’ultima equazione Tir a 208 gradi e ricavare Tr. Con semplici passaggi si ottiene 230 gradi, una temperatura decisamente piu’ bassa dei 330 gradi del forno a legna. Se fosse tutto qui, allora con un semplice aggiustamento di temperatura la pizza cotta col forno elettrico potrebbe essere equiparabile a quella del forno a legna. Poiche’ e’ ben noto a tutti che questo non e’ vero vuol dire che c’e’ qualche altra cosa che non abbiamo considerato. Ma cosa? I possibili modi di trasmissione del calore. Fin qui abbiamo considerato solo il meccanismo della conduzione. Ma ci deve essere almeno un altro modo. Il sole non e’ in contatto con noi, eppure il suo calore arriva a noi. Come? Grazie alla radiazione termica, cioe’ ai raggi infrarossi. L’energia termica che arriva su un cm2 di superficie per secondo e’ data dalla cosiddetta legge di Stefan-Boltzmann:

I=sigma*T4

dove la costante sigma vale 5.67E-8 W/(m2K4). L’intensita’ I e’ misurata in W/m2 e la temperatura in gradi Kelvin. Poiche’ i forni a legna hanno la volta a doppia corona riempita con sabbia, la temperatura al suo interno rimane costante e cioe’ Tr=330 C=603 K essendo T(K)=273+T(C) la relazione per passare da gradi centigradi a quelli Kelvin. Essendo tutte le parti del forno alla stessa temperatura questo significa che esso e’ pieno di radiazione infrarossa che investe la pizza da tutte le parti. Grazie alla legge di S-B possiamo calcolare questa quantita’:

I=5.67E-8*6034 =7.5 kW/m2

cioe’ ogni secondo su un cm2 della pizza arrivano circa 0.75 joule di radiazione infrarossa. Va notato comunque che anche la pizza allo stesso tempo emette una radiazione data da I=sigma*(Tpizza)4. Quanto vale Tpizza? Poiche’ la maggior parte del tempo di cottura richiesto vien speso per far evaporare l’acqua dall’impasto possiamo assumere che la temperatura della pizza Tpizza sia di 100 gradi, cioe’ 373 gradi Kelvin che risulta in una radiazione termica di circa 1.1 kW/m2. Circa il 15% della radiazione ricevuta dalla pizza viene riemessa nel forno. Per il forno elettrico nonostante la temperatura sia piu’ bassa (230 C) la corrispondente energia termica incidente su 1 cm2 e’ piu’ del doppio di quella del forno a legna:

I=5.67E-8*(503)4=3.6 kW/m2

mentre quella emessa dalla pizza rimane la stessa di prima. Calcoliamo adesso la quantita’ di calore che arriva per cm2 sul fondo della pizza grazie alla conduzione. Possiamo farlo utilizzando l’equazione (*):

q(t)=k*(T1-To)/(pi*csi*t)1/2

dove T1 e’ la temperatura del forno. Contrariamente alla legge di Stefen-Boltzmann il trasferimento di calore per conduzione dipende dal tempo t. Quindi la quantita’ di calore trasferita ad 1 cm2 di pizza in un tempo di cottura tc e’ dato da:

Q(tc)=2*k*(T1-To)*(tc/(pi*csi))1/2

che sommata a quella per irraggiamento ci da’:

Qtot(tc)=sigma*(T14-Te4)*tc+2*k*(T1-To)*(tc/(pi*csi))1/2

dove Te e’ la temperatura di evaporazione dell’acqua dall’impasto della pizza (100 gradi) e T1 la temperatura del forno. Per poter ricavare il tempo di cottura tc c’e’ bisogno di determinare la quantita’ totale di calore che arriva sulla pizza per cm2. Per fare questo dobbiamo tener presente che come detto in precedenza Qtot serve per portate l’impasto dalla temperatura di 20 gradi fino a 100 gradi che secondo la legge di Fourier e’ dato da:

Q=c*rho*d*(100-20)=80*c*rho*d

dove c e rho sono il calore specifico e la densita’ dell’impasto e d lo spessore della pizza. Ancora non abbiamo finito. Durante la cottura c’e’ l’evaporazione dell’acqua dall’impasto come anche dal pomodoro, mozzarella e gli altri ingredienti utilizzati e quindi possiamo scrivere:

Q’=a*ca*rho’*d

dove a e’ la frazione di massa dell’acqua evaporata, rho’ la densita’ dell’acqua e ca il calore latente di evaporazione dell’acqua. Q+Q’ e’ la quantita’ di calore per unita’ di area richiesta per portare l’acqua all’ebollizione e poi in fase vapore. Se forniamo calore ad un liquido esso aumenta la sua temperatura fino al momento in cui non raggiunge il suo punto di ebollizione. Durante il passaggio di stato la temperatura del liquido resta invece invariata nonostante l'apporto di calore. Il calore fornito non viene utilizzato per aumentare l'energia cinetica delle particelle, ma si trasforma in un aumento di energia potenziale delle particelle gassose.

Tale calore, assorbito dal sistema senza produrre un aumento di temperatura, è noto come calore latente.

Dall’equazione:

Q+Q’=Qtot

possiamo ricavare tc, il tempo di cottura. Per fare questo pero’ bisogna conoscere la quantita’ di acqua che e’ evaporata durante la cottura della pizza. Una buona assunzione e’ un 20% di perdita di acqua cioe’ a=0.2. Inserendo tutti i valori riportati sino ad ora si ottiene finalmente il tempo di cottura in forno a legna per una pizza romana. Questo risulta essere di 125 secondi. Per il forno elettrico un calcolo analogo porta ad un tempo ottimale di cottura di circa 170 secondi. Effettivamente per una pizza romana i tempi di cottura con un forno a legna si aggirano intorno ai 2 minuti come effettivamente riportato dai pizzaioli di questa citta’. Con questa equazione possiamo anche calcolare quanto tempo e’ necessario per la cottura di una pizza in un forno a legna se la temperatura del forno e’ quella usata dai napoletani e cioe’ di circa 400. In questa caso ci sarebbe una riduzione dei tempi di cottura con un aumento della produttivita’ di circa il 50% (il tempo di cottura si aggira intorno a 82 secondi). Questa la fisica. Interviene poi l’esperienza del pizzaiolo con un magico trucco. Quando sulla pizza ci sono elementi con un alto contenuto di acqua come uova, alici, vegetali il pizzaiolo, una volta verificato che il fondo della pizza e’ cotto la prende con la pala in legno o alluminio e la tiene sollevata dai mattoni del forno per circa 30 secondi. In questo modo si espone la superficie della pizza alla sola radiazione termica. Si evita cosi la bruciatura del fondo della pizza e si ottiene la corretta cottura della superficie. Come spesso si fa in fisica, allo scopo di ottenere dei buoni risultati senza complicare eccessivamente il modello, e’ stato trascurato il terzo modo di trasferimento del calore, quello per convezione visto che il suo effetto e’ trascurabile.

Nonostante tutti gli sforzi tecnologici da parte dei costruttori di forni elettrici (utilizzazione di materiale ceramico come fondo invece dell’acciaio, rotazione della pizza durante la cottura, forni a convezione per simulare il movimento dei gas all’interno di un forno a legna) il forno a legna rimane lo strumento ideale per cuocere una pizza. L’odore del pomodoro e della mozzarella che cuociono misto all’odore della legna che brucia e’ un qualche cosa di unico ed eccezionale che mai nessuna tecnologia potra’ sostituire. Buona pizza a tutti.

domenica 18 marzo 2018

Una nuova fisica al lavoro nell’Universo?


Nel 1929 Hubble annunciò che la velocita’ radiale delle galassie era proporzionale alla loro distanza. In altre parole piu’ una galassia e’ distante da noi, piu’ la sua velocita’ di allontanamento e’ elevata. Il grafico seguente mostra i dati raccolti da Hubble con la velocita’ delle galassie riportata in ordinata e le loro distanze sulle ascisse:

clip_image001

La pendenza della retta che interpola queste misure è ora nota come costante di Hubble H. Dato che sia i kilometri che i Megaparsec sono unità di distanza, l'unità di misura di H è [1/tempo], essendo la velocita’ il rapporto tra spazio e tempo. Ma cosa rappresenta H? Il suo inverso e’ proprio l’eta’ dell’universo secondo la relazione di Hubble:

V=HD      da cui     D=V/H=Vt   con    t=1/H   appunto l’eta’ dell’universo.

Hubble trovo’ per il rapporto 1/H il valore di circa 2 miliardi di anni. Dal momento che tale valore dovrebbe approssimare l'età dell'Universo, e noi sappiamo (era noto anche nel 1929) che l'età della Terra supera i 2 miliardi di anni, il valore di H trovato da Hubble portò ad un generale scetticismo nei confronti dei modelli cosmologici, e fornì una motivazione a favore del modello stazionario, cioe’ quello di un universo non in espansione.

Tuttavia, pubblicazioni successive misero in luce alcuni errori compiuti da Hubble nelle sue misure. La correzione di questi errori portò ad un ridimensionamento verso il basso del valore della costante di Hubble. Attualmente il valore della costante e’ di 65±8 km/s/Mpc.
Con questo valore di H, l'età approssimativa dell'Universo è di 15 miliardi di anni. Qui di seguito i risultati recenti sulla relazione di Hubble la cui pendenza e’ pari a 65 Km/sec/Mpc.

clip_image003

Ma come faceva Hubble a misurare la velocita’ di una galassia lontana? Utilizzando quello che va sotto il nome di spostamento verso il rosso (redshift). La luce o una qualsisi altra radiazione elettromagnetica emessa da un oggetto in movimento ha una lunghezza d'onda maggiore di quella che aveva all'emissione. Ciò equivale a dire che nel caso della luce il colore si sposta nella direzione del rosso che e’ l'estremo inferiore dello spettro del visibile. Al contrario se un’oggetto si sta avvicinando la luce emessa si sposta verso il blu.

clip_image005

image


Se indichiamo con Le la lunghezza d’onda emessa e con Lo quella osservata e’ possibile scrivere:

1+ z=[(1+v/c)/(1-v/c)]1/2

dove c indica la velocita’ della luce, v la velocita’ dell’oggetto e il parametro z e’ dato da:

z=(Lo-Le)/Le

Quindi dalla misura di z cioe’ dello shift della luce si puo’ risalire alla velocita’ dell’oggetto che ha emesso la luce.

Per misurare la distanza delle galassie invece, Hubble aveva a disposizione tre metodologie ognuna valida per un certo intervallo di distanze. Il metodo piu’ antico e’ quello della parallasse che va bene per stelle non oltre i 500 anni luce. Si tratta di una tecnica geometrica che sfrutta lo spostamento delle stelle in primo piano rispetto a quelle fisse dovuto alla rotazione della terra intorno al sole. Il secondo metodo e’ quello delle Cefeidi, un tipo di stelle la cui luminosita’ varia periodicamente e che permettono di calcolare la loro distanza sfruttando la relazione tra quest’ultima e il periodo della loro luminosita’. L’intervallo di applicabilita’ va fino a circa 10 milioni di anni luce. L’ultimo metodo e’ quello delle supernove. Valutando l’andamento della luminosita’ di queste stelle subito dopo la loro esplosione e’ possibile calcolarne la luminosita’ assoluta e quindi la loro distanza. Questa tecnica permette di arrivare a distanze di alcune centinaia di milioni di anni luce.


clip_image009


Ma ritorniamo adesso alla costante di Hubble. E’ di qualche mese fa la notizia dell’utilizzo del telescopio spaziale Hubble per stabilire la misura piu’ precisa mai ottenuta della costante di Hubble. I risultati sono molto intriganti e sembrano evidenziare che ci sia qualche cosa di inaspettato al lavoro nell’universo. Questo perche’ i risultati confermano una fastidiosa discrepanza che mostra l’universo espandersi piu’ velocemente di quanto previsto dai dati relativi ai primi istanti del big bang. Il team di ricercatori capeggiato dal premio Nobel, Riess incluso anche l’italiano Stefano Casertano e Johns Hopkins, ha utilizzato Hubble per 6 anni aumentando il numero di stelle analizzate e con distanze fino a 10 volte maggiori di quelle ottenute precedentemente. Il valore della velocita’ di espansione ottenuto mostra una discrepanza di circa il 9% rispetto a quello previsto considerando i primi 378.000 anni dopo il Big Bang. Prima delle misure del telescopio Hubble, quelle effettuate dalla Agenzia spaziale Europea grazie al satellite Planck, avevano previsto per la costante di Hubble un valore intorno a 67 Km/sec per Megaparsec e non piu’ alto di 69 Km/sec/Mpc. Ma le misure recenti ottenute dal team di Riess riportano un valore della costante di Hubble di ben 73 Km/sec per Megaparsec, indicando che le galassie si stanno muovendo ad una velocita’ di allontanamento maggiore di quella prevista. I risultati della misura della costante di Hubble sono cosi precisi che gli astrofisici non possono non tener conto di questa incongruenza. Il team ritiene che alcune delle possibili spiegazioni per questa differenza siano legate all’universo oscuro che e’ il 95% della materia/energia contenuta nel nostro universo. La materia normale come stelle, pianeti e gas si crede costituisca solo il 5% del nostro universo. Il rimanente per il 25% e’ materia oscura e il 70% energia oscura, entrambi invisibili e mai rilevati in modo diretto. Vediamo la prima possibilita’. L’energia oscura, gia’ conosciuta in passato come fattore di accelerazione del nostro universo, sta spingendo lontano da noi le galassie con molta piu’ forza di quanto previsto. Questo potrebbe significare che l’accelerazione stessa potrebbe non essere costante ma cambiare nel tempo. Se questo fosse vero bisognerebbe allora rivedere il cosiddetto modello ACDM (Lambda cold dark matter) che spiega l’accelerazione del cosmo con la comparsa e scomparsa di particelle virtuali nello spazio vuoto che stirano lo spazio-tempo. Questo continuo ribollire del vuoto infatti non potrebbe spiegare un accelerazione che cambia col tempo.

clip_image011

Un’altra idea e’ quella che l’universo contenga delle nuove particelle subatomiche che viaggiano ad una velocita’ prossima a quella della luce. Si tratta di particelle velocissime, chiamate collettivamente “radiazione oscura”. Probabilmente si tratta di qualche cosa simile alle note particelle chiamate neutrini, creati nelle reazioni nucleari e nei decadimenti radioattivi. Diversamente da un neutrino normale pero’ che interagisce tramite la forza debole, queste nuove particelle dovrebbero essere influenzate solo dalla forza di gravita’ ed e’ per questo che hanno ricevuto il soprannome di “neutrini sterili”. Per analogia con i fotoni che sono i mediatori della forza elettromagnetica tra particelle, i neutrini sterili dovrebbero essere i mediatori delle interazioni tra particelle di materia oscura. E come per le particelle di materia oscura, anche la radiazione oscura non interagisce con la materia nominale. L’ultima possibile spiegazione e’ che la materia oscura interagisca piu’ fortemente con la materia nominale e/o la radiazione di quanto assunto fino ad ora. Al momento il team di Riess non ha una risposta al problema anche se sta continuando a raccogliere misure di stelle lontane per cercare di abbassare ulteriormente l’incertezza e migliorare la precisione sul valore della costante di Hubble.

Dove e’ possibile arrivare partendo da questo risultato?

Guardando i risultati ottenuti fino ad oggi e’ possibile come riportato da Riess, che l’energia oscura giochi un ruolo importante anche se e’ piu’ probabile che sia una qualche nuova particella o qualche cosa che ha a che fare con come interagisce la materia oscura. Normalmente quest’ultima viene considerata come costituita da WIMP, cioe’ da particelle pesanti che interagiscono debolmente con la materia nominale. Bene e’ possibile che l’interazione in fin dei conti non sia cosi debole come pensato. Questo potrebbe cambiare le cose e dare origine ad un qualche cosa simile all’universo che vediamo noi.

E se lo dice il premio Nobel Riess forse c’e’ da credere. Aspettiamo con impazienza le prossime scoperte. Fate le vostre scommesse. La fisica sta diventando misteriosa e magica.

lunedì 24 luglio 2017

Dai bosoni W/Z all’archeologia


Una delle quattro forze fondamentali in natura e’ quella debole detta anche forza nucleare debole. Tale forza e’ responsabile del decadimento beta dei nuclei atomici, una delle reazioni nucleari spontanee (radiottivita’) grazie alle quali elementi chimici instabili si trasformano in altri con diverso numero atomico Z. Quest’ultimo indica il numero di protoni all’interno del nucleo atomico ed e’ pari al numero di elettroni che orbitano intorno al nucleo essendo l’atomo elettricamente neutro. Un altro numero che caratterizza i nuclei atomici e’ il cosiddetto numero di massa A che indica la somma dei protoni e neutroni (detti anche nucleoni) all’interno del nucleo atomico. Ma in cosa consiste il decadimento beta? Nell’emissione di un elettrone o di un positrone (una particella analoga all’elettrone ad eccezione della carica che e’ positiva) da parte del nucleo. Ma come e’ possibile che da un nucleo venga fuori un elettrone/positrone se esso e’ costituito solo da protoni e neutroni? E’ qui che entra in gioco l’interazione debole con i suoi mediatori (cioe’ le particelle che vengono scambiate in una interazione), i bosoni W e Z. Nel modello Standard ci sono tre tipi di bosone: i fotoni, i gluoni e i bosoni W/Z responsabili rispettivamente della forza elettromagnetica, nucleare forte e nucleare debole. I fotoni e gluoni sono senza massa, mentre i bosoni W/Z sono massivi. C’e’ un quarto bosone al momento solo ipotizzato che e’ il gravitone, il mediatore della forza di gravita’. Ma torniamo al nucleo atomico. I neutroni e protoni non sono particelle fondamentali in quanto sono costituite a loro volta da 3 quarks.  Esistono sei diversi tipi di quark: su (u), giu’ (d), incanto (c), strano (s), basso (b) e alto (t) che si distinguono per massa e carica elettrica. Quest’ultima e’ una frazione della carica dell’elettrone e vale -1/3 per quark s, d, b, e +2/3 per i quark u, c, t. I quark formano combinazioni in cui la somma delle cariche e’ un numero intero: protoni e neutroni sono formati  rispettivamente da due quark u e da un quark d, due quark d e uno u entrambi con carica totale 0. I quarks vengono tenuti insieme tra loro, dalla forza forte, la stessa che lega tra loro protoni e neutroni e decadono, a causa della forza debole. Essi si trasformano da u a d e viceversa, trasformando cosi’ protoni in neutroni e viceversa. Un neutrone per esempio, si trasforma in un protone emettendo un bosone W il quale a sua volta decade immediatamente in un elettrone e un antineutrino elettronico.


image


L'osservazione diretta del bosone W è avvenuta nel gennaio del 1983 grazie all'utilizzo dell'acceleratore SPS (Super Proton Synchrotron) del CERN durante gli esperimenti UA1 (condotto dal premio Nobel Carlo Rubbia) e UA2, realizzati grazie agli sforzi di una grande collaborazione di scienziati. Pochi mesi più tardi avvenne anche l'osservazione del bosone Z. Il decadimento beta e’ uno di tre possibili tipi di decadimento radioattivo da parte dei nuclei instabili: decadimento alfa, decadimento beta e decadimento gamma. Nel primo caso si tratta dell’emissione di un nucleo di He (due protoni e due neutroni) da parte del nucleo, nel secondo caso come gia’ detto dell’emissione di un elettrone e nel terzo caso di una diseccitazione del nucleo tramite emissione di un fotone gamma energetico. Per ogni valore di massa atomica A vi sono uno o piu’ nuclei stabili.

image

Per i nuclei instabili il numero di decadimenti al secondo definisce l’attivita’ radioattiva di un materiale, quantita’ indipendente dal tipo di decadimento o dall’energia della radiazione emessa. Contrariamente al decadimento beta in cui avviene la trasformazione di un protone in un neutrone e viceversa, il decadimento alfa e’ un esempio del cosiddetto effetto tunnel previsto dalla meccanica quantistica. Il nucleo puo’ essere modellizzato come una buca di energia all’interno della quale si trovano intrappolati i nucleoni. L’altezza di questa barriera dipende dal rapporto Z/R dove Z e’ il numero di protoni e R il raggio del nucleo. I nucleoni non hanno abbastanza energia per superare la barriera ma possono liberarsi perforandola se questa e’ abbastanza sottile.

clip_image007

Il decadimento beta e’ quello che subisce, insieme a tanti altri, un elemento della nostra tavola periodica alla base della nostra vita: il carbonio.
Questo elemento in natura si presenta con tre isotopi con diverse abbondanze: C12 (99%), C13 (<1%) e C14 (tracce). Tutto gli elementi chimici con un certo numero atomico Z e diverso numero di massa (diverso numero di neutroni) hanno le stesse caratteristiche chimiche avendo la stessa configurazione di elettroni esterni e vengono chiamati isotopi. I primi due isotopi del C sono stabili mentre il terzo e’ radioattivo di natura cosmo genica in quanto si forma in atmosfera in seguito al bombardamento dei raggi cosmici. La reazione viene innescata nel momento in cui l’interazione di un raggio cosmico con un atomo dell’atmosfera produce un neutrone che viene a sua volta assorbito da un atomo di azoto. Questo determina l’espulsione di un protone, per cui il numero atomico si riduce di 1 e il nucleo dell’atomo di azoto si trasforma in un nucleo di carbonio con numero di massa 14:

n + 14N –> 15N –> 14C + 1H+

Il 14C cosi formato non e’ un nuclide stabile e subira’ dopo un certo tempo una disintegrazione tramite emissione beta trasformandosi nello stesso elemento che lo ha generato e cioe l’azoto 14.

14C –> 14N + e- + ave

dove ave e’ l’antineutrino elettronico. La disintegrazione di un nucleo radioattivo e’ un processo statistico e segue le regole dei fenomeni casuali: non e’ possibile in nessun modo sapere quando un nucleo radioattivo si disintegrera’. Tuttavia, anche in presenza di pochi milligrammi di sostanza radioattiva abbiamo a che fare con milioni se non anche miliardi di atomi, per cui da un punto di vista statistico e’ possibile conoscere con buona precisione quanti (ma non quali) di essi si disintegreranno in un certo intervallo di tempo. Il numero di disintegrazioni che avvengono nell’unita’ di tempo viene definito come l’attivita’ della sorgente radioattiva. L’attivita’ si misura in Bequerel che corrisponde ad 1 disintegrazione per secondo. Data una sorgente radioattiva che non scambia materia con l’esterno, mano a mano che i nuclei si disintegrano, il loro numero diminuisce, e quindi diminuisce la probabilita’ di disintegrazioni successive; la radioattivita’ quindi diminuisce allo stesso modo della concentrazione dei nuclei radioattivi. La velocita’ con cui decade un radioisotopo, non e’  costante ma varia nel tempo: man mano che la concentrazione diminuisce, anche la velocita’ diminuisce, per cui il decadimento di un radioisotopo segue una curva di tipo esponenziale.

a1

Se come fatto per il decadimento alfa, modelliziamo il decadimento beta con una buca di potenziale, e’ possibile immaginare che la particella beta sia all’interno del nucleo e continuamente sbatta sulle pareti della buca cercando di uscire fuori. La probabilita’ che questo avvenga e’ molto bassa ma non zero. Per il decadimento del 14C e’ di 3.83*10-12 sec-1. Questo significa che in circa 32000 anni avremo quasi 4 disintegrazioni o allo stesso modo che la probabilita’ per un nucleo di 14C di decadere in un tempo dt e’ data da:

dP=λ*dt

dove lambda e’ proprio la probabilita’ di decadimento per unita’ di tempo. Supponendo di avere N atomi di carbonio 14 ad un istante to, il numero di decadimenti avvenuti nell’intervallo dt successivo e’ dato da:

dN=N*dP=N* λ*dt

dN/N= λ*dt

Integrando ambo i membri si ottiene l’equazione cercata:

N(t)=No*e- λ*t

dove No e’ il numero iniziale di atomi 14C e N(t) il numero di 14C ancora non disintegrati. La differenza tra questi due numeri da’ il numero di atomi che si sono disintegrati nell’intervallo di tempo t. Si definisce tempo di dimezzamento del nucleo radioattivo di un certo tipo, il tempo che occorre perche’ il numero di questi nuclei diminuisca di un fattore 2, cioe’ perche’ il numero di questi nuclei passi da No a No/2. Usando l’equazione esponenziale del decadimento si ricava facilmente il tempo di dimezzamento dato da:

T1/2 =ln(2)/ λ

clip_image010

Maggiore e’ il valore della costante di decadimento minore sara’ il tempo di dimezzamento e piu’ velocemente i nuclidi iniziali si disintegreranno. Il Carbonio 14 ha un tempo di dimezzamento di 5730 anni e questo fa si che possa essere utilizzato come ottimo “orologio” per le datazioni archeologiche.
La tecnica del radiocarbonio permette di datare qualsiasi materiale di origine organica, cioe’ che derivi da qualche cosa che sia stato vivo, come ossa, legno, stoffa, carta, semi, polline, pergamena e pellame in genere, carboni (non fossili) e tessuti  risalendo cosi all’epoca della morte dell’individuo da cui proviene il campione, purche’ non siano passati piu’ di 60000 anni (dopo tale periodo il carbonio 14 residuo e’ talmente esiguo da non permettere misure attendibili neppure con le tecniche piu’ sofisticate). Il metodo di datazione con il 14C fu messo a punto da un team di chimici dell’Universita’ di Chicago diretti da Willard Libby, che per questo ricevette il premio Nobel nel 1960. Le prime datazioni radiocarboniche si ebbero perciò a partire dal 1950. Nonostante col passare del tempo abbiamo capito che i presupposti su cui si basava il metodo di Libby erano veri solo in prima approssimazione, la Comunità Scientifica ha comunque deciso di continuare ad eseguire le datazioni secondo tali assunzioni, ottenendo così una “datazione radiocarbonica convenzionale” (CRA). Tale datazione, fornita dai laboratori, viene poi sottoposta ad una calibrazione, al fine di ottenere la data “reale” di calendario, confrontando la datazione convenzionale con quelle ottenute da campioni di età nota. La data calibrata, soprattutto per certi periodi, si discosta notevolmente da quella convenzionale e va considerata come la miglior stima della data “vera”. La datazione radiocarbonica convenzionale (CRA), non calibrata, è normalmente espressa in anni BP (Before Present, calcolati a ritroso a partire dal 1950) e deve essere sempre pubblicata, insieme a quella calibrata, nelle relazioni scientifiche. La datazione calibrata è invece normalmente espressa come data di calendario (calendar age), in anni BC (Before Christ) o AD (Anno Domini), a seconda che si tratti di anni prima o dopo Cristo. L’assunzione principale su cui si basa il metodo della datazione a radiocarbonio e’ che la frazione di 14C nell’atmosfera terrestre è approssimativamente costante. E visto che esiste un decadimento, deve necessariamente esistere anche una “fonte” da cui “viene generato” continuamente “nuovo” radiocarbonio. Tale “fonte” è il bombardamento dell’atmosfera terrestre ad opera dei raggi cosmici come gia’ anticipato precedentemente. A causa dei raggi cosmici nell’atmosfera si ha la continua trasformazione di atomi di azoto in atomi di radiocarbonio. Appena formatosi, il 14C reagisce con l’ossigeno atmosferico trasformandosi in biossido di carbonio (14CO2, anidride carbonica) radioattivo, che va a mescolarsi con quello composto da carbonio stabile (12CO2 e 13CO2). Data la relativa costanza del flusso cosmico, la velocità con cui il 14C si forma è, in prima approssimazione, costante. Poiché il decadimento è funzione della frazione di isotopo radioattivo presente, si arriva ad un equilibrio: la frazione di 14C si stabilizza su di un valore tale che “tanto ne decade quanto se ne forma”. Tale equilibrio si ha con una frazione di 14C (sotto forma di 14CO2) uguale a 1.2*10-12. In realtà, come vedremo tra poco, il flusso di radiazione cosmica ha avuto nel passato forti fluttuazioni, il che (insieme ad altri fenomeni di minore entità) ha indotto una sensibile variazione della frazione di 14C nell’atmosfera durante i millenni: questo è il principale (ma non unico) motivo per cui si devono calibrare le datazioni radiocarboniche convenzionali. Finché un individuo è vivo, scambia continuamente materia (e quindi anche carbonio) con l’esterno: le piante verdi assimilano anidride carbonica dall’atmosfera con la fotosintesi clorofilliana; gli erbivori mangiano le piante, ma vengono spesso a loro volta mangiati dai carnivori; inoltre piante, erbivori e carnivori respirano (emettendo anidride carbonica), mentre tutti gli animali producono escrementi. Per questo motivo esiste un sostanziale equilibrio tra la frazione di 14C dell’atmosfera e quella presente negli esseri viventi: infatti le molecole contenenti i diversi isotopi del carbonio, reagiscono in maniera del tutto analoga, non essendo chimicamente distinguibili. Perciò la frazione di 14C negli esseri viventi è pressoché la stessa di quella atmosferica. Quando un individuo muore, se non ci sono inquinamenti, non scambia più carbonio con l’ambiente, per cui il suo 14C comincia a diminuire (con ritmo noto) a causa del decadimento radioattivo, non venendo più reintegrato dall’esterno. Da qui la possibilità di datare reperti di origine organica in base alla diminuzione della frazione di 14C. Confrontando la frazione di 14C di un campione da datare con quella di materiale organico recente (“standard moderno”), si può calcolare il tempo trascorso dalla morte dell’individuo da cui il campione deriva. Ma come detto questa datazione chiamata  convenzionale deve essere opportunamente calibrata per tener conto di alcune assunzioni fatte da Libby e risultate non completamente vere. Uno dei presupposti errati, viene corretto subito: si tratta dell’errore indotto dal frazionamento isotopico (in seguito al quale la frazione di 14C in un essere vivente non è la stessa di quella atmosferica). Sappiamo che gli isotopi di un elemento sono chimicamente indistinguibili tra loro, nel senso che reagiscono allo stesso modo, dando luogo agli stessi prodotti; tuttavia, a causa della diversa massa dei loro nuclei, presentano lievi differenze nella velocità di reazione. Poiché durante le trasformazioni biochimiche (fotosintesi, metabolismo) che hanno luogo negli esseri viventi, reagisce solo una certa percentuale di atomi, fino al raggiungimento dell’equilibrio chimico, accade che nei prodotti di reazione tende a crescere la concentrazione degli isotopi più “veloci” a reagire, a discapito di quelli più “lenti”. Nel campione da analizzare, quindi la frazione di 14C residuo non è determinata solo dal tempo trascorso dopo la morte (decadimento radioattivo), ma anche dall’entità del frazionamento isotopico. Fortunatamente è possibile correggere questo errore misurando la frazione 13C/12C nel campione da datare: essendo tali isotopi stabili, una loro variazione rispetto al valore atteso è dovuta esclusivamente al frazionamento isotopico, che può così essere quantificato. Si definisce “δ13C” (“delta-C13”) la variazione (espressa in “per mille”) della frazione 13C/12C del campione in esame rispetto a quella di uno standard internazionale VPDB (Vienna Pee Dee Belemnite) costituito da carbonato di calcio fossile. L’errore indotto dal frazionamento isotopico non è in genere molto grande, ma è giusto correggerlo.
Il calcolo della datazione radiocarbonica convenzionale, cioè della “datazione radiocarbonica non calibrata corretta 13C”, avviene tramite la formula:

tanni=K*ln(Ans/Anc)=K*ln(Rns/Rnc)

dove t e’ il tempo trascorso espresso in anni contato a ritroso a partire dal 1950, K una costante ricavata da un T1/2 convenzionale di 5568 anni detto T1/2 di Libby, Ans l’attivita’ normalizzata (cioe’ corretta rispetto al frazionamento isotopico mediante il delta C13) dello standard moderno, Anc l’attivita’ normalizzata del campione da datare e R il rapporto di 14C/12C con i pedici uguali a quelli gia’ riportati per l’attivita’ A.
Come già riportato, la data radiocarbonica convenzionale si esprime in anni BP (before present) a partire dal 1950. Naturalmente, trattandosi di un dato che scaturisce da misure sperimentali, è affetto da un errore statistico, per cui il risultato viene espresso con un range la cui ampiezza dipende dalla precisione delle misure. Per esempio, una data del tipo: 2950 ± 30 BP (1σ, confidenza del 68,3 %) indica una data radiocarbonica convenzionale (corretta C13 non calibrata) compresa tra il 1030 a.C. ed il 970 a.C., con un grado di confidenza di circa il 68%. Passiamo adesso al cosiddetto effetto serbatoio. Ogni essere vivente è in equilibrio con la sua “riserva” (reservoir) ambientale, che normalmente è costituita dall’atmosfera, dove il 14C è distribuito in maniera omogenea a causa dei continui rimescolamenti meteorologici. Tuttavia esistono anche reperti che provengono da esseri vissuti in fondo a mari o laghi, dove la “riserva” di carbonio può avere una composizione isotopica assai diversa da quella atmosferica: infatti, oltre ad esserci un certo “ritardo” nella diffusione in profondità dell’anidride carbonica, le rocce calcaree di alcuni fondali vengono in parte disciolte dall’acido carbonico dell’acqua e liberano quindi carbonio “antico”, ormai privo di 14C. La “riserva” acquatica fa così “invecchiare” i reperti derivati da esseri che sono vissuti in essa (effetto serbatoio); per questo, occorre porre attenzione anche alle popolazioni che si nutrono prevalentemente di pesce. Ciò comporta errori nelle datazioni dell’ordine di alcuni secoli (in certi casi addirittura millenni!), per cui sono stati approntati dei database di “riserve” acquatiche che forniscono dati per correggere in tal senso le datazioni radiocarboniche ottenute. Tali correzioni vengono effettuate dai software di calibrazione, alcuni dei quali sono appunto collegati con database di “riserve” acquatiche. Per passare dalla datazione convenzionale a quella calibrata si confronta la datazione radiocarbonica CRA con curve di calibrazione, ottenute datando col metodo del radiocarbonio reperti di epoca nota: utilizzando legno ricavato da tronchi datati mediante la dendrocronologia, sono state costruite curve di calibrazione per gli ultimi 11.000 anni. Basandosi invece sulla crescita annuale dei coralli, ci si è potuti spingere fino a circa 24.000 anni fa; ancora più in là (circa 45.000 anni) si può arrivare grazie ai depositi laminari lacustri (varve). La calibrazione si effettua mediante software specializzati, che spesso correggono anche l’eventuale “effetto serbatoio” se si indica il bacino acquatico da cui proviene il reperto. Mentre la datazione radiocarbonica convenzionale viene di solito pubblicata con un range di errore espresso in “± anni”, con confidenza del 68,3% (1 σ), la datazione calibrata viene in genere fornita come intervallo (range) di date di calendario entro il quale la data “vera” ha il 95,4% di probabilità di cadere (limiti di confidenza del 95,4% = 2 σ). Le curve di calibrazione purtroppo non hanno un andamento continuo, ma procedono a “denti di sega”, per cui, ad una datazione radiocarbonica convenzionale, possono corrispondere più datazioni di calendario (calibrate). E’ chiaro che, poiché sia la data radiocarbonica convenzionale, sia la curva stessa di calibrazione hanno un certo margine di errore, confrontando le due, gli errori si combinano, allargando il range dei risultati; inoltre, desiderando una confidenza del 95,4% (invece del 68,3%), ovviamente l’intervallo si fa ancora più ampio. Si può dire quindi che la calibrazione normalmente peggiora la precisione della misura (la dispersione della misura intorno al valore medio), aumentandone tuttavia notevolmente l’accuratezza (cioè la “vicinanza” al valore “vero”). Senza calibrare, si sarebbe molto precisi (con un range magari inferiore a ± 20 anni), ma intorno a date spesso... completamente sbagliate! A titolo di esempio riportiamo la calibrazione riguardante la datazione radiocarbonica della mummia del Similaun:
Data radiocarbonica convenzionale: 4550 ± 19 BP (1 σ, confidenza del 68,3%)

Data calibrata: 3370 - 3320 BC (primo range, 2 σ, confidenza del 95,4%)

3230 - 3100 BC (secondo range, 2 σ, confidenza del 95,4%)

La presenza di due range è dovuta all’andamento seghettato della curva di calibrazione. Possiamo perciò dire che l’uomo del Similaun è vissuto, con 95 probabilità su 100, tra il 3370 ed il 3100 a.C.

clip_image011
clip_image012

Purtroppo questo andamento non lineare della curva di calibrazione dovuto essenzialmente all’attivita’ solare che cambia nel tempo puo’ portare ad una datazione ambigua come il caso qui sotto dove un oggetto di circa 200 anni vecchio potrebbe essere fatto risalire intorno al 1650 o a circa il 1800.

clip_image013

Il sole produce il cosiddetto “vento solare” che deflette i raggi cosmici. I periodi di elevata attivita’ solare coincidono con una bassa produzione di 14C e viceversa come si puo’ vedere dal grafico seguente.

clip_image014

Un altro fattore che determina delle fluttuazioni del contenuto di 14C nell’atmosfera e’ il campo magnetico terrestre. La sua intensita’, infatti, modula la produzione del radiocarbonio in quanto il campo magnetico scherma l’atmosfera dal bombardamento dei raggi cosmici elettricamente carichi riducendo cosi il rapporto di 14C/12C.

clip_image016

I test nucleari in atmosfera sono un’altra sorgente di variabilita’ con un picco di 14C tra il 1950 e il 1960 con un raddoppiamento dell’attivita’ del radiocarbonio. Questa enorme quantita’ di radiocarbonio e’ stata gradualmente rimossa dall’atmosfera dai processi naturali.
clip_image018
Negli ultimi anni durante la rivoluzione industriale un ulteriore inquinamento dell’atmosfera a causa dei combustibili fossili ha determinato un significativo aumento del carbonio stabile in quanto essendo il carbone molto antico non ha piu’ alcuna presenza in esso di 14C.

clip_image020

La datazione radiocarbonica, come anticipato si ottiene confrontando la radioattività specifica del campione da datare con i corrispondenti valori di uno “standard moderno”. Esistono diversi tipi di standard moderno per il 14C ma quello piu’ in uso e’ il cosiddetto Standard Assoluto, costituito da legno del 1890, la cui radioattività specifica e’ riportata alla data convenzionale del 1950, in base al calcolo del decadimento radioattivo. Per lo Standard Assoluto (che a sua volta poi viene utilizzato per tarare gli Standard Primari), è stato scelto legname del 1890 perchè anteriore al XX secolo, durante il quale sono avvenuti, per mano dell’uomo, due fenomeni opposti e fortemente perturbatori della frazione di 14C nell’atmosfera:

1. l’utilizzo di combustibili fossili (carbon fossile, petrolio, metano, mentre in passato si bruciavano solamente legna o carbone di legna) che diminuiscono la frazione di radiocarbonio nell’atmosfera immettendo CO2 praticamente ormai priva di 14C (completamente decaduto dopo milioni di anni).
2. esplosioni nucleari nell’atmosfera (dal 1945 alla metà degli anni Sessanta), che, emettendo neutroni, hanno aumentato notevolmente la frazione di 14C.

Anche operando con le massime precauzioni, nelle misure del 14C esiste sempre un inevitabile “rumore di fondo” (background), introdotto dagli strumenti e/o dall’ambiente in cui si opera. Per questo occorre “sottrarre” il background alle misure effettuate sia sul campione da datare che sullo standard moderno. Per valutare il valore del background si eseguono misure su un apposito “bianco”, cioè su materiale contenente carbonio esclusivamente fossile (antracite, lignite) ormai privo di 14C, trattato e misurato nelle stesse esatte condizioni con cui sono stati trattati e misurati il campione da datare e lo standard moderno. Affinché le correzioni siano efficaci, poiché strumenti, solventi e ambiente variano nel tempo, occorre che le misure sui campioni da datare, sullo standard moderno e sul bianco (trattati allo stesso identico modo) vengano effettuate sullo stesso strumento più o meno contemporaneamente.
Sia il campione da datare, sia lo standard moderno, sia il background, per poter essere misurati, devono subire un trattamento chimico che li trasformi in una forma utilizzabile dallo strumento; tuttavia, prima di procedere alla trasformazione chimica, il campione deve subire un pretrattamento fisico per eliminare ogni forma di inquinamento, nonché per fargli assumere una consistenza adatta alle successive manipolazioni. Il pretrattamento fisico consiste in genere nell’asportazione meccanica delle zone più esterne del campione, le più suscettibili ad essere inquinate; allo scopo vengono utilizzati bisturi, scalpelli e carte abrasive. Nel caso delle stoffe, si ricorre spesso anche ad una “pulizia” con ultrasuoni. Successivamente il campione viene opportunamente sminuzzato per essere più facilmente aggredito dalle sostanze chimiche nei trattamenti successivi. Il pretrattamento chimico varia a seconda della natura del campione da datare e dal tipo di inquinanti che si sospettano essere presenti: in buona parte dei casi, si effettua il cosiddetto “ciclo AAA” (acido-alcalino-acido) che consiste in un primo trattamento a caldo con acido cloridrico (HCl) diluito, per eliminare eventuali tracce di calcare; segue poi uno alcalino con soda (NaOH) per eliminare gli acidi umici di origine organica in genere presenti nel terreno; si esegue quindi un nuovo trattamento acido per eliminare l’eventuale carbonato di calcio formatosi a causa dell’anidride carbonica assorbita dalla soda durante il trattamento alcalino. Spesso viene effettuato anche un lavaggio con solventi organici per eliminare grassi, resine, cere ed altre sostanze liposolubili. Lavando naturalmente con acqua distillata alla fine di ogni passaggio e quindi essiccando. Un caso assai difficile è rappresentato dal materiale osseo: oltre alla grande faciltà ad assorbire impurezze (data la loro struttura porosa), le ossa sono costituite in gran parte da materiale inorganico; inoltre, il poco materiale organico presente (per la maggior parte collagene e poche altre proteine), spesso si altera con inclusione di contaminanti. Vengono utilizzati diversi tipi di analisi e purificazione per isolare materiale quanto piu’ possibile incontaminato. Per questo motivo, anche utilizzando poi per la datazione sistemi molto sensibili, per le ossa è comunque sempre necessaria una maggior quantità di sostanza rispetto ad altri tipi di reperto. Dopo il pretrattamento (fisico e chimico), il campione da datare, lo standard moderno ed il background devono subire un trattamento chimico per assumere una “forma” utilizzabile dagli strumenti con cui verranno misurati. La prima fase consiste nella produzione di anidride carbonica: se si tratta di materiale organico, questo viene bruciato in presenza di ossigeno e di ossido di rame come catalizzatore; se invece si ha a che fare con materiale carbonatico (es. conchiglie), esso viene idrolizzato con acido cloridrico. In ambedue i casi si forma anidride carbonica (CO2), che verrà purificata. Se si effettua la datazione per via radiometrica, si può utilizzare un contatore proporzionale a gas (come fece Libby nei suoi primi esperimenti), soprattutto nelle nuove versioni di piccole dimensioni, utilizzando direttamente l’anidride carbonica (CO2), oppure trasformandola in metano o acetilene. Altrimenti (sempre operando per via radiometrica) si può ricorrere alla scintillazione liquida. In questo caso, l’anidride carbonica (CO2) viene fatta reagire con litio fuso, fino a formare carburo di litio (Li2C2); questi, reagendo con acqua, dà luogo ad acetilene (C2H2), che viene poi trasformata in benzene (C6H6), che è poi miscelato con lo scintillatore per essere “contato” in un beta counter a scintillazione liquida. Se invece si utilizza la tecnica della spettrometria di massa con acceleratore (AMS) per la misura del rapporto C14 su C12, l’anidride carbonica viene ridotta a grafite (carbonio puro) mediante idrogeno (H2) in presenza di un catalizzatore. I piccoli campioni di grafite così ottenuti, depositati su dischetti di alluminio, vengono poi analizzati dal sistema AMS.
Vediamo adesso come funzionano i tre contatori: contatore a gas, contatore scintillatore e AMS. Il primo strumento e’ un contatore che misura la radioattivita’ residua del C14. E’ costituito da un piccolo tubo metallico chiuso alle estremita’ da 2 tappi isolanti (quarzo) al centro del quale e’ teso un elettrodo metallico che viene mantenuto ad un potenziale positivo rispetto al tubo (circa 1000 V). Una volta fatto il vuoto nel tubo viene iniettato il gas da misurare (anidride carbonica, metano o acetilene) ottenuto dal campione da datare. Quando un nucleo radioattivo decade emette un elettrone che viene accelerato verso il filo metallico centrale ionizzando le molecole presenti nel tubo.

Risultati immagini per contatore a gas datazione c14


Questo innesca una vera e propria valanga di elettroni che determina un segnale proporzionale all’energia della particella beta. Il metodo radiometrico è assai preciso quando si ha a disposizione una notevole quantità di materiale non eccessivamente antico, quando cioè c’è una sufficiente quantità di atomi di 14C e quindi di radioattività residua. Passiamo adesso al contatore a scintillazione. In questo caso il campione (benzene) viene miscelato con uno scintillatore liquido costituito da una soluzione contenente una sostanza organica fluorescente che quando viene colpita dalla radiazione beta ne assorbe l’energia per poi rilasciarla immediatamente sotto forma di impulso luminoso (scintilla). Il campione mescolato allo scintillatore viene posto in un boccettino trasparente ed inserito nell’apparato di conteggio (beta counter), dove un fotomoltiplicatore  capta il “lampo” e lo trasforma in un segnale elettrico che viene “contato” da un contatore elettronico.

image

L’ultimo strumento e’ l’AMS cioe’ lo spettrometro di massa. In questo caso il materiale da misurare (campione da datare, standard moderno o “bianco”), sotto forma di piccolissime quantità di grafite (carbonio “puro”, depositato su dischetti di alluminio) viene bombardato, sotto vuoto, da un flusso di ioni di cesio positivi. le particelle ionizzate vengono fatte passare in un tubo curvato a formare un certo angolo (per esempio di 90°), alle estremità del quale è applicata una certa differenza di potenziale. Il tubo è immerso in un campo magnetico di intensità variabile: ad ogni suo valore, saranno solo le particelle di una certa massa ad uscire dall’estremità del tubo (le altre si perderanno “sbattendo” contro le pareti). In questo modo è possibile selezionare all’uscita del tubo particelle di diversa massa (spettrometria di massa). La spettrometria di massa è ampiamente utilizzata nei laboratori chimici (insieme ad altre tecniche analitiche) per individuare la struttura ed il peso molecolare delle molecole.


image




domenica 13 marzo 2016

Matematica e Google

 

image

Molte persone credono che la matematica sia una disciplina fine a se stessa molto astratta e praticamente inutile. I matematici vengono visti come esseri strani che vivono in un universo tutto loro e si occupano di cose che solo loro capiscono e che non servono nella vita di tutti i giorni.

E’ possibile che ci sia qualche cosa di vero in queste affermazioni. Ma di sicuro se non ci fossero stati gli sviluppi matematici fatti negli ultimi anni, molte delle funzionalità che oggi utilizziamo non sarebbero disponibili. La tecnologia avanza con l’avanzare della ricerca matematica e non solo. Anche se molti di noi non se ne accorgono, ogni giorno facciamo uso della matematica. Vogliamo fare un elenco delle applicazioni che vedono coinvolta la ricerca matematica? Proviamoci.

· Fotografia digitale

· Musica digitale

· Film e tv digitali

· Telefonia mobile

· Crittografia

· Navigatore satellitare

· TAC (tomografia assiale computerizzata)

· Previsioni meteo

· Analisi di rischio

· Analisi di economia

· Internet

e tante altre. In questo post, come si intuisce dal titolo ci occuperemo di Internet e in particolare del Page Ranking di Google cioe’ dell’algoritmo utilizzato da Google per assegnare un fattore di importanza alle pagine trovate dal motore di ricerca.

Due studenti dell’Università’ di Stanford, Sergey Brin e Larry Page, hanno fatto la loro fortuna inventando uno dei più potenti motori di ricerca del web “Google”.

Ma cosa deve fare esattamente un motore di ricerca?

Semplicemente ordinare le pagine presenti sul web in base alla loro importanza ogni qualvolta un utente effettua una ricerca. Ma come si può definire l’importanza (page rank) di una pagina?

L’idea dei due studenti e’ stata la seguente.

Ogni pagina web ha una sua propria importanza che deriva dalle connessioni (non direttamente dai contenuti). L’importanza di una pagina viene trasferita in parti uguali alle pagine che essa punta. Quindi l’importanza di una pagina e’ data dalla somma delle frazioni di importanza che gli derivano dalle pagine che ad essa puntano. Facendo ricorso ad una analogia nella vita di tutti i giorni: una persona importante da’ importanza alle persone che frequenta e allo stesso tempo una persona e’ importante se frequenta molte persone importanti.

Passiamo al modello matematico. Supponiamo di numerare le pagine del web da 1 a n. Definiamo la matrice di connettività nel seguente modo:

image

dove i vari elementi sono uguali a 1 se c’e’ un link tra la pagina i e la pagina j altrimenti sono uguali a zero. Facciamo un esempio con 4 pagine, cioè n=4 e supponiamo di avere la seguente matrice di connettività:

image

Schematizziamo le connessioni tra le varie pagine con delle frecce ottenendo il seguente grafo:

image

Sommando i valori della riga i si trova il numero di link che partono dalla pagina i. Indichiamo questo numero con Pi. Sommando, invece, i valori della colonna j si trova il numero di pagine che puntano alla pagina j che indicheremo con Aj. Se adesso indichiamo con xj l’importanza della pagina j risulta che:

image

per j che varia da 1 a n. Considerando il sistema di 4 pagine precedente, possiamo per esempio scrivere:

image

Si tratta, in generale, di un sistema lineare di n equazioni in n incognite. Le soluzioni xj danno il livello di importanza delle singole pagine, cioè il page rank.

Ad oggi, pensate che ci sono circa n=8500000000 pagine attive.

Comunque l’equazione da noi ricavata e’ una versione semplificata. In effetti quella usata da Google e’ data da:

image

dove d e’ un parametro compreso fra 0 e 1, che di solito viene messo a 0.85. I valori di xj sono compresi tra 0 (pagina non importante) e 1 (pagina importantissima.

Ma e’ possibile risolvere un sistema lineare con 8.5 miliardi di incognite? Se utilizzassimo il metodo di eliminazione questo richiederebbe circa 4*109 operazioni matematiche. Sic!

Il calcolatore più veloce esistente al mondo (il Blue Gene dell’IBM) richiederebbe più di 36 milioni di anni per risolvere un tale sistema. Un tempo da ere geologiche....

Eppure Page e Brin calcolano il page rank in continuazione. Come fanno?

Anche se la tecnologia fosse in grado di costruire un computer 1000 volte o anche un milione di volte più veloce sarebbe sempre impossibile risolvere il problema di Google in tempo reale. E allora?

La soluzione la si può ottenere solo sviluppando nuovi metodi matematici. E’ quello che hanno fatto i due sviluppatori di Google che utilizzano il seguente algoritmo.

Prima di tutto assegnano alle pagine dei valori di importanza xj qualsiasi. Inizialmente non importa quale sia il valore. Dopo di che si sostituiscono questi numeri nell’equazione riportata precedentemente ricavando dei nuovi valori di importanza in accordo alla matrice di connettività e ai valori di Pi. A questo punto si inseriscono sempre nella stessa equazione come valori di ingresso xj quelli appena ottenuti. E si ricavano nuovi valori e cosi via. In questo modo viene generata una successione di approssimazioni successive che converge alla soluzione del sistema qualunque siano i valori iniziali utilizzati. Nella figura qui sotto viene riportato l’andamento delle soluzioni del sistema per il caso di 4 pagine riportato sopra come esempio. Notiamo la rapida convergenza delle soluzioni.

image

Andamento delle soluzioni del sistema Page rank per il caso di 4 pagine

Per fare un passo dell’algoritmo qui descritto bisogna eseguire tante moltiplicazioni quanti sono gli elementi non nulli della matrice di connettività C e all’incirca altrettante addizioni. Su ogni riga della matrice C, comunque, mediamente ci sono pochi elementi diversi da zero. Se supponiamo che questo numero sia 50, un passo del metodo iterativo spiegato, su Blue Gene impiegherebbe solo 2 millesimi di secondo. Se anche fossero necessari 1000 passi iterativi basterebbero 2 secondi per approssimare la soluzione di Google.

Fin dalla sua introduzione l’equazione del PageRank  ha ricevuto l’attenzione di moltissimi studiosi che hanno cercato di migliore in tutti i modi il metodo di soluzione del sistema lineare. Qualche anno fa ugruppo di studiosi, tra cui alcuni italiani dell’università’ di Roma e Cagliari, hanno usato un nuovo approccio molto più veloce di quelli esistenti oggi, ricorrendo ad un’analogia con la Fisica Quantistica. In particolare, hanno mostrato che e’ possibile riarrangiare l’equazione Page Rank in modo da ottenere un’equazione simile all’equazione di Schrödinger.

Vi ricordo che l'equazione di Schrödinger rappresenta una delle più importanti conquiste della fisica ed in particolare della meccanica quantistica. Quest'ultima, risalente alla metà degli anni venti e’ stata sviluppata soprattutto da de Broglie e Schrödinger e si basa sul cosiddetto approccio ondulatorio della materia. In questa ottica, si rappresentano le particelle con delle funzioni d'onda in quanto si e’ visto che in certi esperimenti le particelle elementari mostrano comportamenti ondulatori. La funzione d’onda va interpretata in termini probabilistici, cioè il suo modulo al quadrato altro non rappresenta che la probabilità di trovare la particella in un punto x al tempo t. L’equazione di Schrodinger e’ scritta come:

image

dove psi e’ la funzione d’onda, i e’ l’unita immaginaria, h tagliato una costante fisica, m la massa della particella, V(x) il potenziale in cui e’ immersa la particella e i simboli d/dt e d2/dx2 sono la derivata rispetto al tempo e la derivata seconda rispetto alla posizione rispettivamente. Si rimanda il lettore ad un qualsiasi testo di analisi matematica per la definizione di derivata. In parole molto semplici la derivata di una funzione f rispetto al tempo, df/dt , indica quanto rapidamente f cambia al variare del tempo.

Esprimere il PageRank in termini di una funzione d’onda che obbedisce ad un’equazione simil-Schrödinger permette, secondo questo studio, di localizzare velocemente le pagine con un rank più alto senza utilizzare procedure iterative, chiarendo nel contempo il ruolo della topologia nella diffusione delle informazioni nelle reti complesse.

Nell’equazione riarrangiata del PageRank, il potenziale V dell’equazione di Schrödinger corrisponde alla differenza tra il numero di links entranti Pj e il numero di links uscenti Aj da ogni pagina (i nodi della rete mostrata qui di seguito).

 

image

Rappresentazione dell’equazione PageRank e la sua controparte quantistica. Nelle immagini in basso vengono rappresentati il potenziale V e il corrispondente PageRank misurato lungo dei dischi concentrici intorno ad un vertice.

Quando il potenziale V e’ minore di zero (minima energia) la funzione d’onda dell’equazione PageRank e’ localizzata in questa buca di potenziale e il suo valore e’ massimo, indicando che quel nodo, cioè la pagina e’ importante.

Allo stesso modo, quando il potenziale V e’ positivo la funziona d’onda e’ localizzata in questo picco di potenziale e mostra il suo valore più basso, indicando che la pagina non e’ importante.

Questa analogia formale con la fisica quantistica mette a disposizione dello studio del PageRank una serie di strumenti teorici consolidati, sviluppati dai fisici, come la teoria perturbativa.

La differenza di scala tra il mondo delle particelle sub-atomiche ed il Web è enorme ma i ricercatori sono convinti che il loro lavoro potrà portare benefici a tutto quel campo di ricerca che si collega al  PageRank  e che comprende, per esempio, la propagazione della fiducia nei social network od una più efficiente classificazione delle pagine web.

image

Curve di livello del potenziale V e della funzione d’onda. Si può vedere come in prossimità del minimo del potenziale corrisponde il massimo della funzione d’onda e quindi dell’importanza della pagina web. Il calcolo e’ stato effettuato sempre considerando i dischi concentrici dell’immagine precedente

http://www.wikio.it