martedì 22 agosto 2017

I numeri intoccabili

Oggi vi voglio parlare di una particolare classe di numeri interi positivi: i numeri intoccabili. Anni fa mi occupai di questi numeri e in particolare di una loro sottoclasse: i numeri intoccabili unitari. A quel tempo nessuno conosceva la sequenza di tali numeri e dopo averli studiati fui in grado di stabilire quali degli interi tra 1 e 1000 appartenevano a tale sottoclasse. Tutto cio’ e’ stato documentato dal matematico Richard Guy nel suo famossisimo libro: Unsolved Problems in Number Theory, e dal matematico Hee-Sung Yang nella sua tesi discussa presso il Dartmouth College d’Inghilterra nel 2012.







Ma procediamo con ordine e vediamo di cosa stiamo parlando. Prima di tutto perche’ intoccabili? Semplicemente perche’ vengono evitati da tutti gli altri numeri che non vogliono avere nulla a che fare con loro nel senso che non li vogliono fra i loro divisori. Ma cosa sono i divisori? In matematica un divisore di un intero N, anche chiamato un suo fattore, e’ un intero M che moltiplicato per qualche altro intero K ritorna N. In questo caso si dice anche che N e’ un multiplo di M. Un intero N e’ divisibile per un altro intero M se M e’ un divisore di N; questo implica che dividendo N per M non lascia nessun resto. Infatti se N=K*M allora N/M=K cioe’ il rapporto e’ un numero intero. Introduciamo adesso alcune funzioni molto importanti in Teoria dei Numeri, la branca della matematica che studia le proprieta’ dei numeri interi: la funzione divisori e la funzione divisori unitari. La prima e’ una funzione aritmetica legata ai divisori di un intero e compare in un numero elevato di relazioni. Essa fu studiata da Ramanujan che determino’ alcune sue importanti proprieta’. In generale questa funzione viene definita come:



dove x e’ un qualsiasi numero reale o complesso e

d|n

indica che d divide n. In altri termini questa funzione e’ la somma delle potenze x-esime dei divisori positivi di n. Per quello che interessa a noi analizzeremo il caso x=0 e x=1:

σ0(n), e’ il numero di divisori del numero n
σ1(n) e’ la somma dei divisori di n

Un’altra funzione legata ai divisori e’ la cosiddetta somma aliquota (aliquot sum) di n che e’ la somma dei divisori propri di n cioe’ la somma di tutti i divisori di n escluso n stesso, cioe’ s(n)=σ1(n) – n.
Qui di seguito il grafico della funzione σ0(n) e σ1(n) per n fino a 250.





Facciamo un esempio. Consideriamo n=12. In questo caso avremo:




mentre la somma di tutti i divisori sara’:



e la somma aliquota, cioe’ la somma dei divisori propri:



Qui una tabella riassuntiva dei primi 16 numeri interi:




Adesso possiamo introdurre la definizione di numeri intoccabili. Si chiamano “intoccabili” i numeri interi positivi che non sono la somma dei divisori propri di alcun numero. In altri termini, sono quei numeri n per cui non esiste alcun intero k  per il quale valga:

n = σ1(k) – k=s(k)

Il numero 4, per esempio non puo’ essere intoccabile in quanto esiste un valore k=9 tale che n=4. Il numero 5 invece e’ intoccabile in quanto non esiste alcun numero intero k per cui n puo’ essere scritto come σ1(k) – k, cioe’ 5 non e’ la somma dei divisori propri di nessuno degli interi positivi. In parole semplici, immaginate di avere a disposizione una tabella come quella di sopra per tutti i numeri interi n; i numeri intoccabili sono gli interi che non compaiono mai nell’ultima colonna della tabella.
I primi numeri intoccabili sono:

2, 5, 52, 88, 96, 120, 124, 146, 162, 188, 206, 210, 216, 238, 246, 248,262, 268, 276, 288, 290, 292, 304, 306, 322, 324, 326, 336, 342, 372, 406, 408, 426, 430, 448, 472, 474, 498, ... (sequenza A005114 nell’enciclopedia degli interi on line OEIS)

Il famoso matematico Erdos, nel 1973 dimostro’ che i numeri intoccabili sono infiniti e si pensa che il numero primo 5 sia l’unico intoccabile dispari. Al momento si tratta solo di una congettura che aspetta una dimostrazione. Essa comunque sembra ragionevole in quanto segue dalla congettura forte di Goldbach che stabilisce che ogni numero pari maggiore di 6 puo’ essere scritto come la somma di due primi distinti cioe’ 2n=p+q con p e q numeri primi. Consideriamo un numero dispari 2n+1 maggiore di 7. Se la congettura di Goldbach e’ vera allora possiamo scrivere 2n=p+q da cui abbiamo 2n+1=p+q+1. Ma p+q+1 altro non e’ che la somma dei divisori propri del numero intero p*q e quindi 2n+1= s(p*q) il che significa che 2n+1>7 non e’ intoccabile. Quindi non esiste nessun numero intoccabile dispari maggiore di 7. Essendo inoltre 1, 3 e 7 tutti non intoccabili come si puo’ vedere dalla tabella riportata sopra questo significa che 5 dovrebbe essere l’unico numero intoccabile dispari. Dovrebbe perche’ al momento anche quella di Goldbach e’ solo una congettura.
Tutti i numeri intoccabili, tranne 2 e 5, sono numeri composti (cioe’ un numero che ha almeno un altro divisore oltre a 1 e se stesso) e nessun numero perfetto (un numero n per cui la somma dei suoi divisori propri e’ uguale al numero stesso n) può essere un intoccabile (come esempio vedi il caso del numero perfetto 6 nella tabella riportata sopra). Se i numeri perfetti sono al primo posto nella “scala sociale” dei numeri, gli intoccabili sono all’ultimo. Allo stesso modo nessuno dei numeri amichevoli e socievoli puo’ essere intoccabile. Nel 2011 i cinesi Y-G Chen e Q-Q Zhao hanno dimostrato che la densita’ dei numeri intoccabili, cioe’ il rapporto tra il numero di intoccabili fino a N ed N stesso e’ almeno il 6% anche se non e’ noto se tende a un limite. Dal grafico della densita’ in funzione di N si puo’ congetturare che il limite esista e’ che e’ prossimo al 16%. Ma come sempre in matematica serve una dimostrazione e non una semplice congettura.



Ancora qualche altra proprieta’ dei numeri intoccabili. Se con p indichiamo un qualsiasi numero primo allora i numeri p+1 e p+3 di sicuro non sono intoccabili. Vediamo perche’. Consideriamo il numero k=p2 . La somma dei suoi divisori e’ data da σ1(p2)=1+p+p2 essendo p un numero primo (provate ad usare p=3 per verificare che la somma dei divisori di 9 e’ proprio 1+3+9).
Portando p2 al primo membro otteniamo σ1(p2)-p2=1+p, e quindi esiste un numero k=p2 per cui la somma dei suoi divisori propri e uguale a 1+p e quindi tale numero non puo’ essere intoccabile. Analogamente per il numero p+3. In questo caso esiste un numero k=2p tale che la somma dei suoi divisori propri e’ ugule a p+3. Infatti σ1(2p)=1+2+p+2p (pensate per esempio al caso p=5) da cui si ottiene σ1(2p)-2p=3+p. Il caso 1+p puo’ essere facilmente generalizzato al numero 1+p+p2+p3+….+pn-1 con n un intero positivo, che non puo’ essere intoccabile in quanto σ1(pn)=1+p+p2+p3+…+pn da cui deriva: σ1(pn)-pn=1+p+p2+p3+…..pn-1. Allo stesso modo ci si puo’ divertire a mostrare quali altri numeri sono di sicuro non intoccabili. Osserviamo per esempio, che la somma dei divisori del numero pn*q con p e q due primi ed n un numero naturale qualsiasi e’ data da:

σ1(pn)=1+p+p2+p3+…..pn+q+pq+p2q+…+pnq

da cui otteniamo:

σ1(pn)-pnq=1+p+p2+p3+….+pn+q+pq+p2q+…+pn-1q

e quindi di sicuro il numero:

1+p+p2+p3+….+pn+q+pq+p2q+…+pn-1q

non e’ intoccabile. Provate a sostituire p=2, n=3 e q=3 per convicervi che e’ cosi.
Diamo adesso un’occhiata a quella che in Teoria dei numeri si chiama gap, cioe’ la distanza tra termini successivi di una qualsiasi sequenza numerica. Qui di seguito le distanze tra i primi 30 numeri intoccabili (vedi colonna gap). Ad un primo sguardo sembra che non emerga nessun tipo di pattern particolare. Ma guardando attentamente possiamo vedere che ogni tanto compaiono dei numeri intoccabili a distanza di 2 (ricordare che non e’ possibile avere numeri consecutivi intoccabili, cioe’ a distanza 1 se viene provato che 5 e’ l’unico numero intoccabile dispari) e che a volte questi 2 formano delle doppiette, triplette, quadriplette e cosi via. Per esempio 246 e 248 e’ la doppietta piu’ piccola di numeri intoccabili. 288, 290 e 292 la tripletta piu’ piccola e cosi via. Esistono tutte le n-plette da 2 all’infinito? Al momento nessuno conosce la risposta. Se non sono infinite quale’ allora il suo limite superiore?



Qui di seguito l’istogramma del gap dei primi 8153 numeri intoccabili. La maggior parte degli intoccabili amano stare ad una distanza 2 uno dall’altro, seguito poi da 4, 6 8 e cosi via secondo una legge esponenziale. E’ possibile quindi congetturare che tra i numeri intoccabili esistano tutte le distanze pari (gap) da 2 all’infinito.



Prima di passare ai numeri intoccabili unitari dobbiamo parlare dei divisori unitari. In matematica, un numero intero m e’ un divisore unitario di un numero n se m e’ un divisore di n e se m e il rapporto n/m sono coprimi, cioe’ non hanno alcun fattore comune altro che 1. Il numero 5, per esempio e’ un divisore unitario di 60, perche’ 5 e 60/5 hanno solo 1 come fattore comune. Al contrario 6 e’ un divisore di 60 ma non e’ unitario in quanto 6 e 60/6 hanno come fattori comuni 2 e 3. Il numero 1 e’ il divisore unitario di ogni numero naturale. Per ogni numero n, il numero di divisori unitari e’ pari a 2k dove k e’ il numero di fattori primi distinti di n. Per esempio se n=10, avremo 2 distinti fattori 2 e 5 e quindi il numero di divisori unitari e’ 4. Nel caso invece di n=8 in questo caso il numero di fattori primi distinti e’ 1 essendo 8=2x2x2 e quindi il numero di divisori unitari di 8 e’ 2. Una proprieta’ molto importante per tali divisori e’ quella che stabilisce che tutti i divisori di un numero n sono unitari se e solo se n e’ square-free cioe’ se tra i sui fattori primi non ci sono quadrati perfetti. Prendiamo il numero 10. I suoi fattori primi sono 2 e 5 e quindi si tratta di divisori unitari. Consideriamo adesso 18. I suoi fattori primi sono 32 e 2 e quindi in questo caso essendo n non square-free non tutti i suoi divisori sono unitari (come per esempio il fattore 3). Un’altra proprieta’ facilmente dimostrabile e’ che un qualsiasi numero naturale M=pn con p un primo ed n un intero positivo ha come divisori unitari solo 1 ed M stesso. I divisori di M infatti, sono 1, p, p2, p3,…..pn e nessuno di questi ad eccezione di 1 ed M formano una coppia coprima (pk, pn/pk) essendo p un fattore comune per k compreso tra 1 ed n. Come fatto con i divisori, anche per i divisori unitari possiamo costruire una funzione somma che indichiamo sempre con la lettera greca sigma ma apponendo un asterisco come apice.



In questo caso essendo i divisori del numero n unitari, significa che d e n/d non hanno fattori comuni il che si puo’ esprimere come gcd(d,n/d)=1. Gcd indica il massimo comun divisore tra due numeri. Per esempio gcd(12,90)=6. I divisori di 90 infatti sono:

1, 2, 3, 5, 6, 9, 10, 15, 18, 30, 45, 90

e quelli di 12:

1, 2, 3, 4, 6, 12

e quindi i fattori comuni tra i due numeri sono 1, 2, 3 e 6 di cui 6 e’ il massimo.
Se l’unico divisore comune e’ 1 allora i due numeri sono coprimi o anche relativamente primi. Analogamente alla definizione di numeri intoccabili, gli unitari intoccabili sono quei numeri interi positivi che non sono la somma dei divisori unitari propri di alcun numero. In altri termini, sono i numeri n per cui non esiste alcun intero k per il quale valga:

n = σ*1(k) – k=s*(k).

Qui di seguito gli intoccabili unitari minori di 10000

2, 3, 4, 5, 7, 374, 702, 758, 998, 1542, 1598, 1778, 1808, 1830, 1974, 2378, 2430, 2910, 3164, 3182, 3188, 3216, 3506, 3540, 3666, 3698, 3818, 3846, 3986, 4196, 4230, 4574, 4718, 4782, 5126, 5324, 5610, 5738, 5918, 5952, 6002, 6174, 6270, 6404, 6450, 6510, 6758, 6822, 6870, 6884, 7110, 7178, 7332, 7406, 7518, 7842, 7902, 8258, 8400, 8622, 8670, 8790, 8850, 8862, 8916, 8930, 8982, 9116, 9518, 9522, 9558, 9570, 9582, 9642, 9930 (sequenza A063948 in OEIS)

Come gia’ riportato per gli intoccabili, se assumiamo la veridicita’ della congettura forte di Goldbach, allora gli unici numeri dispari intoccabili unitari saranno 3,5 e 7. E gli unici primi intoccabili unitari saranno 2, 3, 5, e 7.
Quanto sono frequenti i numeri intoccabili unitari tra i numeri naturali? Sembrerebbe non molto se guardiamo la seguente tabella che riporta il numero di intoccabili unitari minori o uguali a diverse potenze di 10. Tra o e 1 miliardo ci sono solo circa 11.000.000 di intoccabili unitari.



Cosa possiamo dire sulla loro densita’, cioe’ sul rapporto tra il numero di intoccabili unitari minori o uguali a N ed N stesso?



L’andamento di tale funzione ci permette di congetturare una convergenza asintotica ad un valore costante che potrebbe essere prossimo all’1%. Questo dovrebbe significare che man mano ci spostiamo verso i numeri naturali sempre piu’ grandi, avremo in media 1 numero intoccabile unitario ogni 100 numeri naturali. Proviamo adesso a vedere come si comporta la distribuzione asintotica dei numeri intoccabili unitari. Vogliamo studiare cioe’ il comportamento della funzione
Π(N) = numero di intoccabili unitari minori o uguali ad N
per N che tende all’inifinito.
Il grafico di tale funzione per il primo miliardo di numeri naturali ha un andamento chiaramente lineare dopo un plateau iniziale. Continuera’ sempre con questa pendenza fino all’infinito? Nessuno lo sa al momento. Possiamo solo pensare che sia cosi.



Un altro grafico che possiamo costruire e’ quello che riporta il rapporto N/Π(N) in funzione di N sempre per il primo miliardo di numeri naturali. Ovviamente questo andamento e’ speculare rispetto alla densita’ vista precedentemente.



Se proviamo a fare un fit non lineare di questi punti otteniamo una funzione del tipo
N/ Π(N)=a+b/(1+(N/c)d)
con le costanti a,b,c e d tutte positive ed un R2 maggiore del 98%. Visto che siamo interessati all’andamento asintotico, possiamo trascurare l’1 al denominatore essendo (N/c)d >> 1. Quindi:

N/ Π(N)=a+b/(N/c)d

da cui otteniamo:

Π(N)=N/(a+b’/Nd)

avendo indicato con b’>0 il prodotto bcd. Ma per valori di N sempre piu’ grandi il rapporto b’/Nd tendera’ a zero e in definitiva la funzione Π avra’ un comportamento lineare (con 1/a=a’):

Π(N)=N/a --> a’N

mentre la densita’ convergera’ ad un valore costante:

Π(N)/N -->1/a=a’

Come gia’ detto piu’ volte, questi risultati sono di tipo euristico e attendono una dimostrazione matematica rigorosa. Qualcuno vuole provarci?
Cosa possiamo dire invece sulle n-uplette di numeri intoccabili unitari positivi con piu’ di una cifra e con distanza 2 tra loro? Tra i primi 10000 intoccabili unitari la doppietta piu’ piccola e’ 30756, 30758.
Non e’ stata trovata invece nessuna tripletta. Resta quindi aperta l’individuazione della piu’ piccola tripletta di numeri intoccabili unitari. Esistono infinite n-uplette o queste sono finite? E in quest’ultimo caso quale e’ il limite superiore? Come fatto per gli intoccabili diamo un’occhiata alla distribuzione delle distanze tra i numeri intoccabili unitari. In questo caso la distribuzione non mostra la regolarita’ osservata pr quella dei numeri intoccabili. C’e’ una notevole frastagliatura con dei picchi che emergono qua e la. Si puo’ osservare, comunque una prevalenza di picchi per distanze pari a 12 o suoi multipli (verificato fino a 132). Non so se questo e’ stato gia’ osservato o studiato da qualcuno. Certo non sembra un pattern casuale e andrebbero aggiunti piu’ numeri ai 10000 che ho considerato io per stabilirne la reale presenza. Anche qui un altro quesito che al momento rimane aperto.



Chiudiamo il post riportando alcuni tipi di numeri che non possono essere intoccabili unitari:

1+p+q
1+p2+2n
1+q+p2
1+n+p

con p e q numeri primi ed n un qualsiasi numero intero positivo.
La dimostrazione e’ molto semplice. Per il primo caso esiste un numero k=pq tale che s*(k)=1+p+q. Per il secondo caso questo numero e’ k=2np, per il terzo k=p2q e per l’ultimo k=np.
Qui alcuni siti interessanti che parlano di classi di numeri, sequenze e teoria dei numeri per chi vuole approfondire.

http://www.bitman.name/home/      in italiano
http://oeis.org/
http://www.openproblemgarden.org/category/number_theory_0
http://math.ucalgary.ca/math_unitis/profiles/richard-guy 

lunedì 24 luglio 2017

Dai bosoni W/Z all’archeologia


Una delle quattro forze fondamentali in natura e’ quella debole detta anche forza nucleare debole. Tale forza e’ responsabile del decadimento beta dei nuclei atomici, una delle reazioni nucleari spontanee (radiottivita’) grazie alle quali elementi chimici instabili si trasformano in altri con diverso numero atomico Z. Quest’ultimo indica il numero di protoni all’interno del nucleo atomico ed e’ pari al numero di elettroni che orbitano intorno al nucleo essendo l’atomo elettricamente neutro. Un altro numero che caratterizza i nuclei atomici e’ il cosiddetto numero di massa A che indica la somma dei protoni e neutroni (detti anche nucleoni) all’interno del nucleo atomico. Ma in cosa consiste il decadimento beta? Nell’emissione di un elettrone o di un positrone (una particella analoga all’elettrone ad eccezione della carica che e’ positiva) da parte del nucleo. Ma come e’ possibile che da un nucleo venga fuori un elettrone/positrone se esso e’ costituito solo da protoni e neutroni? E’ qui che entra in gioco l’interazione debole con i suoi mediatori (cioe’ le particelle che vengono scambiate in una interazione), i bosoni W e Z. Nel modello Standard ci sono tre tipi di bosone: i fotoni, i gluoni e i bosoni W/Z responsabili rispettivamente della forza elettromagnetica, nucleare forte e nucleare debole. I fotoni e gluoni sono senza massa, mentre i bosoni W/Z sono massivi. C’e’ un quarto bosone al momento solo ipotizzato che e’ il gravitone, il mediatore della forza di gravita’. Ma torniamo al nucleo atomico. I neutroni e protoni non sono particelle fondamentali in quanto sono costituite a loro volta da 3 quarks.  Esistono sei diversi tipi di quark: su (u), giu’ (d), incanto (c), strano (s), basso (b) e alto (t) che si distinguono per massa e carica elettrica. Quest’ultima e’ una frazione della carica dell’elettrone e vale -1/3 per quark s, d, b, e +2/3 per i quark u, c, t. I quark formano combinazioni in cui la somma delle cariche e’ un numero intero: protoni e neutroni sono formati  rispettivamente da due quark u e da un quark d, due quark d e uno u entrambi con carica totale 0. I quarks vengono tenuti insieme tra loro, dalla forza forte, la stessa che lega tra loro protoni e neutroni e decadono, a causa della forza debole. Essi si trasformano da u a d e viceversa, trasformando cosi’ protoni in neutroni e viceversa. Un neutrone per esempio, si trasforma in un protone emettendo un bosone W il quale a sua volta decade immediatamente in un elettrone e un antineutrino elettronico.


image


L'osservazione diretta del bosone W è avvenuta nel gennaio del 1983 grazie all'utilizzo dell'acceleratore SPS (Super Proton Synchrotron) del CERN durante gli esperimenti UA1 (condotto dal premio Nobel Carlo Rubbia) e UA2, realizzati grazie agli sforzi di una grande collaborazione di scienziati. Pochi mesi più tardi avvenne anche l'osservazione del bosone Z. Il decadimento beta e’ uno di tre possibili tipi di decadimento radioattivo da parte dei nuclei instabili: decadimento alfa, decadimento beta e decadimento gamma. Nel primo caso si tratta dell’emissione di un nucleo di He (due protoni e due neutroni) da parte del nucleo, nel secondo caso come gia’ detto dell’emissione di un elettrone e nel terzo caso di una diseccitazione del nucleo tramite emissione di un fotone gamma energetico. Per ogni valore di massa atomica A vi sono uno o piu’ nuclei stabili.

image

Per i nuclei instabili il numero di decadimenti al secondo definisce l’attivita’ radioattiva di un materiale, quantita’ indipendente dal tipo di decadimento o dall’energia della radiazione emessa. Contrariamente al decadimento beta in cui avviene la trasformazione di un protone in un neutrone e viceversa, il decadimento alfa e’ un esempio del cosiddetto effetto tunnel previsto dalla meccanica quantistica. Il nucleo puo’ essere modellizzato come una buca di energia all’interno della quale si trovano intrappolati i nucleoni. L’altezza di questa barriera dipende dal rapporto Z/R dove Z e’ il numero di protoni e R il raggio del nucleo. I nucleoni non hanno abbastanza energia per superare la barriera ma possono liberarsi perforandola se questa e’ abbastanza sottile.

clip_image007

Il decadimento beta e’ quello che subisce, insieme a tanti altri, un elemento della nostra tavola periodica alla base della nostra vita: il carbonio.
Questo elemento in natura si presenta con tre isotopi con diverse abbondanze: C12 (99%), C13 (<1%) e C14 (tracce). Tutto gli elementi chimici con un certo numero atomico Z e diverso numero di massa (diverso numero di neutroni) hanno le stesse caratteristiche chimiche avendo la stessa configurazione di elettroni esterni e vengono chiamati isotopi. I primi due isotopi del C sono stabili mentre il terzo e’ radioattivo di natura cosmo genica in quanto si forma in atmosfera in seguito al bombardamento dei raggi cosmici. La reazione viene innescata nel momento in cui l’interazione di un raggio cosmico con un atomo dell’atmosfera produce un neutrone che viene a sua volta assorbito da un atomo di azoto. Questo determina l’espulsione di un protone, per cui il numero atomico si riduce di 1 e il nucleo dell’atomo di azoto si trasforma in un nucleo di carbonio con numero di massa 14:

n + 14N –> 15N –> 14C + 1H+

Il 14C cosi formato non e’ un nuclide stabile e subira’ dopo un certo tempo una disintegrazione tramite emissione beta trasformandosi nello stesso elemento che lo ha generato e cioe l’azoto 14.

14C –> 14N + e- + ave

dove ave e’ l’antineutrino elettronico. La disintegrazione di un nucleo radioattivo e’ un processo statistico e segue le regole dei fenomeni casuali: non e’ possibile in nessun modo sapere quando un nucleo radioattivo si disintegrera’. Tuttavia, anche in presenza di pochi milligrammi di sostanza radioattiva abbiamo a che fare con milioni se non anche miliardi di atomi, per cui da un punto di vista statistico e’ possibile conoscere con buona precisione quanti (ma non quali) di essi si disintegreranno in un certo intervallo di tempo. Il numero di disintegrazioni che avvengono nell’unita’ di tempo viene definito come l’attivita’ della sorgente radioattiva. L’attivita’ si misura in Bequerel che corrisponde ad 1 disintegrazione per secondo. Data una sorgente radioattiva che non scambia materia con l’esterno, mano a mano che i nuclei si disintegrano, il loro numero diminuisce, e quindi diminuisce la probabilita’ di disintegrazioni successive; la radioattivita’ quindi diminuisce allo stesso modo della concentrazione dei nuclei radioattivi. La velocita’ con cui decade un radioisotopo, non e’  costante ma varia nel tempo: man mano che la concentrazione diminuisce, anche la velocita’ diminuisce, per cui il decadimento di un radioisotopo segue una curva di tipo esponenziale.

a1

Se come fatto per il decadimento alfa, modelliziamo il decadimento beta con una buca di potenziale, e’ possibile immaginare che la particella beta sia all’interno del nucleo e continuamente sbatta sulle pareti della buca cercando di uscire fuori. La probabilita’ che questo avvenga e’ molto bassa ma non zero. Per il decadimento del 14C e’ di 3.83*10-12 sec-1. Questo significa che in circa 32000 anni avremo quasi 4 disintegrazioni o allo stesso modo che la probabilita’ per un nucleo di 14C di decadere in un tempo dt e’ data da:

dP=λ*dt

dove lambda e’ proprio la probabilita’ di decadimento per unita’ di tempo. Supponendo di avere N atomi di carbonio 14 ad un istante to, il numero di decadimenti avvenuti nell’intervallo dt successivo e’ dato da:

dN=N*dP=N* λ*dt

dN/N= λ*dt

Integrando ambo i membri si ottiene l’equazione cercata:

N(t)=No*e- λ*t

dove No e’ il numero iniziale di atomi 14C e N(t) il numero di 14C ancora non disintegrati. La differenza tra questi due numeri da’ il numero di atomi che si sono disintegrati nell’intervallo di tempo t. Si definisce tempo di dimezzamento del nucleo radioattivo di un certo tipo, il tempo che occorre perche’ il numero di questi nuclei diminuisca di un fattore 2, cioe’ perche’ il numero di questi nuclei passi da No a No/2. Usando l’equazione esponenziale del decadimento si ricava facilmente il tempo di dimezzamento dato da:

T1/2 =ln(2)/ λ

clip_image010

Maggiore e’ il valore della costante di decadimento minore sara’ il tempo di dimezzamento e piu’ velocemente i nuclidi iniziali si disintegreranno. Il Carbonio 14 ha un tempo di dimezzamento di 5730 anni e questo fa si che possa essere utilizzato come ottimo “orologio” per le datazioni archeologiche.
La tecnica del radiocarbonio permette di datare qualsiasi materiale di origine organica, cioe’ che derivi da qualche cosa che sia stato vivo, come ossa, legno, stoffa, carta, semi, polline, pergamena e pellame in genere, carboni (non fossili) e tessuti  risalendo cosi all’epoca della morte dell’individuo da cui proviene il campione, purche’ non siano passati piu’ di 60000 anni (dopo tale periodo il carbonio 14 residuo e’ talmente esiguo da non permettere misure attendibili neppure con le tecniche piu’ sofisticate). Il metodo di datazione con il 14C fu messo a punto da un team di chimici dell’Universita’ di Chicago diretti da Willard Libby, che per questo ricevette il premio Nobel nel 1960. Le prime datazioni radiocarboniche si ebbero perciò a partire dal 1950. Nonostante col passare del tempo abbiamo capito che i presupposti su cui si basava il metodo di Libby erano veri solo in prima approssimazione, la Comunità Scientifica ha comunque deciso di continuare ad eseguire le datazioni secondo tali assunzioni, ottenendo così una “datazione radiocarbonica convenzionale” (CRA). Tale datazione, fornita dai laboratori, viene poi sottoposta ad una calibrazione, al fine di ottenere la data “reale” di calendario, confrontando la datazione convenzionale con quelle ottenute da campioni di età nota. La data calibrata, soprattutto per certi periodi, si discosta notevolmente da quella convenzionale e va considerata come la miglior stima della data “vera”. La datazione radiocarbonica convenzionale (CRA), non calibrata, è normalmente espressa in anni BP (Before Present, calcolati a ritroso a partire dal 1950) e deve essere sempre pubblicata, insieme a quella calibrata, nelle relazioni scientifiche. La datazione calibrata è invece normalmente espressa come data di calendario (calendar age), in anni BC (Before Christ) o AD (Anno Domini), a seconda che si tratti di anni prima o dopo Cristo. L’assunzione principale su cui si basa il metodo della datazione a radiocarbonio e’ che la frazione di 14C nell’atmosfera terrestre è approssimativamente costante. E visto che esiste un decadimento, deve necessariamente esistere anche una “fonte” da cui “viene generato” continuamente “nuovo” radiocarbonio. Tale “fonte” è il bombardamento dell’atmosfera terrestre ad opera dei raggi cosmici come gia’ anticipato precedentemente. A causa dei raggi cosmici nell’atmosfera si ha la continua trasformazione di atomi di azoto in atomi di radiocarbonio. Appena formatosi, il 14C reagisce con l’ossigeno atmosferico trasformandosi in biossido di carbonio (14CO2, anidride carbonica) radioattivo, che va a mescolarsi con quello composto da carbonio stabile (12CO2 e 13CO2). Data la relativa costanza del flusso cosmico, la velocità con cui il 14C si forma è, in prima approssimazione, costante. Poiché il decadimento è funzione della frazione di isotopo radioattivo presente, si arriva ad un equilibrio: la frazione di 14C si stabilizza su di un valore tale che “tanto ne decade quanto se ne forma”. Tale equilibrio si ha con una frazione di 14C (sotto forma di 14CO2) uguale a 1.2*10-12. In realtà, come vedremo tra poco, il flusso di radiazione cosmica ha avuto nel passato forti fluttuazioni, il che (insieme ad altri fenomeni di minore entità) ha indotto una sensibile variazione della frazione di 14C nell’atmosfera durante i millenni: questo è il principale (ma non unico) motivo per cui si devono calibrare le datazioni radiocarboniche convenzionali. Finché un individuo è vivo, scambia continuamente materia (e quindi anche carbonio) con l’esterno: le piante verdi assimilano anidride carbonica dall’atmosfera con la fotosintesi clorofilliana; gli erbivori mangiano le piante, ma vengono spesso a loro volta mangiati dai carnivori; inoltre piante, erbivori e carnivori respirano (emettendo anidride carbonica), mentre tutti gli animali producono escrementi. Per questo motivo esiste un sostanziale equilibrio tra la frazione di 14C dell’atmosfera e quella presente negli esseri viventi: infatti le molecole contenenti i diversi isotopi del carbonio, reagiscono in maniera del tutto analoga, non essendo chimicamente distinguibili. Perciò la frazione di 14C negli esseri viventi è pressoché la stessa di quella atmosferica. Quando un individuo muore, se non ci sono inquinamenti, non scambia più carbonio con l’ambiente, per cui il suo 14C comincia a diminuire (con ritmo noto) a causa del decadimento radioattivo, non venendo più reintegrato dall’esterno. Da qui la possibilità di datare reperti di origine organica in base alla diminuzione della frazione di 14C. Confrontando la frazione di 14C di un campione da datare con quella di materiale organico recente (“standard moderno”), si può calcolare il tempo trascorso dalla morte dell’individuo da cui il campione deriva. Ma come detto questa datazione chiamata  convenzionale deve essere opportunamente calibrata per tener conto di alcune assunzioni fatte da Libby e risultate non completamente vere. Uno dei presupposti errati, viene corretto subito: si tratta dell’errore indotto dal frazionamento isotopico (in seguito al quale la frazione di 14C in un essere vivente non è la stessa di quella atmosferica). Sappiamo che gli isotopi di un elemento sono chimicamente indistinguibili tra loro, nel senso che reagiscono allo stesso modo, dando luogo agli stessi prodotti; tuttavia, a causa della diversa massa dei loro nuclei, presentano lievi differenze nella velocità di reazione. Poiché durante le trasformazioni biochimiche (fotosintesi, metabolismo) che hanno luogo negli esseri viventi, reagisce solo una certa percentuale di atomi, fino al raggiungimento dell’equilibrio chimico, accade che nei prodotti di reazione tende a crescere la concentrazione degli isotopi più “veloci” a reagire, a discapito di quelli più “lenti”. Nel campione da analizzare, quindi la frazione di 14C residuo non è determinata solo dal tempo trascorso dopo la morte (decadimento radioattivo), ma anche dall’entità del frazionamento isotopico. Fortunatamente è possibile correggere questo errore misurando la frazione 13C/12C nel campione da datare: essendo tali isotopi stabili, una loro variazione rispetto al valore atteso è dovuta esclusivamente al frazionamento isotopico, che può così essere quantificato. Si definisce “δ13C” (“delta-C13”) la variazione (espressa in “per mille”) della frazione 13C/12C del campione in esame rispetto a quella di uno standard internazionale VPDB (Vienna Pee Dee Belemnite) costituito da carbonato di calcio fossile. L’errore indotto dal frazionamento isotopico non è in genere molto grande, ma è giusto correggerlo.
Il calcolo della datazione radiocarbonica convenzionale, cioè della “datazione radiocarbonica non calibrata corretta 13C”, avviene tramite la formula:

tanni=K*ln(Ans/Anc)=K*ln(Rns/Rnc)

dove t e’ il tempo trascorso espresso in anni contato a ritroso a partire dal 1950, K una costante ricavata da un T1/2 convenzionale di 5568 anni detto T1/2 di Libby, Ans l’attivita’ normalizzata (cioe’ corretta rispetto al frazionamento isotopico mediante il delta C13) dello standard moderno, Anc l’attivita’ normalizzata del campione da datare e R il rapporto di 14C/12C con i pedici uguali a quelli gia’ riportati per l’attivita’ A.
Come già riportato, la data radiocarbonica convenzionale si esprime in anni BP (before present) a partire dal 1950. Naturalmente, trattandosi di un dato che scaturisce da misure sperimentali, è affetto da un errore statistico, per cui il risultato viene espresso con un range la cui ampiezza dipende dalla precisione delle misure. Per esempio, una data del tipo: 2950 ± 30 BP (1σ, confidenza del 68,3 %) indica una data radiocarbonica convenzionale (corretta C13 non calibrata) compresa tra il 1030 a.C. ed il 970 a.C., con un grado di confidenza di circa il 68%. Passiamo adesso al cosiddetto effetto serbatoio. Ogni essere vivente è in equilibrio con la sua “riserva” (reservoir) ambientale, che normalmente è costituita dall’atmosfera, dove il 14C è distribuito in maniera omogenea a causa dei continui rimescolamenti meteorologici. Tuttavia esistono anche reperti che provengono da esseri vissuti in fondo a mari o laghi, dove la “riserva” di carbonio può avere una composizione isotopica assai diversa da quella atmosferica: infatti, oltre ad esserci un certo “ritardo” nella diffusione in profondità dell’anidride carbonica, le rocce calcaree di alcuni fondali vengono in parte disciolte dall’acido carbonico dell’acqua e liberano quindi carbonio “antico”, ormai privo di 14C. La “riserva” acquatica fa così “invecchiare” i reperti derivati da esseri che sono vissuti in essa (effetto serbatoio); per questo, occorre porre attenzione anche alle popolazioni che si nutrono prevalentemente di pesce. Ciò comporta errori nelle datazioni dell’ordine di alcuni secoli (in certi casi addirittura millenni!), per cui sono stati approntati dei database di “riserve” acquatiche che forniscono dati per correggere in tal senso le datazioni radiocarboniche ottenute. Tali correzioni vengono effettuate dai software di calibrazione, alcuni dei quali sono appunto collegati con database di “riserve” acquatiche. Per passare dalla datazione convenzionale a quella calibrata si confronta la datazione radiocarbonica CRA con curve di calibrazione, ottenute datando col metodo del radiocarbonio reperti di epoca nota: utilizzando legno ricavato da tronchi datati mediante la dendrocronologia, sono state costruite curve di calibrazione per gli ultimi 11.000 anni. Basandosi invece sulla crescita annuale dei coralli, ci si è potuti spingere fino a circa 24.000 anni fa; ancora più in là (circa 45.000 anni) si può arrivare grazie ai depositi laminari lacustri (varve). La calibrazione si effettua mediante software specializzati, che spesso correggono anche l’eventuale “effetto serbatoio” se si indica il bacino acquatico da cui proviene il reperto. Mentre la datazione radiocarbonica convenzionale viene di solito pubblicata con un range di errore espresso in “± anni”, con confidenza del 68,3% (1 σ), la datazione calibrata viene in genere fornita come intervallo (range) di date di calendario entro il quale la data “vera” ha il 95,4% di probabilità di cadere (limiti di confidenza del 95,4% = 2 σ). Le curve di calibrazione purtroppo non hanno un andamento continuo, ma procedono a “denti di sega”, per cui, ad una datazione radiocarbonica convenzionale, possono corrispondere più datazioni di calendario (calibrate). E’ chiaro che, poiché sia la data radiocarbonica convenzionale, sia la curva stessa di calibrazione hanno un certo margine di errore, confrontando le due, gli errori si combinano, allargando il range dei risultati; inoltre, desiderando una confidenza del 95,4% (invece del 68,3%), ovviamente l’intervallo si fa ancora più ampio. Si può dire quindi che la calibrazione normalmente peggiora la precisione della misura (la dispersione della misura intorno al valore medio), aumentandone tuttavia notevolmente l’accuratezza (cioè la “vicinanza” al valore “vero”). Senza calibrare, si sarebbe molto precisi (con un range magari inferiore a ± 20 anni), ma intorno a date spesso... completamente sbagliate! A titolo di esempio riportiamo la calibrazione riguardante la datazione radiocarbonica della mummia del Similaun:
Data radiocarbonica convenzionale: 4550 ± 19 BP (1 σ, confidenza del 68,3%)

Data calibrata: 3370 - 3320 BC (primo range, 2 σ, confidenza del 95,4%)

3230 - 3100 BC (secondo range, 2 σ, confidenza del 95,4%)

La presenza di due range è dovuta all’andamento seghettato della curva di calibrazione. Possiamo perciò dire che l’uomo del Similaun è vissuto, con 95 probabilità su 100, tra il 3370 ed il 3100 a.C.

clip_image011
clip_image012

Purtroppo questo andamento non lineare della curva di calibrazione dovuto essenzialmente all’attivita’ solare che cambia nel tempo puo’ portare ad una datazione ambigua come il caso qui sotto dove un oggetto di circa 200 anni vecchio potrebbe essere fatto risalire intorno al 1650 o a circa il 1800.

clip_image013

Il sole produce il cosiddetto “vento solare” che deflette i raggi cosmici. I periodi di elevata attivita’ solare coincidono con una bassa produzione di 14C e viceversa come si puo’ vedere dal grafico seguente.

clip_image014

Un altro fattore che determina delle fluttuazioni del contenuto di 14C nell’atmosfera e’ il campo magnetico terrestre. La sua intensita’, infatti, modula la produzione del radiocarbonio in quanto il campo magnetico scherma l’atmosfera dal bombardamento dei raggi cosmici elettricamente carichi riducendo cosi il rapporto di 14C/12C.

clip_image016

I test nucleari in atmosfera sono un’altra sorgente di variabilita’ con un picco di 14C tra il 1950 e il 1960 con un raddoppiamento dell’attivita’ del radiocarbonio. Questa enorme quantita’ di radiocarbonio e’ stata gradualmente rimossa dall’atmosfera dai processi naturali.
clip_image018
Negli ultimi anni durante la rivoluzione industriale un ulteriore inquinamento dell’atmosfera a causa dei combustibili fossili ha determinato un significativo aumento del carbonio stabile in quanto essendo il carbone molto antico non ha piu’ alcuna presenza in esso di 14C.

clip_image020

La datazione radiocarbonica, come anticipato si ottiene confrontando la radioattività specifica del campione da datare con i corrispondenti valori di uno “standard moderno”. Esistono diversi tipi di standard moderno per il 14C ma quello piu’ in uso e’ il cosiddetto Standard Assoluto, costituito da legno del 1890, la cui radioattività specifica e’ riportata alla data convenzionale del 1950, in base al calcolo del decadimento radioattivo. Per lo Standard Assoluto (che a sua volta poi viene utilizzato per tarare gli Standard Primari), è stato scelto legname del 1890 perchè anteriore al XX secolo, durante il quale sono avvenuti, per mano dell’uomo, due fenomeni opposti e fortemente perturbatori della frazione di 14C nell’atmosfera:

1. l’utilizzo di combustibili fossili (carbon fossile, petrolio, metano, mentre in passato si bruciavano solamente legna o carbone di legna) che diminuiscono la frazione di radiocarbonio nell’atmosfera immettendo CO2 praticamente ormai priva di 14C (completamente decaduto dopo milioni di anni).
2. esplosioni nucleari nell’atmosfera (dal 1945 alla metà degli anni Sessanta), che, emettendo neutroni, hanno aumentato notevolmente la frazione di 14C.

Anche operando con le massime precauzioni, nelle misure del 14C esiste sempre un inevitabile “rumore di fondo” (background), introdotto dagli strumenti e/o dall’ambiente in cui si opera. Per questo occorre “sottrarre” il background alle misure effettuate sia sul campione da datare che sullo standard moderno. Per valutare il valore del background si eseguono misure su un apposito “bianco”, cioè su materiale contenente carbonio esclusivamente fossile (antracite, lignite) ormai privo di 14C, trattato e misurato nelle stesse esatte condizioni con cui sono stati trattati e misurati il campione da datare e lo standard moderno. Affinché le correzioni siano efficaci, poiché strumenti, solventi e ambiente variano nel tempo, occorre che le misure sui campioni da datare, sullo standard moderno e sul bianco (trattati allo stesso identico modo) vengano effettuate sullo stesso strumento più o meno contemporaneamente.
Sia il campione da datare, sia lo standard moderno, sia il background, per poter essere misurati, devono subire un trattamento chimico che li trasformi in una forma utilizzabile dallo strumento; tuttavia, prima di procedere alla trasformazione chimica, il campione deve subire un pretrattamento fisico per eliminare ogni forma di inquinamento, nonché per fargli assumere una consistenza adatta alle successive manipolazioni. Il pretrattamento fisico consiste in genere nell’asportazione meccanica delle zone più esterne del campione, le più suscettibili ad essere inquinate; allo scopo vengono utilizzati bisturi, scalpelli e carte abrasive. Nel caso delle stoffe, si ricorre spesso anche ad una “pulizia” con ultrasuoni. Successivamente il campione viene opportunamente sminuzzato per essere più facilmente aggredito dalle sostanze chimiche nei trattamenti successivi. Il pretrattamento chimico varia a seconda della natura del campione da datare e dal tipo di inquinanti che si sospettano essere presenti: in buona parte dei casi, si effettua il cosiddetto “ciclo AAA” (acido-alcalino-acido) che consiste in un primo trattamento a caldo con acido cloridrico (HCl) diluito, per eliminare eventuali tracce di calcare; segue poi uno alcalino con soda (NaOH) per eliminare gli acidi umici di origine organica in genere presenti nel terreno; si esegue quindi un nuovo trattamento acido per eliminare l’eventuale carbonato di calcio formatosi a causa dell’anidride carbonica assorbita dalla soda durante il trattamento alcalino. Spesso viene effettuato anche un lavaggio con solventi organici per eliminare grassi, resine, cere ed altre sostanze liposolubili. Lavando naturalmente con acqua distillata alla fine di ogni passaggio e quindi essiccando. Un caso assai difficile è rappresentato dal materiale osseo: oltre alla grande faciltà ad assorbire impurezze (data la loro struttura porosa), le ossa sono costituite in gran parte da materiale inorganico; inoltre, il poco materiale organico presente (per la maggior parte collagene e poche altre proteine), spesso si altera con inclusione di contaminanti. Vengono utilizzati diversi tipi di analisi e purificazione per isolare materiale quanto piu’ possibile incontaminato. Per questo motivo, anche utilizzando poi per la datazione sistemi molto sensibili, per le ossa è comunque sempre necessaria una maggior quantità di sostanza rispetto ad altri tipi di reperto. Dopo il pretrattamento (fisico e chimico), il campione da datare, lo standard moderno ed il background devono subire un trattamento chimico per assumere una “forma” utilizzabile dagli strumenti con cui verranno misurati. La prima fase consiste nella produzione di anidride carbonica: se si tratta di materiale organico, questo viene bruciato in presenza di ossigeno e di ossido di rame come catalizzatore; se invece si ha a che fare con materiale carbonatico (es. conchiglie), esso viene idrolizzato con acido cloridrico. In ambedue i casi si forma anidride carbonica (CO2), che verrà purificata. Se si effettua la datazione per via radiometrica, si può utilizzare un contatore proporzionale a gas (come fece Libby nei suoi primi esperimenti), soprattutto nelle nuove versioni di piccole dimensioni, utilizzando direttamente l’anidride carbonica (CO2), oppure trasformandola in metano o acetilene. Altrimenti (sempre operando per via radiometrica) si può ricorrere alla scintillazione liquida. In questo caso, l’anidride carbonica (CO2) viene fatta reagire con litio fuso, fino a formare carburo di litio (Li2C2); questi, reagendo con acqua, dà luogo ad acetilene (C2H2), che viene poi trasformata in benzene (C6H6), che è poi miscelato con lo scintillatore per essere “contato” in un beta counter a scintillazione liquida. Se invece si utilizza la tecnica della spettrometria di massa con acceleratore (AMS) per la misura del rapporto C14 su C12, l’anidride carbonica viene ridotta a grafite (carbonio puro) mediante idrogeno (H2) in presenza di un catalizzatore. I piccoli campioni di grafite così ottenuti, depositati su dischetti di alluminio, vengono poi analizzati dal sistema AMS.
Vediamo adesso come funzionano i tre contatori: contatore a gas, contatore scintillatore e AMS. Il primo strumento e’ un contatore che misura la radioattivita’ residua del C14. E’ costituito da un piccolo tubo metallico chiuso alle estremita’ da 2 tappi isolanti (quarzo) al centro del quale e’ teso un elettrodo metallico che viene mantenuto ad un potenziale positivo rispetto al tubo (circa 1000 V). Una volta fatto il vuoto nel tubo viene iniettato il gas da misurare (anidride carbonica, metano o acetilene) ottenuto dal campione da datare. Quando un nucleo radioattivo decade emette un elettrone che viene accelerato verso il filo metallico centrale ionizzando le molecole presenti nel tubo.

Risultati immagini per contatore a gas datazione c14


Questo innesca una vera e propria valanga di elettroni che determina un segnale proporzionale all’energia della particella beta. Il metodo radiometrico è assai preciso quando si ha a disposizione una notevole quantità di materiale non eccessivamente antico, quando cioè c’è una sufficiente quantità di atomi di 14C e quindi di radioattività residua. Passiamo adesso al contatore a scintillazione. In questo caso il campione (benzene) viene miscelato con uno scintillatore liquido costituito da una soluzione contenente una sostanza organica fluorescente che quando viene colpita dalla radiazione beta ne assorbe l’energia per poi rilasciarla immediatamente sotto forma di impulso luminoso (scintilla). Il campione mescolato allo scintillatore viene posto in un boccettino trasparente ed inserito nell’apparato di conteggio (beta counter), dove un fotomoltiplicatore  capta il “lampo” e lo trasforma in un segnale elettrico che viene “contato” da un contatore elettronico.

image

L’ultimo strumento e’ l’AMS cioe’ lo spettrometro di massa. In questo caso il materiale da misurare (campione da datare, standard moderno o “bianco”), sotto forma di piccolissime quantità di grafite (carbonio “puro”, depositato su dischetti di alluminio) viene bombardato, sotto vuoto, da un flusso di ioni di cesio positivi. le particelle ionizzate vengono fatte passare in un tubo curvato a formare un certo angolo (per esempio di 90°), alle estremità del quale è applicata una certa differenza di potenziale. Il tubo è immerso in un campo magnetico di intensità variabile: ad ogni suo valore, saranno solo le particelle di una certa massa ad uscire dall’estremità del tubo (le altre si perderanno “sbattendo” contro le pareti). In questo modo è possibile selezionare all’uscita del tubo particelle di diversa massa (spettrometria di massa). La spettrometria di massa è ampiamente utilizzata nei laboratori chimici (insieme ad altre tecniche analitiche) per individuare la struttura ed il peso molecolare delle molecole.


image




http://www.wikio.it