Visualizzazione post con etichetta radioattivita'. Mostra tutti i post
Visualizzazione post con etichetta radioattivita'. Mostra tutti i post

venerdì 2 settembre 2022

L’Archeometria nella lotta contro i falsi nei beni culturali

 

Il seguente post e’ stato scritto con la collaborazione di Gilda Russo (Conservation Scientist).

La falsificazione di oggetti archeologici e storico-artistici è molto diffusa e va dalla produzione di falsi di mediocre qualità ai falsi prodotti da specialisti. Sono, infatti, noti casi di opere a lungo ritenute autentiche, esposte nei più importanti musei, che sono state identificate come falsi di varia età in tempi successivi e solo attraverso analisi archeometriche. Numerose sono le indagini archeometriche che possono essere utili nella individuazione di falsi. Dalle tecniche di datazione assoluta (come la termoluminescenza o la datazione al radiocarbonio) alle metodologie di indagini che consentono di identificare la composizione chimica dei materiali originali, di degrado e/o di restauro e quindi realizzare studi di autenticazione, sulle tecnologie di produzione e di datazione indiretta. Ancora in questo contesto sono di notevole importanza le tecniche basate sull’imaging diagnostico (Tomografia Computerizzata, radiografia X, fluorescenza UV, riflettografia IR, etc.) che consentono di avere in maniera non invasiva informazioni sulla distribuzione spaziale dei materiali presenti, non direttamente discriminabili ad occhio nudo, e possono dare indicazioni sulla loro natura chimica, differenziando, grazie alle caratteristiche risposte spettrali, le superfici originali da quelle interessate da integrazioni, ritocchi o trattamenti protettivi.

Statuette, gioielli e piccoli oggetti di uso quotidiano sono i falsi più comuni tra gli oggetti metallici. Oltre al caso di prodotti contraffatti nell'antichità, c'è oggi un fiorente mercato dell'arte che coinvolge entrambi i collezionisti privati più o meno ingenui e musei di varia importanza. Nel giugno 2007, il Progetto AUTHENTICO, finanziato dalla Commissione Europea, ha proposto una ricerca multidisciplinare per affrontare questo problema e fornire una strategia per l'autenticazione del patrimonio culturale mobile, in particolare di manufatti metallici (preziosi e non). Una delle tecniche analitiche proposte per verificare l'autenticità e la tracciabilità dei manufatti metallici è l'XRF portatile.

Sebbene nell'analisi quantitativa XRF di metalli antichi sorgono alcune difficoltà nella valutazione di fattori di correzione per la forma irregolare o effetti di rilievo, o come determinare la composizione del metallo (bulk) al di sotto della patina superficiale, il Portable XRF è ancora la più semplice tecnica non distruttiva che consente di determinare in modo quantitativo la lega con sufficiente precisione, fornendo agli storici dell'arte dati scientifici per ciascun campione. La profondità dell'analisi XRF per i metalli è di solito solo pochi decimi di micron, ma in assenza di rivestimenti metallici (come per esempio oro), e di fenomeni di corrosione o croste, la composizione esterna dovrebbe essere rappresentativa del bulk dell’oggetto in esame.

In questo post come esempio di applicazione delle tecniche archeometriche mostreremo come l’XRF possa aiutare l’archeologo nel dichiarare falso o no un oggetto di cui si ignora la provenienza. A tale scopo sono stati utilizzati tre oggetti: una statua egiziana di metallo realizzata in tempi moderni e comprata in un negozio di souvenir di un noto museo italiano, un oggetto metallico di forma cilindrica con alcuni fori (etichettato in questo post come flauto per la sua forma che ricorda appunto questo strumento musicale) proveniente da una collezione privata e supposto essere di epoca romana e infine una fibula di epoca romana acquistata su ebay da un antiquariato inglese.

image

Prima di passare ai risultati delle indagini eseguite vediamo un attimo in cosa consiste l’analisi XRF. La spettroscopia di fluorescenza a raggi X (XRF) è una delle tecniche più utilizzate per l'analisi elementare dei materiali. Gli elementi essenziali della tecnica sono abbastanza semplici: gli elettroni del nucleo degli atomi vengono espulsi dai raggi X primari ad alta energia, l'atomo ionizzato instabile si rilassa quindi allo stato fondamentale e una serie di elettroni saltano negli orbitali inferiori per riempire i posti vacanti, emettendo così fotoni di fluorescenza nella regione dei raggi X, che corrisponde alla struttura quantistica dell’atomo. L'emissione di fluorescenza, riportata spesso anche come raggi X secondari, rappresenta lo spettro "caratteristico" dell'atomo e può essere facilmente utilizzato per identificare e quantificare gli elementi chimici. Le righe di emissione dei raggi X calcolate per tutti gli elementi della tavola periodica sono uno strumento essenziale per l'interpretazione di tutti gli spettri misurati. Sebbene il processo di fluorescenza a raggi X possa essere attivato ionizzando gli atomi con raggi gamma generati da elementi radioattivi (ad esempio 57Co, 109Cd, 125I o 241Am), da elettroni sufficientemente energetici prodotti al microscopio elettronico o da protoni opportunamente accelerati (PIXE), il metodo di gran lunga più diffuso è l’utilizzo di una sonda che genera dei raggi X prodotti da tubi di laboratorio (raggi X primari) azionati ad alta tensione (tipicamente nell'intervallo 20-60 kV). La gamma di elementi che possono essere analizzati in modo efficiente con strumenti da laboratorio dipende dall'energia dei raggi X primari, e quindi le diverse regioni della tavola periodica possono essere sondate utilizzando tubi a raggi X con anodi diversi, come Cu, Mo, Pd, Rh, Ag, Au o W, ognuno dei quali produce una radiazione caratteristica a diversa energia. Ovviamente l'anodo selezionato deve essere quello di un elemento non contenuto nel campione da analizzare, a causa della sovrapposizione con le linee caratteristiche del tubo. Ad esempio, un anodo di W (59,3 keV) può eccitare le righe K di elementi con numeri atomici tra 15–55 e le linee L degli elementi con numeri atomici tra 65–90. Le linee K degli elementi con numero atomico inferiore al Na (Z = 11) sono facilmente assorbiti anche da pochi centimetri d'aria, e da pochi micrometri della massa del campione e quindi non possono essere analizzati di routine.

clip_image008

Rappresentazione grafica dei livelli di energia degli elettroni dei livelli K, L, M, N in un atomo e transizioni elettroniche Ka, Kb, La, Lb, Lg e Ma corrispondenti alle caratteristiche linee di emissione dei raggi X.

Se il fascio di raggi X incidente è prodotto da un anello di sincrotrone, la tecnica XRF è chiamata SRIXE (emissione di raggi X indotta da radiazione di sincrotrone) e offre alcuni vantaggi rispetto agli stessi esperimenti eseguiti con strumentazione di laboratorio, come una maggiore collimazione del fascio primario, uno sfondo intrinseco molto basso e la possibilità di sintonizzare l'energia della sorgente per eccitare selettivamente specifiche linee di fluorescenza. La configurazione sperimentale per la misurazione degli spettri XRF è composta da una sorgente di raggi X o raggi gamma utilizzata per irradiare il campione, una porta campioni e un sistema per rilevare i raggi X fluorescenti. Un tipico spettro XRF mostra l'intensità dei raggi X di fluorescenza emessi dal campione (comunemente in conteggi/unità di tempo) in funzione dell'energia (in eV), come mostrato di seguito. Dopo un'adeguata calibrazione e correzione per tener conto dell'auto assorbimento della matrice e dell’efficienza del rivelatore, l’integrale delle aree dei picchi di fluorescenza viene convertito in concentrazioni relative o assolute degli elementi chimici analizzati.

clip_image010

Spettro XRF ad alta energia ottenuto con una sorgente radioattiva di 109Cd di 22,1 keV.

Esistono due tipi principali di sistemi di rivelazione: quelli basati su rivelatori a stato solido e quelli basati su analizzatori multicanale in grado di misurare direttamente l'energia dei raggi X fluorescenti (il sistema è chiamato EDS: energy dispersive spettrometria) e quelli basati su un reticolo di diffrazione, tipicamente un analizzatore a cristallo singolo, che misura l'energia dei raggi X fluorescenti indirettamente diffrangendo le diverse lunghezze d'onda del segnale fluorescente collimato a diversi angoli (il sistema è chiamato WDS: spettrometria dispersiva di lunghezza d'onda). Gli spettrometri WDS sono inferiori in velocità di conteggio ma hanno una risoluzione energetica più elevata (tipicamente 5–10 eV) e quindi possono discriminare in modo più efficiente le linee di fluorescenza sovrapposte, mentre gli spettrometri EDS hanno tassi di conteggio più elevati ma una risoluzione energetica sensibilmente inferiore (tipicamente 150–200 eV). Di conseguenza, i sistemi ED-XRF sono spesso utilizzati per una bassa risoluzione e veloce misurazione, come ad esempio per gli apparecchi portatili utilizzati per le misurazioni sul campo, mentre i sistemi WD-XRF vengono utilizzati in laboratorio fornendo misurazioni ad alta risoluzione (ordine dei ppm per campioni ideali). Gli spettrometri EDS sono spesso associati ai microscopi elettronici (SEM, TEM) per fornire misurazioni chimiche complementari oltre all'imaging e alla diffrazione, mentre diversi spettrometri WDS sono associati principalmente a fasci di elettroni finemente focalizzati nei cosiddetti micro-analizzatori a sonda elettronica (EPMA). Quest'ultimo tipo di strumento, detto anche microsonda elettronica, offre comunemente un buon compromesso analitico tra gli elementi ai limiti di rilevamento (nell'intervallo 1000 ppm), piccole aree tastate e flessibilità di misura. La sensibilità potenzialmente elevata per la maggior parte degli elementi e la relativa facilità d'uso rendono l'XRF molto diffuso in archeometria. Gli strumenti di nuova generazione basati su EDS sono disponibili in commercio sia per misure di laboratorio che portatili. Tuttavia, dovrebbe essere chiaro che per misurazioni XRF eseguite in condizioni non ideali (es. campione sotto vuoto, superficie piana analizzata, attenuazione del campione ecc.), dove la misurazione viene eseguita direttamente su un materiale senza un'adeguata campionatura e preparazione, è difficile ottenere dei risultati quantitativi affidabili, a causa della geometria della superficie, delle possibili patine superficiali e alterazioni, della possibile forma irregolare del campione sondato, geometria di rilevamento non ottimale, ecc. Esistono strumenti a micro-raggio che eseguono scansioni bidimensionali su aree limitate della superficie del campione utilizzando un raggio focalizzato, ottenendo così informazioni chimiche per ogni punto e producendo dati utili per la chimica imaging e mappatura. La tecnica è chiamata scansione XRF. Un'estensione dell'XRF, denominata XRF a riflessione totale (TRXRF), consente la misurazione degli elementi nel campione in concentrazioni minime (ultra-tracce - mg/g nei solidi e ng/g nei liquidi) utilizzando gli angoli di incidenza sulla superficie del campione al di sotto dell'angolo critico, tipicamente < 0,1°. In queste condizioni il raggio primario è totalmente riflesso, penetra nel substrato solo per pochi nm e c'è quindi un'interazione ottimale tra il fascio primario e il campione. L'assorbimento e gli effetti della matrice sul segnale di fluorescenza possono essere in gran parte trascurati e la sensibilità della misurazione è notevolmente migliorata. Il TRXRF è stato utilizzato con successo nell'analisi chimica di pigmenti pittorici, vernici superficiali e miniature di manoscritti.

L’XRF rappresenta una metodologia di analisi non distruttiva e non invasiva quando eseguita tramite spettrometro portatile o da laboratorio su punti del campione direttamente selezionati sulla superficie dell’oggetto da indagare allo scopo di identificare gli elementi chimici costituenti la lega nel caso di reperti metallici, o pigmenti, nel caso di stesure pittoriche. In tal modo è possibile fornire dati utili per la caratterizzazione e lo studio della tecnologia di produzione e, conseguentemente, individuare elementi marcatori che possano fornire importanti informazioni per l’autenticazione e la datazione indiretta del reperto indagato. L’indagine XRF nel caso di reperti costituiti da materiali di natura metallica permette l’analisi qualitativa e, in determinate condizioni anche una determinazione quantitativa, degli elementi chimici in lega e di eventuali elementi presenti sulla superficie introdotti a seguito di patinature artificiali o da naturali processi di corrosione in corso o pregressi.

Lo strumento utilizzato per l’analisi condotta in questo studio è un XRF analyzer della Thermo-Niton modello XL3t 980 Goldd+ (vedi immagine seguente) di un laboratorio privato. Grazie alla sua interfaccia lo strumento è collegabile ad un PC e grazie al software in dotazione è possibile analizzare gli spettri generati.

clip_image012

clip_image014

clip_image016

Ritorniamo adesso ai metalli. Si tratta di materiali che riflettono la luce, ottimi conduttori di calore e di elettricità, attaccabili dagli acidi (con relativo sviluppo di idrogeno) e dalle basi e in genere hanno delle buone caratteristiche di resistenza meccanica. I metalli danno il nome ai periodi storici come l’età del bronzo, tardo III millennio a.C. e intero II millennio a.C., e quella del ferro, dalla fine del II millennio a tutto il I millennio a.C.

Alla fine del IV millennio a.C. si verificarono importanti progressi nel campo delle tecnologie tra cui:

- la capacità di estrarre i metalli dai minerali in cui essi si trovano chimicamente combinati;

- la comprensione della possibilità di modificarne le caratteristiche con  particolari     aggiunte, ottenendo leghe di tipo diverso;

- lo sviluppo di tecnologie di lavorazione per ottenere particolari forme e prestazioni meccaniche.

I primi elementi metallici ad essere utilizzati dall’uomo preistorico furono:

Au (oro),

Ag (argento),

Cu (rame),

Sn (stagno),

Fe (ferro),

Pb (piombo),

Hg (mercurio),

Spesso As (arsenico) e Ni (Nichel), furono usati consapevolmente al fine di migliorare le caratteristiche del rame. Le prime attività di estrazione dei metalli dai minerali in cui si trovano combinati si riferiscono al rame. Le prime attività di estrazione del rame, infatti, si ebbero probabilmente intorno al 5000-4000 aC. nel nord-est dell’Iran dove si trovavano giacimenti superficiali. Solo più tardi intorno al 3500 a.C. si scoprì che si poteva ottenere un metallo più facilmente colabile in getti, più duro per lavorazione meccanica, aggiungendo stagno al rame durante il processo di fusione. Nacquero così i bronzi allo stagno iniziando così l’età dell’omonimo periodo storico.

Il ferro invece si ipotizza che sia stato prodotto per la prima volta in modo del tutto casuale in Mesopotamia nel 2700 a.C. Questa scoperta fu più accidentale di quella del rame in quanto il ferro si presentava in forma di massa spugnosa ricca di scorie e impurezze. Una differenza importante fra i due metalli è la grande facilità di lavorazione a freddo del rame, mentre il ferro può essere lavorato solo a caldo, poiché una forte deformazione a freddo produce fratture.

Oltre al bronzo e al ferro anche alcune leghe di zinco sono state usate per secoli: l'ottone è senza dubbio quella più antica, e si ritrovano manufatti in tale lega in Palestina a partire dal 1400 a.C. La vera natura metallica di questo elemento comunque non venne riconosciuta dagli antichi. La fabbricazione dell'ottone era nota ai Romani, con una tecnica che prevedeva il riscaldamento di rame e calamina in un crogiolo. Il calore riduceva gli ossidi di zinco della calamina, e lo zinco libero veniva catturato dal rame, formando l'ottone, che veniva poi colato in stampi o forgiato.

La suddivisione dei metalli in nobili e non da’ luogo a quello che si chiama effetto pila. Quando due metalli vengono in contatto, quello meno nobile si corrode (fungendo da anodo) mentre il metallo più nobile rimarrà intatto.

I materiali e l’ambiente in cui si trovano interagiscono continuamente senza che venga raggiunto un effettivo stato di equilibrio. Tale interazione può produrre fenomeni di degrado la cui entità dipende dalla aggressività dell’ambiente e dalla sua variabilità nel tempo. Mantenere costanti le condizioni ambientali all’interfaccia mteriale-ambiente consente di raggiungere uno stato di stabilità in cui gli effetti di danneggiamento vengono minimizzati. Nel caso dei metalli è l’umidità il principale fattore che influenza la velocità dei processi corrosivi in un ambiente naturale non inquinato. I bronzi (rame e stagno), ma anche altre leghe di rame come gli ottoni (rame e zinco), non si ossidano in mancanza di umidità. Altro fattore di degrado è la temperatura (in presenza di fattori chimici di inquinamento come acido solforico e nitrico, solfato ammonico, composti alogenati (cloruri e fluoruri), i cui effetti sono esaltati dalla presenza di energici ossidanti come l’ozono e influenzati dalla piovosità che può apportare sulla superficie esposta depositi salini (es. aerosol) particolarmente pericolosi.

Nel caso di manufatti collocati in interni, come spesso avviene per la statuaria in bronzo, la loro superficie interagisce anch’essa con l’ambiente modificandosi. Perfino i reperti collocati nei musei possono alterarsi soprattutto in conseguenza delle variazioni del microclima in cui sono collocati.

Il prodotto di alterazione della superficie di un manufatto in bronzo esposto per un periodo di tempo relativamente lungo agli agenti chimici presenti nell’ambiente, sia in esterno, che in interno (anche entro una teca in un museo), è genericamente definito patina. Talvolta la patina è il risultato di un processo di finitura intenzionale, generalmente realizzato con finalità artistiche, in quanto possono essere ottenuti effetti cromatici per esaltare ad esempio la drammaticità dei soggetti rappresentati, o anche per nascondere difetti di colata, o saldature di diverse parti di un monumento fuse separatamente. Altre volte però la patina è realizzata per frode (falsi reperti archeologici in cui con essa si cerca di simulare l’effetto del tempo). La composizione chimica delle patine insieme ad altre caratteristiche chimico-fisiche possono però in alcuni casi renderle in grado di esercitare una azione protettiva nei confronti del manufatto, mentre in altri essere un mero prodotto di corrosione che ne deturpa l’aspetto e ne promuove il degrado.

Già nel I secolo d.C. Plinio nella sua “Naturalis Historia” parla di patine nei bronzi definendo Aerugo Nobilis il prodotto di alterazione superficiale di caratteristiche estetiche apprezzabili, mentre Virus Aerugo era il prodotto dannoso. Questa differenza costituisce ancora oggi la linea di confine che guida gli interventi di conservazione sull’opera d’arte in bronzo; nella Carta del Restauro del 1972 si prescrive infatti di “non rimuovere la patina Nobile, stabile chimicamente” anche se soprattutto negli interventi di pulitura dei bronzi collocati in esterni è assai difficile la sua precisa individuazione. Il rame (Cu) puro è inizialmente rosso salmone (nei bronzi il colore diventa più chiaro per aggiunte più o meno grandi di stagno (Sn)). In assenza di anidride carbonica (CO2) e agenti aggressivi nell’atmosfera, l’ossigeno dell’aria ossida il rame a Cu2O (ossido di rame, cuprite) di colore rosso più cupo. La patina che si forma è una miscela di ossido di rame monovalente (Cu2O) con rame metallico. Lo spessore medio di questo strato in media è di 3,5 μm; il colore risultante è il marrone scuro che spesso caratterizza i bronzi conservati in interni (patina nobile).

In presenza di anidride carbonica (CO2) e umidità (H2O), i prodotti che si formano sulle superfici dei bronzi sono di colore verde-azzurro a causa della formazione di due carbonati basici:

· Malachite (CuCO3Cu(OH)2), in strati lisci e compatti di colore verde scuro simile a uno smalto

· Azzurrite (2CuCO3Cu(OH)2), di colore fra l’azzurro e il blu intenso.

Si tratta di patine continue e stabili, di gradevole aspetto, assai apprezzate per il loro carattere non pericoloso per la salute del manufatto.

In ambienti urbani più inquinati contenenti SOx si formano in prevalenza solfati di colore verdastro costituiti da: Brochantite CuSO4.3Cu(OH)2 o Antlerite CuSO4.2Cu(OH)2. Questi composti si trovano associati allo strato di cuprite (Cu2O) sottostante e sono i principali responsabili del colore verde dei monumenti in bronzo esposti all’aperto. In ambienti fortemente acidi questi solfati si trasformano in solfato di rame idrato (CuSO4.5H2O) composto assai solubile e quindi facilmente dilavabile dalle piogge, favorendo in tal modo il progredire dei fenomeni corrosivi.

I composti di rame a base di cloruri sono i più pericolosi a causa dell’elevata solubilità dei cloruri e notevole conducibilità ionica delle soluzioni. I prodotti di corrosione clorurati si trovano nei manufatti rimasti immersi in acqua di mare, interrati in terreni ad alto contenuto salino, contaminati da sostanze organiche in decomposizione o in ambienti vicini al mare in cui il cloruro di sodio (NaCl) è portato dai venti come aerosol. I principali cloruri di sono l’Atacamite CuCl2.3Cu(OH)2 (cristalli ortorombici di colore da smeraldo a verde scuro) e la Paratacamite (Cu,Zn)Cl2.3Cu(OH)2 (cristalli esagonali pulverulenti di colore verde mela).

La paratacamite e la atacamite si ottengono per ossidazione e idratazione della Nantokite, un cloruro rameoso (CuCl), di colore grigio pallido e dall’aspetto ceroso e deliquescente, la cui presenza si riscontra frammista a strati di cuprite (ossido di rame) e di atacamite. La reazione di formazione della paratacamite è accompagnata dalla ossidazione del Cu a cuprite (Cu2O) e a idrossido di rame solubile:

2CuCl + 4Cu + ½ O2 + 3H2O = Cu2(OH)3 Cl + Cu2O

I prodotti di corrosione si manifestano in forma di efflorescenze di aspetto pulverulento che si accompagnano alla distruzione delle patine eventualmente presenti. Il fenomeno, pericolosissimo, è anche chiamato “cancro del bronzo”. Per una efficace conservazione dei bronzi la Nantokite (CuCl) deve essere sempre eliminata. Di seguito un esempio di patina di malachite e cuprite e sulla destra del cosiddetto cancro del bronzo.

clip_image018clip_image020

Qui invece un manufatto di rame romano con chiara presenza in superficie di cuprite e malachite.

clip_image021

Il rapporto tra il volume del rame originario e l’aumento di volume prodotto dai fenomeni di corrosione è espresso dal cosiddetto volume molare relativo (VMR).  Il VMR indica l’accrescimento volumetrico della patina stessa.  Posto 1 il volume iniziale del rame, la cuprite presenta un VMR di 1,67, molto basso (rispetto ad altre patine). Questo significa che la cuprite non altera in modo significativo la superficie dell'oggetto e ne preserva pressoché inalterati i rilievi ed i dettagli.

 

image

 

La corrosione può influenzare significativamente le misure del XRF. Da studi del settore emerge che in generale, è possibile vedere in media un depauperamento del contenuto di rame del 35% per oggetti in lega di stagno corrose. Per oggetti con corrosione in superficie e con alto contenuto di stagno e zinco, il depauperamento medio del rame è di circa il 18%, mentre lo zinco non mostra variazioni significative e lo stagno invece mostra un aumento maggiore del 50%. Per gli oggetti corrosi con alto contenuto di zinco è presente una riduzione dello zinco del 9%. Questo dimostra che la decuprificazione e la dezincificazione sono i processi principali della corrosione. Il depauperamento di rame è stato osservato essere il cambiamento più rilevante dei comuni oggetti di bronzo mentre per gli ottoni si è visto che il processo di corrosione principale è la lisciviazione dello zinco. Questi esperimenti dimostrano chiaramente che bisogna fare molta attenzione alla superficie dell’oggetto che stiamo analizzando con l’XRF per capire il grado di corrosione della sua superficie.

I tre campioni selezionati per l’analisi XRF sia dall’analisi ad occhio nudo che da osservazione con stereo microscopio appaiano essere tutti formati principalmente da Cu e quindi appartenenti alla classe dei bronzi. Inoltre, la loro superficie non sembra presentare alterazioni da corrosione.

Sebbene alcuni esempi isolati di leghe di rame preistoriche contengano diversi per cento di zinco, in particolare da Cipro, solo nel primo millennio aC iniziò la produzione deliberata di ottone, probabilmente in Asia Minore. Dal VII secolo aC i Greci iniziarono a parlare di ottone, ma sempre come un metallo costoso ed esotico non prodotto in Grecia, e questo è confermato dall'assenza di zinco nella grande maggioranza dei bronzi greci. Allo stesso modo, dei tanti bronzi etruschi analizzati, solo due rispettivamente del V e III secolo a.C sono risultati essere di ottone con circa l'11% di zinco e meno del 3% di stagno. Nel I secolo aC i romani iniziarono ad utilizzare il processo di cementazione per la produzione dell’ottone. Dapprima molto probabilmente venne utilizzato per la monetazione, ma poi diventò rapidamente popolare in altri campi, in particolare nella lavorazione dei metalli decorativi dove andò a sostituire ampiamente il bronzo. Durante il II e il III secolo d.C. il contenuto di zinco delle monete diminuì, e gli ottoni con un alto contenuto di zinco non vennero più utilizzati, sebbene l'ottone continuasse ad essere popolare rappresentando circa il 30% delle leghe di rame romane. Dal III secolo in poi una lega di rame con una piccola percentuale di piombo, zinco e stagno (oggi chiamata "bronzo duro al piombo" o “gun metal” in lingua inglese) iniziò ad essere utilizzata regolarmente e da allora è rimasto tale. Le origini di entrambi i termini “Ottone” e “Bronzo” non sono note, ma sembra che in epoca medievale tutte le leghe di rame venissero chiamate bronzi, e solo dal Rinascimento il termine bronzo fu usato in Italia per denotare leghe di rame legate con stagno. Tuttavia, i termini sono stati utilizzati indiscriminatamente in Inghilterra fino al XIX secolo. Ai fini di questo post, per ottone si intende una lega di rame a cui è stato aggiunto deliberatamente dello zinco mentre per bronzo una lega di rame in cui è stato introdotto dello stagno.

clip_image025

Considerando i valori di Cu, Zn e Sn dei tre campioni sotto analisi possiamo subito vedere che la statua egizia falsa non è di bronzo ma di ottone su cui poi sono state create le tipiche patine verdi in modo artificiale. Per l’oggetto invece riportato come ‘flauto’ la sua composizione lo colloca nella regione individuata come bronzo duro visto il suo contenuto medio di Zn e praticamente la quasi assenza di Sn. La fibula acquistata su ebay invece risulta essere un oggetto essenzialmente di rame visto il suo basso contenuto di Zn e di Sn.

image

 

Per poter effettuare un confronto tra gli oggetti in analisi e oggetti simili autentici, si è fatto ricorso ad articoli pubblicati su riviste specializzate dove l’XRF è stata utilizzato per oggetti metallici che vanno dalla preistoria fino al periodo romano (circa 300 dopo Cristo). In giallo sono stati evidenziati i 3 oggetti sotto analisi. Oltre alla statua egizia è presente un’altra statua che rappresenta Minerva dichiaratamente falsa. Entrambe mostrano un elevato contenuto di Cu seguito dallo Zn e una piccola quantità di piombo. Nella tabella seguente il periodo e l’età riportata è quella presente nell’articolo da cui sono stati raccolti i dati XRF. La selezione di campioni di leghe di Cu da un'ampia gamma di tipologie di manufatti e da una vasta gamma di reperti archeologici da diverse aree geografiche fornisce un set di dati il più rappresentativo possibile. Ciò consente la caratterizzazione delle leghe di Cu esenti da distorsioni (bias) dovute alla considerazione di un solo sito o di uno solo tipo di manufatto.

image

Utilizzando i dati raccolti è possibile vedere come si è evoluta la composizione del bronzo in funzione del periodo storico. In tutte le età precedenti a quella romana il bronzo era ottenuto da una lega di Cu e Sn. In epoca romana si aggiunse anche del piombo. Al contrario collezionando i dati dell’ottone si può vedere come la sua composizione dall’età del ferro fino a quella romana è rimasto praticamente lo stesso.

clip_image031

clip_image033

Il piombo (Pb) veniva aggiunto quando la lega metallica doveva essere utilizzata nella fusione di oggetti grandi e complessi come le statue. Nei casi in cui variano contemporaneamente i tre elementi di lega (es. Zn, Sn e Pb), un grafico bidimensionale come gli ultimi due precedenti non va più bene. Questo problema viene superato in una certa misura mediante l'uso di diagrammi ternari. Questi sono in grado di indicare contemporaneamente la differenza tra ottoni e bronzi e tra leghe piombate e senza piombo.

La ricerca effettuata sulle leghe romane di Cu ha permesso di svelare le relazioni tra scelta della lega e i vincoli tecnologici. Questi possono essere visti chiaramente nei livelli di Pb presente nelle leghe romane. A differenza di Zn e Sn, il Pb non è presente nelle leghe di Cu in soluzione solida. Esso forma delle goccioline discrete in tutto il metallo. Questo rende le leghe di piombo più soggette a rompersi quando martellate e forgiate, e così le lamiere e i fili quasi mai hanno più dell'1% di Pb. Il piombo, tuttavia, abbassa il punto di fusione del Cu e produce un fuso di una lega più fluido. Questo lo rende un'utile aggiunta alle leghe che devono essere utilizzati nella fabbricazione di grandi o complesse fusioni, come le statue.

clip_image035

clip_image037

Diversi ricercatori hanno dimostrato che esistevano dei collegamenti complessi tra la forma dei manufatti e le leghe utilizzate per la loro fabbricazione (es. Bayley & Macellaio, 1981; Craddock, 1975, 1996). Uno degli esempi più chiari di questo fenomeno in epoca romana è il gran numero di vasi di bronzo prodotti in Campania e altrove (den Boesterd, 1956). L’analisi di un gran numero di questi vasi ha dimostrato che la maggior parte di loro erano di bronzo piombato. Anche l’archeologo inglese Craddock ha dimostrato che un'ampia gamma di manufatti in leghe di Cu (ad es. statue e strumenti musicali) prodotti nel periodo tardo repubblicano e primo imperiale nell'area mediterranea è stata realizzata con una lega simile al bronzo piombato.

Per quanto riguarda il cambiamento cronologico nelle leghe di Cu di epoca romana sono stati effettuati pochi studi e i risultati non sono molto accurati. Nel grafico di seguito viene riportato il tipo di leghe utilizzate per gli oggetti metallici provenienti da scavi in Gran Bretagna lungo il periodo romano (i secoli sono quelli dopo Cristo). Molti dei tipi di leghe riportate sono presenti a livelli relativamente bassi per tutto il periodo romano (es. ottone piombato e piombo ramato) o mostrano variazioni relativamente piccole nel tempo (es. bronzo duro e bronzo). I cambiamenti significativi nei tipi di lega sono quelli legati al calo dell’ottone senza piombo e il crescente uso del bronzo piombato e bronzo duro al piombo. Nel I secolo d.C. l’ottone rappresentava il 37% delle leghe utilizzate mentre il bronzo al piombo e il bronzo duro al piombo insieme rappresentavano il 27%. Nel IV secolo d.C., l'ottone passa al 4% mentre il bronzo al piombo e il bronzo duro al piombo aumentano al 64%. I cambiamenti cronologici nelle composizioni delle leghe romane analizzate devono, tuttavia, essere considerate con cautela trattandosi di campioni da diversi siti in momenti diversi; i cambiamenti delle leghe analizzate potrebbe riflettere piuttosto i cambiamenti nella documentazione archeologica rispetto ai cambiamenti nell'antica metallurgia del Cu. Inoltre, i diversi tipi di manufatti prodotti e i metodi utilizzati nella fabbricazione potrebbe essere cambiato nel tempo.

clip_image039

Ritorniamo adesso ai nostri tre oggetti. Come anticipato, la statua è chiaramente un falso e quindi ci aspettiamo che il suo spettro sia significativamente diverso dagli oggetti (in particolare proprio una statua) veri. Nel database creato con i dati presi da altri autori e pubblicati su riviste scientifiche specialistiche, abbiamo una statua di Minerva autentica, una statua di Minerva falsa e una statua romana di cui non è riportata l’età e il personaggio che essa rappresenta. Riportando i dati su di un grafico ternario Sn-Zn-Pb si può vedere immediatamente come le 2 statue false si posizionano nel vertice in basso a destra del triangolo che indica un alto contenuto di Zn, un bassissimo contenuto di Sn e un basso contenuto di Pb (in pratica si tratta di ottone). Al contrario le due statue vere si posizionano a metà del lato destro del triangolo che indica un basso contenuto di Zn e un alto contenuto di Pb e Sn (quindi oggetti di bronzo piombato). Questo è un ottimo esempio di come un’analisi XRF possa aiutarci nella individuazione di un falso.

clip_image041

Passiamo adesso al secondo oggetto e cioè la fibula comprata all’asta su ebay dall’Inghilterra. Qui di seguito un esempio di fibule ad arco. Oltre a questa classe esistevano le fibule ad anello e le fibule a piastre.

clip_image043

Una fibula altro non è che un'antica spilla. Tecnicamente il termine latino fibulae si riferisce alle spille romane; tuttavia, il termine è ampiamente utilizzato per riferirsi a spille dell'intero mondo antico e altomedievale. Le fibule erano usate per allacciare i vestiti, i mantelli militari o, in alcuni casi, semplicemente come oggetti decorativi. Furono usate secoli prima della fondazione di Roma e per secoli dopo la sua caduta da greci, persiani, frigi, celti, tedeschi, slavi e molti altri popoli oltre ai romani. Erano usate sia dai soldati che dai civili; da uomini, donne e bambini. Erano usate su abiti, camicie e abiti, nonché sui mantelli. Non venivano utilizzate invece sulla toga, che era semplicemente piegata e drappeggiata. Dopo questa breve descrizione delle fibule ritorniamo alla fibula acquistata su ebay e che abbiamo analizzata con uno strumento XRF.

Ripartendo dalla tabella dove abbiamo raccolto tutti i dati XRF riportata precedentemente salta subito all’occhio il suo basso contenuto di Stagno e una percentuale di Zn al di sotto del 5%. Nel grafico Zn-Sn infatti questo oggetto si posiziona nella zona degli oggetti in rame. Ma quanto erano comuni nel passato le fibule di rame? Non molto come si può osservare dalla tabella sottostante che nel periodo tra il 500 aC e il 100 d.C. riporta solo un 6% di fibule in rame contro un 46% di ottone e circa il 48% di bronzo/bronzo duro.

imageimage

image

 

Anche se i risultati non confermano in modo schiacciante la falsità dell’oggetto sotto studio, c’è qualche lecito sospetto. Come ulteriore approfondimento e’ stata analizzata la percentuale di elementi presenti in tutte le fibule della tabella riportata sopra. La tecnica delle componenti principali è una tecnica statistica utilizzata per ridurre la dimensione del campione andando a trovare le componenti che spiegano la maggior parte della variabilità dei dati. Le nuove variabili (le componenti principali) altro non sono che la sovrapposizione con appositi pesi di tutte le variabili x del nostro database. Per il caso che stiamo studiano possiamo vedere come usando le prime 3 componenti principali riusciamo a spiegare circa l’80% della variabilita’ del nostro campione. Uno dei grossi vantaggi delle componenti principali è quello di poter osservare i dati nel piano o nello spazio cosa impossibile nel caso in cui consideriamo tutti i predittori (le variabili x). Nel piano delle prime due componenti principali notiamo come i dati si dispongono su due cluster che formano una V con vertice in (0,0). La cosa interessante è che il ramo di sinistra della V e’ legato alle fibule create mediamente dopo la nascita di Cristo mentre quelle del ramo di destra prima della venuta di cristo. Sembra indicare un passaggio graduale dal bronzo all’ottone, conosciuto nel passato come oricalco la cui origine viene fatta risalire nel primo secolo prima di Cristo e che tenderà a scomparire nel quarto secolo d.C. (vedi grafico precedente). Guardando i dati come si distribuiscono nel piano della prima e terza componente principale si nota subito un outlier evidenziato con un asterisco verde che guarda caso è proprio la fibula acquistata su ebay. Essa si differenzia dalle rimanenti fibule originarie (clusterizzate intorno all’origine del piano) per l’elevato contenuto di Ag (1%). Questo ci porta a pensare che la fibula sia un falso anche se la confidenza non è molto alta in quanto ci sono delle analisi XRF condotte su delle fibule di epoca romana ritrovate in Kossovo in Polonia che mostrano dei contenuti di Ag molto elevati anche se è anche presente un quantitativo di Sn e Pb considerevole. Cosa che non è vero nel nostro caso. Servirebbero ulteriori analisi, come per esempio quelle delle patine per poter dire con certezza che si tratti di un falso.

 clip_image055clip_image057

Fibule ritrovate in Kossovo (Polonia) di epoca romana.clip_image059

Adesso è la volta dell’oggetto a cui è stato assegnato l’identificativo “flauto” ma il cui scopo è del tutto sconosciuto (vedi prima immagine qui di seguito). Si tratta di un oggetto proveniente da una collezione privata e secondo l’acquirente proviene da uno scavo nel territorio della Marsica (Abruzzo). Potrebbe trattarsi di una parte di una tibiae o di una tuba, entrambe strumenti musicali utilizzate dai romani (nella seconda immagine qui di seguito parte di tibiae proveniente dal Museo degli strumenti musicali di Roma)

La superficie dell’oggetto non mostra segni di corrosione significativi. La patina sembra essere quella tipica degli oggetti in bronzo. L’oggetto all’interno è cavo e rassomiglia ad un tubo. Il lato sinistro ha un diametro leggermente maggiore del lato destro. A circa un terzo a partire dal lato sinistra si apre un foro con un leggero incavo.

image

image

 

Lo spettro XRF di questo oggetto sembra indicare un oggetto di bronzo duro (basso contenuto di Sn e presenza di Zn al di sotto della soglia per essere classificato come ottone) con un alto contenuto di Fe.

Dall’analisi di clustering degli elementi dei diversi oggetti riportati nella tabella ad inizio post si vede chiaramente come questo oggetto sia molto simile agli oggetti identificati dalle righe 45, 46 e 47 che riportano i risultati di analisi XRF eseguita si di una statua di bronzo presso il museo di Salonicco la cui origine non è nota. L’statua mostra un alto contenuto di Cu, stagno e in alcuni punti piombo confermando che si tratta di bronzo. Comunque, va notato che su molti punti della superficie della stata risulta un’elevata concentrazione di Fe (da 1% fino a circa 30%). Gli autori attribuiscono la presenza di tale elemento alla contaminazione di un oggetto di ferro posto nello stesso ambiente di sepoltura. In alcuni punti la statua mostra un basso contenuto di rame (intorno al 50%) a causa dei processi di corrosione. Diversamente da questa statua l’oggetto analizzato risultato simile ad essa per il basso contenuto di Cu e l’alto contenuto di Fe mostra la presenza di zinco e un basso contenuto di stagno che lo fa rientrare nella categoria del bronzo duro. Elementi come il ferro (Fe) possono essere il risultato del processo di fusione, di aggiunte intenzionali, parte di uno strato di corrosione o contaminazione da oggetti di ferro durante la sepoltura.

clip_image065

Come già riportato per la statua del museo di Salonicco, il basso contenuto di Cu potrebbe essere dovuto a qualche fenomeno di corrosione anche se la superficie pur presentando il tipico valore verde della malachite non sembra mostrare un notevole degrado come invece si può notare per la tuba del museo romano di strumenti musicali. Per poter definitivamente stabilire l’autenticità del pezzo servirebbe uno studio delle patine presenti sull’oggetto con analisi tipo FTIR e u-Raman.

clip_image067image

 

clip_image071

lunedì 24 luglio 2017

Dai bosoni W/Z all’archeologia


Una delle quattro forze fondamentali in natura e’ quella debole detta anche forza nucleare debole. Tale forza e’ responsabile del decadimento beta dei nuclei atomici, una delle reazioni nucleari spontanee (radiottivita’) grazie alle quali elementi chimici instabili si trasformano in altri con diverso numero atomico Z. Quest’ultimo indica il numero di protoni all’interno del nucleo atomico ed e’ pari al numero di elettroni che orbitano intorno al nucleo essendo l’atomo elettricamente neutro. Un altro numero che caratterizza i nuclei atomici e’ il cosiddetto numero di massa A che indica la somma dei protoni e neutroni (detti anche nucleoni) all’interno del nucleo atomico. Ma in cosa consiste il decadimento beta? Nell’emissione di un elettrone o di un positrone (una particella analoga all’elettrone ad eccezione della carica che e’ positiva) da parte del nucleo. Ma come e’ possibile che da un nucleo venga fuori un elettrone/positrone se esso e’ costituito solo da protoni e neutroni? E’ qui che entra in gioco l’interazione debole con i suoi mediatori (cioe’ le particelle che vengono scambiate in una interazione), i bosoni W e Z. Nel modello Standard ci sono tre tipi di bosone: i fotoni, i gluoni e i bosoni W/Z responsabili rispettivamente della forza elettromagnetica, nucleare forte e nucleare debole. I fotoni e gluoni sono senza massa, mentre i bosoni W/Z sono massivi. C’e’ un quarto bosone al momento solo ipotizzato che e’ il gravitone, il mediatore della forza di gravita’. Ma torniamo al nucleo atomico. I neutroni e protoni non sono particelle fondamentali in quanto sono costituite a loro volta da 3 quarks.  Esistono sei diversi tipi di quark: su (u), giu’ (d), incanto (c), strano (s), basso (b) e alto (t) che si distinguono per massa e carica elettrica. Quest’ultima e’ una frazione della carica dell’elettrone e vale -1/3 per quark s, d, b, e +2/3 per i quark u, c, t. I quark formano combinazioni in cui la somma delle cariche e’ un numero intero: protoni e neutroni sono formati  rispettivamente da due quark u e da un quark d, due quark d e uno u entrambi con carica totale 0. I quarks vengono tenuti insieme tra loro, dalla forza forte, la stessa che lega tra loro protoni e neutroni e decadono, a causa della forza debole. Essi si trasformano da u a d e viceversa, trasformando cosi’ protoni in neutroni e viceversa. Un neutrone per esempio, si trasforma in un protone emettendo un bosone W il quale a sua volta decade immediatamente in un elettrone e un antineutrino elettronico.


image


L'osservazione diretta del bosone W è avvenuta nel gennaio del 1983 grazie all'utilizzo dell'acceleratore SPS (Super Proton Synchrotron) del CERN durante gli esperimenti UA1 (condotto dal premio Nobel Carlo Rubbia) e UA2, realizzati grazie agli sforzi di una grande collaborazione di scienziati. Pochi mesi più tardi avvenne anche l'osservazione del bosone Z. Il decadimento beta e’ uno di tre possibili tipi di decadimento radioattivo da parte dei nuclei instabili: decadimento alfa, decadimento beta e decadimento gamma. Nel primo caso si tratta dell’emissione di un nucleo di He (due protoni e due neutroni) da parte del nucleo, nel secondo caso come gia’ detto dell’emissione di un elettrone e nel terzo caso di una diseccitazione del nucleo tramite emissione di un fotone gamma energetico. Per ogni valore di massa atomica A vi sono uno o piu’ nuclei stabili.

image

Per i nuclei instabili il numero di decadimenti al secondo definisce l’attivita’ radioattiva di un materiale, quantita’ indipendente dal tipo di decadimento o dall’energia della radiazione emessa. Contrariamente al decadimento beta in cui avviene la trasformazione di un protone in un neutrone e viceversa, il decadimento alfa e’ un esempio del cosiddetto effetto tunnel previsto dalla meccanica quantistica. Il nucleo puo’ essere modellizzato come una buca di energia all’interno della quale si trovano intrappolati i nucleoni. L’altezza di questa barriera dipende dal rapporto Z/R dove Z e’ il numero di protoni e R il raggio del nucleo. I nucleoni non hanno abbastanza energia per superare la barriera ma possono liberarsi perforandola se questa e’ abbastanza sottile.

clip_image007

Il decadimento beta e’ quello che subisce, insieme a tanti altri, un elemento della nostra tavola periodica alla base della nostra vita: il carbonio.
Questo elemento in natura si presenta con tre isotopi con diverse abbondanze: C12 (99%), C13 (<1%) e C14 (tracce). Tutto gli elementi chimici con un certo numero atomico Z e diverso numero di massa (diverso numero di neutroni) hanno le stesse caratteristiche chimiche avendo la stessa configurazione di elettroni esterni e vengono chiamati isotopi. I primi due isotopi del C sono stabili mentre il terzo e’ radioattivo di natura cosmo genica in quanto si forma in atmosfera in seguito al bombardamento dei raggi cosmici. La reazione viene innescata nel momento in cui l’interazione di un raggio cosmico con un atomo dell’atmosfera produce un neutrone che viene a sua volta assorbito da un atomo di azoto. Questo determina l’espulsione di un protone, per cui il numero atomico si riduce di 1 e il nucleo dell’atomo di azoto si trasforma in un nucleo di carbonio con numero di massa 14:

n + 14N –> 15N –> 14C + 1H+

Il 14C cosi formato non e’ un nuclide stabile e subira’ dopo un certo tempo una disintegrazione tramite emissione beta trasformandosi nello stesso elemento che lo ha generato e cioe l’azoto 14.

14C –> 14N + e- + ave

dove ave e’ l’antineutrino elettronico. La disintegrazione di un nucleo radioattivo e’ un processo statistico e segue le regole dei fenomeni casuali: non e’ possibile in nessun modo sapere quando un nucleo radioattivo si disintegrera’. Tuttavia, anche in presenza di pochi milligrammi di sostanza radioattiva abbiamo a che fare con milioni se non anche miliardi di atomi, per cui da un punto di vista statistico e’ possibile conoscere con buona precisione quanti (ma non quali) di essi si disintegreranno in un certo intervallo di tempo. Il numero di disintegrazioni che avvengono nell’unita’ di tempo viene definito come l’attivita’ della sorgente radioattiva. L’attivita’ si misura in Bequerel che corrisponde ad 1 disintegrazione per secondo. Data una sorgente radioattiva che non scambia materia con l’esterno, mano a mano che i nuclei si disintegrano, il loro numero diminuisce, e quindi diminuisce la probabilita’ di disintegrazioni successive; la radioattivita’ quindi diminuisce allo stesso modo della concentrazione dei nuclei radioattivi. La velocita’ con cui decade un radioisotopo, non e’  costante ma varia nel tempo: man mano che la concentrazione diminuisce, anche la velocita’ diminuisce, per cui il decadimento di un radioisotopo segue una curva di tipo esponenziale.

a1

Se come fatto per il decadimento alfa, modelliziamo il decadimento beta con una buca di potenziale, e’ possibile immaginare che la particella beta sia all’interno del nucleo e continuamente sbatta sulle pareti della buca cercando di uscire fuori. La probabilita’ che questo avvenga e’ molto bassa ma non zero. Per il decadimento del 14C e’ di 3.83*10-12 sec-1. Questo significa che in circa 32000 anni avremo quasi 4 disintegrazioni o allo stesso modo che la probabilita’ per un nucleo di 14C di decadere in un tempo dt e’ data da:

dP=λ*dt

dove lambda e’ proprio la probabilita’ di decadimento per unita’ di tempo. Supponendo di avere N atomi di carbonio 14 ad un istante to, il numero di decadimenti avvenuti nell’intervallo dt successivo e’ dato da:

dN=N*dP=N* λ*dt

dN/N= λ*dt

Integrando ambo i membri si ottiene l’equazione cercata:

N(t)=No*e- λ*t

dove No e’ il numero iniziale di atomi 14C e N(t) il numero di 14C ancora non disintegrati. La differenza tra questi due numeri da’ il numero di atomi che si sono disintegrati nell’intervallo di tempo t. Si definisce tempo di dimezzamento del nucleo radioattivo di un certo tipo, il tempo che occorre perche’ il numero di questi nuclei diminuisca di un fattore 2, cioe’ perche’ il numero di questi nuclei passi da No a No/2. Usando l’equazione esponenziale del decadimento si ricava facilmente il tempo di dimezzamento dato da:

T1/2 =ln(2)/ λ

clip_image010

Maggiore e’ il valore della costante di decadimento minore sara’ il tempo di dimezzamento e piu’ velocemente i nuclidi iniziali si disintegreranno. Il Carbonio 14 ha un tempo di dimezzamento di 5730 anni e questo fa si che possa essere utilizzato come ottimo “orologio” per le datazioni archeologiche.
La tecnica del radiocarbonio permette di datare qualsiasi materiale di origine organica, cioe’ che derivi da qualche cosa che sia stato vivo, come ossa, legno, stoffa, carta, semi, polline, pergamena e pellame in genere, carboni (non fossili) e tessuti  risalendo cosi all’epoca della morte dell’individuo da cui proviene il campione, purche’ non siano passati piu’ di 60000 anni (dopo tale periodo il carbonio 14 residuo e’ talmente esiguo da non permettere misure attendibili neppure con le tecniche piu’ sofisticate). Il metodo di datazione con il 14C fu messo a punto da un team di chimici dell’Universita’ di Chicago diretti da Willard Libby, che per questo ricevette il premio Nobel nel 1960. Le prime datazioni radiocarboniche si ebbero perciò a partire dal 1950. Nonostante col passare del tempo abbiamo capito che i presupposti su cui si basava il metodo di Libby erano veri solo in prima approssimazione, la Comunità Scientifica ha comunque deciso di continuare ad eseguire le datazioni secondo tali assunzioni, ottenendo così una “datazione radiocarbonica convenzionale” (CRA). Tale datazione, fornita dai laboratori, viene poi sottoposta ad una calibrazione, al fine di ottenere la data “reale” di calendario, confrontando la datazione convenzionale con quelle ottenute da campioni di età nota. La data calibrata, soprattutto per certi periodi, si discosta notevolmente da quella convenzionale e va considerata come la miglior stima della data “vera”. La datazione radiocarbonica convenzionale (CRA), non calibrata, è normalmente espressa in anni BP (Before Present, calcolati a ritroso a partire dal 1950) e deve essere sempre pubblicata, insieme a quella calibrata, nelle relazioni scientifiche. La datazione calibrata è invece normalmente espressa come data di calendario (calendar age), in anni BC (Before Christ) o AD (Anno Domini), a seconda che si tratti di anni prima o dopo Cristo. L’assunzione principale su cui si basa il metodo della datazione a radiocarbonio e’ che la frazione di 14C nell’atmosfera terrestre è approssimativamente costante. E visto che esiste un decadimento, deve necessariamente esistere anche una “fonte” da cui “viene generato” continuamente “nuovo” radiocarbonio. Tale “fonte” è il bombardamento dell’atmosfera terrestre ad opera dei raggi cosmici come gia’ anticipato precedentemente. A causa dei raggi cosmici nell’atmosfera si ha la continua trasformazione di atomi di azoto in atomi di radiocarbonio. Appena formatosi, il 14C reagisce con l’ossigeno atmosferico trasformandosi in biossido di carbonio (14CO2, anidride carbonica) radioattivo, che va a mescolarsi con quello composto da carbonio stabile (12CO2 e 13CO2). Data la relativa costanza del flusso cosmico, la velocità con cui il 14C si forma è, in prima approssimazione, costante. Poiché il decadimento è funzione della frazione di isotopo radioattivo presente, si arriva ad un equilibrio: la frazione di 14C si stabilizza su di un valore tale che “tanto ne decade quanto se ne forma”. Tale equilibrio si ha con una frazione di 14C (sotto forma di 14CO2) uguale a 1.2*10-12. In realtà, come vedremo tra poco, il flusso di radiazione cosmica ha avuto nel passato forti fluttuazioni, il che (insieme ad altri fenomeni di minore entità) ha indotto una sensibile variazione della frazione di 14C nell’atmosfera durante i millenni: questo è il principale (ma non unico) motivo per cui si devono calibrare le datazioni radiocarboniche convenzionali. Finché un individuo è vivo, scambia continuamente materia (e quindi anche carbonio) con l’esterno: le piante verdi assimilano anidride carbonica dall’atmosfera con la fotosintesi clorofilliana; gli erbivori mangiano le piante, ma vengono spesso a loro volta mangiati dai carnivori; inoltre piante, erbivori e carnivori respirano (emettendo anidride carbonica), mentre tutti gli animali producono escrementi. Per questo motivo esiste un sostanziale equilibrio tra la frazione di 14C dell’atmosfera e quella presente negli esseri viventi: infatti le molecole contenenti i diversi isotopi del carbonio, reagiscono in maniera del tutto analoga, non essendo chimicamente distinguibili. Perciò la frazione di 14C negli esseri viventi è pressoché la stessa di quella atmosferica. Quando un individuo muore, se non ci sono inquinamenti, non scambia più carbonio con l’ambiente, per cui il suo 14C comincia a diminuire (con ritmo noto) a causa del decadimento radioattivo, non venendo più reintegrato dall’esterno. Da qui la possibilità di datare reperti di origine organica in base alla diminuzione della frazione di 14C. Confrontando la frazione di 14C di un campione da datare con quella di materiale organico recente (“standard moderno”), si può calcolare il tempo trascorso dalla morte dell’individuo da cui il campione deriva. Ma come detto questa datazione chiamata  convenzionale deve essere opportunamente calibrata per tener conto di alcune assunzioni fatte da Libby e risultate non completamente vere. Uno dei presupposti errati, viene corretto subito: si tratta dell’errore indotto dal frazionamento isotopico (in seguito al quale la frazione di 14C in un essere vivente non è la stessa di quella atmosferica). Sappiamo che gli isotopi di un elemento sono chimicamente indistinguibili tra loro, nel senso che reagiscono allo stesso modo, dando luogo agli stessi prodotti; tuttavia, a causa della diversa massa dei loro nuclei, presentano lievi differenze nella velocità di reazione. Poiché durante le trasformazioni biochimiche (fotosintesi, metabolismo) che hanno luogo negli esseri viventi, reagisce solo una certa percentuale di atomi, fino al raggiungimento dell’equilibrio chimico, accade che nei prodotti di reazione tende a crescere la concentrazione degli isotopi più “veloci” a reagire, a discapito di quelli più “lenti”. Nel campione da analizzare, quindi la frazione di 14C residuo non è determinata solo dal tempo trascorso dopo la morte (decadimento radioattivo), ma anche dall’entità del frazionamento isotopico. Fortunatamente è possibile correggere questo errore misurando la frazione 13C/12C nel campione da datare: essendo tali isotopi stabili, una loro variazione rispetto al valore atteso è dovuta esclusivamente al frazionamento isotopico, che può così essere quantificato. Si definisce “δ13C” (“delta-C13”) la variazione (espressa in “per mille”) della frazione 13C/12C del campione in esame rispetto a quella di uno standard internazionale VPDB (Vienna Pee Dee Belemnite) costituito da carbonato di calcio fossile. L’errore indotto dal frazionamento isotopico non è in genere molto grande, ma è giusto correggerlo.
Il calcolo della datazione radiocarbonica convenzionale, cioè della “datazione radiocarbonica non calibrata corretta 13C”, avviene tramite la formula:

tanni=K*ln(Ans/Anc)=K*ln(Rns/Rnc)

dove t e’ il tempo trascorso espresso in anni contato a ritroso a partire dal 1950, K una costante ricavata da un T1/2 convenzionale di 5568 anni detto T1/2 di Libby, Ans l’attivita’ normalizzata (cioe’ corretta rispetto al frazionamento isotopico mediante il delta C13) dello standard moderno, Anc l’attivita’ normalizzata del campione da datare e R il rapporto di 14C/12C con i pedici uguali a quelli gia’ riportati per l’attivita’ A.
Come già riportato, la data radiocarbonica convenzionale si esprime in anni BP (before present) a partire dal 1950. Naturalmente, trattandosi di un dato che scaturisce da misure sperimentali, è affetto da un errore statistico, per cui il risultato viene espresso con un range la cui ampiezza dipende dalla precisione delle misure. Per esempio, una data del tipo: 2950 ± 30 BP (1σ, confidenza del 68,3 %) indica una data radiocarbonica convenzionale (corretta C13 non calibrata) compresa tra il 1030 a.C. ed il 970 a.C., con un grado di confidenza di circa il 68%. Passiamo adesso al cosiddetto effetto serbatoio. Ogni essere vivente è in equilibrio con la sua “riserva” (reservoir) ambientale, che normalmente è costituita dall’atmosfera, dove il 14C è distribuito in maniera omogenea a causa dei continui rimescolamenti meteorologici. Tuttavia esistono anche reperti che provengono da esseri vissuti in fondo a mari o laghi, dove la “riserva” di carbonio può avere una composizione isotopica assai diversa da quella atmosferica: infatti, oltre ad esserci un certo “ritardo” nella diffusione in profondità dell’anidride carbonica, le rocce calcaree di alcuni fondali vengono in parte disciolte dall’acido carbonico dell’acqua e liberano quindi carbonio “antico”, ormai privo di 14C. La “riserva” acquatica fa così “invecchiare” i reperti derivati da esseri che sono vissuti in essa (effetto serbatoio); per questo, occorre porre attenzione anche alle popolazioni che si nutrono prevalentemente di pesce. Ciò comporta errori nelle datazioni dell’ordine di alcuni secoli (in certi casi addirittura millenni!), per cui sono stati approntati dei database di “riserve” acquatiche che forniscono dati per correggere in tal senso le datazioni radiocarboniche ottenute. Tali correzioni vengono effettuate dai software di calibrazione, alcuni dei quali sono appunto collegati con database di “riserve” acquatiche. Per passare dalla datazione convenzionale a quella calibrata si confronta la datazione radiocarbonica CRA con curve di calibrazione, ottenute datando col metodo del radiocarbonio reperti di epoca nota: utilizzando legno ricavato da tronchi datati mediante la dendrocronologia, sono state costruite curve di calibrazione per gli ultimi 11.000 anni. Basandosi invece sulla crescita annuale dei coralli, ci si è potuti spingere fino a circa 24.000 anni fa; ancora più in là (circa 45.000 anni) si può arrivare grazie ai depositi laminari lacustri (varve). La calibrazione si effettua mediante software specializzati, che spesso correggono anche l’eventuale “effetto serbatoio” se si indica il bacino acquatico da cui proviene il reperto. Mentre la datazione radiocarbonica convenzionale viene di solito pubblicata con un range di errore espresso in “± anni”, con confidenza del 68,3% (1 σ), la datazione calibrata viene in genere fornita come intervallo (range) di date di calendario entro il quale la data “vera” ha il 95,4% di probabilità di cadere (limiti di confidenza del 95,4% = 2 σ). Le curve di calibrazione purtroppo non hanno un andamento continuo, ma procedono a “denti di sega”, per cui, ad una datazione radiocarbonica convenzionale, possono corrispondere più datazioni di calendario (calibrate). E’ chiaro che, poiché sia la data radiocarbonica convenzionale, sia la curva stessa di calibrazione hanno un certo margine di errore, confrontando le due, gli errori si combinano, allargando il range dei risultati; inoltre, desiderando una confidenza del 95,4% (invece del 68,3%), ovviamente l’intervallo si fa ancora più ampio. Si può dire quindi che la calibrazione normalmente peggiora la precisione della misura (la dispersione della misura intorno al valore medio), aumentandone tuttavia notevolmente l’accuratezza (cioè la “vicinanza” al valore “vero”). Senza calibrare, si sarebbe molto precisi (con un range magari inferiore a ± 20 anni), ma intorno a date spesso... completamente sbagliate! A titolo di esempio riportiamo la calibrazione riguardante la datazione radiocarbonica della mummia del Similaun:
Data radiocarbonica convenzionale: 4550 ± 19 BP (1 σ, confidenza del 68,3%)

Data calibrata: 3370 - 3320 BC (primo range, 2 σ, confidenza del 95,4%)

3230 - 3100 BC (secondo range, 2 σ, confidenza del 95,4%)

La presenza di due range è dovuta all’andamento seghettato della curva di calibrazione. Possiamo perciò dire che l’uomo del Similaun è vissuto, con 95 probabilità su 100, tra il 3370 ed il 3100 a.C.

clip_image011
clip_image012

Purtroppo questo andamento non lineare della curva di calibrazione dovuto essenzialmente all’attivita’ solare che cambia nel tempo puo’ portare ad una datazione ambigua come il caso qui sotto dove un oggetto di circa 200 anni vecchio potrebbe essere fatto risalire intorno al 1650 o a circa il 1800.

clip_image013

Il sole produce il cosiddetto “vento solare” che deflette i raggi cosmici. I periodi di elevata attivita’ solare coincidono con una bassa produzione di 14C e viceversa come si puo’ vedere dal grafico seguente.

clip_image014

Un altro fattore che determina delle fluttuazioni del contenuto di 14C nell’atmosfera e’ il campo magnetico terrestre. La sua intensita’, infatti, modula la produzione del radiocarbonio in quanto il campo magnetico scherma l’atmosfera dal bombardamento dei raggi cosmici elettricamente carichi riducendo cosi il rapporto di 14C/12C.

clip_image016

I test nucleari in atmosfera sono un’altra sorgente di variabilita’ con un picco di 14C tra il 1950 e il 1960 con un raddoppiamento dell’attivita’ del radiocarbonio. Questa enorme quantita’ di radiocarbonio e’ stata gradualmente rimossa dall’atmosfera dai processi naturali.
clip_image018
Negli ultimi anni durante la rivoluzione industriale un ulteriore inquinamento dell’atmosfera a causa dei combustibili fossili ha determinato un significativo aumento del carbonio stabile in quanto essendo il carbone molto antico non ha piu’ alcuna presenza in esso di 14C.

clip_image020

La datazione radiocarbonica, come anticipato si ottiene confrontando la radioattività specifica del campione da datare con i corrispondenti valori di uno “standard moderno”. Esistono diversi tipi di standard moderno per il 14C ma quello piu’ in uso e’ il cosiddetto Standard Assoluto, costituito da legno del 1890, la cui radioattività specifica e’ riportata alla data convenzionale del 1950, in base al calcolo del decadimento radioattivo. Per lo Standard Assoluto (che a sua volta poi viene utilizzato per tarare gli Standard Primari), è stato scelto legname del 1890 perchè anteriore al XX secolo, durante il quale sono avvenuti, per mano dell’uomo, due fenomeni opposti e fortemente perturbatori della frazione di 14C nell’atmosfera:

1. l’utilizzo di combustibili fossili (carbon fossile, petrolio, metano, mentre in passato si bruciavano solamente legna o carbone di legna) che diminuiscono la frazione di radiocarbonio nell’atmosfera immettendo CO2 praticamente ormai priva di 14C (completamente decaduto dopo milioni di anni).
2. esplosioni nucleari nell’atmosfera (dal 1945 alla metà degli anni Sessanta), che, emettendo neutroni, hanno aumentato notevolmente la frazione di 14C.

Anche operando con le massime precauzioni, nelle misure del 14C esiste sempre un inevitabile “rumore di fondo” (background), introdotto dagli strumenti e/o dall’ambiente in cui si opera. Per questo occorre “sottrarre” il background alle misure effettuate sia sul campione da datare che sullo standard moderno. Per valutare il valore del background si eseguono misure su un apposito “bianco”, cioè su materiale contenente carbonio esclusivamente fossile (antracite, lignite) ormai privo di 14C, trattato e misurato nelle stesse esatte condizioni con cui sono stati trattati e misurati il campione da datare e lo standard moderno. Affinché le correzioni siano efficaci, poiché strumenti, solventi e ambiente variano nel tempo, occorre che le misure sui campioni da datare, sullo standard moderno e sul bianco (trattati allo stesso identico modo) vengano effettuate sullo stesso strumento più o meno contemporaneamente.
Sia il campione da datare, sia lo standard moderno, sia il background, per poter essere misurati, devono subire un trattamento chimico che li trasformi in una forma utilizzabile dallo strumento; tuttavia, prima di procedere alla trasformazione chimica, il campione deve subire un pretrattamento fisico per eliminare ogni forma di inquinamento, nonché per fargli assumere una consistenza adatta alle successive manipolazioni. Il pretrattamento fisico consiste in genere nell’asportazione meccanica delle zone più esterne del campione, le più suscettibili ad essere inquinate; allo scopo vengono utilizzati bisturi, scalpelli e carte abrasive. Nel caso delle stoffe, si ricorre spesso anche ad una “pulizia” con ultrasuoni. Successivamente il campione viene opportunamente sminuzzato per essere più facilmente aggredito dalle sostanze chimiche nei trattamenti successivi. Il pretrattamento chimico varia a seconda della natura del campione da datare e dal tipo di inquinanti che si sospettano essere presenti: in buona parte dei casi, si effettua il cosiddetto “ciclo AAA” (acido-alcalino-acido) che consiste in un primo trattamento a caldo con acido cloridrico (HCl) diluito, per eliminare eventuali tracce di calcare; segue poi uno alcalino con soda (NaOH) per eliminare gli acidi umici di origine organica in genere presenti nel terreno; si esegue quindi un nuovo trattamento acido per eliminare l’eventuale carbonato di calcio formatosi a causa dell’anidride carbonica assorbita dalla soda durante il trattamento alcalino. Spesso viene effettuato anche un lavaggio con solventi organici per eliminare grassi, resine, cere ed altre sostanze liposolubili. Lavando naturalmente con acqua distillata alla fine di ogni passaggio e quindi essiccando. Un caso assai difficile è rappresentato dal materiale osseo: oltre alla grande faciltà ad assorbire impurezze (data la loro struttura porosa), le ossa sono costituite in gran parte da materiale inorganico; inoltre, il poco materiale organico presente (per la maggior parte collagene e poche altre proteine), spesso si altera con inclusione di contaminanti. Vengono utilizzati diversi tipi di analisi e purificazione per isolare materiale quanto piu’ possibile incontaminato. Per questo motivo, anche utilizzando poi per la datazione sistemi molto sensibili, per le ossa è comunque sempre necessaria una maggior quantità di sostanza rispetto ad altri tipi di reperto. Dopo il pretrattamento (fisico e chimico), il campione da datare, lo standard moderno ed il background devono subire un trattamento chimico per assumere una “forma” utilizzabile dagli strumenti con cui verranno misurati. La prima fase consiste nella produzione di anidride carbonica: se si tratta di materiale organico, questo viene bruciato in presenza di ossigeno e di ossido di rame come catalizzatore; se invece si ha a che fare con materiale carbonatico (es. conchiglie), esso viene idrolizzato con acido cloridrico. In ambedue i casi si forma anidride carbonica (CO2), che verrà purificata. Se si effettua la datazione per via radiometrica, si può utilizzare un contatore proporzionale a gas (come fece Libby nei suoi primi esperimenti), soprattutto nelle nuove versioni di piccole dimensioni, utilizzando direttamente l’anidride carbonica (CO2), oppure trasformandola in metano o acetilene. Altrimenti (sempre operando per via radiometrica) si può ricorrere alla scintillazione liquida. In questo caso, l’anidride carbonica (CO2) viene fatta reagire con litio fuso, fino a formare carburo di litio (Li2C2); questi, reagendo con acqua, dà luogo ad acetilene (C2H2), che viene poi trasformata in benzene (C6H6), che è poi miscelato con lo scintillatore per essere “contato” in un beta counter a scintillazione liquida. Se invece si utilizza la tecnica della spettrometria di massa con acceleratore (AMS) per la misura del rapporto C14 su C12, l’anidride carbonica viene ridotta a grafite (carbonio puro) mediante idrogeno (H2) in presenza di un catalizzatore. I piccoli campioni di grafite così ottenuti, depositati su dischetti di alluminio, vengono poi analizzati dal sistema AMS.
Vediamo adesso come funzionano i tre contatori: contatore a gas, contatore scintillatore e AMS. Il primo strumento e’ un contatore che misura la radioattivita’ residua del C14. E’ costituito da un piccolo tubo metallico chiuso alle estremita’ da 2 tappi isolanti (quarzo) al centro del quale e’ teso un elettrodo metallico che viene mantenuto ad un potenziale positivo rispetto al tubo (circa 1000 V). Una volta fatto il vuoto nel tubo viene iniettato il gas da misurare (anidride carbonica, metano o acetilene) ottenuto dal campione da datare. Quando un nucleo radioattivo decade emette un elettrone che viene accelerato verso il filo metallico centrale ionizzando le molecole presenti nel tubo.

Risultati immagini per contatore a gas datazione c14


Questo innesca una vera e propria valanga di elettroni che determina un segnale proporzionale all’energia della particella beta. Il metodo radiometrico è assai preciso quando si ha a disposizione una notevole quantità di materiale non eccessivamente antico, quando cioè c’è una sufficiente quantità di atomi di 14C e quindi di radioattività residua. Passiamo adesso al contatore a scintillazione. In questo caso il campione (benzene) viene miscelato con uno scintillatore liquido costituito da una soluzione contenente una sostanza organica fluorescente che quando viene colpita dalla radiazione beta ne assorbe l’energia per poi rilasciarla immediatamente sotto forma di impulso luminoso (scintilla). Il campione mescolato allo scintillatore viene posto in un boccettino trasparente ed inserito nell’apparato di conteggio (beta counter), dove un fotomoltiplicatore  capta il “lampo” e lo trasforma in un segnale elettrico che viene “contato” da un contatore elettronico.

image

L’ultimo strumento e’ l’AMS cioe’ lo spettrometro di massa. In questo caso il materiale da misurare (campione da datare, standard moderno o “bianco”), sotto forma di piccolissime quantità di grafite (carbonio “puro”, depositato su dischetti di alluminio) viene bombardato, sotto vuoto, da un flusso di ioni di cesio positivi. le particelle ionizzate vengono fatte passare in un tubo curvato a formare un certo angolo (per esempio di 90°), alle estremità del quale è applicata una certa differenza di potenziale. Il tubo è immerso in un campo magnetico di intensità variabile: ad ogni suo valore, saranno solo le particelle di una certa massa ad uscire dall’estremità del tubo (le altre si perderanno “sbattendo” contro le pareti). In questo modo è possibile selezionare all’uscita del tubo particelle di diversa massa (spettrometria di massa). La spettrometria di massa è ampiamente utilizzata nei laboratori chimici (insieme ad altre tecniche analitiche) per individuare la struttura ed il peso molecolare delle molecole.


image




http://www.wikio.it