mercoledì 18 settembre 2019

Come gli algoritmi stanno cambiando il corso della matematica


I matematici a lungo si sono chiesti se fosse possibile esprimere il numero 33 e 42 come somma di 3 cubi, cioe’ se l’equazione 33=x3+y3+x3 e  42=x3+y3+z3    avesse  una soluzione. Si sa che 29 puo’ essere scritto come 33+13+13, per esempio, mentre 32 non e’ esprimibile come somma di 3 interi ognuno elevato alla terza potenza; ma dopo circa 60 anni nulla si sa per il 33 e 42.   Negli ultimi mesi, Andrew Booker un matematico dell’Universita’ di Bristol ha finalmente risolto l’enigma grazie all’utilizzo di potenti supercomputer. Ha scoperto che:  
1.     33=(8,866,128,975,287,528)³ + (–8,778,405,442,862,239)³ + (–2,736,111,468,807,040)³
2.     42=(-80,538,738,812,075,974)3 + (80,435,758,145,817,515)3 + (12,602,123,297,335,631)3
Si tratta di interi con un elevato numero di cifre (16 e 17). Pensate che questi numeri hanno un ordine di grandezza 7/8 volte maggiore della distanza Terra-Sole espressa in Km. Da qui si evince la necessita’ dell’impiego di supercomputer per portare a termine la ricerca di tali mostri numerici. Questa notizia si e’ subito diffusa sulla rete e c’e’ stata una grande euforia da parte degli ambienti di Teoria dei numeri. Ma perche’?  Di sicuro una parte e’ giustificata dalla difficolta’ nel trovare la soluzione di queste equazioni. E’ dal 1955 che i matematici hanno provato a trovare le soluzioni intere che soddisfano l’equazione:
k = x³ + y³ + z³
con k, x, y e z numeri interi.
In alcuni casi le soluzioni sono facili, come per k=29; altre volte si sa che la soluzione non esiste, come per tutti i numeri k che lasciano un resto di 4 o 5 quando divisi per 9, come per il numero 32. In genere pero’ le soluzioni non sono cosi triviali, come per il caso di 33 e 42 dove i 3 interi sembrano quelli di un biglietto della lotteria senza alcuna struttura prevedibile.
Al momento, per i matematici il solo modo per scoprire queste soluzioni e’ l’utilizzo della forza bruta dei computer per provare le differenti combinazioni di cubi di interi e sperare nella vittoria.  Con la soluzione trovata da Booker non ci sono altri interi k al di sotto di 100 per cui non si conosce la soluzione dell’equazione cubica.  Questo  risultato e’ arrivato non solo grazie all’utilizzo di un supercomputer molto veloce ma anche grazie ad un nuovo modo di effettuare la ricerca delle soluzioni (nuovo algoritmo).
E per k maggiore di 100 cosa succede? Ci sono al momento 11 interi che ancora resistono tra 100 e 1000 e una infinita’ di essi oltre 1000.  Purtroppo non c’e’ alcuna indicazione teorica, nessun pattern che possa permettere ai matematici di avere un’idea di dove cercare. Il classico ago in un pagliaio.  Ma allora, perche’ impegnare del tempo nella ricerca di questi numeri?
Quello che e’ interessante, secondo Booker, e’ che ogni nuova soluzione puo’ aiutare a decidere cosa e’ vero circa il problema della somma dei 3 cubi. L’equazione di questo problema 
k = x³ + y³ + z³
e’ quella che I teorici chiamano un’equazione Diofantea, una specie di struttura algebrica, le cui proprieta’ hanno affascinato i matematici per millenni. Queste equazioni sono delle equazioni polinomiali le cui variabili sconosciute hanno dei valori interi. Esse compaiono in diversi problemi, anche piuttosto semplici della vita quotidiana. Esistono anche i sistemi di equazioni diofantee che rappresentano una naturale estensione delle equazioni. Ad esempio,  si immagini che un negoziante debba acquistare un certo numero di maglioni a collo basso da 40 € ed un certo numero di maglioni a collo alto da 60 €, avendo a disposizione 560 €. Si desidera sapere quanti maglioni di un tipo e quanti dell’altro riesce ad acquistare, nell’ipotesi di voler spendere l’intera cifra a disposizione. Indicando con y il numero di maglioni a collo basso acquistati, ovviamente intero, essendo improbabile che il negoziante voglia acquistare mezzo maglione, e con x quello dei maglioni a collo alto, deve essere
40y + 60x = 560 → 2y + 3x = 28 .
Si tratta di un’equazione in due incognite con coefficienti interi di cui si ricercano le soluzioni intere.


Qualche elementare considerazione numerica fornisce i risultati presentati nella tabella precedente. Dunque, il negoziante ha alcune possibilità, rappresentate dai quattro punti evidenziati in figura, e deciderà di approvvigionarsi di un tipo oppure dell’altro tipo di maglione, a seconda delle scorte di magazzino che possiede. È opportuno sottolineare che, se non vi fosse stato il vincolo delle soluzioni intere, il problema avrebbe ammesso infinite soluzioni, rappresentate da tutti i punti che si trovano sulla retta di seguito disegnata.

Se il negoziante dell’esempio appena sviluppato avesse avuto a disposizione solamente di 550 €, decidendo sempre di spendere l’intera somma a disposizione, come sarebbe cambiata la soluzione? Ebbene, sembra incredibile, ma non esiste alcuna combinazioni di numeri interi che soddisfa l’equazione
40𝑥 + 60𝑦 = 550 → 4𝑥 + 6𝑦 = 55.
È facile convincersi di quanto affermato, osservando che il primo membro è sempre un numero pari, mentre il secondo è dispari.
Le proprieta’ fondamentali delle equazioni Diofantee, ancora impegnano i matematici di tutto il mondo. Per esempio, non esiste nessun metodo affidabile che ci possa dire se una equazione Diofantea abbia o no una soluzione. Secondo Booker, il problema della somma dei 3 cubi e’ una tra le piu’ semplici delle equazioni Diofantee. E’ esattamente alla frontiera di cosa puo’ ancora essere maneggiato anche se con difficolta’.   Per questa ragione, gli esperti di Teoria dei Numeri sono desiderosi di capire tutto quello che c’e’ da capire sulla somma dei 3 cubi. 
Un risultato sicuramente piu’ eclatante, sarebbe quello di provare la congettura che 
k = x³ + y³ + z³
ha un’infinita’ di soluzioni per ogni numero intero k, ad eccezione di quelli che hanno come resto 4 o 5 quando divisi per 9. Gli strumenti concepiti per tale dimostrazione potrebbero aiutare a forzare la logica del problema o essere applicati ad altre equazioni Diofantee. I risultati di Booker, offrono un supporto per questa congettura, dando ai matematici una maggiore confidenza sulla ricerca della dimostrazione. In realta’, ogni qualvolta i matematici hanno fatto una ricerca estendendo l’intervallo numerico, hanno trovato nuove soluzioni rimuovendo cosi possibili controesempi alla congettura.
Ma chi era Diofanto? Vissuto nel III secolo dopo Cristo, è considerato l’iniziatore del calcolo algebrico. Scrisse un trattato sui numeri poligonali e sulle frazioni, ma la sua opera principale sono gli Arithmetica, un trattato in tredici volumi dei quali soltanto sei sono giunti fino a noi. La sua fama è principalmente legata a due argomenti: le equazioni indeterminate ed il simbolismo matematico. Ben poco si sa della sua vita e quel poco è stato trasmesso da Herbert Westren Turnbull (31 agosto 1885 – 4 maggio 1961), un storico inglese della Matematica che ha rinvenuto e tradotto l’epigramma greco, noto come Epitaffio di Diofanto. Si tratta di un problema aritmetico proposto sotto forma di epigramma e fa parte di una raccolta di quarantasei indovinelli, che il grammatico latino Metrodoro, durante il VI secolo dopo Cristo, incluse nell’Antologia Greca. Tutti i quesiti corrispondono ad equazioni di primo grado ad un’incognita. Ecco il testo dell’indovinello. Questa tomba rinchiude Diofanto e, con grande meraviglia, dice matematicamente quanto ha vissuto. La sua giovinezza durò un sesto della sua vita; poi la sua barba iniziò a crescere dopo un dodicesimo; si sposò dopo un settimo e gli nacque un figlio dopo cinque anni. Il figlio visse la metà degli anni del padre e il padre morì quattro anni dopo il figlio. Quanti anni visse Diofanto?
Detta 𝑥 l’età di Diofanto, il problema si traduce nell’equazione
1 6 𝑥 + 1 12 𝑥 + 1 7 𝑥 + 5 + 1 2 𝑥 + 4 = 𝑥𝑥 = 84 .
Se l’epitaffio corrisponde a verità, Diofanto morì all’età di ottantaquattro anni.
Un altro indovinello di tipo diofanteo è stato proposto, qualche anno fa, quale test di ingresso agli studi universitari tecnico-scientifici. Ecco il testo. Fra tre anni Matteo avrà il doppio dell’età che Sara aveva tre anni fa, mentre ora il quadruplo degli anni di lui è pari al quintuplo degli anni di lei. Se è possibile determinarlo, qual è l’età di Matteo e di Sara? Si indichi con 𝑥 l’età di Matteo e con 𝑦 quella di Sara. Per determinare queste due incognite intere, è sufficiente impostare un sistema lineare di equazioni, utilizzando le due condizioni imposte dal testo dell’indovinello. Precisamente, l’affermazione contenuta nel testo fra tre anni Matteo avrà il doppio dell’età che Sara aveva tre anni fa, in termini analitici, si trasforma nell’equazione 𝑥 + 3 = 2(𝑦 − 3) → 𝑥 − 2𝑦 = −9. Similmente, l’affermazione ora il quadruplo degli anni di lui è pari al quintuplo degli anni di lei, diventa 4𝑥 − 5𝑦 = 0. Mettendole insieme, risulta il sistema di due equazioni lineari [𝑥 − 2𝑦 = −9 , 4𝑥 − 5𝑦 = 0] , la cui soluzione costituisce l’obiettivo dell’esempio. Prima però di risolverlo, è opportuno verificare che esso ammetta un’unica soluzione, per cui è necessario verificare che il determinante | 1 −2 4 −5| = 3 ≠ 0 sia diverso da zero. Si ottiene allora che
𝑥 = 15,  𝑦 = 12,
cioè Matteo ha quindici anni e Sara ne ha dodici. La figura che segue illustra in maniera grafica l’intersezione tra le due rette 𝑦 =( 𝑥 + 9)/2 (blu), 𝑦 = 4/5𝑥 (rossa), cioè la soluzione grafica dell’indovinello: l’asse delle ascisse rappresenta l’età di Matteo, quello delle ordinate indica invece l’età di Sara, e il punto 𝑃 è la soluzione del problema.

mercoledì 14 agosto 2019

Primi additivi e moltiplicativi


In passato ho dedicato parte del mio tempo a scoprire nuove sequenze matematiche. Una sequenza e’ una stringa ordinata finita o infinita di numeri.
Come vedete parlo di scoperta e non di invenzione. Questo perche’ sono convinto che la matematica esista indipendentemente dall’uomo. La matematica pervade il nostro universo ed e’ alla base delle equazioni fisiche che lo regolano. E queste esistevano gia’ molto prima che comparisse l’uomo visto che erano a lavoro gia’ al momento del Big bang senza che nessun uomo le pensasse o le elaborasse. La matematica quindi esiste per se stessa e non perche’ creata dalla mente dell’uomo. So che esitono matematici e scienziati che la pensano diversamente ma questo e’ il mio personalissimo pensiero.
Ok, ma come si fa a capire se una sequenza scoperta e’ veramente nuova, interessante ed utile da un punto di vista matematico? Semplicemente digitando i primi termini della sequenza sul sito di N. J. A. Sloane “The on-line encyclopedia of integer sequences”. Se la sequenza c’e’ allora non siete stati voi a scoprirla per primi. Negli anni passati di sequenze ne ho scoperte circa un trecento (tutte inserite nell’Enciclopedia di Sloane)  e oggi voglio parlarvi di alcune di esse a cui sono particolarmente affezionato. Inizio col chiedervi cosa lega,  secondo voi,  questi numeri:

2, 3, 5, 7, 11, 23, 29, 41, 43, 47, 61, 67, 83, 89, 101, 113

Da un rapido sguardo sembra che tutti i termini ad eccezione del primo siano dispari. Inoltre nessun numero ha 5 come ultima cifra. Questo esclude, quindi i numeri divisibili per 5. Ma anche i multipli di 3 vanno esclusi essendo i  numeri presenti nella sequenza non divisibili per 3. Sembra che tutto punti ai numeri primi, cioe’ ai numeri divisibili per 1 e per se stessi solo. Eppure guardando attentamente manca il numero primo 13, 17, 19 per citarne solo alcuni. Quale e’ la proprieta’ condivisa da questa stringa di numeri che al momento ci sfugge? Semplicemente questa: numeri primi la cui somma delle cifre e’ ancora un numero primo. Per esempio 43 fa parte della sequenza in quanto 43 e’ un primo e lo e’ anche la somma delle sue cifre 4+3=7. Al contrario 13 non fa parte della sequenza in quanto 13 e’ un numero primo ma non lo e’ la somma delle sue cifre che da’ 4. A questo link un video youtube che parla dei primi additivi. Questo come appare la sequenza sul sito di Sloane. Link





Per chi non lo ricordasse, i numeri primi sono gli atomi della matematica. Cosi’ come tutto quello che ci circonda e’ fatto di atomi, cosi i numeri naturali sono il prodotto univoco di numeri primi. Il terorema fondamentale dell’aritmertica, infatti stabilisce che ogni numero naturale maggiore di 1 o e’ un numero primo o si puo’ esprimere come prodotto di numeri primi. Tale rappresentazione e’ unica, se si prescinde dall’ordine in cui compaiono i fattori. Facciamo un esempio. Il numero intero 10 e’ dato dal prodotto dei due numeri primi 2 e 5. Il numero 15 dal prodotto di 3 e 5. 20 dal prodotto 2*2*5 e cosi via. Questo significa che e’ possibile ottenere tutti i numeri che conosciamo a partire da un suo sottoinsieme: i numeri primi. I numeri naturali sono infiniti. Qualsiasi numero venga in mente per quanto grande che sia, puo’ essere sempre superato dallo stesso numero piu’ 1. Da qui si capisce facilmente che i numeri naturali sono infiniti. Cosa possiamo dire invece per i numeri primi? Si ritiene che la risposta sia stata data dal matematico greco Eulero nei suoi Elementi (Libro IX proposizione 20) che stabili’ in modo rigoroso che il numero dei primi e’ infinito. E cosa succede per i primi additivi? Sono meno dei numeri primi e questo e’ ovvio essendo un loro sottoinsieme. Ma il loro numero e’ finito o infinito? E quanti primi additivi ci sono se cambiamo la base passando per esempio da base 10 a base 2, 3, 12 ecc.? Nel 2009 Drmota, Maduit e Rivat hanno dimostrato che il numero di primi minori di n con somma delle cifre in base b uguale a k tende, se b-1 e k non hanno divisori comuni, a:



dove Π(n) indica il numero di primi fino a n e ϕ(b-1) e’ la funzione di Eulero, cioe’ il numero di interi positivi minori di b-1 che non hanno divisori in comune con b-1. Questo significa che per numeri n, molto grandi e’ possibile trovare un numero molto grande di primi (tendente all’infinito)  la cui somma delle cifre k e’ essa stessa un numero primo.
Nel 2012 Glyn Harman (Link) ha dimostrato che, se e’ vera una congettura sulla distribuzione dei numeri primi in piccoli intervalli, la somma dei reciproci dei primi additivi minori di n in base 10 tende a:
3/2(ln(ln(ln(n)))    per n tendente all’infinito
Qui l’andamento della somma dei reciproci dei primi additivi.




Quindi il numero di primi additivi e’ infinito.
La congettura stabilisce che esista una funzione f(x) che tende a zero al crescere di x, tale che il numero di primi nell’intervallo [x, x+sqrt(x)f(x)] tenda a (sqrt(x)f(x))/ln(x). Sebbene assolutamente plausibile questa congettura e’ piu’ forte della stessa congettura di Riemann.
Dalla sequenza dei primi additivi a quella dei primi la cui somma delle cifre e’ un numero pari o un  numero dispari il salto e’ breve.

2,11,13,17,19,31,37,53,59,71,73,79,97,101,103,...

3,5,7,23,29,41,43,47,61,67,83,89,113,131,137,...

Queste due sequenze in media hanno lo stesso numero di elementi? Nessuno ha saputo rispondere fino a che nel 1968, il matematico russo Alexander Gelfond ipotizzo’ di si. Ma si trattava di una congettura e non di una dimostrazione. Per ottenere quest’ultima si e’ dovuto aspettare il 2010 quando alcuni ricercatori dell’Istituto di Matematica di Luminy (Francia) hanno pubblicato un  articolo negli Annals of Mathematics dal titolo Sur un probleme de Gelfond: la somme des chiffres des nombres premiere.
Il metodo impiegato ha le sua fondamenta nella matematica combinatoria, la teoria analitica dei numeri e l’analisi armonica. Di sicuro questa scoperta permettera’ di rispondere ad altre questioni relative alle sequenze dei numeri primi ancora aperte. Questioni che oltre all’interesse puramente teorico sono legate alla costruzione di sequenze di numeri pseudo-randomici ed hanno importanti applicazioni nella crittografia.  
Dopo i primi additivi il passaggio a quelli che ho chiamato primi moltiplicativi e’ stato semplice. La sequenza e’ costituita da quei numeri primi il cui prodotto delle cifre e’ anch’esso un numero primo. Per esempio 113 fa parte della sequenza in quanto 1*1*3=3 che e’ primo (link).

 

 Osserviamo che il prodotto di un qualsiasi numero di cifre in base 10 (0,1,2,3,4….9) escludendo lo 0 e’ un numero composto (prodotto di piu’ fattori) a meno che non abbiamo una cifra prima e tanti 1.   

1*3*4*7=84                      ovviamente non e’ primo essendo il prodotto dei fattori  3*2*2*7

1*1*1*1*1*1*3*1=3    e’ un numero primo

Questa propieta’ e’ stata evidenziata nel 2014 da Jens Kruse Andersen un amante dei numeri primi e autore di un sito dal titolo Prime records.
Al momento non conosciamo molto su questi numeri, come anche su quelli ottenuti semplicemente dall’intersezione dei primi  additivi e moltiplicativi che riporto qui di seguito (link). 



  Chiunque in questi giorni di afa voglia divertirsi con questi numeri lo puo’ fare. E chissa’ che non possa scoprire qualche importante proprieta’ da meritarsi un posto nell’Enciclopedia di N. J. A. Sloane.
 In bocca al lupo.

venerdì 10 maggio 2019

Paradossi della statistica

E’ possibile che la panna acida possa avere un impatto sulle cadute da motocicletta? O che il numero di persone morte per caduta dalla propria sedia a rotelle sia legato al costo delle patatine? O anche che il numero di film interpretati  da Cages sia proporzionale al numero di persone morte per annegamento in piscina? E mai possibile credere alla cosiddetta maledizione di Ramsey, che stabilisce che ogni volta che il centrocampista gallese dell’Arsenal, Aaron Ramsey segna un gol, qualcuno di famoso nel mondo muore?
Ovviamente no anche se sembra essere cosi: grafici divertenti rivelano come la statistica possa creare delle false relazioni (date un occhiata qui). Gli scienziati quotidianamente sono impegnati a cercare possibili correlazioni all’interno di grandi moli di dati per verificare ed eventualmente dimostrare certe teorie. Ma se due insieme di dati sono correlati tra loro da un punto di vista statistico non significa necessariamente che essi realmente siano strettamenti legati tra loro. Trovare una correlazione tra due insiemi non sempre significa causazione. 






Questi grafici sono degli esempi di correlazioni spurie. Queste correlazioni in genere vengono trovate dai computer. Date due qualsiasi variabili essi calcolano velocemente grazie ai loro algoritmi interni un coefficiente statistico chiamato “erre quadro R2” la cui vicinanza ad uno indica la bonta’ della correlazione. Ma la correlazione statistica in se non dice quasi nulla. C’e’ bisogno della conferma da parte dell’analista. Quello che esso deve fare e’ semplice: guardare i grafici che hanno una buona correlazione statistica, formulare un’ipotesi ed eventualmente rigettarla in base alla sua esperienza personale e background culturale. In genere se X e Y mostrano una correlazione quello che si fa e’ far variare la X e vedere cosa succede alla Y anche se cio’ non e’ sempre possibile. In un mondo sempre piu’ dominato dal machine learning e dalla scienza dei dati questo diventa il vero problema: l’incapacita’ di stabilire se una correlazione e’ casuale o causale. Questo non lo puo’ fare un computer ma solo un umano. Tutti gli scienziati del mondo stanno lavorando a questo problema e al momento non esiste alcuna soluzione. Trovare i meccanismi causali e’ il principale scopo di molte ricerche scientifiche in quanto ogni volta che troviamo un meccanismo causale riusciamo a fare un passo avanti nella conoscenza del mondo che ci circonda. A volte capita di vedere delle correlazioni che non riusciamo a spiegare e questo determina uno stimolo per gli scienziati a cercare una potenziale causa. Un buon esempio di correlazione che porta a delle conclusioni importanti e’ quello della connessione tra il tumore ai polmoni e il fumo. Agli inizi del 1990 si osservo’ un aumento di casi di tumore ai polmoni e nessuno sapeva il perche’. Nel 1929 il fisico Fritz Lickint pubblico’ un articolo in cui mostrava che i pazienti con cancro ai polmoni per lo piu’ erano stati dei fumatori. Questo articolo diede inizio a tutta una ricerca grazie alla quale gli scienziati riconobbero la pericolosita’ del fumo. Senza il grafico di correlazione tutto questo non sarebbe potuto accadere. Le correlazioni tra due variabili possono essere delle mere coincidenze, o il risultato di una connessione causale sottostante. Ogni volta che vediamo una correlazione abbiamo l’opportunita’ di capire di cosa si tratti.
A volte le correlazioni tra due enti possono apparire spurie a causa delle cosiddette variabili omesse o lurking variables. Sono proprio le variabili omesse a confondere le acque in quanto si muovono con le due variabili considerate ma non vengono osservate. Per esempio se guardiamo alla correlazione tra anni di istruzione e salario futuro si rischia di sopravvalutare l’effetto causale dell’istruzione sul salario se non si tiene conto per esempio della variabile abilita’. La ragione e’ che l’istruzione assorbe l’effetto dell’abilita’. Individui piu’ abili studiano per piu’ anni e guadagnano di piu’. Questo fa si ch uno pensa che il guadagno sia tutto dovuto all’istruzione senza pensare pero ‘ all’abilita’ della persona.
In generale, quindi un grafico da solo non serve a nulla. Da un punto di vista statistico le variabili omesse sono I serial killer di chi vuole dimostrare qualche cosa con un grafico. Altro esempio famoso di lurking variables e’ quello delle cicogne del paese austriaco di Oldenburg. Riportando sulle ascisse di un grafico XY il numero di nidi di cicogne e in ordinate la popolazione del paese si osserva una correlazione positiva tra queste due variabili, correlazione ovviamente inaspettata. E’ possibile ipotizzare quindi che ci sia in giro qualche variabile omessa come il numero di cacciatori nelle campagne, il numero di comignoli delle nuove case, un migliore habitat nelle zone di riproduzione delle cicogne o chissa’ cos’altro.




Passiamo a un tema connesso che va sotto il nome di paradosso di Simpson, cioe’ l’apparire di contraddizioni tra l’analisi di dati aggregati e dati disaggregati. Vediamo un esempio. Nel 1973 l’universita’ di Berkeley fu uno dei primi atenei ad essere denunciato per discriminazione di genere. Per l'ammissione al semestre autunnale di quell'anno furono esaminate 12.763 domande di iscrizione (8442 di ragazzi e 4321 di ragazze) e le ammissioni, suddivise per genere, furono quelle riportate nella tabella seguente.


Per l'università fu naturale disaggregare i dati per capire quali dipartimenti avevano contribuito a questa discrepanza. Quelli che seguono sono i dati dei sei principali dipartimenti. 


Qui la differenza di genere è ancora più marcata: risultano ammessi circa il 45% dei maschi e il 30% delle femmine. Eppure in 4 dipartimenti la percentuale di ragazze ammesse è maggiore, mentre nei rimanenti due il vantaggio dei maschi è contenuto. In altre parole, il dato complessivo dei sei dipartimenti mostra una discriminazione verso le femmine, mentre nel dato disaggregato non appare alcuna discriminazione o addirittura si può pensare ad una discriminazione contro i maschi. La spiegazione è nel fatto che i dati precedenti non tengono conto delle scelte dei dipartimenti da parte delle candidate/dei candidati. Le ragazze tendevano ad iscriversi ai dipartimenti piu’ selettivi, nei quali la percentuale di ammissioni era inferiore, mentre i maschi si iscrivevano spesso a dipartimenti in cui era più facile essere ammessi. Un altro esempio in cui la presenza di variabili nascoste porta ad una forma di confondimento e’ il seguente. Durante una riunione di facoltà, un gruppo di insegnanti decise di aver bisogno di capire per gli studenti quale poteva essere la durata ottimale dello studio al fine di ottenere risultati sempre piu’ soddisfacenti. Raccolsero cosi le ore di studio dei diversi studenti e li confrontarono  con i punteggi dei loro test. I risultati furono sbalorditivi. Per la confusione di tutti, meno uno studente studiava, più in alto tendeva ad arrivare nei test.


In effetti, il coefficiente associato a questa correlazione e’ di -0.79, una relazione fortemente negativa. Gli insegnanti avrebbero dovuto incoraggiare i loro studenti a studiare di meno? In che modo i dati avrebbero potuto sostenere una simile richiesta? Sicuramente mancava qualcosa.
Dopo aver discusso i risultati, gli insegnanti convennero di consultare lo statistico della scuola che suggerì loro di analizzare i dati di ciascun corso individualmente. Qui la situazione per educazione fisica.


Una correlazione di 0,63! Ecco il paradosso di Simpson. Un fenomeno statistico in cui una relazione apparentemente forte si inverte o scompare quando viene introdotta una terza variabile confondente. Codificando a colori ogni corso separatamente per distinguerli l'uno dall'altro appare questo grafico.


In questo modo gli insegnanti finalmente capirono che più ore uno studente studiava, più il voto tendeva ad essere alto come ci si aspetta. L’Inclusione del corso di studio nell'analisi statistica aveva completamente invertito la relazione iniziale dando un senso cosi a dei dati che inizialmente sembravano segnalare una correlazione spuria. Il paradosso di Simpson e’ molto importante in statistica medica quando si deve indagare l’efficacia di nuovi farmaci o  l’impatto di un fattore esterno tipo il fumo delle sigarette sulla salute.
Volendo quantificare l’impatto del fumo sulla salute delle persone, possiamo prendere 2 gruppi (fumatori e non fumatori) e stabilire il numero di decessi in percentuale. Supponiamo che le persone dei due gruppi vengano divisi per fascie di eta’ come mostrato nella tabella seguente. 



Calcoliamo il numero di decessi percentuale per i fumatori e non fumatori usando la media ponderata. Per i fumatori abbiamo:

% decessi fumatori= (3.6*(55+62)+2.4(124+157)+…..)/(117+281+….+77)=36.63%
% decessi non fumatori=(1.6*(55+62)+3.1(124+157)+…..)/(117+281+….+77)=25.84%

Fumare allunga la vita? E’ mai possibile? No. L’anomalia sta nel non aver considerata una variabile nascosta importante: l’eta delle persone. Se guardiamo, infatti alle singole fasce ci accorgiamo che su 7 gruppi solo una volta la percentuale di decessi per non fumatori e’ maggiore di quella dei fumatori. Per il restante 85% dei casi invece e’ vero il contrario come ci si aspetta.
Un altro esempio dal mondo medico. Due cure (X e Y) per il trattamento dei calcoli renali sono state sperimentate su due gruppi di 350 pazienti, con il risultato che la percentuale di successi è stata del 78% per la cura X e dell’83% per la cura Y. Se però si separano i risultati rispetto alla gravità della malattia, la conclusione cambia: si scopre che per i casi gravi la percentuale di successi è stata del 73% per la cura X e del 69% per la cura Y; mentre per i casi non gravi la percentuale di successi è stata del 93% per la cura X e dell’87% per la cura Y.
In altre parole, i pazienti sono stati suddivisi in due gruppi (calcoli piccoli e calcoli grandi); per ciascuno dei due gruppi sembra migliore la cura X, ma se non suddividiamo i pazienti allora, nel gruppo complessivo, sembra migliore la cura Y. Per capire cosa è successo controlliamo innanzitutto i numeri.



che mostrano un fatto aritmetico non molto intuitivo:


Abbiamo quindi otto numeri positivi a, b, r, s, A, B, R, S tali che


È utile visualizzare questo fatto nel modo seguente. Possiamo, ad esempio, vedere la frazione / come il coefficiente angolare della retta che collega l'origine con il punto (, ) nel piano cartesiano. Analogamente / è il coefficiente angolare della retta che collega l'origine con il punto (, ). Infine ( + )/( + ) è il coefficiente angolare della retta che collega l'origine con il punto ( + , + ), cioè con la somma dei vettori (, ) e (, ), ottenuta attraverso la regola del parallelogrammo.
Ora osserviamo che la diseguaglianza A/B>a/b significa che la semiretta che parte dall’origine e passa per il punto (b,a) sta sotto quella che passa per (B,A) e analogamente per gli altri punti. La seconda figura mostra un esempio in cui le tre diseguaglianze A/B>a/b, R/S>r/s, (A+R)/(B+S)<(a+r)/(b+s) sono soddisfatte. 



Tornando all’esempio delle cure, non è difficile spiegare cosa è successo. Le consistenze dei quattro gruppi rispetto alla gravità della malattia erano molto diverse: inoltre i medici tendevano a somministrare la cura X (migliore) ai casi più gravi (calcoli grandi) e la cura Y (meno efficace) ai casi meno gravi (calcoli piccoli). Il risultato complessivo è quindi sostanzialmente determinato dai gruppi 2 e 3 nella tabella.


Somministrando la cura X prevalentemente a malati gravi (e la cura Y prevalentemente a malati non gravi), come è stato fatto nello studio in considerazione, si ottiene che l'efficacia globale della cura X è inferiore, e questo potrebbe portare alla discutibile conclusione che la cura X è meno efficace. Concludendo, una correlazione non ci dice assolutamente nulla sui rapporti causali sottostanti. Chi in assenza di esperimenti cerca di dimostrare qualche cosa con un grafico non conosce la statistica o e’ in cattiva fede.

venerdì 12 aprile 2019

All’ombra del mastodontico mostro …..



Dopo la scoperta delle onde gravitazionali, un’altra previsione della relativita’ generale di Einstein ha avuto la sua conferma. La notizia ha fatto la sua comparsa sui media di tutto il mondo ieri, 10 Aprile 2019. La notizia si e’ subito sparsa a macchia d’olio lungo la rete del web e i social, spesso con post poco attendibili e informazioni inesatte. Di cosa si tratta? Ancora una volta gli scienziati ci hanno sorpreso e meravigliato. Questa volta abbiamo visto quello che per definizione non e’ possibile vedere. Si e’ proprio cosi. Si tratta della prima prova diretta visiva di una buco nero super-massiccio. L’immagine e’ il risultato di una collaborazione internazionale al lavoro da molti anni (Event Horizon Telescope Collaboration, in breve EHT). L’annuncio e’ arrivato con la pubblicazione di 6 articoli in un special issue del The Astrophysical Journal Letters (Link). Poiche’ ognuno di noi conosce i buchi neri per aver sentito o letto qualche cosa almeno una volta nella vita, si fa fatica a capire la portata della scoperta; diciamo che fino a ieri avevamo solo un’evidenza teorica, qualche immagine simulata al computer o una rappresentazione artistica di un buco nero. Nniente di piu’. Adesso invece non e’ piu’ cosi. Finalmente abbiamo una sua foto anche se alcune precisazioni sono necessarie. Ma procediamo con ordine.




La foto che ha fatto il giro del mondo in pratica e’ la prima immagine radio del buco nero super-massiccio (circa 6.5 miliardi di volte la massa del nostro Sole) al centro della galassia M87 anche conosciuta come Virgo A (una supergigante ellettica – vedi foto sotto) , a 55 milioni di anni luce dalla Terra.





L’immagine catturata dal team di ricercatori internazionali in effetti non e’ esattamente il buco nero; un buco nero e’ nero proprio perche’ la luce non puo’ scappare via essendo attratta dalla sua fortissima forza gravitazionale e quindi di per se un buco nero e’ invisibile. In realta’ l’immagine mostrata e’ quella che gli astronomi chiamano l’ombra proiettata del buco nero, con un anello luminoso formato dalla curvatura della radiazione che passa nelle vicinanze del buco nero dove lo spazio-tempo e’ fortemente deformato. Vediamo meglio cosa succede.
Un osservatore quando vede un oggetto luminoso nel cielo, in pratica sta ricevendo dei treni di fotoni (quanti del campo elettromagnetico) che colpiscono i suoi occhi. Dalla relativita’ di Einstein, sappiamo che qualsiasi massa perturba la tela dello spazio tempo e quindi e’ in grado di deviare anche i fotoni che a un certo punto non seguono piu’ la loro traiettoria rettilinea ma curvano.




Quando un buco nero e’ circondato da materiale luminoso (grazie all’accelerazione del forte campo gravitazionale il materiale nelle sue vicinanze diventa un plasma che emette onde elettromagnetiche) si riesce a vedere la sua sagoma se il materiale circostante a’ abbastanza trasparente da far passare i fotoni (vedi immagine sotto a sinistra dove i raggi in giallo sono i fotoni deviati e quelli neri catturati dal buco nero centrale nel piano equatoriale z=0). Questa ombra del buco nero e’ significativamente piu’ grande della reale dimensione dell’orizzonte degli eventi del buco nero. Questo perche’ l’ombra proiettata che osserviamo e’ l’ombra generata dalla zona di cattura dei fotoni e non l’orizzonte degli eventi stesso. Quest’ultimo e’ sempre interno alla sfera di cattura dei fotoni; confrontare il disco dell’immagine superiore a sinistra, cioe’ l’orizzonte degli eventi, con quello dell’immagine inferiore che invece rappresenta la zona di cattura della sfera di fotoni.



Nell’immagine di sinistra si e’ ipotizzato che il buco nero sia immobile. Nella realta’ esso ruota su stesso e quindi a causa dell’effetto di trascinamento (secondo la relativita’ un oggetto ruotante trascina lo spazio tempo intorno a se) l’ombra proiettata diventa distorta come mostrato nell’immagine sopra a destra. Questo si spiega semplicemente considerando la velocita’ di rotazione del materiale intorno al buco nero che sulla sua destra (la sinistra dell’osservatore) e’ diretta verso di noi e sulla sinistra in allontanamento da noi. L’immagine di seguito e’ la mappa delle velocita’ stellari della parte centrale di M87 rispetto ad un osservatore terrestre. In blu viene rappresentato il moto in direzione della Terra mentre in rosso quello in allontanamento dalla Terra. In giallo e verde le altre direzioni tra queste due estreme. Laddove abbiamo le regioni blu, avremo un anello piu’ luminoso rispetto a quelle rosse. Ecco spiegata l’asimmetria di luminosita’ nell’immagine del buco nero.




Cosa hanno utilizzato gli astronomi per ottenere questa immagine? Un telescopio chiamato Event Horizon. In effetti non si tratta di un singolo telescopio, ma di una matrice di 8 radio-telescopi posizionati in diversi continenti e disegnati proprio per catturare l’immagine diretta di un buco nero. Qui di seguito la posizione degli otto radio-telescopi: Arizona, Hawai, Messico, Cile, Spagna e Polo Sud. La scelta delle onde radio rispetto al visibile ha il vantaggio che la luce del Sole, le nuovole e la pioggia non influenzano le osservazioni degli oggetti celesti.




Come per la scoperta delle onde gravitazionali, anche in questo caso e’ stata usata la tecnica dell’interferometria per migliorare la risoluzione angolare dello strumento. Quest’ultima e’ l’abilita’ di un telescopio nel distinguere due oggetti molto vicini tra loro. In fisica sappiamo che la risoluzione R e’ approssimativamente data dal rapporto tra la lunghezza d’onda lambda e la dimensione del telescopio D. Piu’ e’ grande il diametro di un telescopio e piu’ R e’ piccola (migliore risoluzione angolare). Questa e’ la ragione per cui gli astronomi sono alla continua rincorsa di telescopi sempre piu’ grandi. Semplicemente per avere una vista sempre piu’ fine. Giusto per fare un confronto, la risoluzione di un occhio umano e’ di circa 60 arco-secondi di grado per la luce visibile e quella del telescopio Hubble con i suoi 2,4 metri di diametro e’ di circa 0.05 arcsec di gradi.
Ma cosa e’ un arcsec? Se consideriamo un cerchio esso puo’ essere diviso in gradi. Ogni grado puo’ essere diviso in 60 arcminuti e ogni minuto in 60 arcsecondi, cioe’ un grado corrisponde a 3600 sec di arco (arcsec).
Anche se la risoluzione del telescopio Hubble e’ impressionante, non e’ sufficiente per vedere l’orizzonte degli eventi di un buco nero. Per fotografare il buco nero al centro di M87 e’ stata necessaria una risoluzione di soli 22 micro arcsec di grado cioe 0.000022 arcsec di grado. Questo significa che la luna che ha una dimensione angolare di 0.5 gradi e’ qualche cosa come 82 milioni di volte piu’ grande della dimensione angolare del buco nero di M87. Per arrivare a questa risoluzione da capogiro si e’ pensato di far lavorare all’unisono gli 8 telescopi sparsi nel mondo con un D nella formula di R pari alla massima distanza tra qualsiasi coppia di telescopi nella matrice. E’ come se avessimo costruito un unico telescopio con un diametro enorme. Con questa risoluzione sarebbe possibile leggere un giornale posizionato sulla superficie lunare. Senza la necessaria risoluzione il buco sarebbe apparso come un semplice puntino come accade nel caso di due sorgenti luminose molto vicine in caso di basso potere risolutivo. Vedremmo una sola sorgente.



Ma se si tratta di radio-telescopi come hanno fatto gli scienziati a costruire l’immagine pubblicata all’inizio di questo post? In effetti non si tratta di un immagine nell’intervallo del visibile ma di un’immagine radio. Tra queste due radiazioni non c’e’ molta differenza a parte la lunghezza d’onda. Molto grande per le onde radio rispetto al visibile. Per il resto sono entrambe onde elettromagnetiche che si propagano alla velocita’ della luce grazie alla variazione combinata di campi elettrici e magnetici. Avendo una lunghezza d’onda diversa questi due tipi di onde interagiscono in modo diverso con la materia. Le onde radio per esempio, attraversano i muri mentre quelle della luce visibile no. Se la luce colpisce un certo oggetto, noi lo possiamo vedere grazie alla luce riflessa che arriva ai nostri occhi. Un’alternativa e’ quella di utilizzare una macchina fotografica o una camera e registrare la luce per poi rivedere l’oggetto in qualsiasi momento su un PC o sulla TV. L’immagine del buco nero pero’ come detto e’ un’immagine radio e quindi ogni pixel e’ la rappresentazione di una particolare onda radio. Quando per esempio vediamo il colore arancio, questo e’ un falso colore che sta a rappresentare le onde radio di circa 1 mm. La stessa cosa succede se vogliamo “vedere” un immagine negli infrarossi o ultravioletto. Dobbiamo convertire queste lunghezze d’onda in qualche cosa da poter vedere. In questo senso l’immagine del buco nero non e’ una normale fotografia ne’ qualche cosa che si puo’ vedere con un telescopio ottico. Pur tuttavia rimane inalterato il fascino e la bellezza con cui il buco nero si e’ presentato a noi, puntini infinitesimi sulla superficie di un piccolo pianetino in fuga nell’Universo.

martedì 22 gennaio 2019

Archeocarpologia

Oggi con grande piacere, dopo aver otternuto il permesso, pubblico la tesi di mia figlia Gilda che tratta di  un argomento scientifico ( e quindi in linea con i temi del blog) poco noto alla maggior parte delle persone. Si tratta dell’archeocarpologia e cioè dello studio dei resti di semi, frutti e annessi fiorali. Insieme all’archeopalinologia (studio dei pollini, spore) e all’Archeoxilo-antracologia (studio dei legni e dei carboni) costituisce la disciplina dell’archeobotanica che si occupa dello studio dei reperti vegetali sia microscopici che macroscopici provenienti da siti archeologici a partire dal paleolitico fino all’eta’ moderna. Il suo scopo è quello di trovare le relazioni esistenti fra l’uomo e l’ambiente vegetale e l’evolversi e il modificarsi nel tempo di tale interazione. Negli ultimi anni il contributo delle analisi archeobotaniche si è rivelato di fondamentale importanza in quanto non solo fornisce utili elementi per ricostruire l’evoluzione del paesaggio di un determinato sito, ma contribuisce anche a conoscere le attività dell’uomo nel corso del tempo, scoprendo ad esempio quali piante coltivava e raccoglieva, quali utilizzava e per quale scopo, oppure quali prodotti raccoglieva/trasformava (ceduazione dei boschi, vinificazione, trebbiatura, ecc.), o ancora, se vi erano boschi oppure zone umide o canali, ecc. fino ad acquisire importanti informazioni relative al substrato, al clima, all’orografia e alla topografia del territorio. Dopo questa breve  introduzione ritorniamo alla tesi dal titolo:  “Analisi carpologica del materiale rinvenuto in un pozzo adiacente al Santuario romano di Ercole in Alba Fucens”. Lo studio è stato effettuato sotto la direzione della Professoressa Sadori della Sapienza di Roma e ha avuto come oggetto lo studio dei resti carpologici rinvenuti durante gli scavi del 2011-2013, effettuati dalla Soprintendenza dell’Abruzzo sotto la direzione della dottoressa Ceccaroni, relatrice esterna della Tesi. Le conclusioni dello studio sono state molto interessanti per diversi motivi. Si e’ trattata della prima indagine archeocarpologica effettuata ad Alba Fucens, colonia romana risalente a circa il 300 aC e oggi ubicata a pochi chilometri da Avezzano.  E’ stata stabilita una significativa presenza di sambuco nero rispetto a siti analoghi di epoca romana. Questo sembra essere in linea con quanto stabilito dall’antropologa Nicolai, che in base ai suoi studi glottologici fa risalire il suffisso sabus, dei nomi Sabini, Sanniti e Sabelli (popoli dell’antico Abruzzo), a quello di sambus (sambuco) cioè popoli coltivatori del sambuco. Il ritrovamento di resti di uva, pesche, noci, nocciole, fico, ciliegio e more fa capire che la dieta di questi popoli di circa 2000 anni fa non era poi tanto diversa da quella che ancora sopravvive negli stessi luoghi oggi. Per le noci e le pesche, in particolare, si è stabilito  che già a quell’epoca  venissero coltivate, come anche probabilmente la vite. Un ultimo ritrovamento, degno di nota, è stato quello di una pianta spontanea (lisca natante) ritenuta con molto probabilità oggi assente in Italia e mai esistita in Abruzzo, secondo quanto riportato dal sito Acta Plantarum. A questo punto vi lascio alla lettura dello studio  sperando che vi possa piacere.
Link tesi
http://www.wikio.it