lunedì 26 settembre 2016

Come produrre l'antimateria per distruggere il mondo

Nel romanzo Angeli e Demoni di Dan Brown si parla di scienziati del Cern che trasportano clandestinamente una valigetta di antimateria fuori del laboratorio, con lo scopo di distruggere il Vaticano (se mi ricordo bene). Non so quanti abbiano preso seriamente la storia (nel caso del Codice da Vinci, sempre dello stesso autore, alcuni lo avevano fatto: fonte). Di sicuro però si capiva fin dall'inizio del romanzo che le cose non potevano essere prese proprio alla lettera. Lo si capiva da quando una lussuosa auto del Cern con annesso autista andava a prendere all'aeroporto uno dei protagonisti del romanzo, e tornando indietro percorreva il tratto Aeroporto di Ginevra-Cern a 200 all'ora.

A parte che il Cern non possiede, che io sappia, nessuna lussuosa auto con autista, ma anzi le macchine del Cern sono dei furgonati bianchi con il minimo sindacale degli optional, il tratto di strada fra l'aeroporto e il Cern ha il limite a 60 e è talmente pieno di autovelox che nessuno ma veramente nessuno si azzarda a fare di più. Nemmeno l'autista del Cern, che comunque non esiste.

Ma a parte questo, in molti si sono chiesti se sia possibile produrre antimateria a sufficienza da rappresentare un rischio per il mondo, tanto che il Cern ha dedicato una pagina web al film Angeli e Demoni per spiegare alcuni aspetti dell'antimateria. Perché in effetti è vero che al Cern si produce antimateria. Esiste perfino l'Antimatter Factory!

L'esistenza di antiparticelle è prevista teoricamente da molto tempo, da quando negli anni 30 del secolo scorso il fisico Paul Maurice Dirac formulò un'equazione per descrivere il comportamento quantistico dell'elettrone in modo compatibile con la teoria della relatività. Questa equazione ammetteva soluzioni di energia negativa, che furono interpretate nel tempo come l'esistenza di elettroni del tutto identici ai normali elettroni, ma di carica positiva, ovvero quelli che oggi vengono chiamati "positroni", cioè le antiparticelle degli elettroni.

In breve tempo furono scoperti sperimentalmente i positroni, e con il tempo tutte le possibili antiparticelle delle particelle note. Bisogna specificare che le antiparticelle esistono non soltanto per particelle cariche, ma anche per quelle neutre, come ad esempio i neutroni. L'antineutrone ha carica elettrica zero come il neutrone, ma ha altre proprietà ( i chiamano numeri quantici) che caratterizzano il neutrone di segno opposto, rendendone quindi possibile l'esistenza dell'antiparticella. L'esistenza delle antiparticelle è quindi assodata ormai da quasi 100 anni.

La cosa interessante è che quando mettiamo assieme una particella e la sua antiparticella, ad esempio un protone e un antiprotone, otteniamo qualcosa che ha numeri quantici additivi nulli. In questa situazione le due particelle si "annichilano", producendo fotoni, cioè energia. L'energia prodotta espressa in Joule è la somma delle masse del protone + antiprotone (che hanno massa uguale) espresse in Kg, moltiplicato per la velocità della luce al quadrato, con la velocità della luce espressa in m/s. Nel caso dell'anichilazione protone-antiprotone l'energia prodotta è dell'ordine di un decimiliardesimo di Joule, ovvero qualcosa di assolutamente insignificante nell'ambito delle energie macroscopiche a cui siamo abituati. Tanto per fare un esempio, è l'energia cinetica di una tipica formica in movimento.

Il problema sorge se, invece di far annichilare una singola particella con la sua antiparticella, potessimo far annichilare una quantità macroscopica di materia con l'analogo di antimateria, cioè un insieme di atomi o molecole con l'analogo assieme di antiatomi (o antimolecole), ovvero atomi composti da antinuclei e antielettroni.  In pratica quello che si paventava nel romanzo di Dan Brown. Se, ad esempio, potessimo far annichilare 1 Kg di materia con 1 Kg di antimateria, otterremmo un'energia di 10 alla 16 Joule, che corrisponde a più di mille volte la bomba di Hiroshima. Anche un solo grammo di materia contro l'analogo di antimateria caserebbe una distruzione enorme.

Quindi la domanda che si impone è: è possibile produrre antimateria a sufficienza da costituire un pericolo di questo tipo? La risposta sintetica è NO, anzi ASSOLUTAMENTE NO!, e i motivi sono spiegati qua sotto.

Intanto vediamo come si produce l'antimateria. Un antiatomo è costituito, nella sua forma più semplice che è l'antiatomo di idrogeno, da un antiprotone e un antielettrone (il positrone), così come un normale atomo di idrogeno è costituito da un protone e un elettrone.

Ma come si producono gli antiprotoni? Per produrre antiprotoni ci vogliono innanzitutto dei protoni. Questi ultimi stanno ad esempio nell'idrogeno, anzi sono i nuclei dell'atomo di idrogeno, e quindi basta ionizzare degli atomi di idrogeno per ottenerli. A questo punto si infilano i protoni dentro un acceleratore di particelle, e si conferisce loro dell'energia cinetica a sufficienza, finché si fanno sbattere contro un bersaglio, ovvero altri protoni e neutroni, cioè della materia. In ognuno di questi urti vengono prodotte tipicamente un tot di particelle, ma ogni tanto anche alcune antiparticelle, tra cui ad esempio antiprotoni. "Ogni tanto" vuol dire una volta ogni qualche milione di questi urti. Queste antiparticelle prodotte possono essere "raccolte" con opportuni campi magnetici, e accumulate da qualche parte.

Quindi come primo ingrediente per produrre antiparticelle abbiamo bisogno di un acceleratore che acceleri protoni con sufficiente energia da creare un tot di particelle in ogni urto, in modo che fra esse ci siano anche antiprotoni. Poi abbiamo bisogno di un sistema di magneti per raccogliere questi antiprotoni e separarli dalle altre particelle. Questo già rende la cosa non proprio semplicissima, ma tutto sommato stiamo parlando di ordinaria amministrazione per le tecniche note ai fisici delle particelle. Non è quindi questo il problema.

Il problema è che per accumulare antiprotoni in numero elevato, dobbiamo evitare che essi vengano in contatto con la materia ordinaria, che contiene (fra l'altro) molto protoni. Quindi dobbiamo tenere questi antiprotoni in un contenitore dove c'è un vuoto il più spinto possibile. Deve essere molto vuoto perché ogni protone in giro è un potenziale distruttore di ogni antiprotone che abbiamo prodotto con tanta fatica. Se un antiprotone che abbiamo penato a produrre e isolare va a sbattere con un protone che trova in giro... pufff... scompaiono entrambi.

Non solo, ma dobbiamo anche evitare assolutamente che questi antiprotoni che vogliamo accumulare entrino in contatto con le pareti del contenitore, perché anche a quel punto..puff! Doppio pufff! La parete infatti contiene un gran numero di protoni, ognuno dei quali sarà ben felice di scegliersi il suo antiprotone e annichilarsi con esso. E per impedire che questo accada abbiamo bisogno di costruire delle efficienti trappole magnetiche, che evitino agli antiprotoni di entrare in contatto con le pareti, restandone il più possibile distanti.

Tutto questo, sebbene complesso, si può fare. Anzi, viene fatto! Ad esempio l'acceleratore Tevatron, che ha funzionato per una ventina di anni o più al laboratorio Fermilab vicino Chicago, accelerava protoni e antiprotoni. Quindi doveva essere in grado di accumulare e tenere separati dalla materia ordinaria gli antiprotoni per realizzare gli esperimenti (il quark top è stato scoperto grazie a questo acceleratore). Anche al Cern, a partire dagli anni 80, sono stati effettuati svariati esperimenti che necessitavano della produzione di antiprotoni, tra cui quello che ha permesso a Carlo Rubbia di vincere il premio Nobel.

Ma quanti antiprotoni sono stati prodotti in tutto questo tempo nei vari acceleratori? Risposta: grosso modo l'equivalente di una decina di miliardesimi di grammo. Quello che serve, in termini di energia che si otterrebbe facendoli annichilare con la materia ordinaria, per tenere accesa una lampadina in salotto per qualche ora. Per produrre un grammo di antimateria, con le tecniche attuali, ci si impiegherebbe quindi l'equivalente di un miliardo di anni. Se l'Ordine Mondiale e la Spectre hanno un attimo di pazienza si può fare!

E se volessimo produrre positroni, le antiparticelle degli elettroni? Perché comunque un antiatomo, l'elemento necessario per costruire l'antimateria, ha anche bisogno degli antielettroni, non solo degli antiprotoni! I positroni sono prodotti in modo naturale da certi decadimenti radioattivi che avvengono spontaneamente in natura. Ad esempio il nostro corpo contiene l'isotopo Potassio-40, che decade emettendo positroni, ad un ritmo di circa 180 ogni ora. Le banane, che sono ricche di Potassio, sono sorgenti di positroni, ovvero di antiparticelle. Eppure nessuno esplode mangiando una banana! Anzi, i positroni sono perfino usati nella diagnostica medica, nella tecnica denominata "pet" (positron-emission tomography), Quindi anche per l'antimateria, come per il Lardo di Colonnata e il tiramisù, il rischio è nella quantità.

In realtà per produrre positroni in quantità elevata (ad esempio per esperimenti di fisica delle particelle) non si usano le banane, ma tecniche un po' diverse, che adesso non è il caso di sviscerare. In ogni caso è una cosa che dal punto di vista tecnico la si sa fare per bene.

Ma finora non abbiamo parlato di vera antimateria. Abbiamo parlato di antiparticelle. E se volessimo produrre proprio antimateria? E' possibile produrre antiatomi, o magari antimolecole? In questo caso dovremmo prendere antiprotoni e antielettroni, in precedenza prodotti come abbiamo detto sopra e amorevolmente conservati, e avvicinarli sperando che si piacciano e formino atomi di anti-idrogeno.

E' quindi possibile produrre antiatomi, ed è stato fatto in esperimenti del Cern, che hanno prodotto alcune decine di migliaia di antiatomi (fonte). Se può sembrare un numero elevato, ricordo che stiamo parlano di atomi, ovvero qualcosa come un miliardesimo di miliardesimo di grammo.  La difficoltà sta nel fatto che per costruire un antiatomo di idrogeno, il più semplice, bisogna prendere un positrone e un antiprotone e accostarli con la dovuta delicatezza in modo che si piacciano e sii appiccichino assieme a formare un antiatomo di idrogeno. Il problema a quel punto è che se con gli antiprotoni o con i positroni i campi magnetici servivano a confinarli e non farli sbattere sulle pareti del contenitore, con un antiatomo, che ha carica elettrica zero come i normali atomi, i campi magnetici diventano inservibili. E quindi se un antiatomo decide di spataccarsi contro le pareti del contenitore non c'è niente che possiamo fare per fermarlo. E quando lo fa, si annichila con un atomo della parete, emettendo un piccolissimo fiotto di energia, sostanzialmente pari a quello di un protone che si annichila con un antiprotone. Qualcosa di insignificante. Finora si è riusciti a tenere intrappolata una manciata di antiatomi per circa un quarto d'ora al massimo, e è considerato un record (fonte).

Quindi produrre grandi quantità di antimateria e soprattutto immagazzinarla è impossibile. Sicuramente impossibile con le attuali tecnologie, ma impossibile anche per le leggi fisiche, dato che nessuna legge fisica a noi nota permette di evitare che gli antiatomi se ne stiano alla larga dagli atomi per un tempo sufficientemente lungo.

C'è un altro aspetto che va inoltre considerato: il costo. Quanto costa produrre antimateria? Fare l'antimateria richiede molta più energia di quella eventualmente ottenibile da essa. Circa un miliardo di volte in più. Il risultato è che un grammo di antimateria costerebbe qualcosa come un milione di miliardi di euro. Se ci mettiamo anche il miliardo di anni necessario a produrlo, direi che ci sono cose più convenienti da fare che incaponirsi a produrre antimateria per distruggere il mondo.

Ma allora perché i fisici si ostinano a produrre l'antimateria e cercare di "conservarla"? La risposta è: per studiarne le proprietà. Da quello che sappiamo, infatti, l'antimateria è quasi del tutto identica alla materia ordinaria. Per le leggi della natura, materia e antimateria sono praticamente la stessa cosa, a parte un piccolo inghippo che ha a che fare con le interazioni deboli (che ci permetterebbe di distinguere, nel caso dovesse tornare utile, un extratterreste fatto di antimateria, come raccontato qui)

Infatti quando studiamo un antiatomo prodotto in laboratorio, questo si comporta esattamente come un normale atomo. Assorbe la luce, si eccita, si diseccita, si muove, cade (*) come un normale atomo. I suoi orbitali, e quindi i suoi legami chimici, sono gli stessi dei normali atomi. E quindi una molecola di anti-acqua sarebbe assolutamente indistinguibile da una comune molecola d'acqua (salvo metterle a contatto). Insomma, non è mai stato trovato niente di diverso fra il comportamento degli atomi e quello degli antiatomi.

Quindi, se la natura è così democratica fra i due tipi di materia, non si capisce perché nell'universo ci sia materia ma non antimateria. O meglio: se la natura fosse realmente così democratica fra materia e antimateria, allora nei primi istanti di vita dell'universo avrebbe dovuto produrre materia e antimateria in eguale quantità! Se le sue leggi non fanno preferenze fra le due, quelle stesse leggi avrebbero dovuto produrre materia e antimateria allo stesso modo. Il risultato sarebbe stato che i due tipi di materia si sarebbero dovuti annichilare completamente, e addio galassie, stelle, pianeti come li conosciamo. E addio persino l'autore di questo blog!

Quindi il fatto stesso che invece esistono galassie, stelle, pianeti e l'autore di questo blog significa che la natura, nelle prima fasi di vita dell'universo, deve aver prodotto più materia che antimateria, in quantità tale per cui, dopo l'annichilazione dell'antimateria con la quantità di materia corrispondente, la materia in eccedenza, quella che non ha trovato più antimateria per annichilarsi, ha potuto assemblarsi indisturbata in nuclei, atomi, molecole, galassie, stelle, pianeti e autori di blog.

Tutto questo quindi è stato possibile perché ad un certo istante della vita dell'universo primordiale, la natura ha scelto fra materia e antimateria! Ad un qualche istante è intervenuto qualche meccanismo nelle leggi della natura, un meccanismo a noi sconosciuto, che ha preferito produrre più materia che antimateria. O meglio più materia di un tipo rispetto al suo anti.

E notate bene che già dopo due o tre minuti di vita dell'universo i giochi erano fatti (i primi minuti di vita dell'universo sono raccontati qui), Infatti noi sappiamo, perché lo misuriamo direttamente, che dopo due o tre minuti non c'era traccia di antimateria nell'universo, ma c'erano già i protoni e i neutroni che si stavano assemblando nei nuclei di idrogeno e elio.

E sappiamo anche, dagli esperimenti di fisica dell particelle, che le leggi fisiche che sono intercorse per gran parte di quei due-tre minuti iniziali non potevano fare distinzione fra materia e antimateria. Lo sappiamo perché, di nuovo, lo misuriamo. Negli esperimenti di fisica delle particelle che facciamo in laboratorio, che riproducono localmente le condizioni dell'universo appena nato, e nei quali quelle leggi fisiche entrano in gioco, non c'è traccia di questa differenza che la natura ha deciso di mettere in atto tra materia e antimateria.

Quindi, se questa differenza in qualche modo c'è stata (e sappiamo che deve esserci stata perché altrimenti non saremmo qui) deve essere intercorsa quando l'universo era estremamente più caldo e denso di quello che sappiamo ipotizzare finora. Non molto prima in termini di tempo (al massimo qualche minuto), ma in quei pochi minuti l'universo primordiale ha combinato l'iradiddio. Ci sono esperimenti, come LHCb al Cern di Ginevra, o altri in preparazione in Giappone, che si prefiggono di ricercare effetti di questa sottile ma fondamentale differenza che la natura mette in atto fra materia e antimateria. Una differenza a cui dobbiamo il fatto che esistiamo, e scusate se vi sembra una curiosità da poco!


Nota (*): sono in preparazione esperimenti che vogliono misurare con alta precisione se la forza di gravità agisce su un antiatomo allo stesso modo che su un normale atomo. Ovvero se l'antimateria e la materia sentono la forza di gravità allo stesso modo. Non ci si aspettano differenze, ma i fisici sono sempre diffidenti, e se non mettono il dito non credono.

venerdì 16 settembre 2016

L'ufo-mosca e gli ufologi

I gruppi di discussione fra filo-ufologi sono meravigliosi. Tra di loro si spacciano per quelli che hanno la mente aperta, quelli che non sono schiavi del sapere ufficiale, e pur diffidando di tutto quello che trovano sui libri, si bevono qualunque scemenza che leggono nel primo sito web noncelodiconosveglia.com, con uno spirito critico che in confronto la lumaca che si accinge ad attraversare la tangenziale è un tipo sospettoso. Caratteristica, questa, peraltro comune ai complottari di ogni tipo, dagli sciachimisti ai terrapiattisti,  i fioristi di Bach, gli undicisti di settembre, gli urinofili (neologismo che identifica quelli che, come una nota ex-annunciatrice tv, si bevono un bicchiere della loro urina appena svegliati perché li rimette in sesto) e compagnia bella. Non solo, ma se gli fai notare che quello a cui credono potrebbe essere una scemenza, e gli spieghi che per quella macchiolina nel filmato, che per loro è innegabilmente un'astronave aliena, esiste in realtà una spiegazione molto più ovvia e naturale, ti si rivoltano contro, e ti danno del venduto ai poteri forti, o alla NASA, che per l'ufologo di facebook rappresenta il male assoluto, l'ente che conosce tutte le verità su qualunque argomento, ma le tiene nascoste.

Un po' di giorni fa mi sono imbattuto (che poi... imbattuto un corno! Io me le cerco queste cose!) in un gruppo di assatanati di quelli che aspettano l'arrivo degli alieni come gli ebrei aspettano il Messia, dove uno aveva pubblicato un filmato dello scoppio del razzo vettore SpaceX. Il filmato è visionabile qui, con annesse spiegazioni deliranti. La tesi che c'era dietro lo scoppio, infatti, diceva che i responsabili erano gli alieni.

Bisogna dire che un'altra caratteristica di questi gruppi di scoco-ufologi (neologismo che nasce dalla fusione di scocomerato e ufologo, come se non bastasse già essere ufologi e basta) è quella di pubblicare notizie da siti essenzialmente click bite, cioè che pubblicano idiozie a cui nemmeno lontanamente credono, col solo scopo di guadagnare soldi coi click grazie alla pubblicità.  Gli scoco-ufologi ovviamente prendono queste notizie come sacrosante, o comunque degne di approfondimenti e discussioni nelle quali l'ironia è molto mal vista.


Nella fattispecie il filmato mostrava un paio di puntini neri che, velocissimi, passavano davanti all razzo poco prima che esplodesse. E quindi l'ufologo, con logica galileiana, concludeva che il puntino era la causa dell'esplosione del razzo, essendo per forza di cose il puntino un astronave aliena. Ovvio no?

E la discussione nel gruppo non era ovviamente se quel puntino fosse o meno un'astronave extraterrestre. No, quello era dato per scontato. La discussione era sul perché gli alieni avevano deciso di far esplodere il razzo. Che poi questi alieni che scassano la minchia facendo saltare in aria il razzo SpaceX e invece se ne fottono dei razzi con testate atomiche sparati allegramente dal dittatore coreano, quello che ha il barbiere ricercato dall'Interpol, io proprio non li capisco! Diciamo che non mi darebbero molta fiducia, ecco.

Comunque non ho resistito (sono un debole, lo so, ma a volte non ce la faccio) e mi sono inserito nella discussione facendo notare che era molto probabile che quel puntino velocissimo fosse un semplice uccello, o addirittura una mosca, che passava in primo piano davanti alla telecamera.

Apriti cielo! Si sono scatenati con frasi tipo "questa è la sciocchezza più incredibile che abbia mai sentito! Questa le batte veramente tutte! Una mosca che va veloce più di un aereo supersonico! Ha Ha Ha (l'ufologo ride sempre col verbo avere), un piccione a reazione!".

Ho tentato di spiegare che con la telecamera a tutto zoom la porzione di cielo inquadrata è piccola, e un oggetto in primo piano, tipo un volatile che ci passa attraverso, appare per forza di cose sfuocato (come era il puntino), e molto veloce. Ho spiegato che non vuol dire che vada realmente molto veloce, ma semplicemente che appare veloce. Ho anche spiegato che nel filmato si vede chiaramente che i puntini passano davanti al razzo, come ad esempio al minuto 2 e 28 del filmato citato sopra. Ho usato termini tipo "prospettiva", "primo piano" e "sfondo", che non necessitano di studi universitari per essere compresi, ma niente!

Se avessi cercato di spiegare come si ricava il Laplaciano in coordinate polari (una di quelle cose che a lezione tutti ti dicono che è banale ma che secondo me dopo Laplace nessuno al mondo si è mai sognato di ricavare da solo) penso che avrei ricevuto maggiori consensi. Le risposte tipiche erano "ma figuriamoci se una mosca può andare così veloce, addirittura come un'astronave aliena (che notoriamente va molto più veloce delle astronavi normali, questo lo si sa!). Niente, un'impresa disperata. Solo una, timidamente, mi ha detto "non ci avevo pensato". Tutti gli altri, a cervello rigorosamente spento, non hanno nemmeno provato a capire il mio ragionamento. Che, detto fra noi, non era un'impresa da Einstein.  Comunque anche al tipo che commenta il filmato non gli salta neanche nell'anticamera del cervello che potrebbe essere solo un effetto prospettico, tanto che si perde in calcoli su quanto incredibilmente veloce doveva andare quel puntino.

E' la caratteristica tipica di questa gente, dagli ufologi agli sciachimisti. Si dicono scettici su tutto, ma si bevono delle idiozie colossali, e se gli fai notare che c'è qualcosa che non va nel loro ragionamento, qualcosa che farebbe arrossire persino Razzi, si incazzano e ti danno addosso.

Un altra volta, ad esempio, c'era il solito filmato imperdibile di quelli censurati dalla NASA. Che tra parentesi alla NASA, che a sentire loro vuole censurare sempre tutto, devono avere assunto un team di adolescenti deficienti di quelli che condividono in rete tutto quanto, tipo che se hanno violentato l'insegnate di francese sulla cattedra durante la ricreazione, spediscono subito il filmato a 700 amici su Whatsapp. Altrimenti non si spiega com'è che in rete, nonostante la terribile censura della NASA, trovi sempre tutto. Dicevo che c'era un filmato dove si vedeva, dietro a un aereo in fase di atterraggio, tutta una serie di dischi volanti. I dischi volanti erano dei puntini luminosi quasi fermi nel cielo, tutti con le lucine rosse e blu lampeggianti, e una luce bianca in mezzo. Si vedevano le lucine colorate, nonostante il livello di sfocatura e mancanza di nitidezza che è tipico di tutti i filmati dove compare un ufo, che vengono rigorosamente ripresi con macchine fotografiche di quelle che trovi nell'uovo di Pasqua con sorpresa "per maschietti".

Non serviva essere un esperto di aeronautica per capire che quelle lucine apparentemente ferme che si vedevano dietro l'aereo in fase di atterraggio, col blu e rosso lampeggianti alternati, non erano altro che altri aerei in lontananza in avvicinamento alla pista. Chi è capitato almeno una volta nei pressi di un aeroporto conosce bene la situazione. E anche chi non ci è mai capitato, con uno spregiudicato balzo di immaginazione poteva arrivarci. Tra l'altro i fari dell'aereo, se puntano verso chi osserva, fanno apparire l'oggetto molto luminoso.

E poi le lucine blu e rosse, cazzo! Gli alieni che si sono adeguati alle normative aeroportuali, che se gli si fotte una luce di posizione rischiano la multa. A questo proposito la prestigiosa rivista scientifica Oggi, nella sua versione online OpenSource, mostra qui un filmato del tutto analogo. E' interessante che, nonostante l'ufo sovrasti lo stadio, gli spettatori non se lo filino di striscio.Della serie: "so che i miei lettori sono scemi e quindi li tratto da scemi, sperando che lo diventino ancora di più".

Comunque i commenti degli ufologi erano che "l'astronave aliena era di gran lunga l'ipotesi più probabile". Eh certo! Se vedi una luce nel cielo dalle parti di un aeroporto, con le luci rosse e blu lampeggianti, la cosa più probabile è che sia un astronave extraterrestre! Come dire che se vedi un impronta tridattile dalle parti di un pollaio la cosa più probabile è che sia un cucciolo di T-Rex! Una delle spiegazioni a supporto di questa certezza era che la luce delle "astronavi" era ferma, e molto intensa, mentre gli aerei vanno veloci. L'idea che un aereo, anche andando veloce, se ti punta contro e è distante può sembrare addirittura fermo, è un'estrapolazione mentale troppo ardita per un ufologo. E poi la luce ad un certo punto scompariva improvvisamente! Ho provato a dire che la luce appare molto intensa fintanto che i fari puntano verso chi guarda, e quando invece aumenta l'angolo compreso fra la direzione del moto (che coincide con quella dei fari) e noi, cosa che accade quando l'aereo si avvicina, la luce diventa improvvisamente meno intensa perché, essendo direzionale, non punta più verso di chi riprende il filmato. Vabè, ci ho provato, ma mi rendo conto che per un ufologo è un ragionamento che in confronto è più facile risolvere un Bartezzaghi a mente, senza penna, seduti al cesso.

E poi c'è un aspetto sociologico della comunità degli amanti degli alieni che mi affascina. Da un lato questa gente parla delle civiltà extraterrestri come io parlo dei ritardi di Trenitalia: una cosa con cui convive da anni. Conoscono le razze aliene, che aspetto hanno, quali sono le loro manie, se cono cattivi o amichevoli, dove vivono, se sulle Pleiadi o nella terra cava, cosa mangiano,... insomma sanno tutto. Nonostante l'uomo qualunque sembri brancolare nel buio su questo tema, loro hanno avuto almeno una dozzina di incontri ravvicinati a testa come minimo. Se poi solo confondi un anfibioide beige di Antares con un grigio perlato di Orione Sud ti prendono per il culo come se ti fossi sbagliato sulla capitale d'Italia. Parlano con competenza di adduction, di rapimenti, di men in black, di gente ritrovata con i pantaloni e le mutande calate in un prato che non si ricorda più niente a parte un inspiegabile senso di smarrimento, tutto come se commentassero il derby. Una volta ho letto una che diceva che era stata rapita, e li aveva visti bene e erano entrati in lei e che periodicamente la venivano a trovare (e vuoi essere scortese dopo tutta la strada che hanno fatto?). Insomma, da come parlano dell'argomento ti aspetteresti che è gente che tutto gli può succedere meno che confondere un piccione sfuocato con un ufo.

E invece poi, all'atto pratico, basta un puntino mosso e sgranato che vanno fuori di testa, e diventano come i bambini davanti alla vetrina dei giocattoli, e si lasciano affascinare da un moscone perché credono che vada veloce come la luce. E si mettono a discutere se è finalmente arrivato il momento della Grande Rivelazione, se presto si paleseranno agli umani e Putin e Obama in mondovisione ci diranno finalmente cosa c'è nell'Area 51. E allora capisci che tutte queste certezze su cosa sono gli ufo e chi sono gli extraterrestri non ce le hanno proprio per niente. E scopri che nemmeno loro, che millantano così tanta sicurezza sulle differenze fra gli Uomini Lastra e i Rettiliani di Nibiru Sud, e che discutono di trapianti di DNA alieno come se parlassero di pane e Nutella, hanno idea se esista vita nell'universo, e nel caso come essa potrebbe manifestarsi. E non so a voi, ma a me alla fine fanno perfino tenerezza.

domenica 11 settembre 2016

Le lauree scientifiche e il numero chiuso

In questi giorni si è parlato di selezioni a numero chiuso per l'accesso all'università. A scatenare la discussione con annesse polemiche è stato il megatest di accesso a Medicina, che ha visto circa 60mila partecipanti (2000 in più dell'anno scorso) a fronte di circa 10mila posti disponibili (fonte).

Certo, Medicina fa caso a sé, perché stiamo parlando di numeri molto grandi, e difficilmente gestibili senza un qualche tipo di preselezione. Se poi la preselezione che viene effettuata sia quella migliore per scegliere i futuri medici non lo so, e comunque non voglio discutere di questo.

Quello di cui voglio parlare è l'accesso a numero limitato alle facoltà scientifiche, e soprattutto il motivo che lo ha reso necessario. Da alcuni anni a questa parte, infatti, anche ai corsi di laurea scientifici, tipo Fisica, Scienze Biologiche, Chimica etc, si accede solo a numero chiuso. A Fisica a Bologna, ad esempio, fino a un paio di anni fa si viaggiava su grosso modo 130 nuove matricole ogni anno, ma all'improvviso nel 2015 hanno chiesto di iscriversi al primo anno 250 nuovi studenti. Non è chiaro a cosa sia dovuto questo improvviso incremento. Alcuni dicono che sia un effetto dell'interesse mediatico dopo la scoperta del Bosone di Higgs, altri ipotizzano che sia grazie alla Gianotti direttrice del Cern, o addirittura che sia tutto merito di questo blog. Sta di fatto che comunque 250 studenti hanno chiesto di iscriversi al primo anno di Fisica, e 250 è un numero troppo grande per riuscire a garantire una didattica decente.  Per ovviare a questo problema si è istituito il numero chiuso a 150, una soglia oltre la quale la qualità della didattica e la logistica stessa dei corsi andrebbe in crisi.


Sebbene si tratti di numeri decisamente inferiori a quelli degli aspiranti medici, l'Università di Bologna, e nello specifico il Corso di Laurea in Fisica, non avrebbe le aule sufficienti per ospitare un numero maggiore di studenti. Non ci sarebbero inoltre laboratori equipaggiati per tutti, e soprattutto non ci sarebbero i docenti necessari, dato che diversi corsi dovrebbero essere spezzati in due. Il problema è del tutto analogo in gran parte delle altre sedi universitarie sparse per l'Italia, che a poco a poco stanno tutte adottando il numero chiuso per i principali corsi di lauree scientifiche. Messa in questi termini la questione non lascia scampo e non si può non essere d'accordo: non ha senso istituire corsi per tutti che tuttavia non riuscirebbero a garantire un livello qualitativo decoroso in termini di didattica, perché questo svilirebbe la qualità dell'intero corso di laurea. Niente da dire, quindi, sulla decisione di istituire il numero chiuso.

Però...

Però a questo punto vorrei sapere perché in questi ultimi anni ci siamo tanto sbattuti a organizzare caffè scientifici, notti dei ricercatori, eventi multimediali, conferenze nelle scuole, Higgs in Tour, Olimpiadi della Fisica, Festival della Scienza e Giornate dell'Orientamento con l'intento esplicito di incrementare nei giovani l'interesse per le facoltà scientifiche e nella fattispecie per la fisica, se adesso che stiamo raccogliendo i frutti di tutta questa propaganda in termini di aumento delle richieste di iscrizione, quegli studenti li dobbiamo mandare via perché non ci sono le strutture per ospitarli.

Per che cosa mi sono sbattuto in questi ultimi anni, e come me tanti altri colleghi altrove in Italia, a organizzare le International Masterclass (un evento internazionale coordinato dalla Comunità Europea e dal Cern di Ginevra) con l'intento manifesto di avvicinare gli studenti dell'ultimo anno del liceo alla fisica per stimolarli a continuare questo percorso di studi all'Università, se è stata sufficiente una manciata di iscritti in più, appena 20, per entrare in crisi e dover sprangare l'accesso a tutti gli altri?

Perché poi bisogna dire che comunque l'Università di Bologna e il Corso di Laurea in Fisica (e tutte le altre università non sono in generale da meno), per adeguarsi a una richiesta di 250-300 studenti invece che 150 impiegherebbe almeno dieci anni a essere ottimisti. Infatti bisognerebbe costruire le aule, che proprio non ci sono (quando ci sono le lezioni a Bologna se devi organizzare una riunione per 40 persone utilizzando i locali dell'università è un delirio, perché è tutto occupato, quindi figuriamoci istituire un corso di laurea da zero). E poi non ci sarebbero i docenti, e con la velocità e il tempismo con cui vengono banditi i concorsi per ricercatori e docenti.... auguri!

E allora uno si chiede: ma non ci si poteva pensare prima? Se si sapeva che 20 iscritti in più al primo anno avrebbero mandato tutto in crisi saturando le possibilità dell'ateneo, perché abbiamo fatto tutta questa campagna pubblicitaria per iscriversi a fisica, se poi adesso dobbiamo dire a chi vorrebbe iscriversi che non c'è posto? E fisica è ovviamente solo un esempio, perché il discorso vale per tutte le facoltà scientifiche. Scienze biologiche, ad esempio, anche a causa del numero chiuso in medicina, ha avuto quest'anno una caterva di richieste di iscrizione, molte di più di quelle accettabili per il corso di laurea, e comunque praticamente tutti i corsi di laurea scientifici sono saturi.

E' inutile che poi ci lamentiamo che in Italia non c'è cultura scientifica, che la scienza è sempre la Cenerentola del sapere, e diamo la colpa al solito Benedetto Croce (che le sue cazzate le ha dette in abbondanza ma è morto da 70 anni!) se poi quando ci sono giovani che vorrebbero studiare materie scientifiche li mandiamo via. Benedetto Croce ci avrà messo del suo, ma noi non mi pare che siamo da meno! Non sarebbe stato invece il caso di preventivare in anticipo che se si vuole fare pubblicità a un servizio, poi quel servizio bisogna anche poterlo erogare?

E non ci si lamenti poi nemmeno del fatto che c'è un alto abbandono all'università, altro mantra tanto caro agli opinionisti e agli amanti della statistica nel Belpaese. Infatti se uno voleva iscriversi a Fisica perché gli piaceva la fisica, perché magari si era appassionato alle Masterclass, a un caffè scientifico sulle onde gravitazionali o a una delle tante manifestazioni organizzate per accalappiare studenti in questi ultimi anni, e non trovando posto si iscrive a Ingegneria o a Chimica, è molto probabile che abbandoni, perché Fisica non è Ingegneria né Chimica! Quindi questo sistema, tra le altre cose, favorisce implicitamente anche l'abbandono universitario.

E non si dica nemmeno che il numero di studenti deve essere commensurabile al numero di posti assimilabili dal mondo del lavoro! Perché se questo dovesse essere lo strumento per decidere quanti possono iscriversi, i posti dovrebbero essere 4 o 5 ogni anno al massimo, altro che 150. Con il ritmo con cui vengono banditi i concorsi per ricercatore in Italia, se il numero di iscritti dovesse essere pari a chi può sperare di diventare ricercatore altro che numero chiuso, ci vorrebbero i soldati col mitra e i cavalli di Frisia davanti ai dipartimenti scientifici per scoraggiare gli studenti.

Il motivo per cui, giustamente, si auspica un sempre maggiore interesse verso le facoltà scientifiche, è che una laurea scientifica produce competenze e specializzazioni, e soprattutto un modo di approcciare i problemi e - permettetemi - di vedere il mondo, che possono essere utilizzati e rivenduti in settori delle attività umane anche molto diversi da quello della ricerca. Uno dei motivi per cui gran parte degli studenti di dottorato in materie scientifiche negli USA proviene da paesi in via di sviluppo è proprio questo: formare persone competenti. Persone competenti che poi in patria o altrove andranno a fare attività magari anche molto diverse da quelle per cui hanno studiato, ma che beneficeranno comunque del metodo imparato studiando scienza. Questo è vero anche in Italia, o per lo meno sarebbe vero, soprattutto se fossimo un po' meno Repubblica delle Banane... 

Invece noi cosa abbiamo fatto? Ci lamentiamo continuamente che in Italia la scienza non è tenuta in giusta considerazione, e che le facoltà scientifiche non hanno abbastanza iscritti. Quindi per invogliare i giovani a scegliere una facoltà scientifica organizziamo eventi mediatici di tutti i tipi a destra e a manca, salvo che, quando i giovani poi finalmente cominciano a fare questa scelta, chiudiamo loro la porta perché non abbiamo le aule, i laboratori, le sedie e gli insegnanti. A me sembra un comportamento un po' schizofrenico o forse, usando un termine un po' più tecnico, un comportamento alla cazzo.




domenica 4 settembre 2016

Fotografare l'universo quando era appena nato (e col televisore di casa!)

Questo articolo parla di due cose al limite del fantastico.

La prima è fotografare oggi l'universo quando aveva solo 400mila anni di vita. Adesso ha quasi 14 miliardi di anni. Come se un uomo di 80 anni si facesse un selfie immortalandosi quando era nato appena da 20 ore.

La seconda è che è possibile scattare fotografie simili col televisore di casa.

Il nostro universo è pieno di galassie, e la sua temperatura media è di pochi gradi sopra lo zero assoluto. Nonostante sulla terra in media si stia benino (se si escludono i treni dei pendolari d'estate) e all'interno delle stelle ci siano addirittura decine di milioni di gradi di temperatura, in media l'universo è molto freddo: 270 gradi sotto zero, o giù di li. Però sappiamo che l'universo non è sempre stato così, e in passato è stato addirittura più caldo dei treni dei pendolari quando non funziona l'aria condizionata.

Un primo indizio sul fatto che l'universo in passato doveva essere diverso da quello attuale ci viene dall'osservazione che le galassie si allontanano reciprocamente. L'impressione è che si allontanino da noi, ma in realtà anche noi ci allontaniamo dalle altre galassie, e quindi è solo una conseguenza del nostro punto di vista se ci sembra che tutti gli altri ci schifino e se ne vadano distante.

Pertanto se le galassie si allontanano a vicenda, possiamo pensare di mandare il filmato all'indietro e ipotizzare che in passato esse fossero tra loro più vicine di quanto non siano adesso. E continuando su questa strada possiamo chiederci come doveva essere l'universo se potessimo mandare il filmato molto all'indietro. Possiamo tentare di dare questa risposta fintanto che le nostre conoscenze di fisica tengono botta nel descriverci un insieme di materia (l'universo all'inizio del filmato) in cui la materia stessa era sempre più pressata.

Quindi possiamo chiederci una domanda fondamentale: se supponiamo sia lecito fare il rewind del filmato fino a quando la materia era molto densa e concentrata, quali erano le condizioni di un universo siffatto? E soprattutto, queste condizioni certamente diverse da quelle attuali, hanno lasciato qualche indizio della loro presenza che si è tramandato nel tempo fino a noi, tanto da essere osservabile ancor oggi?

Una doverosa parentesi: lasciamo perdere per ora il fatto che mandando  troppo indietro il filmato si arriverebbe a condizioni di densità idealmente infinita. Le nostre conoscenze di fisica non sono capaci di descrivere situazioni simili, ma per quello che diremo non ci interessa. Qui stiamo solo prendendo atto che l'universo si espande, anche se non sappiamo perché, e ci chiediamo come poteva essere quando, pur avendo già iniziato la sua espansione, era molto più denso. Certo, ci piacerebbe sapere che cosa ha causato l'espansione dell'universo, e descrivere le condizioni della materia in quel frangente, ma per adesso ci accontentiamo. Chiusa la parentesi.

Quindi, ritornando al nostro filmato riavvolto, supponiamo di poter descrivere, utilizzando le leggi della fisica che conosciamo, le condizioni dell'universo primordiale a inizio filmato (anche se non proprio l'inizio-inizio). E supponiamo anche di scoprire che, applicando le leggi della fisica che conosciamo, quelle condizioni cosi diverse da quelle presenti nell'universo odierno debbano aver necessariamente lasciato tracce specifiche della loro peculiarità, non spiegabili in altro modo, che si sono preservate nel tempo fino ad oggi. E supponiamo di poter rilevare, tramiti appositi esperimenti, queste tracce nell'universo di oggi, esattamente come previste dal modello di quell'universo primordiale, allora ci troveremmo in mano una prova scientifica a supporto della nostra ipotesi su come doveva essere l'universo primordiale.

Se ad esempio questa teoria strampalata sull'universo primordiale ci prevedesse, che so, che guardando in giro per l'universo la percentuale di elio sul totale degli elementi chimici deve essere in media del 25%, e poi andando a misurare dovessimo trovare che in effetti l'elio rappresenta proprio il 25% della materia nucleare che c'è in giro, beh, questa sarebbe un po' più di una coincidenza. E' come dire che se faccio una teoria su come si muovono i pianeti e questa teoria mi prevede che certe strane anomalie del moto di Urano sono spiegabili dalla presenza di un altro pianeta ancora sconosciuto, e mi dicesse che questo pianeta si trova in un certo punto particolare, e andando a puntare il telescopio quel pianeta ce lo trovo per davvero, allora vuol dire che quella teoria non può essere proprio sbagliata-sbagliata, perché è stata capace non solo di spiegare, ma anche di prevedere dei fenomeni! (per inciso, questo è proprio quello che è successo con la scoperta di Nettuno, in seguito all'osservazione di anomalie nel moto del pianeta Urano, previste dalla teoria della gravitazione di Newton).

Adesso che abbiamo capito come procedere, chiediamoci che condizioni dovevano caratterizzare un universo primordiale siffatto. La prima conseguenza sulle caratteristiche dell'universo di quasi-inizio filmato è che, come conseguenza dell'alta densità della materia, esso doveva essere molto caldo. Incredibilmente caldo. Tanto più caldo tanto più mandiamo indietro il filmato. E questa temperatura doveva essere capace di disgregare la materia come la conosciamo oggi nei sui componenti fondamentali. Quelle particelle che si studiano oggi nei laboratori tipo il Cern, tanto per capirci.

Questa caratteristica, ovvero l'universo primordiale caldo, è sostanzialmente quello che generalmente viene chiamata "teoria del big-bang". Una teoria che non parla dell'istante zero, la grande esplosione o frasi fatte del genere, tutto cose di cui al momento sappiamo dire ZERO (nonostante qualcuno ogni tanto si prenda molto sul serio su questo argomento), ma piuttosto un modello per descrivere l'universo "nato da poco" - qualunque cosa questo possa significare - e in espansione, in cui vigevano condizioni di alta temperatura e densità, e trarne quindi le conseguenze sulla sua successiva evoluzione. Punto.

E questa teoria del big bang, dove il big bang non è l'inizio dell'universo, ma una situazione "poco dopo l'inizio", ammesso che ci sia stato un inizio, in cui l'universo era denso, caldo e in espansione, è un dato di fatto. Non è messa in dubbio, come certi dicono affermando "eh... ma non si sa mica se c'è stato il big bang!". Se per big bang intendiamo, come fanno gli scienziati, che in passato l'universo era molto diverso da quello attuale, molto più denso e caldo, questo è un dato di fatto, e vedremo adesso perché lo è. L'esplosione, il tempo zero, o quello che c'era prima, li lasciamo per ora volentieri fuori della porta, anche perché, nonostante ogni tanto qualcuno ci provi, non ne sappiamo sostanzialmente niente.

E allora usiamo le nostre conoscenze di fisica per descrivere questo tipo di universo così diverso dal nostro, un universo molto denso e caldo, che nel frattempo si espande. Non sappiamo perché si espande, e non ci interessa per il momento. Vorremmo saperlo, certo, ci piacerebbe, ma per quello che serve a descrivere l'evoluzione di questo universo non è cruciale.

E la prima cosa che impariamo è che un universo molto caldo, mentre si espande si raffredda, come succede a un gas quando si espande. Come l'aria calda che sale, si espande e si raffredda, e per questo in montagna fa più freddo, nonostante le montagne siano un po' più vicine al sole di Milano Marittima.

Tuttavia se la densità della materia è sufficientemente elevata, nell'universo di questo tipo possono succedere molte cose diverse in poco tempo.

giovedì 25 agosto 2016

Sciacalli da terremoto, e il loro codazzo di creduloni.

Che cosa intendiamo realmente quando chiediamo che ci "prevedano un terremoto"?


Il terremoto che ha colpito Amatrice e le zone limitrofe ha di nuovo dato voce ai ciarlatani che affermano di poter prevedere un terremoto, ignorati dalla scienza che essi chiamano ufficiale. Sono quelle persone che nella vita fanno o hanno fatto tutt'altro, tipo - ne scelgo uno a caso - l'elettricista in pensione, e tuttavia si spacciano per esperti di sismologia ("...ero in America per lavoro quando ho avuto notizia della scossa..."  Per lavoro? Che lavoro?). Quelle persone che "dopo" lo avevano previsto, e "i dati parlavano chiaro". Quelli che sul loro sito riportano le misure dell'Istituto Nazionale di Geofisica e Vulcanologia (INGV) come se fossero le loro, condite da preziosi consigli molto umani del tipo "se c'è il terremoto state fuori di casa", oppure "potrebbero esserci altre scosse" (mavalà? E noi che credevamo che il terremoto era una roba da una botta e via!). Quelli che già all'Aquila lo avevano previsto, e poi si scopre che lo avevano previsto a Sulmona in un altro periodo, nonostante all'Aquila ci fossero già state numerose scosse, sbagliando quindi non solo il luogo ma anche la data, tanto che si sono pure beccati una denuncia per procurato allarme.

E poi c'è chi crede ai ciarlatani. Chi li ascolta e li ringrazia su Facebook come fossero dei santoni. Perché la caratteristica dei ciarlatani è sempre questa, qualunque sia il loro campo di azione: dalle cellule staminali al cancro, dalla fusione fredda al terremoto, si propongono al mondo come i paladini incompresi della Verità, i Don Chisciotte che lottano contro l'establishment, osteggiati dai potenti ma vicini al popolo che per questo li adora. Chi crede a questa gente pensa evidentemente che sia possibile che un'intera comunità scientifica si sbagli sulla previsione dei terremoti, e abbia invece ragione uno che nella vita ha sempre fatto tutt'altro. Suppongo quindi che questa gente se si deve operare di appendicite non vada dal chirurgo ma dall'amico commercialista che ha la passione della medicina, e il dente del giudizio se lo fa togliere dal postino, che ha studiato come fare sul sito viaidentifacilefacile.com.

E poi sulla previsione dei terremoti proviamo un attimo a collegare il cervello e ragionare. Chiediamoci innanzitutto che cosa intendiamo noi, popolo inesperto che discute su Facebook, quando parliamo di previsione di terremoti. Noi, gente che si indigna perché l'elettricista in pensione ci dice che lo sbuffo di Radon misurato 20 giorni fa è stato ignorato dagli scienziati, cosa chiediamo da una previsione di un terremoto? Quale caratteristica deve avere la previsione di un terremoto per lasciarci soddisfatti? Come dovrebbe essere per dire che la scienza ha fatto finalmente il suo dovere? Quanto precisa e circostanziata dovrebbe essere per non farci poi invece incazzare maggiormente e sfogare la nostra indignazione sui social network verso i politici e gli scienziati incapaci? Cosa avremmo voluto sapere quando ci lamentiamo che potevamo essere avvisasti dell'immane tragedia che stava per abbattersi?

Chiediamoci questo, e poi chiediamoci se quello che è capace di darci l'elettricista in pensione o chi per lui soddisfa le nostre richieste su quello che intendiamo per "previsione di terremoto".

Immaginiamo quindi che domani, accendendo la tv, ci dicano che nella nostra città accadrà un terremoto di magnitudo molto alta. Un terremoto potenzialmente devastante. Per prima cosa vorremmo sapere "quando" ci sarà il terremoto. E qui viene il punto.  Infatti siccome nessuno, nemmeno l'elettricista in pensione, può dire ora, giorno e luogo esatti, ma solo dare al massimo una probabilità entro un certo periodo di tempo che tipicamente è molto poco definito, quello che potrà succedere è che la gente se ne fregherà se la previsione ha grandi incertezze.

D'altra parte qualunque esperto (vero) di terremoti vi dirà che l''Appennino centrale e meridionale è un territorio ad alto rischio sismico, e se prendete una zona a caso, la probabilità che prima o poi vi avvenga un evento sismico importante è molto alta. In media in Italia avviene un terremoto di magnitudo superiore a 6 ogni 10-15 anni. Nonostante questo sia ben noto, e può essere inteso a tutti gli effetti come una previsione sostanzialmente certa, la gente continua a vivere in paesi che hanno la pistola puntata alla tempia, abitando in case che certamente non potrebbero resistere a un sisma di grande intensità. E continua a viverci senza nemmeno fare interventi di consolidamento delle costruzioni. In California, ad esempio, sanno del famoso "big one" che pende come una spada di Damocle, ma continuano a fare quello che fanno, come se niente fosse. Quindi questo vuol dire che una previsione generica di un evento sismico non è quello che noi chiamiamo "prevedere i terremoti", dato che, alla luce dei fatti, di queste previsioni ce ne freghiamo alla grande.

Quindi se non ti mettono il pepe al culo con una previsione più che precisa i fatti ci insegnano che non ti preoccupi più di tanto. Ovvero se la previsione non è più circostanziata di quella che fanno già gli scienziati, è inefficace. Benissimo, allora rendiamola più circostanziata!  Supponiamo che ti dicano che "entro due mesi ci potrebbe essere un terremoto". Certo, alcuni potrebbero preoccuparsi. Ma cosa credi che la gente smetta di lavorare, chiuda case, scuole, alberghi e negozi e vada alle Maldive in attesa del terremoto? Lasciando il paese in mano agli sciacalli, che quando tornano non ci trovano nemmeno lo zerbino? Una previsione del genere è garantito che non può indurre la gente a smettere di fare quello che fa e scappare. Al massimo metterà ansia, forse panico, ma poco altro, perché non è pensabile che la gente smetta di vivere per mesi in attesa di qualcosa che non si sa quando avverrà.

Allora diamo una previsione molto precisa, per far capire alla gente che non è una cosa da prendere sottogamba. Se sei uno che asserisce di saper prevedere i terremoti e hai migliaia di followers su Facebook puoi dire, se hai le palle e sei veramente convinto di essere nel giusto, che il gioro X più o meno qualche giorno ci sarà un grosso terremoto nella zona compresa tra i paesi Y e Z. Evvai! A questo punto se la gente non scappa è proprio scema!

Perfetto, questo sarebbe quello che in tanti intendono per "prevedere i terremoti". La gente probabilmente sarebbe presa dal panico, molti scapperebbero, spesso in modo disorganizzato con tutto quello che ne consegue, salvo quei pochi avventati che non credono agli elettricisti in pensione che si dilettano di sismologia. Se però avvenisse effettivamente il terremoto proprio in quella ristrettissima finestra spazio-temporale prevista, si salverebbero molte vite! Se avvenisse.

Ma se invece non succede niente? Come d'altra parte è molto probabile che accada, perché nessuno, nemmeno gli elettricisti in pensione con l'hobby della sismologia, sanno dare previsioni così circostanziate sugli eventi sismici, anche se lo danno a credere. In questo caso cosa farà la gente se passata una settimana dalla previsione del terremoto non è successo ancora niente?
Semplice, tornerà a casa. Perché mica siamo tutti mantenuti! Mica possiamo starcene senza fare niente in albergo per mesi senza lavorare perché qualcuno ci ha detto che ci sarà un terremoto che invece non arriva! E la volta dopo, quando il nostro eroe dirà "scusate, la volta scorsa mi ero sbagliato, non avevo valutato bene i dati, ma stavolta invece sono sicuro!", si fiderà molto meno della sua previsione.

E il risultato quale sarà? Sarà che se e quando arriverà la scossa, questa coglierà tutti nel sonno impreparati come se la previsione non fosse mai avvenuta. Perché, casomai non fosse chiaro, nemmeno gli elettricisti in pensione riescono a prevedere i terremoti in modo così infallibile e preciso come si richiederebbe da una "previsione di terremoto" che torni utile. Anche se hanno migliaia di followers su Facebook.

E quindi, cari previsori di terremoti che fate proseliti su Facebook, e cari quelli che gli credono e li osannano come santoni, lasciatemi dire che non avete proprio capito che cosa significhi fare prevenzione nel caso dei terremoti.

Perché vedete, la prevenzione non è prevedere il terremoto, dato che qualunque previsione sarà comunque affetta da incertezze enormi tanto da vanificarne in pratica l'efficacia. La vera prevenzione è costruire case che garantiscano sufficiente sicurezza qualora dovesse arrivare il terremoto, senza doversi preoccupare di quando arriverà. Case che permettano alla gente di vivere serena, di lavorare, di dormire, con la ragionevole certezza che, qualora dovesse arrivare un terremoto anche forte, quella casa non si sbriciolerà, ma al massimo potrà cadere qualche pezzo di intonaco o un cornicione, senza tuttavia uccidere nessuno. Oltre, eventualmente, a imparare come comportarsi in caso di scossa sismica, come fanno in Giappone e in altri luoghi dove la scala Richter è di casa.

Invece da noi si continua consapevolmente a vivere in zone in cui la probabilità di un evento sismico importante è notoriamente alta (questa è una previsione certa!), abitando in case assolutamente inadatte a resistere a scosse violente senza tuttavia effettuare alcun tipo di consolidamento alle strutture, nemmeno i più semplici, salvo poi chiedersi se si poteva prevedere il terremoto dopo l'ennesima strage. Ma il terremoto era già stato previsto!

Quindi, per favore, smettetela una volta per tutte di scassare la minchia dopo ogni terremoto lamentandovi che non era stato previsto, e sperare che la scienza sia capace di prevederveli per tempo. Smettetela perché voi per primi, come tutti gli altri, me compreso, non sapreste che farci della previsione dei terremoti se questa non fosse assolutamente certa. E siccome una previsione di un evento sismico non potrà mai essere assolutamente certa, perché prevedere il comportamento della crosta terrestre è un filo più complesso dei problemini di fisica delle superiori, dato che le variabili in gioco sono ennemila e la loro conoscenza è tutt'altro che perfetta,  per favore basta con questa storia tutte le volte, e incazzatevi piuttosto perché le case non sono costruite in modo sicuro!


PS: mentre scrivevo questo articolo ho appreso che il Codacons ha prontamente richiesto al presidente della Regione Lazio di aprire un'indagine immediata sulla protezione civile per:

"...accertare se prima di questa notte il centro sismologico e la Protezione civile regionale abbiano registrato movimenti sismici nelle aree interessate dal terremoto. Sembra infatti impossibile che un sisma di tale potenza non sia stato preceduto nei giorni scorsi da precisi segnali di allarme in grado di portare ad iniziative a tutela della popolazione."

Il Codacons chiede se prima ci sono state altre scosse. E gli sembra impossibile che non ci sia stata nessuna evidente avvisaglia tale da far evacuare la gente! Ma veramente il Codacons crede che "altre scosse" siano un indicatore di un terremoto disastroso imminente? Ha mai provato, il Codacons, a guardare quante scosse di terremoto ci sono ogni giorni in Italia e nel mondo? Ha mai provato a dare un'occhiata nella pagina dell'INGV, che pubblica questa lista giorno per giorno? Ha qualche vaga idea, il Codacons, di cosa sta parlando?

Metto qua sotto la schermata, tratta dal sito dell'INGV che ho indicato sopra, della lista degli eventi sismici nei giorni immediatamente precedenti l'evento disastroso di Amatrice. Se ne deduce che, secondo il Codacons, la protezione civile avrebbe dovuto allertare e magari far evacuare le popolazioni del Gargano, di Macerata, di Parma, della Calabria, di Palermo, di Ravenna, dell'Aquila, di Forlì, di Messina e del Tirreno meridionale. Eppure, sembrerà impossibile al Codacons, ma nei giorni precedenti non c'è stata nemmeno una scossa nella zona dove poche ore dopo si è scatenato il finimondo! Ma guarda un po' questi terremoti che dispettosi, che non si comportano come vorrebbe il Codacons! Sembra impossibile, eh?

Questo è quindi il comitato che dovrebbe difendere i consumatori?  Ma io voglio un comitato che mi difenda dall'incompetenza del Codacons, piuttosto!

 
Data e Ora (UTC) Magnitudo Provincia/Zona
2016-08-23 23:14:07 2.7 Costa Garganica (Foggia)
2016-08-23 18:48:19 2.0 Macerata
2016-08-23 11:42:07 2.3 Parma
2016-08-23 08:59:06 2.8 Isole Eolie (Messina)
2016-08-23 08:37:39 2.1 Potenza
2016-08-23 06:56:08 2.4 Palermo
2016-08-22 21:36:14 2.2 L'Aquila
2016-08-22 06:49:41 2.4 Ravenna
2016-08-22 05:05:30 2.1 Ravenna
2016-08-22 02:48:59 2.1 Costa Garganica (Foggia)
2016-08-21 21:27:42 2.3 Costa Calabra sud orientale (Reggio di Calabria)
2016-08-21 03:45:27 6.2 South Georgia & the South Sandwich Is. [Sea]
2016-08-20 21:47:28 2.3 Costa Marchigiana Fermana (Fermo)
2016-08-20 09:01:26 6.2 Off east coast of Honshu, Japan [Sea: Japan]
2016-08-20 09:00:20 2.7 Costa Calabra sud occidentale (Catanzaro, Vibo Valentia, Reggio di Calabria)
2016-08-20 07:10:23 2.2 Costa Marchigiana Fermana (Fermo)
2016-08-19 22:42:35 2.3 Tirreno Meridionale (MARE)
2016-08-19 16:41:52 2.1 Forli' Cesena
2016-08-19 13:23:30 2.7 Tirreno Meridionale (MARE)
2016-08-19 07:32:26 7.3 South Georgia & the South Sandwich Is. [Sea]
2016-08-19 07:20:25 2.9 Tirreno Meridionale (MARE)
2016-08-19 06:42:15 3.4 Tirreno Meridionale (MARE)
2016-08-19 01:33:11 2.1 Cosenza
2016-08-18 18:05:08 2.3 Tirreno Meridionale (MARE)
2016-08-18 05:30:42 2.2 Messina

venerdì 12 agosto 2016

Quando la statistica gioca brutti scherzi

Lo scorso dicembre 2015 la comunità dei fisici delle particelle, e in particolare quella che ruota attorno agli esperimenti di LHC del Cern, ha avuto un'iniezione di adrenalina come non avveniva da tempo. L'ultima era stata quando il bosone di Higgs aveva cominciato a manifestarsi come una timida gobbetta che spuntava dal rumore di fondo, primo indizio di una possibile futura importantissima scoperta, rivelatasi poi tale. Nel dicembre 2015 è successo che nei dati raccolti durante l'anno appena finito dai due esperimenti Atlas e Cms, corrispondente al primo periodo di presa dati alle energie massime raggiungibili a LHC (13 TeV nel centro di massa) c'erano indizi che ci potesse essere qualcosa di molto interessante e per certi versi completamente inaspettato. Infatti entrambi gli esperimenti osservavano un eccesso di dati rispetto al fondo atteso. Proprio come era già accaduto con l''Higgs.

Questo eccesso, che era visibile nel numero di coppie di fotoni prodotte, appariva come una piccola gobba emergente dal fondo, e aveva la caratteristica di avere una massa di circa 750 GeV. Tradotto in parole povere lasciava supporre che qualche misteriosa particella di massa pari a circa 750 GeV, circa 800 volte più pesante del protone, fosse prodotta nelle collisioni raccolte dagli esperimenti, e che si manifestasse producendo coppie di fotoni. La fine del 2015 lasciò i fisici di LHC nel dubbio, perché l'acceleratore aveva appena terminato il periodo di funzionamento previsto, e sarebbe stato riacceso soltanto a fine della primavera del 2016, dopo alcuni mesi di "technical stop" già pianificati in precedenza.
I risultati di Atlas e Cms della fine del 2015. Entrambi gli esperimenti osservavano, allo stesso valore di massa, un eccesso di eventi rispetto al fondo nella produzione di coppie di fotoni, come evidenziato dal cerchio rosso.

LHC è un acceleratore che accelera protoni fino a conferire loro un'energia molto elevata (13 TeV nel centro di massa, leggi qui per capire cosa vuol dire un'energia di 13 TeV) e poi li fa scontrare uno contro l'altro, 40 milioni di volte al secondo.  In ognuno di questi urti o collisioni (che i fisici chiamano anche con il nome criptico di "eventi"), i protoni dopo l'urto scompaiono come tali, e si trasformano in centinaia di altre particelle di vario tipo. La cosa è permessa dalla ben nota equivalenza tra massa e energia, E=mc2, che permette di trasformare l'energia cinetica iniziale dei due protoni in materia, letteralmente "creando" particelle che prima non esistevano, a partire da quell'energia iniziale.

Lo studio di questi processi e delle caratteristiche delle particelle che saltano fuori dopo ogni urto permette di carpire informazioni preziose su come si comporta la natura a scale spaziali estremamente piccole. Infatti maggiore è l'energia degli urti, più piccola è la zona dello spazio indagabile durante l'urto.  In pratica LHC è sostanzialmente un potente microscopio, e lo studio degli urti prodotti permette di "vedere in piccolo" all'interno della materia.

Fra tutte le particelle prodotte nelle collisioni potrebbero essercene di sconosciute. non ancora catalogate, che costituirebbero la manifestazione di qualche nuovo tipo di fenomeno che si instaura alle alte energie raggiunte da LHC.

Ci si aspetta in generale che queste eventuali particelle siano altamente instabili, come avviene praticamente per tutte le particelle elementari dotate di massa, esclusi i costituenti degli atomi, cioè i protoni e gli elettroni (e anche i neutroni, che sebbene di loro siano instabili, non riescono a decadere quando si trovano dentro un nucleo). Se le particelle che compongono gli atomi non fossero infatti stabili, non staremmo qui a raccontarci queste cose, perché la materia stessa non sarebbe stabile.

Dire che queste eventuali nuove particelle non sarebbero stabili significherebbe che, una volta prodotte negli urti, esse sopravviverebbero per un tempo brevissimo, troppo breve per lasciare una traccia del loro passaggio nell'apparato sperimentale, e si trasformerebbero ("decadono", in gergo) immediatamente in altre particelle più leggere e sufficientemente stabili da risultare direttamente osservabili. Dalle caratteristiche delle particelle che rappresentano i prodotti di decadimento della particella madre (che quindi risulta totalmente invisibile perché la sua vita sarebbe di gran lunga troppo breve) come la direzione e l'impulso, è possibile risalire alle proprietà della misteriosa particella originaria, e ad esempio misurarne la massa, tramite il calcolo della cosiddetta "massa invariante".

Tutto questo preambolo per dire che nei dati del 2015 Atlas e Cms osservavano entrambi il possibile indizio dell'esistenza di una particella di massa molto elevata (per lo standard delle particelle elementari) pari a circa 750 GeV (circa 4 volte più pesante della più pesante particella nota) che "decadeva", cioè moriva immediatamente trasformandosi in una coppia di fotoni. Questi fotoni sono analoghi a quelli della luce visibile, ma di energia molto maggiore, corrispondente a quella dei raggi gamma molto energetici. La cosa prometteva di essere molto interessante, perché avrebbe significato qualcosa di nuovo e inaspettato, che avrebbe aperto la porta a un nuovo tipo di fenomeni fisici non contemplati nelle teorie attuali.

La possibile esistenza di questa particella si manifestava in entrambi gli esperimenti come una piccola bozza, una sporgenza, un eccesso rispetto al fondo aspettato. In pratica questo poteva significare che, oltre al normale numero di casi previsto dalle teorie note in cui ci si aspetta di trovare coppie di fotoni (ovvero il fondo atteso), quando la massa di queste coppie di fotoni era di circa 750 GeV c'era qualcosa di più del fondo aspettato, che poteva lasciar presagire che, in un certo numero di casi, qualcos'altro di non previsto (altrimenti sarebbe rientrato nel fondo), avente grosso modo quel  particolare valore di massa, contribuiva al numero di coppie di fotoni prodotte.

Per inciso si vede dalle figure sopra riportate, che rappresentano i dati dei due esperimenti, che il fondo diminuisce drasticamente con il crescere della massa invariante dei due fotoni (le scale sono logaritmiche!). Questi significa che maggiore è la massa invariante delle coppie di fotoni prodotte, minore è la probabilità di produrle tramite processi noti.

Ma perché quello che si osservava non era nulla di certo, ma solo un "indizio"?  Il motivo era che questo "eccesso" rispetto al fondo non era affatto così significativo. Non sufficiente da poter dire che si stava effettivamente osservando qualcosa di anomalo. In pratica quello che ci si chiede in situazioni di questo tipo, quando si osserva un qualche tipo di deviazione dal fondo aspettato, è quanto vale la probabilità che una fluttuazione statistica casuale del fondo simuli quello che si osserva, ovvero quel tipo di bozzetta.

Facciamo un esempio: supponiamo di lanciare una moneta 10 volte, e osservare 7 volte testa e 3 croce.  Per una moneta non truccata, idealmente ci aspetteremmo 5 volte testa e 5 volte croce, ma questo è solo in base alle probabilità di uscita. Nella realtà sappiamo che ci possiamo aspettare fluttuazioni casuali a favore di testa o di croce. Prima di dire che la moneta è truccata ci chiediamo quanto vale la probabilità che, per caso, una moneta non truccata dia questo tipo di risultato. Questa probabilità si chiama in gergo "p-value".

Nel caso dell'eccesso di dati osservato, e corrispondente a una massa invariante pari a circa 750 GeV, il p-value non era così piccolo da far scattare l'allarme rosso (piccolo p-value significa bassa probabilità che il fondo dia quel risultato in seguito a una fluttuazione statistica). In particolare, se si teneva conto del "Look-Elsewhere Effect" (fonte), cioè sostanzialmente il fatto che un eccesso rispetto al fondo poteva verificarsi per qualunque valore di massa, dato che non c'era niente che a priori dicesse che doveva essere per forza attorno a 750 GeV, il p-value corrispondeva a meno di 3 sigma, cioè sotto il "livello di guardia" comunemente accettato dai fisici.  Quindi nessun fisico sano di mente avrebbe gridato alla scoperta in base a quelle gobbette tutto sommato abbastanza insignificanti che venivano fuori dal fondo, guardando separatamente i risultati dei due esperimenti.

E comunque in ogni caso un basso p-value di per sé non dice niente a favore di una eventuale ipotesi alternativa. Voglio dire che si può essere sfigati da osservare un p-value anche molto piccolo (ovvero una fluttuazione statistica a priori estremamente improbabile), ma se la spiegazione alternativa per giustificare la deviazione osservata rispetto al fondo è una teoria strampalata e fantasiosa, il basso p-value non le conferisce comunque alcuna autorità. Un caso per tutti: i presunti neutrini superluminali, che avevano un p-value molto piccolo, corrispondente a una probabilità su un milione o anche meno, se ricordo bene. Tuttavia, nonostante il p-value di quella misura fosse così piccolo, la possibilità che i neutrini fossero effettivamente superluminali restava comunque bassa. E infatti quel p-value così piccolo si rivelò essere dovuto a un banale errore, un effetto sistematico non correttamente tenuto in considerazione (la connessione ballerina di un cavetto!).

Quindi. nonostante il p-value non significativamente piccolo, la cosa che rendeva interessanti i risultati di Atlas e Cms era che entrambe queste gobbette, che prese singolarmente erano certamente poco significative, si manifestavano allo stesso valore di massa invariante. Certo, poteva essere una coincidenza, e tutti ne erano ben consapevoli. Ma era tuttavia sufficiente per far drizzare le antenne alla comunità dei fisici di LHC e invitarli a guardare con più attenzione a quella regione di massa invariante in quel particolare processo, non appena LHC sarebbe stato riacceso e nuovi dati sarebbero stati raccolti. In queste situazioni la cosa da fare è infatti raccogliere nuovi dati. Riprendendo l'analogia della moneta, se ci è venuto un numero di teste elevato in modo sospetto, l'unica cosa da fare è tirare la moneta molte altre volte, per vedere se, raccogliendo più dati, l'anomalia persiste o gradualmente scompare. Non restava quindi che aspettare i nuovi dati che sarebbero arrivati a partire da maggio 2016, con la riaccensione di LHC.

Nel frattempo le opinioni dei fisici si potevano riassumere in "sono scettico ma speriamo che sia vero". Anche io dicevo questo. Forse anche per scaramanzia, pochi si sbilanciavano. I fisici, nonostante calcolino i p-values e i livelli di confidenza, alla fine sono superstiziosi come tutti. "Speriamo che sia vero", dicevano, perché la presenza di una nuova particella di questo tipo avrebbe rappresentato qualcosa di assolutamente nuovo e imprevisto, e quindi l'inizio di nuove scoperte. E la scienza, si sa, vive di novità e scossoni, che ne sono il vero motore. Sai che noia se si dovesse sempre confermare le teorie già note! Ogni tanto ci vogliono gli imprevisti.

Il risultato era che in qualunque meeting interno dei vari gruppi di analisi, non appena qualcuno mostrava un grafico in cui in ascissa c'era una massa invariante di qualunque tipo, anche se non c'entrava niente con i due fotoni, tutti andavano con l'occhio al valore corrispondente a 750 GeV per vedere se c'era qualcosa di strano. Effetti dell'astinenza da nuova fisica...

Nel frattempo alla comunità dei fisici teorici tutto questo era piovuto come manna dal cielo, e in tanti si erano dedicati alla loro specializzazione: teorizzare sulle cose che potrebbero esistere ma non è detto che esistano. E quindi sono state pubblicate in pochi giorni alcune centinaia di articoli in cui essi spiegavano, o per lo meno ipotizzavano, che cosa poteva essere questa eventuale nuova particella, qualora la sua esistenza fosse confermata dagli esperimenti, e cosa avrebbe implicato per le misure future in termini di nuove scoperte.

Non c'è niente di strano in tutto questo, sebbene alcuni si siano scandalizzati affermando che non si dovrebbero pubblicare speculazioni teoriche basate su risultati sperimentali che sono ancora da confermare. E perché mai non dovrebbero farlo? Personalmente ritengo questa affermazioni una sciocchezza, senza mezzi termini. Basterebbe ricordare ad esempio gli ennemila lavori teorici sulle superstringhe, sulla gravità quantistica, sulla supersimmetria, sul modello inflazionario dell'universo primordiale, o sul comportamento delle ipotetiche particelle di dark matter, tutti fenomeni che sono ben lungi dall'avere conferme sperimentali solide (per usare un eufemismo).

Nel frattempo, nella primavera del 2016, LHC è stato riacceso. Dopo alcune settimane di test e di riadattamento alla vita (come gli umani appena svegliati, anche un acceleratore ha bisogno di un po' per riprendere la normale attività), gli esperimenti hanno iniziato a collezionare nuovi dati con un ritmo sempre maggiore, fino a raccogliere entro giugno del 2016 più dati di quelli raccolti in tutto l'anno precedente. A questo punto aveva senso controllare se il famigerato "eccesso" a 750 GeV era ancora lì.

Il 20 giugno 2016, ad un meeting interno della collaborazione CMS, di cui faccio parte anche io, era previsto il primo "unblinding" dei dati raccolti nel 2016. Unblinding vuol dire che i dati raccolti erano stati presi "in cieco", cioè non erano ancora stati guardati da chi aveva fatto l'analisi nell'intervallo di massa interessante per l'ipotetico segnale. Il motivo non risiede in particolari perversioni dei fisici, tipo quelli che si fanno bendare dall'amante, ma nel fatto che l'analisi dei dati voleva essere la più unbiased possibile, ovvero non influenzata da quello che si osservava nella zona di massa attorno a 750 GeV. In questo modo la selezione dei dati e i vari aspetti dell'analisi erano stati ottimizzati soltanto sul fondo adiacente alla zona di massa incriminata, senza correre il rischio di manipolare i dati e aumentare artificialmente, anche se involontariamente, l'eventuale significatività del segnale. Anche i fisici sono esseri umani, e per evitare di fare questi errori "si bendano".

Sono le 17 circa di lunedì 21 giugno quando al Cern Pasquale Musella, un ragazzo italiano responsabile del gruppo di analisi, si appresta a presentare i risultati al resto della collaborazione CMS. Sebbene sia un meeting interno all'esperimento, e quindi solo i membri di CMS possano assistere, l'auditorio del Cern è comunque pieno. Niente di strano, dato che in CMS siamo più di 2500. E diverse altre centinaia sono collegate via streaming da tutte le parti del mondo. I risultati, qualunque essi saranno, sono ancora preliminari, e quindi non saranno resi pubblici prima della conferenza ICHEP (International Conference on High Energy Physics) prevista a Chicago per i primi di agosto, dove verranno presentati ufficialmente. Il capo dell'esperimento chiede a tutti di rispettare la riservatezza, qualunque sia il risultato.

Pasquale descrive l'analisi nei dettagli, come è stata valutata la risoluzione sull'energia dei fotoni, i vari effetti sistematici, il fondo previsto etc etc. La gente frigge sulle sedie. E poi arriva al momento topico: "and now ladies and gentlemen... let's unblind the new data!". Rullo di tamburi, salivazione azzerata, sogni di gloria e grandi speranze attraversano le menti di tutti, compresa la mia. Pasquale spinge sul tasto invio della tastiera del computer, e sullo schermo appare il nuovo grafico. Gli occhi di tutti corrono alla zona dove nel 2015 c'era quella bozza di eventi in più, vanno avanti e indietro per essere sicuri di non aver sbagliato e.... non trovano niente! Nel nuovo grafico, ottenuto con i nuovi dati di LHC raccolti nel 2016, attorno a 750 GeV non c'è niente di diverso dal fondo. Niente altro che il fondo aspettato, nemmeno un accenno di eventi in più, neanche un'abbozzo di collinetta, un punto fuori posto, qualcosa che lasci sperare, qualcosa che ci dica che forse.... Niente! Un niente che non lascia appello.

Due ricercatori di Cms, disperati, si abbracciano piangendo dopo l'unblinding dei nuovi dati.
In sala c'è il crollo totale della libido. Ettolitri di adrenalina sprecati per niente. In un attimo appare chiaro a tutti che quell'ipotetico segnale che ci aveva fatto sognare non era altro che una fluttuazione statistica, che casualmente aveva assunto caratteristiche simili sia nei dati raccolti da CMS che in quelli di Atlas, l'esperimento concorrente. "Ci sono domande?" chiede lo speaker. Silenzio. "Outside Cern first?" Silenzio. "In the room?" Ancora silenzio. L'atmosfera è quella di un gruppo di amici-tifosi riunitosi con patatine fritte, birre e rutto libero per vedere la finale dei mondiali, subito dopo che la propria squadra ha appena perso ai rigori.

Fisico di Atlas disperato dopo la scomparsa del picco a 750 GeV, riceve il conforto dei colleghi mentre viene irriso da uno statistico Bayesiano.

Col senno di poi c'erano diversi indizi che rendevano sospetto questo ipotetico segnale. Ma anche senza il senno di poi, dato che ne eravamo tutti consapevoli. A parte la bassa significatività statistica osservata, c'era il fatto che Atlas osservava un segnale "largo", mentre Cms aveva un picco molto stretto. Certo, entro le fluttuazioni statistiche ci poteva stare, ma la cosa era stata notata, e non era un buon segno.

Poi c'era il fatto che questa ipotetica nuova particella, se reale, si sarebbe dovuta manifestare anche in altri modi, e non solo tramite l'emissione di 2 fotoni. Certo, essendo qualcosa di nuovo uno poteva immaginare di tutto, però siccome questa particella sarebbe comunque stata prodotta a partire dall'interazione nucleare forte fra i due protoni iniziali, sarebbe certamente dovuta decadere anche attraverso l'interazione forte, così come veniva prodotta. E nella fattispecie, oltre ai due fotoni, si sarebbe dovuta osservare anche come un eccesso di coppie di "jet", due spruzzate di particelle "adroniche", ovvero particelle aventi proprietà analoghe a quelle del protone. E invece niente.

Le esequie del picco in due fotoni a 750 GeV. Allo sconforto dei fisici di Atlas e Cms si contrappone l'atteggiamento giulivo del fisico teorico all'estrema destra, che sta trasmettendo al cellulare l'articolo in cui propone una nuova teoria che spiega perché non si vede alcun picco.
C'era anche un terzo indizio che contribuiva a rendere il tutto sospetto. E cioè che le distribuzioni delle caratteristiche dei due fotoni, tipo impulso, direzione, angolo relativo etc, ottenute nella zona di massa dove si osservava l'ipotetico segnale, erano del tutto simili, entro le incertezze statistiche, a quelle che si osservavano nelle zone adiacenti al picco, dove c'era certamente soltanto fondo. La cosa era sospetta, perché la presenza di una nuova particella dovrebbe in generale manifestarsi anche con effetti specifici sulle proprietà dei fotoni tanto da farli differire dai fotoni di fondo. E invece niente neanche in questo caso. Di nuovo, certamente la bassa statistica non era conclusiva, ma lasciava comunque suggerire che l'ipotetico segnale si comportava esattamente come il fondo. E se un ipotetico segnale si comporta esattamente come il fondo c'è il serio rischio che sia fondo!

Il cimitero delle presunte scoperte che differivano meno di 3 sigma dal fondo, in cui è stato tumulato il picco a 750 GeV osservato nel 2015 a LHC. 


Comunque, superato lo shock, i fisici hanno fatto il funerale al picco a 750 GeV, seppellendolo nel vasto cimitero delle scoperte annunciate al limite delle 3 sigma, e che poi con maggiore statistica si sono rivelate false. E asciugate le lacrime, sono ritornati al lavoro. Però adesso basta con queste fregature!