Per un nuovo modo d’insegnare la meccanica quantistica

episodio 4: la fisica quantistica dei campi

La dualità onda-corpuscolo è, a mio parere, il concetto più sbagliato introdotto con la meccanica quantistica, nonostante sia molto diffuso. È del tutto normale che nella scienza si formulino concetti che, alla fine, si rivelano fallaci. È però sbagliato continuare ad usarli inutilmente. La dualità fu introdotta all’inizio dello sviluppo della MQ per spiegare fenomeni nuovi utilizzando categorie del secolo precedente. Oggi la nostra visione del mondo è cambiata e non c’è bisogno di insistere nel proporre spiegazioni vecchio stile. D’altra parte, nessuno di noi oggi insiste nel cercare di spiegare la relatività supponendo l’esistenza di un etere.

In questo post cerchiamo di descrivere al meglio la natura di un elettrone.


Nell’articolo precedente abbiamo mostrato che un fascio di elettroni si può naturalmente interpretare come composto di un’onda che si propaga nello spazio e nel tempo. L’onda deve avere una certa carica elettrica, essendo soggetta alla forza di Lorentz. Tuttavia, qual è la natura di una tale onda? E cosa significa per un’onda essere caricata elettricamente?

Secondo la teoria ormai consolidata, la luce si propaga come un’onda elettromagnetica, quest’ultima essendo una successione di campi elettrici e magnetici, come descritto dalle equazioni di Maxwell. Vale la pena ricordare che, prima delle opere di Maxwell e di Einstein, i fisici sapevano già che la luce era un’onda, ma poiché erano abituati a vedere le onde propagarsi nei mezzi, supponevano (erroneamente) che dovesse esistere un mezzo attraverso il quale la luce dovesse essere in grado di propagarsi. Solo in seguito fu chiaro che la luce poteva propagarsi nel vuoto perché il campo elettromagnetico si propaga nel vuoto; e solo con la relatività speciale di Einstein fu chiaro che non era necessario alcun mezzo per rendere conto della sua propagazione a velocità costante. Le onde, quindi, hanno perso la loro natura “classica” di perturbazioni che si propagano nei mezzi: le onde possono essere “composte di” campi (e non propagarsi attraverso essi). Il campo e.m. è neutro perché la sua propagazione non è influenzata dalla presenza di altri campi e.m. (i campi possono interferire, ma il modo di propagarsi di un campo è indipendente dagli altri).

Come nel caso della definizione dello stato, è abbastanza difficile trovare una definizione di campo nei libri di fisica. Molti di essi non lo definiscono affatto: si limitano a fornire un elenco (spesso incompleto) delle sue caratteristiche. Il concetto di campo è solitamente introdotto nell’elettrostatica e si dice che è generato dalle cariche ed è definito come la forza per unità di carica esercitata dalla sua sorgente. Una tale definizione, si converrà, non implica alcun “contenuto” fisico per quest’entità: non implica affatto che il campo esista indipendentemente dalla forza di Coulomb. Si tratta solo di una definizione matematica (neanche operativa, perché non è così che si misura il campo).

Comunque la fisica non è matematica, e una definizione precisa, formale, delle grandezze fisiche è sì spesso difficile, ma, del resto, anche inutile in molti casi. Ciò che è importante, per definire una grandezza fisica, è poterla misurare e identificarne le proprietà. Analizziamo quindi una teoria di campo.

  1. Una teoria di campo (come l’elettromagnetismo) è una formulazione matematica della dinamica dei campi. Dato lo stato di un campo al tempo t=0, la teoria ce lo fornisce in qualsiasi altro istante t≠0. Il campo elettrico in un’onda e.m., per esempio, è descritto da E(t,x)=Acos(⍵t+kx+φ).
  2. Dato lo stato delle sorgenti, la teoria permette il calcolo del campo da esse generato. Ad esempio, la teoria di Maxwell permette di calcolare il campo magnetico prodotto da una corrente e il campo elettrico prodotto da un piano uniformemente carico.

Elenchiamo ora le proprietà rilevanti di un campo (quelle che le rendono diverse dalle particelle).

  1. I campi si propagano nello spazio e nel tempo.
  2. I campi sono generati dalle sorgenti. Non esistono né prima né all’interno di essi.
  3. A differenza della “materia” i campi possono si possono creare o distruggere.

Secondo le equazioni di Maxwell, le onde elettromagnetiche sono una successione di campi elettrici e magnetici: una corrente variabile che scorre in un conduttore genera un campo magnetico variabile che a sua volta genera un campo elettrico variabile che genera un campo magnetico e così via, come mostrato di seguito.

Un’onda e.m. è una successione di campi elettrici e magnetici che si propagano

A un certo punto si scopre che la luce può dare origine a fenomeni che si possono spiegare solo ammettendo che sia composta da particelle chiamate fotoni: l’effetto fotoelettrico, l’effetto Compton e la radiazione di un corpo nero si spiegano solo attribuendo una natura corpuscolare alla luce. Chiaramente i due modelli (quello corpuscolare e quello ondulatorio) sono incompatibili.

D’altra parte, un’onda e.m. emessa da un’antenna (un filo in cui scorre una corrente alternata) si può interpretare come un flusso di fotoni irradiati dalla corrente in tutte le direzioni perpendicolari al filo. Mettendo un rivelatore vicino all’antenna possiamo misurare un campo elettrico o magnetico. Tuttavia, se la frequenza dell’onda e.m. è sufficientemente grande, possiamo osservare l’effetto fotoelettrico, che interpretiamo come la collisione di un fotone con un elettrone atomico. I fotoni, come i campi e.m., sono dunque prodotti anch’essi dalla corrente. È utile osservare che le proprietà dei campi e di una teoria di campo, che abbiamo elencato sopra, valgono anche per i fotoni: basta sostituire la parola “fotone” con “campo”. Di conseguenza, un fotone È un campo, qualunque cosa questo significhi (rimandiamo la discussione su cosa questo significhi esattamente a un post successivo: la vita è dura).

Qualunque cosa significhi, quest’osservazione ci fa capire che la luce non è né una particella un’onda: è qualcos’altro che chiameremo campo. Continuare a parlare della dualità onda-corpuscolo è completamente fuorviante¹.

Consideriamo ora i decadimenti beta che consistono nella trasformazione (decadimento) di un neutrone in un protone, con l’emissione di un elettrone e di un neutrino. Il processo è ben descritto dalla teoria delle interazioni deboli. Si noti che neutroni e protoni si distinguono per la loro carica elettrica, alla quale l’interazione debole è cieca. Per essa, quindi, protoni e neutroni sono la stessa particella. Possiamo descrivere il processo come segue:

Il decadimento beta è un processo che consiste nell’emissione di un campo di elettroni e uno di neutrino da parte di una “corrente debole”.

La transizione tra un neutrone e un protone è un cambiamento di stato, come la transizione da i(0) a i(t) di una corrente è un cambiamento di stato della corrente. Il cambiamento di stato dev’essere accompagnato (per la conservazione dell’energia) dall’emissione di uno o più campi. Nell’immagine le linee rosse rappresentano un “campo di elettroni“, mentre quelle blu un “campo di neutrini“. Questi campi non sono campi vettoriali come i campi e.m. e, contrariamente a questi ultimi, non generano altri campi, per cui quando un campo di elettroni si propaga da x(0) a x(t) si trova in x(t) ma non in x(0).

Vediamo se le caratteristiche dei campi e le teorie di campo sopra elencate si applicano ai campi di elettroni e di neutrini. Li chiameremo collettivamente “campi fermionici”.

  1. La teoria quantistica dei campi è costituita di equazioni che permettono di prevedere lo stato di un campo fermionico, noto il suo stato a t=0. In particolare, l’equazione di Dirac descrive la propagazione di un campo libero, in modo simile a quanto fanno le equazioni di Maxwell per i campi e.m.
  2. La sorgente del campo fermionico è, nella teoria di cui sopra, la “corrente debole“. Lo stato dei campi fermionici si può prevedere dalla teoria, se conosciamo lo stato iniziale del neutrone e lo stato finale del protone, proprio come la teoria e.m. dà lo stato dei campi, conoscendo lo stato delle sorgenti in tempi diversi. Si noti che prevedere lo stato di un campo non significa prevedere dove si può trovare una particella, giacché in meccanica quantistica questo non ha senso (vedi episodio 1). Significa essere in grado di prevedere la distribuzione dell’energia dei campi fermionici.

Inoltre, i campi hanno le seguenti proprietà.

  1. I campi fermionici si propagano, chiaramente, nello spazio e nel tempo.
  2. Sono generati da una sorgente: in questo caso la sorgente è la corrente debole. È impossibile creare i campi dal vuoto: abbiamo bisogno di una sorgente. Così com’è impossibile creare un campo e.m. dal vuoto, senza una sorgente (una carica elettrica, sia essa a riposo o in movimento).
  3. I campi fermionici si creano e si distruggono: non preesistono nei nuclei radioattivi (come si pensava all’inizio del XX secolo). La creazione di un campo è un processo che rispetta tutti i principi di conservazione. Così come possono essere creati i campi possono essere distrutti (di nuovo, purché le quantità conservate siano conservate). In modo del tutto simile a quanto accade ai fotoni che possono essere creati da un’antenna e distrutti dall’effetto fotoelettrico.

Ma allora, cos’è un elettrone? Semplice: è un campo (carico, con massa). E un neutrino? Un campo (neutro). E un fotone? Un campo (neutro, senza massa). Perché dovremmo insistere a raffigurarceli come onde o particelle? Benintesi, possiamo farlo nella misura in cui trattiamo la luce con l’ottica geometrica o quella fisica: la scelta dipende dal problema da risolvere. A volte l’ottica geometrica è più semplice e vale la pena trattare la luce come un fascio di raggi, a volte non funziona e si usa la meccanica delle onde. È una mera decisione opportunistica.

Nella moderna meccanica quantistica tutto è un campo: i campi fermionici hanno spin semi-intero (lo spin è un numero quantico che si comporta come un momento angolare intrinseco); i campi bosonici, come i fotoni, hanno spin intero. Fotoni, elettroni e neutrini non sono né particelle, né onde: sono campi. Condividono tutti lo stesso comportamento attribuito a ciò che chiamiamo campo, quindi sono la stessa cosa.

L’interpretazione illustrata sopra può sembrare strana, soprattutto per le persone che sono state esposte a un formale corso di teorie quantistiche dei campi (QFT: Quantum Field Theory). Il modo in cui la QFT è insegnata oggi è molto diverso ed è divertente osservare come una reazione molto frequente da parte degli esperti è “bella la tua teoria, ma mi pare un po’ fantasiosa…non è proprio così che funziona…”, spesso accompagnata da un sorriso di leggero scherno. In realtà, il sorriso si spegne subito quando s’informa l’interlocutore che l’autore di una simile interpretazione non è il sottoscritto, bensì Enrico Fermi che nel suo articolo “Tentativo di una teoria dell’emissione dei raggi beta“² prende le mosse proprio dall’analogia l’emissione di onde e.m. da parte di una corrente e l’emissione di elettroni e neutrini da parte di quella che lui stesso battezza come una corrente debole. Oggi la definizione di corrente debole è effettivamente un po’ diversa e la maggior parte dei giovani fisici non sa nemmeno perché le chiamano “correnti”.


¹ A questo proposito suggerisco di leggere la trascrizione di una famosa lezione di Feynman (spesso usata impropriamente per impressionare la gente con la storia che è impossibile capire la MQ: in realtà, Feynman stava affermando proprio il contrario) in cui diceva “Se dico che [elettroni e fotoni] si comportano come particelle do l’impressione sbagliata; anche se dico che si comportano come onde. Si comportano in un modo tutto loro, che tecnicamente si potrebbe definire quantistico” (grazie a Peppe Liberti per aver fornito il link).

² LA RICERCA SCIENTIFICA, anno IV, vol. II, N. 12, 31 dicembre 1933

Il perverso meccanismo del peer review

Il sistema del peer review è quello adottato dalle riviste scientifiche allo scopo di validare il contenuto degli articoli inviati dagli autori per la loro pubblicazione.

Quando uno o più autori inviano un manoscritto a una rivista perché lo pubblichi, l’editor (la persona incaricata di pubblicarlo) lo invia a due o più esperti (o presunti tali) affinché verifichino che l’articolo sia privo di errori e corretto da un punto di vista scientifico. Quest’ultimo punto si presta già a qualche critica perché non è chiarissimo cosa voglia dire. La scienza difficilmente si presta a valutazioni “ordinarie” o standardizzate, sebbene, in effetti, la quasi totalità degli articoli pubblicati sia piuttosto banale, per certi versi (nel senso che spesso gli articoli contengono risultati più o meno rilevanti, per ottenere i quali tuttavia è sufficiente applicare correttamente una serie di “regole”).

Solitamente i referee (così si chiamano gli esperti), anonimi, inviano all’autore e, in copia, all’editor, i propri commenti. Se giudicano sostanzialmente corretto il contenuto dell’articolo danno il via libera alla pubblicazione, spesso indicando qualche modifica da introdurre o chiedendo chiarimenti. Altrimenti l’articolo non viene pubblicato e l’autore riceve una lettera di commenti che spiegano le motivazioni di una tale decisione.

La maggior parte dei ricercatori oggi ritiene che il sistema funzioni e garantisca la qualità del materiale pubblicato e, sopra tutto, pensa che il meccanismo che consente la pubblicazione di articoli scientifici, sia sempre stato questo.

In realtà, alcuni (me compreso) criticano apertamente il sistema perché si presta ad abusi e non garantisce affatto il progresso della ricerca scientifica. Alcuni critici (me compreso) pensano che possa addirittura danneggiarlo.

Come prima cosa è bene chiarire che il meccanismo del peer review non è sempre esistito ed è un’invenzione relativamente recente. Molte riviste scientifiche si chiamano Letters (Physical Review Letters, Physics Letters, etc.) perché in passato gli scienziati, per far conoscere le proprie ricerche, si scrivevano lettere a vicenda. Ed è evidente che una lettera non è soggetta ad alcun meccanismo di revisione.

Neanche quando si cominiciò, per praticità, a pubblicare su rivista s’immaginò di metter su un tale meccanismo. Di fatto non ce n’era bisogno. Chi pubblicava su certe riviste era in qualche misura certificato dal possedere una certa reputazione fosse anche solo per essere un esponente dell’accademia o dell’industria.

Il sistema del peer review nasce recentemente per selezionare gli articoli rilevanti tra quelli sempre piú numerosi che giungevano nelle redazioni delle riviste oppure come forma di aiuto per gli editor, che, dato l’ampio spettro di conoscenze richieste per giudicare la pubblicabilità di un manoscritto, non erano sempre in grado di decidere in autonomia.

Come ricorda il post recente di Andre Spicer e Thomas Roulet che trovate qui, portato alla mia attenzione da Nathalie Lidgi-Guigui, i lavori di Albert Einstein non erano soggetti a questa pratica. Probabilmente, se lo fossero stati fin dall’inizio, non avrebbero mai visto la luce. Nathalie pubblica infatti un estratto della lettera con la quale Einstein chiede la pubblicazione di un suo articolo, senza dire di cosa si tratta, e chiede ai suoi colleghi di aiutarla a rispondere in qualità di referee. Il post è questo:

https://platform.twitter.com/widgets.js

Quasi tutti hanno ridicolizzato il povero autore, fino a quando Nathalie ha svelato di chi si trattava. Nel post di Spicer e Roulet si ricorda come Einstein, avendo saputo che l’editor aveva inviato un suo manoscritto a un referee, non ritenendo di avere le competenze per giudicarlo, rispose piccato:

Le avevamo inviato il manoscritto per la pubblicazione, ma non l’avevamo affatto autorizzata a mostrarlo ad altri prima della stampa. Non vedo perché dovrei rispondere ai commenti – in ogni caso errati – di un anonimo “esperto”. In considerazione di questa grave mancanza, preferisco pubblicare il mio articolo su un’altra rivista.

Wow! Il fatto è che non tutti sono Einstein e la maggior parte di noi non si può permettere di rispondere in questo modo al direttore di una rivista. La scienza è fatta da pochi grandissimi che naturalmente possono svolgere il loro lavoro grazie a quello, silenzioso, di moltissimi “manovali” come me che, facendo misure e pubblicandole, rendono un grande servizio alla comunità e permettono ai geni di utilizzarle in modo creativo. Alcuni però si considerano dei geni (non essendolo) e pretendono la pubblicazione di ricerche inconcludenti, sbagliate o, peggio, totalmente o parzialmente costruite a tavolino. È dunque necessario porre un argine a questa pratica e così è iniziato il processo che oggi è universalmente considerato l’unico possibile e del tutto “naturale”.

Sfortunatamente, su questo processo si è innestato quella della cosiddetta valutazione oggettiva della ricerca che pretende di misurare la qualità di un ricercatore dal numero di pubblicazioni e delle relative citazioni. Per inciso osservo che la scienza, nel frattempo, è passata da una definizione apparentemente rigorosa di probabilità a una che definisce quest’ultima come il risultato di una valutazione soggettiva (il che non significa affatto che non si possano trarre da queste valutazioni elementi di oggettività, che sono spesso più solidi di quelli estratti da una definizione oggettiva di probabilità). Questo ha scatenato una corsa alla pubblicazione per la quale oggi si produce una quantità di articoli tale per cui solo una piccolissima parte di essi potrebbe materialmente essere letta da un ricercatore in ciascun singolo sottosettore di competenza. E con questa corsa si è irrigidita la posizione dei referee che spesso prendono troppo sul serio o fraintendono completamente il loro ruolo, inserendo in questo elementi di presunta oggettività.

Mediamente il referee si sente in dovere di giudicare il contenuto di un articolo, ma spesso lo fa sulla base delle proprie convinzioni senza valutare se le argomentazioni dell’autore abbiano senso o meno. Ciò risulta tanto più vero quanto più la ricerca proposta risulta innovativa. È evidente che, specialmente all’inizio della costruzione di una teoria, non tutti gli aspetti possono risultare chiari persino allo stesso autore. Molti referee tendono a rifiutare l’articolo se questo non presenta una visione del tutto coerente e completa di tutti i fenomeni e gli aspetti (o della maggior parte di quelli noti) che in principio potrebbero essere coinvolti. Riuscite a immaginare cosa sarebbe successo in questo caso all’articolo sull’effetto fotoelettrico? O a quelli sulla fisica del corpo nero?

In generale il referee tende anche a spingere l’autore a scrivere ciò che egli vorrebbe scrivere, nella maniera in cui vorrebbe scriverlo. Lima, aggiusta, cancella e riscrive frasi, senza limitarsi, come dovrebbe, a segnalare l’eventuale necessità di una revisione linguistica laddove l’autore non domini la lingua in cui scrive. Introduce nel giudizio la sua visione e la sua personale interpretazione dei dati o dei modelli presentati.

L’apice si raggiunge con l’analisi della bibliografia. Ora dirò una cosa che farà innervosire molti lettori: la bibliografia in un articolo è quasi del tutto inutile. Ero stato tentato di rispondere al post di Nathalie che a me la richiesta dell’autore di essere esentato dall’illustrazione della bibliografia non sembrava così grave, sebbene un po’ arrogante, specialmente nel modo in cui era presentata, ma poi non l’ho fatto per non apparire il solito “oppositore“. Delle decine di articoli citati in un manoscritto spesso ne basta meno del 5% per rendere l’articolo del tutto comprensibile e per consentire, a chi lo volesse, di approfondire. La funzione della bibliografia in un articolo in fondo è questa (a parte quella di ringraziare, sinceramente, gli autori i cui articoli siano stati seriamente d’aiuto nella preparazione del manoscritto). Invece, se si vuole che il proprio articolo sia pubblicato, occorre inserire almeno un’intera pagina di riferimenti bibliografici da citare ovunque, quasi sempre nell’introduzione. Si deve dar sfoggio di aver letto moltissimo e di apprezzare il lavoro di molti colleghi. Perché in fondo uno di quelli, o un suo vicino collega, potrebbe essere un referee del tuo lavoro. E se quello poi non trova i suoi articoli citati nel tuo se la lega al dito. È importante che la bibliografia sia lunga ed esaustiva perché così, statisticamente, prima o poi toccherà al referee di esser citato con lo stesso meccanismo.

Non parliamo poi di articoli nei quali s’intenderebbe illustrare una propria opinione o una diversa interpretazione o una rilettura di fenomeni già noti, allo scopo di iniziare un dibattito nella comunità. Oppure ancora di quelli nei quali si presenta un’esperienza fatta perché si ritiene che possa essere utile agli altri che potrebbero implementarla così com’è o migliorarla. Questo genere di comunicazione non trova proprio spazio in una rivista scientifica. Non dico che non sia corretto, ma il fatto è che, praticamente, non esistono riviste dedicate a questo e così è difficilissimo per un autore far conoscere il proprio punto di vista su certi argomenti o raccogliere le opinioni degli altri per coinvolgerli nella discussione.

Qual è la soluzione? Confesso di non averla, ma mi accontenterei del fatto che i referee facciano il loro lavoro onestamente e senza eccessi: quando io giudico un articolo in questa veste cerco di non imporre la mia visione delle cose (posso suggerirla nella lettera che invio agli autori perché la considerino, ma senza pretendere che sia accolta); segnalo la necessità di una revisione linguistica, se è il caso; mi limito al controllo dei conti e della coerenza di simboli e notazioni; non intervengo nell’interpretazione dei risultati, a meno che non sia palesemente in contrasto con i dati; non giudico preventivamente l’impatto che l’articolo può avere sulla comunità (questa in realtà è un’indicazione imprescindibile richiesta dall’editor, ma per quanto mi riguarda non è mai un criterio per rigettare un articolo). Io credo che, se un articolo non è contradditorio e inconcludente, sarà la comunità a giudicarlo: se il contenuto risulterà copiato o inventato, qualcuno lo denuncerà attraverso la pubblicazione di un altro articolo. Non si può certo pretendere che il referee conosca tutta la letteratura relativa al soggetto, per cui non può essere di quest’ultimo la responsabilità della pubblicazione di un plagio o di una truffa.

Una serata al Bar Europa

Venerdì 9 novembre 2018 sono stato invitato al “Bar Europa“: una rubrica culturale all’interno del programma Rock Night Show di DJ Drago, su Radio Godot, condotta da Michele Gerace. Bar Europa è uno spazio di discussione, una comunità, che ambisce a promuovere il senso di appartenenza all’Europa e lo fa attraverso la promozione di iniziative culturali complesse, nel senso che mescola discipline tra loro diverse per evidenziare come le differenze non siano da temere, come qualcuno vuol far credere, ma siano una ricchezza.

Puoi rivedere la puntata (o meglio la porzione che è stata registrata) qui

Questo post termina con l’augurio che conclude le puntate della rubrica: Viva l’Europa!

Esperimenti radioattivi

Con il simulatore di Geiger presentato nell’ultimo post si possono solo fare dimostrazioni qualitative circa la maniera in cui si comporta un rivelatore di particelle quando si avvicina una sorgente radioattiva. Al più si può fare una serie di misure che permettono di stabilire la legge secondo la quale il numero di conteggi per unità di tempo diminuisce col quadrato della distanza, come nel filmato.

Una serie di misure più interessanti si può seguire con il programma riportato sotto.

#define _DEBUG

#define CLIK 8
#define ECHO 2
#define TRIG 3

#define TAU 2.2414 // the decay time in minutes
#define c 340.e-6  // the speed of sound

float tau = TAU*60.;
unsigned long t0;

void setup() {
  pinMode(CLIK, OUTPUT);
  pinMode(ECHO, INPUT);
  pinMode(TRIG, OUTPUT);
  digitalWrite(TRIG, LOW);
  digitalWrite(CLIK, LOW);
  t0 = millis();
#ifdef _DEBUG
  Serial.begin(9600);
  Serial.print("============ tau = ");
  Serial.print(tau);
  Serial.println(" s");
#endif
}

void trigger() {
  /* trigger the sensor */
  digitalWrite(TRIG, HIGH);
  delayMicroseconds(10);
  digitalWrite(TRIG, LOW);
}

float measure() {
  /* measure the distance between the sensor and the obstacle */
  float d = 0.;
  for (int i = 0; i < 15; i++) {
    trigger();
    unsigned long T = pulseIn(ECHO, HIGH);
    d += c*T/2.;
  }
  return d;
}

int status = HIGH; // the current status of the relay

void loop() {
  /* measure distance and time */
  float d = measure();
  float t = (millis() - t0)*1.e-3;
  /* compute the probability of a decay */
  float Pdecay = exp(-t/tau);
  float f = (float)random(1000)/1000.;
  /* if an atom decay... */
  if (f < Pdecay) {
    /* ...detect it with a probability that depens on d */
    unsigned long trigger = 10000./(d*d); 
    unsigned long r = random(10000);
    if (r < trigger) {
      digitalWrite(CLIK, status);
#ifdef _DEBUG
      Serial.println(t);
#endif
      if (status == HIGH) {
        status = LOW;
      } else {
        status = HIGH;
      }
    }
  }
}

Il programma è solo apparentemente complicato. La costante definita alla linea

#define TAU 2.2414

rappresenta il tempo di vita medio, espresso in minuti, di una ipotetica sostanza radioattiva (in questo caso dell’Alluminio 28: quello ottenuto da Enrico Fermi nei suoi esperimenti sulla radioattività artificiale).

Con questa versione dello sketch di Arduino i click si susseguono con una probabilità che diminuisce esponenzialmente con un tempo caratteristico TAU.

A questo punto simulare una misura è facile. Si avvicina, a un’opportuna distanza, la presunta sostanza radioattiva e si contano i click che si odono nell’unità di tempo. Per esempio, si possono contare i click ogni 20 o 30 secondi, avendo cura di porre la sorgente a una distanza tale da avere un numero statisticamente significativo di click in questo intervallo di tempo (all’inizio delle misure questo numero dovrebbe essere almeno attorno a 80-100). Dividendo il numero di click N per l’intervallo di tempo T si ottiene la frequenza dei conteggi N/T. Si ripete la misura a tempi successivi e si osserva che il rapporto N/T non è costante, ma diminuisce col tempo. Se si fa un grafico di N/T (o semplicemente di N) in funzione del tempo si ottiene la figura sotto riportata:

Fermi_Al

La figura include il “fit” ai dati sperimentali eseguito con un esponenziale. Per ottenere una prima stima del tempo di decadimento senza dover eseguire un complesso fit con un esponenziale si può riportare il logaritmo del numero di conteggi in funzione del tempo, il che darà al grafico l’aspetto di una retta, di cui basta misurare la pendenza. Oppure si può, per tempi relativamente piccoli, approssimare l’esponenziale con una retta

N·exp(-t/τ)≈N(1-t/τ).

Le misure fluttuano in maniera statistica, quindi si ha l’impressione di fare una vera misura e s’impara a gestire gli errori sistematici e statistici in modo corretto. Conoscendo il tempo di vita impostato si può confrontare il valore ottenuto con quello atteso per valutare la bontà delle misure eseguite.

 

Un simulatore di Geiger

Dovendo fare una conferenza divulgativa sugli esperimenti che hanno fruttato il Premio Nobel a Enrico Fermi, nell’ottantesimo della sua attribuzione, ho deciso che avrei dovuto ripetere alcuni dei suoi fondamentali esperimenti in aula, in modo da spiegare bene quali furono le misure e i risultati che condussero il grande scienziato ad annunciare la scoperta del metodo per rendere radioattivi i materiali.

Fare esperimenti con materiali radioattivi in aula, però, non è solo vietato. È quanto meno inopportuno. Allora ho deciso che mi sarei avvalso di una simulazione: ma non di una “classica” simulazione al computer, bensì di una simulazione “concreta”.

Avevo bisogno di far vedere cosa succede quando si avvicina una sorgente radioattiva a un contatore Geiger. Ho quindi costruito un finto contatore Geiger usando una scheda Arduino, un sensore ultrasonico e un relay.

IMG_20180514_093515.jpg

Il sensore ultrasonico richiede quattro collegamenti: due servono per alimentarlo (GND e 5V), uno per il cosiddetto trigger e l’altro per l’eco. Inviando un impulso rettangolare abbastanza lungo (10 μs) al pin di trigger, il sensore ultrasonico emette un treno d’impulsi ad alta frequenza e misura il tempo che intercorre tra l’invio e la successiva rivelazione dello stesso treno d’impulsi. La rivelazione avviene quando gli impulsi sono riflessi da un ostacolo. Questo tempo è tanto più lungo quanto maggiore è la distanza tra il sensore e l’ostacolo.

Il relay è stato invece collegato a un terzo pin (oltre ai due necessari per l’alimentazione).

Tutto il sistema è stato alloggiato dentro un tubo di cartone (di quelli attorno ai quali è avvolta la carta da cucina) in modo tale che l’altoparlante e il microfono del sensore ultrasonico sporgessero lungo la superficie laterale a un estremo del tubo.

Il finto Geiger misura continuamente la distanza alla quale si trova un eventuale ostacolo e definisce una variabile trigger che dipende dalla distanza misurata al quadrato:

 unsigned long trigger = 1000./(d*d);

Quindi genera un numero random compreso tra 0 e 1000:

 unsigned long r = random(1000);

Se questo numero è minore di trigger fa cambiare stato del relay da chiuso ad aperto o viceversa:

if (r < trigger) {
  digitalWrite(CLIK, status);
  if (status == HIGH) {
    status = LOW;
  } else {
    status = HIGH;
  }
}

Il relay, cambiando stato, produce un rumorino che imita il click di un vero Geiger. Con questo codice la probabilità di far scattare il relay aumenta al diminuire della distanza di un ostacolo come 1/r2. Se l’ostacolo è molto lontano la probabilità di un click tende a zero. Avvicinando qualsiasi oggetto (radioattivo o meno) il numero di click per unità di tempo aumenta sempre di più esattamente come ci si aspetta nel caso reale. Per simulare ciò che avviene quando si avvicina una sostanza non radioattiva è sufficiente manipolare il campione in modo tale da avvicinarlo al Geiger senza metterlo di fronte al sensore ultrasonico.

 

Le scuole di Fisica con Arduino e Smartphone crescono

Le Scuole di Fisica con Arduino e Smartphone cui ho dato vita dal 2016 continuano a riscuotere un discreto successo. Alcuni insegnanti hanno già iniziato a lavorare con Arduino nelle loro classi e presumibilmente avremo materiale da presentare al prossimo Congresso della Società Italiana di Fisica.

Recentemente è stato pubblicato un mio post su Math is in the Air: un blog di divulgazione della matematica. Alcuni insegnanti hanno cominciato a fare sperimentazione in classe con Arduino e a Marzo parteciperò a un Workshop internazionale a Parigi per illustrare le nostre esperienze a un panel di esperti provenienti da vari Paesi europei.

Abbiamo anche ricevuto un invito per presentare le Scuole al Summer Meeting dell’American Association of Physics Teachers, dove condurremo anche un workshop sull’uso di Arduino per esperimenti scientifici.

 

La meccanica quantistica è incomprensibile?

Qualche giorno fa è uscito questo articolo su Repubblica.it. Si parlava di un libro scolastico che un’utente (con l’apostrofo perché si tratta di una donna) di Twitter (@roccaverrastro) segnalava per la presenza di una corbelleria relativamente alla forza di gravità. Nel libro incriminato, la cui foto compare nello stream dell’utente che l’ha segnalato, si dice testualmente: “[la diminuzione della forza di gravità con la distanza] è ben evidente osservando gli astronauti in orbita sulla Stazione Spaziale Internazionale, dove l’intensità della forza di gravità è ridotta al punto che persone e oggetti devono essere ancorati a dei sostegni per non volare nell’abitacolo“.

Bene hanno fatto coloro che si sono prodigati nello spiegare che le cose non stanno affatto così (inclusa Samantha Cristoforetti, meglio nota come @AstroSamantha) e quindi non starò qui a spiegare per l’ennesima volta che il motivo per cui gli astronauti fluttuano senza peso non è affatto che alla quota della ISS la gravità non c’è (come farebbe se no a orbitare?), ma perché di fatto la ISS è in perenne caduta libera.

Userò invece questo episodio come pretesto per discutere un paio di argomenti che m’interessano molto di più: l’autorevolezza dei libri (in generale, non solo di quelli di testo) e il convincimento che la meccanica quantistica sia del tutto contro-intuitiva.

Sull’autorevolezza dei libri

La critica più frequente ai contenuti che si trovano sulle pagine del World Wide Web o WWW (non di Internet, che è l’infrastruttura sulla quale il WWW funziona) è la loro presunta inattendibilità o inaffidabilità. Poiché chiunque è libero di scrivere quel che vuole sul Web, la maggior parte dei suoi contenuti sarebbe del tutto inaffidabile e comunque, anche qualora il contenuto di una pagina (come quelle di Wikipedia, ad esempio) fosse corretto, sarebbe unicamente il frutto di un copia-incolla e non di una conoscenza profonda e certificata dell’argomento.

Forse che non è la stessa cosa per i libri? Di libri inattendibili ce ne sono a bizzeffe (basta pensare a tutte le sciocchezze pubblicate sull’esoterismo, sugli alieni e su numerosi altri fenomeni “misteriosi”). Pubblicati da case editrici talvolta serissime. Anche gli autori più affermati, in fondo, fanno del copia-incolla. Non è che io, che scrivo di fisica, ho costruito da solo tutta la conoscenza che rendo pubblica! L’ho imparata sui libri scritti dai miei predecessori. Perciò, quando scrivo di fisica, almeno in parte, non faccio altro che riscrivere ciò che chi mi ha preceduto ha scritto.

Gli editori non controllano affatto la correttezza di quanto si scrive su un libro. Chissà perché la maggior parte delle persone pensa questo. Agli editori importa solo che il libro sia privo di errori tipografici e che sia di relativamente facile lettura. Per questa ragione ingaggiano copy-editor e grafici. Non assumono referee per i contenuti. Per quelli, al massimo, si affidano alla reputazione dell’autore. Il quale può anche essere un premio Nobel, ma non per questo è infallibile. Di scemenze ne dice chiunque (anche il sottoscritto). Dunque non mi stupisce che su un libro di scienze si possano trovare affermazioni non corrette. L’importante è che l’autore le faccia correggere una volta segnalate.

Non si tratta di un caso così infrequente. Un caso molto diffuso è quello secondo il quale gli aerei volano grazie alla portanza generata dal profilo alare che costringerebbe l’aria che passa sopra l’ala a viaggiare più rapidamente di quella che passa al di sotto, provocando così una differenza di pressione che sostiene il velivolo. Quest’affermazione, molto diffusa anche su testi di livello universitario, appare meno sconvolgente di quella sulla gravità del libro incriminato, solo perché l’argomento è molto meno noto. Ma è un’affermazione del tutto sbagliata! Non c’è nessun motivo per cui l’aria che viaggia sopra un’ala dovrebbe sentirsi autorizzata a correre di più rispetto a quella che viaggia sotto!

Sull’innaturalezza della meccanica quantistica

I miei colleghi che insegnano nelle scuole superiori lamentano che sarebbe molto difficile insegnare la fisica moderna ai loro studenti perché i fenomeni previsti da quest’ultima sono del tutto estranei al senso comune. Forse che la fisica classica è intuitiva?

Il testo segnalato in apertura di questo post dimostra che non è affatto così. La gente vede gli astronauti fluttuare senza peso nello spazio. Cosa deve pensare, se non che in quel punto non esista la forza di gravità? Sembrerebbe una spiegazione del tutto naturale. O no?

Il primo e il secondo principio della dinamica ci dicono che un corpo non soggetto a forze si muove di moto rettilineo uniforme. Ma chi l’ha mai visto? Tutti noi abbiamo evidenza del contrario! Un corpo si muove (di moto rettilineo uniforme o di qualunque altro tipo) solo se applichiamo una forza su di esso! Non s’è mai visto un oggetto muoversi a prescindere dall’applicazione di una qualche sollecitazione. Del resto non è un caso che per soppiantare la teoria dell’impetus ci siano voluti quasi due millenni.

E le forze fittizie? Ne vogliamo parlare? Tutte le forze che i fisici dicono che “non esistono” sono forse le uniche delle quali abbiamo esperienza diretta: sono quelle forze che si provano affrontando una curva stando nell’abitacolo di un’auto o sull’autobus quando frena o parte bruscamente; o ancora sulla giostra dei “calcinculo” e che ci permette di sollevarci rispetto alla posizione assunta quando la forza è ferma. Non esistono? Come sarebbe che non esistono?

Il lavoro compiuto da un facchino che spinga una cassa lungo un piano inclinato o che la sollevi alla stessa quota verticalmente è lo stesso. In più, il lavoro fatto dal facchino per tenere la cassa in braccio, ferma, è nullo. Ma davvero?

Ogni insegnante di fisica sa che le gambe (di metallo) e la seduta (di legno) delle sedie occupate dai suoi studenti sono (evidentemente) alla stessa temperatura. Però toccando con le mani la seduta e le gambe si prova una sensazione di caldo nel primo caso e di freddo nel secondo. Come la mettiamo?

Come si vede chiaramente, non è affatto vero che la fisica classica sia più facile di quella moderna perché più intuitiva. Al contrario: la mia opinione è che la fisica classica sia molto meno intuitiva di quella quantistica. Il fatto è che ancora non ci siamo liberati dal fardello di Newton, benché siano ormai trascorsi un centinaio d’anni dalla nascita della fisica quantistica. Del resto, se ancora non ci siamo liberati dal fardello di Aristotele per quel che riguarda la fisica classica come si può pretendere che in un tempo così breve ci si convinca che le cose non stanno esattamente come pensava Newton?

Ma, per favore, non dite che più che la meccanica quantistica non si capisce!

 

 

Un facile esperimento sull’effetto fotoelettrico

Oggi vi presento un facilissimo esperimento per osservare l’effetto fotoelettrico. Bastano pochi componenti elettronici facili da trovare: un LED che emetta luce verde dal corpo trasparente, una resistenza attorno al migliaio di Ohm e un voltmetro. In questo post ho usato, al posto del voltmetro, una scheda Arduino.

L’effetto fotoelettrico consiste nell’emissione di elettroni da parte di un materiale illuminato da luce di frequenza sufficientemente alta. Stando ai risultati ottenuti da Planck, la luce è costituita di un flusso di particelle dette fotoni, ciascuna delle quali possiede un’energia E=hf, dove f è la frequenza della luce misurata in Hertz e h la costante di Planck. Gli elettroni possono essere estratti dal materiale solo se E>V dove V è l’energia di legame degli elettroni nel materiale considerato (tipicamente dell’ordine di qualche eV). Se i fotoni hanno energia sufficiente, l’intensità della corrente prodotta dall’effetto fotoelettrico è proporzionale all’intensità della luce che lo provoca.

Osservando l’interno di un LED attraverso il suo corpo si vede che è formato di due parti: una più massiccia e l’altra più sottile, come si vede nell’immagine qui sotto, tratta da un lavoro di Aaron Hebin (in tedesco).

LED-internals.png

L’anodo va collegato al polo positivo di una pila, mentre il catodo va connesso al polo negativo attraverso una resistenza di almeno 100 Ohm (per limitare la corrente che scorre nel dispositivo). L’elemento più grande serve a sostenere un cristallo di materiale semiconduttore, collegato elettricamente all’altro elemento da un filo sottilissimo e praticamente invisibile.

L’energia di legame degli elettroni presenti nel cristallo di cui è fatto un LED verde è di circa 2.3 eV. Se quindi s’illumina il LED con luce di energia maggiore o uguale a questa (verde o blu), dal LED escono elettroni. Viceversa, illuminando il LED con luce di energia minore (rossa), non si provoca alcuna emissione di elettroni.

Gli elettroni eventualmente generati fluiranno per lo più attraverso il corpo del LED, che è conduttore, e genereranno quindi una corrente.

Se si collega una resistenza da un migliaio di Ohm in serie al LED e si misura la differenza di potenziale ai capi della serie ci aspetteremmo di trovare zero, perché non ci sono generatori in questo circuito. E invece si misura qualche decina di mV. Il motivo è che la luce ambiente è sufficiente a produrre l’effetto fotoelettrico. Il cristallo emette elettroni che s’incanalano nel circuito e provocano una corrente che si rivela attraverso la caduta di potenziale ai capi della resistenza.

Noi abbiamo fatto la misura con il dispositivo sotto illustrato.

IMG_20171118_153601.jpg

Una resistenza R1 da 220 Ohm connette il pin GND di Arduino al catodo di un LED verde. L’anodo dello stesso LED è connesso invece a una resistenza R2 da 1kΩ collegata poi al pin A0 di Arduino. Sotto si vede un particolare dei collegamenti:

LED-photoelectric-effect.png

Arduino è quindi usato come un voltmetro per misurare la differenza di potenziale ai capi della serie R1+LED+R2 con uno sketch semplicissimo:

void setup() {
  Serial.begin(9600);
}

void loop() {
  Serial.println(analogRead(A0));
  delay(250);
}

 

In condizioni ordinarie di luce leggiamo un valore attorno ai 100 mV. Basta coprire il LED con la mano per veder scendere il valore a meno di 80 mV. Il fenomeno è dovuto al fatto che la mano copre la luce ambiente, anche se solo parzialmente, che ha uno spettro continuo la cui frequenza varia da quella del rosso a quella del violetto. Si può vedere facilmente che, aumentando l’intensità della luce o diminuendola (agendo, per esempio, sulle tapparelle) la differenza di potenziale (e quindi l’intensità della corrente che scorre nelle resistenze) aumenta o diminuisce di qualche decina di mV.

Illuminando poi il LED con luce verde o violetta (potete usare lampade colorate oppure opportune App per smartphone oppure, ancora meglio, laser di colore diverso) potrete constatare come la luce rossa non provoca alcun fenomeno, mentre quella verde o azzurra sì. Fate attenzione a illuminare bene il cristallo. Per ottenere l’effetto voluto occorre disporre la sorgente luminosa esattamente sopra la parte curva del LED, in modo che la luce raggiunga il cristallo. Se s’illumina il corpo del LED lateralmente l’esperimento funziona male perché la luce non raggiunge bene il cristallo che dovrebbe produrre l’effetto fotoelettrico.

 

Arte e scienza

Sono stato a Venezia per la Conferenza dell’EPS (European Physical Society) a presentare le mie idee sulla maniera di spiegare il meccanismo di Higgs e la meccanica quantistica, in generale, agli studenti delle scuole superiori. In una pausa, avendo già visitato Venezia in altra occasione, ho pensato di fare un giro in posti non troppo turistici e sono andato a vedere la Scala Contarini del Bovolo: un bell’esempio di architettura tardo gotica.

Casualmente scopro che presso la scala è in corso una mostra di opere di Pablo Echaurren dal titolo “Du champ magnétique“, che evidentemente risuona col mio mestiere di fisico. Ma le coincidenze non finiscono qui. Il titolo allude, oltre che al campo magnetico, al nome di Marcel Duchamp, autore di una celebre opera intitolata Fontana, di cui ne è conservato un esemplare presso la Galleria Nazionale d’Arte Moderna di Roma. L’opera in questione è in realtà un orinatoio, di cui si trovano le tracce in un’opera esposta nella mostra di Echaurren.

IMG_20170709_110906

La cosa è interessante perché le mie lezioni di fisica iniziano con la proiezione in aula dell’immagine della Fontana di Duchamp e la richiesta agli studenti di dire di cosa si tratta. Dopo le prime risposte accompagnate da risate li informo che si tratta di un’opera d’arte che molti di loro hanno giudicato, per dirla con Fantozzi, una cagata pazzesca, ma che io invito ad andare a vedere.

Il fatto è che quella che molti giudicano una cagata (sebbene la funzione originale dell’oggetto illustrato sia un’altra), per alcuni è un’opera d’arte e non c’è modo di mettere d’accordo tutti su una questione di questo genere. L’arte, infatti, non si misura: non esiste uno strumento che misuri l’arte. Esistono invece strumenti che misurano temperature, masse, correnti elettriche, etc.. È per questo motivo che il calore, il peso, i circuiti elettrici sono argomenti trattabili da un fisico, mentre l’arte, la religione, la bellezza, l’amore non lo sono. Per un fisico esiste solo ciò che si può misurare. Intendiamoci: è ovvio che esiste l’amore, la bellezza, le ambizioni, i sogni, etc., ma tutte queste cose non possono essere d’interesse professionale per un fisico.

Oltre all’ossessione per Duchamp che si manifesta nella mostra, ci sono altre opere chiaramente ispirate dalla scienza e in particolare dalla fisica, come quelle qui sotto.

Quelle con le strisce di carta possono sembrare del tutto estranee al tema, ma non se se ne conoscono i titoli che sono “Per prendere le misure” e “La misurazione del caso“. E in effetti uno dei primi problemi che un fisico affronta è quello della misura per la quale deve costruire un campione. Il campione è arbitrario e uno dei primi campioni che usiamo nel mio corso è proprio una striscia di carta, salvo poi rendersi conto che presenta alcuni evidenti problemi per cui bisogna abbandonarlo in favore di campioni più solidi.

 

Una nuova particella

È di ieri la notizia che la collaborazione LHCb al CERN ha scoperto una nuova particella, che è stata battezzata Ξ++cc. La nuova particella ha una massa pari a 3621 MeV (circa 3.6 volte più pesante di un protone).

La particella in questione è prevista dal Modello Standard: si tratta di un barione (cioè di una particella fatta di tre quark) di carica elettrica pari a due volte quella del protone (l’apice ++ indica proprio questo) e con due cariche di charm (che sono quelle indicate nel pedice cc). Questo barione è uno stato legato di un quark up (u) e due quark charm (c).

Sappiamo che i quark sono 6: i quark up (u), charm (c) e top (t) hanno carica elettrica pari a 2/3 quella del protone, mentre i quark down (d), strange (s) e bottom (b) hanno carica elettrica pari a -1/3 quella del protone. I barioni sono combinazioni di tre quark. In linea di principio dunque ci aspettiamo che esistano tante particelle di questo tipo quante sono le possibili combinazioni con ripetizioni di tre quark, cioè 56. La combinazione ucc è una di queste. Il protone, ad esempio, è un barione formato dalla combinazione di due quark u e da un quark d, mentre il neutrone è costituito di due quark d e di un quark u.

In realtà non tutte le combinazioni sono effettivamente osservabili, per vari motivi. Le combinazioni che includono almeno un quark t, ad esempio, non si formano perché questo quark ha una vita media così breve da impedire la formazione di stati legati. Combinazioni come quella osservata a LHCb sono rare perché la probabilità che si formino è molto bassa. Finora, infatti, nessuno era mai riuscito a vedere una simile particella.

Sui giornali si legge che i quark di cui è formata questa particella si comporterebbero come pianeti in orbita attorno a un minuscolo Sole, ma questo non è vero. I quark sono particelle elementari che si comportano secondo quanto previsto dalla meccanica quantistica. Non possiamo immaginarli come palline che ruotano attorno a un punto: la maniera più corretta di immaginare come sia fatta questa particella è di pensare a ogni quark come una specie di bolla di gas, più denso in certi punti e meno denso in altri. Questa bolla può intersecarsi con un’altra bolla che rappresenta un altro quark e così i tre quark si compenetrano l’uno nell’altro occupando lo stesso volume.

L’affermazione è probabilmente dovuta a quanto dichiarato da Guy Wilkinson, ex portavoce della collaborazione, che ha detto “In contrast to other baryons, in which the three quarks perform an elaborate dance around each other, a doubly heavy baryon is expected to act like a planetary system, where the two heavy quarks play the role of heavy stars orbiting one around the other, with the lighter quark orbiting around this binary system”. Ciò che intendeva Wilkinson era che la Ξ++cc è interessante perché, rispetto a un protone o a un neutrone, contiene due quark pesanti c. Di conseguenza può fornire indicazioni ulteriori rispetto a questi sul funzionamento delle forze che tengono insieme il sistema, analogamente a quanto avviene nella gravitazione: lo studio di pianeti leggeri che orbitano attorno a un Sole pesante fornisce informazioni complementari a quelle prodotte dallo studio di un sistema composto da più Soli pesanti che orbitano attorno a un pianeta leggero.

Si legge anche che questa scoperta permetterà di capire meglio il funzionamento delle forze che tengono insieme i nuclei atomici, come affermato dall’attuale portavoce Giovanni Passaleva. L’attuale teoria infatti spiega benissimo l’esistenza di questa particella, ma solo in maniera qualitativa. Nessun fisico è capace di calcolare con buona precisione l’intensità delle forze che si manifestano tra i quark. Lo studio di stati esotici come questo potrebbe consentire di capire meglio il funzionamento di queste interazioni perché nel caso di particelle come queste le interazioni tra i quark sono più deboli rispetto a quelle che si manifestano all’interno di altri barioni più comuni come i protoni o i neutroni. Se l’interazione è più debole è più facile fare i conti e il confronto tra teoria ed esperimento è più immediato.