Il meccanismo di Higgs

Se si ha una conoscenza, anche solo elementare, della fisica, è molto probabile che non si sia soddisfatti delle spiegazioni metaforiche del ruolo del bosone di Higgs nel “dare massa alle altre particelle”. In fondo, non spieghiamo la gravità e l’elettromagnetismo usando metafore. Di solito scriviamo equazioni il cui significato è molto chiaro e preciso, e che permettono di calcolare quantità misurabili.

Image for post

In un suo recente post (in inglese), Ethan Siegel ha giustamente sottolineato che la maggior parte della massa dell’Universo deriva dalle interazioni forti all’interno dei nucleoni (protoni e neutroni). In altre parole, la massa m di un protone è, di fatto, il risultato dell’interazione tra i suoi costituenti la cui energia si somma fino a dare mc².

Nel post si sottolinea come il bosone di Higgs sia responsabile soltanto della massa delle particelle fondamentali (e protone e neutrone non lo sono, essendo composte di quark). In ogni caso, il motivo per cui crediamo che il “bosone di Higgs dia massa alle particelle fondamentali” non è così evidente. In passato ho scritto alcuni articoli scientifici [1][2][3] sull’argomento che cerco di riassumere qui di seguito, per dar loro maggiore visibilità ai non addetti ai lavori (specialmente insegnanti). Nel seguito, si assume che il lettore abbia una certa familiarità con la fisica dei campi elettromagnetici (a livello di scuola superiore).

Si consideri, ad esempio, una particella carica a riposo, in un campo elettrico uniforme E. Tale campo si può trovare, ad esempio, in un condensatore a facce piane e parallele. A distanza h da una delle armature, il potenziale è V=Eh.

L’energia della particella si calcola come U’=qV. Tale quantità si può pensare come a una misura dell’intensità dell’interazione tra la particella e il campo. È proporzionale alla costante di accoppiamento q tra la particella e il campo E, ed è una funzione (scalare) delle coordinate (V=Eh). Come regola generale, un’energia potenziale è sempre scritta come U’=cP, c essendo una costante di accoppiamento e P una funzione scalare dei campi e delle coordinate (il potenziale).

L’energia immagazzinata all’interno del volume Sd del condensatore, dove S è l’area delle armature e d la loro distanza, è trasportata dal campo elettrico e vale u=½εE²Sd. Osserviamo che, in generale, l’energia trasportata da un campo è proporzionale alla sua intensità al quadrato (ad esempio, la densità di energia magnetica immagazzinata in un solenoide è w=B²/2μ). In altre parole, l’energia di un campo è sempre nella forma u=𝛾F² , dove F è il campo, e 𝛾 è proporzionale al volume in cui il campo è contenuto e a una costante di autoaccoppiamento (rispettivamente ε o 1/μ, per i campi E e B). Quest’energia si può pensare come a una misura dell’intensità dell’auto-interazione dei campi.

Così, l’energia totale nella regione all’interno del condensatore, diventa U=U’+u=qV+½εE²Sd.

Secondo la relatività ristretta di Einstein, dovremmo includere nell’energia quella a riposo della particella carica, la cui massa è m, in modo che U diventi U=qV+½εE²Sd+mc². Da dove viene quest’ultimo termine? Non è nella forma cP, né nella forma 𝛾F²!

Eliminiamo allora questo termine e supponiamo, invece, che esista un altro campo W’, il cui potenziale è H’, con cui la particella interagisce con una costante di accoppiamento g. Dovremmo perciò scrivere l’energia totale come U=cP+½εE²Sd+gH’+½⍺W’²Sd (Il fattore ½ in quest’ultimo termine è stato introdotto per rendere evidente la somiglianza tra i termini).

Supponiamo anche che, a differenza di E o B, il campo W’ pervada l’intero universo, in modo tale che il suo valore minimo possibile non sia zero, ma W₀, in modo tale che W’=W₀+W. Corrispondentemente H’=H₀+H. Il campo extra aggiunge dunque un’energia al sistema pari a

Image for post

Svolgendo le parentesi troviamo

Image for post

Il primo termine della somma è una costante che dipende dall’accoppiamento tra la particella e il campo H₀. L’accoppiamento sarà diverso da particella a particella. Se mc²=gH₀, l’origine dell’energia a riposo è chiara: è una misura dell’intensità dell’interazione di una particella (supposta senza massa) con il campo di Higgs minimo H₀, presente in ogni punto dell’Universo.

È interessante notare che tutti gli altri termini si possono interpretare in modo tale che, di fatto, rappresentino il comportamento previsto per un campo di Higgs nel modello standard: c’è, tra essi, un’interazione tra i bosoni di Higgs e le particelle di materia, un termine di massa per il campo (la massa del bosone di Higgs) e un autoaccoppiamento del campo di Higgs. Se volete saperne di più, potete leggere uno degli articoli della bibliografia riportata sotto.

Il modello chiarisce anche come le interazioni forti all’interno di un nucleone diano origine a un termine di massa. Il meccanismo è lo stesso: il campo forte (rappresentato, in meccanica quantistica, dai gluoni) interagisce con i quark in un volume molto piccolo, tanto che l’energia d’interazione è βG’=β (G₀+G). Il termine “costante” (tra virgolette perché dipende dalle particelle che interagiscono), βG₀, ci appare come mc², con m pari alla massa del nucleone (un protone o un neutrone).


BIBLIOGRAFIA
¹ G. Organtini, ”Unveiling the Higgs mechanism to students”, Eur. J. Phys. 33 (2012) 1397–1406 (arXiv:1207.2146v2)
² G. Organtini, “An introduction to the Higgs mechanism based on classical physics secondary school curriculum”, PoS EPS-HEP2017 (2017) 563.
³ G. Organtini, “The Higgs mechanism for undergraduate students”, Nuclear and Particle Physics Proceedings 273–275:2572–2574

La distribuzione di Fermi-Dirac

Enrico Fermi divenne famoso, nella comunità dei fisici del tempo, per aver pubblicato, nel 1926, un articolo nel quale calcolava la distribuzione in energia delle particelle identiche con spin semintero. Nello stesso anno, ma poco più tardi, anche Paul Dirac arrivò indipendentemente allo stesso risultato e per questo la distribuzione si chiama oggi di Fermi-Dirac.

Gli elettroni, i neutroni e i protoni di cui è fatta la materia che conosciamo, sono particelle con spin semintero, cioè particelle con un momento angolare intrinseco pari alla metà di un numero intero (nella fattispecie pari a 1/2).

Il momento angolare intrinseco (o spin) è spesso descritto, in analogia col momento angolare classico, come una misura della velocità di rotazione di una particella attorno al proprio asse. Ma questa immagine è completamente fuorviante. Non esiste un analogo classico dello spin. Le particelle sono puntiformi e di certo non ruotano attorno ad alcun asse. Molto meglio pensare a questa grandezza come a qualcosa che è possibile misurare per queste particelle, in modo che si possano etichettare con il valore +1/2 o -1/2, che ne determina, insieme ad altre grandezze, lo stato. Le particelle di questo tipo sono collettivamente chiamate “fermioni” e si comportano in modo da rispettare il Principio di Pauli: due fermioni non possono stare nello stesso stato.

Classicamente, lo stato è la condizione nella quale si trova il sistema in esame. Per esempio: lo stato cinematico di una pallina è noto quando ne conosciamo posizione e velocità. Conoscere lo stato di qualcosa permette di prevederne l’evoluzione se si conoscono le interazioni cui va incontro. Sapere posizione e velocità di una pallina ci permette di prevederne posizione e velocità in ogni istante, se conosciamo le forze che agiscono su di essa.

Quantisticamente, lo stato di un elettrone non può essere determinato dalle stesse quantità, perché in meccanica quantistica posizione e velocità sono due grandezze prive di senso. Energia e momento angolare, invece, sono grandezze che caratterizzano perfettamente il modo di essere di un elettrone in un atomo e sono dunque buone variabili di stato. La loro conoscenza ci permette di prevedere il loro stato futuro in seguito a un’interazione.

Anche se in linea di principio la meccanica classica non lo proibisce, è un fatto evidente a tutti che due palline non possono stare nello stesso stato. Se in una posizione c’è una pallina, l’altra può stare in una posizione molto simile, ma non sarà nello stesso identico stato. Allo stesso modo, due elettroni in un atomo non possono condividere lo stesso stato. Per la meccanica quantistica possono occupare il medesimo volume, ma non possono avere la stessa energia.

L’articolo di Fermi permette di prevedere come si distribuisce l’energia degli elettroni in un atomo o in sistemi più complessi come i cristalli. Per capire come funziona immaginiamo di prendere il nucleo di un atomo e di avvicinare un elettrone alla volta a questo nucleo. Il primo elettrone si dispone in modo da minimizzare la sua energia. Un secondo elettrone, per il Principio di Pauli, non può assumere la stessa energia. Di conseguenza si dispone in modo da avere un’energia leggermente più grande. Lo stesso fa il terzo elettrone, la cui energia sarà maggiore di quella del secondo, e così via.

È un po’ quel che succede quando si inserisce una serie di biglie in un vaso lungo e stretto, il cui diametro è appena sufficiente per contenere una pallina. La prima pallina a esservi introdotta assume la minima energia possibile piazzandosi sul fondo del vaso. La seconda, non potendo questa assumere lo stesso stato, si dispone sopra la prima, a una posizione corrispondente a un’altezza maggiore. Una terza pallina si dispone sopra la seconda, e così via.

Se si fa un grafico della probabilità di trovare una pallina a una certa quota si trova quella che si chiama una distribuzione uniforme: la probabilità è la stessa per tutte le palline fino alla quota dell’ultima pallina, dopo di che è nulla.

Un tubo di palline da tennis parzialmente riempito rappresenta un sistema in cui ogni pallina si trova in un diverso stato. La probabilità P(h) di trovare una pallina alla quota h è costante per hhM e zero per h maggiori.

Allo stesso modo la probabilità di trovare un elettrone in uno stato di energia E in un atomo o in un cristallo è costante per le energie minori o uguali a quella assunta dall’elettrone di energia massima e nulla per energie maggiori. La distribuzione di energia appare così: a temperatura T0 nulla, la distribuzione ha forma rettangolare, come quella delle palline sopra.

5 Fermi-Dirac distribution function at different temperatures: T3>... |  Download Scientific Diagram

Al crescere della temperatura però la distribuzione cambia forma e diventa più dolce e smussata in prossimità dell’energia EF detta Energia di Fermi. Questo significa che la probabilità di trovare un elettrone in uno stato di energia molto basso continua a essere pari a 1 o quasi. Man mano che l’energia cresce, la probabilità di trovare un elettrone nel cristallo con quell’energia diminuisce, ma aumenta la probabilità di trovare elettroni con energia maggiore di quella di Fermi. Più è alta la temperatura e maggiore è questa probabilità.

Immaginate ora di prendere il tubo delle palline da tennis che abbiamo visto sopra e di scuoterlo. In sostanza non state facendo altro che fornire energia dall’esterno, che è la stessa cosa che fate quando scaldate un materiale e lo portate a una temperatura maggiore.

Le palline più in alto cominceranno a saltare raggiungendo quote più alte. Lo faranno anche quelle immediatamente sotto, ma queste non potranno saltare oltre quelle che stanno sopra di esse. Quelle più in fondo, invece, non riusciranno proprio a muoversi, a meno che non forniate talmente tanta energia al tubo (lo portiate a una temperatura estremamente alta) da farle saltare tutte.

La distribuzione di probabilità di trovare le palline a certe quote sarà del tutto simile a quella di Fermi.

Conoscere la distribuzione di Fermi è fondamentale nella scienza dei materiali. È grazie alla sua conoscenza che possiamo sapere come funzionano (e di conseguenza, progettare) diodi e transistor, senza i quali l’elettronica come la conosciamo oggi non esisterebbe.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 5: il collasso della funzione d’onda

La funzione d’onda fu introdotta nei primi anni dello sviluppo della meccanica quantistica come soluzione dell’equazione di Schrödinger. I fisici hanno faticato un po’ a trovarne il significato, ma alla fine hanno accettato di interpretarla come l’ampiezza di probabilità di trovare una particella a una data coordinata.

I problemi sorgono quando la funzione d’onda collassa: secondo la meccanica quantistica, un sistema può essere in una sovrapposizione di stati, cioè la sua funzione d’onda può essere la somma di più di uno stato fisicamente osservabile. Si scopre che, ogni volta che misuriamo lo stato di un tale sistema, solo uno degli stati della sovrapposizione si manifesta, mentre l’altro scompare. Tale processo si chiama “collasso della funzione d’onda” e dà luogo a problemi di interpretazione non banali (uno dei grattacapi cui ha dato origine è il cosiddetto entanglement quantistico).


In breve, possiamo descrivere il collasso di una funzione d’onda nel modo seguente: si consideri un elettrone in un atomo. Come abbiamo visto nei post precedenti, non ha senso parlare della posizione dell’elettrone nella meccanica quantistica a certe scale, quindi l’elettrone dev’essere descritto come una sorta di nuvola distribuita intorno al nucleo. La maggior parte delle persone è tentata d’interpretare questa nuvola come una nuvola di probabilità, seguendo l’interpretazione originale della funzione d’onda: in sostanza, le persone credono che l’elettrone sia in realtà puntiforme e che SIA in qualche luogo, anche se noi non lo sappiamo ed è la nostra ignoranza a riflettersi nella descrizione di cui sopra. In realtà, quest’interpretazione è sbagliata: un elettrone È in realtà un oggetto distribuito. Se così non fosse, non potremmo spiegare fenomeni come la diffrazione degli elettroni.

Anche quando le persone accettano questo modo di pensare (cioè che un elettrone è un oggetto distribuito), tendono a visualizzare tale oggetto come immaginano una normale nuvola nel cielo: più forse come a una sorta di atmosfera (enormemente estesa) attorno a un pianeta oppure a un oceano che copre il 100% della sua superficie (in questo caso dovremmo immaginare un pianeta davvero minuscolo sommerso da un enorme oceano la cui profondità è centinaia di volte il raggio del pianeta).

Benché questo sia certamente un modo più corretto d’immaginare un elettrone attorno al nucleo, anche in questo caso rischiamo d’immaginarlo nel modo sbagliato. Sappiamo tutti che una nuvola è composta da minuscole gocce d’acqua sospese nell’aria, mentre un oceano è certamente composto da molecole d’acqua, ognuna con la sua individualità. In altre parole, questi oggetti sono discreti e composti di parti.

Gli elettroni no, non sono fatti di parti: l’elettrone È la nuvola; NON è composto da pezzi più piccoli risolvibili come le gocce che formano una nuvola.

Quando cerchiamo di localizzare una particella descritta da una funzione d’onda, accade che di fatto si manifesta in un punto nello spazio, anche se la sua funzione d’onda è distribuita su un ampio intervallo di coordinate. È il caso della diffrazione degli elettroni in un esperimento di doppia fenditura. La funzione d’onda degli elettroni è più ampia della distanza tra le fenditure e interferisce con sé stessa nell’attraversarle. Chiaramente l’elettrone (singolo) passa attraverso entrambe le fenditure allo stesso tempo. D’altra parte, se cerchiamo di rivelare l’elettrone che passa attraverso una sola delle due fenditure (cioè lo costringiamo a interagire con qualcos’altro), possiamo osservare soltanto un elettrone che passa attraverso una sola di esse e non si forma più la figura di diffrazione. Prima d’interagire con lo strumento l’elettrone si trova in una sovrapposizione di stati │e〉=a│D〉+b│S〉, dove │D〉 rappresenta un elettrone che passa attraverso la fessura destra e │S〉 un elettrone che passa attraverso quella sinistra. a e b sono costanti tali che a²+b²=1. Quando il sistema interagisce con un rivelatore posto sulla fessura destra, solo │D〉 sopravvive e la funzione d’onda collassa in un processo che istantaneamente trasforma│e〉 in │D〉.

Un tale processo è visto con sospetto dalla maggior parte delle persone e considerato (probabilmente giustamente) difficile da capire. È interessante osservare che, tuttavia, un decadimento beta, in cui un neutrone scompare istantaneamente per far posto a un protone, un elettrone e un neutrino creati dal vuoto, non turba le menti nello stesso modo. In realtà, entrambi i processi sono piuttosto simili tra loro: qualcosa scompare mentre qualcos’altro appare come risultato di un’interazione. Possiamo pensare al collasso della funzione d’onda come a un processo in cui il campo di elettroni viene distrutto dall’interazione con lo schermo con le fenditure mentre, sul lato opposto, un nuovo campo di elettroni è creato e irradiato da entrambe le fessure o solo dalla fessura destra.

Il collasso ci sembra strano perché la nostra mente tende a interpretare la funzione d’onda proprio come una nuvola: composta di parti. Perché il collasso avvenga, in questo modello, le parti di cui è fatta la nuvola devono correre verso la giusta fenditura e concentrarsi in un punto ricostituendo la natura puntiforme dell’elettrone che ci piace tanto. Evidentemente una tale “corsa” richiede un certo tempo per accadere e questo è in contrasto con le osservazioni secondo le quali il collasso è istantaneo.

Proviamo però a metterci nei panni di qualcuno che non ha mai studiato fisica o che sia vissuto prima che Fizeau misurasse la velocità della luce e immaginiamo di trovarci in una grande stanza senza finestre. Se accendiamo la luce vediamo che la stanza si riempie istantaneamente di luce. Oggi sappiamo che non è così, ma non ci sorprenderebbe più di tanto sapere che la luce appare istantaneamente in ogni punto della stanza nello stesso momento se la sua velocità fosse infinita come si credeva fino a qualche secolo fa. In fondo, un tale modello, sembra persino più ragionevole rispetto a quel che ci racconta la relatività speciale. Immaginando che la luce appaia immediatamente e contemporaneamente in tutti i punti di una stanza, dovremmo provare a pensare a un elettrone come a qualcosa distribuito su un volume che appare istantaneamente in tutti i punti dello spazio nel momento nella sua creazione (produzione). Allo stesso modo, quando si distrugge, un elettrone scompare istantaneamente da ogni parte. Se ci si pensa un po’ ci si può facilmente convincere che non è poi così strano. Il processo è simile a quel che ci s’immaginava facesse la luce quando si era bambini, prima di sapere come si propaga.

Personalmente considero ormai obsoleto il concetto di funzione d’onda e il suo collasso. Preferisco pensare in termini di campi, che non sono né particelle, né onde, ma qualcosa che si estende su volumi (potenzialmente anche molto grandi) e che può manifestarsi istantaneamente e allo stesso tempo (come, d’altra parte, i campi classici erano stati immaginati prima di Maxwell)¹. Così come si possono creare istantaneamente in un grande volume, i campi si possono anche distruggere. L’interazione con qualcosa consiste nella distruzione del campo incidente e nella creazione di un nuovo campo. Il campo emergente può essere distribuito come una figura di diffrazione o concentrato vicino a una delle fenditure, secondo l’interazione, così come, nella fisica classica, la traiettoria di un corpo che cade dipende dalle circostanze: per esempio, se l’oggetto è posto su un piano inclinato scivola seguendo una traiettoria obliqua; se no cade verticalmente.

La MQ non è deterministica: i risultati di un esperimento sono casuali e seguono una distribuzione. Le leggi della fisica possono solo prevedere la forma di queste distribuzioni, non quale dei possibili eventi si realizzerà. Anche questo non è poi così diverso da quanto avviene nella meccanica classica. Se si lancia un dado, con la meccanica classica non sappiamo prevedere esattamente che punteggio si otterrà (in linea di principio si può, ma in pratica è impossibile). L’unica differenza rispetto alla meccanica classica è che nella MQ la previsione del punteggio è impossibile anche solo in linea di principio: questa cosa, a mio modesto avviso, è persino più rassicurante rispetto a quanto previsto dalla meccanica classica. Se questa fosse vera, il destino di tutto l’Universo, comprese le nostre storie, sarebbe già scritto dall’inizio dei tempi.


¹ Va detto che la propagazione del campo avviene secondo quanto previsto dalla relatività e la relatività della simultaneità non è violata da questo.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 4: la fisica quantistica dei campi

La dualità onda-corpuscolo è, a mio parere, il concetto più sbagliato introdotto con la meccanica quantistica, nonostante sia molto diffuso. È del tutto normale che nella scienza si formulino concetti che, alla fine, si rivelano fallaci. È però sbagliato continuare ad usarli inutilmente. La dualità fu introdotta all’inizio dello sviluppo della MQ per spiegare fenomeni nuovi utilizzando categorie del secolo precedente. Oggi la nostra visione del mondo è cambiata e non c’è bisogno di insistere nel proporre spiegazioni vecchio stile. D’altra parte, nessuno di noi oggi insiste nel cercare di spiegare la relatività supponendo l’esistenza di un etere.

In questo post cerchiamo di descrivere al meglio la natura di un elettrone.


Nell’articolo precedente abbiamo mostrato che un fascio di elettroni si può naturalmente interpretare come composto di un’onda che si propaga nello spazio e nel tempo. L’onda deve avere una certa carica elettrica, essendo soggetta alla forza di Lorentz. Tuttavia, qual è la natura di una tale onda? E cosa significa per un’onda essere caricata elettricamente?

Secondo la teoria ormai consolidata, la luce si propaga come un’onda elettromagnetica, quest’ultima essendo una successione di campi elettrici e magnetici, come descritto dalle equazioni di Maxwell. Vale la pena ricordare che, prima delle opere di Maxwell e di Einstein, i fisici sapevano già che la luce era un’onda, ma poiché erano abituati a vedere le onde propagarsi nei mezzi, supponevano (erroneamente) che dovesse esistere un mezzo attraverso il quale la luce dovesse essere in grado di propagarsi. Solo in seguito fu chiaro che la luce poteva propagarsi nel vuoto perché il campo elettromagnetico si propaga nel vuoto; e solo con la relatività speciale di Einstein fu chiaro che non era necessario alcun mezzo per rendere conto della sua propagazione a velocità costante. Le onde, quindi, hanno perso la loro natura “classica” di perturbazioni che si propagano nei mezzi: le onde possono essere “composte di” campi (e non propagarsi attraverso essi). Il campo e.m. è neutro perché la sua propagazione non è influenzata dalla presenza di altri campi e.m. (i campi possono interferire, ma il modo di propagarsi di un campo è indipendente dagli altri).

Come nel caso della definizione dello stato, è abbastanza difficile trovare una definizione di campo nei libri di fisica. Molti di essi non lo definiscono affatto: si limitano a fornire un elenco (spesso incompleto) delle sue caratteristiche. Il concetto di campo è solitamente introdotto nell’elettrostatica e si dice che è generato dalle cariche ed è definito come la forza per unità di carica esercitata dalla sua sorgente. Una tale definizione, si converrà, non implica alcun “contenuto” fisico per quest’entità: non implica affatto che il campo esista indipendentemente dalla forza di Coulomb. Si tratta solo di una definizione matematica (neanche operativa, perché non è così che si misura il campo).

Comunque la fisica non è matematica, e una definizione precisa, formale, delle grandezze fisiche è sì spesso difficile, ma, del resto, anche inutile in molti casi. Ciò che è importante, per definire una grandezza fisica, è poterla misurare e identificarne le proprietà. Analizziamo quindi una teoria di campo.

  1. Una teoria di campo (come l’elettromagnetismo) è una formulazione matematica della dinamica dei campi. Dato lo stato di un campo al tempo t=0, la teoria ce lo fornisce in qualsiasi altro istante t≠0. Il campo elettrico in un’onda e.m., per esempio, è descritto da E(t,x)=Acos(⍵t+kx+φ).
  2. Dato lo stato delle sorgenti, la teoria permette il calcolo del campo da esse generato. Ad esempio, la teoria di Maxwell permette di calcolare il campo magnetico prodotto da una corrente e il campo elettrico prodotto da un piano uniformemente carico.

Elenchiamo ora le proprietà rilevanti di un campo (quelle che le rendono diverse dalle particelle).

  1. I campi si propagano nello spazio e nel tempo.
  2. I campi sono generati dalle sorgenti. Non esistono né prima né all’interno di essi.
  3. A differenza della “materia” i campi possono si possono creare o distruggere.

Secondo le equazioni di Maxwell, le onde elettromagnetiche sono una successione di campi elettrici e magnetici: una corrente variabile che scorre in un conduttore genera un campo magnetico variabile che a sua volta genera un campo elettrico variabile che genera un campo magnetico e così via, come mostrato di seguito.

Un’onda e.m. è una successione di campi elettrici e magnetici che si propagano

A un certo punto si scopre che la luce può dare origine a fenomeni che si possono spiegare solo ammettendo che sia composta da particelle chiamate fotoni: l’effetto fotoelettrico, l’effetto Compton e la radiazione di un corpo nero si spiegano solo attribuendo una natura corpuscolare alla luce. Chiaramente i due modelli (quello corpuscolare e quello ondulatorio) sono incompatibili.

D’altra parte, un’onda e.m. emessa da un’antenna (un filo in cui scorre una corrente alternata) si può interpretare come un flusso di fotoni irradiati dalla corrente in tutte le direzioni perpendicolari al filo. Mettendo un rivelatore vicino all’antenna possiamo misurare un campo elettrico o magnetico. Tuttavia, se la frequenza dell’onda e.m. è sufficientemente grande, possiamo osservare l’effetto fotoelettrico, che interpretiamo come la collisione di un fotone con un elettrone atomico. I fotoni, come i campi e.m., sono dunque prodotti anch’essi dalla corrente. È utile osservare che le proprietà dei campi e di una teoria di campo, che abbiamo elencato sopra, valgono anche per i fotoni: basta sostituire la parola “fotone” con “campo”. Di conseguenza, un fotone È un campo, qualunque cosa questo significhi (rimandiamo la discussione su cosa questo significhi esattamente a un post successivo: la vita è dura).

Qualunque cosa significhi, quest’osservazione ci fa capire che la luce non è né una particella un’onda: è qualcos’altro che chiameremo campo. Continuare a parlare della dualità onda-corpuscolo è completamente fuorviante¹.

Consideriamo ora i decadimenti beta che consistono nella trasformazione (decadimento) di un neutrone in un protone, con l’emissione di un elettrone e di un neutrino. Il processo è ben descritto dalla teoria delle interazioni deboli. Si noti che neutroni e protoni si distinguono per la loro carica elettrica, alla quale l’interazione debole è cieca. Per essa, quindi, protoni e neutroni sono la stessa particella. Possiamo descrivere il processo come segue:

Il decadimento beta è un processo che consiste nell’emissione di un campo di elettroni e uno di neutrino da parte di una “corrente debole”.

La transizione tra un neutrone e un protone è un cambiamento di stato, come la transizione da i(0) a i(t) di una corrente è un cambiamento di stato della corrente. Il cambiamento di stato dev’essere accompagnato (per la conservazione dell’energia) dall’emissione di uno o più campi. Nell’immagine le linee rosse rappresentano un “campo di elettroni“, mentre quelle blu un “campo di neutrini“. Questi campi non sono campi vettoriali come i campi e.m. e, contrariamente a questi ultimi, non generano altri campi, per cui quando un campo di elettroni si propaga da x(0) a x(t) si trova in x(t) ma non in x(0).

Vediamo se le caratteristiche dei campi e le teorie di campo sopra elencate si applicano ai campi di elettroni e di neutrini. Li chiameremo collettivamente “campi fermionici”.

  1. La teoria quantistica dei campi è costituita di equazioni che permettono di prevedere lo stato di un campo fermionico, noto il suo stato a t=0. In particolare, l’equazione di Dirac descrive la propagazione di un campo libero, in modo simile a quanto fanno le equazioni di Maxwell per i campi e.m.
  2. La sorgente del campo fermionico è, nella teoria di cui sopra, la “corrente debole“. Lo stato dei campi fermionici si può prevedere dalla teoria, se conosciamo lo stato iniziale del neutrone e lo stato finale del protone, proprio come la teoria e.m. dà lo stato dei campi, conoscendo lo stato delle sorgenti in tempi diversi. Si noti che prevedere lo stato di un campo non significa prevedere dove si può trovare una particella, giacché in meccanica quantistica questo non ha senso (vedi episodio 1). Significa essere in grado di prevedere la distribuzione dell’energia dei campi fermionici.

Inoltre, i campi hanno le seguenti proprietà.

  1. I campi fermionici si propagano, chiaramente, nello spazio e nel tempo.
  2. Sono generati da una sorgente: in questo caso la sorgente è la corrente debole. È impossibile creare i campi dal vuoto: abbiamo bisogno di una sorgente. Così com’è impossibile creare un campo e.m. dal vuoto, senza una sorgente (una carica elettrica, sia essa a riposo o in movimento).
  3. I campi fermionici si creano e si distruggono: non preesistono nei nuclei radioattivi (come si pensava all’inizio del XX secolo). La creazione di un campo è un processo che rispetta tutti i principi di conservazione. Così come possono essere creati i campi possono essere distrutti (di nuovo, purché le quantità conservate siano conservate). In modo del tutto simile a quanto accade ai fotoni che possono essere creati da un’antenna e distrutti dall’effetto fotoelettrico.

Ma allora, cos’è un elettrone? Semplice: è un campo (carico, con massa). E un neutrino? Un campo (neutro). E un fotone? Un campo (neutro, senza massa). Perché dovremmo insistere a raffigurarceli come onde o particelle? Benintesi, possiamo farlo nella misura in cui trattiamo la luce con l’ottica geometrica o quella fisica: la scelta dipende dal problema da risolvere. A volte l’ottica geometrica è più semplice e vale la pena trattare la luce come un fascio di raggi, a volte non funziona e si usa la meccanica delle onde. È una mera decisione opportunistica.

Nella moderna meccanica quantistica tutto è un campo: i campi fermionici hanno spin semi-intero (lo spin è un numero quantico che si comporta come un momento angolare intrinseco); i campi bosonici, come i fotoni, hanno spin intero. Fotoni, elettroni e neutrini non sono né particelle, né onde: sono campi. Condividono tutti lo stesso comportamento attribuito a ciò che chiamiamo campo, quindi sono la stessa cosa.

L’interpretazione illustrata sopra può sembrare strana, soprattutto per le persone che sono state esposte a un formale corso di teorie quantistiche dei campi (QFT: Quantum Field Theory). Il modo in cui la QFT è insegnata oggi è molto diverso ed è divertente osservare come una reazione molto frequente da parte degli esperti è “bella la tua teoria, ma mi pare un po’ fantasiosa…non è proprio così che funziona…”, spesso accompagnata da un sorriso di leggero scherno. In realtà, il sorriso si spegne subito quando s’informa l’interlocutore che l’autore di una simile interpretazione non è il sottoscritto, bensì Enrico Fermi che nel suo articolo “Tentativo di una teoria dell’emissione dei raggi beta“² prende le mosse proprio dall’analogia l’emissione di onde e.m. da parte di una corrente e l’emissione di elettroni e neutrini da parte di quella che lui stesso battezza come una corrente debole. Oggi la definizione di corrente debole è effettivamente un po’ diversa e la maggior parte dei giovani fisici non sa nemmeno perché le chiamano “correnti”.


¹ A questo proposito suggerisco di leggere la trascrizione di una famosa lezione di Feynman (spesso usata impropriamente per impressionare la gente con la storia che è impossibile capire la MQ: in realtà, Feynman stava affermando proprio il contrario) in cui diceva “Se dico che [elettroni e fotoni] si comportano come particelle do l’impressione sbagliata; anche se dico che si comportano come onde. Si comportano in un modo tutto loro, che tecnicamente si potrebbe definire quantistico” (grazie a Peppe Liberti per aver fornito il link).

² LA RICERCA SCIENTIFICA, anno IV, vol. II, N. 12, 31 dicembre 1933

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 3: la natura dei fasci di elettroni

Probabilmente il concetto più difficile della meccanica quantistica è la dualità onda-particella. Secondo la maggior parte dei libri di testo, la luce ha una duplice natura: è (si comporta come) una particella in determinate circostanze e (come) un’onda in altre condizioni. Allo stesso modo, gli elettroni sono particelle e onde allo stesso tempo. A nostro parere questa interpretazione è sbagliata ed è solo una conseguenza del modo di pensare dei fisici del passato.

In questo post cerchiamo di fornire una risposta alla domanda: di cosa è fatto un fascio di elettroni?


La maggior parte dei libri di testo riporta che gli elettroni sono minuscole particelle che orbitano intorno a un nucleo a carica positiva, il cui movimento nei conduttori è responsabile della corrente elettrica. Questo quadro è abbastanza facile da accettare e la maggior parte dei lettori non si chiede come facciamo a saperlo. Qualche scienziato ha forse osservato minuscole palline che si muovono nei conduttori quando ai loro capi è applicata una tensione? La risposta è “NO”. Tale descrizione deriva dall’interpretazione di una serie di esperimenti durante i quali nessuno ha osservato un elettrone puntiforme, se non altro perché sarebbe stato impossibile osservarlo, essendo il suo raggio più piccolo della lunghezza d’onda della luce con cui avremmo dovuto illuminarlo per vederlo¹.

Per capire cos’è un elettrone, facciamo un esperimento: puntiamo un puntatore laser su un muro e premiamo il pulsante. Quello che vedrete è solo un punto luminoso sulla parete. Se volete vedere il raggio di luce dovete soffiare un po’ di fumo lungo il suo percorso. In questo caso si può vedere chiaramente un raggio luminoso rettilineo che lascia il puntatore laser e colpisce la parete.

La luce del fascio si vede solo con il fumo, perché la luce laser va dritta verso il muro e non può raggiungere l’occhio: per questo non si vede. Quando si soffia il fumo nella regione attraversata dalla luce, una parte di essa interagisce con le particelle di fumo e ne è deviata, in parte, verso gli occhi. La luce che vedete non è quella rivolta verso il muro: è la luce che è stata deviata dalla sua traiettoria interagendo con il fumo.

Se ci pensate un attimo, anche quando si guardano studenti e studentesse in una classe, non li si vede: si vede la luce dell’ambiente diffusa dalla loro superficie che raggiunge i nostri occhi. Se non ne siete convinti, basta spegnere la luce e chiudere le tapparelle, in modo che l’aula sia al buio. Riuscite ancora a vedere qualcuno? No, credo di no. Tuttavia, direste che gli studenti non sono lì solo perché non li vedete?

Lezione n. 1: quando vediamo qualcosa, non facciamo altro che un esperimento di diffusione usando la luce come proiettile; la luce è deviata dagli oggetti verso i nostri occhi e il nostro cervello costruisce un’immagine a partire dalla distribuzione della luce che colpisce la rètina. L’immagine, in fondo, non è che una mappa della posizione degli ostacoli.

Ripetendo l’esperimento mettendo un reticolo di diffrazione lungo il fascio di luce mostra la natura ondulatoria della luce: a valle del reticolo appare una figura d’interferenza. L’esperimento della doppia fenditura di Young è di solito considerato la dimostrazione della natura ondulatoria della luce.

Ripetiamo ora l’esperimento usando un fascio di elettroni invece di un fascio di luce. Un fascio di elettroni si ottiene riscaldando un filo all’interno di un condensatore ad alta tensione. L’alta tensione accelera le particelle elettricamente cariche, come nei tubi a raggi catodici, il cui schema è rappresentato qui di seguito.

Guardando all’interno del tubo non si vede nulla, come nel caso del raggio laser puntato sulla parete. Tuttavia, quando il raggio colpisce lo schermo fluorescente, la sua interazione con esso produce uno spot luminoso verde chiaramente visibile. Stiamo vedendo gli elettroni? Sì! Se vediamo gli studenti in un’aula osservando la luce proveniente da loro, allora vediamo gli elettroni osservando la luce proveniente dal punto in cui si trovano. Come possiamo dire che quello che stiamo guardando sono elettroni e non luce? La risposta è semplice: il raggio si può deviare con un campo magnetico. Variando l’intensità e la direzione del campo, il punto luminoso sullo schermo fluorescente si muove per effetto della forza di Lorentz. Quindi, il fascio dev’essere elettricamente carico. Questo esperimento ci dice che il fascio è fatto di particelle? Niente affatto!

Lezione n. 2: un fascio di elettroni assomiglia in tutto e per tutto a un fascio di luce. L’unica differenza è che il fascio di elettroni è elettricamente carico, perché è deviato da un campo magnetico.

Possiamo quindi eseguire un esperimento simile a quello fatto con la luce e il fumo. Riempiendo il tubo con un po’ di gas possiamo infatti vedere il fascio. Ciò che possiamo vedere, in effetti, è la luce diffusa dagli atomi del gas colpiti dal fascio di elettroni. Qui di seguito mostriamo l’immagine di un tubo catodico riempito di azoto posto in un campo magnetico uniforme.

Infine, possiamo mettere un reticolo di diffrazione lungo il percorso del fascio. In questo caso dobbiamo utilizzare un reticolo con una spaziatura tra le fenditure estremamente bassa ottenibile utilizzando, ad esempio, un cristallo di grafite. Il punto luminoso al centro dello schermo fluorescente diventa una figura di diffrazione come la seguente:

La distanza tra le frange cambia con l’energia del fascio. Dobbiamo quindi concludere che il fascio di elettroni è costituito di onde emesse dal catodo, che viaggiano all’interno del tubo. Se lo facciamo con la luce perché non con un fascio di elettroni? Le onde, in questo caso, sono elettricamente cariche (il che significa che le onde non viaggiano necessariamente lungo linee rette) e interagiscono con alcuni materiali causando l’emissione di luce.

Lezione n. 3: un fascio di elettroni si propaga come un’onda, dando origine a fenomeni di diffrazione.

D’altra parte, i microscopi elettronici utilizzano fasci di elettroni così come i microscopi ottici utilizzano la luce, e possiamo focalizzare un fascio di elettroni utilizzando le cosiddette lenti elettrostatiche, così come possiamo focalizzare un fascio di luce utilizzando una lente convergente.

L’elettromagnetismo c’insegna che la luce è fatta di campi elettromagnetici che si propagano come un’onda. Quindi, la conclusione più naturale degli esperimenti sopra citati è che un fascio di elettroni è costituito di un campo carico che si propaga come un’onda.


Questo post serve per convincervi che gli elettroni si possono considerare naturalmente come onde, senza scomodare la meccanica quantistica. Il prossimo post sarà dedicato a chiarire cosa s’intende per “campo carico” e a discuterne la natura particellare.


1J. Perrin avrebbe detto: “gli elettroni non si possono vedere, ma si possono contare: perciò esistono”. Al fine di superare la diffidenza nei confronti della meccanica quantistica, suggerisco anche la lettura della sua Nobel Lecture, per capire come pensavano i fisici all’inizio del 1900.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 2: forze e interazioni


Questo è il secondo post di una serie in cui invito a un drastico, ma graduale, cambiamento nel modo in cui insegniamo sia la meccanica quantistica che quella classica. L’idea è che continuare ad insegnare la meccanica quantistica come una totale rivoluzione della fisica sia controproducente e, di fatto, trasmette il messaggio, sbagliato, che la meccanica quantistica sia difficile da capire. In realtà, i fisici capiscono la meccanica quantistica molto meglio di quella classica: infatti, gli esperimenti di meccanica quantistica forniscono risultati coerenti con la teoria con incertezze ordini di grandezza migliori di quelle della fisica classica.

Questo numero è dedicato a rivedere il concetto di forza, spesso confuso con quello di interazione.


Le forze newtoniane

Qualsiasi libro di fisica parla di forze, che giocano un ruolo centrale nella meccanica classica. Tuttavia, si tende spesso ad abusarne, come chiariamo qui di seguito.

Le forze s’introducono con la meccanica newtoniana, attraverso la seconda Legge di Newton, spesso scritta come F=ma. In un post successivo parlerò anche di questa espressione (inutile dire che sono contrario a questo modo di scriverla), ma per il momento prendiamola come corretta. Per definizione, le forze sono vettori: sono caratterizzate da modulo, direzione e verso. Il motivo è che l’accelerazione a è un vettore, e un vettore moltiplicato per uno scalare m è ancora un vettore. In altre parole, le forze e le accelerazioni sono parenti stretti.

Questo concetto di forza continua ad essere valido nell’elettromagnetismo, dove le particelle cariche sono soggette alla forza di Lorentz che le accelera causando un cambiamento nella loro velocità (sia in modulo che in direzione e verso).

Quando si ha a che fare con sistemi gassosi compaiono i primi problemi. Per comprimere un gas abbiamo bisogno di una forza, ma la sua applicazione non può portare a un’accelerazione, semplicemente perché non ha senso parlare di velocità di un gas (vedi il mio precedente post qui). Per aggirare il problema i fisici hanno inventato il concetto di pressione definito come la componente della forza che agisce su una superficie perpendicolare ad essa, divisa per la superficie stessa. Vale la pena notare che la pressione è uno scalare, mentre la forza è un vettore e che la pressione si può definire come un prodotto scalare tra vettori, definendo l’area come tale.

Poiché le forze sono definite dalle accelerazioni, un altro problema si pone quando si effettuano misurazioni in sistemi di riferimento accelerati (non inerziali). In questi sistemi si sviluppano forze chiamate “fittizie” o “apparenti”, definite come F=-ma, con a pari all’accelerazione del sistema (si noti che in questo caso, contrariamente a quella usata per la seconda legge di Newton, l’espressione è corretta). Queste forze, in effetti, sono altrettanto reali rispetto alle altre forze cui siamo abituati, come la gravità o la forza elastica. Del resto si possono misurare utilizzando, ad esempio, un dinamometro, quindi sono tutt’altro che fittizie. Questo è il motivo per cui la maggior parte delle persone ha difficoltà con queste forze. In particolare, distinguere la forza centrifuga da quella centripeta è uno degli incubi degli studenti.

Cosa distingue le forze fittizie da quelle reali? La differenza sta nel fatto che queste ultime sono il risultato di un’interazione. La gravità si manifesta se una particella con massa interagisce con un’altra particella con massa. La forza elastica se una particella interagisce con una molla (o qualsiasi altro sistema che si comporta come una molla). La forza centripeta esiste perché è causata dall’interazione tra una particella e il mezzo che la mantiene in un percorso circolare (per esempio, legando una palla a una corda e facendola ruotare si produce un’accelerazione centripeta sulla palla a causa dell’interazione di quest’ultima con la corda: tagliando la corda l’interazione scompare, facendo venir meno la forza).

Le forze fittizie esistono solo in sistemi di riferimento non inerziali e non hanno alcuna sorgente: sono una pura conseguenza del modo in cui effettuiamo le misurazioni. In un sistema di riferimento in cui la palla dell’esempio precedente è a riposo, siamo costretti a “fingere” che vi sia una forza che agisce sulla palla per renderne nulla l’accelerazione in quel sistema. La forza fittizia dev’essere opposta all’unica reale: la forza centripeta applicata dalla corda. Quando un’auto slitta percorrendo una curva, la causa non è la forza centrifuga, ma la mancanza di quella centripeta (l’attrito statico tra le ruote e l’asfalto). Lo scostamento dalla traiettoria è infatti una conseguenza della prima legge di Newton, in un sistema di riferimento inerziale.

Forze non-newtoniane

Fino all’inizio del XX secolo, i termini “forza” e “interazione” erano praticamente sinonimi. Ogni interazione produceva forze e ogni forza (non fittizia) era causata da un’interazione. Con la scoperta dei decadimenti beta questo non è più stato vero.

Il decadimento beta è un fenomeno che consiste nella trasformazione (decadimento) di un neutrone in un protone, un elettrone e un neutrino. Il decadimento beta può anche portare alla trasformazione di un protone all’interno di un nucleo in un neutrone, un positrone e un neutrino (quest’ultima reazione può avvenire solo nei nuclei, a causa della conservazione dell’energia).

Un tale fenomeno non si può spiegare con nessuna delle forze fondamentali conosciute: né con la gravità, né con l’elettromagnetismo. Per varie ragioni, neanche la forza nucleare forte, che tiene insieme protoni e neutroni nei nuclei, può essere responsabile del decadimento. È stato Enrico Fermi a formulare la prima teoria funzionante del decadimento beta introducendo la cosiddetta interazione debole, solitamente considerata la quarta forza fondamentale.

La maggior parte dei libri di testo riportano frasi come le seguenti: “ci sono quattro forze fondamentali nell’universo: la forza forte, la forza debole, la forza elettromagnetica e la forza gravitazionale”¹.

Una tale affermazione è in realtà piuttosto fuorviante. La maggior parte delle persone identifica una forza con qualcosa che spinge o che tira. Associare un vettore a qualcosa che spinge o tira è in fondo abbastanza naturale. Tuttavia, nei fenomeni in cui è coinvolta la forza debole, non c’è nulla che spinge o tira. Non c’è un punto cui si possa applicare un vettore.

In effetti, la forza debole non è una forza, perché le forze si possono rappresentare come vettori, e in un decadimento non c’è un posto cui applicare un vettore. È un’interazione. Non tutte le forze sono causate da un’interazione (ad esempio, le forze apparenti non lo sono) e non tutte le interazioni danno origine ad una forza (come, ad esempio, l’interazione debole). Le forze si possono associare soltanto a interazioni il cui effetto è quello di spingere o tirare qualcosa che deve spostarsi dalla sua posizione. In generale le forze non si possono considerare responsabili di nessuno dei fenomeni della meccanica quantistica per i quali generalmente la posizione non è una variabile di stato (vedi episodio 1).

Cosa sono le interazioni? Possiamo definirle come qualsiasi cosa il cui effetto consiste nel cambiare lo stato di un sistema. Si consideri, ad esempio, una particella libera di muoversi. Se la particella si trova nel campo gravitazionale della Terra, la sua interazione con quest’ultimo porta ad una forza il cui effetto è quello di cambiare la sua velocità aggiungendovi una componente verticale. Di conseguenza, lo stato della particella cambia (si noti che, se si dà lo stato iniziale della particella in un sistema di riferimento in cui la particella è a riposo a t=0, se non c’è campo gravitazionale, lo stato della particella è conservato).

Un gas può interagire con una sorgente scambiando calore con quest’ultima. Non ci sono forze, qui, tuttavia ci può essere un cambiamento nello stato del gas, la cui pressione, volume e/o temperatura cambiano di conseguenza. Vale la pena di notare che lo stato di un gas si può rappresentare come un punto sul piano di Clapeyron e la sua trasformazione come una curva su tale piano. La rappresentazione dello stato e delle interazioni in uno spazio astratto non è dunque peculiare della meccanica quantistica.

Un neutrone può interagire con il campo dell’interazione debole che porta a un cambiamento dello stato iniziale da uno stato di neutrone a riposo a uno stato contenente un protone, un elettrone e un neutrino con energia e quantità di moto tali che l’impulso finale totale è nullo e l’energia totale è uguale alla massa del neutrone. Nessuna forza, ma un cambiamento di stato.

Il campo debole è prodotto dal neutrone stesso. Un neutrone emette continuamente quanti del campo debole. L’interazione del neutrone con questi quanti può portare alla trasformazione dello stato, analogamente a quanto farebbe un elettrone interagendo con il proprio campo elettrico. Anche classicamente, un elettrone, in linea di principio, deve interagire con il campo elettrico prodotto da sé stesso, anche se il problema viene spesso ignorato perché, malgrado l’accoppiamento tra il campo e la particella sia infinito (l’intensità del campo diminuisce come 1/), l’interazione non produce alcun effetto misurabile.

Nell’attuale teoria del decadimento beta, un neutrone (in realtà uno dei suoi quark costituenti) emette un campo carico rappresentato dal bosone W, perdendo una carica negativa e diventando un protone. Il bosone W, a sua volta, materializza in un elettrone (che trasporta la carica elettrica) e in un neutrino (che trasporta la quantità di moto e il momento angolare necessari per la loro conservazione).


Continuate a seguirmi. Nel prossimo post parlerò della natura di un elettrone: onda o particella?

P.S.: non sono così arrogante da sostenere di avere la risposta definitiva a questa domanda così complicata, ma sono certo di potervi dare un’idea fisicamente più precisa di cosa si debba intendere, effettivamente, per un elettrone.

¹Questa specifica frase è stata estratta dal sito del CERN, che di certo non è poco attendibile.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 1: il concetto di stato


La meccanica quantistica è spesso insegnata come una “rivoluzione”, facendo leva sui suoi aspetti paradossali. In parte, ciò è dovuto al fatto che gli insegnanti (i libri) tendono a seguirne lo sviluppo storico (il che non sempre è una buona idea); in parte al presupposto, sbagliato, che questi aspetti la rendano più interessante. Il risultato è che la maggior parte delle persone (compresi molti “professionisti”) non credono davvero alla teoria e molti la considerano impossibile da capire (spesso citando a sproposito il prof. Feynman). In realtà, la meccanica quantistica non è così diversa dalla meccanica classica, a patto che si consideri quest’ultima per quello che è realmente. In questo e nei seguenti post cercherò di convincervi che in realtà la meccanica classica è molto più vicina alla meccanica quantistica di quanto crediate.


Il primo passo consiste nel riesaminare la meccanica classica in vista di un’introduzione alla meccanica quantistica. Questo episodio è dedicato a chiarire il concetto di “stato”. Negli episodi successivi tratteremo altri concetti, spesso trascurati, della fisica classica.

Il concetto di stato

Nella fisica classica non è infrequente imbattersi nel concetto di “stato”. In particolare, nella maggior parte dei libri di testo si trova che:

  1. lo stato di una particella puntiforme è dato quando la sua posizione e la sua velocità sono note;
  2. lo stato di un gas è dato dalla legge dei gas perfetti (detta anche equazione di stato dei gas) secondo la quale pV﹦nRT.

Cosa s’intende per “stato”? Cercarne la definizione in un libro di testo di fisica è una perdita di tempo: di fatto non sono riuscito a trovare un solo libro di testo in cui sia definito. Cerchiamo allora di trovare la sua definizione su un vocabolario. Il dizionario Treccani definisce uno stato come “Il modo di essere, temporaneo o permanente, di cosa o persona” (è interessante notare che una delle voci si riferisce diffusamente allo stato di un sistema fisico, in maniera anche piuttosto precisa ed esauriente, come del resto è costume dell’istituzione). In effetti, questo è il vero significato da dare a questa parola anche in fisica.

Quando vogliamo descrivere un sistema fisico (sia esso una particella puntiforme, un gas, un circuito o un solido), dobbiamo caratterizzarlo fornendo un insieme di grandezze (reciprocamente indipendenti) ottenute misurandole. Lo “stato” di un sistema è dato quando si fornisce un elenco completo di grandezze fisiche misurabili per esso. In altre parole, lo stato comprende tutte e solo quelle grandezze necessarie per caratterizzare completamente il sistema all’istante t in modo da poterne prevedere lo stato in un altro istante t’.

Per un gas ideale, ad esempio, lo stato è caratterizzato da quattro grandezze fisiche: la pressione, il volume, la temperatura e la quantità. Queste grandezze sono collegate fra loro per mezzo dell’equazione di stato, in modo tale che ne bastano solo tre per specificare lo stato di un gas. In linea di principio, potrebbero esserci altre grandezze misurabili d’interesse: il colore del gas, per esempio, potrebbe essere una delle variabili di stato. Tuttavia, fintanto che non c’interessano i cambiamenti di colore di un gas, la sua inclusione nello stato è inutile, analogamente a quanto accade per la massa in meccanica, laddove quest’ultima si consideri costante. Lo stato, quindi, comprende solo quantità “interessanti”, cioè quantità che si possono misurare e non dipendono l’una dall’altra. In sintesi, prendendo a prestito la notazione della meccanica quantistica, possiamo specificare lo stato di un gas ideale come |p, V, T 〉 oppure come |p, V, n〉 o qualsiasi altra combinazione di p, V, n o T.

In cinematica, si dice spesso che lo stato di una particella è dato quando se ne conoscano la posizione e la velocità. In effetti, in questo caso, lo stato dipende dalla scelta del sistema di riferimento in cui sono espresse le coordinate (si noti che quando si parla di gas si usa implicitamente un sistema di riferimento fermo rispetto al contenitore del gas). La fisica non può dipendere dalle nostre scelte, quindi ci dev’essere un modo per esprimere lo stato di un sistema indipendentemente da esso. Si può scegliere un sistema di riferimento “privilegiato” costituito dal sistema in cui la particella è a riposo per t=0. In questo caso lo stato è pienamente caratterizzato fornendo la velocità v, che tuttavia nel sistema in questione è nulla. Se la velocità della particella è costante, nel sistema di riferimento dato rimane nello stato|x=0, v=0〉, altrimenti il suo stato cambia.

Naturalmente potremmo argomentare in modo molti simile per vari sistemi (vedi anche la voce del dizionario Treccani sopra citato). Per esempio, lo stato di un condensatore può essere caratterizzato quando la carica Q e la differenza di potenziale ai suoi capi ΔV sono note. In questo caso, la definizione di capacità C=Q/ΔV gioca il ruolo dell’equazione di stato nella fisica dei gas. Si può fare l’utile esercizio d’identificare lo stato su ogni sistema fisico che si conosce.

Quindi, lo stato dipende dal sistema che ci interessa, non solo perché comprende solo quantità rilevanti per il problema specifico: secondo il sistema, l’elenco delle variabili potenzialmente interessanti cambia. Chiaramente, non possiamo caratterizzare lo stato di un gas utilizzando posizione e velocità: queste quantità semplicemente non hanno senso per un gas (hanno senso per i suoi costituenti, non per il gas come sistema — osserviamo, inoltre, che la teoria cinetica dei gas è una scoperta relativamente recente). Un gas può essere contenuto in un volume: possiamo identificare la posizione (di un punto) del contenitore, non del gas. Ha una certa temperatura: non si muove, quindi non ha velocità (i suoi consitituenti ce l’hanno, ma non sono un gas; sono particelle puntiformi). Va chiarito che qui ci riferiamo a un gas ideale in equilibrio. Quando facciamo la fisica di un gas che scorre in un tubo, la sua velocità ha senso (ma ha una definizione un po’ diversa) e infatti fa parte dello stato del fluido, essendo possibile prevederne il valore utilizzando l’equazione di Bernoulli e conoscendone lo stato a t=0.

Ora, a un certo punto si scopre, grazie al principio d’indeterminazione di Heisenberg, che lo stato di un elettrone in un atomo non può essere rappresentato dalle stesse variabili usate per una particella puntiforme. Semplicemente perché in questo caso la posizione e la velocità di un elettrone non hanno senso: non si possono misurare, quindi non possono far parte dello stato. Non esistono.

Di un elettrone in un atomo (un sistema quanto-meccanico) possiamo misurare la sua energia (ad es. con l’effetto fotoelettrico) e il suo momento angolare (dall’analisi degli spettri di assorbimento e di emissione). Quindi, sono l’energia e il momento angolare ad essere quantità significative per un tale sistema e sono loro a poter essere incluse nel suo stato. 

Per una particella subatomica libera come un muone (di nuovo un sistema quanto-meccanico), possiamo misurare posizione e velocità in determinate condizioni, quindi ha senso includerle nello stato. Una scelta migliore (il sistema è spesso relativistico) è quella di specificare lo stato cinematico del muone indicandone energia e quantità di moto. I muoni sono instabili e decadono (si trasformano) in un elettrone e due neutrini. Lo stato del sistema è dunque caratterizzato dal numero e dal tipo delle particelle in esso contenute (inizialmente è la massa del muone a identificarne lo stato). Dopo un certo tempo lo stato si è evoluto in modo tale che, per tempi sufficientemente lunghi, lo stato si trova composto di tre particelle: un elettrone e due neutrini, ognuna delle quali ha la sua energia e la sua quantità di moto.

In sintesi, il concetto di stato si pone tradizionalmente nella meccanica quantistica come un concetto centrale che la maggior parte delle persone ha difficoltà ad afferrare. In effetti, si tratta di un concetto piuttosto semplice, che esiste anche nella fisica classica, e le difficoltà sorgono solo perché il suo ruolo non è sufficientemente chiarito quando siamo esposti alla fisica classica. Se fossimo abituati a scrivere le leggi della fisica (classica) in termini di evoluzione di uno stato, non saremmo sorpresi quando passiamo a una descrizione completamente diversa, quanto-meccanica, di un elettrone in un atomo. In fondo, il modello di Bohr dell’atomo è sbagliato. Continuare ad insegnarlo è come continuare ad insegnare la teoria del “calorico”. È istruttivo menzionarla, ma nessuno di noi crede sia utile discuterne i dettagli. La fisica classica sta alla meccanica quantistica come la teoria cinetica sta alla termodinamica. Si tratta solo di cambiare il modo in cui descriviamo lo stato, a causa del fatto che le grandezze fisiche utilizzate nella fisica classica perdono di significato in certe condizioni (questo non è tipico della meccanica quantistica: anche nella fisica dei gas, posizione e velocità perdono il loro significato).


Nella prossima puntata parleremo di forze e di interazioni. Continuate a seguirci.

Osservare i raggi cosmici

I raggi cosmici sono particelle di alta energia che provengono dallo spazio che, urtando con i nuclei dell’atmosfera, danno origine a numerose nuove particelle che si propagano verso la Terra decadendo, cioè trasformandosi in altre particelle, man mano che procedono nella loro corsa. La produzione di nuove particelle è un fenomeno quantistico reso possibile dalla relatività, secondo la quale l’energia dell’urto può trasformarsi in materia secondo la relazione di Einstein E=mc2. L’urto tra i raggi cosmici (che per la maggior parte sono fatti di protoni) e i nuclei degli atomi dei gas che compongono l’atmosfera, produce in prevalenza pioni (π) carichi e neutri. Propagandosi verso terra, i pioni carichi si trasformano spontaneamente in un muone (μ) e un neutrino; quelli neutri in due fotoni. I muoni arrivano numerosi a livello del mare. Se ne osservano circa 100 per metro quadro al secondo. I fotoni producono coppie di elettroni e positroni che danno poi origine a sciami estesi di fotoni, elettroni e positroni.

Quando una particella ionizzante attraversa un diodo al silicio, libera alcune delle cariche presenti nel mezzo. Se il diodo è polarizzato le cariche liberate migrano in direzione del campo elettrico prodotto all’interno del volume del silicio producendo una corrente elettrica che si può misurare.

Cosí funzionano i sensori delle fotocamere digitali e degli smartphone. Il sensore è costituito di una matrice di diodi (pixel), ciascuno dei quali, una volta colpito dai fotoni di cui è composta la luce, produce un segnale elettrico misurabile proporzionale all’intensità della luce. In questa maniera si ricostruisce l’immagine.

Lo stesso fenomeno si può sfruttare per osservare i raggi cosmici. Alcune fotocamere hanno la possibilità di mantenere l’otturatore aperto per un tempo indefinito: la posa T. Nella posa T la prima pressione del tasto dell’otturatore apre l’obiettivo e lo lascia in questa posizione fino a quando il tasto non viene premuto nuovamente. In questa maniera si possono fare fotografie con esposizione lunga anche diverse ore. Se la fotocamera è mantenuta al buio con l’obiettivo coperto gli unici segnali che il sensore registrerà saranno quelli delle particelle cosmiche che lo attraversano.

Sotto riporto una porzione ingrandita di una foto eseguita esponendo per sette ore una fotocamera in queste condizioni.

Ognuno dei puntini colorati rappresenta il segnale lasciato da una particella che ha attraversato il sensore. Nelle fotocamere, per ogni pixel ci sono in realtà tre diodi: uno per ogni colore primario. Il colore del pixel che si osserva dipende dal diodo attraversato e parzialmente dall’energia rilasciata in esso. Con un po’ di fortuna si possono anche osservare alcune tracce come quelle che ho evidenziato. Il particolare è riportato sotto ruotato di 90 gradi a sinistra.

La traccia piú lunga sulla destra è stata lasciata da una particella di bassa energia che viaggiava con un un angolo piuttosto piccolo rispetto alla superficie del sensore (che è sottilissimo: alcune decine di micron nella porzione sensibile). Che l’energia sia bassa lo si capisce dal fatto che la traccia è curva. Le particelle cariche seguono traiettorie curve in campo magnetico e il raggio di curvatura è proporzionale alla loro quantità di moto. Nel caso in esame il debole campo magnetico terrestre dev’essere stato capace di curvare la traiettoria della particella in questione abbastanza da renderne visibile la curvatura.

Con questa tecnica si possono fare anche alcune misure. Contando il numero di pixel “accesi”, per esempio, si ha una misura della frequenza di arrivo dei raggi cosmici (o meglio, della porzione di essi che lascia un segnale misurabile nella fotocamera) ed esercizi di statistica, dividendo in porzioni l’immagine e contando il numero di pixel accesi in ciascuna porzione.

Un facile esperimento sull’effetto fotoelettrico

Oggi vi presento un facilissimo esperimento per osservare l’effetto fotoelettrico. Bastano pochi componenti elettronici facili da trovare: un LED che emetta luce verde dal corpo trasparente, una resistenza attorno al migliaio di Ohm e un voltmetro. In questo post ho usato, al posto del voltmetro, una scheda Arduino.

L’effetto fotoelettrico consiste nell’emissione di elettroni da parte di un materiale illuminato da luce di frequenza sufficientemente alta. Stando ai risultati ottenuti da Planck, la luce è costituita di un flusso di particelle dette fotoni, ciascuna delle quali possiede un’energia E=hf, dove f è la frequenza della luce misurata in Hertz e h la costante di Planck. Gli elettroni possono essere estratti dal materiale solo se E>V dove V è l’energia di legame degli elettroni nel materiale considerato (tipicamente dell’ordine di qualche eV). Se i fotoni hanno energia sufficiente, l’intensità della corrente prodotta dall’effetto fotoelettrico è proporzionale all’intensità della luce che lo provoca.

Osservando l’interno di un LED attraverso il suo corpo si vede che è formato di due parti: una più massiccia e l’altra più sottile, come si vede nell’immagine qui sotto, tratta da un lavoro di Aaron Hebin (in tedesco).

LED-internals.png

L’anodo va collegato al polo positivo di una pila, mentre il catodo va connesso al polo negativo attraverso una resistenza di almeno 100 Ohm (per limitare la corrente che scorre nel dispositivo). L’elemento più grande serve a sostenere un cristallo di materiale semiconduttore, collegato elettricamente all’altro elemento da un filo sottilissimo e praticamente invisibile.

L’energia di legame degli elettroni presenti nel cristallo di cui è fatto un LED verde è di circa 2.3 eV. Se quindi s’illumina il LED con luce di energia maggiore o uguale a questa (verde o blu), dal LED escono elettroni. Viceversa, illuminando il LED con luce di energia minore (rossa), non si provoca alcuna emissione di elettroni.

Gli elettroni eventualmente generati fluiranno per lo più attraverso il corpo del LED, che è conduttore, e genereranno quindi una corrente.

Se si collega una resistenza da un migliaio di Ohm in serie al LED e si misura la differenza di potenziale ai capi della serie ci aspetteremmo di trovare zero, perché non ci sono generatori in questo circuito. E invece si misura qualche decina di mV. Il motivo è che la luce ambiente è sufficiente a produrre l’effetto fotoelettrico. Il cristallo emette elettroni che s’incanalano nel circuito e provocano una corrente che si rivela attraverso la caduta di potenziale ai capi della resistenza.

Noi abbiamo fatto la misura con il dispositivo sotto illustrato.

IMG_20171118_153601.jpg

Una resistenza R1 da 220 Ohm connette il pin GND di Arduino al catodo di un LED verde. L’anodo dello stesso LED è connesso invece a una resistenza R2 da 1kΩ collegata poi al pin A0 di Arduino. Sotto si vede un particolare dei collegamenti:

LED-photoelectric-effect.png

Arduino è quindi usato come un voltmetro per misurare la differenza di potenziale ai capi della serie R1+LED+R2 con uno sketch semplicissimo:

void setup() {
  Serial.begin(9600);
}

void loop() {
  Serial.println(analogRead(A0));
  delay(250);
}

 

In condizioni ordinarie di luce leggiamo un valore attorno ai 100 mV. Basta coprire il LED con la mano per veder scendere il valore a meno di 80 mV. Il fenomeno è dovuto al fatto che la mano copre la luce ambiente, anche se solo parzialmente, che ha uno spettro continuo la cui frequenza varia da quella del rosso a quella del violetto. Si può vedere facilmente che, aumentando l’intensità della luce o diminuendola (agendo, per esempio, sulle tapparelle) la differenza di potenziale (e quindi l’intensità della corrente che scorre nelle resistenze) aumenta o diminuisce di qualche decina di mV.

Illuminando poi il LED con luce verde o violetta (potete usare lampade colorate oppure opportune App per smartphone oppure, ancora meglio, laser di colore diverso) potrete constatare come la luce rossa non provoca alcun fenomeno, mentre quella verde o azzurra sì. Fate attenzione a illuminare bene il cristallo. Per ottenere l’effetto voluto occorre disporre la sorgente luminosa esattamente sopra la parte curva del LED, in modo che la luce raggiunga il cristallo. Se s’illumina il corpo del LED lateralmente l’esperimento funziona male perché la luce non raggiunge bene il cristallo che dovrebbe produrre l’effetto fotoelettrico.

 

Il meccanismo di Higgs per tutti

È stato da poco dato alle stampe il mio ultimo articolo su come illustrare il Meccanismo di Higgs che fornisce massa alle particelle elementari al grande pubblico. Dalla scoperta della particella si sono moltiplicati i tentativi di rendere accessibile e comprensibile un meccanismo così complesso. Anch’io ho fatto la mia parte con alcuni modelli semplificati: uno più tecnico, con due articoli [1][2], ripreso nel mio testo di Fisica Sperimentale, e un altro adatto a un pubblico più generico come nel caso del video che trovate qui. Ho anche registrato una puntata di FISICAST al riguardo.

Un ulteriore tentativo di rendere comprensibile il meccanismo l’ho fatto con un articolo pubblicato da poco sulla rivista Physics Education, che trovate qui (sito dell’editore) o qui (arXiv). L’articolo ha per titolo “A ball pool model to illustrate Higgs physics to the public” e si può citare come 2017 Phys. Educ. 52 023001. L’identificatore del documento (DOI) è 10.1088/1361-6552/aa4f8a.

Grazie alla Sig.ra Miriam di “Tutto Gonfiabili” per avermi concesso l’uso delle loro immagini.

[1] “The Higgs mechanism for undergraduate students”, in Nucl. Part. Phys. Proc. 273–5 2572–4.

[2] “Unveiling the Higgs mechanism to students” in Eur. J. Phys. 33 1397–406.