La distribuzione di Fermi-Dirac

Enrico Fermi divenne famoso, nella comunità dei fisici del tempo, per aver pubblicato, nel 1926, un articolo nel quale calcolava la distribuzione in energia delle particelle identiche con spin semintero. Nello stesso anno, ma poco più tardi, anche Paul Dirac arrivò indipendentemente allo stesso risultato e per questo la distribuzione si chiama oggi di Fermi-Dirac.

Gli elettroni, i neutroni e i protoni di cui è fatta la materia che conosciamo, sono particelle con spin semintero, cioè particelle con un momento angolare intrinseco pari alla metà di un numero intero (nella fattispecie pari a 1/2).

Il momento angolare intrinseco (o spin) è spesso descritto, in analogia col momento angolare classico, come una misura della velocità di rotazione di una particella attorno al proprio asse. Ma questa immagine è completamente fuorviante. Non esiste un analogo classico dello spin. Le particelle sono puntiformi e di certo non ruotano attorno ad alcun asse. Molto meglio pensare a questa grandezza come a qualcosa che è possibile misurare per queste particelle, in modo che si possano etichettare con il valore +1/2 o -1/2, che ne determina, insieme ad altre grandezze, lo stato. Le particelle di questo tipo sono collettivamente chiamate “fermioni” e si comportano in modo da rispettare il Principio di Pauli: due fermioni non possono stare nello stesso stato.

Classicamente, lo stato è la condizione nella quale si trova il sistema in esame. Per esempio: lo stato cinematico di una pallina è noto quando ne conosciamo posizione e velocità. Conoscere lo stato di qualcosa permette di prevederne l’evoluzione se si conoscono le interazioni cui va incontro. Sapere posizione e velocità di una pallina ci permette di prevederne posizione e velocità in ogni istante, se conosciamo le forze che agiscono su di essa.

Quantisticamente, lo stato di un elettrone non può essere determinato dalle stesse quantità, perché in meccanica quantistica posizione e velocità sono due grandezze prive di senso. Energia e momento angolare, invece, sono grandezze che caratterizzano perfettamente il modo di essere di un elettrone in un atomo e sono dunque buone variabili di stato. La loro conoscenza ci permette di prevedere il loro stato futuro in seguito a un’interazione.

Anche se in linea di principio la meccanica classica non lo proibisce, è un fatto evidente a tutti che due palline non possono stare nello stesso stato. Se in una posizione c’è una pallina, l’altra può stare in una posizione molto simile, ma non sarà nello stesso identico stato. Allo stesso modo, due elettroni in un atomo non possono condividere lo stesso stato. Per la meccanica quantistica possono occupare il medesimo volume, ma non possono avere la stessa energia.

L’articolo di Fermi permette di prevedere come si distribuisce l’energia degli elettroni in un atomo o in sistemi più complessi come i cristalli. Per capire come funziona immaginiamo di prendere il nucleo di un atomo e di avvicinare un elettrone alla volta a questo nucleo. Il primo elettrone si dispone in modo da minimizzare la sua energia. Un secondo elettrone, per il Principio di Pauli, non può assumere la stessa energia. Di conseguenza si dispone in modo da avere un’energia leggermente più grande. Lo stesso fa il terzo elettrone, la cui energia sarà maggiore di quella del secondo, e così via.

È un po’ quel che succede quando si inserisce una serie di biglie in un vaso lungo e stretto, il cui diametro è appena sufficiente per contenere una pallina. La prima pallina a esservi introdotta assume la minima energia possibile piazzandosi sul fondo del vaso. La seconda, non potendo questa assumere lo stesso stato, si dispone sopra la prima, a una posizione corrispondente a un’altezza maggiore. Una terza pallina si dispone sopra la seconda, e così via.

Se si fa un grafico della probabilità di trovare una pallina a una certa quota si trova quella che si chiama una distribuzione uniforme: la probabilità è la stessa per tutte le palline fino alla quota dell’ultima pallina, dopo di che è nulla.

Un tubo di palline da tennis parzialmente riempito rappresenta un sistema in cui ogni pallina si trova in un diverso stato. La probabilità P(h) di trovare una pallina alla quota h è costante per hhM e zero per h maggiori.

Allo stesso modo la probabilità di trovare un elettrone in uno stato di energia E in un atomo o in un cristallo è costante per le energie minori o uguali a quella assunta dall’elettrone di energia massima e nulla per energie maggiori. La distribuzione di energia appare così: a temperatura T0 nulla, la distribuzione ha forma rettangolare, come quella delle palline sopra.

5 Fermi-Dirac distribution function at different temperatures: T3>... |  Download Scientific Diagram

Al crescere della temperatura però la distribuzione cambia forma e diventa più dolce e smussata in prossimità dell’energia EF detta Energia di Fermi. Questo significa che la probabilità di trovare un elettrone in uno stato di energia molto basso continua a essere pari a 1 o quasi. Man mano che l’energia cresce, la probabilità di trovare un elettrone nel cristallo con quell’energia diminuisce, ma aumenta la probabilità di trovare elettroni con energia maggiore di quella di Fermi. Più è alta la temperatura e maggiore è questa probabilità.

Immaginate ora di prendere il tubo delle palline da tennis che abbiamo visto sopra e di scuoterlo. In sostanza non state facendo altro che fornire energia dall’esterno, che è la stessa cosa che fate quando scaldate un materiale e lo portate a una temperatura maggiore.

Le palline più in alto cominceranno a saltare raggiungendo quote più alte. Lo faranno anche quelle immediatamente sotto, ma queste non potranno saltare oltre quelle che stanno sopra di esse. Quelle più in fondo, invece, non riusciranno proprio a muoversi, a meno che non forniate talmente tanta energia al tubo (lo portiate a una temperatura estremamente alta) da farle saltare tutte.

La distribuzione di probabilità di trovare le palline a certe quote sarà del tutto simile a quella di Fermi.

Conoscere la distribuzione di Fermi è fondamentale nella scienza dei materiali. È grazie alla sua conoscenza che possiamo sapere come funzionano (e di conseguenza, progettare) diodi e transistor, senza i quali l’elettronica come la conosciamo oggi non esisterebbe.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 4: la fisica quantistica dei campi

La dualità onda-corpuscolo è, a mio parere, il concetto più sbagliato introdotto con la meccanica quantistica, nonostante sia molto diffuso. È del tutto normale che nella scienza si formulino concetti che, alla fine, si rivelano fallaci. È però sbagliato continuare ad usarli inutilmente. La dualità fu introdotta all’inizio dello sviluppo della MQ per spiegare fenomeni nuovi utilizzando categorie del secolo precedente. Oggi la nostra visione del mondo è cambiata e non c’è bisogno di insistere nel proporre spiegazioni vecchio stile. D’altra parte, nessuno di noi oggi insiste nel cercare di spiegare la relatività supponendo l’esistenza di un etere.

In questo post cerchiamo di descrivere al meglio la natura di un elettrone.


Nell’articolo precedente abbiamo mostrato che un fascio di elettroni si può naturalmente interpretare come composto di un’onda che si propaga nello spazio e nel tempo. L’onda deve avere una certa carica elettrica, essendo soggetta alla forza di Lorentz. Tuttavia, qual è la natura di una tale onda? E cosa significa per un’onda essere caricata elettricamente?

Secondo la teoria ormai consolidata, la luce si propaga come un’onda elettromagnetica, quest’ultima essendo una successione di campi elettrici e magnetici, come descritto dalle equazioni di Maxwell. Vale la pena ricordare che, prima delle opere di Maxwell e di Einstein, i fisici sapevano già che la luce era un’onda, ma poiché erano abituati a vedere le onde propagarsi nei mezzi, supponevano (erroneamente) che dovesse esistere un mezzo attraverso il quale la luce dovesse essere in grado di propagarsi. Solo in seguito fu chiaro che la luce poteva propagarsi nel vuoto perché il campo elettromagnetico si propaga nel vuoto; e solo con la relatività speciale di Einstein fu chiaro che non era necessario alcun mezzo per rendere conto della sua propagazione a velocità costante. Le onde, quindi, hanno perso la loro natura “classica” di perturbazioni che si propagano nei mezzi: le onde possono essere “composte di” campi (e non propagarsi attraverso essi). Il campo e.m. è neutro perché la sua propagazione non è influenzata dalla presenza di altri campi e.m. (i campi possono interferire, ma il modo di propagarsi di un campo è indipendente dagli altri).

Come nel caso della definizione dello stato, è abbastanza difficile trovare una definizione di campo nei libri di fisica. Molti di essi non lo definiscono affatto: si limitano a fornire un elenco (spesso incompleto) delle sue caratteristiche. Il concetto di campo è solitamente introdotto nell’elettrostatica e si dice che è generato dalle cariche ed è definito come la forza per unità di carica esercitata dalla sua sorgente. Una tale definizione, si converrà, non implica alcun “contenuto” fisico per quest’entità: non implica affatto che il campo esista indipendentemente dalla forza di Coulomb. Si tratta solo di una definizione matematica (neanche operativa, perché non è così che si misura il campo).

Comunque la fisica non è matematica, e una definizione precisa, formale, delle grandezze fisiche è sì spesso difficile, ma, del resto, anche inutile in molti casi. Ciò che è importante, per definire una grandezza fisica, è poterla misurare e identificarne le proprietà. Analizziamo quindi una teoria di campo.

  1. Una teoria di campo (come l’elettromagnetismo) è una formulazione matematica della dinamica dei campi. Dato lo stato di un campo al tempo t=0, la teoria ce lo fornisce in qualsiasi altro istante t≠0. Il campo elettrico in un’onda e.m., per esempio, è descritto da E(t,x)=Acos(⍵t+kx+φ).
  2. Dato lo stato delle sorgenti, la teoria permette il calcolo del campo da esse generato. Ad esempio, la teoria di Maxwell permette di calcolare il campo magnetico prodotto da una corrente e il campo elettrico prodotto da un piano uniformemente carico.

Elenchiamo ora le proprietà rilevanti di un campo (quelle che le rendono diverse dalle particelle).

  1. I campi si propagano nello spazio e nel tempo.
  2. I campi sono generati dalle sorgenti. Non esistono né prima né all’interno di essi.
  3. A differenza della “materia” i campi possono si possono creare o distruggere.

Secondo le equazioni di Maxwell, le onde elettromagnetiche sono una successione di campi elettrici e magnetici: una corrente variabile che scorre in un conduttore genera un campo magnetico variabile che a sua volta genera un campo elettrico variabile che genera un campo magnetico e così via, come mostrato di seguito.

Un’onda e.m. è una successione di campi elettrici e magnetici che si propagano

A un certo punto si scopre che la luce può dare origine a fenomeni che si possono spiegare solo ammettendo che sia composta da particelle chiamate fotoni: l’effetto fotoelettrico, l’effetto Compton e la radiazione di un corpo nero si spiegano solo attribuendo una natura corpuscolare alla luce. Chiaramente i due modelli (quello corpuscolare e quello ondulatorio) sono incompatibili.

D’altra parte, un’onda e.m. emessa da un’antenna (un filo in cui scorre una corrente alternata) si può interpretare come un flusso di fotoni irradiati dalla corrente in tutte le direzioni perpendicolari al filo. Mettendo un rivelatore vicino all’antenna possiamo misurare un campo elettrico o magnetico. Tuttavia, se la frequenza dell’onda e.m. è sufficientemente grande, possiamo osservare l’effetto fotoelettrico, che interpretiamo come la collisione di un fotone con un elettrone atomico. I fotoni, come i campi e.m., sono dunque prodotti anch’essi dalla corrente. È utile osservare che le proprietà dei campi e di una teoria di campo, che abbiamo elencato sopra, valgono anche per i fotoni: basta sostituire la parola “fotone” con “campo”. Di conseguenza, un fotone È un campo, qualunque cosa questo significhi (rimandiamo la discussione su cosa questo significhi esattamente a un post successivo: la vita è dura).

Qualunque cosa significhi, quest’osservazione ci fa capire che la luce non è né una particella un’onda: è qualcos’altro che chiameremo campo. Continuare a parlare della dualità onda-corpuscolo è completamente fuorviante¹.

Consideriamo ora i decadimenti beta che consistono nella trasformazione (decadimento) di un neutrone in un protone, con l’emissione di un elettrone e di un neutrino. Il processo è ben descritto dalla teoria delle interazioni deboli. Si noti che neutroni e protoni si distinguono per la loro carica elettrica, alla quale l’interazione debole è cieca. Per essa, quindi, protoni e neutroni sono la stessa particella. Possiamo descrivere il processo come segue:

Il decadimento beta è un processo che consiste nell’emissione di un campo di elettroni e uno di neutrino da parte di una “corrente debole”.

La transizione tra un neutrone e un protone è un cambiamento di stato, come la transizione da i(0) a i(t) di una corrente è un cambiamento di stato della corrente. Il cambiamento di stato dev’essere accompagnato (per la conservazione dell’energia) dall’emissione di uno o più campi. Nell’immagine le linee rosse rappresentano un “campo di elettroni“, mentre quelle blu un “campo di neutrini“. Questi campi non sono campi vettoriali come i campi e.m. e, contrariamente a questi ultimi, non generano altri campi, per cui quando un campo di elettroni si propaga da x(0) a x(t) si trova in x(t) ma non in x(0).

Vediamo se le caratteristiche dei campi e le teorie di campo sopra elencate si applicano ai campi di elettroni e di neutrini. Li chiameremo collettivamente “campi fermionici”.

  1. La teoria quantistica dei campi è costituita di equazioni che permettono di prevedere lo stato di un campo fermionico, noto il suo stato a t=0. In particolare, l’equazione di Dirac descrive la propagazione di un campo libero, in modo simile a quanto fanno le equazioni di Maxwell per i campi e.m.
  2. La sorgente del campo fermionico è, nella teoria di cui sopra, la “corrente debole“. Lo stato dei campi fermionici si può prevedere dalla teoria, se conosciamo lo stato iniziale del neutrone e lo stato finale del protone, proprio come la teoria e.m. dà lo stato dei campi, conoscendo lo stato delle sorgenti in tempi diversi. Si noti che prevedere lo stato di un campo non significa prevedere dove si può trovare una particella, giacché in meccanica quantistica questo non ha senso (vedi episodio 1). Significa essere in grado di prevedere la distribuzione dell’energia dei campi fermionici.

Inoltre, i campi hanno le seguenti proprietà.

  1. I campi fermionici si propagano, chiaramente, nello spazio e nel tempo.
  2. Sono generati da una sorgente: in questo caso la sorgente è la corrente debole. È impossibile creare i campi dal vuoto: abbiamo bisogno di una sorgente. Così com’è impossibile creare un campo e.m. dal vuoto, senza una sorgente (una carica elettrica, sia essa a riposo o in movimento).
  3. I campi fermionici si creano e si distruggono: non preesistono nei nuclei radioattivi (come si pensava all’inizio del XX secolo). La creazione di un campo è un processo che rispetta tutti i principi di conservazione. Così come possono essere creati i campi possono essere distrutti (di nuovo, purché le quantità conservate siano conservate). In modo del tutto simile a quanto accade ai fotoni che possono essere creati da un’antenna e distrutti dall’effetto fotoelettrico.

Ma allora, cos’è un elettrone? Semplice: è un campo (carico, con massa). E un neutrino? Un campo (neutro). E un fotone? Un campo (neutro, senza massa). Perché dovremmo insistere a raffigurarceli come onde o particelle? Benintesi, possiamo farlo nella misura in cui trattiamo la luce con l’ottica geometrica o quella fisica: la scelta dipende dal problema da risolvere. A volte l’ottica geometrica è più semplice e vale la pena trattare la luce come un fascio di raggi, a volte non funziona e si usa la meccanica delle onde. È una mera decisione opportunistica.

Nella moderna meccanica quantistica tutto è un campo: i campi fermionici hanno spin semi-intero (lo spin è un numero quantico che si comporta come un momento angolare intrinseco); i campi bosonici, come i fotoni, hanno spin intero. Fotoni, elettroni e neutrini non sono né particelle, né onde: sono campi. Condividono tutti lo stesso comportamento attribuito a ciò che chiamiamo campo, quindi sono la stessa cosa.

L’interpretazione illustrata sopra può sembrare strana, soprattutto per le persone che sono state esposte a un formale corso di teorie quantistiche dei campi (QFT: Quantum Field Theory). Il modo in cui la QFT è insegnata oggi è molto diverso ed è divertente osservare come una reazione molto frequente da parte degli esperti è “bella la tua teoria, ma mi pare un po’ fantasiosa…non è proprio così che funziona…”, spesso accompagnata da un sorriso di leggero scherno. In realtà, il sorriso si spegne subito quando s’informa l’interlocutore che l’autore di una simile interpretazione non è il sottoscritto, bensì Enrico Fermi che nel suo articolo “Tentativo di una teoria dell’emissione dei raggi beta“² prende le mosse proprio dall’analogia l’emissione di onde e.m. da parte di una corrente e l’emissione di elettroni e neutrini da parte di quella che lui stesso battezza come una corrente debole. Oggi la definizione di corrente debole è effettivamente un po’ diversa e la maggior parte dei giovani fisici non sa nemmeno perché le chiamano “correnti”.


¹ A questo proposito suggerisco di leggere la trascrizione di una famosa lezione di Feynman (spesso usata impropriamente per impressionare la gente con la storia che è impossibile capire la MQ: in realtà, Feynman stava affermando proprio il contrario) in cui diceva “Se dico che [elettroni e fotoni] si comportano come particelle do l’impressione sbagliata; anche se dico che si comportano come onde. Si comportano in un modo tutto loro, che tecnicamente si potrebbe definire quantistico” (grazie a Peppe Liberti per aver fornito il link).

² LA RICERCA SCIENTIFICA, anno IV, vol. II, N. 12, 31 dicembre 1933

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 1: il concetto di stato


La meccanica quantistica è spesso insegnata come una “rivoluzione”, facendo leva sui suoi aspetti paradossali. In parte, ciò è dovuto al fatto che gli insegnanti (i libri) tendono a seguirne lo sviluppo storico (il che non sempre è una buona idea); in parte al presupposto, sbagliato, che questi aspetti la rendano più interessante. Il risultato è che la maggior parte delle persone (compresi molti “professionisti”) non credono davvero alla teoria e molti la considerano impossibile da capire (spesso citando a sproposito il prof. Feynman). In realtà, la meccanica quantistica non è così diversa dalla meccanica classica, a patto che si consideri quest’ultima per quello che è realmente. In questo e nei seguenti post cercherò di convincervi che in realtà la meccanica classica è molto più vicina alla meccanica quantistica di quanto crediate.


Il primo passo consiste nel riesaminare la meccanica classica in vista di un’introduzione alla meccanica quantistica. Questo episodio è dedicato a chiarire il concetto di “stato”. Negli episodi successivi tratteremo altri concetti, spesso trascurati, della fisica classica.

Il concetto di stato

Nella fisica classica non è infrequente imbattersi nel concetto di “stato”. In particolare, nella maggior parte dei libri di testo si trova che:

  1. lo stato di una particella puntiforme è dato quando la sua posizione e la sua velocità sono note;
  2. lo stato di un gas è dato dalla legge dei gas perfetti (detta anche equazione di stato dei gas) secondo la quale pV﹦nRT.

Cosa s’intende per “stato”? Cercarne la definizione in un libro di testo di fisica è una perdita di tempo: di fatto non sono riuscito a trovare un solo libro di testo in cui sia definito. Cerchiamo allora di trovare la sua definizione su un vocabolario. Il dizionario Treccani definisce uno stato come “Il modo di essere, temporaneo o permanente, di cosa o persona” (è interessante notare che una delle voci si riferisce diffusamente allo stato di un sistema fisico, in maniera anche piuttosto precisa ed esauriente, come del resto è costume dell’istituzione). In effetti, questo è il vero significato da dare a questa parola anche in fisica.

Quando vogliamo descrivere un sistema fisico (sia esso una particella puntiforme, un gas, un circuito o un solido), dobbiamo caratterizzarlo fornendo un insieme di grandezze (reciprocamente indipendenti) ottenute misurandole. Lo “stato” di un sistema è dato quando si fornisce un elenco completo di grandezze fisiche misurabili per esso. In altre parole, lo stato comprende tutte e solo quelle grandezze necessarie per caratterizzare completamente il sistema all’istante t in modo da poterne prevedere lo stato in un altro istante t’.

Per un gas ideale, ad esempio, lo stato è caratterizzato da quattro grandezze fisiche: la pressione, il volume, la temperatura e la quantità. Queste grandezze sono collegate fra loro per mezzo dell’equazione di stato, in modo tale che ne bastano solo tre per specificare lo stato di un gas. In linea di principio, potrebbero esserci altre grandezze misurabili d’interesse: il colore del gas, per esempio, potrebbe essere una delle variabili di stato. Tuttavia, fintanto che non c’interessano i cambiamenti di colore di un gas, la sua inclusione nello stato è inutile, analogamente a quanto accade per la massa in meccanica, laddove quest’ultima si consideri costante. Lo stato, quindi, comprende solo quantità “interessanti”, cioè quantità che si possono misurare e non dipendono l’una dall’altra. In sintesi, prendendo a prestito la notazione della meccanica quantistica, possiamo specificare lo stato di un gas ideale come |p, V, T 〉 oppure come |p, V, n〉 o qualsiasi altra combinazione di p, V, n o T.

In cinematica, si dice spesso che lo stato di una particella è dato quando se ne conoscano la posizione e la velocità. In effetti, in questo caso, lo stato dipende dalla scelta del sistema di riferimento in cui sono espresse le coordinate (si noti che quando si parla di gas si usa implicitamente un sistema di riferimento fermo rispetto al contenitore del gas). La fisica non può dipendere dalle nostre scelte, quindi ci dev’essere un modo per esprimere lo stato di un sistema indipendentemente da esso. Si può scegliere un sistema di riferimento “privilegiato” costituito dal sistema in cui la particella è a riposo per t=0. In questo caso lo stato è pienamente caratterizzato fornendo la velocità v, che tuttavia nel sistema in questione è nulla. Se la velocità della particella è costante, nel sistema di riferimento dato rimane nello stato|x=0, v=0〉, altrimenti il suo stato cambia.

Naturalmente potremmo argomentare in modo molti simile per vari sistemi (vedi anche la voce del dizionario Treccani sopra citato). Per esempio, lo stato di un condensatore può essere caratterizzato quando la carica Q e la differenza di potenziale ai suoi capi ΔV sono note. In questo caso, la definizione di capacità C=Q/ΔV gioca il ruolo dell’equazione di stato nella fisica dei gas. Si può fare l’utile esercizio d’identificare lo stato su ogni sistema fisico che si conosce.

Quindi, lo stato dipende dal sistema che ci interessa, non solo perché comprende solo quantità rilevanti per il problema specifico: secondo il sistema, l’elenco delle variabili potenzialmente interessanti cambia. Chiaramente, non possiamo caratterizzare lo stato di un gas utilizzando posizione e velocità: queste quantità semplicemente non hanno senso per un gas (hanno senso per i suoi costituenti, non per il gas come sistema — osserviamo, inoltre, che la teoria cinetica dei gas è una scoperta relativamente recente). Un gas può essere contenuto in un volume: possiamo identificare la posizione (di un punto) del contenitore, non del gas. Ha una certa temperatura: non si muove, quindi non ha velocità (i suoi consitituenti ce l’hanno, ma non sono un gas; sono particelle puntiformi). Va chiarito che qui ci riferiamo a un gas ideale in equilibrio. Quando facciamo la fisica di un gas che scorre in un tubo, la sua velocità ha senso (ma ha una definizione un po’ diversa) e infatti fa parte dello stato del fluido, essendo possibile prevederne il valore utilizzando l’equazione di Bernoulli e conoscendone lo stato a t=0.

Ora, a un certo punto si scopre, grazie al principio d’indeterminazione di Heisenberg, che lo stato di un elettrone in un atomo non può essere rappresentato dalle stesse variabili usate per una particella puntiforme. Semplicemente perché in questo caso la posizione e la velocità di un elettrone non hanno senso: non si possono misurare, quindi non possono far parte dello stato. Non esistono.

Di un elettrone in un atomo (un sistema quanto-meccanico) possiamo misurare la sua energia (ad es. con l’effetto fotoelettrico) e il suo momento angolare (dall’analisi degli spettri di assorbimento e di emissione). Quindi, sono l’energia e il momento angolare ad essere quantità significative per un tale sistema e sono loro a poter essere incluse nel suo stato. 

Per una particella subatomica libera come un muone (di nuovo un sistema quanto-meccanico), possiamo misurare posizione e velocità in determinate condizioni, quindi ha senso includerle nello stato. Una scelta migliore (il sistema è spesso relativistico) è quella di specificare lo stato cinematico del muone indicandone energia e quantità di moto. I muoni sono instabili e decadono (si trasformano) in un elettrone e due neutrini. Lo stato del sistema è dunque caratterizzato dal numero e dal tipo delle particelle in esso contenute (inizialmente è la massa del muone a identificarne lo stato). Dopo un certo tempo lo stato si è evoluto in modo tale che, per tempi sufficientemente lunghi, lo stato si trova composto di tre particelle: un elettrone e due neutrini, ognuna delle quali ha la sua energia e la sua quantità di moto.

In sintesi, il concetto di stato si pone tradizionalmente nella meccanica quantistica come un concetto centrale che la maggior parte delle persone ha difficoltà ad afferrare. In effetti, si tratta di un concetto piuttosto semplice, che esiste anche nella fisica classica, e le difficoltà sorgono solo perché il suo ruolo non è sufficientemente chiarito quando siamo esposti alla fisica classica. Se fossimo abituati a scrivere le leggi della fisica (classica) in termini di evoluzione di uno stato, non saremmo sorpresi quando passiamo a una descrizione completamente diversa, quanto-meccanica, di un elettrone in un atomo. In fondo, il modello di Bohr dell’atomo è sbagliato. Continuare ad insegnarlo è come continuare ad insegnare la teoria del “calorico”. È istruttivo menzionarla, ma nessuno di noi crede sia utile discuterne i dettagli. La fisica classica sta alla meccanica quantistica come la teoria cinetica sta alla termodinamica. Si tratta solo di cambiare il modo in cui descriviamo lo stato, a causa del fatto che le grandezze fisiche utilizzate nella fisica classica perdono di significato in certe condizioni (questo non è tipico della meccanica quantistica: anche nella fisica dei gas, posizione e velocità perdono il loro significato).


Nella prossima puntata parleremo di forze e di interazioni. Continuate a seguirci.