La bellezza salverà la fisica

Parafrasando la celebre massima di Dostoevskij (o forse, meglio, del suo “idiota”), in questo post discutiamo il ruolo della bellezza delle equazioni della fisica.


Sì, lo so. Non tutte le leggi della fisica sono belle e molti lettori potrebbero non essere d’accordo con una tale affermazione. Tuttavia, dubito che la maggior parte di coloro che mi seguono abbiano da ridire su questo, perciò assumerò che praticamente tutti la pensino così: le equazioni della fisica sono indubbiamente molto belle. Non è un caso che artisti come Andrea Galvani ne abbiano fatto uno strumento della propria poetica.

Andrea Galvani © The Subtleties of Elevated Things_ARCOmadrid 2019.jpg
Andrea Galvani: la sottigliezza delle cose elevate

Molti scienziati, in effetti, credono in quello che io chiamo “l’argomento della bellezza”, che ha portato il premio Nobel Richard Feynman ad affermare che

Non importa quanto sia bella la tua ipotesi; non importa quanto sei intelligente, o come ti chiami. Se la tua teoria non va d’accordo con i dati sperimentali… è sbagliata“.

L’argomento della bellezza consiste nel credere che la Natura debba essere descritta da equazioni “belle”. Sono portato a credere che una tale convinzione si debba far risalire a un’intervista rilasciata da Paul Dirac a Thomas Kuhn e Eugene Wigner in cui uno dei fondatori della meccanica quantistica dice

[L’idea dello spin] è scaturita effettivamente solo grazie alle manipolazioni delle equazioni che stavo studiando; non stavo cercando di introdurre idee fisicamente plausibili. Gran parte del mio lavoro del resto consiste nel lavorare con le equazioni per vedere cosa se ne può ricavare. La seconda quantizzazione, per esempio, è nata così. Non credo che questo abbia senso per gli altri fisici; penso sia una mia peculiarità il fatto che mi piace lavorare con le equazioni, soltanto alla ricerca di relazioni matematiche interessanti che magari non hanno alcun significato fisico. Succede, però, che a volte ce l’hanno“.

Inoltre, in un articolo scritto nel 1982 [Pretty mathematics. Int J Theor Phys 21, 603-605 (1982)], Dirac ha scritto

Una delle caratteristiche fondamentali della natura sembra essere che le leggi fisiche fondamentali sono descritte in termini di una teoria matematica di grande bellezza e potenza. Potremmo forse descrivere la situazione dicendo che Dio è un matematico sopraffino, cui è piaciuto usare una matematica molto avanzata nella costruzione dell’universo. A me sembra che se si lavora allo scopo di perseguire la bellezza nelle proprie equazioni, con una buona intuizione, si è di sicuro sulla buona strada“.

In effetti, la bellezza emerge semplicemente perché la matematica è un linguaggio molto flessibile per il quale un matematico esperto può inventare nuove parole e nuove regole grammaticali, tali che ciò che appariva brutto in una lingua diventi bello in un’altra. Uno degli esempi più sorprendenti è l’insieme delle equazioni di Maxwell. Le si può vedere nella loro forma originale in molte edizioni digitalizzate del “Trattato” come questa (pagg. 259-262/515). Dubito che riuscirete a individuarle… infatti le equazioni di Maxwell sono state riformulate nella forma che usiamo oggi da Oliver Heaviside che ha usato un nuovo linguaggio con una nuova sintassi per riscriverle in una forma che sembra decisamente più bella.

La bellezza, tuttavia, in matematica non è fine a sé stessa e il suo perseguimento un ruolo ce l’ha eccome. Serve a far emergere più chiaramente il significato delle equazioni e a semplificare la derivazione di nuovi risultati dalle loro manipolazioni. Spesso, una forma più sintetica, getta molta più luce su un argomento rispetto a una forma più pletorica. Potremmo in effetti paragonare una bella equazione matematica a una poesia, mentre una forma più esplicita della stessa equazione si potrebbe paragonare alla prosa.

Considerate, per esempio, questo celebre passo:

Quel ramo del lago di Como, che volge a mezzogiorno, tra due catene non interrotte di monti, tutto a seni e a golfi, a seconda dello sporgere e del rientrare di quelli, vien, quasi a un tratto, a ristringersi, e a prender corso e figura di fiume, tra un promontorio a destra, e un’ampia costiera dall’altra parte; e il ponte, che ivi congiunge le due rive, par che renda ancor più sensibile all’occhio questa trasformazione, e segni il punto in cui il lago cessa, e l’Adda rincomincia, per ripigliar poi nome di lago dove le rive, allontanandosi di nuovo, lascian l’acqua distendersi e rallentarsi in nuovi golfi e in nuovi seni

Pare quasi di vederlo, il lago, con le sue montagne che vi si tuffano dentro disegnando una costa sinuosa e quasi sensuale. Ma confrontiamo questa sia pur magistrale scena con quella descritta da un haiku giapponese di Yosa Buson, un poeta del 1700:

Che luna! il ladro si ferma per cantare

In queste poche sillabe si vede molto più della luna: si vede in realtà tutta la scena, con il ladro nell’oscurità che guarda con ammirazione la luna; si vedono le stelle, la vegetazione, e tutto il resto. Ma non solo. Si possono perfino quasi sentire gli odori, udire gli animali notturni, percepire il freddo e l’umidità, la paura del ladro di essere scoperto.

Nella scienza, come nelle arti (un argomento simile si applica ai dipinti: vedi il quadro di Mark Rothko riportato sotto), la semplificazione consiste nella sottrazione di quanto non è necessario per trasmettere quanto più contenuto possibile. Il risultato di questo lavoro è spesso più complesso del prodotto iniziale, pur apparendo più chiaro e denso di significato. Di conseguenza, il risultato finale è più adatto a suggerire nuove interpretazioni e ulteriori sviluppi.

Mark Rothko’s no. 14: foto di Naotame Murayama su Flickr

Ecco perché le equazioni fisiche sono belle: spesso i fisici seguono inconsciamente questa regola, ma di fatto lo fanno. La capacità di apprezzare la bellezza è qualcosa che dovremmo insegnare a tutti i nostri studenti che non meritano di essere formati solo dal punto di vista puramente tecnico. Sogno (e forse quest’anno mi riuscirà) di poter integrare le mie lezioni di fisica con il punto di vista di un artista, mentre, dall’altro lato, studenti di arte visitano una galleria o un museo accompagnati da uno scienziato che fa loro da guida e interpreta, a suo modo, le opere esposte.

La seconda Legge di Newton

Del perché è sbagliato scriverla come F=ma

La maggior parte dei libri di testo riporta la seconda legge di Newton come F=ma (le lettere in grassetto rappresentano i vettori). In questo post sostengo che questo non è il modo corretto di scriverla.


La maggior parte degli studenti percepisce la fisica come una disciplina molto simile alla matematica. È colpa dei libri di testo che, infatti, insegnano la fisica nello stesso modo in cui insegnano la matematica: attraverso l’enunciazione di assiomi (le leggi fisiche), seguita da una serie di dimostrazioni di teoremi e manipolazioni matematiche. Le leggi fisiche appaiono come assiomi perché spesso non sono giustificate da alcuna evidenza sperimentale. Per la maggior parte di esse si dice che “si può dimostrare che…” o che “Newton osservò che…” o anche “Faraday scoprì che…”. Raramente c’è un’analisi dettagliata delle prove sperimentali che porta lo studioso a formulare le leggi fisiche e, per chi non è abituato a lavorare secondo il metodo scientifico, tali leggi appaiono tanto arbitrarie quanto ineludibili, come il Teorema di Pitagora.

In effetti, questa maniera d’insegnare la fisica viene da lontano. Lo stesso Newton introduce la seconda legge in un capitolo intitolato “Axiomata sive leges motus” (Assiomi o leggi del moto).

In realtà, le leggi fisiche non sono affatto equazioni, per lo meno per come le intende un matematico. In matematica un’equazione è un’affermazione sulla completa equivalenza tra i due membri. La quantità rappresentata a sinistra del segno uguale è (deve essere) uguale (esattamente uguale) a quella a destra del segno. Di conseguenza, si può manipolare l’equazione spostando pezzi da sinistra a destra e viceversa (il che corrisponde a sommare o sottrarre la stessa quantità su entrambi i lati) o scambiandoli tra il numeratore e il denominatore di una frazione (il che equivale a moltiplicare o dividere entrambi i membri per la stessa quantità), seguendo le ben note “regole” dell’algebra.

In matematica F=ma è completamente equivalente ad a=F/m o a m=F/a (d’ora in poi, senza perdita di generalità, passiamo a una versione unidimensionale della Legge di Newton).

Scritta in questo modo l’equazione dice che l’accelerazione di un corpo (a sinistra del segno uguale) si può calcolare come (dipende da) la forza F applicata divisa per la sua massa m. La forma F=ma, invece, si può leggere come se la forza F dipendesse dalla massa e dall’accelerazione del corpo, oppure, peggio, come se F fosse definita come il prodotto di m e a. Le due forme non sono dunque per niente equivalenti, in fisica. D’altra parte, matematicamente anche m=F/a è corretta, ma nessuno si azzarda a scrivere questa legge in questo modo.

Naturalmente, una volta stabilito che l’accelerazione di un corpo dipende dal rapporto tra queste due grandezze, il valore numerico dell’accelerazione, così come è stato ottenuto in seguito a una misura, dev’essere uguale all’intensità della forza, misurata con un dinamometro, divisa per la massa del corpo ottenuta con una bilancia. Interpretate come relazioni tra misure, F=ma e m=F/a sono entrambe perfettamente coerenti: rappresentano l’equivalenza tra i corrispondenti valori misurati.

Tuttavia, anche in questo caso occorre fare attenzione. Infatti, le misure sono sempre affette da incertezze, quindi l’equivalenza è valida solo in media. I numeri effettivamente ottenuti possono non essere uguali, tuttavia l’equazione resta valida. Quando si risolve un esercizio, gli studenti trovano sempre valori “esatti”. Se devono approssimare il risultato, lo fanno solo perché è spesso impossibile scriverlo con precisione. In realtà, i risultati sono approssimati per definizione. Al contrario, quando si fanno misurazioni nelle attività di laboratorio, gli studenti cercano affannosamente (anche con modi poco leciti) di ottenere esattamente le quantità previste: non perché non capiscano che le misure possono fluttuare, ma perché sono abituati a risolvere esercizi il cui risultato è corretto solo se corrisponde esattamente alla soluzione stampata sul libro.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 5: il collasso della funzione d’onda

La funzione d’onda fu introdotta nei primi anni dello sviluppo della meccanica quantistica come soluzione dell’equazione di Schrödinger. I fisici hanno faticato un po’ a trovarne il significato, ma alla fine hanno accettato di interpretarla come l’ampiezza di probabilità di trovare una particella a una data coordinata.

I problemi sorgono quando la funzione d’onda collassa: secondo la meccanica quantistica, un sistema può essere in una sovrapposizione di stati, cioè la sua funzione d’onda può essere la somma di più di uno stato fisicamente osservabile. Si scopre che, ogni volta che misuriamo lo stato di un tale sistema, solo uno degli stati della sovrapposizione si manifesta, mentre l’altro scompare. Tale processo si chiama “collasso della funzione d’onda” e dà luogo a problemi di interpretazione non banali (uno dei grattacapi cui ha dato origine è il cosiddetto entanglement quantistico).


In breve, possiamo descrivere il collasso di una funzione d’onda nel modo seguente: si consideri un elettrone in un atomo. Come abbiamo visto nei post precedenti, non ha senso parlare della posizione dell’elettrone nella meccanica quantistica a certe scale, quindi l’elettrone dev’essere descritto come una sorta di nuvola distribuita intorno al nucleo. La maggior parte delle persone è tentata d’interpretare questa nuvola come una nuvola di probabilità, seguendo l’interpretazione originale della funzione d’onda: in sostanza, le persone credono che l’elettrone sia in realtà puntiforme e che SIA in qualche luogo, anche se noi non lo sappiamo ed è la nostra ignoranza a riflettersi nella descrizione di cui sopra. In realtà, quest’interpretazione è sbagliata: un elettrone È in realtà un oggetto distribuito. Se così non fosse, non potremmo spiegare fenomeni come la diffrazione degli elettroni.

Anche quando le persone accettano questo modo di pensare (cioè che un elettrone è un oggetto distribuito), tendono a visualizzare tale oggetto come immaginano una normale nuvola nel cielo: più forse come a una sorta di atmosfera (enormemente estesa) attorno a un pianeta oppure a un oceano che copre il 100% della sua superficie (in questo caso dovremmo immaginare un pianeta davvero minuscolo sommerso da un enorme oceano la cui profondità è centinaia di volte il raggio del pianeta).

Benché questo sia certamente un modo più corretto d’immaginare un elettrone attorno al nucleo, anche in questo caso rischiamo d’immaginarlo nel modo sbagliato. Sappiamo tutti che una nuvola è composta da minuscole gocce d’acqua sospese nell’aria, mentre un oceano è certamente composto da molecole d’acqua, ognuna con la sua individualità. In altre parole, questi oggetti sono discreti e composti di parti.

Gli elettroni no, non sono fatti di parti: l’elettrone È la nuvola; NON è composto da pezzi più piccoli risolvibili come le gocce che formano una nuvola.

Quando cerchiamo di localizzare una particella descritta da una funzione d’onda, accade che di fatto si manifesta in un punto nello spazio, anche se la sua funzione d’onda è distribuita su un ampio intervallo di coordinate. È il caso della diffrazione degli elettroni in un esperimento di doppia fenditura. La funzione d’onda degli elettroni è più ampia della distanza tra le fenditure e interferisce con sé stessa nell’attraversarle. Chiaramente l’elettrone (singolo) passa attraverso entrambe le fenditure allo stesso tempo. D’altra parte, se cerchiamo di rivelare l’elettrone che passa attraverso una sola delle due fenditure (cioè lo costringiamo a interagire con qualcos’altro), possiamo osservare soltanto un elettrone che passa attraverso una sola di esse e non si forma più la figura di diffrazione. Prima d’interagire con lo strumento l’elettrone si trova in una sovrapposizione di stati │e〉=a│D〉+b│S〉, dove │D〉 rappresenta un elettrone che passa attraverso la fessura destra e │S〉 un elettrone che passa attraverso quella sinistra. a e b sono costanti tali che a²+b²=1. Quando il sistema interagisce con un rivelatore posto sulla fessura destra, solo │D〉 sopravvive e la funzione d’onda collassa in un processo che istantaneamente trasforma│e〉 in │D〉.

Un tale processo è visto con sospetto dalla maggior parte delle persone e considerato (probabilmente giustamente) difficile da capire. È interessante osservare che, tuttavia, un decadimento beta, in cui un neutrone scompare istantaneamente per far posto a un protone, un elettrone e un neutrino creati dal vuoto, non turba le menti nello stesso modo. In realtà, entrambi i processi sono piuttosto simili tra loro: qualcosa scompare mentre qualcos’altro appare come risultato di un’interazione. Possiamo pensare al collasso della funzione d’onda come a un processo in cui il campo di elettroni viene distrutto dall’interazione con lo schermo con le fenditure mentre, sul lato opposto, un nuovo campo di elettroni è creato e irradiato da entrambe le fessure o solo dalla fessura destra.

Il collasso ci sembra strano perché la nostra mente tende a interpretare la funzione d’onda proprio come una nuvola: composta di parti. Perché il collasso avvenga, in questo modello, le parti di cui è fatta la nuvola devono correre verso la giusta fenditura e concentrarsi in un punto ricostituendo la natura puntiforme dell’elettrone che ci piace tanto. Evidentemente una tale “corsa” richiede un certo tempo per accadere e questo è in contrasto con le osservazioni secondo le quali il collasso è istantaneo.

Proviamo però a metterci nei panni di qualcuno che non ha mai studiato fisica o che sia vissuto prima che Fizeau misurasse la velocità della luce e immaginiamo di trovarci in una grande stanza senza finestre. Se accendiamo la luce vediamo che la stanza si riempie istantaneamente di luce. Oggi sappiamo che non è così, ma non ci sorprenderebbe più di tanto sapere che la luce appare istantaneamente in ogni punto della stanza nello stesso momento se la sua velocità fosse infinita come si credeva fino a qualche secolo fa. In fondo, un tale modello, sembra persino più ragionevole rispetto a quel che ci racconta la relatività speciale. Immaginando che la luce appaia immediatamente e contemporaneamente in tutti i punti di una stanza, dovremmo provare a pensare a un elettrone come a qualcosa distribuito su un volume che appare istantaneamente in tutti i punti dello spazio nel momento nella sua creazione (produzione). Allo stesso modo, quando si distrugge, un elettrone scompare istantaneamente da ogni parte. Se ci si pensa un po’ ci si può facilmente convincere che non è poi così strano. Il processo è simile a quel che ci s’immaginava facesse la luce quando si era bambini, prima di sapere come si propaga.

Personalmente considero ormai obsoleto il concetto di funzione d’onda e il suo collasso. Preferisco pensare in termini di campi, che non sono né particelle, né onde, ma qualcosa che si estende su volumi (potenzialmente anche molto grandi) e che può manifestarsi istantaneamente e allo stesso tempo (come, d’altra parte, i campi classici erano stati immaginati prima di Maxwell)¹. Così come si possono creare istantaneamente in un grande volume, i campi si possono anche distruggere. L’interazione con qualcosa consiste nella distruzione del campo incidente e nella creazione di un nuovo campo. Il campo emergente può essere distribuito come una figura di diffrazione o concentrato vicino a una delle fenditure, secondo l’interazione, così come, nella fisica classica, la traiettoria di un corpo che cade dipende dalle circostanze: per esempio, se l’oggetto è posto su un piano inclinato scivola seguendo una traiettoria obliqua; se no cade verticalmente.

La MQ non è deterministica: i risultati di un esperimento sono casuali e seguono una distribuzione. Le leggi della fisica possono solo prevedere la forma di queste distribuzioni, non quale dei possibili eventi si realizzerà. Anche questo non è poi così diverso da quanto avviene nella meccanica classica. Se si lancia un dado, con la meccanica classica non sappiamo prevedere esattamente che punteggio si otterrà (in linea di principio si può, ma in pratica è impossibile). L’unica differenza rispetto alla meccanica classica è che nella MQ la previsione del punteggio è impossibile anche solo in linea di principio: questa cosa, a mio modesto avviso, è persino più rassicurante rispetto a quanto previsto dalla meccanica classica. Se questa fosse vera, il destino di tutto l’Universo, comprese le nostre storie, sarebbe già scritto dall’inizio dei tempi.


¹ Va detto che la propagazione del campo avviene secondo quanto previsto dalla relatività e la relatività della simultaneità non è violata da questo.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 4: la fisica quantistica dei campi

La dualità onda-corpuscolo è, a mio parere, il concetto più sbagliato introdotto con la meccanica quantistica, nonostante sia molto diffuso. È del tutto normale che nella scienza si formulino concetti che, alla fine, si rivelano fallaci. È però sbagliato continuare ad usarli inutilmente. La dualità fu introdotta all’inizio dello sviluppo della MQ per spiegare fenomeni nuovi utilizzando categorie del secolo precedente. Oggi la nostra visione del mondo è cambiata e non c’è bisogno di insistere nel proporre spiegazioni vecchio stile. D’altra parte, nessuno di noi oggi insiste nel cercare di spiegare la relatività supponendo l’esistenza di un etere.

In questo post cerchiamo di descrivere al meglio la natura di un elettrone.


Nell’articolo precedente abbiamo mostrato che un fascio di elettroni si può naturalmente interpretare come composto di un’onda che si propaga nello spazio e nel tempo. L’onda deve avere una certa carica elettrica, essendo soggetta alla forza di Lorentz. Tuttavia, qual è la natura di una tale onda? E cosa significa per un’onda essere caricata elettricamente?

Secondo la teoria ormai consolidata, la luce si propaga come un’onda elettromagnetica, quest’ultima essendo una successione di campi elettrici e magnetici, come descritto dalle equazioni di Maxwell. Vale la pena ricordare che, prima delle opere di Maxwell e di Einstein, i fisici sapevano già che la luce era un’onda, ma poiché erano abituati a vedere le onde propagarsi nei mezzi, supponevano (erroneamente) che dovesse esistere un mezzo attraverso il quale la luce dovesse essere in grado di propagarsi. Solo in seguito fu chiaro che la luce poteva propagarsi nel vuoto perché il campo elettromagnetico si propaga nel vuoto; e solo con la relatività speciale di Einstein fu chiaro che non era necessario alcun mezzo per rendere conto della sua propagazione a velocità costante. Le onde, quindi, hanno perso la loro natura “classica” di perturbazioni che si propagano nei mezzi: le onde possono essere “composte di” campi (e non propagarsi attraverso essi). Il campo e.m. è neutro perché la sua propagazione non è influenzata dalla presenza di altri campi e.m. (i campi possono interferire, ma il modo di propagarsi di un campo è indipendente dagli altri).

Come nel caso della definizione dello stato, è abbastanza difficile trovare una definizione di campo nei libri di fisica. Molti di essi non lo definiscono affatto: si limitano a fornire un elenco (spesso incompleto) delle sue caratteristiche. Il concetto di campo è solitamente introdotto nell’elettrostatica e si dice che è generato dalle cariche ed è definito come la forza per unità di carica esercitata dalla sua sorgente. Una tale definizione, si converrà, non implica alcun “contenuto” fisico per quest’entità: non implica affatto che il campo esista indipendentemente dalla forza di Coulomb. Si tratta solo di una definizione matematica (neanche operativa, perché non è così che si misura il campo).

Comunque la fisica non è matematica, e una definizione precisa, formale, delle grandezze fisiche è sì spesso difficile, ma, del resto, anche inutile in molti casi. Ciò che è importante, per definire una grandezza fisica, è poterla misurare e identificarne le proprietà. Analizziamo quindi una teoria di campo.

  1. Una teoria di campo (come l’elettromagnetismo) è una formulazione matematica della dinamica dei campi. Dato lo stato di un campo al tempo t=0, la teoria ce lo fornisce in qualsiasi altro istante t≠0. Il campo elettrico in un’onda e.m., per esempio, è descritto da E(t,x)=Acos(⍵t+kx+φ).
  2. Dato lo stato delle sorgenti, la teoria permette il calcolo del campo da esse generato. Ad esempio, la teoria di Maxwell permette di calcolare il campo magnetico prodotto da una corrente e il campo elettrico prodotto da un piano uniformemente carico.

Elenchiamo ora le proprietà rilevanti di un campo (quelle che le rendono diverse dalle particelle).

  1. I campi si propagano nello spazio e nel tempo.
  2. I campi sono generati dalle sorgenti. Non esistono né prima né all’interno di essi.
  3. A differenza della “materia” i campi possono si possono creare o distruggere.

Secondo le equazioni di Maxwell, le onde elettromagnetiche sono una successione di campi elettrici e magnetici: una corrente variabile che scorre in un conduttore genera un campo magnetico variabile che a sua volta genera un campo elettrico variabile che genera un campo magnetico e così via, come mostrato di seguito.

Un’onda e.m. è una successione di campi elettrici e magnetici che si propagano

A un certo punto si scopre che la luce può dare origine a fenomeni che si possono spiegare solo ammettendo che sia composta da particelle chiamate fotoni: l’effetto fotoelettrico, l’effetto Compton e la radiazione di un corpo nero si spiegano solo attribuendo una natura corpuscolare alla luce. Chiaramente i due modelli (quello corpuscolare e quello ondulatorio) sono incompatibili.

D’altra parte, un’onda e.m. emessa da un’antenna (un filo in cui scorre una corrente alternata) si può interpretare come un flusso di fotoni irradiati dalla corrente in tutte le direzioni perpendicolari al filo. Mettendo un rivelatore vicino all’antenna possiamo misurare un campo elettrico o magnetico. Tuttavia, se la frequenza dell’onda e.m. è sufficientemente grande, possiamo osservare l’effetto fotoelettrico, che interpretiamo come la collisione di un fotone con un elettrone atomico. I fotoni, come i campi e.m., sono dunque prodotti anch’essi dalla corrente. È utile osservare che le proprietà dei campi e di una teoria di campo, che abbiamo elencato sopra, valgono anche per i fotoni: basta sostituire la parola “fotone” con “campo”. Di conseguenza, un fotone È un campo, qualunque cosa questo significhi (rimandiamo la discussione su cosa questo significhi esattamente a un post successivo: la vita è dura).

Qualunque cosa significhi, quest’osservazione ci fa capire che la luce non è né una particella un’onda: è qualcos’altro che chiameremo campo. Continuare a parlare della dualità onda-corpuscolo è completamente fuorviante¹.

Consideriamo ora i decadimenti beta che consistono nella trasformazione (decadimento) di un neutrone in un protone, con l’emissione di un elettrone e di un neutrino. Il processo è ben descritto dalla teoria delle interazioni deboli. Si noti che neutroni e protoni si distinguono per la loro carica elettrica, alla quale l’interazione debole è cieca. Per essa, quindi, protoni e neutroni sono la stessa particella. Possiamo descrivere il processo come segue:

Il decadimento beta è un processo che consiste nell’emissione di un campo di elettroni e uno di neutrino da parte di una “corrente debole”.

La transizione tra un neutrone e un protone è un cambiamento di stato, come la transizione da i(0) a i(t) di una corrente è un cambiamento di stato della corrente. Il cambiamento di stato dev’essere accompagnato (per la conservazione dell’energia) dall’emissione di uno o più campi. Nell’immagine le linee rosse rappresentano un “campo di elettroni“, mentre quelle blu un “campo di neutrini“. Questi campi non sono campi vettoriali come i campi e.m. e, contrariamente a questi ultimi, non generano altri campi, per cui quando un campo di elettroni si propaga da x(0) a x(t) si trova in x(t) ma non in x(0).

Vediamo se le caratteristiche dei campi e le teorie di campo sopra elencate si applicano ai campi di elettroni e di neutrini. Li chiameremo collettivamente “campi fermionici”.

  1. La teoria quantistica dei campi è costituita di equazioni che permettono di prevedere lo stato di un campo fermionico, noto il suo stato a t=0. In particolare, l’equazione di Dirac descrive la propagazione di un campo libero, in modo simile a quanto fanno le equazioni di Maxwell per i campi e.m.
  2. La sorgente del campo fermionico è, nella teoria di cui sopra, la “corrente debole“. Lo stato dei campi fermionici si può prevedere dalla teoria, se conosciamo lo stato iniziale del neutrone e lo stato finale del protone, proprio come la teoria e.m. dà lo stato dei campi, conoscendo lo stato delle sorgenti in tempi diversi. Si noti che prevedere lo stato di un campo non significa prevedere dove si può trovare una particella, giacché in meccanica quantistica questo non ha senso (vedi episodio 1). Significa essere in grado di prevedere la distribuzione dell’energia dei campi fermionici.

Inoltre, i campi hanno le seguenti proprietà.

  1. I campi fermionici si propagano, chiaramente, nello spazio e nel tempo.
  2. Sono generati da una sorgente: in questo caso la sorgente è la corrente debole. È impossibile creare i campi dal vuoto: abbiamo bisogno di una sorgente. Così com’è impossibile creare un campo e.m. dal vuoto, senza una sorgente (una carica elettrica, sia essa a riposo o in movimento).
  3. I campi fermionici si creano e si distruggono: non preesistono nei nuclei radioattivi (come si pensava all’inizio del XX secolo). La creazione di un campo è un processo che rispetta tutti i principi di conservazione. Così come possono essere creati i campi possono essere distrutti (di nuovo, purché le quantità conservate siano conservate). In modo del tutto simile a quanto accade ai fotoni che possono essere creati da un’antenna e distrutti dall’effetto fotoelettrico.

Ma allora, cos’è un elettrone? Semplice: è un campo (carico, con massa). E un neutrino? Un campo (neutro). E un fotone? Un campo (neutro, senza massa). Perché dovremmo insistere a raffigurarceli come onde o particelle? Benintesi, possiamo farlo nella misura in cui trattiamo la luce con l’ottica geometrica o quella fisica: la scelta dipende dal problema da risolvere. A volte l’ottica geometrica è più semplice e vale la pena trattare la luce come un fascio di raggi, a volte non funziona e si usa la meccanica delle onde. È una mera decisione opportunistica.

Nella moderna meccanica quantistica tutto è un campo: i campi fermionici hanno spin semi-intero (lo spin è un numero quantico che si comporta come un momento angolare intrinseco); i campi bosonici, come i fotoni, hanno spin intero. Fotoni, elettroni e neutrini non sono né particelle, né onde: sono campi. Condividono tutti lo stesso comportamento attribuito a ciò che chiamiamo campo, quindi sono la stessa cosa.

L’interpretazione illustrata sopra può sembrare strana, soprattutto per le persone che sono state esposte a un formale corso di teorie quantistiche dei campi (QFT: Quantum Field Theory). Il modo in cui la QFT è insegnata oggi è molto diverso ed è divertente osservare come una reazione molto frequente da parte degli esperti è “bella la tua teoria, ma mi pare un po’ fantasiosa…non è proprio così che funziona…”, spesso accompagnata da un sorriso di leggero scherno. In realtà, il sorriso si spegne subito quando s’informa l’interlocutore che l’autore di una simile interpretazione non è il sottoscritto, bensì Enrico Fermi che nel suo articolo “Tentativo di una teoria dell’emissione dei raggi beta“² prende le mosse proprio dall’analogia l’emissione di onde e.m. da parte di una corrente e l’emissione di elettroni e neutrini da parte di quella che lui stesso battezza come una corrente debole. Oggi la definizione di corrente debole è effettivamente un po’ diversa e la maggior parte dei giovani fisici non sa nemmeno perché le chiamano “correnti”.


¹ A questo proposito suggerisco di leggere la trascrizione di una famosa lezione di Feynman (spesso usata impropriamente per impressionare la gente con la storia che è impossibile capire la MQ: in realtà, Feynman stava affermando proprio il contrario) in cui diceva “Se dico che [elettroni e fotoni] si comportano come particelle do l’impressione sbagliata; anche se dico che si comportano come onde. Si comportano in un modo tutto loro, che tecnicamente si potrebbe definire quantistico” (grazie a Peppe Liberti per aver fornito il link).

² LA RICERCA SCIENTIFICA, anno IV, vol. II, N. 12, 31 dicembre 1933

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 3: la natura dei fasci di elettroni

Probabilmente il concetto più difficile della meccanica quantistica è la dualità onda-particella. Secondo la maggior parte dei libri di testo, la luce ha una duplice natura: è (si comporta come) una particella in determinate circostanze e (come) un’onda in altre condizioni. Allo stesso modo, gli elettroni sono particelle e onde allo stesso tempo. A nostro parere questa interpretazione è sbagliata ed è solo una conseguenza del modo di pensare dei fisici del passato.

In questo post cerchiamo di fornire una risposta alla domanda: di cosa è fatto un fascio di elettroni?


La maggior parte dei libri di testo riporta che gli elettroni sono minuscole particelle che orbitano intorno a un nucleo a carica positiva, il cui movimento nei conduttori è responsabile della corrente elettrica. Questo quadro è abbastanza facile da accettare e la maggior parte dei lettori non si chiede come facciamo a saperlo. Qualche scienziato ha forse osservato minuscole palline che si muovono nei conduttori quando ai loro capi è applicata una tensione? La risposta è “NO”. Tale descrizione deriva dall’interpretazione di una serie di esperimenti durante i quali nessuno ha osservato un elettrone puntiforme, se non altro perché sarebbe stato impossibile osservarlo, essendo il suo raggio più piccolo della lunghezza d’onda della luce con cui avremmo dovuto illuminarlo per vederlo¹.

Per capire cos’è un elettrone, facciamo un esperimento: puntiamo un puntatore laser su un muro e premiamo il pulsante. Quello che vedrete è solo un punto luminoso sulla parete. Se volete vedere il raggio di luce dovete soffiare un po’ di fumo lungo il suo percorso. In questo caso si può vedere chiaramente un raggio luminoso rettilineo che lascia il puntatore laser e colpisce la parete.

La luce del fascio si vede solo con il fumo, perché la luce laser va dritta verso il muro e non può raggiungere l’occhio: per questo non si vede. Quando si soffia il fumo nella regione attraversata dalla luce, una parte di essa interagisce con le particelle di fumo e ne è deviata, in parte, verso gli occhi. La luce che vedete non è quella rivolta verso il muro: è la luce che è stata deviata dalla sua traiettoria interagendo con il fumo.

Se ci pensate un attimo, anche quando si guardano studenti e studentesse in una classe, non li si vede: si vede la luce dell’ambiente diffusa dalla loro superficie che raggiunge i nostri occhi. Se non ne siete convinti, basta spegnere la luce e chiudere le tapparelle, in modo che l’aula sia al buio. Riuscite ancora a vedere qualcuno? No, credo di no. Tuttavia, direste che gli studenti non sono lì solo perché non li vedete?

Lezione n. 1: quando vediamo qualcosa, non facciamo altro che un esperimento di diffusione usando la luce come proiettile; la luce è deviata dagli oggetti verso i nostri occhi e il nostro cervello costruisce un’immagine a partire dalla distribuzione della luce che colpisce la rètina. L’immagine, in fondo, non è che una mappa della posizione degli ostacoli.

Ripetendo l’esperimento mettendo un reticolo di diffrazione lungo il fascio di luce mostra la natura ondulatoria della luce: a valle del reticolo appare una figura d’interferenza. L’esperimento della doppia fenditura di Young è di solito considerato la dimostrazione della natura ondulatoria della luce.

Ripetiamo ora l’esperimento usando un fascio di elettroni invece di un fascio di luce. Un fascio di elettroni si ottiene riscaldando un filo all’interno di un condensatore ad alta tensione. L’alta tensione accelera le particelle elettricamente cariche, come nei tubi a raggi catodici, il cui schema è rappresentato qui di seguito.

Guardando all’interno del tubo non si vede nulla, come nel caso del raggio laser puntato sulla parete. Tuttavia, quando il raggio colpisce lo schermo fluorescente, la sua interazione con esso produce uno spot luminoso verde chiaramente visibile. Stiamo vedendo gli elettroni? Sì! Se vediamo gli studenti in un’aula osservando la luce proveniente da loro, allora vediamo gli elettroni osservando la luce proveniente dal punto in cui si trovano. Come possiamo dire che quello che stiamo guardando sono elettroni e non luce? La risposta è semplice: il raggio si può deviare con un campo magnetico. Variando l’intensità e la direzione del campo, il punto luminoso sullo schermo fluorescente si muove per effetto della forza di Lorentz. Quindi, il fascio dev’essere elettricamente carico. Questo esperimento ci dice che il fascio è fatto di particelle? Niente affatto!

Lezione n. 2: un fascio di elettroni assomiglia in tutto e per tutto a un fascio di luce. L’unica differenza è che il fascio di elettroni è elettricamente carico, perché è deviato da un campo magnetico.

Possiamo quindi eseguire un esperimento simile a quello fatto con la luce e il fumo. Riempiendo il tubo con un po’ di gas possiamo infatti vedere il fascio. Ciò che possiamo vedere, in effetti, è la luce diffusa dagli atomi del gas colpiti dal fascio di elettroni. Qui di seguito mostriamo l’immagine di un tubo catodico riempito di azoto posto in un campo magnetico uniforme.

Infine, possiamo mettere un reticolo di diffrazione lungo il percorso del fascio. In questo caso dobbiamo utilizzare un reticolo con una spaziatura tra le fenditure estremamente bassa ottenibile utilizzando, ad esempio, un cristallo di grafite. Il punto luminoso al centro dello schermo fluorescente diventa una figura di diffrazione come la seguente:

La distanza tra le frange cambia con l’energia del fascio. Dobbiamo quindi concludere che il fascio di elettroni è costituito di onde emesse dal catodo, che viaggiano all’interno del tubo. Se lo facciamo con la luce perché non con un fascio di elettroni? Le onde, in questo caso, sono elettricamente cariche (il che significa che le onde non viaggiano necessariamente lungo linee rette) e interagiscono con alcuni materiali causando l’emissione di luce.

Lezione n. 3: un fascio di elettroni si propaga come un’onda, dando origine a fenomeni di diffrazione.

D’altra parte, i microscopi elettronici utilizzano fasci di elettroni così come i microscopi ottici utilizzano la luce, e possiamo focalizzare un fascio di elettroni utilizzando le cosiddette lenti elettrostatiche, così come possiamo focalizzare un fascio di luce utilizzando una lente convergente.

L’elettromagnetismo c’insegna che la luce è fatta di campi elettromagnetici che si propagano come un’onda. Quindi, la conclusione più naturale degli esperimenti sopra citati è che un fascio di elettroni è costituito di un campo carico che si propaga come un’onda.


Questo post serve per convincervi che gli elettroni si possono considerare naturalmente come onde, senza scomodare la meccanica quantistica. Il prossimo post sarà dedicato a chiarire cosa s’intende per “campo carico” e a discuterne la natura particellare.


1J. Perrin avrebbe detto: “gli elettroni non si possono vedere, ma si possono contare: perciò esistono”. Al fine di superare la diffidenza nei confronti della meccanica quantistica, suggerisco anche la lettura della sua Nobel Lecture, per capire come pensavano i fisici all’inizio del 1900.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 2: forze e interazioni


Questo è il secondo post di una serie in cui invito a un drastico, ma graduale, cambiamento nel modo in cui insegniamo sia la meccanica quantistica che quella classica. L’idea è che continuare ad insegnare la meccanica quantistica come una totale rivoluzione della fisica sia controproducente e, di fatto, trasmette il messaggio, sbagliato, che la meccanica quantistica sia difficile da capire. In realtà, i fisici capiscono la meccanica quantistica molto meglio di quella classica: infatti, gli esperimenti di meccanica quantistica forniscono risultati coerenti con la teoria con incertezze ordini di grandezza migliori di quelle della fisica classica.

Questo numero è dedicato a rivedere il concetto di forza, spesso confuso con quello di interazione.


Le forze newtoniane

Qualsiasi libro di fisica parla di forze, che giocano un ruolo centrale nella meccanica classica. Tuttavia, si tende spesso ad abusarne, come chiariamo qui di seguito.

Le forze s’introducono con la meccanica newtoniana, attraverso la seconda Legge di Newton, spesso scritta come F=ma. In un post successivo parlerò anche di questa espressione (inutile dire che sono contrario a questo modo di scriverla), ma per il momento prendiamola come corretta. Per definizione, le forze sono vettori: sono caratterizzate da modulo, direzione e verso. Il motivo è che l’accelerazione a è un vettore, e un vettore moltiplicato per uno scalare m è ancora un vettore. In altre parole, le forze e le accelerazioni sono parenti stretti.

Questo concetto di forza continua ad essere valido nell’elettromagnetismo, dove le particelle cariche sono soggette alla forza di Lorentz che le accelera causando un cambiamento nella loro velocità (sia in modulo che in direzione e verso).

Quando si ha a che fare con sistemi gassosi compaiono i primi problemi. Per comprimere un gas abbiamo bisogno di una forza, ma la sua applicazione non può portare a un’accelerazione, semplicemente perché non ha senso parlare di velocità di un gas (vedi il mio precedente post qui). Per aggirare il problema i fisici hanno inventato il concetto di pressione definito come la componente della forza che agisce su una superficie perpendicolare ad essa, divisa per la superficie stessa. Vale la pena notare che la pressione è uno scalare, mentre la forza è un vettore e che la pressione si può definire come un prodotto scalare tra vettori, definendo l’area come tale.

Poiché le forze sono definite dalle accelerazioni, un altro problema si pone quando si effettuano misurazioni in sistemi di riferimento accelerati (non inerziali). In questi sistemi si sviluppano forze chiamate “fittizie” o “apparenti”, definite come F=-ma, con a pari all’accelerazione del sistema (si noti che in questo caso, contrariamente a quella usata per la seconda legge di Newton, l’espressione è corretta). Queste forze, in effetti, sono altrettanto reali rispetto alle altre forze cui siamo abituati, come la gravità o la forza elastica. Del resto si possono misurare utilizzando, ad esempio, un dinamometro, quindi sono tutt’altro che fittizie. Questo è il motivo per cui la maggior parte delle persone ha difficoltà con queste forze. In particolare, distinguere la forza centrifuga da quella centripeta è uno degli incubi degli studenti.

Cosa distingue le forze fittizie da quelle reali? La differenza sta nel fatto che queste ultime sono il risultato di un’interazione. La gravità si manifesta se una particella con massa interagisce con un’altra particella con massa. La forza elastica se una particella interagisce con una molla (o qualsiasi altro sistema che si comporta come una molla). La forza centripeta esiste perché è causata dall’interazione tra una particella e il mezzo che la mantiene in un percorso circolare (per esempio, legando una palla a una corda e facendola ruotare si produce un’accelerazione centripeta sulla palla a causa dell’interazione di quest’ultima con la corda: tagliando la corda l’interazione scompare, facendo venir meno la forza).

Le forze fittizie esistono solo in sistemi di riferimento non inerziali e non hanno alcuna sorgente: sono una pura conseguenza del modo in cui effettuiamo le misurazioni. In un sistema di riferimento in cui la palla dell’esempio precedente è a riposo, siamo costretti a “fingere” che vi sia una forza che agisce sulla palla per renderne nulla l’accelerazione in quel sistema. La forza fittizia dev’essere opposta all’unica reale: la forza centripeta applicata dalla corda. Quando un’auto slitta percorrendo una curva, la causa non è la forza centrifuga, ma la mancanza di quella centripeta (l’attrito statico tra le ruote e l’asfalto). Lo scostamento dalla traiettoria è infatti una conseguenza della prima legge di Newton, in un sistema di riferimento inerziale.

Forze non-newtoniane

Fino all’inizio del XX secolo, i termini “forza” e “interazione” erano praticamente sinonimi. Ogni interazione produceva forze e ogni forza (non fittizia) era causata da un’interazione. Con la scoperta dei decadimenti beta questo non è più stato vero.

Il decadimento beta è un fenomeno che consiste nella trasformazione (decadimento) di un neutrone in un protone, un elettrone e un neutrino. Il decadimento beta può anche portare alla trasformazione di un protone all’interno di un nucleo in un neutrone, un positrone e un neutrino (quest’ultima reazione può avvenire solo nei nuclei, a causa della conservazione dell’energia).

Un tale fenomeno non si può spiegare con nessuna delle forze fondamentali conosciute: né con la gravità, né con l’elettromagnetismo. Per varie ragioni, neanche la forza nucleare forte, che tiene insieme protoni e neutroni nei nuclei, può essere responsabile del decadimento. È stato Enrico Fermi a formulare la prima teoria funzionante del decadimento beta introducendo la cosiddetta interazione debole, solitamente considerata la quarta forza fondamentale.

La maggior parte dei libri di testo riportano frasi come le seguenti: “ci sono quattro forze fondamentali nell’universo: la forza forte, la forza debole, la forza elettromagnetica e la forza gravitazionale”¹.

Una tale affermazione è in realtà piuttosto fuorviante. La maggior parte delle persone identifica una forza con qualcosa che spinge o che tira. Associare un vettore a qualcosa che spinge o tira è in fondo abbastanza naturale. Tuttavia, nei fenomeni in cui è coinvolta la forza debole, non c’è nulla che spinge o tira. Non c’è un punto cui si possa applicare un vettore.

In effetti, la forza debole non è una forza, perché le forze si possono rappresentare come vettori, e in un decadimento non c’è un posto cui applicare un vettore. È un’interazione. Non tutte le forze sono causate da un’interazione (ad esempio, le forze apparenti non lo sono) e non tutte le interazioni danno origine ad una forza (come, ad esempio, l’interazione debole). Le forze si possono associare soltanto a interazioni il cui effetto è quello di spingere o tirare qualcosa che deve spostarsi dalla sua posizione. In generale le forze non si possono considerare responsabili di nessuno dei fenomeni della meccanica quantistica per i quali generalmente la posizione non è una variabile di stato (vedi episodio 1).

Cosa sono le interazioni? Possiamo definirle come qualsiasi cosa il cui effetto consiste nel cambiare lo stato di un sistema. Si consideri, ad esempio, una particella libera di muoversi. Se la particella si trova nel campo gravitazionale della Terra, la sua interazione con quest’ultimo porta ad una forza il cui effetto è quello di cambiare la sua velocità aggiungendovi una componente verticale. Di conseguenza, lo stato della particella cambia (si noti che, se si dà lo stato iniziale della particella in un sistema di riferimento in cui la particella è a riposo a t=0, se non c’è campo gravitazionale, lo stato della particella è conservato).

Un gas può interagire con una sorgente scambiando calore con quest’ultima. Non ci sono forze, qui, tuttavia ci può essere un cambiamento nello stato del gas, la cui pressione, volume e/o temperatura cambiano di conseguenza. Vale la pena di notare che lo stato di un gas si può rappresentare come un punto sul piano di Clapeyron e la sua trasformazione come una curva su tale piano. La rappresentazione dello stato e delle interazioni in uno spazio astratto non è dunque peculiare della meccanica quantistica.

Un neutrone può interagire con il campo dell’interazione debole che porta a un cambiamento dello stato iniziale da uno stato di neutrone a riposo a uno stato contenente un protone, un elettrone e un neutrino con energia e quantità di moto tali che l’impulso finale totale è nullo e l’energia totale è uguale alla massa del neutrone. Nessuna forza, ma un cambiamento di stato.

Il campo debole è prodotto dal neutrone stesso. Un neutrone emette continuamente quanti del campo debole. L’interazione del neutrone con questi quanti può portare alla trasformazione dello stato, analogamente a quanto farebbe un elettrone interagendo con il proprio campo elettrico. Anche classicamente, un elettrone, in linea di principio, deve interagire con il campo elettrico prodotto da sé stesso, anche se il problema viene spesso ignorato perché, malgrado l’accoppiamento tra il campo e la particella sia infinito (l’intensità del campo diminuisce come 1/), l’interazione non produce alcun effetto misurabile.

Nell’attuale teoria del decadimento beta, un neutrone (in realtà uno dei suoi quark costituenti) emette un campo carico rappresentato dal bosone W, perdendo una carica negativa e diventando un protone. Il bosone W, a sua volta, materializza in un elettrone (che trasporta la carica elettrica) e in un neutrino (che trasporta la quantità di moto e il momento angolare necessari per la loro conservazione).


Continuate a seguirmi. Nel prossimo post parlerò della natura di un elettrone: onda o particella?

P.S.: non sono così arrogante da sostenere di avere la risposta definitiva a questa domanda così complicata, ma sono certo di potervi dare un’idea fisicamente più precisa di cosa si debba intendere, effettivamente, per un elettrone.

¹Questa specifica frase è stata estratta dal sito del CERN, che di certo non è poco attendibile.

Per un nuovo modo d’insegnare la meccanica quantistica

episodio 1: il concetto di stato


La meccanica quantistica è spesso insegnata come una “rivoluzione”, facendo leva sui suoi aspetti paradossali. In parte, ciò è dovuto al fatto che gli insegnanti (i libri) tendono a seguirne lo sviluppo storico (il che non sempre è una buona idea); in parte al presupposto, sbagliato, che questi aspetti la rendano più interessante. Il risultato è che la maggior parte delle persone (compresi molti “professionisti”) non credono davvero alla teoria e molti la considerano impossibile da capire (spesso citando a sproposito il prof. Feynman). In realtà, la meccanica quantistica non è così diversa dalla meccanica classica, a patto che si consideri quest’ultima per quello che è realmente. In questo e nei seguenti post cercherò di convincervi che in realtà la meccanica classica è molto più vicina alla meccanica quantistica di quanto crediate.


Il primo passo consiste nel riesaminare la meccanica classica in vista di un’introduzione alla meccanica quantistica. Questo episodio è dedicato a chiarire il concetto di “stato”. Negli episodi successivi tratteremo altri concetti, spesso trascurati, della fisica classica.

Il concetto di stato

Nella fisica classica non è infrequente imbattersi nel concetto di “stato”. In particolare, nella maggior parte dei libri di testo si trova che:

  1. lo stato di una particella puntiforme è dato quando la sua posizione e la sua velocità sono note;
  2. lo stato di un gas è dato dalla legge dei gas perfetti (detta anche equazione di stato dei gas) secondo la quale pV﹦nRT.

Cosa s’intende per “stato”? Cercarne la definizione in un libro di testo di fisica è una perdita di tempo: di fatto non sono riuscito a trovare un solo libro di testo in cui sia definito. Cerchiamo allora di trovare la sua definizione su un vocabolario. Il dizionario Treccani definisce uno stato come “Il modo di essere, temporaneo o permanente, di cosa o persona” (è interessante notare che una delle voci si riferisce diffusamente allo stato di un sistema fisico, in maniera anche piuttosto precisa ed esauriente, come del resto è costume dell’istituzione). In effetti, questo è il vero significato da dare a questa parola anche in fisica.

Quando vogliamo descrivere un sistema fisico (sia esso una particella puntiforme, un gas, un circuito o un solido), dobbiamo caratterizzarlo fornendo un insieme di grandezze (reciprocamente indipendenti) ottenute misurandole. Lo “stato” di un sistema è dato quando si fornisce un elenco completo di grandezze fisiche misurabili per esso. In altre parole, lo stato comprende tutte e solo quelle grandezze necessarie per caratterizzare completamente il sistema all’istante t in modo da poterne prevedere lo stato in un altro istante t’.

Per un gas ideale, ad esempio, lo stato è caratterizzato da quattro grandezze fisiche: la pressione, il volume, la temperatura e la quantità. Queste grandezze sono collegate fra loro per mezzo dell’equazione di stato, in modo tale che ne bastano solo tre per specificare lo stato di un gas. In linea di principio, potrebbero esserci altre grandezze misurabili d’interesse: il colore del gas, per esempio, potrebbe essere una delle variabili di stato. Tuttavia, fintanto che non c’interessano i cambiamenti di colore di un gas, la sua inclusione nello stato è inutile, analogamente a quanto accade per la massa in meccanica, laddove quest’ultima si consideri costante. Lo stato, quindi, comprende solo quantità “interessanti”, cioè quantità che si possono misurare e non dipendono l’una dall’altra. In sintesi, prendendo a prestito la notazione della meccanica quantistica, possiamo specificare lo stato di un gas ideale come |p, V, T 〉 oppure come |p, V, n〉 o qualsiasi altra combinazione di p, V, n o T.

In cinematica, si dice spesso che lo stato di una particella è dato quando se ne conoscano la posizione e la velocità. In effetti, in questo caso, lo stato dipende dalla scelta del sistema di riferimento in cui sono espresse le coordinate (si noti che quando si parla di gas si usa implicitamente un sistema di riferimento fermo rispetto al contenitore del gas). La fisica non può dipendere dalle nostre scelte, quindi ci dev’essere un modo per esprimere lo stato di un sistema indipendentemente da esso. Si può scegliere un sistema di riferimento “privilegiato” costituito dal sistema in cui la particella è a riposo per t=0. In questo caso lo stato è pienamente caratterizzato fornendo la velocità v, che tuttavia nel sistema in questione è nulla. Se la velocità della particella è costante, nel sistema di riferimento dato rimane nello stato|x=0, v=0〉, altrimenti il suo stato cambia.

Naturalmente potremmo argomentare in modo molti simile per vari sistemi (vedi anche la voce del dizionario Treccani sopra citato). Per esempio, lo stato di un condensatore può essere caratterizzato quando la carica Q e la differenza di potenziale ai suoi capi ΔV sono note. In questo caso, la definizione di capacità C=Q/ΔV gioca il ruolo dell’equazione di stato nella fisica dei gas. Si può fare l’utile esercizio d’identificare lo stato su ogni sistema fisico che si conosce.

Quindi, lo stato dipende dal sistema che ci interessa, non solo perché comprende solo quantità rilevanti per il problema specifico: secondo il sistema, l’elenco delle variabili potenzialmente interessanti cambia. Chiaramente, non possiamo caratterizzare lo stato di un gas utilizzando posizione e velocità: queste quantità semplicemente non hanno senso per un gas (hanno senso per i suoi costituenti, non per il gas come sistema — osserviamo, inoltre, che la teoria cinetica dei gas è una scoperta relativamente recente). Un gas può essere contenuto in un volume: possiamo identificare la posizione (di un punto) del contenitore, non del gas. Ha una certa temperatura: non si muove, quindi non ha velocità (i suoi consitituenti ce l’hanno, ma non sono un gas; sono particelle puntiformi). Va chiarito che qui ci riferiamo a un gas ideale in equilibrio. Quando facciamo la fisica di un gas che scorre in un tubo, la sua velocità ha senso (ma ha una definizione un po’ diversa) e infatti fa parte dello stato del fluido, essendo possibile prevederne il valore utilizzando l’equazione di Bernoulli e conoscendone lo stato a t=0.

Ora, a un certo punto si scopre, grazie al principio d’indeterminazione di Heisenberg, che lo stato di un elettrone in un atomo non può essere rappresentato dalle stesse variabili usate per una particella puntiforme. Semplicemente perché in questo caso la posizione e la velocità di un elettrone non hanno senso: non si possono misurare, quindi non possono far parte dello stato. Non esistono.

Di un elettrone in un atomo (un sistema quanto-meccanico) possiamo misurare la sua energia (ad es. con l’effetto fotoelettrico) e il suo momento angolare (dall’analisi degli spettri di assorbimento e di emissione). Quindi, sono l’energia e il momento angolare ad essere quantità significative per un tale sistema e sono loro a poter essere incluse nel suo stato. 

Per una particella subatomica libera come un muone (di nuovo un sistema quanto-meccanico), possiamo misurare posizione e velocità in determinate condizioni, quindi ha senso includerle nello stato. Una scelta migliore (il sistema è spesso relativistico) è quella di specificare lo stato cinematico del muone indicandone energia e quantità di moto. I muoni sono instabili e decadono (si trasformano) in un elettrone e due neutrini. Lo stato del sistema è dunque caratterizzato dal numero e dal tipo delle particelle in esso contenute (inizialmente è la massa del muone a identificarne lo stato). Dopo un certo tempo lo stato si è evoluto in modo tale che, per tempi sufficientemente lunghi, lo stato si trova composto di tre particelle: un elettrone e due neutrini, ognuna delle quali ha la sua energia e la sua quantità di moto.

In sintesi, il concetto di stato si pone tradizionalmente nella meccanica quantistica come un concetto centrale che la maggior parte delle persone ha difficoltà ad afferrare. In effetti, si tratta di un concetto piuttosto semplice, che esiste anche nella fisica classica, e le difficoltà sorgono solo perché il suo ruolo non è sufficientemente chiarito quando siamo esposti alla fisica classica. Se fossimo abituati a scrivere le leggi della fisica (classica) in termini di evoluzione di uno stato, non saremmo sorpresi quando passiamo a una descrizione completamente diversa, quanto-meccanica, di un elettrone in un atomo. In fondo, il modello di Bohr dell’atomo è sbagliato. Continuare ad insegnarlo è come continuare ad insegnare la teoria del “calorico”. È istruttivo menzionarla, ma nessuno di noi crede sia utile discuterne i dettagli. La fisica classica sta alla meccanica quantistica come la teoria cinetica sta alla termodinamica. Si tratta solo di cambiare il modo in cui descriviamo lo stato, a causa del fatto che le grandezze fisiche utilizzate nella fisica classica perdono di significato in certe condizioni (questo non è tipico della meccanica quantistica: anche nella fisica dei gas, posizione e velocità perdono il loro significato).


Nella prossima puntata parleremo di forze e di interazioni. Continuate a seguirci.

Il perverso meccanismo del peer review

Il sistema del peer review è quello adottato dalle riviste scientifiche allo scopo di validare il contenuto degli articoli inviati dagli autori per la loro pubblicazione.

Quando uno o più autori inviano un manoscritto a una rivista perché lo pubblichi, l’editor (la persona incaricata di pubblicarlo) lo invia a due o più esperti (o presunti tali) affinché verifichino che l’articolo sia privo di errori e corretto da un punto di vista scientifico. Quest’ultimo punto si presta già a qualche critica perché non è chiarissimo cosa voglia dire. La scienza difficilmente si presta a valutazioni “ordinarie” o standardizzate, sebbene, in effetti, la quasi totalità degli articoli pubblicati sia piuttosto banale, per certi versi (nel senso che spesso gli articoli contengono risultati più o meno rilevanti, per ottenere i quali tuttavia è sufficiente applicare correttamente una serie di “regole”).

Solitamente i referee (così si chiamano gli esperti), anonimi, inviano all’autore e, in copia, all’editor, i propri commenti. Se giudicano sostanzialmente corretto il contenuto dell’articolo danno il via libera alla pubblicazione, spesso indicando qualche modifica da introdurre o chiedendo chiarimenti. Altrimenti l’articolo non viene pubblicato e l’autore riceve una lettera di commenti che spiegano le motivazioni di una tale decisione.

La maggior parte dei ricercatori oggi ritiene che il sistema funzioni e garantisca la qualità del materiale pubblicato e, sopra tutto, pensa che il meccanismo che consente la pubblicazione di articoli scientifici, sia sempre stato questo.

In realtà, alcuni (me compreso) criticano apertamente il sistema perché si presta ad abusi e non garantisce affatto il progresso della ricerca scientifica. Alcuni critici (me compreso) pensano che possa addirittura danneggiarlo.

Come prima cosa è bene chiarire che il meccanismo del peer review non è sempre esistito ed è un’invenzione relativamente recente. Molte riviste scientifiche si chiamano Letters (Physical Review Letters, Physics Letters, etc.) perché in passato gli scienziati, per far conoscere le proprie ricerche, si scrivevano lettere a vicenda. Ed è evidente che una lettera non è soggetta ad alcun meccanismo di revisione.

Neanche quando si cominiciò, per praticità, a pubblicare su rivista s’immaginò di metter su un tale meccanismo. Di fatto non ce n’era bisogno. Chi pubblicava su certe riviste era in qualche misura certificato dal possedere una certa reputazione fosse anche solo per essere un esponente dell’accademia o dell’industria.

Il sistema del peer review nasce recentemente per selezionare gli articoli rilevanti tra quelli sempre piú numerosi che giungevano nelle redazioni delle riviste oppure come forma di aiuto per gli editor, che, dato l’ampio spettro di conoscenze richieste per giudicare la pubblicabilità di un manoscritto, non erano sempre in grado di decidere in autonomia.

Come ricorda il post recente di Andre Spicer e Thomas Roulet che trovate qui, portato alla mia attenzione da Nathalie Lidgi-Guigui, i lavori di Albert Einstein non erano soggetti a questa pratica. Probabilmente, se lo fossero stati fin dall’inizio, non avrebbero mai visto la luce. Nathalie pubblica infatti un estratto della lettera con la quale Einstein chiede la pubblicazione di un suo articolo, senza dire di cosa si tratta, e chiede ai suoi colleghi di aiutarla a rispondere in qualità di referee. Il post è questo:

https://platform.twitter.com/widgets.js

Quasi tutti hanno ridicolizzato il povero autore, fino a quando Nathalie ha svelato di chi si trattava. Nel post di Spicer e Roulet si ricorda come Einstein, avendo saputo che l’editor aveva inviato un suo manoscritto a un referee, non ritenendo di avere le competenze per giudicarlo, rispose piccato:

Le avevamo inviato il manoscritto per la pubblicazione, ma non l’avevamo affatto autorizzata a mostrarlo ad altri prima della stampa. Non vedo perché dovrei rispondere ai commenti – in ogni caso errati – di un anonimo “esperto”. In considerazione di questa grave mancanza, preferisco pubblicare il mio articolo su un’altra rivista.

Wow! Il fatto è che non tutti sono Einstein e la maggior parte di noi non si può permettere di rispondere in questo modo al direttore di una rivista. La scienza è fatta da pochi grandissimi che naturalmente possono svolgere il loro lavoro grazie a quello, silenzioso, di moltissimi “manovali” come me che, facendo misure e pubblicandole, rendono un grande servizio alla comunità e permettono ai geni di utilizzarle in modo creativo. Alcuni però si considerano dei geni (non essendolo) e pretendono la pubblicazione di ricerche inconcludenti, sbagliate o, peggio, totalmente o parzialmente costruite a tavolino. È dunque necessario porre un argine a questa pratica e così è iniziato il processo che oggi è universalmente considerato l’unico possibile e del tutto “naturale”.

Sfortunatamente, su questo processo si è innestato quella della cosiddetta valutazione oggettiva della ricerca che pretende di misurare la qualità di un ricercatore dal numero di pubblicazioni e delle relative citazioni. Per inciso osservo che la scienza, nel frattempo, è passata da una definizione apparentemente rigorosa di probabilità a una che definisce quest’ultima come il risultato di una valutazione soggettiva (il che non significa affatto che non si possano trarre da queste valutazioni elementi di oggettività, che sono spesso più solidi di quelli estratti da una definizione oggettiva di probabilità). Questo ha scatenato una corsa alla pubblicazione per la quale oggi si produce una quantità di articoli tale per cui solo una piccolissima parte di essi potrebbe materialmente essere letta da un ricercatore in ciascun singolo sottosettore di competenza. E con questa corsa si è irrigidita la posizione dei referee che spesso prendono troppo sul serio o fraintendono completamente il loro ruolo, inserendo in questo elementi di presunta oggettività.

Mediamente il referee si sente in dovere di giudicare il contenuto di un articolo, ma spesso lo fa sulla base delle proprie convinzioni senza valutare se le argomentazioni dell’autore abbiano senso o meno. Ciò risulta tanto più vero quanto più la ricerca proposta risulta innovativa. È evidente che, specialmente all’inizio della costruzione di una teoria, non tutti gli aspetti possono risultare chiari persino allo stesso autore. Molti referee tendono a rifiutare l’articolo se questo non presenta una visione del tutto coerente e completa di tutti i fenomeni e gli aspetti (o della maggior parte di quelli noti) che in principio potrebbero essere coinvolti. Riuscite a immaginare cosa sarebbe successo in questo caso all’articolo sull’effetto fotoelettrico? O a quelli sulla fisica del corpo nero?

In generale il referee tende anche a spingere l’autore a scrivere ciò che egli vorrebbe scrivere, nella maniera in cui vorrebbe scriverlo. Lima, aggiusta, cancella e riscrive frasi, senza limitarsi, come dovrebbe, a segnalare l’eventuale necessità di una revisione linguistica laddove l’autore non domini la lingua in cui scrive. Introduce nel giudizio la sua visione e la sua personale interpretazione dei dati o dei modelli presentati.

L’apice si raggiunge con l’analisi della bibliografia. Ora dirò una cosa che farà innervosire molti lettori: la bibliografia in un articolo è quasi del tutto inutile. Ero stato tentato di rispondere al post di Nathalie che a me la richiesta dell’autore di essere esentato dall’illustrazione della bibliografia non sembrava così grave, sebbene un po’ arrogante, specialmente nel modo in cui era presentata, ma poi non l’ho fatto per non apparire il solito “oppositore“. Delle decine di articoli citati in un manoscritto spesso ne basta meno del 5% per rendere l’articolo del tutto comprensibile e per consentire, a chi lo volesse, di approfondire. La funzione della bibliografia in un articolo in fondo è questa (a parte quella di ringraziare, sinceramente, gli autori i cui articoli siano stati seriamente d’aiuto nella preparazione del manoscritto). Invece, se si vuole che il proprio articolo sia pubblicato, occorre inserire almeno un’intera pagina di riferimenti bibliografici da citare ovunque, quasi sempre nell’introduzione. Si deve dar sfoggio di aver letto moltissimo e di apprezzare il lavoro di molti colleghi. Perché in fondo uno di quelli, o un suo vicino collega, potrebbe essere un referee del tuo lavoro. E se quello poi non trova i suoi articoli citati nel tuo se la lega al dito. È importante che la bibliografia sia lunga ed esaustiva perché così, statisticamente, prima o poi toccherà al referee di esser citato con lo stesso meccanismo.

Non parliamo poi di articoli nei quali s’intenderebbe illustrare una propria opinione o una diversa interpretazione o una rilettura di fenomeni già noti, allo scopo di iniziare un dibattito nella comunità. Oppure ancora di quelli nei quali si presenta un’esperienza fatta perché si ritiene che possa essere utile agli altri che potrebbero implementarla così com’è o migliorarla. Questo genere di comunicazione non trova proprio spazio in una rivista scientifica. Non dico che non sia corretto, ma il fatto è che, praticamente, non esistono riviste dedicate a questo e così è difficilissimo per un autore far conoscere il proprio punto di vista su certi argomenti o raccogliere le opinioni degli altri per coinvolgerli nella discussione.

Qual è la soluzione? Confesso di non averla, ma mi accontenterei del fatto che i referee facciano il loro lavoro onestamente e senza eccessi: quando io giudico un articolo in questa veste cerco di non imporre la mia visione delle cose (posso suggerirla nella lettera che invio agli autori perché la considerino, ma senza pretendere che sia accolta); segnalo la necessità di una revisione linguistica, se è il caso; mi limito al controllo dei conti e della coerenza di simboli e notazioni; non intervengo nell’interpretazione dei risultati, a meno che non sia palesemente in contrasto con i dati; non giudico preventivamente l’impatto che l’articolo può avere sulla comunità (questa in realtà è un’indicazione imprescindibile richiesta dall’editor, ma per quanto mi riguarda non è mai un criterio per rigettare un articolo). Io credo che, se un articolo non è contradditorio e inconcludente, sarà la comunità a giudicarlo: se il contenuto risulterà copiato o inventato, qualcuno lo denuncerà attraverso la pubblicazione di un altro articolo. Non si può certo pretendere che il referee conosca tutta la letteratura relativa al soggetto, per cui non può essere di quest’ultimo la responsabilità della pubblicazione di un plagio o di una truffa.

Open source, marchi e DOP

Scrivo questo post sollecitato da un post di @sketchpyl su twitter, al quale, dopo un mio commento, risponde @lorenzobenocci:

Chi mi conosce sa che sono un paladino dell’Open Source, che ho conosciuto con le prime versioni di Linux usate per i miei primi esperimenti sui cristalli di tungatstato di piombo. A quel tempo la comunità scientifica adottata sistemi operativi commerciali (c’erano praticamente solo quelli) il cui codice sorgente non era nella disponibilità dei ricercatori e questo poneva seri limiti al loro utilizzo. Limiti che venivano puntualmente elusi dall’ingegno di chi li usava, ma per farlo era richiesto molto lavoro e molto tempo. Quando scoprii Linux feci di tutto per farlo diventare il sistema operativo di riferimento della scienza e in effetti oggi è così (naturalmente grazie anche al contributo di molti più influenti del sottoscritto).

Perché Linux è stato un successo ben al di là dell’ambito scientifico? Semplice: perché è “open source”. Significa che il suo codice sorgente lo può leggere chiunque. Si può imparare leggendo il codice sorgente e lo si può migliorare. La platea degli sviluppatori è enorme e qualcuno bravo si trova sempre, perciò la qualità del software cresce esponenzialmente. Anche la sua sicurezza. Perché è falso che un codice segreto sia più difficile da violare di uno pubblico. In effetti il codice di cifratura usato dai nazisti durante la seconda guerra mondiale fu decodificato dalla macchina inventata da Turing (il Colossus, considerato il primo computer della storia anche se tecnicamente non lo è davvero). I codici di criptazione che si usano oggi invece adottano algoritmi pubblici ben noti, ma sono quasi impossibili da decodificare.

Si confonde spesso il fatto di essere Open Source con il fatto di essere gratuito (anche perché in inglese il software Open Source è detto Free Software e “free” significa anche gratis). Come spiega Richard Stallmann, il codice Open è “free as a language, not free as a beer”.

Fino a qualche tempo fa il movimento Open Source riguardava unicamente il software. La nascita di Arduino ha trasferito il concetto nel dominio dell’hardware. Le schede (e tutti i prodotti) Arduino non sono protetti da brevetto (o meglio, da una “privativa”). Tutte le informazioni per realizzare una scheda Arduino identica all’originale (inclusi i disegni CAD per le macchine a controllo numerico impiegate nell’industria dei semiconduttori) sono pubbliche e rilasciate con licenza Open Hardware. Chiunque può legalmente costruire una scheda identica a una scheda Arduino, non solo per se. Può anche venderla, uguale all’originale o modificata.

Gli autori del progetto avrebbero potuto brevettare l’idea e privare gli altri della possibilità di realizzarla. Forse avrebbero guadagnato di più, ma non è per nulal ovvio. Il successo del progetto si deve molto al fatto che sia Open Hardware. In ogni caso l’obiettivo non era il guadagno in termini economici. Un brevetto avrebbe impedito ad aziende cinesi (tanto per fare un esempio che a molti starebbe a cuore) di produrre schede Arduino a un prezzo dieci volte inferiore da vendere a Paesi meno fortunati del nostro? Probabilmente no: sarebbe bastato comprare un Arduino, studiarlo e rifarlo cambiando qualche dettaglio per aggirare le norme et voilà! Il gioco è fatto. Basta vedere cos’è successo con gli smartphone.

Con l’Open Hardware chiunque può legalmente costruire e vendere un “clone” di Arduino. Naturalmente non può venderlo spacciandolo per un Arduino originale. Deve chiarire che si tratta di un clone, così i produttori li chiamano con altri nomi, che però richiamano il prodotto originale (esiste, per esempio, il Diavolino o il Freeduino) o con nomi ben diversi, ma specificando che sono Arduino compatibili.

In una conferenza tenuta a Roma qualche anno fa Massimo Banzi, uno degli autori di Arduino, spiegò che i prodotti “Open” sono molti più di quanto si pensi: quasi tutto il cibo è Open Source. Non dovete pagare royalties per fare e vendere un panino o un piatto di bucatini all’amatriciana. Tutti possono farlo, ma naturalmente c’è chi è più bravo e chi lo è meno. I clienti sceglieranno liberamente se prediligere il gusto o il portafoglio e un cliente attento saprà conciliare i due aspetti.

La protezione a tutti i costi di un “marchio” è un clamoroso errore: chi compra un kit per produrre in casa Amarone della Valpolicella pagandolo 3 euro non comprerà mai un vero Amarone a 60 euro. Vendere kit per produrre vino a basso costo richiamando il nome di prodotti blasonati non è un danno per l’economia di questi ultimi e spesso non è una truffa. Lo diventa se si spaccia il prodotto per vero Valpolicella mettendolo in una bottiglia uguale con il marchio contraffatto.

Perché dobbiamo impedire a un casaro tedesco di produrre un formaggio che imita uno dei formaggi tipici italiani? In fondo questi sono patrimonio di tutti perché sono il frutto di esperienze maturate da secoli e non sono proprietà di un consorzio che al più può possedere il marchio (ma che significa?). Peraltro, nello stesso consorzio c’è già chi si distingue con marchi diversi perché sa (o pretende) di essere migliore (il Vacche Rosse, ad esempio, è parmigiano, ma non tutto il parmigiano è Vacche Rosse). Se il casaro tedesco vende parmigiano il consumatore potrà decidere se sia una schifezza o sia persino più buono del “nostro”.

Pensate a cosa sarebbe l’Italia se fosse esistita la protezione dei prodotti (così come i più la intendono oggi) all’epoca della scoperta dell’America. Pomodori, patate, peperoni, peperoncino, caffè sono tutti prodotti per cui l’Italia è nota nel mondo, che non hanno affatto avuto origine in Italia. Sono tutti prodotti importati. Cos’è dunque la tradizione se non continua innovazione?

Fondamenti di Fisica

È uscita la VI edizione del volume “Fondamenti di Fisica” di James Walker, edito da Pearson, curata da me.

Il volume è destinato all’insegnamento universitario della fisica nei corsi di scienze (per i corsi di laurea in fisica è troppo elementare).

La curatela di un volume scritto da altri è sempre un’operazione delicata, dato che ogni docente ha le sue preferenze su quale sia il miglior approccio a certi argomenti.

Nello svolgere questo compito mi sono imposto di mantenere fede all’impostazione data al testo dall’autore, anche laddove non ne condividessi del tutto l’approccio (del resto l’insieme dei libri di testo di cui condivido l’approccio è praticamente nullo). Del libro di Walker condivido l’impostazione generale, che si caratterizza per un’esposizione fluida e semplice dei temi di fisica, che inizia sempre da osservazioni, spesso tratte dall’esperienza quotidiana, e che si arricchisce di particolari, con i concetti che emergono su aspetti particolari e diventano sempre più generali. Un’altra caratteristica di questo testo è che la matematica è ridotta all’essenziale, senza però mancare di rigore o di generalità. Questo ne fa un testo ideale per quei corsi nei quali gli studenti non possiedono una solida conoscenza della matematica.

Ho rivisto il linguaggio utilizzato nella traduzione italiana, riformulando alcune parti del testo nella forma attiva, più snella e fluida di quella passiva, che nella lingua originale è al contrario molto usata, senza alterarne i contenuti. Ho invece posto particolare attenzione a modificare gli esempi che facevano riferimento a situazioni pericolose, eredità di un passato nel quale non si prestava la dovuta attenzione alla sicurezza, nonché a mantenere un equilibrio di genere.

Per esempio, in un caso ho trasformato un esercizio svolto nel quale un alpinista doveva saltare un crepaccio (azione assolutamente da evitare) in un esercizio nel quale un atleta di parkour doveva saltare tra due terrazze. Si tratta sempre di una situazione pericolosa, ma quanto meno è regolamentata e di certo non si esegue il movimento se i terrazzi non sono a distanza ragionevole. In un altro caso non ho potuto fare a meno di mantenere l’esempio (una sua sostituzione con un altro avrebbe comportato nuove illustrazioni, non contemplate dall’editore), ma ho aggiunto una postilla. Si tratta degli esempi in cui un ferroviere sale la scaletta esterna di un vagone ferroviario mentre questo è in moto. Nel testo ho spiegato che una situazione del genere era molto comune qualche tempo fa, quando non si prestava attenzione alla sicurezza, e che nel testo (che ha una storia di oltre 20 anni) l’esempio è rimasto per inerzia.

L’età del testo si manifesta anche in una scarsa attenzione alle questioni di genere. Gli astronauti, per esempio, sono sempre maschi (anche se Valentina Tereskova ha viaggiato ha bordo della Vostok nel lontano 1963). Ho dunque ritenuto giusto chiamare Stefania l’astronauta dell’esempio nel capitolo della relatività, che parte lasciando a Terra il povero Francesco. Ho anche fatto sostituire un’immagine in cui una donna si manteneva in equilibrio precario su un piede mentre puliva i vetri. L’ho sostituita con un’immagine in cui una donna in tailleur, evidentemente una manager, si sistema una scarpa (non sono riuscito a trovare di meglio sui siti di immagini professionali cui avevo accesso: segno che la strada per la parità è ancora lunga).

La principale novità introdotta in questa edizione è l’inclusione di videolezioni, presenti sulla piattaforma online, in cui si mostra come eseguire esperimenti usando strumenti come gli smartphone o le schede Arduino. Gli esperimenti sono illustrati in tutte le loro fasi: dalla realizzazione degli apparati sperimentali, che impiegano solo materiali facilmente reperibili, alla presa dati, fino alla loro analisi. Ogni esperimento non è pensato, come tradizionalmente avviene, come una “dimostrazione” sperimentale della validità delle leggi fisiche, ma piuttosto come l’elemento a partire dal quale si possono formulare tali leggi, restituendo loro il ruolo che hanno nel processo scientifico.

Nel manuale sono presenti due pagine di riferimento nei capitoli interessati, mentre i filmati sono accessibili dal sito che accompagna il volume My Pearson Place.

Infine (e non è una novità di poco conto) ho convinto l’editore a reintrodurre nel testo cartaceo le pagine con gli esercizi, che erano state rimosse dalle passate edizioni per trovarsi solo online. L’abbondante varietà di esercizi presenti faceva del Walker un testo molto interessante, ma lo spostamento online aveva convinto molti colleghi ad adottare libri di autori ed editori diversi.