Consistency is more important

All’inizio della mia carriera scientifica ho avuto la fortuna di lavorare nell’esperimento L3 a LEP diretto dal Premio Nobel Samuel C.C. Ting, dal quale credo d’aver imparato molte cose importanti. Una delle cose che Ting usava dire, che resta sempre scolpita nella mia mente, era “consistency is more important than truth“.

Cito questa frase a proposito delle discussioni che imperversano sulla rete relative all’affidabilità dei numeri forniti dalla protezione civile, riguardanti la diffusione del COVID19. Da piú parti s’invoca un cambio di strategia sui criteri per fare i tamponi ai fini di una maggior affidabilità dei dati epidemiologici.

Se c’è una cosa che so è che non sono un epidemiologo e quindi non ho alcuna intenzione di interpretare i numeri come tale. Può darsi che per un epidemiologo questo sia importante. Non lo so.

Per un fisico, almeno entro certi limiti, lo è poco. Dal mio punto di vista i dati che provengono dalla protezione civile sono a tutti gli effetti paragonabili ai dati che si raccolgono a un esperimento nel quale si misura una grandezza fisica di cui non si conosce nulla. Un esempio concreto di questa situazione è la ricerca sulla materia oscura. Sappiamo che c’è, ma non sappiamo molto piú di questo. Allora cominciamo a fare misure per determinarne la densità e la distribuzione per cercare di capirci qualcosa, anche se è possibile che le nostre misure siano affette da errori sistematici dovuti, per esempio, all’incapacità di rilevare certi effetti o alla scarsa sensibilità dei nostri strumenti o ancora alla non conoscenza di fenomeni ancora da scoprire. È del tutto ovvio che la nostra conoscenza della materia oscura sarà del tutto parziale, ma se non cominciamo a “mapparla” non ne sapremo mai nulla.

Lo stesso sta avvenendo per quanto riguarda la diffusione del COVID19. Di questa malattia sappiamo molto poco. È la prima volta che abbiamo a che fare con questo virus quindi non possiamo sapere come si comporta. La conoscenza si acquisisce man mano che se ne studiano gli effetti. Tutti ricorderanno, per esempio, che la prima misura adottata fu quella di isolare i malati con sintomi. Nessuno, infatti, poteva prevedere che la malattia potesse essere trasmessa anche dagli asintomatici. S’impara dall’esperienza. Quindi l’unica cosa che possiamo fare è osservare i dati e cercare di capire se questi ci dicono qualcosa.

I dati della protezione civile finora ci hanno detto che il numero di malati, apparentemente, fluttua moltissimo di giorno in giorno. Tali fluttuazioni non sono certamente ascrivibili alla natura statistica della misura. Ci sono certamente importanti effetti sistematici (alcune volte mancano i dati di qualche regione o provincia, altre volte a questi dati si sommano quelli dei giorni precedenti a causa di ritardi, etc.). Questo genere di fenomeni si tiene sotto controllo aggregando i dati su piú giorni: cosa che ho iniziato a fare da un po’.

I dati (per esempio quelli sulla mortalità) ci dicono che molto probabilmente il numero di infetti è fortemente sottostimato. C’è chi dice persino di un fattore 10. Confrontando la mortalità osservata in zone piú sotto controllo, dove la mortalità appare oscillare tra l’1% e il 3%, a me sembra ragionevole affermare che noi stiamo tracciando tra un terzo e un decimo della popolazione effettivamente infettata dal virus. È evidente che la gran parte della popolazione dev’essere asintomatica, altrimenti l’avremmo individuata come malata.

Ma c’importa davvero sapere quanti sono gli infetti? Dipende. Dipende da quel che vogliamo fare. Se vogliamo capire come funziona la trasmissione del virus, quali effetti provoca e in che misura, naturalmente sí. Questa però non è materia per fisici, quindi personalmente non me ne curo.

Io tengo sotto controllo la diffusione dell’infezione dal punto di vista degli effetti sulle persone e cerco di capire se le strategie di contenimento stanno funzionando e in che misura. Cerco anche di predire, per quanto possibile, l’evoluzione dell’epidemia. Per far questo non ho bisogno di avere l’informazione completa. Anche conoscendo una frazione dei reali infetti possono seguire la malattia, purché tale frazione si mantenga costante nei limiti delle fluttuazioni statistiche che ovviamente possono verificarsi quando si analizza un campione dell’intera popolazione.

Un’eventuale cambio di strategia, da questo punto di vista, sarebbe fatale. Un significativo aumento dei tamponi, per esempio, modificherebbe la struttura del campione e i dati dei giorni precedenti non si potrebbero confrontare con quelli nuovi.

Che il dato fornito dalla protezione civile, benché parziale, sia significativo, ce lo dice il fatto che i grafici che rappresentano l’evoluzione della malattia appaiono ragionevolmente compatibili tra loro di giorno in giorno. Nel grafico sotto, per esempio, dove i dati non sono neanche aggregati su piú giorni, non ci sono salti evidenti e i punti sperimentali si distribuiscono lungo una curva in modo ragionevolmente continuo.

Ovviamente i dati che appaiono piú stabili sono quelli la cui statistica è maggiore, anche se affetti da errori sistematici piú grandi, come nel caso degli infetti, oppure quelli per i quali la statistica è piú bassa, ma sono meno soggetti a interpretazioni (come i morti). Categorie come “ospedalizzati”, “in isolamento”, “guariti”, ad esempio, sono soggette a valutazione da parte dei medici e questo introduce dei bias che possono far fluttuare molto i dati di giorno in giorno.

Dall’analisi che faccio quotidianamente per predire il picco si evince che la data in cui questo sarà raggiunto si è spostata sempre piú in là col passare del tempo. Questo è del tutto ragionevole perché la crescita dei casi rallenta man mano che si assumono misure di contenimento via via piú efficaci. L’incapacità di predire con largo anticipo si può leggere come una buona notizia: le misure di contenimento tendono a spostare il picco a destra (ovviamente, abbassandolo).

Ecco perché fino a che i dati che utilizzo non presenteranno evidenti patologie continuerò ad usarli per le mie analisi, incurante del fatto che siano affetti da (anche grossolani) errori di valutazione: consistency is more important than truth.

Anche il modello adottato per descriverli dev’essere mantenuto costante, almeno fino a quando non sarà dimostrato essere inadeguato. Sono praticamente certo che nessuno dei modelli matematici piú in uso sia corretto. Tutti i modelli, infatti, partono da assunzioni molto semplici che chiaramente non rispecchiano la realtà. Rappresentare i dati con una funzione logistica certamente non è corretto, ma fino a quando sarà possibile farlo, mantenere questo modello permetterà di confrontare i dati acquisiti finora con i nuovi. Un cambio di modello, allo stato attuale, non è giustificato, anche tenendo conto del fatto che i parametri della curva che stiamo osservando in Italia sono del tutto analoghi a quelli osservati in altri Paesi (la Cina in primis).

Molti fisici tendono a valutare l’affidabilità delle proprie analisi sulla base di elementi oggettivi, come il cosiddetto chi-quadro del fit. Questi elementi si basano su una teoria della probabilità che tuttavia presenta importanti problemi di natura, diciamo cosí, filosofica. Bayes insegna che l’unica maniera corretta di stimare una probabilità è soggettiva. Una stima ragionevole di questa si può dare soltanto se si tiene conto di tutta una serie d’informazioni che possono non essere parte integrante del quadro matematico di riferimento. Per esempio, tutti sanno che lanciando un dado la probabilità di fare “4” è 1/6. Ma se dopo 1000 lanci osservo che il punteggio “4” è uscito 230 volte (quando il numero atteso è 170) la probabilità di vincere puntando sul “4” è maggiore semplicemente perché, molto probabilmente, il dado è stato realizzato in modo tale da favorire questo punteggio (intenzionalmente o meno non ha importanza).

Non do quindi troppo credito a modelli che si adattano meglio ai dati sperimentali da un punto di vista probabilistico, se non ho elementi ulteriori che mi fanno propendere verso una descrizione diversa da quella che uso, che non ha alcuna validità di principio, ma si fonda esclusivamente sull’osservazione sperimentale che essa descrive ragionevolmente bene i dati sperimentali, da un punto di vista puramente fenomenologico. I modelli alternativi alla curva logistica non sono migliori da un punto di vista di principio perché non aggiungono ipotesi ulteriori sulla diffusione della malattia supportate da evidenze sperimentali e spesso forniscono previsioni che non sono in linea con quanto osservato in altri contesti. Se lo sono, invece, non c’è ragione di preferirli ad altri.

Considerazioni sulla pericolosità del COVID19

In questi giorni la Prof.ssa Ilaria Capua è il bersaglio preferito di molti utenti della rete per le sue posizioni “minimaliste” riguardanti gli effetti del COVID19. Da una parte è comprensibile che chi si fa prendere dal panico reagisca in maniera scomposta e, da questo punto di vista, capisco (ma ovviamente non condivido) l’atteggiamento di chi esprime giudizi maleducati e aggressivi nei confronti della collega. D’altra parte, specie in situazioni come queste, niente aiuta più della ragione. Vediamo quindi di fare qualche conto per capire meglio cosa intende la Prof.ssa Capua quando “minimizza” la questione.

Secondo i dati forniti dalla Protezione Civile Nazionale, al momento in cui scriviamo, i morti per COVID19 (trascuriamo del tutto la differenza tra “morti per” e “morti con”, che a me pare del tutto irrilevante) sono 2.503, che corrispondono a 42 morti per milione di abitante. Naturalmente la distribuzione non è uniforme su tutto il territorio nazionale, quindi in effetti la mortalità è superiore. Poiché la Lombardia è di gran lunga la regione piú colpita consideriamo solo i dati di quella regione che sono statisticamente piú significativi. I morti in Lombardia sono 1640 (il 65% del totale) e gli abitanti sono 10 milioni, quindi COVID19 fa circa 1640/10 milioni di morti, corrispondenti a circa 160 vittime per milione.

Stando ai dati forniti dall’ISTAT, nel 2018 i morti in Lombardia sono stati 100.000, corrispondenti a 10.000 morti per milione. Considerando che i morti per COVID19 sono distribuiti grosso modo su un mese, mentre quelli dell’ISTAT su un anno, per fare un paragone bisogna dividere per 12 e quindi abbiamo che la mortalità ordinaria è di 800 morti per milione. Questo significa che, per effetto del COVID19, la mortalità aumenta del 20% circa (160/800).

Questo numero non è piccolo e informa di quanto sia in effetti importante mantenere alta l’attenzione sul fenomeno. Tuttavia vanno fatte altre considerazioni. Se non si tiene conto della distribuzione per età (quindi considerando tutte le fasce d’età allo stesso modo, il che è indubbiamente uno scenario molto pessimista), la probabilità di morire per COVID19 per un abitante della Lombardia è 1600/10 milioni, corrispondente allo 0.16 permille.

La probabilità di morire a causa di un tumore alle vie respiratorie, ad esempio, è dello 0.5 permille: tre volte più alta di quella per COVID19. Se si aggiungono le malattie croniche alle vie respiratorie passiamo all’1.7 permille: quasi dieci volte di piú. Questo, senza contare che tale probabilità è calcolata su tutta la popolazione inclusi i non fumatori e i bambini. Se si fuma la probabilità di contrarre una malattia all’apparato respiratorio che si rivelerà fatale aumenta enormemente, perciò quelli che hanno quest’abitudine farebbero bene a smettere di fumare piuttosto che a mettere una mascherina sulla bocca. Ogni volta che tolgono la mascherina per mettere una sigaretta in bocca inalano, con il 100% di probabilità, sostanze che certamente produrranno danni al loro organismo, mentre, allo stesso tempo, avranno una minima possibilità di ammalarsi di questa nuova malattia. Allo stesso tempo avranno dieci volte piú probabilità di morire in conseguenza di quel gesto (quello di accendere la sigaretta) rispetto a quella di non sopravvivere al coronavirus.

Spesso anche le patologie cardiovascolari sono legate ad abitudini di vita poco salutari, per le quali la mortalità raggiunge il 2.2 permille della popolazione (14 volte più alta del COVID19). Per carità, lungi da me l’idea d’imporre o anche solo suggerire abitudini considerate “sane”. Per quanto mi riguarda sono dell’idea di Woody Allen: preferisco vivere qualche mese in meno e continuare a poter fare quel che mi piace piuttosto che fare rinunce che mi peserebbero per sopravvivere qualche giorno in piú. L’importante è esserne coscienti.

In definitiva, è pur vero che il SARS-Cov-2 (nome proprio del coronavirus – nome comune – che causa la sindrome COVID19, la malattia) porta a un aumento sensibile della mortalità, ma è anche vero che in assoluto la mortalità complessiva risulta comunque bassa e decisamente inferiore a quella di altre patologie. L’invito è sempre, quindi, quello di pensare e, sopra tutto, d’imparare a fare un minimo di conti. La matematica non serve solo a questo. Spesso serve anche per migliorare il proprio umore, sollevarci da preoccupazioni e apprezzare quel che ci circonda. Fate i conti, non la guerra.

I dati aggiornati aggiornati giornalmente sulla diffusione dell’infezione da coronavirus sono sempre a disposizione di tutti all’indirizzo http://www.giovanniorgantini.it/covid19/covid19.html.

Evoluzione del COVID19

Torno a scrivere dopo tantissimo tempo. Sono stato silente perché in questo periodo sono in congedo, ma proprio per questo sto lavorando moltissimo a progetti che saranno presto resi pubblici.

L’emergenza relativa alla diffusione del COVID19 in Italia ha rallentato un po’ le attività (che però non si sono fermate) e ne ho approfittato per fare un po’ di analisi di dati sperimentali relativi alla diffusione di questo virus.

Si tratta di utili esercizi di matematica e di analisi dati, nonché di programmazione in Python. Ho rilasciato pubblicamente uno script per l’analisi all’indirizzo https://github.com/organtin/covid19 col quale si producono i grafici che rendo pubblici su Twitter e a questo indirizzo

http://www.giovanniorgantini.it/covid19/covid19.html

Sono disponibile a illustrare come funziona lo script e l’analisi dei dati a chi ne faccia richiesta (non singoli, naturalmente; non potrei farcela). Una prima sommaria spiegazione è disponibile all’indirizzo https://www.patreon.com/posts/un-semplice-di-34789649

Conclusa la III edizione della scuola di fisica con Arduino e smartphone

Si è conclusa un’altra edizione di successo delle scuole di fisica con Arduino e smartphone per insegnanti delle superiori. La scuola è una full immersion di tre giorni durante i quali agli insegnanti si chiede di progettare, costruire e condurre un esperimento, analizzarne i dati e produrre una documentazione che serva ai loro colleghi per rifarlo.

I partecipanti alla III edizione della scuola di fisica con Arduino e smartphone

Tutti gli esperimenti devono essere realizzabili con materiali facilmente reperibili: non a caso uno dei momenti più topici della scuola è la shopping session durante la quale tutta la banda di insegnanti si reca nel negozio gestito da cinesi vicino al laboratorio dove lavoriamo per comprare il necessario (grazie a Eva Shopping che si presta a essere invasa da un’orda di persone che non sanno ancora cosa vogliono).

Quest’anno sono stati realizzati diversi esperimenti che vanno dall’induzione elettromagnetica alla misura della costante di Planck, dall’interferenza tra onde alla misura della velocità del suono in funzione della temperatura.

Le scuole di fisica con Arduino e smartphone sono apprezzate anche all’estero. Prevediamo di fare un’analoga attività nell’Università di Paris-Sud a maggio, destinata agli studenti universitari. In autunno saremo a Oslo per un progetto del tutto simile. Abbiamo inoltre vinto un bando per esportare il modello in Uruguay e ci hanno invitato da Cuba a tenere un workshop presso la loro Università.

Maggiori informazioni e la documentazione dei progetti sul sito web del Dipartimento di Fisica di Sapienza.

L’esame di Stato 2019 per i Licei Scientifici

In questo post commento due documenti ufficiali del MIUR, che illustrano i caratteri della prova d’esame per i Licei Scientifici. Si tratta di commenti scaturiti da un mio recente intervento in un incontro con gli insegnanti del PLS di Matematica di Sapienza, nel corso del quale ho commentato le prove date come simulazione dell’esame di Stato. La soluzione delle prove da me proposta è stata pubblicata su Patreon, da dove potete scaricarla.

Il primo documento commentato è lo scheda di regolamento recante le indicazioni nazionali riguardanti gli obiettivi specifici di apprendimento. Meglio noto come “indicazioni nazionali”. In particolare le indicazioni per i licei scientifici sono contenute nell’Allegato F del documento.

Nel documento si dice esplicitamente che “lo studente avrà acquisito le seguenti competenze: osservare e identificare fenomeni; formulare ipotesi esplicative utilizzando modelli, analogie e leggi; formalizzare un problema di fisica e applicare gli strumenti matematici e disciplinari rilevanti per la sua risoluzione; fare esperienza e rendere ragione del significato dei vari aspetti del metodo sperimentale, dove l’esperimento e’ inteso come interrogazione ragionata dei fenomeni naturali, scelta delle variabili significative, raccolta e analisi critica dei dati e dell’affidabilità di un processo di misura, costruzione e/o validazione di modelli”

Questo significa che lo studente deve aver imparato a lavorare con i dati sperimentali. Deve quindi almeno essere in grado di estrarre informazioni da grafici e tabelle o altro genere di dati. Non è particolarmente importante che sia capace di condurre un esperimento in prima persona. Questo giustifica la tipologia di almeno uno dei problemi della prova proposta come simulazione. 

Una tale necessità è ben nota da anni e se gli studenti non sono preparati è perché, per molte ragioni, alcune delle quali sicuramente comprensibili, il modo di fare didattica in fisica non è cambiato. È indispensabile cambiare rotta. Il lavoro di analisi dei dati dev’essere preso in seria considerazione e il Dipartimento di Fisica è pronto a fornire la necessaria assistenza.

“La libertà, la competenza e la sensibilità dell’insegnante – che valuterà di volta in volta il percorso didattico piú adeguato alla singola classe – svolgeranno un ruolo fondamentale nel trovare un raccordo con altri insegnamenti” significa che non c’è alcun bisogno di puntare troppo sul formalismo. Le prove proposte non richiedono particolari abilità formali in fisica. Richiedono piuttosto la comprensione del significato delle equazioni (parliamo della prova di fisica: per quella di matematica e fisica l’abilità richiesta è quella richiesta dalle indicazioni di matematica).

Le indicazioni non richiedono esplicitamente un intenso programma di lavoro in laboratorio: richiedono piuttosto “di esplorare fenomeni (sviluppare abilità relative alla misura) e di descriverli con un linguaggio adeguato (incertezze, cifre significative, grafici)”. Il biennio va sfruttato per abituare gli studenti a questo lavoro. Si può approfittare di questo per introdurre alcuni semplici argomenti, ma il focus dev’essere sulla pratica del laboratorio (più intesa nel senso della capacità di analizzare i dati che di fare l’esperimento). Tutta la calorimetria e la cinematica, per esempio, si possono facilmente anticipare in questo periodo, così come l’ottica geometrica.

Segue una serie di argomenti piuttosto esplicito e chiaro: oltre agli argomenti già citati, si parla dei passaggi di stato (che significa che si deve comprendere il concetto di calore latente). Per la dinamica la II Legge di Newton è il punto centrale, insieme al concetto di energia e lavoro che ritornano in tutta la durata del corso di studi.

Nel secondo biennio la capacità di trattare con i dati sperimentali s’intende acquisita e quindi si può passare a una trattazione più formale degli argomenti, senza però mai dimenticare che tutti i risultati che si conseguono sono comunque il frutto dell’analisi sperimentale. Gli esperimenti che permettono di formulare le leggi, dunque, vanno accuratamente descritti, quanto meno.

Allo studente si chiede quindi di conoscere l’equazione di stato dei gas e la teoria cinetica. Il primo e il secondo principio della termodinamica si danno anche per acquisiti. Di conseguenza lo studente dovrebbe saper calcolare le grandezze rilevanti nelle trasformazioni di un sistema termodinamico: calore, lavoro, energia interna, entropia.

Delle onde occorre conoscere i fenomeni della sovrapposizione, interferenza e diffrazione. Si parla di sorgenti coerenti, quindi trattiamo sempre casi molto semplici per i quali il formalismo può essere reso molto semplice. Si chiede anche che lo studente sappia declinare i risultati relativamente a onde sonore e a onde elettromagnetiche (in sostanza deve conoscere la differenza di comportamento tra queste).

Lo studente deve quindi conoscere l’elettrostatica e la gravitazione: nel primo caso ci si aspetta che sappia come sono fatti i campi prodotti da distribuzioni particolari di carica attraverso il Teorema di Gauss; nel secondo che conosca le Leggi di Keplero. Il concetto di energia e di potenziale ricorre in questo settore. È importante mettere sempre in relazione queste conoscenze con quelle acquisite in precedenza.

Dei fenomeni elettromagnetici quelli rilevanti sono la Forza di Lorentz e l’induzione elettromagnetica, il Teorema di Gauss e il Teorema di Ampère (il primo peraltro non riguarda solo l’elettromagnetismo). Essendo sempre importante trattare aspetti energetici si deve trattare la densità d’energia del campo elettrico e del campo magnetico e introdurre le onde e.m., anche solamente a livello qualitativo.

Per quanto riguarda la relatività il campo è ristretto alla conoscenza dei fenomeni della simultaneità tra gli eventi, la contrazione delle lunghezze e la dilatazione dei tempi, nonché della relazione tra massa ed energia. Di fatto basta la conoscenza delle trasformazioni di Lorentz.

Per la meccanica quantistica occorre aver compreso il dualismo onda-corpuscolo e conoscere l’effetto fotoelettrico, nonché saper spiegare gli spettri di emissione e assorbimento alla luce della teoria dell’atomo di Bohr. Completa la conoscenza della materia la relazione di de Broglie che lega quantità di moto e lunghezza d’onda.

È vero che il quadro di riferimento presenta alcune importanti discrepanze da quanto evidenziato sopra. La buona notizia è che l’elenco degli argomenti su cui può vertere la prova non è troppo lungo ed è abbastanza comune. A parte i punti in cui si dice che lo studente deve saper lavorare con i dati sperimentali, per i quali vale quanto detto sopra.

Effettivamente si possono esprimere perplessità circa la presenza dei corpi rigidi, che non sono certo tra i più semplici da trattare, né tra gli argomenti più amati. Anche la presenza dello spettro di corpo nero tra questi argomenti non è molto coerente con le indicazioni nazionali. 

La mia interpretazione è che il cenno ai corpi rigidi è presente perché all’ultimo punto dei quadri di riferimento per la fisica è citato il momento delle forze magnetiche agenti su una spira. È evidente che se si vuole trattare questo caso il concetto di momento di una forza occorre introdurlo. Non ritengo che ci possano (debbano) essere veri problemi sui corpi rigidi in un compito d’esame. 

Per quanto riguarda il cenno al corpo nero, invece, va detto che nelle indicazioni nazionali è citato, sebbene sembrerebbe non fondamentale (non lo è, in effetti). La trattazione teorica dello spettro di corpo nero è particolarmente complessa e non adatta a essere discussa in dettaglio in un liceo: di conseguenza non si vede come si possano formulare problemi che vadano al di là di qualcosa con un taglio che  però dovrebbe rientrare nella tipologia di problemi di carattere sperimentale. Da questo punto di vista dovrebbe essere sufficiente conoscere il problema del corpo nero a livello molto qualitativo per cui si possono immaginare problemi per i quali basta estrarre dati da un grafico o da tabelle, senza conoscere troppo a fondo il formalismo di questo fenomeno.

Come sempre, quanto sopra è una mia interpretazione naturalmente possono sempre essere smentito dai fatti. Ritengo però che, al di là di qualche critica che certamente si può avanzare nei confronti delle prove proposte come simulazione, tali prove siano sostanzialmente equilibrate. Le simulazioni servono anche a sondare l’umore degli insegnanti e a calibrare meglio la prova d’esame. Va sempre ricordato che le prove sono preparate a cura di colleghi della Scuola, che quindi dovrebbero rendersi conto delle capacità degli studenti di un liceo e dovrebbero essere in grado di calibrare la prova in gradi di difficoltà differenti.

Va anche ricordato che non ci si aspetta che tutti gli studenti siano in grado di portare a termine l’intera prova (un problema e quattro quesiti a scelta tra due problemi e otto quesiti). Le valutazioni dovrebbero andare da un minimo che corrisponde all’individuazione qualitativa delle principali leggi fisiche che governano i fenomeni descritti nei quesiti al massimo che corrisponde a una soluzione formalmente e numericamente corretta di tutte le prove.

Un nuovo kg

Venerdì 16 novembre è stata adottata una nuova definizione dell’unità di massa a livello internazionale: il kg.

Fino a ieri il kg era definito come la massa di un cilindro di una lega di platino e iridio conservata sotto tre campane di vetro presso il Bureau International des Poids e Measures a Parigi. Una definizione che creava qualche problema dal momento che il cilindro è, per quanto protetto, soggetto a usura e all’accumulo di polveri estranee.

Da ieri il kg è definito in termini di una costante universale: la costante di Planck. Si è deciso che la costante di Planck vale 6,626 070 15 ×10-34 kg m2 s-1. Essendo la costante definita in questo modo, come la velocità della luce non ha errore. Il kg dunque è la massa per la quale la costante di Planck assume il valore che le è stato dato.

Una volta definita l’unità di misura si deve però anche spiegare come si ottiene un campione di tale unità, la cosiddetta mise en pratique. Per il kg la mise en pratique consiste in un’accurata operazione di misura del peso (che non è la massa, ma è a essa legata attraverso la relazione secondo la quale il peso di un oggetto di massa m è dato dal valore di tale massa moltiplicata per l’accelerazione di gravità). Per eseguire questa misura di precisione si usa una bilancia di Kibble. La bilancia, idealmente, funziona nel modo seguente. Su un piatto si mette la massa da misurare. Per effetto del peso il piatto subisce una forza d’intensità mg. Sull’altro si trova, disposto in modo da giacere sul piano orizzontale, una bobina di filo conduttore di lunghezza ℓ che è posta in un campo magnetico radiale B. Se si fa circolare una corrente I nella bobina, questa subisce una forza diretta verticalmente di modulo BIℓ. Se la forza dovuta all’interazione tra campo magnetico e filo è verticale e con verso opposto a quella di gravità si ha che

mg = BIℓ

da cui si ricava m. In alternativa si può misurare la fem che si misura ai capi della stessa bobina quando questa si muove verticalmente con velocità v nello stesso campo magnetico B. In questo caso la Legge di Faraday-Neumann prevede che la fem sia uguale alla variazione di flusso del campo magnetico che attraversa la bobina. Idealizzando la bobina come una spira circolare, cadendo questa descrive un cilindro la cui superficie laterale è l’unica attraversata (perpendicolarmente) dal campo magnetico. Il flusso del campo è dunque

Φ = BS = Bℓh = Bℓvt

Di conseguenza la sua variazione nell’unità di tempo vale

V = ΔΦ/Δt = Bℓv

da cui si ricava che il prodotto Bℓ vale V/v, con V che è uguale alla tensione che si misura ai capi della bobina mentre si muove. Possiamo cosé eliminare il prodotto Bℓ alla prima relazione e ottenere

mgv = IV

Nella pratica la misura di I e di V è effettuata attraverso dispositivi quantistici (a effetto Josephson) che permettono misure molto accurate perché i valori di corrente e di tensione che si misurano sono quantizzati. Resta il problema di determinare con precisione g e v. Queste misure sono affidate a interferometri laser che misurano lo spostarsi delle frange d’interferenza prodotta dalla luce riflessa da uno specchio montato sulla bobina o su un dispositivo lasciato cadere per misurare con precisione l’accelerazione di gravità (gravitometro).

Una serata al Bar Europa

Venerdì 9 novembre 2018 sono stato invitato al “Bar Europa“: una rubrica culturale all’interno del programma Rock Night Show di DJ Drago, su Radio Godot, condotta da Michele Gerace. Bar Europa è uno spazio di discussione, una comunità, che ambisce a promuovere il senso di appartenenza all’Europa e lo fa attraverso la promozione di iniziative culturali complesse, nel senso che mescola discipline tra loro diverse per evidenziare come le differenze non siano da temere, come qualcuno vuol far credere, ma siano una ricchezza.

Puoi rivedere la puntata (o meglio la porzione che è stata registrata) qui

Questo post termina con l’augurio che conclude le puntate della rubrica: Viva l’Europa!