Osservare i raggi cosmici

I raggi cosmici sono particelle di alta energia che provengono dallo spazio che, urtando con i nuclei dell’atmosfera, danno origine a numerose nuove particelle che si propagano verso la Terra decadendo, cioè trasformandosi in altre particelle, man mano che procedono nella loro corsa. La produzione di nuove particelle è un fenomeno quantistico reso possibile dalla relatività, secondo la quale l’energia dell’urto può trasformarsi in materia secondo la relazione di Einstein E=mc2. L’urto tra i raggi cosmici (che per la maggior parte sono fatti di protoni) e i nuclei degli atomi dei gas che compongono l’atmosfera, produce in prevalenza pioni (π) carichi e neutri. Propagandosi verso terra, i pioni carichi si trasformano spontaneamente in un muone (μ) e un neutrino; quelli neutri in due fotoni. I muoni arrivano numerosi a livello del mare. Se ne osservano circa 100 per metro quadro al secondo. I fotoni producono coppie di elettroni e positroni che danno poi origine a sciami estesi di fotoni, elettroni e positroni.

Quando una particella ionizzante attraversa un diodo al silicio, libera alcune delle cariche presenti nel mezzo. Se il diodo è polarizzato le cariche liberate migrano in direzione del campo elettrico prodotto all’interno del volume del silicio producendo una corrente elettrica che si può misurare.

Cosí funzionano i sensori delle fotocamere digitali e degli smartphone. Il sensore è costituito di una matrice di diodi (pixel), ciascuno dei quali, una volta colpito dai fotoni di cui è composta la luce, produce un segnale elettrico misurabile proporzionale all’intensità della luce. In questa maniera si ricostruisce l’immagine.

Lo stesso fenomeno si può sfruttare per osservare i raggi cosmici. Alcune fotocamere hanno la possibilità di mantenere l’otturatore aperto per un tempo indefinito: la posa T. Nella posa T la prima pressione del tasto dell’otturatore apre l’obiettivo e lo lascia in questa posizione fino a quando il tasto non viene premuto nuovamente. In questa maniera si possono fare fotografie con esposizione lunga anche diverse ore. Se la fotocamera è mantenuta al buio con l’obiettivo coperto gli unici segnali che il sensore registrerà saranno quelli delle particelle cosmiche che lo attraversano.

Sotto riporto una porzione ingrandita di una foto eseguita esponendo per sette ore una fotocamera in queste condizioni.

Ognuno dei puntini colorati rappresenta il segnale lasciato da una particella che ha attraversato il sensore. Nelle fotocamere, per ogni pixel ci sono in realtà tre diodi: uno per ogni colore primario. Il colore del pixel che si osserva dipende dal diodo attraversato e parzialmente dall’energia rilasciata in esso. Con un po’ di fortuna si possono anche osservare alcune tracce come quelle che ho evidenziato. Il particolare è riportato sotto ruotato di 90 gradi a sinistra.

La traccia piú lunga sulla destra è stata lasciata da una particella di bassa energia che viaggiava con un un angolo piuttosto piccolo rispetto alla superficie del sensore (che è sottilissimo: alcune decine di micron nella porzione sensibile). Che l’energia sia bassa lo si capisce dal fatto che la traccia è curva. Le particelle cariche seguono traiettorie curve in campo magnetico e il raggio di curvatura è proporzionale alla loro quantità di moto. Nel caso in esame il debole campo magnetico terrestre dev’essere stato capace di curvare la traiettoria della particella in questione abbastanza da renderne visibile la curvatura.

Con questa tecnica si possono fare anche alcune misure. Contando il numero di pixel “accesi”, per esempio, si ha una misura della frequenza di arrivo dei raggi cosmici (o meglio, della porzione di essi che lascia un segnale misurabile nella fotocamera) ed esercizi di statistica, dividendo in porzioni l’immagine e contando il numero di pixel accesi in ciascuna porzione.

Un aggiornamento sulla mortalità del COVID19

L’utente @tonini_stef di Twitter (Stefano Tonini), che ringrazio, mi ha segnalato l’uscita del rapporto ISTAT sulla mortalità nel primo trimestre del 2020. Il rapporto si basa sui dati provenienti dagli uffici anagrafe di molti piú comuni rispetto a quelli usati dal SiSMG ed è pertanto piu attendibile.

Il rapporto rivela che il 91% dell’eccesso di mortalità si concentra nei comuni ad alta diffusione dell’epidemia, nei quali si è passati dai 26218 morti attesi a 49351, con un incremento di 23133 unità. Nelle aree a media diffusione si passa da una mortalità attesa di 17317 a 19743 morti, con un incremento di 2426. Nei comuni a bassa diffusione della malattia il numero dei morti complessivi è diminuito dell’1.8%, segno che in queste zone gli effetti del COVID-19 non sono statisticamente significativi. Si passa, infatti, da 22057 decessi attesi a 21852 effettivi. Tutti questi numeri hanno un’incertezza che si può stimare come la radice del numero stesso, perché seguono la statistica di Poisson. L’incertezza della differenza tra due numeri invece si ottiene sommando i numeri ed estraendo la radice del risultato. Per esempio, il numero totale di decessi attesi è di 65592 \pm\sqrt{65592}=65592\pm 260, quello degli effettivi 90946\pm 300 e la differenza è 25354\pm 400.

Nella tabella che segue riportiamo sinteticamente i dati relativi a decessi attesi, decessi effettivi, differenza tra questi e relative incertezze per le tre aree (approssimate, come d’uso, a due sole cifre significative).

Regioneattesaeffettivodifferenza
Alta diffusione26218±16049351±22023133±270
Media diffusione17317±13019743±1402426±190
Bassa diffusione22057±15021852±150-205±210
Totale65592±26090946±30025354±400

Dalla tabella si vede bene che il numero delle aree a bassa diffusione del virus è compatibile con zero (in sostanza il virus non ha modificato la mortalità di quella regione).

Dai dati del SiSMG del precedente post sull’argomento, meno precisi e i cui numeri si ricava esclusivamente dal grafico pubblicato, si evince che in media ci si attendono, nel periodo considerato, circa 23390 decessi nelle regioni del Nord Italia che grosso modo coincidono con quelle in cui virus è piú diffuso. Questo numero si ottiene sommando i valori medi di mortalità giornaliera (tra 120 e 130) per gli ultimi sei punti (il periodo considerato nel rapporto ISTAT), moltiplicando questi numeri per 7 (perché i sei punti corrispondono ad altrettante settimane) e per il rapporto 27.7/6.3 per scalare su tutta la popolazione del Nord (il rapporto SiSMG considera solo una frazione della popolazione corrispondente a 6.3 milioni di abitanti, contro i 27.7 di tutto il Nord). Allo stesso modo si ricavano i decessi effettivi che risultano essere 31390, con una differenza di 8000.

La differenza tra i valori estrapolati dal SiSMG e quelli del rapporto ISTAT è significativa, ma occorre considerare che le aree considerate non sono omogenee. Nel caso del SiSMG i dati si riferiscono a tutte le province del Nord, mentre il rapporto ISTAT definisce le regioni sulla base della diffusione dell’infezione. Nei comuni del Nord ci sono sia aree ad alta diffusione che a bassa diffusione. Per confrontare i dati possiamo considerare la media dei comuni ad alta e bassa diffusione per cui ci si attendono 21768±140 decessi e se ne osservano 34547±150, numeri molto piú vicini a quelli che si evincono dai dati SiSMG.

Questa analisi conferma quelle stime, ma con un’importante osservazione. Se mediamente possiamo attenderci una mortalità in linea con quanto dichiarato ogni sera dalla protezione civile, tale mortalità non è affatto omogenea nelle diverse aree del Paese e pertanto la mortalità effettiva può essere parecchio piú alta. In particolare il rapporto ISTAT segnala che nelle aree ad alta diffusione la discrepanza tra i decessi osservati e quelli ascritti al COVID-19 è pari circa al 100%, nel senso che i decessi con diagnosi COVID-19 sono il 52% dei decessi osservati in piú rispetto alle attese, il che indica una mortalità doppia rispetto alla media.

In particolare, se l’eccesso di mortalità nelle aree ad alta densità e stato dell’88% ((49351-26218)/26218), nella provincia di Bergamo è stato ben del 568% (!). Si è passati dai 1180 decessi attesi a 6328. I decessi dichiarati COVID sono stati 2346. Sembra dunque che, in questo caso, tali decessi siano sottostimati di un fattore 2.2 circa e questo sembra essere dunque il limite superiore dell’incertezza con la quale si conosce questo numero.

In altre parole il numero di decessi attribuibili al COVID-19 sembra essere al massimo un fattore 2 sopra quello comunicato dalla protezione civile, ma di certo non su tutto il territorio nazionale, ma soltanto in certe aree particolarmente colpite del Paese il che tende a far pensare che molte di esse siano morti indirette, causate cioè dallo stress cui sono stati sottoposti gli ospedali che non hanno avuto la capacità di curare efficacemente i pazienti. I dati, in sostanza, sembrano confermare che essere preparati ad affrontare l’epidemia con ospedali ben organizzati sia la chiave per ridurre il prezzo pagato in vite umane a livelli tutto sommato fisiologici.

Quanti sono i morti per COVID19?

I dati forniti dalla protezione civile relativi ai morti per COVID19, come si sa, sono affetti da grosse incertezze sistematiche dovute al campionamento molto parziale e ad ambiguità delle definizioni. Possiamo però provare a stimare questi errori incrociando dati diversi.

Il Sistema di Sorveglianza della Mortalità Giornaliera (SiSMG) è un consorzio che raccoglie quotidianamente i dati provenienti dagli uffici anagrafe di diversi comuni. È nato diversi anni fa per stimare gli effetti del caldo eccessivo e quelli dell’influenza stagionale sulla mortalità, specialmente tra le persone anziane. Il SiSMG pubblica un bollettino settimanale che ho consultato per ottenere i dati usati in questo post (all’indirizzo http://www.deplazio.net/images/stories/SISMG/SISMG_COVID19.pdf si trova il documento).

Dal grafico n. 1A del documento, sotto riprodotto, si evince che la mortalità giornaliera ordinaria delle città del Nord Italia considerate (Aosta, Bolzano, Trento, Trieste, Torino, Milano, Brescia, Verona, Venezia, Bologna e Genova) è passata da circa 120 morti/d medi a 280 morti/d in media nella settimana compresa tra il 25 e il 31 marzo scorsi.

L’eccesso è di 160 morti/d corrispondenti a 1100 a settimana.

In queste città vivono in totale 6.3 milioni di persone. Gli abitanti di tutto il Nord Italia sono invece 27.7 milioni (dati ottenuti da Google e/o Wikipedia). Se scaliamo i dati della mortalità ordinaria provenienti dal SiSMG per il rapporto tra questi due numeri si trova che ci si attenderebbero 120*27.7/6.3=528 morti al giorno in tutto il Nord Italia. Dai dati ISTAT si evince che i morti nel Nord Italia lo scorso anno sono stati 141000, corrispondenti a circa 390 morti al giorno in media. Questo numero non sembra coerente con i 528 stimati sopra, ma occorre considerare che nel corso dell’anno ci sono variazioni significative. In questo periodo la mortalità è grosso modo il 20-30% superiore rispetto alla media (vedi grafico sotto), il che significa ci dobbiamo attendere attorno ai 500 morti al giorno, non distante dalle attese.

Nel periodo in cui imperversa il COVID19 (nella settimana considerata) i morti registrati dal SiSMG sono 160 in più al giorno, che si traducono in 160*27.7/6.3=703 morti in più al giorno in tutto il Nord Italia. In sintesi, per effetto del COVID19 nel Nord Italia sembrano esserci circa 700 morti in più al giorno (per effetto del COVID19 significa che questo eccesso di morti si può imputare sia agli effetti diretti che a quelli indiretti della malattia: se per esempio non ci si reca in ospedale per paura e si muore, si viene contati tra i morti per COVID19, anche se non si era infetti).

Dai dati forniti dalla protezione civile risultano 11011 morti al 31 marzo e 6161 al 24 dello stesso mese, il che significa che nella settimana in questione sono stati contati 4850 morti ufficiali, cioè 693 in media al giorno. Questo numero non sembra molto diverso da quello stimato dai dati del SiSMG, quindi sembrerebbe attendibile. Questo, naturalmente, non significa che la stima degli infetti sia corretta, ma che, se non ho commesso errori (il che è sempre possibile) almeno quella dei morti non sia del tutto campata in aria.

La crescita dei morti per COVID19

Quando ho iniziato a guardare i dati del COVID19 ho notato subito che il rapporto morti/infetti tendeva ad aumentare col tempo. Inizialmente ho attribuito questo comportamento alla mutevole capacità di diagnosi, poi, quando il trend si è manifestato in modo evidente, ho pensato che si trattasse di un sintomo di stress delle strutture sanitarie che non riuscivano a trattare adeguatamente in pazienti.

Un’analisi piú attenta, però, mostra che in realtà questo è proprio l’andamento atteso. Vediamo perché.

Indichiamo con f(t) la funzione che rappresenta l’evoluzione temporale degli infetti N_{inf}(t) = f(t). I morti per COVID19 saranno, mediamente, una frazione di N_{inf}, quindi potremmo scrivere N_{morti} = \alpha N_{inf} con \alpha < 1 grosso modo costante. Non possiamo però scrivere che N_{morti} = \alpha f(t) perché si comincia a morire trascorsi alcuni giorni dal momento in cui si contrae l’infezione. Quindi avremo che

N_{morti} = \alpha f\left(t-t_0\right)

pertanto il rapporto morti/infetti si scrive

\frac{N_{morti}}{N_{inf}} = \alpha \frac{f\left(t-t_0\right)}{f(t)}

Non conosciamo la funzione f(t) (anche se dagli ultimi dati disponibili sembra ben rappresentata da una funzione di Gompertz). Possiamo però fare considerazioni del tutto generali.

Di una funzione possiamo disegnarne il grafico riportando su un sistema di assi cartesiani i valori della funzione f(t) in funzione della variabile da cui dipende t. Per esempio, se f(t)=\sqrt{t}, possiamo calcolare i valori di f(0),\,f(1),\,f(2)\,f(3),\ldots e riportarli su un grafico in funzione di t=0,\,1,\,2,\,3,\ldots. Questi valori sono 0,\,1,\,1.41,\,1.73,\ldots e il grafico appare cosí

Ogni funzione con caratteristiche molto generali come quelle che ci interessano si può approssimare, in un intervallo relativamente ristretto di valori, con un polinomio p(t) di grado opportuno, cioè f(t)\simeq p(t). Minore è l’ampiezza dell’intervallo e migliore è l’approssimazione, cosí come maggiore è il grado del polinomio, a parità di ampiezza dell’intervallo, migliore è l’approssimazione. In sostanza possiamo sempre scrivere che

f(t)\simeq f(t_0)+f'(t_0)(t-t_0)+\frac{f''(t_0)}{2}(t-t_0)^2+\cdots

dove f'(t_0) e f''(t_0) sono quelle che i matematici chiamano derivate della funzione. La derivata f'(t) di una funzione si può immaginare come la pendenza della retta tangente alla sua rappresentazione grafica nel punto indicato tra parentesi. La derivata seconda f''(t) è, a sua volta, la pendenza della tangente alla curva che rappresenta f'(t) e cosí via. Nella figura sotto riportiamo la curva f(t)=\sqrt{t} insieme ai primi tre polinomi che l’approssimano per t=1.

Il primo è rappresentato dalla retta viola, che è una costante che vale 1. L’approssimazione è buona solo per valori vicini a t=1. La retta verde è il polinomio di grado 1 che approssima bene al curva in un intervallo piú ampio, ma che già per t=2 comincia a distinguersi bene dalla curva originale. Il polinomio di grado 2 (la curva azzurra) rappresenta meglio la curva originale (fino a circa t=3 con la precisione che raggiunge il polinomio di grado 1 per t=2).

Tornando alla nostra f(t) possiamo sempre scrivere quindi che

f(t) \simeq f(t_0)+f'(t_0)(t-t_0)+\frac{f''(t_0)}{2}(t-t_0)^2

La curva dei morti, quindi, si rappresenta sostituendo al posto di t, t-t_0 nei coefficienti del polinomio. Abbiamo quindi

f(t-t_0) \simeq f(t_0-t_0)+f'(t_0-t_0)(t-t_0)+\frac{f''(t_0-t_0)}{2}(t-t_0)^2= f(0)+f'(0)(t-t_0)+\frac{f''(0)}{2}(t-t_0)^2

Poiché all’inizio il numero d’infetti è zero, prendendo per t=0 l’inizio dell’epidemia f(0)=0. Inoltre, la salita degli infetti inizia in maniera dolce, quasi piatta, e la retta tangente alla curva che rappresenta f(t) è quasi orizzontale per cui anche f'(0)\simeq 0 e di conseguenza

\frac{N_{morti}}{N_{inf}}=\frac{\alpha f(t-t_0)}{f(t)}\simeq \alpha\frac{f''(0)}{2}(t-t_0)^2\frac{2}{f''(0)t^2} = \alpha\left(\frac{t-t_0}{t}\right)^2

Questa curva, per \alpha = 1 e t_0=5 è fatta cosí

La curva rappresenta la frazione dei morti in funzione del tempo solo per t>t_0 (nel caso dell’immagine per t>5) e si vede bene che in effetti cresce come sembra crescere tale rapporto nella realtà. Per tempi molto lunghi la curva tende asintoticamente ad \alpha (si avvicina cioè sempre piú a questo valore).

Usando tecniche di minimizzazione possiamo trovare i valori da attribuire ai parametri \alpha e t_0 per descrivere i dati sperimentali del rapporto morti/infetti. Riportiamo sotto il grafico che se ne ottiene.

La banda rosa rappresenta la porzione di dati utilizzati per eseguire il calcolo che fornisce \alpha = 0.126 \pm 0.013 e t_0=5.8 \pm 2.8. Il secondo valore ci dice con quanti giorni di ritardo, in media, si muore, dopo aver contratto l’infezione. Il numero è compatibile con t_0\simeq 5 che forniscono i medici.

La mortalità asintotica \alpha di quasi il 13% ci dice che il virus è letale nel 13% dei casi. Ma attenzione. Questo numero dipende fortemente da quanto bravi siamo a individuare gli infetti. Ci sono evidenze che i morti siano decisamente sottostimati. Figuriamoci gli infetti.

Personalmente tendo a credere di piú ai dati raccolti a bordo della Diamond Princess, tutti i passeggeri della quale sono stati sottoposti a tampone. Di questi 712 sono stati trovati positivi e solo 10 sono morti. La mortalità del virus quindi dev’essere dell’ordine dell’1.4% (10/712). Il fatto che la mortalità italiana appaia dieci volte superiore presumibilmente significa che gli infetti sono sottostimati almeno dello stesso fattore. Un fattore 10 di differenza tra gli infetti reali e quelli ufficiali, in effetti, è un numero che comincia a circolare e sembra sempre piú realistico. Se cosí fosse, per ogni malato ufficiale ce ne sarebbero una decina che non sanno di esserlo e sono quindi veicolo di contagio. Questa è una buona ragione per mantenere il lockdown, che tuttavia occorrerà prima o poi quanto meno allentare perché la situazione economica sta diventando insostenibile per molti. Da questo punto di vista il tracciamento dei contatti di chi si scopre infetto sarà uno strumento utilissimo.

Per finire osservo che il fatto che il rapporto sia affetto da errori sistematici notevoli si vede anche dal fatto che in corrispondenza della fine dell’intervallo di fit si vede un “salto” del rapporto, che non dovrebbe esserci in condizioni normali. È utile sapere che l’intervallo non è stato scelto ad hoc. Per determinarlo ho trovato il punto in cui il rapporto N_{morti}/N_{inf} si è ridotto della metà partendo da destra e poi definendo un intervallo di 24 giorni che inizia una settimana prima di questo punto, in modo da essere vicini al punto di flesso della curva che è quello in cui ho fatto l’approssimazione.

Fisica con Arduino a Parigi

Sto trascorrendo un periodo d’insegnamento all’Università di Paris-Sud, dove i miei colleghi Julien Bobroff e Frédéric Bouquet hanno introdotto, da qualche tempo, l’impiego delle schede Arduino nell’insegnamento universitario.

La sessione di Travaux Pratique che si sta concludendo vede un gruppo di studenti cimentarsi con la realizzazione di un esperimento da loro scelto, progettato e realizzato nel giro di cinque giorni, al termine dei quali devono presentarlo oralmente e sottoporre un lavoro scritto al giudizio della commissione.

Due gruppi hanno proposto di studiare la transizione superconduttiva di un superconduttore misurando la resistenza in funzione della temperatura del campione. Un gruppo ha studiato le proprietà magnetiche dei superconduttori pesando con una bilancia un magnete permanente esposto al campo di un superconduttore. Uno ha caratterizzato una sala da concerto in scala misurandone il riverbero e ottenendo informazioni circa la trasmissione del suono attraverso i materiali, utilizzando un sensore ultrasonico. Un gruppo ha studiato il moto di oscillatori accoppiati forzati usando magneti, utilizzando la Legge dell’induzione e.m. di Faraday per tracciarne la posizione. Uno spettrofotometro per la caratterizzazione della concentrazione dei coloranti in una sostanza è stato ottenuto spostando lungo lo spettro della luce bianca, ottenuto con un reticolo, un sensore di luce controllato da un motore. Un altro gruppo ha studiato le correnti di Foucault caratterizzando l’energia persa da un pendolo di Waltenhofen autocostruito la cui posizione era tracciata da un accelerometro. Infine, un sismografo è stato realizzato con un peso attaccato a una molla, il cui moto era smorzato dalle correnti parassite e la cui posizione era tracciata con due sonde di Hall: una vicino alla massa oscillante e l’altra all’estremità di un’asta connessa a quest’ultima. I terremoti erano simulati attraverso l’urto di pesi sul supporto, comandati da un motore.

Tutto usando Arduino per ottenere i dati e per controllare l’esperimento. I video di alcuni di questi potete vederli in questa pagina.

Oltre a seguire gli studenti fino all’esame finale, in queste settimane ho lavorato con i miei colleghi alla preparazione del primo workshop internazionale sulla didattica della fisica con Arduino e Smartphone, che terremo a febbraio, e abbiamo eseguito numerose misure per quello che abbiamo definito lo Smartphone Building Challenge: ci siamo posti l’obiettivo di misurare l’altezza di un palazzo usando uno smartphone. Ci sono moltissimi modi per farlo. Ne parlerò in un prossimo post.

Intanto, se volete imparare a fare le cose che vedete in questo post, iscrivetevi alla quarta edizione della scuola di fisica con Arduino e Smartphone di Sapienza. La scuola è destinata agli insegnanti e agli aspiranti tali, ma possono partecipare tutti i laureati, in qualsiasi materia. La conoscenza di Arduino o la capacità di programmare non sono prerequisiti.

Conclusa la III edizione della scuola di fisica con Arduino e smartphone

Si è conclusa un’altra edizione di successo delle scuole di fisica con Arduino e smartphone per insegnanti delle superiori. La scuola è una full immersion di tre giorni durante i quali agli insegnanti si chiede di progettare, costruire e condurre un esperimento, analizzarne i dati e produrre una documentazione che serva ai loro colleghi per rifarlo.

I partecipanti alla III edizione della scuola di fisica con Arduino e smartphone

Tutti gli esperimenti devono essere realizzabili con materiali facilmente reperibili: non a caso uno dei momenti più topici della scuola è la shopping session durante la quale tutta la banda di insegnanti si reca nel negozio gestito da cinesi vicino al laboratorio dove lavoriamo per comprare il necessario (grazie a Eva Shopping che si presta a essere invasa da un’orda di persone che non sanno ancora cosa vogliono).

Quest’anno sono stati realizzati diversi esperimenti che vanno dall’induzione elettromagnetica alla misura della costante di Planck, dall’interferenza tra onde alla misura della velocità del suono in funzione della temperatura.

Le scuole di fisica con Arduino e smartphone sono apprezzate anche all’estero. Prevediamo di fare un’analoga attività nell’Università di Paris-Sud a maggio, destinata agli studenti universitari. In autunno saremo a Oslo per un progetto del tutto simile. Abbiamo inoltre vinto un bando per esportare il modello in Uruguay e ci hanno invitato da Cuba a tenere un workshop presso la loro Università.

Maggiori informazioni e la documentazione dei progetti sul sito web del Dipartimento di Fisica di Sapienza.

I quesiti copiati

Dopo la pubblicazione delle simulazioni di seconda prova dell’esame di Stato pubblicate dal MIUR, l’annuncio che la prova sarà di “matematica e fisica” e la pubblicazione delle modalità di svolgimento della prova le polemiche erano già abbastanza (inutilmente) roventi.

A queste si aggiunge ieri la pubblicazione di un articolo da parte di Repubblica, secondo il quale sei delle otto tracce della simulazione sarebbero state copiate da un manuale russo per universitari. Sul sito di Studenti.it, invece, si fa osservare che il problema 2 è identico a quello proposto durante gli esami dell’ESABAC francese, definito una “scuola di eccellenza”.

Come al solito, prima di prendere per buone le notizie ho controllato (questa è ed è sempre stata una sana abitudine). È bastato cercare “Irodov problems general physics” su Google per trovare il manuale in questione dove effettivamente sono presenti i quesiti proposti. Sul sito annabac.com invece si trova la versione francese della prova.

Comincio con un po’ di caveat: non sono tra gli estensori delle prove, non conosco gli estensori delle prove, non lavoro per il Governo né per il Ministro (faccio il Professore Universitario, quindi lavoro per lo Stato Italiano, ma non per questo o quel Ministro, delle cui opinioni, fintanto che non diventano legge, me ne infischio). Però mi dà fastidio leggere cose inesatte, specialmente se sono scritte sui siti dei quotidiani la cui professionalità e attendibilità, dicono, dovrebbe essere acclarata.

Altri avvisi preliminari: sono contento che sia finalmente stata introdotta la fisica come argomento d’esame. Le simulazioni che ho letto, le cui soluzioni ho pubblicato su Patreon, mi sono sembrate tutto sommato equilibrate. Se le avessi scritte io avrei fatto probabilmente qualche scelta diversa, sopra tutto per quanto riguarda il linguaggio, ma anche nei contenuti. Ma poiché non ho questa responsabilità, la mia opinione conta quanto quella di chi l’ha scritta.

Sperando che la mia opinione sia chiara, veniamo quindi al punto. Le prove sono state copiate. Direi che è quasi ovvio, trattandosi di simulazioni. Anche perché sono certo che il compito sia stato affidato a qualche collega della scuola che certamente non è stato pagato per farlo. Sono pronto a scommettere su questo. Naturalmente si poteva almeno fare un po’ di sforzo per modificarle un pochettino. Del resto questo è quel che chiediamo agli studenti quando gli facciamo fare del lavoro di ricerca, no? Se chi pretende questo dagli studenti poi non lo fa, beh…qualche critica se la deve prendere.

Gli esercizi di fisica sono di fatto sempre gli stessi. I problemi risolvibili analiticamente, infatti, sono in numero non solo finito, ma piccolo. L’unica differenza tra un esercizio e l’altro è il modo in cui è presentato. Qualsiasi altro problema sarebbe stato una copia di un problema presente su un libro di testo, opportunamente riformulato.

L’altra questione sollevata da chi punta il dito sui quesiti copiati dal manuale di Irodov è che provengono da un manuale per universitari. E allora? Uno studente universitario di fisica dell’epoca alla quale è stato scritto il libro, appena iscritto, molto probabilmente non aveva visto in vita sua una sola formula di fisica. Di conseguenza è del tutto assimilabile a uno studente di liceo di oggi. Anche oggi, gli studenti universitari fanno esercizi che, all’inizio della loro carriera, sono del tutto simili agli esercizi che fanno a scuola. Mica penserete che il solo fatto di essere iscritti a fisica vi dia la capacità di saper risolvere istantaneamente esercizi di alto livello! Nel manuale di Irodov ci sono 2000 esercizi: alcuni difficili, certo, ma altri decisamente semplici.

Per quanto riguarda invece l’affermazione secondo la quale l’ESABAC sarebbe la scuola di eccellenza francese, basta leggere sul sito del MIUR per sapere che in realtà non è altro che un percorso scolastico bilingue comune a Italia e Francia.

È ben noto che le scuole italiane non sono seconde a nessuno in quanto a preparazione fornita. Se quindi la prova è stata data in un esame di Stato che includeva studenti francesi, ancorché frequentati una scuola bilingue (e quindi forse da questo punto di vista di eccellenza, non certo dal punto di vista dei contenuti) significa che la prova è decisamente alla portata degli studenti italiani.