Ogni giorno leggiamo sui giornali e sui social network almeno un articolo che inizia con “Uno studio scientifico dimostra che…” e continua con qualcosa di più o meno strano e interessante.

Spesso ci capitano cose del tipo “… le persone che hanno questo vizio sono più intelligenti”, e può essere il bere alcolici, essere ritardatari cronici, disordinati senza speranze o un sacco di altre cose. Non prenderò in considerazione questi articoli, che mi sembrano già abbastanza surreali senza bisogno di ulteriori commenti. Intendo quelli dall’aspetto più serio, come questi due che trattano il problema dell’insorgenza di tumori nella “terra dei fuochi”:

http://www.corriere.it/salute/sportello_cancro/16_gennaio_27/i-nuovi-dati-tumori-pediatrici-terra-fuochi-47a81fd2-c4db-11e5-9850-7f16b4fde305.shtml

http://napoli.repubblica.it/cronaca/2016/01/11/news/istituto_superiore_della_sanita_nella_terra_dei_fuochi_piu_morti_di_tumore_-131038582/

Entrambi gli articoli presentano studi circostanziati ed effettuati da enti di sicura serietà e competenza, su un argomento interessante e decisamente di attualità. Il problema è che i risultati non concordano. O, quantomeno, dagli articoli si desumono informazioni contrastanti.

Non sono assolutamente nelle condizioni per dire chi dia le informazioni più corrette (o nel modo più corretto), ma vorrei analizzare alcuni punti sul modo in cui certi dati vengono raccolti, analizzati e presentati. Anche agli occhi degli altri scienziati, noi fisici siamo un po’ fissati per queste cose, ma, soprattutto quando si tratta di capire da che parte si deve remare per il bene delle persone, è ragionevole pensare che valga la pena capire bene i dati che si hanno in mano, prima di fare delle scelte.

Il problema di fondo è che quando si fa una misura non si riesce mai a essere *infinitamente* precisi: ogni dato dovrebbe essere accompagnato dalla indeterminazione con cui è stato misurato. Pensiamo alla lunghezza di un tavolo: possiamo usare un metro, e ottenere 170cm. Se abbiamo usato un metro da falegname, con una tacca ogni mezzo centimetro, la nostra indeterminazione sarà appunto di mezzo centimetro, se abbiamo usato un metro più preciso potrà essere di un millimetro, ma il discorso poco cambia. Se poi usassimo uno strumento molto preciso, vedremmo che a seconda del punto in cui misuriamo il nostro tavolo si ottengono misure leggermente diverse, magari di pochi millesimi di millimetro, ma comunque non riusciremo a dare un numero senza incertezza.

Questi due tipi di “errore”, peraltro, sono molto diversi. Nel primo caso, quando siamo limitati dalla precisione del nostro strumento, possiamo dire “con certezza” che la dimensione dell’oggetto misurato è all’interno di un certo intervallo: nel caso del tavolo di prima, per esempio, compresa tra 169,9 e 170,1 centimetri. Nel secondo caso, dobbiamo fare molte misure e affidarci a uno degli strumenti più potenti della matematica, la statistica. Dopo aver fatto una ventina di misure, che, in generale, saranno tutte leggermente diverse le une dalle altre, possiamo farne la media e valutare quanto queste stesse misure siano  sparpagliate intorno alla media. Per fare ciò si utilizza un secondo numero, chiamato deviazione standard e identificata con la lettera greca sigma. Grazie a una serie di teoremi possiamo dire che il “valore vero” della nostra misura sta in un intervallo di ±sigma intorno alla media con una probabilità del 68%, di ±2sigma con una probabilità del 94% e di ±3sigma con una probabilità del 99,8% e così via.

Questo vuol dire che, quando facciamo una valutazione statistica, possiamo dire che due misure sono diverse se differiscono di “qualche” sigma. In fisica, per esempio, questo “qualche” è almeno 3, ma meglio 5. Questo discorso, per rendere felici noi fisici, dovrebbe essere fatto ogni volta che si fanno affermazioni del tipo “questo è l’inverno più freddo (o più caldo, o più piovoso, o più qualsiasi cosa) degli ultimi 100 anni”: vorremmo vedere dei numeri, delle medie, delle deviazioni standard e delle differenze “grandi” rispetto alle deviazioni standard. Viceversa, se la nostra misura sta a meno di un sigma dalla media, la differenza è statisticamente irrilevante.

Diverse distrubuzioni (blu, rossa e gialla) hanno la stessa media e diverse deviazioni standard: possiamo dire che blu e verde sono diversi, ma non possiamo dire lo stesso di verde e giallo...

Diverse distrubuzioni (blu, rossa e gialla) hanno la stessa media e diverse deviazioni standard: possiamo dire che blu e verde sono diversi, ma non possiamo dire lo stesso di verde e giallo…

Un discorso analogo si può fare quando si studia una popolazione: nei due articoli di giornale citati sopra si parla di insorgenza di malattie, per esempio. In casi come questi, non si fa una misura, ma si fanno dei conteggi. In questo caso, il concetto di errore sulla misura va rivisto, non avremo mai 32,49 malati, saranno 32 o 33. Ciononostante, non è ragionevole pensare di conoscere questo numero in modo “esatto”. Pensiamo, per semplicità, di fare dei conteggi su un sistema molto più semplice, il lancio di una moneta. Immaginiamo di lanciarla una sola volta e che venga testa: questo non ci autorizza certo a pensare che ci sia il 100% di probabilità che lanciando una moneta esca testa! Sappiamo che, se la lanciassimo infinite volte, otterremmo testa nel 50% dei casi e croce nell’altro 50%, ma cosa ci aspettiamo se la lanciamo un numero *finito* di volte? Ci aspettiamo di avere un numero di uscite “testa” vicino al 50% dei casi, e, in particolare, distribuito intorno al 50% con una certa deviazione standard, pari alla radice quadrata del numero di conteggi. Con un solo conteggio non potremo dire nulla, con 100 conteggi avremmo una sigma di 10 (cioè una indeterminazione del 10%), con 10.000 di 100 (indeterminazione dell’1%), con 1.000.000.000.000 di 1.000.000 (indeterminazione di una parte su un milione).

Nei test clinici, per rimanere su un esempio di grande importanza per la società, non possiamo fare un numero arbitrariamente grande di tentativi, come nel lancio di una moneta. Per questo, il rischio, quando i numeri sono dell’ordine delle decine o delle centinaia, è che sia difficile dimostrare che c’è una differenza statisticamente significativa tra una certa popolazione, per esempio i mangiatori di cetrioli di mare, e il resto della gente nell’insorgenza di una certa malattia. Non è impossibile, né bisogna prendere questa limitazione come un problema: conoscere e maneggiare con coscienza gli strumenti della statistica è fondamentale per comprendere i dati che sono stati raccolti e dare il giusto peso a ciò che si è misurato. Se, per esempio, la differenza di mortalità tra un certo gruppo e il resto della popolazione fosse 20 sigma, saremmo di fronte ad un fenomeno di gravità molto più elevata rispetto ad un aumento di mortalità di “soli” 2 sigma. Questo modo di presentare i dati sarebbe molto più significativo di “la mortalità aumenta del 20%”, perché quel 20% potrebbe corrispondere appunto a 20 sigma, ed essere drammaticamente rilevante, o a 0.1 sigma, ed essere completamente irrilevante.

Non ho mai fatto uno studio scientifico sistematico su come vengono presentati al pubblico i dati di questo tipo, ma ho la sensazione che il numero di volte in cui viene fatto nel modo che piace a noi fisici sia… statisticamente irrilevante.

 

Immagine di copertina: un Dalitz Plot per identificare le particelle in cui si sono formati determinati prodotti di decadimento (wikimedia commons)