Ogni giorno leggiamo sui giornali e sui social network almeno un articolo che inizia con “Uno studio scientifico dimostra che…” e continua con qualcosa di più o meno strano e interessante.
Spesso ci capitano cose del tipo “… le persone che hanno questo vizio sono più intelligenti”, e può essere il bere alcolici, essere ritardatari cronici, disordinati senza speranze o un sacco di altre cose. Non prenderò in considerazione questi articoli, che mi sembrano già abbastanza surreali senza bisogno di ulteriori commenti. Intendo quelli dall’aspetto più serio, come questi due che trattano il problema dell’insorgenza di tumori nella “terra dei fuochi”:
http://napoli.repubblica.it/cronaca/2016/01/11/news/istituto_superiore_della_sanita_nella_terra_dei_fuochi_piu_morti_di_tumore_-131038582/
Entrambi gli articoli presentano studi circostanziati ed effettuati da enti di sicura serietà e competenza, su un argomento interessante e decisamente di attualità. Il problema è che i risultati non concordano. O, quantomeno, dagli articoli si desumono informazioni contrastanti.
Non sono assolutamente nelle condizioni per dire chi dia le informazioni più corrette (o nel modo più corretto), ma vorrei analizzare alcuni punti sul modo in cui certi dati vengono raccolti, analizzati e presentati. Anche agli occhi degli altri scienziati, noi fisici siamo un po’ fissati per queste cose, ma, soprattutto quando si tratta di capire da che parte si deve remare per il bene delle persone, è ragionevole pensare che valga la pena capire bene i dati che si hanno in mano, prima di fare delle scelte.
Il problema di fondo è che quando si fa una misura non si riesce mai a essere *infinitamente* precisi: ogni dato dovrebbe essere accompagnato dalla indeterminazione con cui è stato misurato. Pensiamo alla lunghezza di un tavolo: possiamo usare un metro, e ottenere 170cm. Se abbiamo usato un metro da falegname, con una tacca ogni mezzo centimetro, la nostra indeterminazione sarà appunto di mezzo centimetro, se abbiamo usato un metro più preciso potrà essere di un millimetro, ma il discorso poco cambia. Se poi usassimo uno strumento molto preciso, vedremmo che a seconda del punto in cui misuriamo il nostro tavolo si ottengono misure leggermente diverse, magari di pochi millesimi di millimetro, ma comunque non riusciremo a dare un numero senza incertezza.
Questi due tipi di “errore”, peraltro, sono molto diversi. Nel primo caso, quando siamo limitati dalla precisione del nostro strumento, possiamo dire “con certezza” che la dimensione dell’oggetto misurato è all’interno di un certo intervallo: nel caso del tavolo di prima, per esempio, compresa tra 169,9 e 170,1 centimetri. Nel secondo caso, dobbiamo fare molte misure e affidarci a uno degli strumenti più potenti della matematica, la statistica. Dopo aver fatto una ventina di misure, che, in generale, saranno tutte leggermente diverse le une dalle altre, possiamo farne la media e valutare quanto queste stesse misure siano sparpagliate intorno alla media. Per fare ciò si utilizza un secondo numero, chiamato deviazione standard e identificata con la lettera greca sigma. Grazie a una serie di teoremi possiamo dire che il “valore vero” della nostra misura sta in un intervallo di ±sigma intorno alla media con una probabilità del 68%, di ±2sigma con una probabilità del 94% e di ±3sigma con una probabilità del 99,8% e così via.
Questo vuol dire che, quando facciamo una valutazione statistica, possiamo dire che due misure sono diverse se differiscono di “qualche” sigma. In fisica, per esempio, questo “qualche” è almeno 3, ma meglio 5. Questo discorso, per rendere felici noi fisici, dovrebbe essere fatto ogni volta che si fanno affermazioni del tipo “questo è l’inverno più freddo (o più caldo, o più piovoso, o più qualsiasi cosa) degli ultimi 100 anni”: vorremmo vedere dei numeri, delle medie, delle deviazioni standard e delle differenze “grandi” rispetto alle deviazioni standard. Viceversa, se la nostra misura sta a meno di un sigma dalla media, la differenza è statisticamente irrilevante.
Un discorso analogo si può fare quando si studia una popolazione: nei due articoli di giornale citati sopra si parla di insorgenza di malattie, per esempio. In casi come questi, non si fa una misura, ma si fanno dei conteggi. In questo caso, il concetto di errore sulla misura va rivisto, non avremo mai 32,49 malati, saranno 32 o 33. Ciononostante, non è ragionevole pensare di conoscere questo numero in modo “esatto”. Pensiamo, per semplicità, di fare dei conteggi su un sistema molto più semplice, il lancio di una moneta. Immaginiamo di lanciarla una sola volta e che venga testa: questo non ci autorizza certo a pensare che ci sia il 100% di probabilità che lanciando una moneta esca testa! Sappiamo che, se la lanciassimo infinite volte, otterremmo testa nel 50% dei casi e croce nell’altro 50%, ma cosa ci aspettiamo se la lanciamo un numero *finito* di volte? Ci aspettiamo di avere un numero di uscite “testa” vicino al 50% dei casi, e, in particolare, distribuito intorno al 50% con una certa deviazione standard, pari alla radice quadrata del numero di conteggi. Con un solo conteggio non potremo dire nulla, con 100 conteggi avremmo una sigma di 10 (cioè una indeterminazione del 10%), con 10.000 di 100 (indeterminazione dell’1%), con 1.000.000.000.000 di 1.000.000 (indeterminazione di una parte su un milione).
Nei test clinici, per rimanere su un esempio di grande importanza per la società, non possiamo fare un numero arbitrariamente grande di tentativi, come nel lancio di una moneta. Per questo, il rischio, quando i numeri sono dell’ordine delle decine o delle centinaia, è che sia difficile dimostrare che c’è una differenza statisticamente significativa tra una certa popolazione, per esempio i mangiatori di cetrioli di mare, e il resto della gente nell’insorgenza di una certa malattia. Non è impossibile, né bisogna prendere questa limitazione come un problema: conoscere e maneggiare con coscienza gli strumenti della statistica è fondamentale per comprendere i dati che sono stati raccolti e dare il giusto peso a ciò che si è misurato. Se, per esempio, la differenza di mortalità tra un certo gruppo e il resto della popolazione fosse 20 sigma, saremmo di fronte ad un fenomeno di gravità molto più elevata rispetto ad un aumento di mortalità di “soli” 2 sigma. Questo modo di presentare i dati sarebbe molto più significativo di “la mortalità aumenta del 20%”, perché quel 20% potrebbe corrispondere appunto a 20 sigma, ed essere drammaticamente rilevante, o a 0.1 sigma, ed essere completamente irrilevante.
Non ho mai fatto uno studio scientifico sistematico su come vengono presentati al pubblico i dati di questo tipo, ma ho la sensazione che il numero di volte in cui viene fatto nel modo che piace a noi fisici sia… statisticamente irrilevante.
—
Immagine di copertina: un Dalitz Plot per identificare le particelle in cui si sono formati determinati prodotti di decadimento (wikimedia commons)
Sì, vi è poco amore per la verità. In questo modo ci si permette di “dare i numeri” senza un minimo di serietà.
Ho pure notato come la probabilità sia spesso erroneamente intesa come descrittiva del “caso”, o comunque ad esso correlata.
Mentre il caso è l’assolutamente incomprensibile.
Diciamo che un evento è capitato per caso, ma è solo un modo di dire, per indicare che non saremmo stati in grado di prevederlo per mancanza di sufficienti informazioni, non perché dovuto davvero al caso.
La probabilità è solo un mezzo con il quale la mente razionale cerca di maneggiare ciò che avviene “necessariamente” ma che non è in grado di determinare con certezza.
Il caso è invece peculiare del caos. Che non è disordine, in quando il disordine è sempre disordine di qualcosa. No, il caos è l’annichilimento di ogni “qualcosa”, e allo stesso tempo… non è il nulla.
Sicuramente si potevano prendere, come esempi, altri articoli della stampa dove non ci sono le necessarie informazioni sulla deviazione standard. Nonostante sia probabile che non ci siano 5 sigma (certezza) in questi studi statistici e magari neanche 3, è invece da 5 sigma (SICURO) che chi scrive questo articolo non vive nella terra dei fuochi o dove c’è un inceneritore di spazzatura. Perchè nonostante l’irrilevanza statistica, in fondo al tuo cuore sai di stare nella merda
Questo è un altro discorso, nel quale dichiaro di non voler entrare nel merito: personalmente sono convinto che si debba intervenire in quella situazione, indipendentemente da studi scientifici che ne dimostrino la pericolosità. Penso anzi che il susseguirsi di dati buttati lì non sia funzionale a spingere in questa direzione, perché, come giustamente dici tu, penso che la società debba intervenire non solo quando c’è la certezza scientifica di doverlo fare, ma anche quando c’è la forte convinzione da parte della popolazione che un problema esista. Mi spiace che lo scopo del pezzo sia stato spesso interpretato in modo diverso da come lo avevo inteso: ho scelto quegli esempi non per dire “non si fa così, fate i compiti meglio”, ma perché mi hanno colpito molto fortemente, proprio perché sono legati a un problema di salute pubblica decisamente molto serio e penso che, così presentati, non aiutino affatto ad andare nella giusta direzione della risoluzione del problema.