Stimare la letalità di una malattia quando una grossa percentuale di soggetti affetti è ancora malata è meno facile di quel che sembri…

Durante la pandemia di Sars-Cov-2 ci stiamo tutti abituando ad avere a che fare con concetti che fino a un anno fa erano di competenza di pochissimi. Tra questi spicca la letalità. La letalità di una malattia (o di altre cose, come l’esposizione a una sostanza tossica o radioattiva, per esempio, genericamente potremo dire “un fattore di rischio a cui un certo numero di persone sono state esposte”) è definita come il rapporto tra i decessi e il numero di persone che sono state soggette al fattore di rischio. Questa non va confusa con la mortalità, che invece rappresenta il rapporto tra il numero di decessi e tutti i componenti di una popolazione in un dato periodo di tempo, sommando tutte le cause di decesso.

Ora il problema è come calcolare la letalità. Data la definizione, sembrerebbe un calcolo piuttosto banale: dividiamo i deceduti a causa di un dato fattore di rischio per tutti quelli che sono stati soggetti a quello stesso fattore di rischio e otteniamo la frazione. Possiamo poi moltiplicare per 100 e ottenere la letalità in percentuale, che di solito è considerata più leggibile. Questo è vero a due condizioni: che il numero di casi su cui facciamo il calcolo sia molto grande rispetto ai casi attualmente attivi e che conosciamo con esattezza il numero di casi totali.

Prendiamo come esempio una malattia che ha colpito nel passato un milione di persone e che siamo riusciti a identificare interamente: 12000 soggetti sono deceduti e 988000 sono guariti. Oggi non ci sono più casi attivi. In questa situazione, applicando la definizione, otteniamo una letalità dell’1.2% e possiamo prevedere che, se ci sarà una nuova ondata, ogni mille nuovi malati, circa 12 perderanno la vita a causa della malattia. Se avessimo identificato un milione di casi, ma in realtà i casi fossero stati di più, per esempio due milioni, la nostra stima della letalità sarebbe sbagliata per eccesso: la letalità “vera” sarebbe gli stessi 12000 decessi divisi per i due milioni di casi, quindi lo 0.6%. Lo scenario in cui identifichiamo tutti i casi ma non tutti i decessi è sostanzialmente irrealizzabile, quindi in generale ci possiamo aspettare che la letalità, una volta guariti o deceduti tutti i casi, sia sovrastimata. Fa eccezione il caso in cui, pur avendo identificato tutti i deceduti positivi alla malattia, non siamo stati capaci di associare la malattia al decesso, ma mi sembra un’eventualità francamente molto remota. Di quanto non lo sappiamo, a meno che non abbiamo una informazione indipendente sul numero di casi totali, oltre a quelli identificati.

Consideriamo ora il caso in cui la causa di morte sia ancora attiva, per esempio una epidemia in corso. Avremo allora tre numeri con cui lavorare: il numero di casi, il numero di decessi e il numero di guariti. Nella maggior parte delle malattie, il tempo medio tra l’insorgenza dei sintomi e la guarigione è più lungo rispetto al tempo medio tra l’insorgenza dei sintomi e il decesso. Questo fa sì che, finché l’epidemia è in corso, il rapporto tra decessi registrati e casi totali sottostimi la letalità. Poniamo il caso che ogni giorno ci siano 1000 nuovi malati e che in media dopo 10 giorni l’1% muoia. Per i primi dieci giorni, vedremo un numero molto piccolo di decessi, quindi penseremo che la letalità sia intorno a 0. Dopo venti giorni, l’1% dei malati dei primi dieci giorni sarà morto, mentre quasi nessuno dei malati dei secondi dieci giorni lo sarà, quindi la nostra stima sarà di 10 decessi su 20000 casi, lo 0.5%. Dopo 100 giorni, con lo stesso ragionamento, avremo 100000 casi attivi e 900 decessi, quindi stimeremo 0.9%. Ci avviciniamo asintoticamente a 1%, che è il “valore vero”, ma continuiamo a sottostimare. Tutto questo, ovviamente, se non ci sono inefficienze, come nel caso precedente, nel tracciamento dei casi soggetti alla malattia.

Per evitare questo errore abbiamo due strade. La prima è dividere non per il numero di persone attualmente a rischio, ma per quello che era n giorni prima, in modo da compensare il ritardo con cui si verificano i decessi rispetto all’identificazione del rischio. Questo in teoria è perfettamente corretto, ma presenta un problema spesso insormontabile, ovvero definire correttamente il valore di n. L’alternativa è sfruttare il fatto, come già accennato, che nella maggior parte dei casi il decesso avviene in media prima dell’uscita dalla condizione di rischio e studiare il rapporto tra i decessi e i casi con esito. I casi con esito, nell’esempio di una malattia, sono la somma dei deceduti e dei guariti. In questo modo, possiamo assumere che questa stima sia per eccesso e che, come per il rapporto tra deceduti e casi totali, tenderà al valore vero della letalità quando il numero di casi con esito diventa molto grande rispetto ai casi ancora attivi.

Abbiamo così due indicatori, uno per eccesso e uno per difetto, e ripensando al teorema “dei due carabinieri”, che dice che se una funzione h è sempre maggiore di una funzione f e sempre minore di una funziona g, e sia f che g tendono a un certo valore, allora anche h tenderà allo stesso valore, possiamo immaginare che da qualche parte tra quei due indicatori ci sia la letalità “vera”. Quando il rapporto tra casi con esito e casi totali si avvicinerà al 100%, le due stime si avvicineranno molto e avremo un numero “preciso”, pur con tutti i limiti di cui abbiamo già parlato. Tuttavia, anche molto prima avremo almeno un limite inferiore e uno superiore, in base ai quali potremo dare una stima e anche valutare quanto affidabile sia, quella stima. Forse è fantascienza, per il giornalista quadratico medio, ma lasciatemi sognare.

Confronto tra la letalità misurata e calcolata per la prima ondata di Sars-Cov-2 in Italia, dal 24 febbraio al 20 luglio 2020, assumendo una letalità del 14.7%. Nella simulazione (pallini) si è assunto che il decesso arrii 7 giorni dopo e la guarigione 20 giorni dopo la diagnosi. Le curve continue sono i dati diffusi dalla Protezione Civile.

PS: tutto questo discorso declinato per Sars-Cov-2 in Italia.

Per avere un’idea un po’ più accurata dei dati, divideremo l’epidemia in due fasi, la prima dall’inizio al 20 luglio e la seconda dal 20 luglio al 30 novembre. Nella prima fase, al 20 luglio si contavano 35058 decessi, 244624 casi totali e 12404 casi ancora attivi. La stima per difetto della letalità era 14.3% e quella per eccesso 15.1%. Valori molto alti, ma, se confrontati con il risultato del test sierologico a campione che era stato fatto in quel periodo, che indicava un numero “realistico” di casi intorno a 6 volte quelli registrati, porta a una letalità ricalcolata intorno al 2.5%. Le due stime sono molto vicine perché i casi con esito erano allora circa il 95% dei casi totali, quindi l’incertezza era ormai molto ridotta.

Nella seconda fase, si sono aggiunti 1354396 nuovi casi registrati, con 20444 decessi e 557711 guarigioni. In base a questi numeri, la stima per difetto della letalità è circa 1.5% e quella per eccesso 3.5%: la forchetta è relativamente larga perché il numero di casi con esito è solo il 43% del totale.

Questi numeri non vogliono rappresentare una stima “scientifica e accurata” della letalità legata all’infezione da Sars-Cov-2, ma essere un esempio di come, usando anche dati con grandi incertezze come quelli che abbiamo a disposizione per questa malattia, possiamo comunque estrarre valori che abbiano un minimo di solidità. Per far contento un fisico, soprattutto, a fianco al numero sarebbe BELLISSIMO vedere associata anche l’incertezza su quel numero, ma forse qui andiamo sulla fantascienza per davvero.