Giornata Mondiale delle Malattie Rare

rdd-logo

Il 28 febbraio 2015 si è celebrata la Giornata Mondiale delle Malattie Rare che è arrivata alla sua ottava edizione. In Europa una malattia viene definita rara quando la sua incidenza è di meno di 1 caso su 2000. L’evento nasce per sensibilizzare l’opinione pubblica in merito alle problematiche riguardanti le malattie rare: dalle cure all’assistenza, passando per la ricerca e di conseguenza ai farmaci disponibili.

Si stima che nel mondo ci siano circa 6000 malattie rare che affliggono 3 milioni di persone. Si va da malattie metaboliche come la Sindrome di Cushing, derivante dall’eccesso di cortisolo nell’organismo, a patologie causate da agenti esterni come il Citomegalovirus congenito che risulta particolarmente pericoloso se trasmesso dalla madre al feto.

Una malattia rara risulta difficile da diagnosticare poiché i sintomi possono essere gli stessi di altre malattie ed essere erroneamente scambiati come indicatori di patologie più comuni. La diagnosi errata, e di conseguenza la terapia adottata, possono risultare deleterie per chi è affetto da una malattia rara. A questo va aggiunto che spesso non esistono cure efficaci contro queste patologie poiché pochissime persone le studiano e di conseguenza la ricerca procede a rilento, vengono producono meno farmaci (o non se ne producono affatto), non ci sono finanziamenti e nessuno se ne occupa. Come un cane che si morde la coda, chi è affetto da malattie rare si ritrova a non avere molte opportunità, se non di cura, almeno di migliorare la propria condizione e quella delle famiglie che si trovano a dover assistere i propri cari. Perché un altro aspetto su cui vuole mettere il punto questo evento è proprio sulle difficoltà che affrontano anche le famiglie quotidianamente.

In Italia esiste un osservatorio delle malattie rare che si occupa non solo di informare, ma anche di promuovere la ricerca in questo senso, cercando di coinvolgere le associazioni e le industrie farmaceutiche. In Italia ci sono state numerose manifestazioni per la Giornata Mondiale delle Malattie Rare, qui la lista degli eventi.

Condividiamo il problema, aumentiamo la consapevolezza.

Scientificast #65 – Logica vulcaniana e numeri irrazionali (in loving memory of Leonard Nimoy)

Audio clip: é necessario Adobe Flash Player (versione 9 o superiore) per riprodurre questa traccia audio. Scarica qui l’ultima versione. Devi inoltre avere attivato il JavaScript nel tuo browser.

stickerish.com, all right reserved Paramount Pictures (utilizzato secondo i principi del diritto di citazione)

Lunga vita e prosperità. [(C), Paramount Pic.]

Questa puntata di Scientificast la dedichiamo alla memora di Leonard Nimoy, indimenticato attore protagonista della serie televisiva Star Trek ed interprete del Comandante Spock.
Che la logica, la curiosità e lo spirito critico che ha sempre incarnato nel suo personaggio chiave possano sempre essere guida per le nostre azioni e spingerci là, dove nessuno è mai giunto prima.
Lunga vita e prosperità.

Conosciamo meglio Luciano Giacò, bioinformatico e nuovo blogger della nostra squadra. Ma poi, che lavoro è il bioinformatico? Luciano risolve il mistero. Seguite il suo nuovo blog collettivo, Botta di Classe.

Famelab 2015. Si avvicina la data delle selezioni genovesi. Noi una campionessa ce l’abbiamo in casa ed è Ilaria Zanardi (vincitrice di Famelab Italia nel 2013). Insieme a Giuliano ci introduce a questa nuova edizione, già partita da Padova e in arrivo a Genova il prossimo 14 Marzo. Tutte le informazioni sul sito ufficiale di Famelab Italia.

Abbiamo avuto l’onore di intervistare il premio Nobel per la fisica 1999, Gerard ‘t Hooft, Professore di fisica teorica presso l’Università di Utrecht; fu insignito del prestigioso riconoscimento dell’Accademia reale svedese per le scienze per “aver spiegato la struttura quantica dell’interazione elettrodebole“.

Potendo contare sulla preziosa collaborazione con AstronautiCast, torniamo nello spazio. Oggi parliamo delle recenti attività della Stazione Spaziale Internazionale, in particolare dello sgancio di ATV-5 dalla stessa e della missione di Space X che ha visto nuovamente coinvolta la capsula Dragon. Vi consigliamo la visione anche di questo bellissimo video che ha come protagonista Samantha Cristoforetti.

 >> SCARICA L’EPISODIO 65 <<

Otto fallacie logiche che alimentano le tesi antiscientifiche

(Questo post è la traduzione e l’adattamento dell’articolo di George Dvorsky pubblicato su io9, qui riprodotto con il permesso dell’autore.)

Immagine0

(immagine: wikimedia commons)

Abbiamo bisogno della scienza ora più che mai. Ne siamo sempre più dipendenti, e allo stesso tempo è lo strumento più potente che abbiamo per capire e trasformare il mondo. Eppure non solo per molti è difficile reperire informazioni accurate sul metodo scientifico e sui suoi risultati, ma a rendere le cose ancora più difficili vi è la persistenza di molti luoghi comuni infondati sulla scienza, che portano individui o associazioni a guardarla perfino con sospetto e ad adoperarsi per screditarne il valore.

 

Il problema è che molti degli argomenti utilizzati per contestare o disconoscere le scoperte scientifiche (o anche lo stesso metodo scientifico) sono pieni zeppi di fallacie logiche, cioè errori nel ragionamento logico-deduttivo.

Qui di seguito vediamo otto fra i più comuni errori che alimentano le tesi antiscientifiche.

 

 

  1. FALSA EQUIVALENZA

 

Nessuno mette in dubbio che sia importante tenere conto di punti di vista diversi quando si discute un argomento. Ma questo non significa che ogni singola prospettiva su un tema controverso meriti la stessa considerazione o che vi si debba dedicare lo stesso tempo di ascolto. Questo errore è conosciuto col nome di falsa equivalenza: si attesta una pari dignità logica tra due o più opinioni divergenti, quando tale parità non sussiste.

È un errore in cui si incorre spesso quando giornalisti e opinionisti provano ad offrire un dibattito “alla pari” tra un punto di vista scientifico ed uno negazionista (come nel caso del celebre dibattito tra Bill Nye e Ken Ham su evoluzionismo e creazionismo). Molto spesso la parte avversaria non dispone di vere prove, o presenta prove insufficienti o di dubbio valore. Il punto è proprio che non sempre le due parti di un dibattito sono in grado di offrire un uguale contributo in termini di qualità e di prove a supporto delle loro teorie; ma lo spettatore medio può avere difficoltà a rendersene conto.

 

Il dibattito tra Bill Nye e Ken Ham su evoluzionismo e creazionismo. (Immagine: Pixgood)

Il dibattito tra Bill Nye e Ken Ham su evoluzionismo e creazionismo. (Immagine: Pixgood)

 

Il blog “The Skeptical Raptor” spiega bene questo punto:

 

Si guardi una discussione sul cambiamento climatico antropogenico (cioè causato dall’uomo) trasmessa da uno qualsiasi fra i principali organi di informazione. Vi verranno mostrati uno scienziato che, parlando da uno schermo, cerca di esporre dati in modo ponderato. Tipicamente è una persona che non si trova a suo agio con i “dibattiti” pubblici, e dovrà confrontarsi con un avversario fotogenico, magari uno scienziato (in un ambito però completamente diverso dalla climatologia), che si serve di deduzioni logiche fallaci e manipola i dati con disinvoltura per sostenere le sue conclusioni. È così che lo spettatore si convince che gli scienziati sono divisi a metà tra chi afferma e chi nega il cambiamento climatico antropogenico. Tuttavia, le vere cifre parlano di 97 scienziati su 100 che sostengono il cambiamento climatico antropogenico e solo 2-3 che lo contestano, almeno secondo una rivista scientifica seria e autorevole come i Proceedings of the National Academy of Science.

I negazionisti/scettici della scienza, sempre secondo The Skeptical Raptor, tentano di creare la falsa equivalenza con vari metodi, tra cui la pretesa di considerare la scienza una democrazia (cosa che non è), gli appelli alle autorità, le teorie del complotto e la creazione di controversie inesistenti.

 

 

  1. APPELLO ALLA NATURA E LA FALLACIA NATURALISTICA

 

Poche cose hanno compromesso il lavoro degli scienziati come l’appello alla natura e la fallacia naturalistica. Il primo è la convinzione che ciò che è naturale sia anche “buono” e “giusto”, la seconda consiste nel far derivare “ciò che deve essere” da “ciò che è”. Entrambi sono stati usati per dichiarare che il progresso della scienza e della tecnologia rappresentano una minaccia all’ordine naturale delle cose. Si elogia tutto ciò che è naturale come sano, e al contempo si condanna tutto ciò che è non naturale come nocivo e sgradevole.

 

(Immagine: Pixabay)

(Immagine: Pixabay)

 

Alla radice di questa convinzione vi è la supposizione infondata che le conquiste scientifiche e tecnologiche dell’umanità si collochino in qualche modo al di fuori della natura, e che le nostre attività nell’Universo operino per la distruzione del flusso o equilibrio naturale delle cose. Questa tesi è stata motivo di tensione e ha contribuito alla formulazione di espliciti divieti, alcuni dei quali riguardano la ricerca biologica di base e la genomica, mentre allo stesso tempo ha contribuito allo sviluppo di idee pseudoscientifiche come il Darwinismo sociale.

 

Il filosofo George E. Moore stabilì in modo inoppugnabile che è un errore cercare di definire il concetto di “buono” in termini di una qualche proprietà naturale. David Hume sottolineò come la fallacia naturalistica implichi un salto logico inutile dall’essere al dover essere. Inoltre, è sbagliato cercare di porre delle distanze tra l’umanità, con le sue attività, e gli altri aspetti dell’Universo. Dopotutto, noi lavoriamo nell’Universo seguendo le sue leggi, mai in violazione di esse; ciò che facciamo, ciò che produciamo al suo interno è naturale proprio come tutto il resto.

 

 

  1. SELEZIONE OSSERVATIVA

 

Molti critici della scienza, chi deliberatamente, chi meno, selezionano e condividono solo le informazioni che servono a confutare alcune specifiche dichiarazioni scientifiche, ignorando allo stesso tempo altre informazioni che invece supporterebbero delle ipotesi più credibili.

 

(Immagine: Flickr)

(Immagine: Flickr)

 

Ad esempio: “Mia nonna fumava e mangiava schifezze, eppure è campata fino a cent’anni e non si è mai ammalata” (frase che peraltro include un’altra fallacia, quella delle statistiche sui piccoli numeri). Oppure, far notare le circostanze favorevoli ignorando o minimizzando quelle sfavorevoli (o viceversa), ad esempio pubblicizzando i vincitori al casinò senza far parola di tutti coloro che perdono; o dichiarando che il crimine dilaga dopo aver visto il TG della sera, mentre le statistiche sui crimini al contrario mostrano un trend in decrescita (e qualcosa di simile si può affermare sulla probabilità individuale di cadere vittima di un attacco terroristico).

 

 

  1. APPELLO ALLA FEDE

Non mi interessano le prove, io ho fede in ciò in cui credo e quindi so che è vero.

Discutere su Dio è inutile perché Dio è al di là delle ragioni e degli argomenti della scienza.

Mi rifiuto di credere a questa idea disfattista del riscaldamento globale, Dio non permetterebbe mai che ci capitasse qualcosa del genere.

 

Vi ricorda qualcosa? Questi ritornelli vengono riproposti in continuazione da chi ha deciso di appellarsi alla propria fede nel sostenere una discussione. In questa fallacia, le convinzioni religiose si fondono con la ragione e le dimostrazioni. Di fatto la scelta di credere in qualcosa non può fungere da sostituto della scienza, anche se molti di coloro che la compiono credono di agire razionalmente.

 

(Immagine: Times Higher Education)

(Immagine: Times Higher Education)

 

Come fece notare il filosofo George M. Felis, appellarsi alla fede è non solo un errore logico, ma anche un fallimento morale:

 

Il motivo per cui la faccenda è così importante non risiede semplicemente nel fatto che le persone che abbracciano la fede possano sviluppare convinzioni scorrette. La ragione non funge solo da ente regolatore nel senso minimo, secondo cui ci sono confini entro i quali deve operare o altrimenti non è più ragione. Esiste anche una componente etica della ragione, perché le proprie convinzioni sono intimamente collegate alle proprie azioni. Alcune delle proprie credenze sono esse stesse regolatrici: credenze su ciò che è giusto o sbagliato, sul perché, sul valore della vita, per quali persone e in quali modi (si vedano i dibattiti sull’eutanasia e sull’aborto). E le convinzioni fattuali sono altrettanto importanti, dato che il modo in cui comprendiamo il mondo in cui agiamo influenza le nostre azioni allo stesso modo dei nostri valori e dei nostri scopi. Se qualcuno rinuncia alla ragione in virtù del proprio credo, rinuncia all’unico accesso alla verità di cui disponiamo. Gli umani non hanno nessuna capacità percettiva che consenta loro di discernere la verità immediatamente, allo stesso modo in cui discerniamo colori e forme (se l’illuminazione è adeguata e se la nostra vista è in buono stato). Il massimo a cui possiamo arrivare è la giustificazione delle nostre convinzioni. La fede non è una giustificazione, è la sospensione di ogni valido criterio per una giustificazione. La fede dichiara che alcune credenze, quelle più importanti, che si trovano al centro della mia visione del mondo e che influenzano il modo in cui vedo molte altre cose, non hanno bisogno di alcuna giustificazione.

 

  1. IL DIO DEI VUOTI

 

La scienza non ha tutte le risposte, né pretende di averle. Non sappiamo ancora come funziona la coscienza, non sappiamo cosa ha scatenato il Big Bang, e ci sono ancora lacune nella nostra comprensione di come alcuni tratti somatici emergano tramite la selezione naturale. Questo non implica che si tratti di problemi insolubili; è anzi piuttosto probabile che un giorno li risolveremo. Nel frattempo, è importante raccogliere osservazioni, fare delle ipotesi e supporre che valga il paradigma naturalistico (ovvero che ogni fenomeno possa essere spiegato senza dover invocare le azioni di una forza divina).

 

(Immagine: Wikimedia Commons)

(Immagine: Wikimedia Commons)

 

Purtroppo tuttavia, vi è una tendenza, tra coloro che intendono screditare la scienza, a colmare i vuoti nella comprensione con spiegazioni metafisiche o soprannaturali. Ad esempio, spesso i creazionisti sostengono che la selezione naturale non può spiegare in modo adeguato la diversità, la “irriducibile” complessità e l’apparente progettualità della vita sulla Terra. In modo simile, si tende ad affibbiare spiegazioni soprannaturali a fenomeni neurologici come le esperienze ai confini della morte, o agli episodi allucinatori come la percezione di una presenza esterna, quando spiegazioni più semplici non solo esistono, ma sono più probabili e plausibili.

Come scrisse il matematico Charles A. Coulson nel 1955, “Non esiste un ‘Dio dei vuoti’ che prenda il sopravvento in quei punti strategici dove la scienza non riesce ad arrivare; e la ragione è che i vuoti di questo tipo hanno la tendenza inevitabile a restringersi” e aggiunse anche “O Dio è la Natura intera, senza vuoti, o non esiste affatto”.

 

 

  1. APPELLO ALLE CONSEGUENZE

 

Fare appello alle conseguenze può essere considerato una specie di principio cautelativo, una diffida a intraprendere attività o sforzi scientifici che rischino di provocare danno (o conseguenze indesiderabili) per la salute umana o per l’ambiente, in considerazione di una imprevedibile serie di eventi a cascata (concetto legato a un’altra fallacia logica, detta “argomentazione a catena”). Tuttavia, in molti casi, i gruppi antiscientifici finiscono per contestare una particolare linea di indagine scientifica farcendo le loro argomentazioni di presunte conseguenze filosofiche o morali, concludendo che una premessa debba essere errata sulla base di presunte conseguenze sgradevoli, e viceversa.

 

A lungo si è temuto che i progressi nella fisica nucleare potessero creare i presupposti per una guerra atomica. (Immagine: Wikimedia Commons)

A lungo si è temuto che i progressi nella fisica nucleare potessero creare i presupposti per una guerra atomica. (Immagine: Wikimedia Commons)

 

Ad esempio, esiste la paura che l’evoluzionismo condurrà al genocidio, o che porterà a ritenere che gli umani non siano che un altro animale nella foresta (cioè alla negazione dell’eccezionalismo). Un’altra preoccupazione comune è che l’ateismo/materialismo ci condurrà a una vita immorale e priva di scopo.

Un altro buon esempio viene da Neo in Matrix. Quando gli viene chiesto se crede nel destino, Neo risponde di no; ma quando gli viene chiesto perché, risponde “Perché non mi piace l’idea di non poter gestire la mia vita”. In questo esempio, Neo non si rifà all’evidenza, ma alla sensazione sgradevole associata al credere nel destino.

Chiaramente, alcune strade dell’indagine scientifica sono più pericolose di altre.

Il recente dibattito sugli esperimenti “gain-of-function” (quelli cioè che coinvolgono la creazione e manipolazione genetica di nuovi patogeni particolarmente aggressivi, NdT) è un ottimo esempio. Ma non sono gli scienziati o il metodo scientifico da mettere sotto processo, quanto piuttosto il modo in cui ci adattiamo alle scoperte recenti.

 

 

  1. SOSPENSIONE DEL CONSENSO

È solo una teoria.

 

No, talvolta non è solo una teoria. Certo, i principi scientifici come la selezione naturale e la relatività generale sono teorie, ma arriva il momento in cui le spiegazioni o i modelli diventano talmente istruttivi e utili da poter essere elevati al livello di assiomi, cioè di dichiarazioni o proposizioni assodate, accettate e di indubbia validità, al punto che dovremmo evitare di sospendere il consenso, perché sarebbe irragionevole.

 

I fringuelli delle Galapagos. Le differenze tra i loro becchi sottolineano il fenomeno della cosiddetta radiazione adattiva, la diversificazione di nuove specie a partire da un progenitore comune. (Immagine: Wikimedia Commons)

I fringuelli delle Galapagos. Le differenze tra i loro becchi sottolineano il fenomeno della cosiddetta radiazione adattiva, la diversificazione di nuove specie a partire da un progenitore comune. (Immagine: Wikimedia Commons)

 

Questo non significa abbandonare lo scetticismo, o smettere di provare a perfezionare questi assiomi. Ma è importante dare il giusto riconoscimento alle “teorie” utili quando le incontriamo, piuttosto che screditarle quando non ve ne è reale motivo.

 

  1. SOSTITUIRSI A DIO

 

Pensate a questo come al corollario religioso della fallacia naturalistica. Nonostante non si tratti formalmente di una fallacia logica, è un errore nel modo di pensare: l’idea che l’uomo non dovrebbe calpestare ciò che è tradizionalmente considerato il dominio di Dio, e che facendolo si dimostri arrogante, irriverente e sconsiderato.

 

(Immagine: Amazon)

(Immagine: Amazon)

 

Si teme di intraprendere attività che stanno al di là della nostra comprensione e del nostro controllo, rischiando di creare danni irreparabili e, magari, di scatenare pure la collera divina. Il soggetto di tali controversie sono solitamente questioni come il controllo delle nascite, l’aborto, l’eutanasia volontaria, l’ingegneria genetica e il prelievo di cellule staminali embrionali. In futuro potrebbero essere coinvolte anche la ricerca sull’estensione radicale della vita e la geoingegneria.

Ma una domanda che è stata spesso posta è: se non giochiamo noi a fare Dio, chi altri può? Questo è il lascito fondamentale dell’Illuminismo europeo e dell’Umanesimo secolare. Partendo dal presupposto che Dio non esista (o che quanto meno non intervenga nelle nostre questioni), ad emergere fu l’opinione diffusa secondo cui l’umanità ha l’obbligo morale di prendere l’iniziativa quando si tratta di capire realmente il mondo e renderlo un posto migliore. E le migliori possibilità ci sono date dalla ragione e dal metodo scientifico, piuttosto che dall’attesa indolente di una forza soprannaturale che non sembra esistere o curarsi minimamente di noi.

Il metodo scientifico e il metodo biodinamico

Ci sono scienziati che scoprono cose nuove. Di solito, hanno una brillante intuizione, ci lavorano sopra, trovano un modo di verificare se è solo l’effetto di una impressione, di una fluttuazione statistica, o se invece si sono imbattuti in un fenomeno nuovo. Di solito, ci si trova nel primo caso. Anni fa dovetti rimandare la discussione della mia tesi di laurea per una fluttuazione statistica: sfortunatamente non avevo trovato un barione più leggero del protone, altrimenti avrei già fatto un giro a Stoccolma a ritirare un premio Nobel…

La validazione di una nuova teoria scientifica è una procedura universalmente accettata e improntata al principio esposto all’inizio del XIV secolo da Guglielmo di Ockham:
“A parità di fattori, la spiegazione più semplice è da preferire.”

In termini scientifici moderni, questo principio si traduce nella necessità, da parte di chi propone una nuova teoria o un nuovo fenomeno, di dimostrare che quello che presenta non è già spiegato da quello che già conosciamo: chiamiamo questa procedura “reiezione dell’ipotesi nulla”. In altre parole, il bravo scienziato parte dall’ipotesi di non aver scoperto nulla e fa di tutto per ricondurre il suo fenomeno “nuovo e misterioso” a qualcosa di noto e accettato. Se non ci riesce, e se non ci riesce nemmeno qualcun altro che fa lo stesso studio in modo indipendente, la nuova teoria viene accettata e chi l’ha proposta diventa famoso.

Nel caso di medicina e biologia, il discorso è estremamente complicato. Innanzi tutto, i fenomeni sotto studio coinvolgono sistemi molto più complessi rispetto, ad esempio, alla fisica fondamentale: le equazioni di quest’ultima, pur se difficili da capire, coinvolgono un numero di variabili “piccolo” e molto ben controllato, rispetto ad un sistema vivente. Inoltre, quando si testa, ad esempio, un nuovo farmaco, bisogna stare attenti all’effetto placebo, ovvero alla tendenza delle persone a reagire positivamente quando credono di essere sottoposte ad una cura efficace, e al “bias” del ricercatore, ovvero alla distorsione involontaria dei risultati a favore della propria idea. Per questo, da molti anni si usano diverse tecniche, tra cui quella del “doppio cieco”: il nuovo farmaco viene somministrato ad un gruppo di pazienti e un placebo ad un altro gruppo, e né i pazienti né i medici sanno chi sta ricevendo cosa fino alla fine del periodo di test.

Oltre che alla medicina, il test del doppio cieco e la reiezione dell’ipotesi nulla sono concetti applicati in un sacco di altre discipline, tra cui, non ultima, l’agronomia. Una nuova tecnica potrebbe dare risultati migliori, ma va dimostrato con un test scientificamente affidabile. Questo non è mai stato fatto, ad esempio, con l’agricoltura biodinamica. Secondo la più approfondita review scientifica sull’argomento, l’agricoltura biodinamica ha risultati simili a quella biologica, mentre, rispetto alla coltivazione industriale, la produzione è minore per unità di superficie (anche se maggiore per energia consumata) e il terreno è biologicamente più attivo. In altre parole, di tutte le pratiche che prevede l’agricoltura biodinamica, sembra che l’unica che ha qualche effetto sia la riduzione di composti chimici di sintesi, il resto è stregoneria… che, come sempre, tende a lasciare il tempo che trova.

Preparazione del cornoletame (preparato 500 dell'agricoltua biodinamica) - Immagine da Flikr.

Preparazione del cornoletame (preparato 500 dell’agricoltua biodinamica) – Immagine da Flickr.

Ciononostante, la fama dei prodotti biodinamici è in continuo aumento. In questi giorni l’Università Bocconi ha ospitato un convegno nazionale sull’agricoltura biodinamica che ha raccolto un sacco di adesioni eccellenti, tra le quali alcune spiccano e meritano un piccolo commento in più. Il padrone di casa era il Senatore Mario Monti, ex Presidente del Consiglio e Presidente della Bocconi stessa: alcuni giornali hanno sottolineato la sua presenza, ma dal punto di vista economico la biodinamica può essere un grande business, a prescindere dal fatto che abbia basi scientifiche o meno. Il Ministro dell’Agricoltura, Maurizio Martina, è un altro nome sul quale potrebbero nascere polemiche. In fondo, nella sua posizione, troverei altrettanto stridente sia l’andare che il rifiutare l’invito. Nel complesso non lo invidio. La presenza per me più inopportuna è quella di Carlo Petrini, fondatore di SlowFood: chi pensa all’agricoltura solo dal punto di vista della qualità dei prodotti dovrebbe avere un occhio più attento alla validità scientifica di ciò di cui si parla. Non è il solo, in Italia, ad avere un entusiasmo scientificamente immotivato per l’agricoltura biodinamica: nel suo ruolo di difensore della tradizione alimentare e della qualità in agricoltura, auspicheremmo, da lui e da quanti come lui portano avanti questo degnissimo e serissimo discorso, un approccio più pragmatico all’argomento.

Se l’agricoltura biologica più tutti i rituali del biodinamico (cornosilice cosparso sui campi dopo la dinamizzazione in diluizione omeopatica, scegliendo il giorno e l’ora a seconda dell’oroscopo e simili) dà gli stessi risultati dell’agricoltura biologica da sola, forse dovremmo seguire la strada che ci ha indicato Guglielmo da Ockham non ieri, ma 700 anni fa e lasciar perdere tutto quello che c’è di inutile…

Il clima cambia e gli eventi meteo estremi aumentano

Alluvioni, smottamenti, uragani e tifoni, mareggiate, siccità e lunghi periodi di caldo o di gelo. Negli ultimi anni si sono periodicamente ripetuti eventi meteo estremi che non si possono più considerare contingenti. Ondate di calore in Europa, Asia e Australia, oppure piogge capaci di devastare interi territori, o ancora maree distruttive con livelli in continuo aumento dal 1975. Tutti fenomeni che difficilmente passano inosservati, i media li definiscono mostri naturali, i dati li descrivono spesso come i più intensi di sempre. Molte popolazioni hanno paura perché la loro occorrenza ha un impatto devastante. «Dal 1950 sono stati osservati cambiamenti negli eventi meteorologici e climatici estremi: aumenti delle temperature più calde, abbassamenti delle temperature fredde, innalzamenti dei livelli di mari e oceani. E ancora, in Europa e Nord America la frequenza di precipitazioni intense (o estreme) è “molto probabilmente” aumentata». Nel quinto rapporto sul cambiamento climatico dell’Intergovernmental Panel on Climate Change gli scienziati usano ancora la parola “probabilmente”. Il cambiamento è stato così repentino da non aver permesso la raccolta di sufficienti dati storici per delineare la tendenza in atto con assoluta certezza.

Inondazione nel Maryland durante l'uragano Sandy (2012) (CC Maryland National Guard)

Inondazione nel Maryland durante l’uragano Sandy (2012) (CC Maryland National Guard)

 

Ma su un punto gli scienziati sono sicuri: l’umanità è vulnerabile e gli ecosistemi terrestri sono esposti a fenomeni meteo estremi, con rischi crescenti a causa del cambiamento climatico.

La gara dei record.
Che qualcosa stia cambiando lo si può notare dall’assiduità con cui si registrano record meteorologici. Il 44% dei paesi del mondo ha registrato temperature massime da primato nel periodo 2001-2010, il 24% nel 1991-2000, mentre il 32% prima del 1991. La tendenza cambia se si considera la temperatura minima, per cui solo l’11% dei paesi è stato da record nell’ultima decade. Il cambiamento climatico si manifesta anche con piogge intense sempre più frequenti e valori massimi di precipitazioni, cadute in 24 ore, soprattutto tra il 1991 e il 2010.

Frequenza dei fenomeni meteo estremi negli ultimi 50 anni (WMO 1119)

RECORD ASSOLUTI DI TEMPERATURA MASSIMA, MINIMA E DI QUANTITÀ DI PIOGGIA ACCUMULATA AL SUOLO IN 24 ORE, NELLE ULTIME 5 DECADI. RAPPORTO “CLIMA GLOBALE 2001-2010: UN DECENNIO DI EVENTI ESTREMI” PUBBLICATO DAL WMO.

Secondo l’Organizzazione Meteorologica Mondiale (WMO) le alluvioni sono state l’evento estremo più frequente dall’inizio del millennio. Mentre la siccità – riconosciuta come il fenomeno più devastante – è sempre più severa, assidua e duratura soprattutto nel Mediterraneo, in Africa, Asia e Australia.

Immagini del satellite che mostrano l'avanzamento dei fenomeni di siccità in California.

DAL 2011 AL 2014 LA CALIFORNIA HA VISSUTO UN LUNGO PERIODO DI SICCITÀ CAUSANDO CENTINAIA DI VITTIME, CON PIÙ DI 40 MILIARDI DI DOLLARI DI DANNI. (NASA; GRACE)


Quando un evento meteo può definirsi estremo?
Una delle chiavi utili a comprendere come il clima stia mutando, e così anche la meteorologia locale, è l’analisi di quanto gli eventi ‘intensi’ stiano diventando sempre più ‘estremi’. Secondo gli scienziati queste due parole non sono affatto sinonimi, ma nascondono una fondamentale differenza: un evento meteo intenso è un qualsiasi fenomeno atmosferico che mette a rischio vite umane, mentre un evento meteo estremo è sì intenso quanto raro, in base alla statistica che descrive la probabilità che possa accadere in un determinato luogo. Come l’uragano Catarina (marzo 2004), il primo avvistato nell’Oceano Atlantico meridionale da quando sono iniziate le rilevazioni dal satellite geostazionario nel 1966, con venti a 155km/h, pesanti inondazioni e gravi danni sul territorio. Oppure come il più nostrano TLC (Tropical Like Cyclone) o Medicane, il ciclone mediterraneo con alcune caratteristiche tropicali che il 7 novembre 2014 è passato a sud della Sicilia provocando nubifragi, raffiche fino a 135km/h a Lampedusa e onde fino a 7 metri di altezza.
Il cambiamento climatico sta variando la statistica degli eventi estremi e la tendenza sembra portare verso un pericoloso aumento della loro frequenza. Gli impatti negativi includeranno maggiori rischi di alluvioni lampo, più inondazioni costiere e maggiore erosione. Uno scenario inevitabile se non si realizzeranno opere di difesa del territorio, soprattutto nelle zone eccessivamente urbanizzate e cementificate senza controllo.

Alluvione di Genova, 2014

[ALLUVIONE GENOVA 2014] IL 10 OTTOBRE 2014 LA PROVINCIA DI GENOVA È STATA COLPITA DA FENOMENI TEMPORALESCHI AUTO RIGENERANTI CON 395 MM DI PIOGGIA CADUTA IN 24 ORE E 250 MILIONI DI DANNI. UNA PERSONA HA PERSONA LA VITA.

Alluvione di Genova, 2011

IL 4 NOVEMBRE 2011 GENOVA È STATA COLPITA DA UN TEMPORALE AUTO RIGENERANTE CHE HA ROVESCIATO SULLA CITTÀ PIÙ DI 500 MM DI PIOGGIA IN POCHE ORE, CON 150 MILIONI DI DANNI. SEI PERSONE HANNO PERSO LA VITA.

Alluvione delel Cinque Terre, Liguria, 2014

[ALLUVIONE CINQUE TERRE] IL 25 OTTOBRE 2011 LA PROVINCIA DI LA SPEZIA E LA LUNIGIANA SONO STATE ALLUVIONATE A SEGUITO DI UNA FORTE PRECIPITAZIONE CHE HA RIVERSATO AL SUOLO OLTRE 500 MM DI PIOGGIA (LA MEDIA ANNUA DELLA REGIONE E’ PARI A 821 MM). TREDICI PERSONE HANNO PERSO LA VITA.


La frequenza di eventi meteo estremi è destinata ad aumentare.
L’IPCC ha ritenuto necessario pubblicare un rapporto speciale, il “Managing the Risk on Extreme Events and Disasters to Advance Climate Change Adaptation”, per fare il punto della situazione. E’ difficile a fuoco mettere il futuro perché la tendenza e l’intensità dei fenomeni meteo estremi dipendono da molti fattori, tra cui la variabilità climatica, i mutamenti climatici indotti dall’uomo e gli sviluppi economici delle società industriali. I modelli fisici in grado di descrivere questo sistema complesso accendono l’attenzione e prevedono un aumento delle temperature massime, della frequenza delle ondate di calore, così come della siccità in determinate aree; pioverà più intensamente, ma in alcune regioni pioverà molto meno. Anche la forza del vento dei cicloni tropicali aumenterà, mentre rimarrà costante la frequenza con cui i cicloni – tropicali ed extra tropicali – si formeranno.

L’impatto distruttivo degli eventi estremi.
Gli scienziati dell’IPCC non usano più il condizionale ma l’imperativo quando parlano degli impatti del cambiamento climatico sulla società. «Aumenterà il rischio già esistente e nasceranno nuovi rischi da non sottovalutare. I pericoli non saranno distribuiti in modo uniforme, ma colpiranno persone e comunità più vulnerabili, in ogni paese e a qualsiasi livello di sviluppo». Dati impressionanti sono stati pubblicati nel giugno 2014 dal WMO con “The Atlas of Mortality and Economic Losses from Weather, Climate and Water Extremes 1970-2012″. Dal 1970 al 2012 ci sono stati 8835 disastri, con 1.94 milioni di morti ed una perdita economica pari a 2.000 miliardi di euro a causa di siccità, temperature estreme, alluvioni, cicloni tropicali e problemi sanitari correlati. Prevenzione, mitigazione e adattamento, con adeguati sistemi di allerta, sono le uniche politiche possibili, in grado di arginare queste calamità e limitare il numero di morti. «L’impatto socio economico sta aumentando, perché cresce la frequenza e l’intensità dei fenomeni meteo estremi». I comportamenti di ieri non potranno essere i comportamenti di domani.
Quella contro il cambiamento climatico è una sfida che siamo obbligati ad accettare.

================================================================

FORSE PUO’ INTERESSARTI ANCHE:

-Temporali autorigeneranti e disastri quasi naturali
Scientificast Podcast #61 – Il clima che cambia

Stradivari e l’evoluzione delle specie

Antonio Stradivari non si è mai occupato di biologia o di genetica, o quantomeno è passato alla storia per tutt’altro: ciononostante, un articolo pubblicato recentemente sui Proceedings della Royal Society ha avvicinato il grande liutaio cremonese a Darwin e Lamarck in un modo molto curioso.

Prendete un gruppo di ricercatori in ingegneria del MIT di Boston e un buon liutaio della stessa città e una curiosità: come si è evoluto il violino nel suo “periodo d’oro”, tra la metà del XVI e la metà del XVIII secolo, tra i grandi liutai cremonesi? La ricerca verte sui capolavori di alcune tra l più famose famiglie di liutai della storia: si parte da un violino costruito da Andrea Amati nel 1560 e si arriva agli ultimi lavori di Giuseppe Guarneri, intorno al 1750, passando per Antonio, Girolamo e Nicolò Amati e per Antonio Stradivari.

Prima di vedere cosa hanno scoperto gli ingegneri del MIT, vediamo di capire come funziona un violino (e, in generale, uno strumento acustico a corde). Il violino è uno strumento che può essere suonato pizzicando le corde o sfregandole con un archetto. In entrambi i casi, le corde entrano in vibrazione ad una frequenza che dipende dal diametro della corda stessa e dalla posizione del dito del musicista sulla tastiera. Se suonassimo solo la corda, senza il resto del violino, il suono che otterremmo sarebbe molto debole. La vibrazione della corda, in uno strumento, viene trasferita attraverso il ponticello alla tavola armonica, che si mette a vibrare a sua volta. Il suono si propaga attraverso l’aria che si trova al di sopra della tavola armonica, ma delle onde di pressione si formano anche all’interno della cassa di risonanza: la parte dominante del suono esce quindi da uno o più fori posti sulla tavola armonica. La chitarra ha, di solito, un foro circolare, il violino due fori a forma di ƒ.

Le parti principali del violino (immagine di Wikipedia modificata da noi, vale la licenza originale)

Le parti principali del violino (immagine di Wikipedia modificata da noi, vale la licenza originale)

La potenza sonora espressa da uno strumento dipende da un sacco di fattori, forma e dimensioni della cassa di risonanza, tipo di legno utilizzato (per i violini di alta qualità, i liutai usano l’abete rosso della Val di Fiemme per la tavola armonica e l’acero dei Balcani per il fondo e le fasce), spessore di tutte le parti e forma dei fori sulla tavola sono tra i principali. Gli autori dell’articolo si sono concentrati proprio sulle ƒ per cercare di capire se e come sono evolute nel corso di quei due secoli. Analizzando decine di strumenti hanno osservato che, effettivamente, la potenza sonora è aumentata e di molto, dai primi strumenti di Andrea Amati agli ultimi di Guarneri del Gesù: in meno di 200 anni, questo parametro è aumentato del 60% circa. Uno degli ultimi violini costruiti da Guarneri è il famoso Cannone di Paganini, che deve il suo soprannome proprio alla potenza della sua voce.

Ecoluzione (in %) della potenza sonora dei violini costruiti dalla famiglia Amati (in blu), da Antonio Stradivari (in rosso) e da Giuseppe Guarneri (in verde) in funzione dell’anno di costruzione. Immagine dall’articolo originale.

Analizzando la forma e le dimensioni delle ƒ hanno capito come piccole variazioni nella forma dei fori possono dare notevoli cambiamenti nella potenza sonora prodotta: di fatto, l’aria esce dai fori in modo molto disomogeneo, per cui il semplice aumento della superficie non significa automaticamente un aumento del flusso. Quello che viene fuori dalle simulazioni è che più della superficie conta la lunghezza del bordo del foro: allungando e stirando le ƒ, a parità di superficie, si ha un flusso più intenso e una potenza sonora più alta. Per confronto, i calcoli sono stati effettuati per una varietà di strumenti diversi, non solo per i violini, con risultati in accordo notevole con le misure.

Velocità del flusso d’aria in uscita da diversi fori in una cassa armonica: il flusso è molto più veloce in prossimità del bordo, la parte centrale è sostanzialmente ininfluente (immagine dall’articolo originale).

Fin qui Darwin non c’entra nulla, direte voi. È vero. I ricercatori, una volta che hanno avuto in mano i loro risultati, si sono chiesti come in 5 generazioni di liutai ci possa essere stata un’evoluzione così grande. In realtà, questa evoluzione si può far tornare indietro di altri sei secoli, prendendo in considerazione gli antenati del violino moderno, che avevano fori prima circolari, poi semicircolari, poi a C sempre più elaborata. In ogni caso, anche solo concentrandosi solo sulle famiglie del “periodo cremonese”, in cui la forma a ƒ dei fori era ben stabilizzata, si osserva uno sviluppo notevolissimo. Consideriamo che Amati, Stradivari e Guarneri non avevano nessuno degli strumenti matematici che abbiamo oggi al MIT, per questo possiamo escludere che avessero migliorato il loro disegno sulla base di un calcolo. Inoltre, è probabile che non avessero perseguito un processo di “tentativi ed errori”, lo sviluppo è molto graduale, come se avessero sempre cercato di copiare il migliore tra gli strumenti realizzati in precedenza, introducendo in ogni nuovo esemplare qualche piccola mutazione casuale.

Il processo di replicazione di un oggetto complicato come un violino, tre o quattro secoli fa, veniva fatto con strumenti primitivi, ad esempio ricalcando le forme su un foglio con una matita e quindi riportandole su una nuova tavola con punteruoli e coltelli. Questo porta a variazioni nelle lunghezze di qualche percento ad ogni iterazione: qualche volta il nuovo violino avrà suonato meglio, qualche volta peggio. I primi saranno stati presi a modello per le generazioni precedenti, i secondi no.

La conclusione del lavoro è che l’evoluzione della forma delle ƒ del violino è molto compatibile con l’evoluzione naturale delle specie come descritta da Darwin e Lamarck: non l’ambiente, ma il liutaio, in questo caso, operava la selezione. Ci si può chiedere oggi se, potendo replicare con esattezza chirurgica le forme di uno strumento, grazie ai programmi di disegno al computer e alle macchine utensili controllate automaticamente, saremmo in grado di portare avanti un’evoluzione altrettanto prodigiosa come quella che abbiamo visto qui.

========================================

FORSE PUO’ INTERESSARTI ANCHE:
La musica: sette note e un mare di matematica
L’armonia delle sfere celesti

Google+