La scuola e la trappola delle due culture

Per superare i limiti del disciplinarismo, la scuola italiana deve avere il coraggio di gettare alle ortiche il paradigma delle due culture, la vera palla al piede dell’istruzione.

Lo impariamo fin da piccoli: da un lato ci sono le materie umanistiche – culla del pensiero, del sentimento, dei valori spirituali, del bel dire e del bello scrivere – e dall’altra quelle scientifiche, regno dell’esattezza e della scrupolosità, del calcolo e della tecnologia, della misurazione e della lente del microscopio. Nessuna possibilità di interscambio, di comunicazione, di trasferimento di competenze. Tant’è che, come si suol dire, per riuscire nell’uno o nell’altro ambito, è necessario avere il “bernoccolo” di cui parlava don Lorenzo Milani. Se hai quello del letterato difficilmente avrai quello dello scienziato: è ben noto che chi va d’accordo con le metafore spesso fatica con gli integrali e viceversa. Sono cose troppo diverse tra loro. E se Madre Natura è stata avara di bernoccoli, occorre farsene una ragione e rassegnarsi a una vita di mediocrità.

L’esistenza dei due “bernoccoli”, delle due culture, è talmente radicata da non essere neppure oggetto di discussione: sembra, infatti, che non vi sia modo più razionale e scontato per approcciarsi alla cultura. Dal paradigma delle due culture discendono direttamente le “aree disciplinari” e, sotto certi aspetti, anche gli “assi culturali”, che non fanno che sottolineare come vi siano materie tra le quali si può intavolare un discorso comune e materie reciprocamente impermeabili. A scuola questo si traduce in una surreale separazione tra settore umanistico e scientifico: i professori di lettere, filosofia, lingue classiche e moderne da una parte e i docenti di scienze, matematica, fisica dall’altra, in una sorta di neppure tanto implicita rivalità, che si comunica giocoforza agli studenti. Sei bravo in chimica? Allora stai sicuramente trascurando il latino, e se lì andrai forte, qui il voto ne risentirà. E amenità simili. Così i nostri studenti finiscono con l’accostarsi a determinate materie convinti che potranno sfruttarne le relative competenze solo in un ristretto campo d’azione e che la cultura sia fatta di compartimenti stagni.

800px-La_scuola_di_Atene

La famosa “Scuola di Atene” di Raffaello, dove si riconoscono Platone, Aristotele, Pitagora, Averroè, Eraclito e molti altri, che oggi chiameremmo scienziati o filosofi, prima che le culture scientifica e umanistica si scindessero. (immagine da Wikimedia)

Ma non finisce qui. Le due metà del cielo di Minerva, i due ambiti del sapere, non sembrano avere pari dignità in Italia, dove l’uomo di scienza viene descritto certamente come amante del rigore, ma fondamentalmente freddo, ottuso, arido, come sarebbero i numeri cui sembra ridurre tutto lo scibile. Incapace di comprendere le ragioni dello spirito, di coltivare valori e di contemplare la bellezza, sarebbe simile agli automi che ha contribuito a costruire. Niente a che vedere con il cultore delle humanae litterae, delle arti liberali, della filosofia: quest’ultimo lo sovrasterebbe con la profondità delle istanze di cui si fa portatore, rappresentate dai grandi uomini del passato di cui si sente epigono.

Tra le gravi conseguenze di questa insensata visione vi è una generalizzata tolleranza nei riguardi dell’ignoranza scientifica, che fa sì che si accetti con indulgenza il fatto che non si sappia impostare una proporzione (se manca il “bernoccolo”… ), mentre si deride l’errore ortografico. Le scienze naturali sono, poi, il fanalino di coda dell’istruzione obbligatoria, perché sembra che quasi a nessuno interessi se un ragazzo che si diploma conosca l’evoluzione o sappia che cosa sono i cloroplasti.

Quanto stiamo pagando, anche dal punto di vista economico, una visione così illogica? Quanto ci tarpa le ali la divisione insanabile tra campi del sapere? La marginalizzazione della cultura scientifica ci rende poco competitivi sul mercato, ma essa è dovuta anche a un’istruzione che sottolinea la bipartizione, lasciando intendere che ci siano ambiti nei quali si può essere impreparati senza conseguenze. E poco importa se ciò si traduce in una diminuzione delle ricerche innovative e dei brevetti.

Cosa fare, dunque, per uscire dalle pastoie di un paradigma senza senso, che lo stesso Snow, cui si deve la definizione di «two cultures», introdusse solo per criticarlo aspramente? Intanto mettere da parte il concetto di aree disciplinari, retaggio di un manicheismo senza senso, e non perdere l’occasione per sottolineare l’importanza dell’interscambio tra le materie e, di conseguenza, tra i docenti.

Inoltre, restituire dignità alla cultura scientifica significa riconoscerne il profondo valore umanistico: dove c’è ricerca razionale, che conduce alla comprensione di meccanismi prima oscuri e all’accrescimento della conoscenza, lì l’humanitas è di casa. Lì ci sono Aristotele e Lucrezio, Descartes e Kant.

D’altra parte, siamo certi che non vi sia scienza nella storia, che non può prescindere dal vaglio critico delle fonti? O nella filologia, che adopera un metodo, quello lachmanniano, che è figlio della matematica, della statistica e del metodo sperimentale? O nella linguistica, nella filosofia, nella metrica?

E siamo certi che la curiosità intellettuale, la passione, il sacrificio e l’entusiasmo, che sono compagni di lavoro per l’uomo di scienza, siano poco “umanistici”?

Con buona pace di Gramellini che tempo addietro definì i ricercatori «aridi manichini del sapere moderno», a me sembra che chi ci aiuta a capire noi stessi e il mondo in cui viviamo sia dotato di grande humanitas, nell’accezione terenziana dell’«homo sum, humani nihil a me alienum puto».

Facciamo in modo che anche i nostri studenti lo imparino. A scuola.

Scientificast #60 – Chi ha paura di Ebola?

Audio clip: é necessario Adobe Flash Player (versione 9 o superiore) per riprodurre questa traccia audio. Scarica qui l’ultima versione. Devi inoltre avere attivato il JavaScript nel tuo browser.

Foto di repertorio: ricerca sul campo durante l'epidemia di Ebola del 1995 (Photo Credit: Content Providers(s): CDC/ Ethleen Lloyd )

Foto di repertorio: ricerca sul campo durante l’epidemia di Ebola del 1995 (Photo Credit: Content Providers(s): CDC/ Ethleen Lloyd )

Ci siamo fatti attendere, ma come sempre per confezionare un podcast di qualità, quella che contraddistingue Scientificast, il podcast scientifico più seguito dello stivale. Buongiorno! Vi siamo mancati? In studio PB e Simone.

Ebola. Qual è la situazione? Quanto dobbiamo temere alla luce delle più recenti notizie di cronaca? Ne parliamo in studio.
PER APPROFONDIRE, affidatevi SOLO alle fonti ufficiali!
World Health organization
CDC
Ministero della Salute, Repubblica Italiana

La Scienza in Padella. Torniamo a parlare di vino, con la seconda parte della rubrica che ha ancora come ospite Andrea Bersani.

Da “Party don’t stop” la Notte dei ricercatori a La Spezia, Giuliano e Ilaria intervistano gli scienziati che sono scesi in piazza a parlare dei loro progetti e delle loro ricerche: Erika Mioni biologa e docente di Scienze Matematiche e Naturali presso l’Istituto Comprensivo ISA 2 “2 Giugno” ci parla del progetto “Percorsi nel Blu”, Nicola Giordani del centro Gustavo Stefanini presenta il laboratorio “Lascia che i robot rischino per voi”, l’ingegner Fabio Gatti della OTO Melara ci spiega “Come funzionano i robot”, Silvia Merlino dell’ISMAR ci illustra il progetto “Sea Cleaner” e Mascha Stroobant del Distretto ligure delle Tecnologie Marine ci racconta la sua esperienza nell’organizzare la Notte dei ricercatori a La Spezia.

Per Scientifibook, parliamo di “Il caso OGM. Il dibattito sugli organismi geneticamente modificati” di Roberto Defez.

>> SCARICA L’EPISODIO 60 <<

Un foglio di carta piegato a metà 103 volte

Secondo la leggenda, il gioco degli scacchi è stato inventato in India, molti secoli fa dal brahmano Lahur Sessa, per rallegrare il re Iadava. Il re fu così entusiasta da promettere a Sessa qualsiasi cosa avesse chiesto. Sessa chiese un chicco di riso per la prima casella della scacchiera, due per la seconda, quattro per la terza, otto per la quarta e così via. In molti pensarono che, di fronte alla generosità del sovrano, il brahmano si accontentava di pochissimo… poi fecero il conto, e venne fuori che sarebbero serviti (2^64)-1 chicchi di riso, per pagarlo, 18 miliardi di miliardi di chicchi, 400 miliardi di tonnellate di riso circa. Non si sa che fine abbia fatto Sessa, c’è chi dice che il sovrano lo abbia fatto governatore di una provincia del regno, c’è chi dice che lo abbia fatto uccidere. In ogni caso, giocando con le potenze di 2, il brahmano aveva fatto un bello scherzo al suo re.

Se, prima di aver letto a quanto riso corrispondeva la richiesta di Sessa, avete pensato anche voi che il brahmano si accontentava di poco, consolatevi: il nostro cervello è abituato a pensare in termini lineari, non in termini esponenziali, per cui tutti cadiamo in tranelli di questo tipo. Questo si verifica anche se, secondo la legge di Weber Fechner, la risposta di un organo di senso ad una sollecitazione è logaritmica: per avere una sequenza di suoni di intensità percepita linearmente crescente, dobbiamo produrli l’uno il doppio dell’altro, ad esempio. Inoltre, un sacco di fenomeni naturali seguono una legge di crescita esponenziale.

La crescita di una colonia di batteri (se mantenuti in condizioni ottimali) è esponenziale, infatti ne bastano pochissimi per prendersi un mal di gola… e qualche giorno a letto per farselo passare, togliendo loro le suddette condizioni ottimali.

La potenza dei nostri computer aumenta esponenzialmente nel tempo: Gordon Moore, cofondatore di Intel, nel 1965 aveva predetto che il numero dei componenti nei processori sarebbe “approssimativamente raddoppiato ogni anno”, nel 1975 corresse il tiro dicendo “ogni due anni” e l’allora dirigente di Intel David House concluse che, mettendoci dentro anche l’aumento di prestazioni del singolo componente, la capacità di eseguire calcoli di un processore sarebbe raddoppiata ogni 18 mesi. Dal 1971 al 2014 questa “legge” è stata confermata dai fatti e si prevede che il trend proseguirà almeno fino al 2020.

800px-Transistor_Count_and_Moore's_Law_-_2011.svg

L’aumento del numero di transistor nei processori cresce secondo la legge di Moore, raddoppiando ogni 2 anni circa. (immagine da wikimedia)

Nella formazione dei fulmini, il campo elettrico prodotto dalle nubi temporalesche genera delle coppie elettrone-ione nell’aria, che iniziano a muoversi sotto l’azione del campo elettrico stesso. Muovendosi producono altre coppie elettrone-ione fino a generare una scarica elettrica lunga anche centinaia di metri. In fisica, questo fenomeno si chiama “rottura del dielettrico” e, con opportuni accorgimenti, può generare oggetti spettacolari.

Un fulmine "imprigionato" in una lastra di Plexiglas, noto anche come figura di Lichtenberg (immagine da Wikimedia).

Un fulmine “imprigionato” in una lastra di Plexiglas, noto anche come figura di Lichtenberg (immagine da Wikimedia).

Per me, però, la più impressionante progressione esponenziale che si può “toccare con le mani” è un foglio di carta piegato a metà. Per molti anni si è creduto che non si potesse piegare un foglio a metà più di 8 volte (provate…), finché una studentessa liceale californiana, Britney Gallivan, è riuscita a ripiegare a metà una striscia di carta per ben 12 volte. Non sembra molto, direte voi. Ha avuto bisogno di una striscia lunga 1200 metri, rispondo io. Ora, se noi pieghiamo un foglio a metà per 10 volte, otteniamo 1024 strati di carta: poco più di due risme di fogli da stampante. Piegandolo a metà un’altra volta, lo spessore diventa quello di 4 risme e così via… molto rapidamente. Se potessimo piegare a metà un foglio di carta 23 volte, raggiungeremmo un’altezza di un chilometro. Arrivando a 30, saremmo al di fuori dell’atmosfera, a 100 km di altezza, e a 42 (numero tra i più magici) raggiungeremmo la Luna, a 400000 km di distanza dalla Terra.

Piegando un foglio di carta a metà per 103 volte, raggiungeremmo uno spessore di quasi 100 miliardi di anni luce, oltre il diametro dell’Universo conosciuto.

La lotta al Dengue può passare attraverso una batterio

global_dengue_lgIl Dengue è una febbre tropicale causata da un virus di cui ad oggi non esiste un vaccino. Tale virus è trasmesso da una zanzara, la Aedes aegypti che comunemente vive in aree urbane della zona tropicale del pianeta. Il ciclo di trasmissione comincia quando una zanzara punge una persona infetta da Dengue. Qui il virus passa dall’uomo alla zanzara e risiede nel suo stomaco per i successivi giorni (fino a 12), in questo periodo la zanzara può trasmetterlo pungendo altre persone, infettandole e ricominciando il ciclo a sua volta.

La febbre è presente in oltre 100 Paesi al mondo e si stima che oltre 2,5 miliardi di persone siano potenzialmente esposte. Ogni anno avvengono circa 390 milioni di infezioni, delle quali circa 500.000 sviluppa la forma acuta, provocando emorragie diffuse molte delle quali con esito letale.

Il Brasile ha con la più alta incidenza di Dengue e rappresenta un caso di emergenza sanitaria per il Paese sudamericano.

Il progetto “Eliminate Dengue” nasce da una collaborazione internazionale per combattere questa malattia e vede il contributo di diversi Paesi, quali Australia, Brasile, Vietnam, Cina, Colombia e Indonesia. L’approccio utilizzato è alquanto originale: prevede, infatti, l’utilizzo di un batterio presente nel 60% degli insetti del pianeta, il Wolbachia. Questi ha la capacità di bloccare il virus Dengue all’interno della zanzara, impedendo di fatto la trasmissione all’uomo. E’ stato infatti dimostrato che la presenza contemporanea del Dengue e del Wolbachia nella zanzara è da relazionarsi al blocco del virus.

Ci si aspetta dunque che, liberando nell’ambiente delle zanzare Aedes aegypti (portatrici del batterio), queste si diffondano in maniera tale da ridurre la popolazione di zanzare veicolo del Dengue.

A questo pwho-dengue-endemic-countries-diagram_lgunto ci si può chiedere: se introduco una specie non autoctona in un ecosistema, rischio di fare danno? Non c’è il pericolo di andare ad intaccare i delicati equilibri ecologici? E’ possibile che ci siano ripercussioni nella rete alimentare con conseguenze anche per altre specie animali?

A quanto pare no. Sono stati condotti degli studi sulla predisposizione ad essere predata della Aedes aegypti contenente il batterio, e non si sono rilevate differenze con la zanzara senza batterio. Soprattutto non si è osservato nessun trasferimento del batterio Wolbachia agli animali predatori. Un altro studio ha inoltre dimostrato come i due tipi di zanzara (con e senza batterio) abbiano la stessa suscettibilità agli insetticidi.

Il progetto continua su diversi fronti, dalla bio sicurezza alla trasmissione, passando per il lato etico/informativo delle popolazioni coinvolte.

Non sappiamo se davvero la lotta al Dengue passerà per una zanzara e un batterio. Se fosse così questa strategia aprirebbe la strada al controllo di malattie trasmesse tramite insetti, come ad esempio la malaria. Per questo bisognerà attendere i risultati sulla diffusione del virus e sull’impatto della zanzara sull’ecosistema. A questo proposito il 24 settembre sono state rilasciate in Brasile le prime zanzare “modificate” e l’operazione verrà supportata con monitoraggi estesi sul territorio per i prossimi quattro mesi. Se l’espansione della zanzara sarà estesa, quello che ci si aspetta è un calo sensibile dell’incidenza del Dengue in quella zona. Solo allora si potranno trarre le prime conclusioni sull’efficacia di questa strategia che per la prima volta viene applicata su larga scala in molti Paesi dell’area tropicale.

Temporali autorigeneranti e disastri quasi naturali

L’autunno, oltre che castagne, funghi e vendemmia, ci porta i temporali più violenti dell’anno. Tra settembre, ottobre e novembre si concentrano la stragrande maggioranza degli eventi atmosferici più disastrosi: solo nella provincia di Genova, si sono avuti eventi alluvionali con gravi conseguenze il 4 novembre 2011 (6 morti), il 4 ottobre 2010 (1 morto), il 23 settembre 1993 (2 morti e 3 dispersi), il 27 settembre 1992 (2 morti), il 7 e 8 ottobre 1970 (44 morti) e il 19 settembre 1953 (10 morti tra le province di Genova e Piacenza). Prendo Genova come esempio che conosco particolarmente bene, ma molti altri eventi alluvionali si sono registrati nel resto d’Italia e sono ben riassunti qui.

Questi numeri ci dovrebbero far saltare sulla sedia e spingerci a prendere qualche contromisura, o almeno a capire come questi eventi si formano e si sviluppano. Tanto per incominciare, di solito questi eventi sono legati a piogge di intensità fuori dal comune. Rimanendo nella provincia di Genova, la media delle precipitazioni in un anno è di 1350mm, mentre il mese più piovoso è ottobre, con una media di 214mm. Le variazioni da anno ad anno possono essere anche molto grandi, nel 2004 si sono avuti 925mm di pioggia e nel 2002 1967mm, oltre il doppio! Questi numeri esplodono quando si verificano le alluvioni:
– fino a 550mm in 6 ore il 4 novembre 2011
– fino a 800mm in 9 ore il 23 settembre 1993
– fino a 950mm in 22 ore tra il 7 e l’8 ottobre 1970
Nell’evento del 1970, si ipotizza che sulle colline ci siano stati anche accumuli superiori al metro, in quelle stesse 22 ore. Infatti, si tratta della peggiore alluvione degli ultimi decenni in Liguria. Ciò che caratterizza questo tipo di fenomeno, quindi, è un’eccezionale quantità d’acqua in un tempo molto breve: inoltre, il fatto che i corsi d’acqua nella nostra regione siano anche molto brevi, il tempo che passa tra la precipitazione e l’esondazione dei torrenti è scarsissimo. Nel 2011, la pioggia forte è iniziata intorno alle 8, per durare fino alle 14 circa: il Bisagno, uno dei due principali torrenti della provincia, che attraversa il centro cittadino, è uscito dagli argini alle 13:45.

In tutti questi eventi abbiamo osservato in meno di un giorno una quantità di pioggia superiore a quella che viene, per fare un confronto, a Catania in un anno. Cosa provoca eventi così estremi? Nel corso degli anni, un’idea abbastanza precisa ce la siamo fatta. All’origine di questi fenomeni ci sono dei forti temporali, provocati dallo scontro di masse di aria fredda provenienti, il più delle volte, da nord-ovest e di masse di aria calda e carica di umidità, provenienti dal mare. L’aria fredda è più densa di quella calda, per cui, dove si scontrano, quest’ultima tende a salire velocemente: salendo si raffredda a sua volta e l’umidità si condensa in nuvole a grande sviluppo verticale, come i cumulonembi, in cui si formano le gocce di pioggia o i chicchi di grandine.

Fronte temporalesco in avvicinamento alla costa sul Mar Baltico.

Fronte temporalesco in avvicinamento alla costa sul Mar Baltico (immagine da Wikimedia).

La forma che un fronte temporalesco può avere è varia, ma spesso si tratta di una linea lunga poche centinaia di chilometri e larga una ventina, in lento movimento. Se un temporale trova un ostacolo, ad esempio un crinale di monti, può fermarsi e scaricare tutta la pioggia in un’area molto ristretta. Quando si verificano insieme, queste condizioni di scontro di aria fredda con aria calda e umida proveniente dal mare e insaccamento del temporale contro un sistema montuoso, può succedere che la corrente discensionale associata alla pioggia alimenti il risucchio di aria umida in quota, richiamando nuove nubi temporalesche. In altre parole, la pioggia intensa porta verso il suolo aria fredda, lasciando spazio in quota per nuove nubi che a loro volta portano altra pioggia. Questo fenomeno viene chiamato sui media “temporale autorigenerante”, proprio perché in qualche modo tende ad alimentarsi da solo. Un temporale di questo tipo è fortunatamente piuttosto raro, ma può durare molte ore ed è quasi sempre la causa delle alluvioni di cui abbiamo parlato.

Evoluzione del fronte temporalesco sulla Liguria nelle ore centrali della giornata del 9 ottobre 2014: a metà pomeriggio sembrava che il sistema si stesse scomponendo, ma si è poi riformato in serata portando molti danni e un morto. (Immagine ed elaborazione ARPA Piemonte)

Evoluzione del fronte temporalesco sulla Liguria nelle ore centrali della giornata del 9 ottobre 2014: a metà pomeriggio sembrava che il sistema si stesse scomponendo, ma si è poi riformato in serata portando molti danni e un morto. (Immagine ed elaborazione ARPA Piemonte)

In questi giorni si è verificato un nuovo temporale autorigenerante in Liguria: nella notte tra il 9 e il 10 ottobre 2014 il Bisagno ha allagato alcuni quartieri del centro e lasciato un morto in strada. Oggi noi conosciamo abbastanza bene il nostro territorio da sapere in anticipo cosa succederà se dovesse verificarsi un forte temporale autorigenerante in una certa zona, possiamo prevedere con una certa accuratezza i movimenti delle masse d’aria per sapere se c’è il rischio che un fenomeno del genere possa accadere (anche se non siamo ancora abbastanza precisi da dire con certezza se e dove capiterà), ma fatichiamo ancora ad ammettere che una componente determinante nell’ammontare dei danni che un’alluvione porta è il fattore umano. Piani urbanistici troppo aggressivi sul territorio, incuria e mancanza di preparazione sono tra i principali responsabili del danno che un’alluvione può portare: a parità di pioggia, infatti, gli effetti possono essere molto diversi.

Imparare dalle tragedie del passato si può e, in casi come questo, pensiamo di dover dire che si deve.

EDIT: riceviamo e pubblichiamo volentieri la mappa delle precipitazioni che hanno colpito Genova tra il 9 e il 10 ottobre scorso, grazie ad ARPA Piemonte che ha rapidamente risposto alla nostra richiesta di aiuto.

L'immagine riporta la mappa animata della riflettività derivata del giorno 9 ottobre 2014 dai sistemi radar meteorologici di Bric della Croce (TO) e Monte Settepani (SV). I tempi sono espressi in UTC. Oltre ad echi meteo, sono presenti alcune interferenze (verso nordest in direzione Alessandria e Milano) e clutter residuo sul mare per propagazione anomala (sul Golfo Ligure in direzione sudest).

L’immagine riporta la mappa animata della riflettività derivata del giorno 9 ottobre 2014 dai sistemi radar meteorologici di Bric della Croce (TO) e Monte Settepani (SV). I tempi sono espressi in UTC. Oltre ad echi meteo, sono presenti alcune interferenze (verso nordest in direzione Alessandria e Milano) e clutter residuo sul mare per propagazione anomala (sul Golfo Ligure in direzione sudest).

Nota: questo post è stato pensato il 9 mattina, in una chat tra Andrea e Ilaria, che, dai loro uffici, sui due lati opposti del centro di Genova, vedevano una situazione molto grigia, tanto da far loro tornare alla mente con apprensione le occasioni citate in apertura al post. Nella prima versione, il finale era molto più roseo, perché nel pomeriggio la perturbazione sembrava passata. Nella nottata è successo quello che è successo e la mattina del 10 è stato aggiornato per rendere conto del tragico epilogo dell’evento, qualcosa di cui avremmo fatto molto volentieri a meno.

Nobel per la chimica 2014: dalla microscopia alla nanoscopia

Il nobel per la chimica quest’anno va a due ricercatori statunitensi (Eric Betzig dell’Howard Hughes Medical Institute e William E. Moerner della Stanford University) ed un ricercatore tedesco (Stefan W. Hell del Max Planck Institute for Biophysical Chemistry) per “lo sviluppo delle tecniche di microscopia a fluorescenza in super risoluzione”.

Il microscopio è uno degli strumenti di laboratorio più usato al mondo e, certamente, è anche uno degli strumenti che più affascinano i non addetti ai lavori perchè permette di accedere alle dimensioni di un mondo che non ci appartiene in quanto non raggiungibile con la sola sensibilità della nostra vista.

abbe's diffraction limit

Per molti anni comunque la microscopia ottica è rimasta sottomessa alla restrizione posta dalle leggi della fisica secondo la quale la risoluzione è limitata, tra le altre cose, dalla lunghezza d’onda della luce con cui si illumina il campione. Nel 1873, il microscopista Ernst Abbe pubblicò una famosa equazione che dimostrava proprio questo concetto. Ciò ovviamente portò la maggior parte degli scienziati del ventesimo secolo a pensare che non sarebbe stato possibile osservare con tecniche di microscopia ottica oggetti più piccoli dei decimi di micrometri (per capirci un micrometro è un milionesimo di metro, il diametro di un capello umano è circa 100 micrometri quindi un decimo di micrometro è un millesimo di un capello umano). Ma cosa c’è da vedere di interessante e così piccolo? Per esempio, nel campo biologico, si possono vedere cellule, batteri e, proprio sul limite della risoluzione anche i virus e i cromosomi. Però al di sotto di questo limite c’è ancora un mondo importantissimo di molecole interessanti da studiare ed ecco che, grazie al lavoro degli scienziati che oggi sono stati premiati con il Nobel, in molti laboratori in giro per il mondo si possono vedere, per esempio, le singole molecole che compongono le cellule studiare le interazioni di singole proteine all’interno di esse. Questa possibilità è di fondamentale importanza per la comprensione dei meccanismi di funzionamento della cellula stessa perchè senza di ciò sarebbe come voler capire come vivono e si comportano i cittadini all’interno degli edifici ma potendo vedere solo le abitazioni ma non gli abitanti!
Nello specifico i tre ricercatori hanno lavorato su due diverse tecniche.

Stefan W. Hell ha sviluppato la tecnica chiamata STED (stimulated emission depletion) cioè
deplezione mediante emissione stimolata. In parole semplici si utilizzano le proprietà di molecole fluorescenti all’interno della cellula e due laser: uno serve per fare in modo che le molecole fluorescenti presenti nel campione che si sta osservando brillino, mentre l’altro provvede a cancellare tutta la fluorescenza tranne quelle in un piccolissimo volume dell’ordine dei nanometri (e cioè mille volte più piccolo dei micrometri). I fasci laser si muovono sul campione scansionandolo e, poichè si conosce esattamente quale sia la posizione dei laser su di esso, si riescono a raccogliere punto per punto le informazioni ottenedo una immagine ad una risoluzione molto più alta dei decimi di micrometro.

Eric Betzig e William E. Moerner invece, pur lavorando a progetti separati, hanno dato un contributo fondamentale allo sviluppo di un’altra tecnica, che si chiama microscopia a singola molecola. In questo caso durante l’osservazione di un campione viene attivata la fluorescenza di singole molecole, escludendo quella di altre vicine. Questo risultato è ottenuto illuminando in modo tale che non tutte le molecole fluorescenti si accendano contemporaneamente ma un po’ per volta. In questo modo è possibile definire la loro posizione con più accuratezza e poi, mettendo insieme immagini seguenti in cui vengono attivate altri sottoinsiemi di molecole fluorescenti ricostruire l’immagine nella sua interezza. Per avere una idea semplice si può forse paragonare questa tecnica al puntinismo, il movimento pittorico di fine 800 caratterizzato dalla scomposizione dei colori in piccoli punti.

Per concludere le tecniche sviluppate da Eric Betzig, Stefan Hell e W. E. Moerner hanno portato all’invenzione anche di altre tecniche di nanoscopia oggi utilizzate ma soprattutto hanno permesso di vedere processi prima inosservabili. Stefan Hell, per esempio, ha osservato attentamente all’interno di cellule nervose per comprendere meglio le sinapsi cerebrali. W. E. Moerner ha studiato proteine collegate alla malattia di Huntington. Eric Betzig ha seguito la divisione cellulare all’interno degli embrioni. Ma questi sono solo pochi esempi rispetto a tutto quello che si è gia potuto vedere e si comprenderà grazie alla nanoscopia.

Google+