L’intelligenza artificiale è sempre più presente nelle nostre vite, ma nell’immaginario comune è spesso collegata alla possibilità che una macchina estrememante intelligente arrivi a minacciare il destino stesso dell’umanità. Dovremmo davvero cominciare a preoccuparci?

Nel corso di tutta la sua storia l’Homo Sapiens Sapiens ha sempre avuto la capacità di usare e creare strumenti che gli permettessero di ovviare a diversi suoi limiti fisici. Non siamo gli unici animali a farlo, ma siamo i più efficienti. Per esempio, abbiamo scoperto che il fuoco ci permette di mangiare ciò che i nostri denti non sarebbero in grado di masticare, che attraverso le leve possiamo alzare carichi pesantissimi e che scrivendo possiamo aiutare la nostra memoria fallace e “superare”, in qualche modo, la morte tramandando pensieri e racconti. Durante il secolo scorso, però, l’uso di strumenti di questo tipo ha conosciuto una diffusione e uno sviluppo senza precedenti grazie all’avvento dei computer che hanno superato in modo esponenziale la nostra capacità di risolvere calcoli matematici. 

Ma se strumenti che ci permettono di riprodurre e poi potenziare alcuni processi cerebrali esistono da tanto tempo, come mai oggi il dibattito sull’intelligenza artificiale si fa più acceso? Che differenza c’è tra un supercomputer che fa calcoli astronomici e una self-driving car?

La grande differenza si trova in ciò che i programmatori insegnano ai computer. Fino a poche decadi fa, i programmatori davano ai computer un set di istruzioni su come risolvere un problema. Nelle tecnologie più recenti come le self-driving car, invece, i programmatori danno ai computer un set di istruzioni su come imparare a risolvere un problema. Programmi di questo tipo sono chiamati reti neurali. Una delle applicazioni più studiate delle reti neurali è il riconoscimento delle immagini. In questo caso nella rete neurale si scrivono due tipi di funzioni:

  1. un set di operazioni dedicate a percepire caratteristiche importanti delle immagini, come i bordi o il colore;
  2. una funzione finale che, misurando l’accuratezza del riconoscimento delle immagini a ogni round di allenamento, corregge i valori interni alla rete in modo da ridurre l’errore della risposta. 

Una rete neurale usa quindi questi due tipi di funzioni per elaborare le immagini che noi le presentiamo e piano piano riesce a distinguere, ad esempio, foto di cani da foto di gatti riconoscendone la forma dei bordi e i colori. Nessuno, però, ha mai definito nel programma una forma o un colore preciso né per cani né per gatti, la rete ha imparato da sola questa differenza. 

Rappresentazione semplificata di una rete neurale. A sinistra l’immagine data al programma. Al centro la rappresentazione delle funzioni usate. A destra ciò che la rete pensa sia raffigurato nell’immagine iniziale: un gatto (cat).

La capacità di imparare è estremamente più potente della capacità di seguire istruzioni predefinite, per quanto complesse queste possano essere. Ad esempio, nel 2017 è stata sviluppata una rete neurale, AlphaZero, capace di imparare a giocare a scacchi e la sua performance è stata testata facendola giocare contro il più avanzato programma di scacchi a disposizione, Stockfish. AlphaZero ha raggiunto la performance di Stockfish dopo sole quattro ore di allenamento, durante il quale ha giocato contro sé stessa. Inoltre, finito l’allenamento, AlphaZero ha sfidato Stockfish e su 100 partite iniziate con posizione di partenza standard AlphaZero ne ha vinte 28 e pareggiate 24. Non ne ha persa nessuna. In aggiunta, AlphaZero ha battuto in breve tempo anche i più avanzati programmi capaci di giocare a Shogi e Go.

Imparare dall’esperienza è anche la strategia usata dal cervello per interfacciarsi con l’ambiente, ed è a causa di questa similitudine che oggigiorno si sentono sempre più dibattiti sull’intelligenza artificiale. Questo tipo di programmi ha già dimostrato la sua efficacia sia nella ricerca che nelle aziende. Ma per quanto riguarda la pericolosità? Ci dobbiamo preoccupare che i robot dei nostri incubi fantascientifici prendano vita?

Per ora no. L’intelligenza artificiale odierna, per quanto molto utile, è ancora estremamente lontana dal poter imitare o addirittura superare il funzionamento di un intero cervello. Le reti neurali sono in grado di imparare un compito, ma non di generalizzare ciò che hanno imparato ad altre situazioni o tipi di stimoli. Inoltre, stiamo cominciando soltanto ora a poterci addentrare all’interno delle reti neurali per capire che cosa stiano effettivamente imparando, e i risultati sono spesso inaspettati e non sempre soddisfacenti. Innanzitutto, una rete neurale può imparare a imbrogliare e riconoscere diverse categorie a partire da indizi secondari che non hanno nulla a che fare con la categoria stessa. Ad esempio, si è scoperto che una rete allenata a distinguere lupi e cani manteneva un’ottima performance nella fase di test anche se dalle immagini venivano tolti gli animali. Questo succedeva perché la rete neurale aveva in realtà imparato a riconoscere la neve, quasi sempre presente nelle foto dei lupi, ma raramente presente in quelle dei cani.

Inoltre, spesso è sufficiente cambiare pochi pixel nel posto giusto e di colpo la performance della rete crolla.

Il cervello al contrario non si farebbe ingannare da pochi pixel rovinati, anzi un cervello è addirittura in grado di ricostruire un’intera forma partendo da minime informazioni. A noi è sufficiente vedere metà di un cane, o anche molto meno, per capire cosa ci troveremo davanti appena girato l’angolo.

In ogni caso, anche se l’intelligenza artificiale è ancora lontana dall’imitare un vero cervello, stiamo imparando velocemente come insegnare ai programmi a imparare ed è quindi il momento giusto per cominciare a discutere cosa gli insegneremo nel futuro. Gli argomenti più difficili riguardano questioni etiche o morali. Ad esempio, se una self-driving car fosse costretta a scegliere tra salvare la vita di chi ha a bordo o di chi è appena saltato in mezzo alla strada cosa deve decidere?

Queste questioni sono importanti e molto complicate. Parte della complicazione deriva dal fatto che nemmeno noi siamo riusciti a trovare soluzioni univoche per questi problemi, anzi non sappiamo ancora nemmeno se soluzioni univoche esistano. Se foste voi alla guida di un auto e doveste scegliere chi salvare cosa decidereste? Probabilmente la risposta è: dipende dalla situazione. È un bambino quello che è saltato in strada? C’è un bambino in auto? Quante persone ho in auto? Hanno figli a loro volta? Senza le risposte a queste e altre domande spesso non sapremmo cosa rispondere.

Lo studio e lo sviluppo delle reti neurali deve andare di pari passo con lo studio dell’etica e della morale e con la comprensione di come il nostro cervello processa e risolve questi problemi. 

L’intelligenza artificiale impara quello che le insegniamo noi.

Bibliografia

AlphaZero: Silver, D., Hubert, T., Schrittwieser, J., Antonoglou, I., Lai, M., Guez, A., … & Lillicrap, T. (2018). A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play. Science, 362(6419), 1140-1144.

Lupi vs Cani: Ribeiro, M. T., Singh, S., & Guestrin, C. (2016, August). Why should i trust you?: Explaining the predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining (pp. 1135-1144). ACM.

 

Per approfondire

Savage, N. (2019). How AI and neuroscience drive each other forwards. Nature

Harari Y.N. (2018). Work. In 21 Lessons for the 21st Century (pp 19-38). London, Jonathan Cape, Penguin Random House group.

DeepStack, il mago del Texas hold’em

https://www.scientificast.it/cervello-intelligenza-artificiale-scientificast-161/ 

 

Immagine di copertina: artificial intelligence stock photo from maxuser/Shutterstock

Immagine della rete neurale: deep learning stock photo from BreezyVector/Shutterstock