Un cervello (artificiale) da Nobel

di Edwige Pezzulli

  • Materie coinvolte: Fisica

Il Premio Nobel per la fisica 2024 celebra l'intelligenza artificiale, riconoscendo le scoperte pionieristiche di John Hopfield e Geoffrey Hinton. Ricerche che hanno cambiato radicalmente la nostra comprensione dei processi cognitivi, sviluppando modelli matematici e neuroscientifici che simulano il funzionamento del cervello umano e aprono nuove frontiere per l'apprendimento automatico.

 
Il Premio Nobel per la fisica di quest'anno è stato assegnato a John Hopfield, fisico dell'Università di Princeton, e Geoffrey Hinton, neuroscienziato dell'Università di Toronto, per le loro fondamentali scoperte che hanno reso possibile l'apprendimento automatico attraverso le reti neurali artificiali. Le ricerche dei due scienziati non rappresentano semplici punti di partenza, ma autentiche pietre miliari che segnano un cambiamento epocale nella nostra comprensione e utilizzo dell’intelligenza artificiale: mentre Hopfield ha gettato le basi teoriche in questo campo, Hinton le ha spinte verso applicazioni pratiche su larga scala.

 

Mi ritorni in mente

Ti è mai successo di provare a ricordare il titolo di un film o il nome di una persona, ma riuscire solo a visualizzarne un'immagine o un indizio finché il nome non ti è venuto in mente all'improvviso? Questo accade perché il nostro cervello utilizza una memoria associativa, in cui un dettaglio parziale o una suggestione attivano i nostri ricordi e ci permettono di ricostruire l'informazione mancante.

Negli ultimi quarant’anni il desiderio di comprendere meglio il nostro cervello si è tradotto nel tentativo di riprodurne i meccanismi attraverso modelli neuroscientifici e matematici.

Oggi sappiamo che il cervello umano è composto da neuroni collegati tra loro attraverso sinapsi che, insieme, formano una complessa rete dinamica e plastica. Se volessimo immaginare questa rete come un sistema ferroviario, con le stazioni-neuroni e i binari-sinapsi, dovremmo immaginare un’interconnessione fluida e dinamica, nella quale alcune tratte vengono chiuse e altre potenziate a seconda dell'utilizzo e dell'importanza dei percorsi. Questa flessibilità consente alla memoria di funzionare in modo associativo: non accediamo ai ricordi meccanicamente, un pezzo alla volta; la memoria emerge piuttosto come comportamento collettivo di grandi reti di neuroni, le cui connessioni vengono rafforzate dall'esperienza.

 

Reti neurali

Le reti neurali sono modelli di machine learning che si ispirano al modo in cui il cervello umano elabora le informazioni. Invece di neuroni biologici, in queste reti definiamo dei neuroni artificiali, detti nodi, e le sinapsi sono rappresentate da connessioni o link.

I dati in ingresso che una rete neurale riceve vengono trasmessi ai nodi chiamati di input, che organizzano i dati ricevuti accendendosi o restando spenti. I nodi attivi inviano poi segnali lungo le loro connessioni - segnali che non sono sempre uguali, ma dipendono dal "peso" che la rete assegna a ciascuna connessione, proprio come quando viene data più importanza a certe informazioni rispetto ad altre. A loro volta, i neuroni artificiali della rete raggiunti da un numero sufficiente di connessioni si attiveranno, continuando a propagare l'informazione attraverso la rete stessa.

Alla fine del processo si arriva all’output, ovvero a un insieme di nodi attivati o meno in base ai segnali ricevuti. Una volta completato l'addestramento, la rete sarà in grado di fare previsioni autonomamente, associando dati in ingresso a risposte specifiche: per esempio una rete addestrata per riconoscere immagini di cani sarà in grado, dopo l’allenamento, di distinguere tra un cane e gli altri animali.

 

Memoria associativa

Tra i primi a studiare il funzionamento dei neuroni e dell'apprendimento fu, alla fine degli anni Quaranta, lo psicologo Donald Hebb, secondo il quale il nostro cervello apprende attraverso due meccanismi: uno a breve termine, che chiamò a riverbero, e uno a lungo termine, basato su cambiamenti nei collegamenti tra i neuroni. Hebb spiegò che quando due neuroni vengono attivati insieme molte volte, la connessione tra di loro diventa più forte e di conseguenza quando uno dei due neuroni si “accenderà”, anche l'altro avrà più probabilità di attivarsi. La memoria, quindi, dipende dai legami tra i neuroni stessi.

Dopo Hebb, gli studi sulle reti neurali artificiali sono proseguiti lentamente fino alla svolta proposta da John Hopfield. Uno dei contributi più importanti di Hopfield è stato quello di introdurre l'idea che una rete neurale possa essere vista come un sistema con una certa energia, un concetto simile a quello utilizzato in termodinamica. Immaginiamo di prendere tutte le coppie di nodi accesi e di associare loro una certa quantità che dipende dalla forza della singola connessione. Nel suo lavoro, Hopfield ha dimostrato che la somma di tutte queste quantità nella rete può essere interpretata come una sorta di energia del sistema, simile all'energia dei sistemi termodinamici.

Così come una pallina che si muove su un terreno collinoso tenderà a fermarsi nel punto più basso, cioè nel punto di minima energia, allo stesso modo la rete di Hopfield, partendo da un certo stato iniziale di nodi accesi e spenti, evolverà verso una configurazione stabile, che può essere vista come l'equivalente del minimo di energia del sistema.

Questa proprietà può essere sfruttata per creare una memoria associativa: una volta ricevuto un input, la rete si stabilizzerà su uno stato di minima energia, che rappresenta una sorta di memoria dell’informazione fornita. E così in futuro, anche se riceverà dati incompleti o distorti, sarà in grado di ricordare l'informazione originale.

Un esempio pratico è il riconoscimento di figure distorte: supponiamo di disegnare il numero 4 e di paragonarlo con lo stesso numero scritto al computer. Sebbene entrambi rappresentino un 4, ci saranno delle differenze e quello fatto a mano sarà probabilmente irregolare. In questo schema, il 4 digitale rappresenta gli stati stazionari del sistema, mentre il disegno una sua perturbazione. Se fornissimo il disegno come input e poi lasciassimo evolvere il sistema, col passare del tempo questo tenderà a ritornare alla configurazione di energia minima più vicina, che è quella rappresentata dalla versione del numero al computer.

 

Macchine di Boltzmann

Le reti neurali sviluppate da Hopfield hanno in sé dei limiti importanti, soprattutto quando si tratta di svolgere compiti articolati. Sono infatti reti progettate per riconoscere degli schemi specifici, gli stati stazionari, e sanno identificare un 4 scritto a mano ma farlo con l'immagine di un cane è un’operazione assai più delicata. Non c’è infatti un'unica rappresentazione di “cane”: esistono razze diverse, posizioni disparate nelle quali si siedono, svariate angolazioni dalle quali si possono osservare, illuminazioni differenti che ne mostrano meglio solo alcune parti del corpo. Le reti di Hopfield, data la loro rigidità, non sono adatte a gestire questa complessità.

Per affrontare una sfida così sofisticata, Geoffrey Hinton ha sviluppato un modello più flessibile e capace di apprendere da dati variabili chiamato macchina di Boltzmann.

A differenza delle reti di Hopfield, le macchine di Boltzmann utilizzano un approccio probabilistico, che permette loro di catturare la complessità delle relazioni nei dati e di generalizzare meglio. In questo modello, l'energia di uno stato della rete viene collegata alla sua probabilità attraverso la distribuzione di Boltzmann, una funzione matematica che descrive la probabilità che un sistema si trovi in una determinata configurazione interna. In altre parole, lo stato della rete non dipende più soltanto dall'energia, ma anche dalla probabilità che quello stato sia realizzato, seguendo un principio simile a quello che regola la distribuzione delle particelle in un sistema termodinamico. La rete quindi non cercherà solamente lo stato con la minima energia, ma esplorerà anche diversi stati in funzione di quanto siano probabili, caratteristica che permette alla macchina di Boltzmann di classificare un’immagine in modo statistico, basandosi su un insieme di varianti dello schema che le vengono presentate. Ad esempio, quando mostriamo alla rete un numero sufficiente e rappresentativo di immagini di cani, essa non solo impara a riconoscere quelle immagini specifiche, ma sviluppa anche la capacità di identificare cani in immagini che non ha mai visto prima. La rete diventa quindi in grado di generalizzare le informazioni apprese, riconoscere le caratteristiche comuni delle immagini e applicare queste conoscenze a nuovi casi.

 

Dove stiamo andando?

Le potenzialità di questi sistemi hanno sollevato un intenso dibattito pubblico. Da un lato, c'è chi teme che possano rappresentare una minaccia profonda per l'umanità, dall'altro chi vede in queste tecnologie un'opportunità, per esempio rispetto alla liberazione dalla fatica dei compiti più ripetitivi.

Dopo un decennio trascorso in Google, Hinton stesso ha scelto di lasciare l'azienda per poter esprimere liberamente le sue preoccupazioni riguardo ai rischi legati a tecnologie da lui stesso sviluppate. Durante una conferenza stampa per l'annuncio del Nobel, ha sottolineato l'importanza di una riflessione etica e di un controllo normativo su come vengono e verranno utilizzate queste tecnologie.

Quando parliamo di intelligenza artificiale è importante riconoscere che, al di là delle apparenze, le macchine non operano mai del tutto autonomamente e la responsabilità del loro funzionamento e delle loro azioni ricade su noi esseri umani. Le scelte che facciamo in merito ai dati con cui addestriamo queste intelligenze, per esempio, sono cruciali: se forniamo loro informazioni parziali o discriminatorie, il risultato sarà un modello che riflette e amplifica queste distorsioni, portando a rappresentazioni della realtà e a previsioni su di essa altrettanto distorte e parziali.

Ma anche le domande che poniamo alle macchine e la consapevolezza che queste scelte non possano essere delegate a loro, sono questioni sulle quali dovremmo riflettere collettivamente con un’urgenza crescente.

La tecnologia è uno strumento potente e spesso la sua potenza è così abbagliante da oscurare il ruolo che, per costituzione, giochiamo e continueremo a giocare. Il Nobel assegnato a Hopfield e Hinton potrebbe non rappresentare un semplice riconoscimento scientifico, ma segnare anche un momento cruciale nel dibattito su come gestire e guidare le potenzialità dell'intelligenza artificiale. Solo in questo modo guadagneremo una consapevolezza collettiva e saremo in grado di costruire un reale strumento al servizio del bene comune e dell’equità, scongiurando invece la nascita di nuove forme di ingiustizie e asimmetrie socio-economiche e culturali.

 

Proposta di attività per la classe

L’attività consiste in una riflessione collettiva sulle questioni etiche legate all'intelligenza artificiale per stimolare un approccio critico a temi come l'uso responsabile dei dati, il rischio di amplificare discriminazioni preesistenti o il controllo umano sulle decisioni automatizzate. È possibile affiancare la discussione con il supporto dei molti testi di indagine sull’argomento, come “Big data e algoritmi - prospettive critiche” della filosofa Teresa Numerico oppure “Ti spiego il dato” della data journalist Donata Columbro.

L’attività ha lo scopo di stimolare le e gli studenti al confronto e ad argomentare un punto di vista, individuandone anche le possibili controargomentazioni.

Fasi e tempi di realizzazione

Fase 1 (10 minuti) - La consegna può essere introdotta dall’insegnante che facilita la formazione dei gruppi e sceglie una persona portavoce per ciascun gruppo.
Fase 2 (20 minuti) - All’interno di ciascun gruppo, le e gli studenti discutono tra loro e argomentano il punto di vista assegnato.
Fase 3 (15 minuti) - Le persone portavoce espongono i risultati della discussione.
Fase 4 (10 minuti) - L’insegnante discute i risultati ottenuti.

Al termine del dibattito le e gli studenti possono esprimere individualmente la propria opinione rispetto alle seguenti domande.

  • Concordi con l’opinione espressa dal tuo gruppo?

  • L’attività ha in qualche modo contribuito a modificare le tue precedenti opinioni sull’argomento?

  • A quale conclusione sei giunta/o?


 

Bibliografia e sitografia


 

Highlights


  • Il Premio Nobel per la fisica 2024 è stato assegnato a John Hopfield e Geoffrey Hinton per le loro scoperte alla base dell’apprendimento automatico. Mentre Hopfield ha fornito le basi teoriche delle reti neurali artificiali, Hinton ha sviluppato modelli che hanno reso queste reti utilizzabili su larga scala per applicazioni di intelligenza artificiale.

  • Le reti neurali artificiali si ispirano al cervello umano, utilizzando nodi e connessioni per elaborare dati in modo simile ai neuroni e sinapsi del cervello. L’apprendimento avviene attraverso il rinforzo di connessioni più importanti, permettendo alla rete di sviluppare una memoria associativa.

  • John Hopfield ha rivoluzionato la comprensione delle reti neurali introducendo il concetto di energia e stabilità nel loro funzionamento, creando un modello che può memorizzare e ricordare informazioni anche in situazioni complesse o distorte. Geoffrey Hinton ha portato queste idee ad un livello successivo, sviluppando modelli applicabili su larga scala e cruciali per l’apprendimento automatico moderno.

  • Le potenzialità dell'intelligenza artificiale sollevano importanti questioni etiche e necessitano di un dibattito pubblico per mettere a fuoco non soltanto le soluzioni, ma soprattutto le domande sensate da porci, alle quali dovremo trovare una risposta nel prossimo futuro.


 

Crediti

Immagine di copertina
John Hopfield e Geoffrey Hinton.
Niklas Elmehed © Nobel Prize Outreach