Articolo
Arianna Brancaccio
Ci sono persone che sanno già leggere nel pensiero

Ci Sono Persone Che Sanno Già Leggere Nel Pensiero Brancaccio Pensiero Sito
Scienza tecnologia

Abbinando l'analisi degli stimoli cerebrali dati dalla visione di un video a quella di frasi pre somministrate a un'intelligenza artificiale, un gruppo di scienziati sta traducendo cosa avviene nella mente. E fa lo stesso con i ricordi.

Chi ricorda Minority Report, il celebre film di Spielberg con Tom Cruise? Gli schermi olografici, la vasca e soprattutto i pre-cogs, sensitivi che riuscivano a “vedere” i crimini prima ancora che accadessero. Nel film, la polizia non indagava: si limitava a leggere nelle menti dei pre-cogs e a bloccare i malintenzionati subito prima che agissero. Fantascienza, certo. Eppure, l’idea di poter “leggere” nella mente di una persona – ciò che vede, immagina, ricorda – non sembra più solo una trovata hollywoodiana.

Le cosiddette interfacce cervello-computer (BCI, brain-computer interfaces) rappresentano oggi la tecnologia che più di tutte si avvicina a questi scenari avveniristici. L’idea di fondo è di prendere certi schemi dell’attività cerebrale e usarli come comandi per un dispositivo esterno. 

Dopo un periodo di addestramento, un algoritmo impara a riconoscere una particolare configurazione dell’attività neurale abbastanza stabile da ripetersi, e la collega a un’azione: spostare il cursore del mouse, selezionare una lettera su uno schermo, comandare un braccio robotico e così via. In pratica, a forza di training, le BCI costruiscono una tabella di corrispondenza fra quel che accade nel cervello e ciò che fa la macchina. Se si porta alle estreme conseguenze questa idea – una tabella via via più fitta, capace di associare schemi di attività non solo a movimenti semplici ma a ciò che una persona vede, ricorda, immagina – ecco che affiora la prospettiva di una “lettura della mente”, di una vera Minority Report.

Viene a questo punto da chiedersi se un futuro del genere, in cui si “ricostruiscono i pensieri”, sia davvero dietro l’angolo oppure sia destinato a restare una fantasia da grande schermo. Ma prima di sollevare una domanda del genere è necessario guardare come funzionano concretamente queste tecnologie. In particolare, occorre capire quanto sia difficile insegnare al sistema ad associare lo schema giusto all’azione giusta e quanto spesso, anche con protocolli sperimentali molto rigorosi, l’algoritmo sbagli comunque nel trovare il collegamento desiderato.

Un lavoro appena pubblicato su Science Advances, firmato dal neuroscienziato computazionale Tomoyasu Horikawa, applica la logica delle BCI a uno scopo futuristico: invece di utilizzare i segnali cerebrali per muovere un cursore o un braccio robotico, prova a costruire un “decodificatore cervello-testo”. Partendo dall’attività cerebrale registrata mentre una persona guarda o ricorda brevi video, il decodificatore produce una frase che riassume, in modo approssimativo, che cosa era rappresentato nella scena osservata o ricordata.

I partecipanti si sdraiano in uno scanner di risonanza magnetica funzionale (fMRI), la classica macchina “a tubo” degli ospedali. La macchina non registra i pensieri, ma le variazioni di sangue ossigenato che arrivano alle diverse regioni del cervello: se una zona lavora di più, le arriva un po’ più di sangue, e la macchina traduce tutto ciò in immagini.

La procedura, in sintesi, è questa: i partecipanti si sdraiano in uno scanner di risonanza magnetica funzionale (fMRI), la classica macchina “a tubo” degli ospedali. La fMRI non registra i pensieri, ma le variazioni di sangue ossigenato che arrivano alle diverse regioni del cervello: se una zona lavora di più, le arriva un po’ più di sangue, e la macchina traduce tutto ciò in immagini. In sostanza, è un indice indiretto e piuttosto lento dell’attività cerebrale. 

Dentro lo scanner, i partecipanti guardano centinaia di brevi filmati. Per ogni clip, i ricercatori ottengono una “foto 3D” dell’attivazione del cervello. In una fase separata, le stesse clip vengono descritte con delle frasi che ne riassumono il contenuto. Per ogni video c’è quindi una coppia: una mappa di attività cerebrale e un breve racconto.

A questo punto i ricercatori costruiscono un programma di intelligenza artificiale che fa da “traduttore” tra cervello e testo, chiamato “decoder”. Lo scopo ultimo è il seguente: prendere come input la mappa di attività cerebrale associata alla visione di un certo video e restituire in output una frase adeguata a descriverlo. 

Per istruire il decoder, gli scienziati lo dotano di migliaia di esempi già abbinati. Confrontando tutti questi accoppiamenti, il decoder “apprende” che certi schemi di attività cerebrale compaiono quasi sempre quando nei video ci sono persone che si muovono all’aperto, altri quando si vedono oggetti fermi in ambienti al chiuso, altri ancora quando la scena è più affollata e dinamica, e via di seguito.

La fase dello studio che più richiama, almeno superficialmente, a una “lettura del pensiero”, è quella del ricordo. Dopo aver visto i video, ai partecipanti viene chiesto di chiudere gli occhi e di ripensare a una delle scene, mentre l’fMRI registra di nuovo l’attività del loro cervello. Gli scienziati non cambiano nulla nel sistema: usano lo stesso decoder addestrato sui dati della visione e gli danno in pasto i segnali registrati durante il ricordo. L’idea è di vedere se, quando una persona si limita a ricordare un video, il suo cervello si attivi in modo abbastanza simile a quando lo guardava davvero da permettere al decoder di capire che scena avesse in mente.

Ed è qui che entrano in gioco i numeri. E il quadro si fa meno fantascientifico. 

In realtà, il metodo funziona parzialmente e solo dopo un addestramento molto lungo e strettamente individuale. Non c’è nessuna lettura “al volo” di pensieri privati. 

Quando il decoder è usato per tradurre i segnali cerebrali registrati mentre la persona guarda i video, riesce a descrivere la clip corretta circa una volta su due. Potrà sembrare poco, ma si tratta di un compito per il quale il caso puro indovinerebbe una clip su cento. Resta però il fatto che in metà delle circostanze il decoder sbaglia. Inoltre, quando viene usato per tradurre l’attività cerebrale registrata mentre la persona ricorda le scene, l’accuratezza è ancora più bassa: nei casi migliori, il sistema ne riconosce correttamente circa il 40 percento.

Se ci atteniamo a questi risultati, appare evidente che siamo ancora lontani dal poter “leggere la mente” in modo accurato. Oltretutto, bisogna tener presente che questi risultati derivano da decoder allenati in condizioni praticamente ideali: ciascuno dei partecipanti allo studio ha passato circa 17 ore nello scanner a riguardare gli stessi video più e più volte perché il decoder potesse imparare le associazioni fra video e attività cerebrale. E questo lavoro va rifatto da zero per ogni individuo: ogni cervello ha il suo traduttore, e il modello addestrato su una persona non funziona se applicato a un’altra. Senza contare che lo strumento usato – la risonanza magnetica funzionale – è un macchinario ingombrante, costoso, che per essere usato richiede il coinvolgimento di personale specializzato. Insomma, non è una tecnologia che potremmo infilare domani in uno smartphone o in un visore di realtà virtuale.

In altre parole, il metodo funziona parzialmente e solo dopo un addestramento molto lungo e strettamente individuale. Non c’è nessuna lettura “al volo” di pensieri privati. 

Resta allora una domanda: ammesso che queste tecniche diventino via via più efficienti e agevoli da impiegare, per che cosa avrebbe senso usarle?

Se si guarda all’introduzione dell’articolo in esame, l’ordine delle priorità è piuttosto chiaro. La prima applicazione concreta che l’autore propone è l’uso combinato di questi decoder con sistemi di intelligenza artificiale basati su istruzioni testuali (ChatGPT, Gemini ecc.). 

Invece di scrivere una mail parola per parola, l’idea è che, in un possibile scenario futuro, potremmo limitarci a “pensare” i contenuti essenziali (per esempio: “scrivi a Luca: spostiamo la riunione a venerdì, scusati e chiedi conferma”). Dopo un addestramento individuale, il traduttore cervello-testo imparerebbe a riconoscere gli schemi di attività cerebrale che tendono a ripresentarsi quando una persona sta formulando certi concetti (“riunione”, “venerdì”, “spostare”, “scusarsi”). Da questi schemi, ricaverebbe una ricostruzione approssimativa del messaggio che si vuole inviare. A quel punto, un’ AI prenderebbe quella bozza come materiale di partenza e la trasformerebbe in una mail completa.

Solo in subordine, l’autore nomina le applicazioni cliniche di questi decoder come possibile canale di comunicazione per chi, per esempio, soffre di afasia e ha quindi perso l’uso della parola.

L’idea di partenza era di usare queste tecnologie per fornire mezzi ausiliari di comunicazione o di movimento a chi aveva perso queste funzioni a causa di un ictus, una malattia neurodegenerativa o una lesione del midollo spinale. 

Le due applicazioni chiaramente non si escludono, ma va sottolineato un cambio di priorità significativo. Le BCI sono infatti nate nei reparti di neurologia, non nella Silicon Valley. L’idea di partenza era di usare queste tecnologie per fornire mezzi ausiliari di comunicazione o di movimento a chi aveva perso queste funzioni a causa di un ictus, una malattia neurodegenerativa o una lesione del midollo spinale.  

Per capire che cosa significa, in concreto, usare una BCI in ambito clinico, può essere utile rifarsi a uno studio pubblicato sul prestigioso The New England Journal of Medicine. Descrive il caso di una donna in stato di “locked-in”, cioè completamente paralizzata. L’obiettivo era permetterle di selezionare lettere su uno schermo usando i segnali della sua corteccia motoria. I chirurghi le hanno impiantato una piccola griglia di elettrodi sulla superficie del cervello; gli algoritmi dovevano imparare a riconoscere l’attività associata al tentativo di muovere la mano e tradurla in spostamenti del cursore e “click” per la selezione delle lettere. Su carta il flusso è lineare: segnale cerebrale → comando decodificato → movimento del cursore. Nella pratica, dopo l’intervento, la paziente ha dovuto seguire 67 sedute di training, per arrivare, dopo circa 28 settimane, a scrivere in modo relativamente stabile a una velocità di sole due lettere al minuto.

Se passiamo dalla comunicazione al movimento, uno degli esempi clinici più spettacolari di BCI è il “ponte digitale” tra cervello e midollo spinale messo a punto dal gruppo di Grégoire Courtine: presentato su Nature nel 2023, è finito persino sulle pagine di Vogue dopo aver permesso a un paziente paralizzato di tornare a camminare. Il sistema è quello di una BCI “distribuita”: un impianto nel cranio registra i segnali della corteccia motoria delle gambe, un altro nella colonna stimola il midollo, e un piccolo computer portatile, tra i due, fa da ponte traducendo in tempo reale i segnali cerebrali in impulsi che riattivano le reti spinali ancora integre.

Dopo mesi di riabilitazione e decine di sedute di training, il paziente paralizzato riesce a camminare di nuovo, salire qualche scala, muoversi in ambienti reali con l’aiuto del ponte digitale.

Insomma, è questa la dimensione reale dell’implementazione delle BCI: progetti che durano anni, sistemi che vanno addestrati e ricalibrati, pazienti che devono impegnarsi a lungo, équipe multidisciplinari che devono dedicarvisi.

Se mettiamo insieme tutte le evidenze finora citate diventa chiaro che siamo ben lontani da Minority Report. Non esiste nessun tribunale dei pensieri, ma solo tecnologie lente e costose che ci obbligano a chiederci per che cosa vogliamo davvero usarle e in che direzione vogliamo orientare gli sforzi. 

Suscita un po’ di inquietudine il fatto che la prima, possibile applicazione delle BCI, sia semplificare l’interazione uomo-AI ma, a pensarci bene, questo spostamento di prospettiva non riguarda solo gli scienziati che si occupano dello sviluppo di queste tecnologie. 

Se prendiamo sul serio questo scenario, tocca chiederci cosa intendiamo quando ci definiamo “evoluti”.

In un recente articolo pubblicato su PNAS, due biologi evoluzionisti si chiedono se, in futuro, umani e sistemi di intelligenza artificiale potranno arrivare a formare una nuova “unità evolutiva”. È l’idea di un “nuovo tipo umano” che include l’AI come sua componente stabile.

Se prendiamo sul serio questo scenario, tocca chiederci cosa intendiamo quando ci definiamo “evoluti”. Per dirci tali, potrebbe non bastare riuscire a mandare un prompt al chatbot direttamente dal cervello. Se le BCI costano ore di lavoro umano, risorse economiche, attenzione metodologica, la risposta alla domanda su quanto siamo “avanti” sta proprio in chi scegliamo di mettere al centro di questo sforzo.

Secondo un aneddoto attribuito all’antropologa Margaret Mead, alla domanda su quale fosse il primo segno di civiltà in una cultura antica, lei non avrebbe indicato una lancia o un vaso ben fatti, ma un femore guarito: il segno che qualcuno si era preso cura di una persona con l’osso rotto, l’aveva nutrita e protetta finché potesse tornare a camminare. In quest’ottica allora il modo in cui oggi usiamo, o non usiamo, le BCI dice qualcosa sul “tipo umano” che stiamo costruendo: uno che spinge verso una dipendenza sempre maggiore dall’intelligenza artificiale, o uno che prova, prima di tutto, a restituire voce e movimento a chi li abbia persi.

La questione, più che fantascientifica, è a questo punto etica e politica: decidere se usare queste interfacce per alimentare l’ennesimo assistente virtuale, o per fare quello che, secondo la metafora del femore guarito, è da considerare un segno di civiltà superiore: prendersi cura di chi, senza queste tecnologie, resterebbe muto e fermo. E orientare di conseguenza gli investimenti e la ricerca.

La foto è di Tomoyasu Horikawa.

Arianna Brancaccio

Arianna Brancaccio è neuroscienziata e ricercatrice presso il Centre for Mind/Brain Sciences dell’Università di Trento. Si occupa di stimolazione cerebrale e di analisi avanzata dei segnali neurali per comprendere perché il cervello di ciascuno risponde in modo diverso agli stessi stimoli. Il suo lavoro mira a sviluppare approcci di neurostimolazione che comprendano e sfruttino la diversità anatomofisiologica tra gli individui, con un’attenzione particolare alle applicazioni cliniche di queste tecnologie. È autrice di numerosi articoli scientifici pubblicati su riviste internazionali peer-reviewed e ha collaborato con importanti centri di ricerca in Italia, Germania, Finlandia e Stati Uniti.

Contenuti Correlati