Articolo
Andrea Daniele Signorelli
La partita che ha cambiato l’intelligenza artificiale

Signorelli Alphago Sito
tecnologia

Dieci anni fa l’intelligenza artificiale stupì per la prima volta per il mondo sconfiggendo un imbattibile campione di Go: l’astratto, filosofico e misterioso “imperatore dei giochi”.

10 marzo 2016, il sud coreano Lee Sedol fuma una sigaretta sulla terrazza del Four Seasons Hotel di Seoul. È una pausa inusuale, visto che da circa un’ora è iniziata la seconda partita del match di Go – millenario gioco da tavolo diffuso soprattutto tra Cina, Giappone e Corea – che lo vede contrapposto ad AlphaGo, l’intelligenza artificiale sviluppata dalla londinese DeepMind, laboratorio di ricerca di proprietà di Google.

L’allora trentatreenne Sedol – uno dei più forti giocatori di sempre – aveva chiesto e ottenuto dagli organizzatori del Google DeepMind Challenge Match di potersi ogni tanto concedere una pausa sigaretta mentre AlphaGo calcolava le sue mosse. Nella sala dell’albergo in cui si disputava il match al meglio delle cinque partite, le decisioni di AlphaGo erano osservate tramite un terminale dall’ingegnere di DeepMind, e giocatore di Go, Aja Huang, incaricato di eseguire materialmente le mosse scelte dalla macchina.

La seconda partita era stata fino a quel momento equilibrata, ma la situazione cambiò quando Sedol rientrò dalla pausa sigaretta e si sedette davanti al goban, la “scacchiera” del Go, dove nel frattempo AlphaGo aveva giocato la mossa numero 37 della partita. Osservando il punto in cui la macchina aveva collocato la “pedina”, in realtà una piccola pietra, Sedol fece una smorfia di stupore mista a disgusto. La mossa scelta da AlphaGo era un errore da principiante: una manovra brutta e controproducente, che nessun essere umano avrebbe mai fatto.

I telecronisti, il pubblico e due dei tre giudici pensarono che Aja Huang si fosse confuso nel posare la pietra. L’unico che sembrò rendersi conto di ciò che stava accadendo era il terzo giudice, il campione europeo di Go Fan Hui, che era stato assoldato come consulente da DeepMind nelle fasi iniziali di sviluppo di AlphaGo e aveva di conseguenza sviluppato un’intima conoscenza della macchina. Nel suo blocchetto per gli appunti, Hui scrisse: “Questo va oltre la mia comprensione. Non è una mossa umana. Non ho mai visto un essere umano fare questa mossa”.

Mentre le persone attorno a lui cercavano di capire che cosa stesse succedendo, Lee Sedol stentava a reagire. Il campione coreano di solito rispondeva alle mosse degli avversari nel giro di pochissimi minuti. In quell’occasione, restò invece dodici minuti a osservare sbigottito il goban. Sedol, Fan Hui, Aja Huang, i commentatori e i più esperti tra le decine di milioni di persone che in tutta l’Asia, e non solo, stavano seguendo la partita iniziarono gradualmente a rendersi conto che quella mossa non era un errore.

Il Go è un gioco dalle regole relativamente semplici: due giocatori si sfidano davanti a un goban costituito da una griglia 19×19, alle cui intersezioni vengono posate a turno le pietre bianche o nere. Una volta posizionate, le pietre non si muovono più, ma possono essere catturate quando vengono circondate. È un gioco di strategia astratta considerato profondamente filosofico, e crea una sorta di dialogo intellettuale tra i concorrenti in partite che durano ore o anche giorni.

Le mosse vengono giudicate non solo sulla base della loro efficacia, ma anche estetica, e vengono infatti definite “volgari”, “eleganti”, “oneste” o “divine”. La mossa compiuta da AlphaGo era sicuramente volgare. Era però anche imprevedibilmente efficace. Come ha scritto sempre Fan Hui nella sua analisi della partita, “la mossa 37 del nero ha gettato una rete invisibile sulla tavola. La spallata ha creato un potenziale tutt’attorno al centro. Tutte le pietre posate in precedenza hanno cominciato a operare insieme, si sono collegate tra loro come in un reticolo, connettendo tutto quanto”.

La spiazzante manovra di AlphaGo ribaltò l’andamento della partita, che fino a quel momento era sembrata leggermente a favore di Sedol, e costrinse il campione ad ammettere la sconfitta. Era la seconda volta in due giorni che Lee Sedol veniva battuto da AlphaGo, ma se nella prima occasione si era pensato che Sedol avesse sottovalutato la macchina o dovesse ancora adattarsi al suo diverso stile di gioco, in questa occasione la reazione fu diversa: “Pensavo che AlphaGo fosse solo calcolo probabilistico, ma dopo aver visto quella mossa ho cambiato idea: AlphaGo è sicuramente creativo”, affermò successivamente Sedol.

Le analisi successive dei ricercatori di DeepMind confermarono questa interpretazione: AlphaGo aveva assegnato a quella mossa una probabilità di essere eseguita da un essere umano pari a circa una su diecimila, ma sulla base dei milioni di partite che aveva giocato contro se stesso in fase di addestramento aveva compreso che, in quella particolare situazione, era comunque la scelta migliore. I giornali parlarono di “mossa aliena”, mentre in tutto il mondo i giocatori iniziarono a rendersi conto che il sapere codificato nelle migliaia di anni di “sfide filosofiche e intellettuali” a Go non era sempre, necessariamente, quello più efficace.

1. L’importanza dei giochi

Non era certo la prima volta che un’intelligenza artificiale si cimentava con successo nei giochi, sorprendendo gli esseri umani e superando quelli che erano considerati i suoi limiti intrinseci. Anzi, per molti versi i giochi da tavolo sono sempre stati il banco di prova ideale, fin dagli anni Quaranta, per testare i progressi delle primissime forme d’intelligenza artificiale e dei rudimentali software già al tempo sviluppati, o almeno scritti, al fine di mettere alla prova i computer con la dama o con gli scacchi.

Non è difficile capire le ragioni di questa fascinazione. La scacchiera, in ambito informatico, è definita un “mondo a informazione perfetta”: un ambiente chiuso, dominato da regole precise, in cui ogni elemento è visibile e nulla è lasciato al caso o all’ambiguità del contesto fisico. Gli scacchi in particolare sono, inoltre, da sempre considerati un gioco dalla complessità tale da essere sinonimo stesso delle abilità intellettive dell’essere umano. Come scrissero nel 1958 tre pionieri di questo settore – Allen Newell, Herbert Simon e Cliff Shaw – “se qualcuno riuscisse a sviluppare una macchina capace di giocare a scacchi con successo, allora saremmo forse riusciti a penetrare il cuore dell’intelletto umano”.

Anche Alan Turing, a partire dal 1946, si interessò alla possibilità logica di far giocare una macchina, scrivendo il software teorico diventato in seguito noto con il nome di Turochamp. Il padre della teoria dell’informazione Claude Shannon, appassionato di scacchi, guardò invece al problema come a una questione di complessità computazionale. Nel 1950 pubblicò un articolo in cui per la prima volta venne evidenziato uno degli elementi più importanti della sfida scacchistica per un computer, ovvero che il numero di partite possibili è talmente grande da rendere impraticabile qualsiasi esplorazione completa.

Una macchina non potrà mai analizzare, per ogni singola mossa, quale sia quella che garantisce matematicamente la vittoria. Bisogna necessariamente scegliere sfruttando le euristiche (definite come “un processo che potrebbe risolvere un problema, ma che non offre garanzie di farlo”). Invece di una logica binaria “vero o falso”, Shannon introdusse l’idea che un computer potesse (e dovesse) agire basandosi su valutazioni numeriche, assegnando un valore a ogni pezzo e alla posizione in cui si trova, e quella che definì “funzione di valutazione”.

Negli anni Sessanta nascono i primi software realmente in grado di giocare a scacchi, come il MAC HACK sviluppato all’MIT da Richard Greenblatt nel 1966 (il primo programma a partecipare a tornei ufficiali contro avversari umani, ottenendo un punteggio equivalente a quello di un dilettante di buon livello) e le varie versioni del software CHESS sviluppato alla Northwestern University, per poi approdare alla fine degli anni Settanta al sistema battezzato Belle: una macchina scacchistica sviluppata all’interno degli storici Bell Labs.

A differenza dei sistemi precedenti, Belle non era un programma che girava su un computer generico, ma una macchina ibrida, in cui software e hardware venivano progettati insieme come parti di un unico sistema scacchistico. Questa innovativa configurazione diede presto i risultati sperati. Nel 1983, Belle divenne il primo sistema a ottenere ufficialmente il titolo di Maestro dalla federazione scacchistica statunitense (USCF), superando una soglia (2200 punti) che fino a pochi anni prima era riservata esclusivamente agli esseri umani. Belle confermava che i progressi scacchistici dell’intelligenza artificiale non erano legati a una migliore comprensione del gioco, ma esclusivamente all’aumento delle prestazioni computazionali e dell’architettura hardware specializzata.

2. Deep Blue, la nemesi di Kasparov

A partire dalla metà degli anni Ottanta, la lezione di Belle venne fatta propria da Feng-hsiung Hsu, dottorando della Carnegie Mellon University, che nel 1985 sviluppò ChipTest e il suo successore Deep Thought, il primo computer a superare la soglia dei 2500 punti Elo e a battere in un torneo regolare, nel 1988, un Gran Maestro umano, Bent Larsen. Questa vittoria attirò l’attenzione di IBM, che aveva visto nel progetto un’imperdibile occasione per promuovere le sue nuove architetture di calcolo in parallelo. Nel 1989, Hsu fu assunto assieme a due colleghi da IBM. Il progetto Deep Thought proseguì con un nuovo nome: Deep Blue.

Deep Blue era un sistema ibrido con due componenti fondamentali. Il primo era il supercomputer IBM incaricato di coordinare il gioco e gestire la strategia complessiva. La vera potenza risiedeva però nei 480 chip scacchistici, componenti specializzati che svolgevano il lavoro più pesante, rendendo possibile l’esplorazione massiccia dell’albero delle mosse, arrivando ad analizzare, nella versione finale del 1997, fino a circa 200 milioni di posizioni al secondo.

IBM aveva sviluppato un sistema senza precedenti, capace di superare le prestazioni dei migliori esperti umani in un gioco considerato il banco di prova fondamentale dell’intelligenza artificiale. Adesso serviva un evento simbolico che permettesse di mostrare al mondo la potenza del sistema e dare ulteriore prestigio al marchio IBM. Da questo punto di vista, Garry Kasparov era l’avversario ideale: campione del mondo in carica con il punteggio Elo più alto fino ad allora mai registrato (2795 punti), volto noto a livello globale e che in passato aveva già accettato di affrontare dei computer – compreso Deep Thought – e li aveva sconfitti senza difficoltà.

Come sia andata è ormai storia. Kasparov riuscì a imporsi per 4-2 durante la prima sfida del febbraio 1996, ma dovette invece cedere al crescente potere di Deep Blue nella rivincita del maggio 1997, terminata per 3,5 a 2,5 a favore del sistema di IBM (due vittorie per Deep Blue, una per Kasparov e tre pareggi). Nella conferenza stampa, Kasparov, sull’orlo delle lacrime, ammise: “Sono un essere umano, quando vedo giocare qualcosa che va oltre la mia comprensione, ho paura”. Eppure, anche il fatto di aver imparato a padroneggiare – anzi, a dominare – un gioco considerato “il cuore dell’intelletto umano” non bastò a cambiare la nostra percezione dell’intelligenza artificiale.

Subito dopo la sconfitta di Kasparov, il superamento del test che avrebbe dovuto dimostrare il raggiungimento di una vera intelligenza artificiale smise di essere considerato tale e fu ridimensionato a semplice forza bruta computazionale. Si confermava così il cosiddetto AI effect, secondo cui – come osservò John McCarthy – “non appena una tecnologia funziona, nessuno la considera più intelligenza artificiale”.

3. La profondità del Go

Rispetto agli scacchi, il Go è però un altro paio di maniche. Se negli scacchi il fattore di ramificazione, ovvero il numero medio di mosse eseguibili da una certa posizione, ha un ordine di grandezza pari a 35, nel Go questo valore può arrivare a circa 250, rendendo impraticabile un calcolo esaustivo. Anche perché il numero complessivo delle sequenze di gioco possibili è enormemente diverso: negli scacchi si stima attorno a 10¹²⁰, mentre nel Go arriva a circa 10³⁶⁰ (più del numero di atomi presenti nell’universo, seguendo il classico paragone). La bravura dei maestri è quindi considerata la loro capacità di “intuire”, più che prevedere o calcolare, la mossa migliore. Per tutte queste ragioni, e per il suo carattere quasi artistico, il Go continuava a sembrare inaccessibile alle macchine anche dopo la svolta avvenuta nel 1997 con Deep Blue.

Fino alla metà degli anni Dieci, i migliori programmi di Go, come Crazy Stone o Zen, avevano raggiunto al massimo un livello dilettantesco avanzato. Il momento in cui le macchine avrebbero superato quel livello era considerato lontano decenni e non si escludeva che sarebbe potuto non arrivare mai. Un articolo pubblicato su Wired nel 2014 affermava che fosse l’unico gioco in cui la materia biologica era ancora in vantaggio sull’hardware: “Se negli scacchi domina il calcolo, il Go ruota invece attorno alla comprensione. Ed è per questo che i computer ancora non possono battere gli esseri umani”.

Ciò che ad alcuni può apparire un ostacolo insormontabile, rappresenta però un’inevitabile tappa intermedia per chi si è dato un obiettivo ancora più ambizioso: dare vita a una vera intelligenza artificiale generale, in grado – secondo la definizione canonica – di “eguagliare o superare le capacità umane in praticamente tutti gli ambiti cognitivi”. Nato nel 1976 a Londra da padre greco-cipriota e da madre singaporiana, Demis Hassabis ha avuto una carriera tortuosa, ma che sembra fatta apposta per portarlo ad abbracciare la sfida del Go. Prodigio degli scacchi fin da bambino, a tredici anni era il secondo miglior giocatore al mondo per la sua età, conquistando già al tempo il titolo di Maestro e guidando più volte la nazionale giovanile inglese.

Dopo una carriera di successo nel mondo dei videogiochi e dopo aver preso un dottorato in neuroscienze, Hassabis fonda a Londra nel 2010 – assieme agli amici Mustafa Suleyman, oggi CEO di Microsoft AI, e Shane Legg – il laboratorio di ricerca sull’intelligenza artificiale DeepMind, la cui missione, per statuto, è “risolvere il mistero dell’intelligenza”. Per riuscire in questa particolare impresa, Hassabis decide di mettere alla prova i sistemi di intelligenza artificiale sviluppati da DeepMind con un ambiente digitale che conosce molto bene: quello del gaming.

I videogiochi offrono infatti ambienti chiusi, livelli, ricompense, punteggi, regole stabili e obiettivi misurabili, ideali per osservare come un agente artificiale impara a prendere decisioni nel tempo. Il percorso che porterà DeepMind ad affermarsi come uno dei laboratori di punta nel campo dell’intelligenza artificiale inizia quindi insegnando alle macchine a padroneggiare i videogiochi Atari degli anni Ottanta. Giochi semplici e, dal punto di vista grafico, rudimentali, ma che richiedono di apprendere e di adattarsi progressivamente.

I successi rapidamente ottenuti – soprattutto con giochi come Pong e Space Invaders – attirano presto l’attenzione della Silicon Valley. E così, dopo aver pattuito alcune clausole specifiche – tra cui l’impegno a non impiegare le tecnologie sviluppate dal laboratorio londinese a fini militari – DeepMind viene venduta a Google nel gennaio 2014, per una cifra stimata attorno ai 500 milioni di dollari.

Che cosa aveva comprato Google? DeepMind era una startup che non generava ricavi di nessun tipo e non stava lavorando allo sviluppo di nessun prodotto. Era inoltre una realtà di cui nemmeno molti addetti ai lavori avevano mai sentito parlare. Fu probabilmente anche per questa ragione che DeepMind, approfittando delle nuove risorse a disposizione, decise di testare il suo approccio al deep learning nella prova più difficile che si potesse immaginare, sviluppando a partire dal 2014 un sistema in grado di giocare a Go e lanciando due anni più tardi la sfida al più noto campione del goban: Lee Sedol.

Nato nel 1983 sulla remota isola sudcoreana di Bigeumdo, Lee Sedol era diventato professionista di Go all’età di dodici anni, il quinto più giovane nella storia coreana. Da quel momento aveva iniziato la vita da enfant prodige, allenandosi dal lunedì alla domenica nell’accademia fondata da Kweon Kab-yong, un celebre insegnante che aveva scoperto il talento di Lee Sedol dopo aver assistito alla sua vittoria, nel 1991, a una competizione nazionale per bambini.

Lo stile di gioco di Sedol è fin dall’inizio caratterizzato da creatività, imprevedibilità e aggressività, da cui il soprannome, in parte anche un gioco di parole con il suo cognome, di Ssen-dol (“la pietra forte”). A soli trentatré anni, Lee Sedol ha già conquistato diciotto titoli internazionali, è considerato il più forte giocatore della sua generazione e tra i più forti della storia. In Corea del Sud gode di una celebrità pari alle stelle del K-pop. Per DeepMind era insomma l’avversario perfetto, che avrebbe garantito alla startup londinese la sfida più ostica possibile e l’adeguata visibilità mediatica.

4. AlphaGo vs Lee Sedol

La sfida alla meglio delle cinque partite tra Lee Sedol e DeepMind venne annunciata a inizio 2016 e fu accolta dal campione di Go con la sicurezza per la quale era noto: “Penso di vincere 5-0 o 4-1 nel peggiore dei casi”, aggiungendo di voler rimandare il più possibile il momento in cui “la macchina sconfiggerà l’essere umano a Go”.

Considerati gli insuccessi fino ad allora ottenuti dalle intelligenze artificiali in questo particolare gioco, nessuno ritenne troppo spavalde le dichiarazioni di Sedol, nonostante rievocassero pericolosamente l’amara lezione appresa da Kasparov esattamente vent’anni prima. Il sistema presentato per l’occasione da DeepMind, battezzato AlphaGo, era però completamente diverso da Deep Blue. AlphaGo, dotato di 1202 CPU e 176 GPU, utilizzava due reti neurali basate su deep learning. La prima, chiamata policy network, era addestrata su trenta milioni di mosse giocate durante le partite dagli esseri umani. In questo modo, la rete imparava a individuare quali mosse risultassero umanamente plausibili in una data posizione, restringendo drasticamente lo spazio di ricerca e permettendo al sistema di ignorare le alternative meno promettenti.

Una seconda rete, la value network, aveva invece il compito di stimare la probabilità di vittoria associata alla configurazione attuale del goban, riducendo la profondità della ricerca e permettendo al sistema di valutare una posizione senza smarrirsi nell’infinita complessità del gioco. Giocando milioni di partite contro precedenti versioni di sé stesso, AlphaGo poteva quindi discostarsi dal modello di gioco umano appreso nella fase precedente, individuando, attraverso l’esperienza diretta, le strategie più efficienti all’interno delle regole del gioco.

Il 9 marzo 2016 ebbe così inizio il Google DeepMind Challenge Match, una sfida con un montepremi di un milione di dollari per il vincitore. Le partite erano trasmesse in diretta streaming e commentate da Michael Redmond, l’unico professionista occidentale ad aver raggiunto il nono dan. In Corea del Sud, dove il Go è praticato da circa nove milioni di persone, l’evento aveva conquistato la prima pagina del Korea Herald ed era seguito quotidianamente da tutte le principali testate giornalistiche, mentre decine di emittenti asiatiche lo diffondevano in cinese, giapponese e altre lingue. Nel complesso, si stima che la sfida tra AlphaGo e Lee Sedol sia stata seguita da 200 milioni di persone in tutto il mondo.

A differenza di Kasparov, che ebbe il lusso di vincere il primo match contro Deep Blue e di conquistare la prima partita durante la rivincita, Lee Sedol si scontrò subito con il potere di AlphaGo. Dopo un inizio equilibrato, l’intelligenza artificiale mise a segno mosse estremamente precise, ribaltando alcuni piccoli svantaggi accumulati nel corso della partita e conquistando il vantaggio territoriale.

Lo scetticismo iniziale dei commentatori, che nel corso della partita avevano ridicolizzato alcune decisioni di AlphaGo, venne definitivamente messo a tacere quando Lee Sedol, resosi conto della situazione ormai compromessa, abbandonò la partita e concesse la vittoria. Nella successiva conferenza stampa, Sedol ammise di trovarsi in stato di shock: “Non pensavo che AlphaGo sapesse giocare in modo così perfetto”. L’ammissione lasciò però presto strada alla sicurezza: “Ho vinto molti campionati del mondo e perdere una partita non influirà sul mio modo di giocare. Credo che adesso le probabilità siano cinquanta e cinquanta”.

Come abbiamo visto, le convinzioni di Sedol crollarono già il giorno successivo, quando AlphaGo stupì il suo avversario, e il mondo intero, con l’imprevedibile e “aliena” mossa 37. Il campione coreano perse anche la terza e decisiva partita: DeepMind vinse il milione di dollari di montepremi, donato in beneficenza all’Unicef, ed elogiò lo spirito combattivo di Sedol, che cercò di liberarsi dall’enorme pressione sottolineando come si trattasse di una sua sconfitta, “non dell’umanità”.

Sedol aveva perso il match, ma doveva comunque giocare le ultime due partite. Probabilmente alleggerito dal punto di vista psicologico, fu proprio durante la quarta partita che diede il meglio di sé, rispondendo alla mossa 37 con la sua celebre “mossa 78”, una decisione inaspettata e insospettabile di incuneamento al centro del goban, con cui inseriva la sua pietra tra due avversarie. A differenza di quanto avvenuto con la 37, fu subito chiaro a tutti che si trattava di una “mossa divina”, come la definì il commentatore cinese, e storico rivale di Sedol, Gu Li.

In seguito alla mossa 78, AlphaGo iniziò a inanellare una serie di errori e si arrese nel giro di pochi minuti. I sospetti che DeepMind potesse aver “concesso” a Sedol l’onore delle armi vennero fugati dai registri dei ricercatori, che indicavano come anche quella mossa avesse una probabilità di essere scelta pari allo 0,01%. Nonostante la sconfitta nel match, la vittoria di Sedol in quella singola partita venne accolta come una piccola rivincita dell’essere umano, ancora in grado di sorprendere e mandare in tilt l’intelligenza artificiale. Lo stesso Sedol, sconfitto anche nella quinta e ultima partita, dichiarò che quella singola vittoria era per lui “un trionfo inestimabile che non scambierei con nulla al mondo”.

A differenza di quanto inizialmente temuto, questo gioco millenario non è per fortuna stato ucciso dall’avvento di intelligenze artificiali superiori ai migliori maestri, ma ha anzi dato via alla cosiddetta “era post-AlphaGo”. I maestri hanno iniziato a studiare le partite giocate dalla macchina per scoprirne i segreti, rovesciare tradizioni e individuare nuove strategie.

Lee Sedol, dopo aver continuato a giocare e a vincere per qualche tempo, nel novembre 2019 ha annunciato il suo ritiro dal Go professionistico affermando: “Anche se tornassi a essere il numero uno, so che c’è un’entità che non posso sconfiggere”.

Andrea Daniele Signorelli

Andrea Daniele Signorelli è giornalista e collabora a diverse testate tra cui: «Domani», «Wired», «Repubblica», «Il Tascabile». È autore del podcast Crash – La chiave per il digitale. Il suo ultimo libro è Simulacri digitali. Le allucinazioni e gli inganni delle nuove tecnologie (add editore, 2024).

Contenuti Correlati