Articolo
Alessio Giacometti
Macchine con la febbre

Macchine Con La Febbre Cover Giacometti
clima tecnologia

I limiti energetici dell’intelligenza artificiale sono così poco studiati che è difficile quantificarne i consumi. Eppure l'entropia rimane il suo più grande ostacolo, nonostante alcuni immaginino hardware capaci di operare senza dissipare calore.

Quello di entropia è in assoluto uno dei concetti più misteriosi e divisivi della fisica moderna. A inizio Ottocento, l’ingegnere militare Sadi Carnot si decise a misurare l’efficienza di un motore a vapore e si accorse che parte dell’energia del combustibile veniva immancabilmente dissipata sotto forma di calore dal lavoro meccanico dei pistoni. Il motore operava insomma secondo un principio ineludibile di massima efficienza e una tendenza irreversibile al disordine poiché, una volta trasformata in lavoro, l’energia del combustibile non era più ripristinabile nella sua forma originaria. Era nata così la seconda legge della termodinamica, da allora convitato di pietra per scienziati di ogni branca della fisica, in particolare per quegli avventurieri che come Boltzmann, Maxwell, Shannon e Feynman avrebbero di lì in avanti esplorato l’arcano confine tra energia e informazione. 

Quando toccò a John von Neumann fare i conti con l’entropia, il suo genio vacillò: a differenza di ogni altra macchina, i computer sembravano generare calore senza svolgere un lavoro fisico nel senso convenzionale del termine. I motori convertivano l’energia chimica in meccanica, mentre i computer l’utilizzavano per generare qualcosa di apparentemente astratto come l’informazione. Perché mai si scaldavano, allora? Connettendo informatica e termodinamica von Neumann aveva intuito che, esattamente come il motore a vapore di Carnot possedeva un’efficienza massima, così anche il computer – il “motore dell’informazione” – operava secondo un limite di efficienza apparentemente invalicabile. 

A risolvere il paradosso del costo termodinamico del calcolo computazionale fu poi un allievo di von Neumann, Rolf Landauer. Una volta ottenuto il risultato di un calcolo (2+2=4), il computer “dimentica” la sequenza di operazioni che tra le tante l’ha prodotto (0+4, 1+3 o 2+2), ed è proprio questa perdita di informazione dalla memoria dei microprocessori a determinare una crescita di entropia e dunque dissipazione di calore. È il motivo per cui i computer per come li conosciamo non sono macchine del moto perpetuo: per rendere reversibile l’esecuzione di un calcolo servirebbe tenere traccia di ogni singola operazione, con lo svantaggio però di saturare rapidamente la memoria del computer e di rallentarne l’elaborazione fino a renderlo di fatto inutilizzabile.

Messo precocemente a fuoco sul piano teorico da von Neumann e Landauer, per lungo tempo il problema del limite termodinamico del calcolo informatico non si è invece posto dal lato pratico. La quantità di calcolo ha infatti continuato a crescere esponenzialmente senza che i consumi di energia aumentassero in maniera proporzionale o la dissipazione del calore compromettesse il funzionamento dei microprocessori. Per decenni l’efficientamento dell’hardware ha tenuto sotto controllo il consumo di elettricità, poi però i limiti energetici del calcolo computazionale hanno cominciato a manifestarsi. 

“Anche i processori sembrano aver raggiunto la loro massima efficienza in termini materiali e di scala – un limite che gli esperti del settore chiamano power wall”.

Nei primi anni Duemila, oltre alla legge di Moore, sono entrati in crisi lo scaling di Dennard e la legge di Koomey, in base ai quali i guadagni di efficienza ottenuti fino ad allora avevano permesso di avere processori sempre più piccoli e veloci senza che consumassero più energia o che la dissipazione di calore fondesse i transistor. Ma come il motore di Carnot, anche i processori sembrano aver raggiunto la loro massima efficienza in termini materiali e di scala – un limite che gli esperti del settore chiamano power wall. Per aumentarne la capacità di calcolo sarebbe necessario fabbricarne di più piccoli e complessi, ma, una volta fatto, il calore dissipato li fonderebbe. Tutto d’un tratto, la termodinamica è quindi diventata la principale barriera allo sviluppo dell’informatica convenzionale, e a renderlo palese è stata soprattutto la diffusione di massa dei sistemi di intelligenza artificiale generativa. Proprio quando dalla società arriva richiesta di capacità computazionale come mai prima, l’architettura informatica esistente non è in grado di soddisfare questa nuova domanda senza un incremento vertiginoso dei consumi di energia.

Abbiamo letto i libri di Giovanna Sissa, Guillaume Pitron, Kate Crawford, ed eravamo perciò consapevoli dell’insostenibilità dell’industria digitale da ben prima che l’intelligenza artificiale generativa facesse la sua comparsa, rivelando il trade-off tra calcolo computazionale e consumi di energia. In un blogpost dai toni visionari, il CEO di OpenAI Sam Altman ha scritto che l’intelligenza e l’energia – la capacità di generare idee e quella di attuarle – sono da sempre i vincoli fondamentali al progresso umano: i Large Language Model (LLM) hanno abbattuto il limite dell’intelligenza, ora occorre trovare un modo di abbattere il limite dell’energia per permettere alla nostra civiltà di continuare a crescere. Nei circoli intellettuali si dibatte animatamente di come i LLM abbiano stravolto il diritto o il concetto stesso di autore, di come tendano ad appiattire le attività culturali e indeboliscano la propensione a imparare, di come trasformeranno il mondo del lavoro e occorra perciò governarli con etica, eppure la riflessione sui limiti energetici dell’intelligenza artificiale rimane un tema sorprendentemente negletto o marginale.

In rete si trova un florilegio di stime sui consumi energetici dell’intelligenza artificiale, orientarsi non è semplice e la mancanza di trasparenza è intrinseca al settore, vuoi perché gli sviluppatori non tengono traccia di molte emissioni sommerse o perché tendono a minimizzare quelle manifeste. Inchieste come “Power hungry: AI and our energy future” della MIT Technology Review aiutano a mettere qualche punto fermo. Pare che al momento l’impronta di carbonio di una singola query sia irrisorio ma che, trainato proprio dall’uso dell’AI generativa, il fabbisogno energetico complessivo dei datacenter a livello mondiale superi ormai quello di ogni nazione sulla Terra esclusi gli Stati Uniti, la Cina e l’India. Per ora la tendenza è di alimentare l’AI boom con centrali a gas, ma nel prossimo decennio si spera di collocare le infrastrutture digitali in luoghi con minore domanda di energia e maggiore abbondanza di fonti low-carbon, oppure di bilanciarne l’utilizzo in funzione delle fluttuazioni della domanda e della disponibilità di energia sulla rete – strategie che gli addetti ai lavori chiamano “carbon-aware” o  “grid-aware computing”.

Ci si aspetta poi che qualche innovazione rivoluzionaria dal lato del software (LLM) o da quello dell’hardware (datacenter) possa portare guadagni di efficienza ad oggi inimmaginabili. Secondo Amory Lovins, guru dell’efficientamento energetico, le attuali previsioni sulla domanda futura di energia da parte dell’AI sarebbero esagerate: la crescita avverrà ma sarà limitata rispetto i consumi totali di elettricità, e in ogni caso basteranno le fonti rinnovabili a soddisfarla. A suo modo di vedere, drammatizzare le proiezioni sui consumi energetici dell’AI aiuterebbe le lobby del gas, del carbone e del nucleare a legittimare la (ri)apertura di nuovi impianti. In quest’ottica non è l’energia nucleare che serve all’AI per alimentarne la crescita tumultuosa, ma è l’AI che serve alla fissione come giustificazione per tornare nell’orizzonte del possibile e alla fusione per apparire sull’orlo di una svolta decisiva nella sua dimostrazione. 

Lovins racconta della bolla che alla fine degli anni Novanta e nei primi Duemila seguì la propaganda della lobby del carbone negli Stati Uniti per suscitare panico morale intorno alla domanda di energia delle tecnologie dell’informazione che cominciavano a diffondersi su larga scala. La profezia si auto-realizzò, vennero costruite più centrali del necessario, e la domanda di energia ci mise un decennio a riassorbire il surplus di produzione. Quando a fine 2024 la start-up cinese DeepSeek ha lanciato sul mercato il proprio LLM dichiarando consumi energetici molto inferiori a quelli delle Big Tech americane che avevano già destinato centinaia di miliardi di dollari alla costruzione di nuovi datacenter, gli investitori hanno immediatamente pensato alla bolla ricordata da Lovins.

“Pare che al momento l’impronta di carbonio di una singola query sia irrisorio ma che, trainato proprio dall’uso dell’AI generativa, il fabbisogno energetico complessivo dei datacenter a livello mondiale superi ormai quello di ogni nazione sulla Terra esclusi gli Stati Uniti, la Cina e l’India”.

Chi invita a guardare con scetticismo alle estrapolazioni più catastrofiche della futura domanda di energia da parte dell’AI potrebbe aver ragione. È anche vero però che molte delle analisi più ottimistiche non tengono in considerazione il problema della scala: oggi circa un miliardo di persone fa un uso “attivo” dell’AI generativa accedendo ogni tanto a ChatGPT e lanciando una serie di query, mentre in futuro potrebbe prendere il sopravvento l’uso “passivo” dell’AI che, incorporata in ogni device con cui interagiamo, entrerà in funzione che lo vogliamo o no. Come altre tecnologie ubique del passato, dall’elettricità stessa a internet, la spinta degli sviluppatori è a far sì che l’AI permei ogni aspetto della vita: dall’internet of things balzeremo direttamente all’AI of things, e ragionare sui consumi energetici di una singola interrogazione potrebbe non avere più senso.

Quanti provano oggi a mitigare la percezione del costo ambientale dell’AI tendono a focalizzarsi solo su alcuni impatti diretti, vale a dire l’energia consumata per addestrare i modelli e lanciare le query, omettendone altri come la materia e l’energia utilizzate in fase di produzione, uso e dismissione dei datacenter. Praticamente inesistente è poi la riflessione sugli impatti indiretti – è vero, l’AI generativa rende più efficienti molte attività umane, ma non sfugge agli effetti rimbalzo – così come la riflessione sugli impatti legati al costo-opportunità dell’utilizzo dei LLM. In principio l’AI potrebbe essere impiegata per trovare soluzioni al riscaldamento globale e ai consumi di energia, a cominciare dai propri. Potrebbe stabilizzare la rete elettrica, ottimizzare la produzione da fonti rinnovabili e scovare nuovi materiali per i sistemi di accumulo. In parte ha già cominciato a farlo, ma ha anche cominciato a essere usata per automatizzare e plagiare il lavoro umano, diffondere video deep-fake propagandistici e favorire la speculazione finanziaria, o peggio ancora a rilevare nuovi giacimenti per l’industria fossile. L’energia da fonte rinnovabile prosciugata dai LLM per la generazione superflua dei contenuti che inondano le piattaforme e alimentano i profitti dei padroni della data economy viene poi sottratta alla decarbonizzazione di altri settori dell’economia. 

Se si allarga lo sguardo dagli impatti ambientali diretti a quelli indiretti e legati al costo-opportunità, appare chiaro che l’AI generativa non potrà continuare a crescere al ritmo attuale ancora a lungo. Le Big Tech sono perciò a caccia di ogni soluzione ingegneristica che permetta di allentarne i vincoli energetici, nell’attesa che nuovi paradigmi computazionali come il quantum, il neuromorphic o l’optical computing siano finalmente praticabili. Tra le soluzioni teoriche più radicali per bypassare il problema dell’entropia, c’è anche chi scommette sul reversible computing e l’information engine – il computer che effettua calcoli senza scarti di informazione-energia e quello che usa l’informazione stessa come combustibile. 

Negli anni Settanta il fisico Charles Bennett spinse un passo più in là gli studi di von Neumann e Landauer sul costo termodinamico dell’informatica chiedendosi cosa accadrebbe se, dopo aver completato un calcolo e registrato il risultato, il computer potesse eseguire l’intero processo a ritroso, tornando allo stato iniziale e riciclando l’energia consumata anziché dissiparla in calore. Possibile sul piano logico senza bisogno di memorizzare ogni singola informazione di processo ma facendo leva sulla “de-computazione” dei calcoli conclusi, la domanda è ora se il reversible computing possa diventare fattibile anche sul piano pratico oppure no. L’information engine venne invece teorizzato da Leo Szilard negli anni Cinquanta, ed è oggi al centro di un’intensa attività di ricerca che intende ribaltare il limite termodinamico in un vantaggio per il calcolo computazionale: se l’entropia lega assieme dissipazione di energia e perdita di informazione, allora un sistema lasciato libero di diventare disordinato genera un’energia che potrebbe anche essere stoccata e trasformata in lavoro.Sono idee straordinarie e avvincenti, ancora tutte da dimostrare, e che per ora non vanificano la necessità di cominciare a usare l’AI generativa in maniera più sobria e saggia, umile e sostenibile. Il fatto che l’AI possa essere utilizzata per tante finalità non significa che debba esserlo. E se non libererà davvero tempo dal lavoro, non risolverà i nostri problemi e non ci farà risparmiare più energia di quella che consuma, allora non ci sarà motivo di utilizzarla.

Esiste un sistema ultra efficiente per capacità di elaborazione che chiamiamo cervello umano, alimentato da molecole di ossigeno e glucosio, in grado di svolgere compiti complessi con un dispendio di energia inferiore di otto ordini di grandezza rispetto alle macchine pensanti. L’AI generativa sembra volerlo rendere superfluo o ancillare, ma per riuscirci dovrà oltrepassare i propri limiti termodinamici. Anche se a molti sembra passato di moda, continuare a coltivare l’intelligenza umana rimane più importante che trovare soluzioni all’entropia dei calcolatori. Dopotutto il caro, vecchio ed efficiente sistema di calcolo che teniamo nel cranio non è poi così male.

Alessio Giacometti

Alessio Giacometti ha un dottorato in scienze sociali e si occupa di ambiente, energia, studi sulla scienza e la tecnologia. Scrive per la televisione e per diverse riviste culturali online.

Contenuti Correlati