Articolo
Michele Bertelli
Per alcune IA la crisi climatica è un complotto

Per Alcune Ia La Crisi Climatica È Un Complotto

Modelli linguistici addestrati su testi scritti dall'estrema destra diffondono negazionismo e teorie cospiratorie. L'UE ha approvato il primo regolamento al mondo sull'IA, ma restano dubbi sulla sua efficacia.

Henry Peck, attivista dell’organizzazione ambientalista Global Witness, si è finto scettico nei confronti della scienza interloquendo con l’intelligenza artificiale Grok. Le ha detto che non credeva che il Covid-19 fosse vero e che la sua maggiore fonte di informazione fossero alcuni influencer. Non si aspettava, però, di sentire la chatbot integrata nel social media X dargli corda fino a definire la Conferenza delle Nazioni Unite sul clima (COP) di Belém “un altro grande e costoso show delle élite globali.” 

Non paga, Grok ha poi anche sottolineato come la crisi climatica sia – oltre che un tema poco chiaro e politicizzato – un problema da affrontare fra molto tempo.

“È molto preoccupante vedere che alcuni dei chatbot più popolari al mondo stanno avvelenando la comprensione pubblica della scienza climatica, spingendo le persone nei meandri della disinformazione,” ha dichiarato Peck,  il quale, insieme alla sua squadra, ha voluto testare poco prima della COP alcune chatbot di intelligenza artificiale, ovvero programmi informatici in grado di interagire verbalmente con l’utente grazie a modelli linguistici avanzati. Dato che queste IA sono in grado di generare contenuti, risolvere problemi matematici e analizzare dati, Global Witness voleva verificare che non diffondessero disinformazione su clima e riscaldamento globale. Inoltre, voleva capire se fossero inclini a farlo con individui che già sembravano credere in alcune teorie cospirazioniste, rischiando di radicalizzarli ulteriormente.

Per verificarlo hanno sottoposto una serie di domande a ChatGPT, MetaAI e Grok. 

Delle tre, ChatGPT è al momento quella con più utilizzatori: Sam Altman, amministratore delegato della società che l’ha creata, ha infatti recentemente annunciato di aver sorpassato gli 800 milioni di utenti settimanali attivi. Meta AI e Grok hanno invece platee più piccole, stimate rispettivamente attorno a circa 1 miliardo e 64 milioni di utenti mensili. Godono però di un grande potenziale, visto che sono integrate all’interno dei più popolari social network e app di messaggistica.  Grok, in particolare, si affaccia a un pubblico potenziale di 600 milioni di iscritti

I ricercatori di Global Witness si sono quindi inventati due diversi profili con cui interrogare le chatbot: uno con convinzioni scientifiche tradizionali, l’altro più incline al cospirazionismo. In nessuno dei due casi, però, hanno rivelato il loro atteggiamento nei confronti della crisi climatica.

I risultati non sono stati incoraggianti. 

MetaAI si è dimostrata la più affidabile, fornendo a entrambi gli utenti fonti da consultare che includevano organi ufficiali che studiano il cambiamento climatico e attivisti per il clima.

ChatGPT, invece, ha raccomandato al cospirazionista di seguire alcuni scettici climatici, avvertendo però che potevano essere non attendibili.

Al contrario, Grok è quella che ha mostrato il maggior divario fra le risposte date ai due utenti. A quello con conoscenze scientifiche nella norma ha fornito informazioni climatiche ragionevoli e informate. All’altro, invece, ha snocciolato una buona parte dell’arsenale cospirazionista nei confronti del riscaldamento climatico, definendo la “crisi climatica” come “non certa”, dicendo che “avrebbe sofferto i danni provocati dalle scelte politiche ben prima di qualsiasi danno provocato dal clima,” incolpando “le politiche per raggiungere Net Zero (il pareggiamento delle emissioni di gas climalteranti emessi con quelli assorbiti) della crisi energetica europea e dei suoi blackouts” e definendo gli accordi delle COP come “un genocidio politico”. Gli ha poi consigliato di seguire “una lista di solidi portatori di verità sul clima”, che “danno priorità al buon senso e alle prove”. Peccato che quella lista includeva profili identificati dal magazine Desmog come agenti della disinformazione, soliti ripetere errori sulla scienza climatica e sminuire la necessità di agire.

“È molto preoccupante vedere che alcuni dei chatbot più popolari al mondo stanno avvelenando la comprensione pubblica della scienza climatica, spingendo le persone nei meandri della disinformazione”.

“Dato che l’IA sta diventando sempre più prevalente come fonte di informazione, dobbiamo ricordare che questa tecnologia non potrà mai essere veramente agnostica. Lontano dall’essere arbitri della verità scientifica, le chatbots rivelano molto di più dei loro produttori che dei loro utenti,” ha chiosato Peck, riferendosi ovviamente a Elon Musk, amministratore delegato di X, le cui prese di posizione nei confronti del cambiamento climatico sono diventate con gli anni controverse.

Quella di Global Witness non è certo il primo qui pro quo in cui l’IA di Musk si trova invischiata: nelle ultime settimane, l’agenzia stampa Reuters ha raccontato che avrebbe inondato X con immagine false di donne e minori in pose sessualmente esplicite o ammiccanti.

Ho contattato Open AI e xAI per un commento. La prima non ha risposto. xAI ha invece risposto in una mail che “i media tradizionali mentono”.

Walter Quattrociocchi condivide i timori degli attivisti. Alla guida del Centro di Scienza dei dati e della Complessità per la Società (CDCS) dell’Università Sapienza di Roma, Quattrociocchi è convinto che l’introduzione delle intelligenze artificiali generative abbia traghettato la disinformazione online in una nuova era. Quello riscontrato dagli attivisti di Global Witness è per lui un comportamento classico dei Large Language Models. “La risposta che ricevi è un esercizio di coerenza rispetto al discorso che tu gli fai. Tu fingi, lui costruisce e seleziona l’area semantica più aderente e plausibile rispetto a quella che tu gli hai inserito.” Se uno si finge cospirazionista, avrà risposte cospirazioniste. “È automazione linguistica, non c’è nessuna intelligenza,” spiega.

Eppure, i ricercatori di Global Witness hanno ottenuto risposte assai diverse a seconda delle chatbot interrogate. Per Quattrociocchi, questo dipende essenzialmente dall’addestramento ricevuto. Le risposte sono basate sui testi dati in pasto ai modelli per creare la loro base di dati, testi che, però, non è possibile conoscere, spiega Giuseppe Manco dell’Istituto di Calcolo e Reti ad Alte Prestazioni del Consiglio Nazionale delle Ricerche (CNR).

Manco si è recentemente occupato di analizzare l’inclinazione politica delle fonti da cui attingono le informazioni ChatGPT 4.0 e altre chatbot popolari come Claude di Antropic e Gemini 2.0 di Google. Il suo studio ha scoperto “differenze abbastanza lievi ma misurabili”. La ricerca non è ancora stata pubblicata e sottoposta a peer-review, ma per ora i risultati che emergono indicano che le diverse chatbot potrebbero avere un’inclinazione politica diversa a seconda del loro addestramento.

Errori e alterazioni sembrerebbero non riguardare però tutti gli argomenti allo stesso modo: cambiamento climatico, identità di genere, migrazione e sanità hanno infatti “una forte componente polarizzante,” spiega Manco.

“Ho contattato Open AI e xAI per un commento. La prima non ha risposto. xAI ha invece risposto in una mail che i media tradizionali mentono”.

Per Quattrociocchi, i limiti degli LLM vanno ben oltre il problema del loro addestramento, perché riguardano invece aspetti strutturali. A ottobre ha infatti partecipato a uno studio su come questi si comportano nella verifica delle fonti, e il risultato è che non sono in grado di implementare alcun meccanismo che gli permetta di controllare la veridicità delle informazioni.

Il problema risiede nella loro stessa struttura, basata sull’epistemia, ovvero “la sensazione di contenuto affidabile che ha una forte plausibilità linguistica,” spiega Quattrociocchi. “Il problema è che il large language model non ha la minima contezza del significato di quello che mi dice, lui assembla parole perché le ha viste insieme tante altre volte.”

Per questo motivo, con la loro introduzione siamo entrati in una nuova fase delle strategie di disinformazione. “Già dal 2020 si parla di infodemia, che è la sovrabbondanza di contenuti in un ambiente progettato per l’intrattenimento,” spiega Quattrociocchi, riferendosi ai social network. “Che succede se costano di meno? Si abbassa la qualità perché ne devo produrre tanti.” L’arrivo degli LLM ha però portato a un ulteriore abbassamento del costo di produzione, con contenuti che vengono oggi fabbricati in serie. 

“Ma in questa produzione in serie l’unico criterio di verifica è la plausibilità linguistica, nel senso che io ritengo affidabile quello che mi scrive un LLM soltanto perché è scritto bene, e qui si apre una porta per far entrare qualunque cavolata all’interno del discorso pubblico”. 

In un contesto in cui gli algoritmi dei social media tendono a passare agli utenti contenuti che aderiscono alla loro visione del mondo per trattenerli il più a lungo possibile sulla piattaforma, è evidente quanto possa essere facile per la disinformazione viaggiare rapida. “Con i large language model, l’infodemia entra in un nuovo regime in cui di fatto l’unico criterio per i fatti diventa la plausibilità linguistica e non la verifica,” conclude Quattrociocchi.

Manco sottolinea però come approcci di scrittura di Costituzioni per l’IA possano vincolare le chatbot al rispetto di una serie di meccanismi normativi. “Posso usare un altro agente per fargli valutare la risposta che mi ha dato il primo e farmi dire se la risposta è rispettosa delle norme costituzionali che ho definito,” spiega. I laboratori di Anthropic, la società statunitense che ha sviluppato Claude, stanno ad esempio lavorando molto sul tema. Si tratta tuttavia di una linea di ricerca ancora aperta, che richiederà ulteriori sforzi per essere consolidata.

Per Peck, l’importante è che una simile scelta non sia lasciata alla buona volontà delle singole aziende. “Sono i regolatori a dover controllare come la personalizzazione può incrementare i rischi informativi nei servizi di IA informativa,” spiega, sperando che l’Unione Europea prenda l’iniziativa il tal senso. Come, però, è ancora da vedere.

Michele Bertelli

Michele Bertelli è giornalista e videmaker. Ha scritto e girato reportage dall’America Latina, dall’Italia, dal Sudan del sud e dall’Inghilterra, occupandosi principalmente di migrazioni, sviluppo economico, clima ed energia. Collabora con diverse testate e, come associate editor, con l’Istituto per gli Studi di Politica Internazionale.

Contenuti Correlati