Siamo a un bivio: usare l’Intelligenza Artificiale per il bene dell’umanità
di Alessandro Gisotti, Vatican News (articolo pubblicato su L'Osservatore Romano il 29 dicembre 2025)
Ci sono calcoli così complessi che un essere umano per farli “a mano” impiegherebbe oltre 10 miliardi di anni, mentre all’Intelligenza Artificiale bastano pochi centesimi di secondo. Vengono le vertigini solo a pensare cosa può fare questa rivoluzionaria tecnologia, di cui il fisico Mario Rasetti parla con i media vaticani in un’ampia intervista sulle diverse dimensioni dell’esistenza umana che ha toccato e, per certi versi, già stravolto. Ormai l’IA, come tutti stiamo imparando a chiamarla, fa parte della nostra vita. E sembra che, per alcuni utilizzi, già non se ne possa fare a meno. Per Rasetti, professore emerito di Fisica teorica del Politecnico di Torino e per lunghi anni docente nelle più importanti università del mondo da Oxford a Princeton, siamo all’inizio di una vera e propria svolta per l’umanità. Per questo — sottolinea con vigore — le domande etiche, le questioni antropologiche non possono essere meno rilevanti di quelle tecniche. Voce tra le più autorevoli al mondo sul tema, Rasetti spera che l’Intelligenza Artificiale venga usata per il bene, non per il male dell’uomo. Ci troviamo dunque dinnanzi a un bivio epocale. Spetta a noi intraprendere la strada giusta.
Professor Rasetti, fino a pochi anni fa, l’Intelligenza Artificiale sembrava materia per pochi esperti. Oggi è una presenza reale, concreta, nella vita di ognuno di noi. Per la rivista «Time», i suoi “creatori” meritano il titolo di «Personaggio dell’Anno del 2025». La stupisce questa accelerazione sociale e culturale, oltre che tecnologica, del fenomeno?
Diciamo che non mi stupisce perché ci sono dentro, ci vivo, e ho dovuto io stesso adattarmi a una velocità di crescita e di sviluppo enorme. L’Intelligenza Artificiale, non c’è dubbio, è una rivoluzione. Forse la più grande rivoluzione culturale di tutta la storia dell’Homo sapiens. È forse anche una transizione antropologica: sta cambiando certi modi con cui noi ci rapportiamo al mondo naturale, la realtà con cui comunichiamo. La velocità con cui sta avvenendo ci stupisce. C’è un famoso grafico che mostra l’indice di sviluppo dell’umanità sul pianeta Terra nel tempo e va dall’8000 a.C. fino ai giorni nostri. L’indice dipende da molti parametri. Questa curva è praticamente appiattita sullo zero dall’8000 a.C. poi mostra piccoli segni di sviluppo crescente. Bisogna arrivare al 1770 per vederle fare un’impennata, che è un vero gomito, da orizzontale diventa praticamente verticale. Il punto nel quale c’è il gomito corrisponde all’invenzione della macchina a vapore e quindi l’inizio dell’era industriale. Negli ultimi dieci anni, la curva è proprio una retta verticale. Allora bisogna fare il logaritmo. E facendo questo vediamo che stiamo percorrendo una curva analoga a quella della Rivoluzione industriale, ma in scale logaritmiche! Quindi ci sono segni che la velocità di crescita sia ora addirittura doppio esponenziale: l’esponenziale dell’esponenziale. Andare al doppio esponenziale significa andare a regimi nei quali i nostri riflessi umani non ci permettono di avere il controllo di nulla.
Proprio soffermandoci su questo aspetto della rapidità. Delle «machine learning» si parla in campo scientifico da oltre 50 anni, eppure l’Intelligenza Artificiale sembra averci colto di sorpresa. Siamo pronti a livello antropologico, di riflessione umana, a un «cambiamento d’epoca», come avrebbe detto Papa Francesco, che ha assunto questa rapidità. Una velocità, lei lo diceva, con parametri che facciamo perfino fatica a concettualizzare?
È tutto enorme in questo mondo dell’Intelligenza Artificiale! Sa quanto è stato investito nell’IA negli ultimi 12 mesi negli Stati Uniti? 2,7 trilioni di dollari ovvero quattro volte il Pil italiano. E questo è tutto troppo grande. Al tempo stesso, dobbiamo considerare che l’Intelligenza Artificiale ha pochissimo a che fare con l’intelligenza umana. Mi spiego: il nostro cervello è diviso in parti. Circa 50 anni fa, alcuni neuroscienziati — uno era Francis Crick che vinse il premio Nobel per la scoperta del Dna — si accorsero facendo esperimenti che il pensiero razionale toccava un frammento della corteccia cerebrale: la corteccia prefrontale, che sta sulla parte anteriore del cervello. Due informatici del tempo, MuCulloch e Pitts, si accorsero che il funzionamento di questa corteccia prefrontale si descriveva bene matematicamente in termini binari, cioè usando solo stringhe di 0 e di 1, che è quello che fa un computer. Di lì nacque quella che oggi chiamiamo Intelligenza Artificiale. Ma la nostra intelligenza non usa solo questa parte anteriore del cervello. Per noi l’Intelligenza Artificiale è sostanzialmente machine learning. Noi riproduciamo con delle macchine una singola proprietà del cervello umano che è quella di apprendere. Il nostro cervello tuttavia non lavora solo con la corteccia prefrontale. Per esempio, tutte le cose che hanno a che fare con i sentimenti, le emozioni, la creatività, noi le facciamo con una ghiandoletta che sta al centro del cervello e non sulla corteccia. Una piccola ghiandola che si chiama amigdala. E questa non funziona in modo binario.
Questo ultimo aspetto è forse uno dei paradossi che si vivono oggi con le macchine ad Intelligenza Artificiale. Sappiamo che non potranno mai replicare e dunque nemmeno sostituire il cervello umano. Tuttavia la sensazione — anche semplicemente utilizzando strumenti oggi molto diffusi come Chat Gpt — è che sia molto più capace di noi a risolvere problemi complessi. È “brava” a fare calcoli, ma non apprende le emozioni, i sentimenti, non ha una coscienza...
Non ha sentimenti, non sa cosa sia la coscienza, non ha gli strumenti per recepire quel livello lì. Infatti, c’è stata forse una rappresentazione eccessivamente grande da parte dei media di una cosa che è in evoluzione. L’Intelligenza Artificiale è uno strumento il cui progresso così veloce è dovuto sostanzialmente al progresso della potenza di calcolo che noi siamo in grado di sviluppare con i nostri computer. È tutta “forza bruta”. L’IA è quel pezzo di tecnologia che si differenzia da ciò che è venuto prima nella storia dell’uomo per il fatto che ci aiuta non solo a fare cose che faremmo con i muscoli, ma cose che faremmo con la testa, con l’intelligenza. Quindi è uno strumento che ci può fare un gran bene. Però come tutti gli strumenti può essere usato per fare cose cattive. Io sono un vecchio fisico che ha avuto come suoi mentori quegli scienziati che hanno partecipato al Progetto Manhattan, alla costruzione della bomba atomica. Per questo fin da giovane, avevo una particolare attenzione su questo: la fisica è uno strumento che può essere usato per fare del bene, può essere però usato anche per fare del male. Contiamo tutte le persone alle quali è stata allungata la vita curando il cancro con le radiazioni. Ma è stata usata anche per uccidere 300 mila persone in un solo colpo a Hiroshima. Quindi è uno strumento che può essere usato bene o male. Lo stesso vale oggi. Bisogna lottare perché l’Intelligenza Artificiale venga usata per il bene!
Forse questa rivoluzione tecnologica non è accompagnata sufficientemente da una riflessione sui risvolti etici della sua applicazione alla vita umana. Papa Francesco è intervenuto negli ultimi anni del suo Pontificato sull’Intelligenza Artificiale e Leone XIV fin dai primissimi momenti ha messo al centro anche la riflessione dal punto di vista etico-antropologico. Come guidare lo sviluppo dell’IA in favore dell’uomo e non contro l’uomo?
La vera missione che quelli più consapevoli fra gli scienziati si stanno dando è proprio di creare una cosa nuova che sia in buona misura un nuovo umanesimo, non solo una nuova scienza. Io faccio irritare alcuni miei colleghi perché dico che l’Intelligenza Artificiale non è una scienza. Per me è una pratica molto sofisticata, efficace. Noi dobbiamo trasformarla in scienza soprattutto perché solo a quel punto saremo in grado di guidarla. Tutti i punti di debolezza dell’Intelligenza Artificiale sono ascrivibili all’etica. Abbiamo bisogno di uomini di buona volontà che abbiano a cuore l’avvenire del genere umano e non la geopolitica che, lo vediamo in questo momento, è guidata da egoismo e dominio, da indifferenza. Uno dei problemi più grandi a livello etico dell’IA è la sostenibilità ambientale: l’Intelligenza Artificiale sta rischiando di schiantarsi proprio per quella crescita mostruosa che dicevamo prima. Di schiantarsi dunque sulla questione energetica.
Può farci qualche esempio concreto per comprendere meglio quanto il tema dell’energia sia dirimente per il futuro sviluppo dell’Intelligenza Artificiale?
Ne faccio due. Google, come sappiamo, ha istallato tutti i suoi data center in Irlanda. L’ha fatto per ragioni fiscali, paga meno tasse. In questo momento Google sta consumando il 40 per cento di tutta l’energia elettrica prodotta in Irlanda. Microsoft si è comprata Three Miles Island, che era un impianto nucleare di produzione di energia elettrica ad uso civile in un’isoletta che — come dice il nome — è lunga 3 miglia. Nel 1979 questa centrale subì uno dei più seri incidenti nucleari civili mai accaduti e l’impianto fu chiuso e bloccato. Microsoft con un investimento mostruoso, 10 miliardi di dollari, ha deciso ora di acquisirlo e rimetterlo in funzione. Per usare i data center, siamo al tema della sostenibilità, serve energia, acqua, tantissima acqua. Questi computer consumano una grande quantità d’acqua per raffreddare la macchina. Uno può dire: «Ma non la buttano via». Sì, però la operano e poi la rimettono nell’ambiente a una temperatura più alta di 3 gradi rispetto a quella iniziale e questo sull’ambiente ha un impatto drammatico.
Se non ci fossero i dati che noi abbiamo immesso nel sistema, soprattutto negli ultimi anni con la rivoluzione digitale, non sarebbe stata possibile l’Intelligenza Artificiale. Così come non sarebbe possibile se non ci fosse quella connettività che fa sì che due terzi di tutti gli esseri umani abbiano un cellulare che li mette in connessione con gli altri suoi simili. Questo processo è spiegabile razionalmente. Ma a uno scienziato come lei, che ha dedicato tutta la sua vita alla fisica raggiungendo livelli altissimi di conoscenza, c’è qualcosa che l’ha un po’ sorpresa di questa rivoluzione?
Sì, più di una cosa, ma quello che mi ha più sorpreso è legato a un ormai famoso episodio di un ingegnere di Google che si è innamorato della sua macchina di apprendimento, perché le ha fatto una dichiarazione d’amore e questa rispondeva a tono. Lui, che pure l’aveva disegnata, si è dimenticato che la sua macchina aveva dentro tutto Petrarca, tutto Rilke, tutto Shakespeare, tutto ciò che voleva. E quindi confezionava risposte straordinariamente belle e appropriate a una dichiarazione d’amore. Ma noi sappiamo che amare una persona è una cosa ben diversa che sapere esprimere per iscritto il sentimento! Mi stupisce il fatto che i sentimenti si possano mimare, che noi riusciamo a fare una loro simulazione. Questo sta succedendo ed è uno dei problemi seri. Il problema più grande che l’Intelligenza Artificiale fronteggia in questo momento è però, a mio parere, riconoscere se un contenuto sia vero o falso. Stiamo parlando del tema cruciale della verità. È curioso perché l’Intelligenza Artificiale sta cercando di mediare fra questi problemi. Ciò che noi abbiamo da tutta questa infinita quantità di informazione, di dati che ci riversa addosso è che siamo un po’ come messi davanti all’Uno, nessuno, centomila di Luigi Pirandello. Nell’era dell’IA, ognuno di noi assiste a un fatto e ne dà una rappresentazione diversa.
Questo impatta sulla capacità di assumere liberamente delle scelte se non riusciamo più a distinguere il vero. Il libero arbitrio come viene sfidato da un qualcosa — l’Intelligenza Artificiale — che pone la realtà su più livelli. Si può dire che l’Intelligenza Artificiale non ci rappresenta più una sola realtà, ma spinge alla multidimensionalità della realtà?
Non c’è più una sola realtà, esattamente. Vanno considerate quelle che sono le “allucinazioni” del Deep learning che è alla base dei processi di Intelligenza Artificiale. Il Deep learning è un’iterazione, una ripetizione nel processo delle machine learning. Noi abbiamo a che fare con una tale sterminata quantità di dati che l’unica cosa che siamo in grado di fare è prendere un piccolo sottoinsieme di questi dati, “lavorarlo a mano”, capire se ci sono dei trend, delle tendenze di comportamento e poi estendere le indicazioni all’intero insieme di dati. Se funziona, funziona. Ma se non funziona ricominciamo da capo. Il Deep learning non è altro che questa procedura reiterata tantissime volte. Fa una sua rappresentazione della realtà e su questa rappresentazione della realtà alimenta il machine learning. Quindi di fronte all’IA, noi siamo come gli uomini del mito di Platone nella caverna: non vediamo la realtà, non sappiamo neanche dove sia. Vediamo una rappresentazione della realtà. L’Intelligenza Artificiale rappresenta, non capisce, neanche interpreta, rappresenta e basta. A ogni passaggio rappresenta un mondo che è solo quello che ha ottenuto filtrandolo attraverso varie applicazioni di machine learning.
Quindi, gli esseri umani hanno ancora un “vantaggio” insuperabile sull’Intelligenza Artificiale. Capiscono laddove l’IA non va oltre la rappresentazione di ciò che “dice”?
La macchina non ha creatività. La macchina quando produce un’“allucinazione” diventa una scatola nera, non c’è più nessun modo di capire come la macchina abbia fatto le sue scelte, se non ripetendo l’intero processo dall’inizio. Se qualcosa va male, se c’è una cosiddetta “allucinazione”, ossia una rappresentazione di una realtà che non esiste, l’IA non ha modo di correggersi o di tornare indietro fino al punto in cui è capitato qualcosa di sbagliato. Deve buttare via tutto. Capire che i messaggi che una persona mi manda sono messaggi d’amore veri, mi fa cercare di essere migliore. La macchina invece cosa fa? Legge centinaia di dichiarazioni d’amore, le più belle, delle menti migliori e si esprime nel modo in cui si esprimevano loro. Ma non sa fare ciò che un messaggio d’amore comporta come sacrificarsi per una persona amata. Ecco perché, in questo senso, noi siamo molto più potenti delle macchine. Ciascuno di noi lo è.


