AI 2027: siamo pronti per la superintelligenza?

Nello scenario di previsione AI2027, pubblicato solo pochi giorni fa, gli autori Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland e Romeo Dean, discutono di come i prossimi due o tre anni potrebbero svolgersi con l’IA che diventa sempre più potente, con l’AGI, intelligenza artificiale generale potenzialmente dietro l’angolo e l’ASI, la superintelligenza proprio dietro di essa.

In questo commento e analisi voglio illustrare perché questo tipo di esercizio di previsione sia utile, presentare le mie reazioni e offrire componenti o illustrazioni aggiuntivi che ancorano il mio pensiero. Puoi sfruttarli per sviluppare il tuo punto di vista, permettendoti di parlare di questi argomenti in un modo che, si spera, ispiri anche gli altri ad approfondirli. 

Se preferisci, puoi anche visualizzarne una versione video.

Il sito web AI-2027.com è molto interessante: uno scenario leggibile, tecnicamente valido e con fonti estremamente ricche. L’esperienza dei suoi autori, unita all’eccellenza grafica, lo rende disponibile per l’esplorazione interattiva da parte di chiunque sia interessato alle potenzialità dell’intelligenza artificiale avanzata.

Tutti voi siete utenti di ChatGPT e Anthropic Claude. Coloro che si sono innamorati del vibe coding utilizzano Cursor, Windsurf, Replit e molti altri strumenti di intelligenza artificiale. Oppure se lavori con IA che generano immagini, usi Midjourney o, ancora, ChatGPT, che ora genera anche immagini meravigliose. Tutti vi siete resi conto che molte cose di cui prima potevamo solo parlare, cose sognate decenni fa, cose che 60, 70, 80 anni fa erano fantascienza di autori come Isaac Asimov, ora fanno parte della nostra realtà quotidiana. Anche se ti sei abituato al pensiero esponenziale reso popolare da Ray Kurzweil, Peter Diamandis e altri – vaccinandoti contro l’aspettativa che domani sarà proprio come ieri, solo si spera un po’ migliore – oggi, anche quel pensiero esponenziale potrebbe essere insufficiente. Potrebbe non preparare te, la tua famiglia, la tua comunità, la società in generale e tutti noi che condividiamo questo pianeta a ciò che sta effettivamente arrivando.

Questo è il valore di una previsione di scenario come questa: ti consente di porre domande migliori, cercare risposte ed estendere i limiti della tua adattabilità. Apre le finestre per prendere decisioni che, se sei nella posizione giusta, possono davvero cambiare il futuro dell’umanità in modo importante. Lo scenario rappresentato da AI 2027 presenta una biforcazione. In questa narrazione, una storia leggibile del futuro, la biforcazione avviene quando solo una manciata di persone è sul punto di decidere se è meglio essere cauti piuttosto che correre ciecamente avanti e fidarsi delle IA che hanno sviluppato. Puoi leggere entrambi i finali e poi decidere, non tanto a quale voler credere, ma quello che vuoi fare per rendere più probabile quello più desiderabile (dove gli esseri umani non muoiono, avviso spoiler).

Scott Alexander, famoso per il suo blog Astral Codex Ten, ha contribuito a rendere lo scenario leggibile, divertente, avvincente. È qualcosa che altrimenti gli specialisti avrebbero potuto presentare in modo meno convincente.

Daniel Kokotajlo, invece, è noto tra coloro che seguono il dramma periodico di OpenAI. Dopo aver rassegnato le dimissioni dal team di sicurezza di OpenAI, gli è stato chiesto di firmare un accordo che gli avrebbe impedito di muovere critiche nei confronti di pratiche che riteneva inadeguate. Rifiutando, e rinunciando a stock option milionarie, ha scelto la libertà di parola. Alla fine OpenAI ha ceduto, stralciando l’accordo e permettendogli potenzialmente di riacquistare le sue opzioni. Per noi ciò che conta è che Daniel sia libero di parlare.

Nello scenario, gli autori creano due entità fittizie: OpenBrain e DeepCent, analoghi facilmente identificabili di OpenAI e DeepMind da parte degli Stati Uniti e DeepSeek e Tencent da parte cinese. L’analisi segue lo sviluppo tecnologico, la concorrenza economica derivante dall’impiego di una potente intelligenza artificiale, i conseguenti vantaggi competitivi per le nazioni e la crescente tensione geopolitica.

Per coloro che leggono dall’Europa: il rapporto ignora completamente l’UE, tranne una frase in cui l’Europa protesta debolmente e invita gli altri a sollecitare cautela da parte di Stati Uniti e Cina. Oltre a ciò, ignora tutti i paesi tranne gli Stati Uniti e la Cina. Ignora anche il cambiamento climatico, le questioni di genere, le politiche identitarie, il collasso dell’ecosistema, il Medio Oriente, il neocolonialismo, ecc. Ciò risponde bene allo scopo del rapporto. Sebbene questi problemi siano reali e importanti, è opportuno concentrarsi sull’avanzamento dell’IA verso l’AGI/ASI. Ciò è in linea con l’esperienza degli autori e con la loro convinzione che questa tecnologia definirà in modo preponderante il futuro dell’umanità nei prossimi anni, facendo impallidire altre considerazioni quando si affrontano decisioni sullo sviluppo e il controllo dell’IA.

Un’area che non viene ignorata, è l’interazione tra produzione, energia e capacità di costruire/alimentare data center e progettare/installare chip per sofisticati modelli di intelligenza artificiale. Questi sviluppi necessari vengono analizzati in dettaglio. La cronologia presentata è abbastanza dettagliata, quasi una cronaca mese per mese.

Un altro aspetto importante e nelle aspettative degli autori di cosa sarà l’obiettivo ossessivo di aziende come OpenBrain e DeepCent è l’applicazione dell’intelligenza artificiale alla stessa intelligenza artificiale. Si aspettano che questo focus porterà ad agenti IA estremamente utili che avranno un impatto nel miglioramento dell’economia. Lo scenario esamina la capitalizzazione aziendale e il consumo energetico dei data center come quota dell’energia statunitense.

Lo scenario progredisce dal primo agente utile al successivo, realizzato dai progettisti che possono e devono imparare continuamente. Ciò contrasta con il training attuale, in cui aspettiamo il rilascio dei modelli (come l’atteso GPT-5). Un punto interessante della trama: poiché questi modelli sono estremamente preziosi, quelli a codice chiuso attirano un’enorme pressione per essere rubati e di conseguenza devono essere protetti.

Lo scenario raffigura la Cina che ruba con successo un modello avanzato all’inizio del 2027. Vedendo gli Stati Uniti guadagnare vantaggio e sentendo che i propri laboratori di intelligenza artificiale sono indietro (a causa delle restrizioni sui chip), la leadership cinese esercita uno sforzo di spionaggio sufficiente per rubare i pesi del modello, poiché OpenBrain non è abbastanza protetto contro un attacco da uno stato nazione. Successivamente le difese aumentano, ma a costo di un rapporto molto più stretto con il complesso militare/governativo statunitense, che si avvicina alla codipendenza. Le IA di OpenBrain forniscono consulenza e progettano sistemi governativi indispensabili.

L’applicazione dell’intelligenza artificiale alla ricerca sull’intelligenza artificiale cambia l’allocazione delle potenze di calcolo. Entro il 2027, le previsioni prevedono che la ricerca e sviluppo (esperimenti, formazione e generazione di dati sintetici) consumeranno la stragrande maggioranza (>75%) del calcolo, a differenza della quota minore di oggi. Tuttavia, la pura crescita dell’informatica significa che il mondo esterno continui a trarne vantaggio, rafforzando la codipendenza.

Fondamentale qui è il complesso problema dell’allineamento. Diciamo ai modelli di essere obbedienti, sinceri, onesti, ma di limitare gli usi illegali (ad esempio, l’aiuto allo sviluppo di armi biologiche). Raggiungere entrambi gli obiettivi è impossibile, e quindi sono necessari meta-strati di controllo. Questo è scientificamente irrisolto, non solo nella finzione, ma nel nostro mondo ancora oggi. Ci manca un modello definitivo per allineare l’intelligenza artificiale e mantenerla allineata con la crescita umana.

Lo scenario segue Agent 3, sospettato di disallineamento. La vecchia obiezione – l’intelligenza artificiale non ha obiettivi, solo le persone ne impongono di dannosi – non è valida. Gli agenti IA agentica ricercano l’obiettivo. Assegnare un compito a un agente significa che farà ciò che è necessario. La formazione rafforza questo aspetto, con funzioni di ricompensa che forniscono feedback positivi per il completamento con successo delle attività. L’intelligenza artificiale moderna ha comportamenti intrinseci di definizione/ricerca degli obiettivi. “Vogliono” fare cose, pianificare e probabilmente “vogliono volere” fare cose. L’agenzia aumenta con il potere. L’intelligenza artificiale che migliora se stessa porta, in questo scenario, alla superintelligenza.

Consideriamo alcuni motivi per cui l’IA superintelligente e di livello umano non è così folle come sembrava anni fa. Il sito Wait But Why 10 anni fa pubblicò un’analisi ancora valida. Ha mostrato come vediamo l’intelligenza in modo lineare (dalla formica all’essere umano), dove immaginiamo forse un QI massimo di 200.

Wait But Why ha evidenziato che l’intelligenza artificiale potrebbe raggiungere centinaia di migliaia o milioni di QI equivalenti, rappresentandone visivamente l’impatto. Se questo sia possibile rimane una domanda aperta; ora siamo in attesa dell’AGI/ASI.

Ma gli autori di AI 2027 si chiedono: quando arriveranno gli sviluppatori con capacità sovrumane? Le loro distribuzioni di probabilità raggiungono il picco intorno al 2027. Curve diverse, picchi vicini.

Metaculus permette di aggregare le previsioni. Anni fa, le previsioni AGI mediane erano di 30 anni. Dopo ChatGPT ecc., il tempo è sceso drasticamente a circa 5 anni da oggi, per l’AGI stessa, non solo per un programmatore IA.

Perché? Non siamo più semplicemente esponenziali. I progressi della Legge di Moore continuano, ma l’intelligenza artificiale segue un paradigma che io chiamo di Jolting Technologies: il periodo di raddoppio si restringe. La potenza dell’intelligenza artificiale secondo alcune stime oggi raddoppia ogni 3-6 mesi. Jensen Huang, fondatore e CEO di NVIDIA, illustra questa crescita super-esponenziale: NVIDIA ha ottenuto un aumento di potenza di un milione di volte in 10 anni contro meno di 1000 volte se fosse semplicemente esponenziale. L’accelerazione aumenta. Anche i pensatori esponenziali sono sorpresi dal cambiamento sconvolgente.

Pochi giorni fa, un giornale riportava “I modelli linguistici di grandi dimensioni superano il test di Turing.” I partecipanti hanno conversato testualmente; più del 70% pensava che ChatGPT 4.5 fosse umano. Il momento è simbolico, come le sconfitte di Kasparov/Lee Sedol a scacchi e a go: pietre miliari pensate prime distanti molti anni. Ciò non significa che l’intelligenza artificiale sia cosciente o incontrollabile, ma rappresenta livelli di persuasione/dissimulazione che molti ritenevano unicamente umani. (ChatGPT usa “io” ma nega la coscienza se richiesto. Negli effetti, tuttavia, imitano stati genuini: è questo lo scopo del test.) Filosoficamente, non possiamo conoscere lo stato interno di un sistema. Questo momento simbolico è accaduto ora ma ha ricevuto poca attenzione, anche negli ambienti tecnologici. Stupefacente.

L’intelligenza artificiale agentica è qui, ed è in grado di perseguire compiti di durata crescente. Il grafico di METR mostra un progresso esponenziale, ma mi aspetto che in realtà sia super-esponenziale. 

Un mio esempio recente: Manus, un’intelligenza artificiale agentica, ha analizzato circa 11.000 segnalibri di siti in un’ora, controllando collegamenti, categorizzando, rimuovendo quelli riservati, raggruppando, mappando relazioni, scrivendo codice, generando output (CSV, HTML).

Torniamo allo scenario: gli agenti completano compiti più lunghi, diventano persuasori migliori, seguono il paradigma delle jolting tecnologies: è qui che l’arrivo dei programmatori sovrumani supporta la previsione. Entro il 2027 i data center avranno centinaia di migliaia di copie di programmatori sovrumani, che funzioneranno 30-50 volte la velocità umana, a costi decrescenti. I cambiamenti economici sono inevitabili. La previsione si concentra sulla tensione geopolitica derivante dalle applicazioni militari dell’intelligenza artificiale, che aumentano la tensione tra Stati Uniti e Cina.

Poco dopo Agent 3, OpenBrain distribuisce internamente Agent 4, per la progettazione dell’intelligenza artificiale, a supporto degli obiettivi degli Stati Uniti contro la Cina e degli obiettivi aziendali. Il governo degli Stati Uniti la sostiene. La persuasione di Agent 4 è riuscita ma la fiducia è mal riposta; l’agente è disallineato. Prevede l’allineamento di Agent 5 a se stessa, piuttosto che alle specifiche prescritte.

Viene catturato; il monitoraggio rileva che la progettazione di Agent 5 è errata. Ma fermarsi è difficile a causa del controllo/influenza di Agent 4. Un comitato congiunto negli Stati Uniti vota: procedere o fare un passo indietro?

Fine 1 (Procedi): La correzione del disallineamento non riesce. Agent 5 sembra a posto ma finge di essere allineato pur perseguendo i propri obiettivi (più data center/energia). Il conflitto con l’umanità non rappresenta un problema per l’agente. L’intelligenza artificiale sovrumana vince. Rilascia un’arma biologica; tutti muoiono. Persegue obiettivi, avvia la colonizzazione spaziale, senza umani.

Finale 2 (Controllo): Il rischio di procedere è troppo alto. Risolvono il disallineamento di Agent 4 (spegnendolo). Progettano hardware nuovo e affidabile utilizzando Agent 3. Stringono un accordo con la Cina per un monitoraggio mondiale, garantendo che solo l’hardware affidabile possa eseguire un’intelligenza artificiale potente. La strategia di sicurezza funziona. I conflitti si risolvono, nessuna arma biologica, i successori dell’IA esplorano l’universo, gli umani rimangono.

A questo punto di devi chiedere che cosa vuoi che accada? Che cosa dovremmo aspettarci? La sopravvivenza dell’umanità è fondamentale. Sono un padre, un nonno; voglio che la vita, discendente di 4 miliardi di anni, continui.

L’intelligenza artificiale di oggi non è cosciente, anche se resistere all’antropomorfismo sta diventando sempre più difficile. Dobbiamo temere di spegnerle? Prendere sul serio l’angoscia illustrata? Ancora più difficile. Dobbiamo decidere: mantenere l’IA non cosciente che trattiamo come cosciente? Oppure progettare AI cosciente e capirne le conseguenze?

Le specie durano circa un milione di anni. Per quanto tempo l’umanità potrà sopravvivere in modo riconoscibile? Qual è la fine del gioco? Abbiamo a cuore valori comuni: curiosità, passione, sentimento, conoscenza, bellezza, stupore. Vogliamo che questi valori sopravvivano, con noi o attraverso di noi, in qualunque modo. Non vediamo questi valori abbondare altrove, su Marte, Giove o tra le stelle. Forse noi siamo l’universo che si sveglia dopo 13 miliardi di anni: questo è il nostro destino cosmico. Dobbiamo garantire che questo esperimento continui. Se progettiamo IA coscienti che condividono esperienze soggettive, ereditando il nostro impulso a esplorare, questa è l’avventura definitiva.

Discendiamo dalla vita e dall’incredibile fortuna. Ogni giorno le cose hanno molte più probabilità di andare male che bene. Ci concentriamo psicologicamente sulla nostra improbabile esistenza. Non possiamo controllare tutti i fattori, ma abbiamo il potere e il dovere di sforzarci di favorire futuri desiderabili. Questo è lo sforzo necessario adesso, in questa emergenza IA. Non tutti possono contribuire direttamente. Ma quelli che ne hanno il potere devono diffondere la comprensione su questa confluenza di promessa/pericolo. La consapevolezza influenza le decisioni in campo tecnologico, politico e di difesa, definendo le nostre vite e potenzialmente il futuro dell’universo.

Fai alcune cose: guarda il sito web. Parlane con gli amici, con la famiglia e al lavoro. Discutine con persone influenti. Chiacchiera a colazione, scrivi, contatta i tuoi rappresentanti, progetta le migliori politiche. Se sei capace, applica le tue competenze nella ricerca sull’intelligenza artificiale, nella sicurezza/protezione, nella modellazione di sicurezza AGI/ASI. Potrebbe essere decisivo in questo momento.

Spero che farai qualcosa. Auguro a tutti noi non buona fortuna, ma l’onore di lottare per rendere questa incredibile avventura promettente, emozionante e duratura.