Nel 2015, ho finito di scrivere un libro sull’intelligenza artificiale che quasi nessuno aveva richiesto.
All’epoca, l’IA era ancora principalmente una storia di ricerca. Il deep learning stava avanzando, ma i modelli di base non esistevano. Non c’erano sistemi integrati nei flussi di lavoro quotidiani, nessun testo generato dall’IA che saturava Internet, nessun dibattito politico sostenuto sull’allineamento o sulla governance del calcolo. La maggior parte delle conversazioni verteva su robot, automazione e un futuro vagamente distante.

Ho scritto Qualcosa di nuovo: le IA e noi perché ritenevo che questa impostazione fosse inadeguata. L’argomento centrale del libro non riguardava le tempistiche o le macchine che superavano gli umani in compiti specifici. Riguardava la scala.
L’intelligenza artificiale, sostenevo, non dovrebbe essere compresa a livello di una singola mente, ma a livello di civiltà. La tecnologia non si limita a supportare l’umanità. Modella ciò che l’umanità è. Se l’IA avesse superato determinate soglie, non si limiterebbe ad automatizzare i compiti, ma riconfigurerebbe il coordinamento sociale, la produzione di conoscenza e l’agency stessa.
Questa impostazione è invecchiata meglio di quanto mi aspettassi, non perché una particolare previsione si sia avverata, ma perché la domanda di fondo si è rivelata quella giusta.
Cosa è cambiato
Negli ultimi dieci anni, l’IA è passata da ipotetica a infrastrutturale. I modelli non sono più curiosità o dimostrazioni da laboratorio. Sono integrati nei flussi di lavoro economici, nelle pratiche creative, nei processi di governance e nelle pipeline epistemiche.
Di conseguenza, il dibattito si è spostato. La domanda centrale non è più “Possiamo costruirlo?” ma “Cosa comporta questo per il potere, gli incentivi, la legittimità e la fiducia?”
Il libro anticipava questo cambio di direzione, anche se non in termini di velocità o struttura. Ciò che non poteva anticipare era cosa si prova a vivere una transizione dell’intelligenza che non arriva come una singola rottura, ma come una trasformazione continua, distribuita in modo non uniforme tra istituzioni, regioni e strati sociali.
Rilascio al pubblico dominio
Alla luce di questo cambiamento, ho riacquisito i diritti del libro dall’editore originale e l’ho rilasciato con una licenza Creative Commons Attribution (CC‑BY‑4.0).
Il testo completo è ora disponibile gratuitamente online in quattro lingue: inglese, italiano, spagnolo e ungherese. Chiunque può leggerlo, condividerlo, tradurlo ulteriormente o costruirci sopra, con attribuzione.
Leggilo gratis: somethingnew.davidorban.com
Per i lettori che preferiscono i formati fisici o per e‑reader, le edizioni in brossura e Kindle rimangono disponibili su Amazon, con link forniti sul sito. La distinzione è deliberata. Le idee sono aperte. I formati sono opzionali. Si paga per la comodità.
Cosa non copre il libro
Guardando indietro, ci sono cose importanti che Qualcosa di nuovo non affronta. Queste omissioni non sono accidentali e vale la pena nominarle esplicitamente.
L’allineamento come problema operativo. Il libro presuppone che intelligenze sufficientemente avanzate riconoscerebbero il valore della cooperazione, del pluralismo e degli obiettivi condivisi. Un decennio di osservazione di incentivi disallineati nelle istituzioni umane amplificati da sistemi algoritmici rende chiaro che questo presupposto richiede un trattamento molto più rigoroso. L’allineamento non è una preferenza filosofica. È un problema ingegneristico, economico e istituzionale.
Economia politica e potere. Il libro tralascia in gran parte la concentrazione di capitale, le dinamiche delle piattaforme e la competizione geopolitica. Oggi, questi sono centrali in qualsiasi discussione seria sull’IA, non perché la tecnologia abbia cambiato direzione, ma perché si è ampliata abbastanza velocemente da scontrarsi con istituzioni reali e interessi consolidati.
Fondamento empirico. Nel 2015, le leggi di scala, le capacità emergenti e i cicli di feedback guidati dalla distribuzione erano speculativi. Oggi sono misurabili. Questo cambiamento modifica la natura della responsabilità, della governance e dell’urgenza in modi che all’epoca erano difficili da giustificare rigorosamente.
Non vedo queste lacune come fallimenti. Le vedo come marcatori di una transizione di fase intellettuale. Qualcosa di nuovo appartiene a una prima ondata di sintesi, prima che l’IA diventasse ambiente. Il suo valore oggi è come una linea di base con data: una registrazione di ciò che poteva essere ragionato dai primi principi prima che la nebbia si diradasse e il terreno diventasse visibile.
Cosa succederà dopo
Se stessi scrivendo questo libro oggi, non sarebbe un’edizione rivista. Sarebbe un’opera complementare, che contrappone esplicitamente le prime intuizioni alle realtà post‑2022.
Un’opera del genere tratterebbe l’allineamento come progettazione istituzionale piuttosto che come una proprietà dei soli modelli. Esaminerebbe il potere come una conseguenza emergente della distribuzione e degli incentivi, non dell’intento. E prenderebbe sul serio il fatto che l’intelligenza viene ora ampliata e distribuita attraverso le organizzazioni molto prima che sia unificata o pienamente compresa.
Per ora, rilasciare il libro originale al pubblico dominio mi è sembrata la mossa giusta. La conoscenza si accumula meglio quando non è recintata. Dieci anni dopo, la conversazione che questo libro stava cercando di avviare non è più marginale. È inevitabile.
La domanda non è se stia accadendo qualcosa di nuovo. È se stiamo costruendo le istituzioni, le strutture e la chiarezza di pensiero necessarie per affrontarlo.
Preferirei esplorare questa domanda apertamente, insieme.
