L’Intelligenza artificiale (“IA”) sta vivendo un rapidissimo cambiamento, con progressi come ChatGPT e GPT4, ma ci sono limiti all’adattabilità individuale e organizzativa.
Sono stato invitato a firmare una lettera aperta, “Fermiamo gli esperimenti giganti sull’IA”, per consentire un’approfondita riflessione sulla progettazione, implementazione e regolamentazione dell’IA. Le preoccupazioni includono pregiudizi intrinseci, ristrutturazione rapida del lavoro, inquinamento della sfera informativa, perdita di fiducia nella comunicazione e potenziali pericoli dell’Intelligenza Artificiale Generale (“AGI”). I benefici dell’IA e dell’AGI sono immensi, ma uno sviluppo responsabile e una pianificazione accurata sono fondamentali per sfruttare questi benefici e mitigare i rischi.
Nel settore dell’intelligenza artificiale stiamo vivendo un cambiamento rapidissimo: il tasso di accelerazione delle prestazioni tecnologiche sta aumentando, quello che io chiamo il segno delle jolting technologies. Il rilascio di ChatGPT, seguito a breve da GPT4, e l’architettura dei plugin che ne estende le capacità, ha portato questo fenomeno all’attenzione di tutti, sorprendendo persino gli esperti. Il motivo per cui è necessario essere più intenzionali riguardo alla direzione e alle conseguenze di questi e altri strumenti risiede nel fatto che sia come individui che come organizzazioni abbiamo limiti nella nostra adattabilità e abbiamo bisogno di tempo per sfruttare ciò che l’IA offre, piuttosto che essere travolti da essa.
Ecco perché sono tra i firmatari della lettera aperta del Future of Life Institute: “Pause Giant AI Experiments” (“Fermiamo gli esperimenti giganti sull’IA”). Insieme a Joshua Bengio, Steve Wozniak, Elon Musk e centinaia di altri esperti nel campo dell’IA, ciò che chiediamo è un’opportunità per riflettere profondamente sul modo corretto di progettare, implementare, migliorare, distribuire e regolamentare strumenti avanzati nel campo dell’intelligenza artificiale. L’attuale ritmo travolgente non offre questa opportunità e i rischi di commettere errori nella costruzione dei modelli di IA di prossima generazione sono troppo grandi per non essere affrontati.
Alcune delle preoccupazioni sono già evidenti, come il pregiudizio intrinseco in questi modelli e la nostra incapacità di gestirlo adeguatamente, il ritmo dello spostamento lavorativo, che potrebbe essere molto rapido, senza soluzioni pronte per facilitare la transizione, il pericolo di un aumento dell’inquinamento della nostra sfera informativa e la perdita di fiducia nella comunicazione e nel discorso pubblico. Altri pericoli sembrano a molti più teorici o implausibili, legati all’Intelligenza Artificiale Generale (AGI) e alla questione aperta della sua agenzia e ricerca di obiettivi, insieme alla sua potenziale natura incontrollabile. Mentre un approccio iterativo nel migliorare le nostre tecnologie ha funzionato in altri settori, non abbiamo civiltà di riserva da impiegare se finiamo per distruggere quella attuale.
I benefici degli strumenti di IA potenti e, infine, di un’AGI allineata all’umanità sono immensi. Anche se sarebbe irresponsabile cercare di fermare il progresso e rinunciare a questo beneficio futuro, l’approccio giusto è pianificare in anticipo e portarlo avanti in modo responsabile. Una serie di iniziative di supervisione che incentivino la trasparenza e la responsabilità rappresenteranno i primi passi nella giusta direzione.