In questa intervista per 2024 Radio 24 con il conduttore Enrico Pagliarini, abbiamo discusso la relazione tra l’intelligenza artificiale (AI) e le emozioni. Sostengo che la capacità dell’AI di interpretare e sintetizzare le emozioni umane rappresenti una nuova frontiera che gli scettici in precedenza ritenevano i computer non sarebbero mai stati in grado di raggiungere.
Evidenzio le potenziali applicazioni dell’AI in grado di riconoscere le emozioni, come il riconoscimento delle espressioni facciali, l’analisi del tono di voce e la generazione di immagini, video e discorsi sintetizzati emotivamente espressivi. Queste applicazioni potrebbero spaziare dal supporto diagnostico per i medici nel rilevare i primi segni di depressione a coach virtuali per attori o imprenditori che cercano di migliorare le loro capacità di presentazione.
Pur riconoscendo il potenziale di abuso e la necessità di una regolamentazione attenta, critico l’AI Act europeo per il suo principio di precauzione eccessivamente restrittivo, che potrebbe ostacolare lo sviluppo di applicazioni AI desiderabili. Invece, sostengo un approccio più equilibrato che minimizzi le applicazioni negative pur consentendo la sperimentazione e l’innovazione.
Per quanto riguarda l’adozione di sistemi di AI nelle aziende, sostengo che, sebbene sia necessaria cautela, la tecnologia sta progredendo a un ritmo senza precedenti. Suggerisco che l’ottimizzazione dei modelli di AI per casi d’uso specifici possa ridurre gli errori a livelli accettabili, a seconda dell’applicazione. Sottolineo inoltre che molte aziende stanno già adottando l’AI generativa in vari settori, dalla manutenzione predittiva al controllo qualità e alla proiezione della domanda di mercato.
Di seguito il testo dell’intervista.
Enrico: Riprendiamo il percorso che stiamo facendo ormai da un po’ di tempo sull’intelligenza artificiale. Parliamo anche di emozioni e uno potrebbe stupirsi e dire ma che cosa c’entra l’intelligenza artificiale con le emozioni? Vogliamo capire che relazione c’è tra questi due termini, l’intelligenza artificiale da un lato e le emozioni dall’altro. Ci facciamo aiutare da David Orban. David, bentornato e grazie di essere con noi.
David: Grazie Enrico per avermi invitato.
Enrico: David Orban è un esperto di tecnologia, molti di voi lo conoscono da tanti anni. Si occupa di intelligenza artificiale da alcuni decenni. Una volta la parola “generativa” non esisteva, ma si parlava comunque di intelligenza artificiale. Oggi abbiamo aggiunto questo tassello. Prima di parlare di emozioni, David, una considerazione su questo. Possiamo dire che questa nuova era dell’intelligenza artificiale generativa ha fatto emergere un settore che fino a circa un anno e mezzo fa esisteva, veniva utilizzato, ma forse era un po’ nascosto e sotto traccia?
David: L’ondata che ci sta travolgendo è partita più di dieci anni fa, ma avevamo bisogno di hardware potente e una grande quantità di dati perché gli algoritmi potessero essere usati al meglio. Oggi abbiamo applicazioni strabilianti che erano parte dei nostri sogni decenni fa, quando immaginavamo che i computer fossero in grado di fare ciò che fanno oggi.
Enrico: Mi hai fatto notare l’arrivo di un paio di sistemi di intelligenza artificiale che hanno a che fare con le emozioni. Google ha recentemente annunciato un’evoluzione del proprio sistema che riesce a interpretare le nostre emozioni. C’è anche un altro servizio chiamato Hume AI, che rappresenta un’evoluzione di questi sistemi. Mi hai fatto notare che questa relazione tra intelligenza artificiale ed emozioni è molto più importante della sola curiosità che potrebbe nascere provando questi sistemi. Cosa intendi dire?
David: Quando parlo di tecnologia, mi piace sempre metterla in un contesto più ampio. Le persone hanno bisogno di capire non solo la notizia isolata, ma come quella particolare tecnologia o applicazione si inserisce in un quadro più vasto. Quando parliamo della nuova capacità dei computer di interpretare e sintetizzare le emozioni umane, ci troviamo di fronte a una frontiera che precedentemente risiedeva in quell’ambito che gli scettici dell’intelligenza artificiale definivano come qualcosa che i computer non sarebbero mai stati capaci di fare. Fino a poco tempo fa, era ragionevole dire che l’ambito delle emozioni umane sarebbe sempre stato fuori dalla portata dei computer, ma oggi non è più così.
Enrico: Ci stiamo quindi avvicinando anche a quest’era.
David: Ci si chiede se ci sarà qualcosa che l’intelligenza artificiale e i computer non saranno mai capaci di fare, nemmeno a livello teorico. Ci sono persone come me che dicono di no, non c’è niente di questo tipo. Coloro che hanno bisogno di essere convinti sono costretti a trovare sempre nuovi esempi, ritirando passo dopo passo alla ricerca di ciò che può essere unico e magico nell’essere umano. Quella delle emozioni è un esempio che illustra concretamente la sfida, proprio perché la sentiamo in modo viscerale.
Enrico: È possibile che queste nuove tecnologie, ammesso che diventino efficaci nell’interpretare le nostre emozioni, siano o saranno vietate in Europa per via dell’AI Act?
David: Il Trattato di Lisbona, che doveva essere la Costituzione europea, contiene una pillola avvelenata: impone un cosiddetto principio di precauzione nelle linee guida europee, che è stata necessariamente adottata anche nella formulazione dell’AI Act. Questa legge, che deve ancora essere adottata dai paesi membri e sottoposta a una serie di passaggi interpretativi, sembra dire che i programmi di intelligenza artificiale non sono ammessi se modificano il comportamento delle persone.
Ma prendiamo l’esempio del semaforo rosso: modifica il mio comportamento quando sono alla guida, ed è una cosa desiderabile. Se non fosse così, non potremmo approfittare di questa tecnologia. Quindi, come può essere imbrigliata l’intelligenza artificiale in una maniera così radicale? Vedremo cosa succederà, ma il pericolo è che chi segue alla lettera l’AI Act possa rendere impossibili applicazioni fortemente desiderabili, non solo nell’analisi delle emozioni, ma in tantissimi altri ambiti.
Enrico: Sì, probabilmente è anche impossibile applicare una legge del genere, perché qualsiasi tecnologia in qualche modo ci condiziona. Posso immaginare che l’intenzione del legislatore sia quella di rendere consapevole l’utente, ma la consapevolezza scompare nel momento in cui ci affidiamo alla tecnologia nelle attività di tutti i giorni. Non è che tutte le volte che clicchiamo siamo consapevoli delle conseguenze, un po’ ci affidiamo, no?
David: Se il legislatore ritiene che il suo ruolo sia quello di educare il pubblico, utilizza uno strumento sbagliato. Ci sono altri strumenti che servono per educare meglio, come la possibilità di sperimentare, la spinta alla curiosità e l’aggiornamento continuo che le persone devono avere, spinte dalla loro passione sia per il proprio lavoro che per il futuro che stanno costruendo. Abbiamo il pericolo che la società europea possa fossilizzarsi per chi ha più paura del futuro che abbandona, rispetto a preservare un presente migliorabile.
Enrico: Senti, ma di una macchina che capisce le emozioni, che cosa ce ne facciamo?
David: Le applicazioni sono tantissime e naturalmente si possono abusare. Un legislatore o regolatore accorto e preparato può capire lo sbilanciamento delle applicazioni e verificare che quelle negative vengano minimizzate, non sarà possibile eliminarle del tutto.
Alcuni esempi includono: il riconoscimento delle espressioni facciali, l’analisi del tono di voce, la generazione di immagini o video con una particolare espressione emotiva, insieme alla sintesi vocale emotiva. Le applicazioni possono spaziare dal supporto diagnostico per un medico nel capire se una condizione può indicare una depressione incipiente, fino a un attore che vuole prepararsi con un allenatore virtuale che gli dà feedback sul suo tono drammatico, tragico, allegro o comico. Oppure un fondatore di start-up che vuole migliorare la sua presentazione agli investitori registrandola e ricevendo riscontri dal computer su come migliorare l’impatto e la fiducia in se stesso.
Enrico: Alcune di queste cose legate alle emozioni si potevano già fare prima dell’avvento dell’AI generativa.
David: Sì, avevamo applicazioni come il riconoscimento facciale, che accusavamo i cinesi di usare per il controllo sociale totale quando le introducevano, finché poi non le abbiamo adottate anche noi, ad esempio ai passaggi di frontiera.
Ciò che cambia con l’AI generativa è la duttilità, la scala, la versatilità, la programmabilità e l’accessibilità di questi strumenti, che oggi chiunque può testare. Invito sempre le persone a non parlare solo per sentito dire, ma di sporcarsi un po’ le mani per poter dire di sapere di cosa si sta parlando avendolo provato in prima persona.
Enrico: Ok, approfitto per farti un’ultima domanda sull’adozione di sistemi di intelligenza artificiale. Che cosa rispondi a chi dice che fino a che il numero di errori o “allucinazioni” rimarrà quello di oggi, bisognerà essere molto prudenti nell’adozione dei sistemi di AI nelle aziende?
David: Verifiche e bilanciamenti sono sicuramente necessari, perché una soluzione presa dalla scatola potrebbe essere inadeguata, non solo per gli errori che può commettere, ma proprio perché non è sufficientemente specializzata per rispondere alle esigenze di una particolare azienda.
Nel momento in cui si effettua il “fine tuning”, cioè si specializza il modello al caso d’uso, è possibile far sì che gli errori vengano ridotti al punto da essere accettabili. Dipende dal caso specifico: se un chatbot sbaglia una risposta su 10 non lo puoi diffondere, se sbaglia una su 100 ti chiedi se vale la pena, una su 1000 probabilmente lo accetti e cominci ad utilizzarlo. Anche perché di chatbot stupidi ne abbiamo subiti per anni, quindi quelli nuovi, se anche fanno degli errori, li faranno in una maniera che accetteremo più volentieri rispetto a quelli della generazione precedente.
Le aree applicative sono tantissime, dalla manutenzione predittiva al controllo di qualità automatizzato, dalla proiezione della domanda sul mercato all’ottimizzazione delle operazioni. Molte aziende stanno già adottando l’AI generativa, ognuna nella maniera che deve decidere. Se qualcuno vuole aspettare, è un suo diritto, ma la tecnologia sta andando avanti con una dinamica senza precedenti.
Nvidia, leader nella produzione di schede specializzate per addestrare sistemi di AI, ha annunciato che nell’arco degli ultimi dieci anni non ha seguito la legge di Moore: invece di migliorare la potenza dei propri sistemi di un migliaio di volte, li ha migliorati di 10 milioni di volte. È un trend super esponenziale che io chiamo “jolting technologies”, tecnologie di scossa. Chi non è direttamente dentro la tecnologia, se appena batte ciglio, trova già nuove soluzioni che hanno superato i problemi precedenti. Anche gli esperti vengono colti di sorpresa e devono costantemente aggiornare le proprie aspettative, perché l’analisi esponenziale che andava bene prima oggi è superata.
Enrico: David, grazie come sempre. A presto!