Etica e intelligenza artificiale con Rand Nezha

Il seguente testo è una trascrizione aggiornata per chiarezza e lunghezza della conversazione online con Rand sul tema dell’etica e intelligenza artificiale.

David Orban
Iniziamo parlando del tuo background. Come hai iniziato il tuo percorso nel campo dell’etica in intelligenza artificiale?

Rand Nezha
Sono Rand, residente a Milano e ingegnere software. Di origini siriane ma anche italiana, ho studiato in Siria, dove l’ingegneria è una disciplina molto popolare anche tra le donne. La mia tesi, sviluppata circa 15 anni fa, riguardava il riconoscimento facciale. Successivamente, ho proseguito gli studi al Politecnico di Milano specializzandomi in cloud computing. Il mio avvicinamento all’AI è sempre stato pratico, lavorando come consulente per grandi aziende come IBM, Microsoft, Amazon Web Services e ora Google. In collaborazione con queste realtà, ho aiutato altre imprese a implementare tecnologie basate sull’AI, sempre con una forte consapevolezza della loro responsabilità e impatto sociale.

David
Hai fornito un quadro affascinante. Perché l’intelligenza artificiale porta con sé una responsabilità morale ed etica, mentre altre tecnologie hanno potuto ignorare questi aspetti? Non abbiamo mai discusso dell’etica dei database o della contabilità aziendale. Eppure l’intelligenza artificiale solleva questi temi, e, come hai menzionato, le aziende tecnologiche stanno aiutando altre imprese a comprenderlo e a implementarlo. Perché questa differenza?

Rand
Nel corso degli anni, ci sono state rivoluzioni tecnologiche che hanno richiesto regolamentazione. Pensiamo all’uso di internet, dei social network o degli algoritmi che catturano l’attenzione degli adolescenti. L’intelligenza artificiale, però, ha un impatto unico, sia in termini di opportunità che di sfide. Questa tecnologia influisce su ogni settore, toccando aree critiche come l’istruzione, l’occupazione e la giustizia. Ad esempio, l’AI può decidere chi assumere o fornire diagnosi mediche – decisioni tradizionalmente prese dalle persone. C’è anche l’ambiguità della responsabilità. Quando un sistema AI prende una decisione, chi è responsabile? L’azienda che ha creato lo strumento, i dati usati per addestrarlo o l’utente finale?

David
Hai degli esempi specifici che puoi condividere? Hai menzionato la selezione del personale, ci sono altri esempi che illustrano questi problemi?

Rand
Certamente. Amazon, ad esempio, ha usato un algoritmo per analizzare i CV. Questo algoritmo era addestrato sugli storici della compagnia, che erano principalmente dominati dagli uomini. Di conseguenza, l’algoritmo era più propenso a scartare le candidature femminili. In un altro caso, una pistola termometrica era percepita come una vera pistola quando era in mano a una persona di colore, mentre era vista come uno strumento inoffensivo in mano a una persona caucasica. Inoltre, nelle ricerche online, la parola “CEO” produceva principalmente immagini di uomini, riflettendo pregiudizi nei dati su cui l’AI era addestrata. Questi esempi evidenziano il rischio di discriminazione e pregiudizi e la nostra responsabilità collettiva nel correggerli.

David
Gli esempi possono riguardare le applicazioni aziendali delle grandi imprese, ma spesso si trovano anche nelle applicazioni destinate ai consumatori. Fino a poco tempo fa, il nostro telefono aveva difficoltà a mettere a fuoco o fotografare un ritratto di una persona di carnagione scura rispetto a una chiara. Ciò era dovuto non solo all’addestramento iniziale, ma anche a come i risultati sono stati implementati nell’elettronica del telefono. Con il recente lancio dell’iPhone di Apple, se osservate le immagini, la maggioranza rappresenta persone asiatiche o con carnagione scura. Questo dimostra che i nuovi modelli hanno superato le limitazioni e i bias dei modelli precedenti.

Rand
È cruciale sottolineare che l’AI presenterà sempre delle imperfezioni e degli errori. L’essenziale è riconoscerli e migliorare costantemente l’algoritmo. Le aziende devono assumersi la responsabilità dei loro errori, perseguendo un miglioramento continuo e identificando schemi discriminatori.

David
Concordo pienamente. I dati raccolti riflettono la realtà in modo grezzo, mettendo in luce aspetti che non possiamo ignorare. Gli errori nelle prime versioni dei sistemi dovrebbero rappresentare un’opportunità di crescita. Tuttavia, ci sono stati casi in cui le aziende hanno reagito con panico. Ad esempio, il bot di Microsoft su Twitter, Tai, in poche ore è diventato razzista a seguito di provocazioni degli utenti, costringendo Microsoft a interrompere l’esperimento.

Rand
A volte l’intervento è troppo lento.

David
Esatto. Un altro esempio di mancato miglioramento è Amazon, che dopo aver sviluppato un sistema di elaborazione automatica dei curriculum, ha deciso di interrompere il progetto senza cercare di perfezionarlo.

Rand
IBM, negli anni, ha ricevuto numerose critiche per il suo sistema di riconoscimento facciale, soprattutto per l’uso nella sorveglianza di massa e questioni di diritti umani, e ha ritirato il prodotto. L’intervento dell’IA può essere più rapido del governo e delle aziende, ma è fondamentale agire con consapevolezza, utilizzando gli strumenti a disposizione per correggere rapidamente gli errori.

David
Questo è molto importante e ci ritorneremo sopra. La raccolta dei dati è il punto di partenza per addestrare l’AI di una particolare applicazione. Come possono le persone che si occupano di questa raccolta impostare le cose per minimizzare gli errori fin dall’inizio? Quali sono due o tre raccomandazioni? Spesso, infatti, non sono consapevoli delle possibili fonti di problemi e affermano che dispongono solo di quei dati. Cosa rispondere loro?

Rand
La responsabilità non è solo di chi raccoglie i dati, ma è collettiva, sia all’interno dell’organizzazione che produce l’applicativo, sia per il consumatore finale. La prima raccomandazione è la formazione etica. Molte persone, come hai detto, inclusa me, hanno compreso l’importanza attraverso errori e collaborazioni con aziende. Oggi esistono formazioni sull’etica AI che spiegano come diversificare il dataset e riconoscere precocemente pattern non etici. Questa formazione dovrebbe essere estesa a tutti: da chi raccoglie i dati, a chi si occupa di user experience, fino ai data scientist e consumatori. La seconda raccomandazione è che le aziende devono avere chiari principi etici fin dall’inizio, stabilendo dei criteri come trasparenza, non discriminazione e responsabilità. Infine, si dovrebbero effettuare audit etici regolari. Non si può sperare che non emergano problemi, ma bisogna prevenirli. Le aziende dovrebbero anche collaborare tra loro per arricchire e diversificare i loro dataset.

David
All’inizio hai menzionato che durante i tuoi studi in Siria, metà dei tuoi compagni erano donne. In Italia, non so la percentuale esatta, ma potrebbe essere molto bassa. Se qualcuno volesse sviluppare un sistema AI basato sui risultati degli esami di ingegneria in Italia, i dati non sarebbero bilanciati. È possibile correggere e bilanciare questi dati a posteriori, durante la fase di fine tuning del sistema, o non c’è speranza?

Rand
Dobbiamo essere realistici. Come consulente, molte volte consigliamo ai clienti che i loro dati non sono adatti. Non solo per questioni etiche, ma anche per la qualità della risposta. Il fine tuning può aiutare, ma bisogna sperimentare per vedere quanto possa effettivamente migliorare le cose. Se i dati disponibili non sono accurati o portano a conclusioni sbilanciate, potrebbe essere più responsabile non utilizzarli affatto. La decisione di procedere o meno dipende anche dall’uso previsto: se è per ricerca interna, è diverso che se si mira a rilasciare un prodotto al grande pubblico.

David
Molto interessante come punti di vista. Vogliamo elevare gli standard senza accontentarci dello status quo, e non limitarci alle aspirazioni del passato. Spero che sia già noto a tutti che ogni azienda deve avere un responsabile della sicurezza sul lavoro che monitora i requisiti di legge e le prassi aziendali. Ricordo quando, ad esempio, le scrivanie con superficie bianca furono proibite per evitare affaticamento visivo, spingendo tutti a optare per colori più neutri. Ora abbiamo responsabili per la protezione dei dati e la sicurezza informatica. Tuttavia, non credo sia ancora richiesto un “responsabile etico”, anche in assenza di algoritmi. Dovrebbe essere ovvio per tutti non compiere atti di corruzione, eppure ci sono corsi obbligatori che suggeriscono il contrario. Come vedi l’evoluzione del ruolo di un responsabile etico, in particolare in relazione all’intelligenza artificiale e ai sistemi informatici?

Rand
La velocità di sviluppo delle AI supera di gran lunga quella delle aziende e dei governi. Quando un governo regolamenta una tecnologia, spesso siamo già alla successiva. Serve maggiore celerità. Tuttavia, molte aziende sono ancora nella fase sperimentale dell’IA, lontane dalla massima adozione, come è avvenuto per la digitalizzazione o le app mobili. Ecco perché il ruolo del responsabile etico non è ancora diffuso. Spero che l’Unione Europea imponga presto alle aziende di rispettare certi standard etici, richiedendo report e audit. Chi occupa questi ruoli dovrà possedere competenze in etica, tecnologia e applicazioni, non solo legate all’IA ma anche ai dati. Dovranno inoltre guidare il cambiamento all’interno delle aziende, promuovendo un’etica proattiva e integrata nel design, piuttosto che reattiva. Fortunatamente, molte aziende stanno già integrando esperti in sicurezza e privacy per rispettare il GDPR. Attendiamo lo stesso rigore per l’intelligenza artificiale da parte dell’UE.

David
In effetti, ci sono molte risorse. Ora ne condivido alcune sullo schermo, e nelle note che seguiranno a questo video potremo raccogliere i relativi URL. La Commissione europea ha recentemente pubblicato un documento su “ethics by design”. Naturalmente, c’è la legislazione europea alla quale hai fatto riferimento; è stata approvata quest’anno e diventerà obbligatoria dal prossimo. Potremmo poi discutere le potenziali conseguenze di questa legislazione. Se vogliamo ampliare lo sguardo non solo a livello nazionale o continentale, ma globale, la UNESCO ha pubblicato raccomandazioni sull’etica dell’intelligenza artificiale, incentrate su diritti umani, dignità e altri valori fondamentali. Hai già menzionato la velocità di evoluzione dei sistemi, come nel caso del bot su Twitter. E hai sottolineato come la rapidità dell’evoluzione tecnologica spesso superi la capacità dei regolatori di intervenire. Ci sono aziende che potrebbero decidere di aspettare piuttosto che navigare in acque incerte?

Rand
Esiste un grande conflitto nelle aziende. Alcune, soprattutto in settori regolamentati, non possono rischiare. Ma l’AI è ormai così diffusa che le aziende non vogliono perdere un vantaggio competitivo. Non vogliono ritrovarsi indietro nell’implementazione dell’AI nei loro processi. Ecco perché molte stanno sperimentando, prendendo il loro tempo. Quando sono emerse le app mobili, le aziende si sono adattate rapidamente. Ma con l’AI, la sperimentazione è più lunga. Da una parte, vogliono assicurarsi di fare la mossa giusta; dall’altra, non vogliono essere superate dai concorrenti. Gli azionisti delle aziende quotate in borsa spesso chiedono dei progressi in ambito AI, visti i successi dei competitor. L’AI, in particolare il generative AI, è sempre più nelle mani dei consumatori. Come consumatore, posso facilmente accedere a strumenti come Google Bard o ChatGPT di OpenAI. Quindi le aziende non possono rimanere indietro. Se come consumatore ho una certa aspettativa, pretendo che le aziende soddisfino quelle aspettative. Non possono più permettersi di aspettare, specialmente quando il consumatore ha già accesso a certi servizi o tecnologie. Ecco perché è un periodo così interessante.

David
Nessun motore di ricerca leader è nato in Europa, né alcun social network leader, e nessun produttore di telefoni cellulari principale – anche se una volta c’era Nokia. Hai citato Uber, un servizio con un’esperienza utente eccezionale. Molti paesi, inclusa l’Italia, hanno deciso di non fornire tale servizio, ritenendo che gli svantaggi per i fornitori fossero maggiori rispetto ai benefici per gli utenti. Mi ricordo quando il direttore generale di Uber è venuto a Milano; i tassisti hanno protestato energicamente, impedendogli di parlare.

Rand
Ma l’arrivo di Uber ha spinto i servizi europei a offrire un’esperienza simile, come Free Now. Non hanno potuto ignorarlo e mantenere la vecchia esperienza utente per i taxi. L’utente finale avrebbe comunque utilizzato Uber se gli altri non si fossero adattati.

David
Hai ragione per quanto riguarda Uber, ma non esistono vere alternative europee a Google o Facebook. Molte scuole e amministrazioni pubbliche utilizzano piattaforme che sfiorano i limiti di ciò che è consentito. L’accordo sulla trasmissione di dati tra l’UE e gli USA viene aggiustato di tanto in tanto. Mi sono rivolto a un grande studio legale chiedendo se usano l’email con i clienti e come garantiscano la confidenzialità, specialmente se il cliente usa Gmail. Questo mi porta a un altro punto: non esiste un’unica etica globale, e certamente non a livello continentale. Con diverse etiche in gioco nello sviluppo dell’IA, come può un’azienda operare efficacemente in tanti contesti diversi?

Rand
Non è semplice. Se un’azienda vuole lanciare un prodotto in Europa, Asia, Medio Oriente e America, deve condurre una ricerca approfondita sugli utenti. Non solo per l’IA, ma anche per l’esperienza utente e i servizi offerti. Devono comprendere i loro target, capire le esigenze, le preoccupazioni e possibili discriminazioni, e agire di conseguenza. Gli algoritmi e i dati potrebbero dover essere adattati per diverse regioni o popolazioni.

David
Ho trovato particolarmente interessante la decisione della Corte Suprema Americana che ha deciso di eliminare l’Affirmative Action nelle ammissioni alle università americane. Per molto tempo, c’era un sistema che cercava di ribilanciare le disegualtà sociali, offrendo un vantaggio ai candidati di colore. Questo evidenzia come i sistemi etici di una nazione possano cambiare. Le aziende che implementano certe pratiche oggi potrebbero essere costrette a rivisitarle e aggiornarle in futuro.

Rand
I contesti cambiano. Ad esempio, in Siria, molte donne studiavano ingegneria. Se facessimo una ricerca sui risultati universitari, non troveremmo un dataset incline verso gli uomini, a differenza dell’Italia. È essenziale riconoscere e considerare queste differenze. L’Intelligenza Artificiale (IA) non si limita solo agli algoritmi; serve un team competente a 360 gradi.

David
Una persona che ci segue pone una domanda: questi sono strumenti, proprio come ci siamo abituati al calcolatore. Ora ci stiamo abituando agli strumenti di intelligenza artificiale, come GPT. Ma le aziende devono sperimentare ed evolversi costantemente, vero?

Rand
È fondamentale stabilire norme sull’uso di questi strumenti. Ad esempio, per gli esami, non è appropriato affidarsi esclusivamente a loro. È essenziale regolamentarli in vari settori, non solo per la responsabilità ma anche per l’accuratezza. Gli strumenti di IA sono ora accessibili a tutti. Non necessitiamo più di un data scientist isolato, ma possiamo sfruttare modelli preconfezionati. Incoraggio le aziende a sperimentare e a valutare i rischi associati.

David
Rand, ti ringrazio per questa conversazione illuminante. Ci vediamo il 28 settembre presso IBM Studios alle 18:00 per un incontro di persona e discutere ulteriormente sull’etica nell’intelligenza artificiale.

Rand
Grazie, Davide. Spero che questa conversazione abbia portato chiarezza nel mondo dell’IA. A presto.