{"id":10126,"date":"2023-09-25T20:33:51","date_gmt":"2023-09-25T20:33:51","guid":{"rendered":"https:\/\/davidorban.com\/?p=10126"},"modified":"2023-09-25T20:33:53","modified_gmt":"2023-09-25T20:33:53","slug":"etica-e-intelligenza-artificiale-con-rand-nezha","status":"publish","type":"post","link":"https:\/\/davidorban.com\/it\/2023\/09\/etica-e-intelligenza-artificiale-con-rand-nezha\/","title":{"rendered":"Etica e intelligenza artificiale con Rand Nezha"},"content":{"rendered":"\n<p>Il seguente testo \u00e8 una trascrizione aggiornata per chiarezza e lunghezza della conversazione online con Rand sul tema dell&#8217;etica e intelligenza artificiale.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Etica e Intelligenza Artificiale con Rand Nezha\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/WTXw5pUccco?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p>David Orban<br>Iniziamo parlando del tuo background. Come hai iniziato il tuo percorso nel campo dell&#8217;etica in intelligenza artificiale?<\/p>\n\n\n\n<p>Rand Nezha<br>Sono Rand, residente a Milano e ingegnere software. Di origini siriane ma anche italiana, ho studiato in Siria, dove l&#8217;ingegneria \u00e8 una disciplina molto popolare anche tra le donne. La mia tesi, sviluppata circa 15 anni fa, riguardava il riconoscimento facciale. Successivamente, ho proseguito gli studi al Politecnico di Milano specializzandomi in cloud computing. Il mio avvicinamento all&#8217;AI \u00e8 sempre stato pratico, lavorando come consulente per grandi aziende come IBM, Microsoft, Amazon Web Services e ora Google. In collaborazione con queste realt\u00e0, ho aiutato altre imprese a implementare tecnologie basate sull&#8217;AI, sempre con una forte consapevolezza della loro responsabilit\u00e0 e impatto sociale.<\/p>\n\n\n\n<p>David <br>Hai fornito un quadro affascinante. Perch\u00e9 l&#8217;intelligenza artificiale porta con s\u00e9 una responsabilit\u00e0 morale ed etica, mentre altre tecnologie hanno potuto ignorare questi aspetti? Non abbiamo mai discusso dell&#8217;etica dei database o della contabilit\u00e0 aziendale. Eppure l&#8217;intelligenza artificiale solleva questi temi, e, come hai menzionato, le aziende tecnologiche stanno aiutando altre imprese a comprenderlo e a implementarlo. Perch\u00e9 questa differenza?<\/p>\n\n\n\n<p>Rand<br>Nel corso degli anni, ci sono state rivoluzioni tecnologiche che hanno richiesto regolamentazione. Pensiamo all&#8217;uso di internet, dei social network o degli algoritmi che catturano l&#8217;attenzione degli adolescenti. L&#8217;intelligenza artificiale, per\u00f2, ha un impatto unico, sia in termini di opportunit\u00e0 che di sfide. Questa tecnologia influisce su ogni settore, toccando aree critiche come l&#8217;istruzione, l&#8217;occupazione e la giustizia. Ad esempio, l&#8217;AI pu\u00f2 decidere chi assumere o fornire diagnosi mediche &#8211; decisioni tradizionalmente prese dalle persone. C&#8217;\u00e8 anche l&#8217;ambiguit\u00e0 della responsabilit\u00e0. Quando un sistema AI prende una decisione, chi \u00e8 responsabile? L&#8217;azienda che ha creato lo strumento, i dati usati per addestrarlo o l&#8217;utente finale?<\/p>\n\n\n\n<p>David<br>Hai degli esempi specifici che puoi condividere? Hai menzionato la selezione del personale, ci sono altri esempi che illustrano questi problemi?<\/p>\n\n\n\n<p>Rand<br>Certamente. Amazon, ad esempio, ha usato un algoritmo per analizzare i CV. Questo algoritmo era addestrato sugli storici della compagnia, che erano principalmente dominati dagli uomini. Di conseguenza, l&#8217;algoritmo era pi\u00f9 propenso a scartare le candidature femminili. In un altro caso, una pistola termometrica era percepita come una vera pistola quando era in mano a una persona di colore, mentre era vista come uno strumento inoffensivo in mano a una persona caucasica. Inoltre, nelle ricerche online, la parola &#8220;CEO&#8221; produceva principalmente immagini di uomini, riflettendo pregiudizi nei dati su cui l&#8217;AI era addestrata. Questi esempi evidenziano il rischio di discriminazione e pregiudizi e la nostra responsabilit\u00e0 collettiva nel correggerli.<\/p>\n\n\n\n<p>David<br>Gli esempi possono riguardare le applicazioni aziendali delle grandi imprese, ma spesso si trovano anche nelle applicazioni destinate ai consumatori. Fino a poco tempo fa, il nostro telefono aveva difficolt\u00e0 a mettere a fuoco o fotografare un ritratto di una persona di carnagione scura rispetto a una chiara. Ci\u00f2 era dovuto non solo all&#8217;addestramento iniziale, ma anche a come i risultati sono stati implementati nell&#8217;elettronica del telefono. Con il recente lancio dell&#8217;iPhone di Apple, se osservate le immagini, la maggioranza rappresenta persone asiatiche o con carnagione scura. Questo dimostra che i nuovi modelli hanno superato le limitazioni e i bias dei modelli precedenti.<\/p>\n\n\n\n<p>Rand<br>\u00c8 cruciale sottolineare che l&#8217;AI presenter\u00e0 sempre delle imperfezioni e degli errori. L&#8217;essenziale \u00e8 riconoscerli e migliorare costantemente l&#8217;algoritmo. Le aziende devono assumersi la responsabilit\u00e0 dei loro errori, perseguendo un miglioramento continuo e identificando schemi discriminatori.<\/p>\n\n\n\n<p>David<br>Concordo pienamente. I dati raccolti riflettono la realt\u00e0 in modo grezzo, mettendo in luce aspetti che non possiamo ignorare. Gli errori nelle prime versioni dei sistemi dovrebbero rappresentare un&#8217;opportunit\u00e0 di crescita. Tuttavia, ci sono stati casi in cui le aziende hanno reagito con panico. Ad esempio, il bot di Microsoft su Twitter, Tai, in poche ore \u00e8 diventato razzista a seguito di provocazioni degli utenti, costringendo Microsoft a interrompere l&#8217;esperimento.<\/p>\n\n\n\n<p>Rand<br>A volte l&#8217;intervento \u00e8 troppo lento.<\/p>\n\n\n\n<p>David<br>Esatto. Un altro esempio di mancato miglioramento \u00e8 Amazon, che dopo aver sviluppato un sistema di elaborazione automatica dei curriculum, ha deciso di interrompere il progetto senza cercare di perfezionarlo.<\/p>\n\n\n\n<p>Rand<br>IBM, negli anni, ha ricevuto numerose critiche per il suo sistema di riconoscimento facciale, soprattutto per l&#8217;uso nella sorveglianza di massa e questioni di diritti umani, e ha ritirato il prodotto. L&#8217;intervento dell&#8217;IA pu\u00f2 essere pi\u00f9 rapido del governo e delle aziende, ma \u00e8 fondamentale agire con consapevolezza, utilizzando gli strumenti a disposizione per correggere rapidamente gli errori.<\/p>\n\n\n\n<p>David<br>Questo \u00e8 molto importante e ci ritorneremo sopra. La raccolta dei dati \u00e8 il punto di partenza per addestrare l&#8217;AI di una particolare applicazione. Come possono le persone che si occupano di questa raccolta impostare le cose per minimizzare gli errori fin dall&#8217;inizio? Quali sono due o tre raccomandazioni? Spesso, infatti, non sono consapevoli delle possibili fonti di problemi e affermano che dispongono solo di quei dati. Cosa rispondere loro?<\/p>\n\n\n\n<p>Rand<br>La responsabilit\u00e0 non \u00e8 solo di chi raccoglie i dati, ma \u00e8 collettiva, sia all&#8217;interno dell&#8217;organizzazione che produce l&#8217;applicativo, sia per il consumatore finale. La prima raccomandazione \u00e8 la formazione etica. Molte persone, come hai detto, inclusa me, hanno compreso l&#8217;importanza attraverso errori e collaborazioni con aziende. Oggi esistono formazioni sull&#8217;etica AI che spiegano come diversificare il dataset e riconoscere precocemente pattern non etici. Questa formazione dovrebbe essere estesa a tutti: da chi raccoglie i dati, a chi si occupa di user experience, fino ai data scientist e consumatori. La seconda raccomandazione \u00e8 che le aziende devono avere chiari principi etici fin dall&#8217;inizio, stabilendo dei criteri come trasparenza, non discriminazione e responsabilit\u00e0. Infine, si dovrebbero effettuare audit etici regolari. Non si pu\u00f2 sperare che non emergano problemi, ma bisogna prevenirli. Le aziende dovrebbero anche collaborare tra loro per arricchire e diversificare i loro dataset.<\/p>\n\n\n\n<p>David<br>All&#8217;inizio hai menzionato che durante i tuoi studi in Siria, met\u00e0 dei tuoi compagni erano donne. In Italia, non so la percentuale esatta, ma potrebbe essere molto bassa. Se qualcuno volesse sviluppare un sistema AI basato sui risultati degli esami di ingegneria in Italia, i dati non sarebbero bilanciati. \u00c8 possibile correggere e bilanciare questi dati a posteriori, durante la fase di fine tuning del sistema, o non c&#8217;\u00e8 speranza?<\/p>\n\n\n\n<p>Rand<br>Dobbiamo essere realistici. Come consulente, molte volte consigliamo ai clienti che i loro dati non sono adatti. Non solo per questioni etiche, ma anche per la qualit\u00e0 della risposta. Il fine tuning pu\u00f2 aiutare, ma bisogna sperimentare per vedere quanto possa effettivamente migliorare le cose. Se i dati disponibili non sono accurati o portano a conclusioni sbilanciate, potrebbe essere pi\u00f9 responsabile non utilizzarli affatto. La decisione di procedere o meno dipende anche dall&#8217;uso previsto: se \u00e8 per ricerca interna, \u00e8 diverso che se si mira a rilasciare un prodotto al grande pubblico.<\/p>\n\n\n\n<p>David<br>Molto interessante come punti di vista. Vogliamo elevare gli standard senza accontentarci dello status quo, e non limitarci alle aspirazioni del passato. Spero che sia gi\u00e0 noto a tutti che ogni azienda deve avere un responsabile della sicurezza sul lavoro che monitora i requisiti di legge e le prassi aziendali. Ricordo quando, ad esempio, le scrivanie con superficie bianca furono proibite per evitare affaticamento visivo, spingendo tutti a optare per colori pi\u00f9 neutri. Ora abbiamo responsabili per la protezione dei dati e la sicurezza informatica. Tuttavia, non credo sia ancora richiesto un &#8220;responsabile etico&#8221;, anche in assenza di algoritmi. Dovrebbe essere ovvio per tutti non compiere atti di corruzione, eppure ci sono corsi obbligatori che suggeriscono il contrario. Come vedi l&#8217;evoluzione del ruolo di un responsabile etico, in particolare in relazione all&#8217;intelligenza artificiale e ai sistemi informatici?<\/p>\n\n\n\n<p>Rand<br>La velocit\u00e0 di sviluppo delle AI supera di gran lunga quella delle aziende e dei governi. Quando un governo regolamenta una tecnologia, spesso siamo gi\u00e0 alla successiva. Serve maggiore celerit\u00e0. Tuttavia, molte aziende sono ancora nella fase sperimentale dell&#8217;IA, lontane dalla massima adozione, come \u00e8 avvenuto per la digitalizzazione o le app mobili. Ecco perch\u00e9 il ruolo del responsabile etico non \u00e8 ancora diffuso. Spero che l&#8217;Unione Europea imponga presto alle aziende di rispettare certi standard etici, richiedendo report e audit. Chi occupa questi ruoli dovr\u00e0 possedere competenze in etica, tecnologia e applicazioni, non solo legate all&#8217;IA ma anche ai dati. Dovranno inoltre guidare il cambiamento all&#8217;interno delle aziende, promuovendo un&#8217;etica proattiva e integrata nel design, piuttosto che reattiva. Fortunatamente, molte aziende stanno gi\u00e0 integrando esperti in sicurezza e privacy per rispettare il GDPR. Attendiamo lo stesso rigore per l&#8217;intelligenza artificiale da parte dell&#8217;UE.<\/p>\n\n\n\n<p>David<br>In effetti, ci sono molte risorse. Ora ne condivido alcune sullo schermo, e nelle note che seguiranno a questo video potremo raccogliere i relativi URL. La Commissione europea ha recentemente pubblicato un documento su &#8220;ethics by design&#8221;. Naturalmente, c&#8217;\u00e8 la legislazione europea alla quale hai fatto riferimento; \u00e8 stata approvata quest&#8217;anno e diventer\u00e0 obbligatoria dal prossimo. Potremmo poi discutere le potenziali conseguenze di questa legislazione. Se vogliamo ampliare lo sguardo non solo a livello nazionale o continentale, ma globale, la UNESCO ha pubblicato raccomandazioni sull&#8217;etica dell&#8217;intelligenza artificiale, incentrate su diritti umani, dignit\u00e0 e altri valori fondamentali. Hai gi\u00e0 menzionato la velocit\u00e0 di evoluzione dei sistemi, come nel caso del bot su Twitter. E hai sottolineato come la rapidit\u00e0 dell&#8217;evoluzione tecnologica spesso superi la capacit\u00e0 dei regolatori di intervenire. Ci sono aziende che potrebbero decidere di aspettare piuttosto che navigare in acque incerte?<\/p>\n\n\n\n<p>Rand<br>Esiste un grande conflitto nelle aziende. Alcune, soprattutto in settori regolamentati, non possono rischiare. Ma l&#8217;AI \u00e8 ormai cos\u00ec diffusa che le aziende non vogliono perdere un vantaggio competitivo. Non vogliono ritrovarsi indietro nell&#8217;implementazione dell&#8217;AI nei loro processi. Ecco perch\u00e9 molte stanno sperimentando, prendendo il loro tempo. Quando sono emerse le app mobili, le aziende si sono adattate rapidamente. Ma con l&#8217;AI, la sperimentazione \u00e8 pi\u00f9 lunga. Da una parte, vogliono assicurarsi di fare la mossa giusta; dall&#8217;altra, non vogliono essere superate dai concorrenti. Gli azionisti delle aziende quotate in borsa spesso chiedono dei progressi in ambito AI, visti i successi dei competitor. L&#8217;AI, in particolare il generative AI, \u00e8 sempre pi\u00f9 nelle mani dei consumatori. Come consumatore, posso facilmente accedere a strumenti come Google Bard o ChatGPT di OpenAI. Quindi le aziende non possono rimanere indietro. Se come consumatore ho una certa aspettativa, pretendo che le aziende soddisfino quelle aspettative. Non possono pi\u00f9 permettersi di aspettare, specialmente quando il consumatore ha gi\u00e0 accesso a certi servizi o tecnologie. Ecco perch\u00e9 \u00e8 un periodo cos\u00ec interessante.<\/p>\n\n\n\n<p>David<br>Nessun motore di ricerca leader \u00e8 nato in Europa, n\u00e9 alcun social network leader, e nessun produttore di telefoni cellulari principale \u2013 anche se una volta c&#8217;era Nokia. Hai citato Uber, un servizio con un&#8217;esperienza utente eccezionale. Molti paesi, inclusa l&#8217;Italia, hanno deciso di non fornire tale servizio, ritenendo che gli svantaggi per i fornitori fossero maggiori rispetto ai benefici per gli utenti. Mi ricordo quando il direttore generale di Uber \u00e8 venuto a Milano; i tassisti hanno protestato energicamente, impedendogli di parlare.<\/p>\n\n\n\n<p>Rand<br>Ma l&#8217;arrivo di Uber ha spinto i servizi europei a offrire un&#8217;esperienza simile, come Free Now. Non hanno potuto ignorarlo e mantenere la vecchia esperienza utente per i taxi. L&#8217;utente finale avrebbe comunque utilizzato Uber se gli altri non si fossero adattati.<\/p>\n\n\n\n<p>David<br>Hai ragione per quanto riguarda Uber, ma non esistono vere alternative europee a Google o Facebook. Molte scuole e amministrazioni pubbliche utilizzano piattaforme che sfiorano i limiti di ci\u00f2 che \u00e8 consentito. L&#8217;accordo sulla trasmissione di dati tra l&#8217;UE e gli USA viene aggiustato di tanto in tanto. Mi sono rivolto a un grande studio legale chiedendo se usano l&#8217;email con i clienti e come garantiscano la confidenzialit\u00e0, specialmente se il cliente usa Gmail. Questo mi porta a un altro punto: non esiste un&#8217;unica etica globale, e certamente non a livello continentale. Con diverse etiche in gioco nello sviluppo dell&#8217;IA, come pu\u00f2 un&#8217;azienda operare efficacemente in tanti contesti diversi?<\/p>\n\n\n\n<p>Rand<br>Non \u00e8 semplice. Se un&#8217;azienda vuole lanciare un prodotto in Europa, Asia, Medio Oriente e America, deve condurre una ricerca approfondita sugli utenti. Non solo per l&#8217;IA, ma anche per l&#8217;esperienza utente e i servizi offerti. Devono comprendere i loro target, capire le esigenze, le preoccupazioni e possibili discriminazioni, e agire di conseguenza. Gli algoritmi e i dati potrebbero dover essere adattati per diverse regioni o popolazioni.<\/p>\n\n\n\n<p>David<br>Ho trovato particolarmente interessante la decisione della Corte Suprema Americana che ha deciso di eliminare l&#8217;Affirmative Action nelle ammissioni alle universit\u00e0 americane. Per molto tempo, c&#8217;era un sistema che cercava di ribilanciare le disegualt\u00e0 sociali, offrendo un vantaggio ai candidati di colore. Questo evidenzia come i sistemi etici di una nazione possano cambiare. Le aziende che implementano certe pratiche oggi potrebbero essere costrette a rivisitarle e aggiornarle in futuro.<\/p>\n\n\n\n<p>Rand<br>I contesti cambiano. Ad esempio, in Siria, molte donne studiavano ingegneria. Se facessimo una ricerca sui risultati universitari, non troveremmo un dataset incline verso gli uomini, a differenza dell&#8217;Italia. \u00c8 essenziale riconoscere e considerare queste differenze. L&#8217;Intelligenza Artificiale (IA) non si limita solo agli algoritmi; serve un team competente a 360 gradi.<\/p>\n\n\n\n<p>David<br>Una persona che ci segue pone una domanda: questi sono strumenti, proprio come ci siamo abituati al calcolatore. Ora ci stiamo abituando agli strumenti di intelligenza artificiale, come GPT. Ma le aziende devono sperimentare ed evolversi costantemente, vero?<\/p>\n\n\n\n<p>Rand<br>\u00c8 fondamentale stabilire norme sull&#8217;uso di questi strumenti. Ad esempio, per gli esami, non \u00e8 appropriato affidarsi esclusivamente a loro. \u00c8 essenziale regolamentarli in vari settori, non solo per la responsabilit\u00e0 ma anche per l&#8217;accuratezza. Gli strumenti di IA sono ora accessibili a tutti. Non necessitiamo pi\u00f9 di un data scientist isolato, ma possiamo sfruttare modelli preconfezionati. Incoraggio le aziende a sperimentare e a valutare i rischi associati.<\/p>\n\n\n\n<p>David<br>Rand, ti ringrazio per questa conversazione illuminante. Ci vediamo il 28 settembre presso IBM Studios alle 18:00 per un incontro di persona e discutere ulteriormente sull&#8217;etica nell&#8217;intelligenza artificiale.<\/p>\n\n\n\n<p>Rand<br>Grazie, Davide. Spero che questa conversazione abbia portato chiarezza nel mondo dell&#8217;IA. A presto.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il seguente testo \u00e8 una trascrizione aggiornata per chiarezza e lunghezza della conversazione online con Rand sul tema dell&#8217;etica e intelligenza artificiale. David OrbanIniziamo parlando del tuo background. Come hai iniziato il tuo percorso nel campo dell&#8217;etica in intelligenza artificiale? Rand NezhaSono Rand, residente a Milano e ingegnere software. Di origini siriane ma anche italiana, [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":10129,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"disabled","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[481,3933,1773],"tags":[3533,312,313,2752],"class_list":["post-10126","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-general","category-intelligenza-artificiale","category-intervista","tag-etica","tag-ia","tag-intelligenza-artificiale","tag-societa"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/posts\/10126","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/comments?post=10126"}],"version-history":[{"count":1,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/posts\/10126\/revisions"}],"predecessor-version":[{"id":10136,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/posts\/10126\/revisions\/10136"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/media\/10129"}],"wp:attachment":[{"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/media?parent=10126"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/categories?post=10126"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/tags?post=10126"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}