{"id":10472,"date":"2024-05-18T16:51:45","date_gmt":"2024-05-18T16:51:45","guid":{"rendered":"https:\/\/davidorban.com\/?p=10472"},"modified":"2024-05-18T16:51:46","modified_gmt":"2024-05-18T16:51:46","slug":"agenti-ai-e-finanza","status":"publish","type":"post","link":"https:\/\/davidorban.com\/it\/2024\/05\/agenti-ai-e-finanza\/","title":{"rendered":"Agenti AI e finanza"},"content":{"rendered":"\n<p>Mi sono incontrato con Matteo Fabro, un innovatore dell&#8217;AI con la missione di rivoluzionare la ricerca e l&#8217;analisi finanziaria. <\/p>\n\n\n\n<p>Con lauree in Economia e Finanza Internazionale presso l&#8217;Universit\u00e0 Bocconi e in Musica presso il Conservatorio di Musica C. Pollini, Matteo porta una combinazione unica di competenze tecniche e pensiero creativo. Ha una ampia esperienza nello sviluppo di applicazioni di deep learning, automazione delle attivit\u00e0 e agenti AI autonomi che moltiplicano la produttivit\u00e0. In questa conversazione, Matteo ha condiviso le sue intuizioni su come l&#8217;AI sta trasformando il mondo della finanza. Abbiamo esplorato lo stato dell&#8217;arte attuale nella tecnologia degli agenti AI e come viene applicata per automatizzare compiti complessi di ricerca e analisi. Matteo spiega il suo approccio alla progettazione di agenti AI, le sfide chiave nell&#8217;implementarli nel dominio finanziario e l&#8217;immenso potenziale che detengono per snellire i flussi di lavoro. Discutiamo anche le prospettive future per l&#8217;AI autonoma e le sue implicazioni per il settore finanziario.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<iframe title=\"Agenti AI autonomi e trasformazione della finanza con Matteo Fabro - Qual \u00e8 la domanda live #32\" width=\"500\" height=\"281\" src=\"https:\/\/www.youtube.com\/embed\/27S9JpOqe1I?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe>\n<\/div><\/figure>\n\n\n\n<p>Di seguito una trascrizione revisionata della nostra conversazione.<\/p>\n\n\n\n<p>David: Qual \u00e8 il tuo ruolo attuale? Come sei arrivato a fare quello che stai facendo?<\/p>\n\n\n\n<p>Matteo: La mia educazione \u00e8 partita con la musica perch\u00e9 ho fatto il conservatorio da molto giovane, diplomandomi precocemente in pianoforte mentre facevo anche il liceo. Quando dovevo scegliere cosa studiare all&#8217;universit\u00e0 ero in conflitto perch\u00e9 volevo fare tante cose. Mi sarebbe piaciuto studiare fisica, la mia passione, o anche neuroscienze e studi cognitivi. Alla fine, un po&#8217; per peer pressure, ho scelto finanza per poter studiare a Milano in un ambiente relativamente internazionale pur rimanendo in Italia, quindi ho fatto la Bocconi.<\/p>\n\n\n\n<p>Prima di studiare finanza mi ero interessato al machine learning e a vari modelli, non quelli di moda. Per esempio avevo iniziato a usare il primo Cleverbot quando avevo dieci anni. Era una rete neurale molto semplice, forse neanche una vera rete neurale, ma un language model preprogrammato. Ero affascinato dal fatto che potevo giocarci praticamente all&#8217;infinito. Questo richiama il famoso effetto Eliza, dove le persone interagivano con un bot poco realistico ma si convincevano che fosse un&#8217;entit\u00e0 cognitiva vera e propria.<\/p>\n\n\n\n<p>David: \u00c8 un effetto super interessante che stiamo vedendo intensificarsi con le applicazioni pi\u00f9 recenti. Le persone si lasciano ingaggiare nel dialogo con le macchine in una maniera che supera le aspettative e proiettano le proprie emozioni in questa relazione uomo-macchina che emerge.<\/p>\n\n\n\n<p>Matteo: Assolutamente. Poi ho studiato le basi del machine learning, senza avventurarmi troppo perch\u00e9 \u00e8 un campo che richiede un certo investimento di risorse che non volevo affrontare a fondo. Mi ricordo che durante la mia prima internship, mentre lavoravo su interpretazioni di variabili per scopi B2B, stavo studiando diverse architetture di reti. Sono passato dalla rete ricorrente semplice all&#8217;LSTM fino ad arrivare al transformer, che al tempo era poco conosciuto ma adesso sta andando moltissimo. \u00c8 arrivato il momento giusto quando OpenAI ha rilasciato GPT-3, il primo vero modello di linguaggio intelligente con una certa capacit\u00e0 di intelligenza.<\/p>\n\n\n\n<p>David: Vale la pena esplicitare per chi ci segue e non \u00e8 specialista che all&#8217;interno del grande campo dell&#8217;informatica, che in modo un po&#8217; improprio viene etichettato come scienza delle informazioni perch\u00e9 io lo vedo pi\u00f9 come un campo ingegneristico che scientifico, abbiamo diversi sottoinsiemi.<\/p>\n\n\n\n<p>Matteo: Un campo transdisciplinare un po&#8217;.<\/p>\n\n\n\n<p>David: S\u00ec, anche se vogliamo essere pi\u00f9 precisi, la differenza \u00e8 che un campo scientifico va a scoprire principi e leggi di natura formalizzati in teorie e poi falsificati o almeno in parte verificati con esperimenti. Invece un campo ingegneristico applica i risultati del primo attraverso diverse combinazioni e formulazioni che possono essere tutt&#8217;altro che banali e richiedono sforzi simili per individuarle e raggiungerle, ma non necessariamente identificano e incorporano principi nuovi. Nel campo informatico le due cose parzialmente si sovrappongono, per\u00f2 \u00e8 relativamente raro che un nuovo tipo di computer parta dai primi principi. L&#8217;architettura von Neumann ha dominato e tuttora domina il modo in cui usiamo i computer dagli anni &#8217;40. Da 30 anni ci sono i computer quantistici che ancora non hanno raggiunto una diffusione tale da avere un impatto su ci\u00f2 che l&#8217;informatica riesce a fare. Timidamente o anche in modo molto ambizioso, ma ancora teorico e tutto da vedere, ci sono nuovi approcci che cercano di rendere i computer molto pi\u00f9 efficienti dal punto di vista energetico, un po&#8217; come il cervello che con soli 20 watt riesce a fare ci\u00f2 che i nostri sistemi di intelligenza artificiale non riescono neanche con 100 megawatt. Questo illustra che raramente i diversi sistemi vanno ai primi principi per migliorare l&#8217;informatica. All&#8217;interno di questo campo abbiamo l&#8217;intelligenza artificiale, un sottoinsieme particolare che contiene tante diverse ambiti come sistemi di classificazione, di raccomandazione, di manutenzione preventiva e tante altre cose. All&#8217;interno di questo ci sono i sistemi di apprendimento automatico di machine learning, al cui interno troviamo il deep learning. E all&#8217;interno di quello, uno degli approcci \u00e8 quello dei transformer che con GPT-2, GPT-3, GPT-4 e da ieri GPT-4O hanno raggiunto capacit\u00e0 veramente brillanti, attirando tanti talenti e persone curiose come te. Penso fosse importante fare questo piccolo viaggio per chi ci segue. Andando pi\u00f9 nello specifico, quali sono queste abilit\u00e0 che hanno sviluppato queste reti?<\/p>\n\n\n\n<p>Matteo: La pi\u00f9 significativa \u00e8 stata appunto tramite GPT-3. Gli sviluppatori di ChatGPT hanno scoperto che questo sistema, semplicemente programmato per imparare la parola successiva in una sequenza, riusciva a imparare certe cose senza doverle reimparare da capo, ma semplicemente dandogli l&#8217;istruzione finale o degli esempi nel contesto a disposizione. Riusciva a imparare abilit\u00e0 nuove su cui non era stato esplicitamente istruito, come la traduzione.<\/p>\n\n\n\n<p>David: Posso chiederti se secondo te \u00e8 corretta una formulazione leggermente diversa? L&#8217;addestramento su un insieme estremamente ampio di informazioni fa s\u00ec che, nonostante il sistema non sia orientato esplicitamente per avere certe abilit\u00e0, ce ne sono altre latenti tutte da scoprire da parte degli utilizzatori o dei programmatori che continuano a sorprendersi perch\u00e9 il sistema \u00e8 in grado di fare qualcosa senza che fosse semplicemente previsto. Lo si scopre solo perch\u00e9 a qualcuno viene in mente di chiederglielo: &#8220;Ma tu sai, sei in grado di fare X?&#8221; E il sistema risponde&#8230;<\/p>\n\n\n\n<p>Matteo: &#8220;Ma certo, sono in grado.&#8221;<\/p>\n\n\n\n<p>David: &#8220;Ma perch\u00e9 non ce l&#8217;hai detto prima?&#8221; &#8220;Nessuno me l&#8217;ha chiesto.&#8221;<\/p>\n\n\n\n<p>Matteo: All&#8217;inizio il modo in cui si faceva questo era dandogli degli esempi. Gli dicevi per esempio &#8220;Questo \u00e8 da francese a inglese, questo \u00e8 da spagnolo a inglese, questo \u00e8 da italiano a inglese&#8221; e poi gli chiedevi &#8220;Da russo a inglese&#8221; e lui riusciva a completare la frase. Questo \u00e8 il paper originale del Transformer. Invece il paper originale di GPT-3 \u00e8 &#8220;GPT is Future Learner&#8221;, dove questi &#8220;few shot&#8221;, come si chiamano perch\u00e9 gli dai qualche esempio, sono la traduzione praticamente. Questo era molto interessante dal punto di vista del machine learning perch\u00e9 vuol dire che c&#8217;\u00e8 un machine learning senza dover investire migliaia, decine di migliaia, milioni di dollari come stanno facendo adesso per addestrare un sistema a fare una task specifica. Molto semplicemente gli dai tre esempi e la fa come se l&#8217;avessi addestrato per quello. Questo era gi\u00e0 molto importante. L&#8217;unico problema di questo approccio era che era molto poco stabile perch\u00e9 spesso c&#8217;erano errori di diverso tipo, che vengono chiamati allucinazioni adesso, anche se in realt\u00e0 sono semplicemente errori del modello.<\/p>\n\n\n\n<p>David: Sicuramente il termine &#8220;allucinazione&#8221; cattura l&#8217;attenzione di chi lo sente, ma \u00e8 un termine troppo antropomorfico. Sottointende che il sistema abbia una percezione della realt\u00e0 e nel momento in cui ha delle allucinazioni visualizza e poi comunica qualcosa che non fa parte di questa realt\u00e0. Questo secondo me \u00e8 un po&#8217; fuorviante perch\u00e9 ci stiamo ancora chiedendo quanto robusto e resiliente sia il cosiddetto &#8220;world model&#8221;, lo schema della realt\u00e0 che i sistemi sviluppano. Io cerco di sostituire questo termine, che ritengo eccessivamente antropocentrico, con qualcos&#8217;altro, attribuendo l&#8217;ossessione dei sistemi di dare risposte anche laddove non siano sicure o addirittura inventando citazioni e referenze inesistenti, a un&#8217;insufficiente capacit\u00e0 introspettiva e all&#8217;inabilit\u00e0 di rendersi conto che \u00e8 meglio fermarsi. Un po&#8217; come uno studente troppo ansioso a un esame che invece di dire &#8220;Non lo so, dovrei pensarci un po&#8217; di pi\u00f9, non so se ho il tempo&#8221;, va avanti elaborando assurdit\u00e0. In effetti, forse vale la pena menzionarlo, ci sono tecniche che migliorano il ragionamento quando si dice al sistema &#8220;Prova a fare un ragionamento concatenato, pensaci di pi\u00f9, verifica quello che hai detto prima di dirlo all&#8217;utente&#8221;. Questi richiami espliciti fanno scattare risultati oggettivamente migliori.<\/p>\n\n\n\n<p>Matteo: Una volta che GPT-3 \u00e8 passato di moda, \u00e8 uscito ChatGPT che ha fatto completamente esplodere la scena. ChatGPT \u00e8 semplicemente GPT-3 istruito non solo per predire la parola successiva nella sequenza nel miglior modo possibile, ma anche per far s\u00ec che la risposta piaccia all&#8217;interlocutore. L&#8217;interlocutore pu\u00f2 dire &#8220;mi piace&#8221; o &#8220;non mi piace&#8221; e queste sono le due modalit\u00e0 su cui \u00e8 stato istruito. Questo fa s\u00ec che funzioni molto bene per essere quello che \u00e8.<\/p>\n\n\n\n<p>David: Questo feedback dell&#8217;utente tecnicamente si chiama &#8220;reinforcement learning with human feedback&#8221; e fa parte anche della fase che precede il rilascio al pubblico di questi modelli, soprattutto nel momento in cui li si fa allineare a comportamenti desiderabili o disincentivare comportamenti indesiderabili. \u00c8 un&#8217;attivit\u00e0 molto delicata relativamente a trovare l&#8217;equilibrio giusto. Non so se entreremo nel dettaglio di come si pu\u00f2 farlo o quanto spesso si sbaglia nel centrare effettivamente il punto giusto. Mi stai quindi dicendo che quando nell&#8217;interfaccia di ChatGPT l&#8217;utilizzatore preme il pollice su o il pollice gi\u00f9, quell&#8217;informazione viene incorporata da OpenAI per migliorare il sistema?<\/p>\n\n\n\n<p>Matteo: S\u00ec, sicuramente.<\/p>\n\n\n\n<p>David: A tuo avviso questo avviene, non dico in tempo reale, ma comunque con fasi di miglioramento progressive del sistema oppure solamente quando una nuova versione importante viene rilasciata?<\/p>\n\n\n\n<p>Matteo: No, \u00e8 un processo continuo e il modello viene sempre leggermente modificato quando c&#8217;\u00e8 il processo di rinforzo. \u00c8 un rinforzo in tempo reale. Ci sono adesso varie nuove tecniche per fare in modo che questa soluzione si riesca a fare anche in modo asincrono, cos\u00ec da poter fare questo processo che potrebbe metterci anche dieci anni se lo fai tramite operatori umani su un modello molto complicato, magari in qualche giorno se hai un processo asincrono di questo tipo. Si sta studiando questa metodologia da vari ricercatori. Comunque io non me ne intendo molto, non \u00e8 quello che faccio io, quindi mi fermo qua sulle metodologie applicate.<\/p>\n\n\n\n<p>David: La differenza importante tra GPT-2 e GPT-3 \u00e8 che GPT-2 era a codice aperto, open source, mentre GPT-3 non lo \u00e8 stato e tuttora non lo \u00e8, cos\u00ec come GPT-4. Contrariamente ad altri modelli come Lama, Mistral, eccetera, che pur cominciando ad avvicinarsi alle prestazioni di GPT-4 sono disponibili in formato open source. Questo \u00e8 molto interessante perch\u00e9 permette tutta una serie di applicazioni che utilizzando OpenAI non si possono fare. Cosa metteresti ancora in evidenza rispetto all&#8217;evoluzione dei sistemi e di come questi sono diventati utili nell&#8217;arco di pochissimi anni, stando ormai alla base di una nuova generazione di applicazioni?<\/p>\n\n\n\n<p>Matteo: Tra GPT-3 e GPT-2 c&#8217;\u00e8 un oceano di differenza, perch\u00e9 GPT-2 \u00e8 un modello completamente senza applicazione pratica. Le allucinazioni sono ovunque, non ha senso perch\u00e9 non c&#8217;\u00e8 nessun utilizzo pratico. Mentre GPT-3 \u00e8 un modello che ha effettivamente utilizzo pratico, soprattutto quando viene istruito tramite rinforzo umano. La differenza tra i due fa s\u00ec che uno abbia senso e l&#8217;altro no. Un argomento molto simile pu\u00f2 essere usato per distinguere tra GPT-4 e GPT-3. GPT-4 \u00e8 l&#8217;ultima generazione di questo tipo di modelli ed \u00e8 di nuovo di gran lunga superiore a GPT-3 per vari motivi. Soprattutto le allucinazioni, che sono semplicemente una misura della quantit\u00e0 di errori nell&#8217;output, sono state molto ridotte in GPT-4. GPT-4 dimostra certe abilit\u00e0 che uno non si aspetterebbe per niente da questo sistema di predizione.\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b\u200b<\/p>\n\n\n\n<p>David: GPT-4 arriva nei top percentili di test di tutti i tipi, da test legali a matematica, biologia, le cose pi\u00f9 disparate. Dimostra una vera generalit\u00e0 utile, non solo generalit\u00e0 fine a se stessa. Una cosa da mettere in evidenza \u00e8 che GPT-4 e GPT-4O, il sistema annunciato ieri, hanno portato avanti la multimodalit\u00e0. La &#8220;O&#8221; sta proprio per &#8220;Omni&#8221;. Non sappiamo cosa OpenAI aggiunger\u00e0 ulteriormente, ma gi\u00e0 oggi lo stesso modello unificato \u00e8 in grado di ricevere e inviare in risposta diversi tipi di dati, non solo testo ma anche immagini, audio e sappiamo gi\u00e0, anche se non \u00e8 ancora disponibile a tutti, anche video. Questa multimodalit\u00e0 \u00e8 sicuramente una caratteristica interessante e va nella direzione dove dobbiamo arrivare, cio\u00e8 quella degli agenti. Come definiresti un sistema che \u00e8 un agente, in opposizione a un sistema che interagisce ma non \u00e8 un agente AI?<\/p>\n\n\n\n<p>Matteo: Le definizioni qui sono ancora molto nebulose perch\u00e9 \u00e8 una cosa che esiste da molto poco, quindi non si riesce a dare definizioni precise. Per\u00f2 diciamo che l&#8217;LLM (Large Language Model) di per s\u00e9 \u00e8 fatto solo per avere output di testo. La cosa interessante \u00e8 che questo output pu\u00f2 essere utilizzato in vari modi. Uno di questi \u00e8 usare il testo prodotto come input a un certo tipo di azione. Per esempio, possiamo usarlo come sta provando a fare OpenAI per fare ricerche su Google, dove la gente pu\u00f2 dire &#8220;Voglio fare questa ricerca&#8221; e lui semplicemente, dicendo qualcosa, fa s\u00ec che il computer intercetti la parola che dice e l&#8217;azione che vuole prendere, e queste parole diventano effettivamente un&#8217;azione nella vita reale. Ovviamente Google non \u00e8 un&#8217;azione concreta, per\u00f2 si pu\u00f2 applicare anche a cose come mandare una mail. L&#8217;LLM dice &#8220;Voglio mandare la mail a David:dicendo X&#8221; e il computer riesce a interpretare e a prendere queste parole come &#8220;manda mail a David&#8221;, nel senso di vera e propria azione software.<\/p>\n\n\n\n<p>David: Mentre parlavi, ho chiesto a ChatGPT cosa dice e mi ha sparato una risposta troppo lunga. Chiedendogli cos&#8217;\u00e8 un agente AI, ha menzionato autonomia, capabilit\u00e0 sensoriale, eseguire decisioni orientate a degli obiettivi, adattabilit\u00e0, interazione. Troppa roba. Gli ho chiesto di ridurre a due brevi frasi ed ecco, il primo termine che ha detto, &#8220;autonomo&#8221;, \u00e8 giustissimo perch\u00e9 passi&#8230;<\/p>\n\n\n\n<p>Matteo: &#8230;da dover compiere tu l&#8217;azione e fare copia e incolla nella mail ad avere la mail che viene mandata autonomamente dall&#8217;agente in modo completamente autonomo. Poi ci sono varie definizioni di agente. Abbiamo l&#8217;agente autonomo semplice, dove per esempio non gli fai decidere l&#8217;azione, quindi puoi avere un agente che manda solo email. Praticamente non \u00e8 neanche un agente, \u00e8 semplicemente un&#8217;istanza di LLM connessa alla mail. Poi invece c&#8217;\u00e8 l&#8217;agente autonomo vero e proprio, dove l&#8217;agente non decide solo l&#8217;input all&#8217;azione ma decide anche l&#8217;azione stessa da prendere. Per esempio, prima vuole andare su Google e poi vuole mandare la mail a seconda delle informazioni che ha trovato, e via dicendo. Poi ci sono le vere e proprie architetture cognitive, che vengono chiamate agenti ideali, dove hai non solo l&#8217;abilit\u00e0 di compiere azioni ma anche ragionamento interno al sistema. Come stavi dicendo tu prima, \u00e8 utile se a questi modelli gli fai &#8220;pensare ad alta voce&#8221;, perch\u00e9 non pensano dentro di loro.<\/p>\n\n\n\n<p>David: Diciamo che non gli viene spontaneo, bisogna dirglielo esplicitamente.<\/p>\n\n\n\n<p>Matteo: Ci sono due tipi di pensiero secondo la teoria: il pensiero di tipo 1 e il pensiero di tipo 2. Il pensiero di tipo 1 \u00e8 quello spontaneo che ci viene, per esempio a me adesso quando sto parlando. Non ragiono su quello che sto per dire, senn\u00f2 non avrei la capacit\u00e0 cognitiva per pensare mentre parlo. Per\u00f2 se voglio scrivere qualcosa di un certo calibro, mi metterei l\u00ec e ragionerei su cosa voglio scrivere, penserei dentro di me, mi parlerei da solo praticamente mentre scrivo. Questo viene chiamato sistema di tipo 2, dove ragioni a parole proprio. Questo \u00e8 quello che si pu\u00f2 far fare al language model, come stavi dicendo prima, per aumentare la performance sulla task che si vuole far fare, che pu\u00f2 essere per esempio quella di essere un agente autonomo.<\/p>\n\n\n\n<p>David: Il libro che sto facendo vedere condividendo lo schermo \u00e8 di Daniel Kahneman, che \u00e8 scomparso recentemente. Ha scritto questo testo divulgativo sulla propria teoria dei due sistemi di pensiero, sistema 1 e sistema 2, lento e veloce. \u00c8 stato un approccio di grande successo che ha anche ispirato diverse implementazioni in intelligenza artificiale. Tornando agli agenti, in questo senso \u00e8 evidente che un AI insufficientemente potente non pu\u00f2 diventare un agente perch\u00e9 non combinerebbe niente. Ci deve essere una soglia solo oltre la quale \u00e8 utile pensare che un AI possa diventare un agente autonomo in grado di strutturare le proprie azioni e generare un risultato utile al raggiungimento di un obiettivo per le istruzioni che ha ricevuto. Nel tuo esempio, inviare un&#8217;email alla persona giusta, con il tono giusto, per parlare delle cose giuste, nel momento giusto, eccetera. A tuo avviso, siamo gi\u00e0 al punto che agenti AI possano essere realizzati sulle piattaforme attuali? Faccio vedere la cosiddetta leaderboard, cio\u00e8 la classifica dei modelli pi\u00f9 potenti. Vedo che quello annunciato ieri non \u00e8 ancora presente. Quindi, questi sistemi sono sufficientemente potenti per permettere la realizzazione di agenti?<\/p>\n\n\n\n<p>Matteo: Sicuramente, di nuovo, le definizioni sono molto opache quindi \u00e8 difficile definire cosa \u00e8 un agente vero e proprio e cosa non lo \u00e8. Per\u00f2, se parti dal presupposto che l&#8217;agente \u00e8 autonomo, ha un certo tipo di ragionamento interno, eccetera, sicuramente per certe applicazioni s\u00ec. Applicazioni anche non semplicissime ma abbastanza complesse, si riesce a creare agenti tramite il language model. Poi ovviamente questo \u00e8 un campo molto molto nuovo, perch\u00e9 \u00e8 possibile solo da un anno e mezzo, dopo che \u00e8 stato rilasciato GPT-3 con lo Zero Shot, ovvero che gli dai l&#8217;istruzione senza dovergli dare vari esempi. Come stavamo dicendo, diventa pi\u00f9 affidabile e riesce effettivamente a strutturare un agente vero e proprio tramite istruzioni.<\/p>\n\n\n\n<p>David: Abbiamo detto che l&#8217;addestramento tradizionale avviene attraverso l&#8217;utilizzo di un numero enorme di dati, e pi\u00f9 questi sono puliti e strutturati, meglio \u00e8, perch\u00e9 possono rappresentare una gamma ampia di esempi per diversi tipi di caratteristiche o informazioni sul mondo. Dopodich\u00e9 c&#8217;\u00e8 questa caratteristica che emerge della capacit\u00e0 di apprendere con pochi esempi (few-shot learning) invece che tantissimi. Adesso hai menzionato lo zero-shot learning, che \u00e8 la capacit\u00e0 di andare avanti a compiere una nuova azione o dare risposta a un nuovo tipo di domanda senza aver avuto alcun esempio di fronte. Questo \u00e8 l&#8217;obiettivo dell&#8217;intelligenza generale su cui tutti stanno lavorando.<\/p>\n\n\n\n<p>Matteo: Proprio questo: avere un sistema zero-shot che funzioni praticamente perfettamente per ogni tipo di task. Direi che ci siamo molto vicini.<\/p>\n\n\n\n<p>David: Abbiamo fatto quindi un piccolo percorso, siamo arrivati agli agenti. Prima di andare oltre e fare ulteriori esempi su come gli agenti di intelligenza artificiale possono essere applicati, come uno potrebbe tentare di farne uso oggi o cosa ci si aspetta domani, vorrei chiederti della tua startup, The Asyst, una societ\u00e0 londinese attiva nel campo della finanza. Non so se \u00e8 ancora in fase stealth, dove le sue attivit\u00e0 non sono ancora totalmente pubbliche, per\u00f2 magari ci puoi dire qualcosa su cosa fa.<\/p>\n\n\n\n<p>Matteo: Noi facciamo molto semplicemente un agente per ricerca finanziaria, quindi per fondi, giornali&#8230; Oggi ho parlato con il Wall Street Journal. Banche, insomma, tutti i vari stakeholder in finanza in un modo o nell&#8217;altro devono fare ricerche e questo \u00e8 un processo che richiede molto tempo. Il tempo di questi professionisti costa molto per vari motivi ovviamente, e l&#8217;agente riesce a fare un lavoro molto simile per un costo che a confronto \u00e8 ovviamente nullo. Se per esempio una ricerca tramite uno di questi analisti o giornalisti ci pu\u00f2 mettere, diciamo, 20 ore, e vengono pagati 50 euro l&#8217;ora, fai 50 per 20 e sono 1000 euro per l&#8217;azienda. Invece l&#8217;agente te lo fa per 50 euro. Quindi \u00e8 un risparmio del 95% dal punto di vista dell&#8217;azienda. Siamo partiti da un agente con memoria, questa era la prima cosa, che doveva essere come un assistente per il mondo della finanza. Poi piano piano ci siamo specializzati nella ricerca proprio per le istituzioni.<\/p>\n\n\n\n<p>David: A che punto siete? \u00c8 gi\u00e0 disponibile in versione beta o ancora alpha? \u00c8 gi\u00e0 rilasciato? A che punto \u00e8 lo sviluppo?<\/p>\n\n\n\n<p>Matteo: Abbiamo fatto l&#8217;alpha con vari professionisti in diverse banche, qualche fondo, eccetera. Adesso invece stiamo pi\u00f9 in fase beta, ovvero dove stiamo iniziando a commercializzare il prodotto con fondi, giornali, eccetera.<\/p>\n\n\n\n<p>David: Quindi il tipo di utilizzo \u00e8 come se fosse un motore di ricerca, solo che invece di restituirti una serie di collegamenti a delle pagine dove tu manualmente poi devi andare e fare il collage delle informazioni, l&#8217;agente prende in consegna l&#8217;obiettivo di cosa confezionare e ti riporta indietro un rapporto di una certa lunghezza, non so se due pagine o duecento pagine, quello che possa essere.<\/p>\n\n\n\n<p>Matteo: Quello che stai descrivendo tu \u00e8 pi\u00f9 quello che fanno aziende di un tipo leggermente diverso. Per esempio ce n&#8217;\u00e8 una che si chiama Perplexity, \u00e8 molto forte su questo. Poi adesso anche OpenAI sta facendo questo progetto, molto probabilmente con Apple, e lo rilasceranno in simbiosi. Per\u00f2 quello che facciamo noi \u00e8 un po&#8217; diverso. Il nostro non \u00e8 un motore di ricerca aumentato all&#8217;ennesima potenza, il nostro \u00e8 proprio un analista digitale vero e proprio, nel senso che fa tutto quello che farebbe un analista.<\/p>\n\n\n\n<p>David: E la differenza consiste nel fatto che il motore di ricerca, anche quello avanzato che fa oggi Perplexity e far\u00e0 OpenAI, effettua questo collage di informazioni e poi si ferma l\u00ec. Mentre l&#8217;analista, avendo visto le informazioni a disposizione, trae delle conclusioni ed eventualmente fa delle raccomandazioni, giusto?<\/p>\n\n\n\n<p>Matteo: S\u00ec, non solo. Sul motore di ricerca aumentato, se lo vogliamo chiamare cos\u00ec, non puoi paragonarlo a un analista perch\u00e9 sono due cose completamente diverse. Una \u00e8 come se facessi una ricerca su Google, ti buttasse gi\u00f9 tre punti importanti dalle fonti e ti desse la risposta. Questo ci pu\u00f2 volere dai 5 ai 10 minuti per una persona, che comunque \u00e8 un risparmio importante di tempo. Ma quello che facciamo noi invece \u00e8 ricerca fondamentale, quantitativa, vera e propria. Questo \u00e8 un processo che ci pu\u00f2 mettere due, tre, cinque, dieci giorni, qualche settimana per un analista. \u00c8 proprio un ordine di grandezza completamente diverso. E chiaramente il motivo per cui lo facciamo per istituzioni finanziarie \u00e8 anche perch\u00e9 c&#8217;\u00e8 un costo associato a questo. Ogni azione dell&#8217;agente, cio\u00e8 ogni azione dell&#8217;infrastruttura del language model, ha un certo costo associato. Pi\u00f9 il modello lavora, pi\u00f9 viene a costarti alla fine. Le istituzioni finanziarie in questo senso&#8230;<\/p>\n\n\n\n<p>David: Avete gi\u00e0 deciso come strutturerete i vostri prezzi? Sar\u00e0 offerto in abbonamento? Viene installato presso l&#8217;utente? C&#8217;\u00e8 un insieme di pacchetti di report che possono generare? Ogni report costa tot? Ogni pagina del report costa tot? Come pensate di&#8230;?<\/p>\n\n\n\n<p>Matteo: \u00c8 molto simile a come faresti un prezzo per una persona. Come dici, la persona la pago all&#8217;ora. Questo, al posto di pagarlo all&#8217;ora, che non \u00e8 una misura corretta dell&#8217;input che ci mette, lo paghi a token consumato, quindi a credito del language model. \u00c8 anche molto pi\u00f9 misurabile dell&#8217;impatto di un dipendente. Questo \u00e8 utile perch\u00e9, se io sono un dipendente, posso fare cose di un livello cognitivo superiore a quello che dovrei fare altrimenti, lavorando su task pi\u00f9&#8230;<\/p>\n\n\n\n<p>David: Qui andiamo in una direzione molto importante. Intanto grazie per aver descritto le attivit\u00e0 di Asyst. Andiamo a toccare quelle che sono le possibili conseguenze degli assistenti di intelligenza artificiale, dove ci sono due scuole di pensiero: quelle che dicono &#8220;Meno male, posso licenziare tutti&#8221;, e quelle che invece dicono &#8220;No, ho delle persone importanti, appassionate, di talento che, come hai appena menzionato, hanno oggi la possibilit\u00e0, perch\u00e9 possono usare questi assistenti digitali, di fare le cose a maggior valore aggiunto, le pi\u00f9 creative, le pi\u00f9 improbabili in base alle abitudini passate o quello che sappiamo gi\u00e0 che funziona, perch\u00e9 quelle che sono le funzioni note vengono delegate invece al&#8230;&#8221;<\/p>\n\n\n\n<p>Matteo: Dipende molto dall&#8217;applicazione, perch\u00e9 per certe applicazioni sicuramente il rischio di sostituzione c&#8217;\u00e8. Per esempio, l&#8217;applicazione che ha rilasciato ieri OpenAI, dove parli con l&#8217;agente&#8230; Molti telemarketer, gente che vende al telefono, gente che parla al telefono in generale verr\u00e0 molto probabilmente sostituita da questo software, perch\u00e9 non ha molto senso avere una persona di quel tipo.<\/p>\n\n\n\n<p>David: Non ha pi\u00f9 senso. Per\u00f2 sono un po&#8217; perplesso su questa cosa. Non perch\u00e9 tu non abbia ragione, secondo me sar\u00e0 cos\u00ec, ma perch\u00e9 io semplicemente non rispondo al telefono. Come fanno i telemarketer a beccare le persone? Perch\u00e9 qualcuno risponde. Lo dico mezzo battuta. Il fatto che ce ne siano molti, quindi qualcosa staranno facendo di giusto. Non me ne intendo, quindi non parlo. Magari troveranno un altro utilizzo, non lo so. Invece, nel mondo della finanza, visto che \u00e8 quello che facciamo noi&#8230;<\/p>\n\n\n\n<p>Matteo: Nel mondo della finanza, il rischio di sostituzione \u00e8 molto basso perch\u00e9 alle istituzioni non interessa ridurre i costi. Non \u00e8 la loro priorit\u00e0, dato che gestiscono miliardi o migliaia di miliardi di dollari. I costi di personale sono spicci al confronto. Quello che effettivamente interessa loro \u00e8 avere un vantaggio competitivo rispetto agli altri, e noi gli offriamo proprio questo. I primi che avranno a disposizione una tecnologia di questo tipo saranno molto pi\u00f9 efficienti e dunque avranno un vantaggio importante.<\/p>\n\n\n\n<p>David: Mi sono ritrovato ad analizzare meglio i risultati, verificarli e confrontarli. Spesso faccio fare la stessa cosa a due o pi\u00f9 motori e chiedo ad ognuno qual \u00e8 il migliore tra i vari risultati, senza dire da dove vengono. \u00c8 interessante che il pi\u00f9 delle volte sono d&#8217;accordo fra loro. Mi chiedo se anche i tuoi clienti in campo finanziario faranno cos\u00ec: otterranno un report dettagliato basato sull&#8217;output del tuo sistema e poi spenderanno del tempo e delle risorse umane per verificarlo, approfondirlo, complementarlo o confrontarlo con altri.<\/p>\n\n\n\n<p>Matteo: \u00c8 proprio questa l&#8217;idea per molti. Ovviamente ci sono vari utilizzi. Il giornalista con cui ho parlato oggi diceva che a lui interessa avere un&#8217;ottica generale per poi andare a verificare. Per altri \u00e8 pi\u00f9 una questione di trovare opportunit\u00e0 che non riusciresti a individuare facendo il lavoro manualmente. Se dovessi far fare la ricerca ad un analista umano, ne riesci a fare una, mentre con questo sistema ne puoi fare oltre cento e rielaborarle tutte insieme. Le opportunit\u00e0 che riesci a identificare sono di gran lunga superiori.<\/p>\n\n\n\n<p>David: Uno dei campi applicativi pi\u00f9 interessanti di questi sistemi di AI consiste nell&#8217;applicarli come assistenti agli sviluppatori, i cosiddetti co-pilot, per aumentare la produttivit\u00e0 evitando errori come vulnerabilit\u00e0 nel codice. Ritieni che possa essere un&#8217;applicazione anche per gli agenti, rendendoli sempre pi\u00f9 autonomi nel realizzare codice?<\/p>\n\n\n\n<p>Matteo: S\u00ec certo, alla fine tutto il mondo computazionale \u00e8 codice. Anche questo che stiamo facendo adesso \u00e8 codice. Questo paradigma parte dagli agenti che sviluppano codice autonomamente, ma poi si arriva al punto in cui il codice non esiste pi\u00f9 ed esiste solo l&#8217;istruzione in linguaggio naturale.<\/p>\n\n\n\n<p>David: Sar\u00e0 interessante e delicato il momento in cui si dar\u00e0 accesso all&#8217;agente software al codice sorgente di se stesso, cosa che in un certo grado sta gi\u00e0 avvenendo.<\/p>\n\n\n\n<p>Matteo: Bisogna differenziare tra le entit\u00e0. C&#8217;\u00e8 l&#8217;entit\u00e0 agente che pu\u00f2 operare sul proprio codice, ma la vera cosa interessante, se si parla di singolarit\u00e0 tecnologica, \u00e8 quando l&#8217;AI va a rielaborare il codice dell&#8217;intelligenza vera e propria. Questo vorrebbe dire che l&#8217;agente modifica non solo il codice sorgente dell&#8217;agente, ma anche il foundation model che sta alla base di tutto, come GPT-4, Claude o Llama.<\/p>\n\n\n\n<p>David: Permettere ai sistemi di interfacciarsi con il mondo, di essere autonomi eseguendo azioni, di avere accesso al proprio codice sorgente per migliorarlo, traccia dei passaggi in una direzione netta che rappresenta il sogno di alcuni e l&#8217;incubo di altri in questo rapidissimo momento di sviluppo.<\/p>\n\n\n\n<p>Matteo: Esatto, questo \u00e8 uno degli approcci. Poi c&#8217;\u00e8 anche l&#8217;approccio di usare diversi agenti collaborativi in un sistema complesso, dove hai pi\u00f9 agenti che lavorano insieme. Il nostro software usa una forma primitiva di questo, che negli anni a venire diventer\u00e0 un campo molto importante. Non si sa ancora che direzione prender\u00e0, siamo ancora agli inizi, ma sembra una cosa molto interessante su cui molta gente sta lavorando.<\/p>\n\n\n\n<p>David: Faccio vedere un esempio di swarm di agenti basato su questa library. Cosa ne pensi?<\/p>\n\n\n\n<p>Matteo: L&#8217;idea \u00e8 interessante, ma il problema \u00e8 che nessuno ci sta lavorando, \u00e8 stata praticamente abbandonata. Ce ne sono altre su cui si sta lavorando attivamente. Uno dei pi\u00f9 importanti \u00e8 Autogen di Microsoft. Poi ce ne sono alcuni pi\u00f9 piccoli molto interessanti. \u00c8 tutto ancora molto sperimentale, non c&#8217;\u00e8 nulla di pratico, ma piano piano, avendo foundation model pi\u00f9 potenti e costi ridotti, si avr\u00e0 sicuramente qualcosa di molto interessante su questo fronte.<\/p>\n\n\n\n<p>David: Hai menzionato che il tuo sistema rappresenta una riduzione dei costi di circa 20 volte rispetto ad un operatore umano. Periodicamente OpenAI ed altri abbassano drasticamente i costi. Ieri \u00e8 stato annunciato un calo del 50% per gli sviluppatori. Sta andando in una direzione tale che avremo una super abbondanza di intelligenza da gestire. Gli agenti che si coordinano tra loro ed eventualmente strutturati in modo gerarchico assicureranno che questa sovrabbondanza venga distillata fino al punto in cui sono sicuri di poter dar corso ad un&#8217;azione con gli effetti desiderati, oppure far sapere all&#8217;operatore umano che pu\u00f2 ignorare percorsi improduttivi per concentrarsi su una decisione o conferma opportuna.&nbsp;<\/p>\n\n\n\n<p>Matteo: Hai sollevato un punto interessante sulla gerarchia di questi sistemi multi-agente che sono ancora in fase di ricerca, quindi non si sa ancora che direzione prenderanno. Avevamo parlato una volta di come anche un sistema decentralizzato di decisione sarebbe interessante, quasi una repubblica di agenti. Anche questo pu\u00f2 essere molto interessante da esplorare.<\/p>\n\n\n\n<p>David: Grazie per essere stato con noi.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Mi sono incontrato con Matteo Fabro, un innovatore dell&#8217;AI con la missione di rivoluzionare la ricerca e l&#8217;analisi finanziaria. Con lauree in Economia e Finanza Internazionale presso l&#8217;Universit\u00e0 Bocconi e in Musica presso il Conservatorio di Musica C. Pollini, Matteo porta una combinazione unica di competenze tecniche e pensiero creativo. Ha una ampia esperienza nello [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":10466,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"om_disable_all_campaigns":false,"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"set","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[3933,920],"tags":[],"class_list":["post-10472","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-intelligenza-artificiale","category-tecnologia"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/posts\/10472","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/comments?post=10472"}],"version-history":[{"count":1,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/posts\/10472\/revisions"}],"predecessor-version":[{"id":10473,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/posts\/10472\/revisions\/10473"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/media\/10466"}],"wp:attachment":[{"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/media?parent=10472"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/categories?post=10472"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/davidorban.com\/it\/wp-json\/wp\/v2\/tags?post=10472"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}