Coscienza quantistica nell’IA e nei robot: Una conversazione con Suzanne Gildert

L’IA e la robotica stanno progredendo rapidamente, sebbene molti si aspettassero che la robotica avanzasse più velocemente oltre le applicazioni industriali, nelle nostre case e nel mondo in generale. Man mano che i robot basati sull’IA diventano sempre più sofisticati e capaci, ci chiediamo periodicamente se siano coscienti.

La coscienza può essere interpretata in molti modi. Nella sua forma più ricca, comprende le esperienze interiori che definiscono cosa significhi essere una persona—le emozioni e le reazioni che proviamo quando interagiamo con il mondo. In un altro senso, la coscienza è alla base delle nostre decisioni, dandoci un senso di scopo sia in generale che nelle nostre azioni quotidiane. Possediamo anche una profonda comprensione intuitiva del nostro ambiente, sia naturale che artificiale, che ci permette di crescere, imparare e adattarci.

Suzanne Gildert introduce due componenti affascinanti a questo ricco insieme di temi. Innanzitutto, propone che senza raggiungere almeno un certo grado di coscienza, le IA e i robot non saranno in grado di svilupparsi pienamente e agire in modo affidabile nel nostro complesso mondo con l’adattabilità intuitiva che desideriamo. In secondo luogo, suggerisce che il modo più veloce e semplice per costruire la coscienza nei robot e testarla scientificamente è attraverso un approccio derivato dal calcolo quantistico.

La sua ricerca è scientifica in quanto è verificabile, sebbene spinga certamente i confini della scienza consolidata. Il suo approccio abbraccia elementi—in particolare le spiegazioni quantistiche della coscienza umana—che sono condivisi da pochissimi ricercatori. Tuttavia, applaudo il suo desiderio di costruire, persistere e condurre esperimenti che alla fine dimostreranno o confuteranno le sue ipotesi.

Quella che segue è una conversazione che abbiamo avuto su questi argomenti, che potete guardare come video o leggere in forma di trascrizione qui sotto.

David: Oggi esamineremo alcune entusiasmanti scienze di frontiera, ai limiti di ciò che possiamo descrivere, di ciò su cui possiamo costruire teorie e di ciò che, speriamo, attraverso la sperimentazione falsificabile, possiamo dimostrare che funzioni o, eventualmente, non funzioni, per poi incorporare quella conoscenza nel modo in cui facciamo progredire la nostra comprensione del mondo.

Le varie aree interconnesse in modo interdisciplinare nell’esperienza passata e nell’attività attuale della nostra ospite di oggi sono ognuna molto interessante ed eccitante a modo suo. Si tratta dei campi dell’intelligenza artificiale e della robotica, del calcolo quantistico (quantum computing) e degli studi sulla coscienza. Suzanne Gildert, Fondatrice e CEO di Nirvanic, che è nostra ospite, le considera appartenenti allo stesso ombrello, come necessarie l’una all’altra per sbloccare progressi fondamentali in queste discipline. Suzanne, benvenuta a Searching for the Question Live.

Suzanne: Ciao, David. Grazie per avermi invitata. È una grande opportunità ed è bello rivederti dopo così tanti anni.

David: Ci siamo incontrati originariamente in Svizzera alla conferenza AGI (Artificial General Intelligence), organizzata da Ben Goertzel. Facevo anch’io parte del comitato organizzatore quell’anno. All’epoca vivevi ancora nel continente europeo, e poi ti sei trasferita. Quindi, parlaci della tua traiettoria, degli sviluppi professionali in questi anni prima di parlare di Nirvanic.

Suzanne: Ho avuto una sorta di carriera circolare. Penso che quando ci siamo incontrati per la prima volta, lavorassi ancora nel calcolo quantistico come ricercatrice. E subito dopo, ho lasciato il Regno Unito, mi sono trasferita in Canada e sono entrata in un’azienda chiamata D-Wave che stava costruendo il primo computer quantistico commerciale al mondo, il che è piuttosto eccitante. Quindi ci ho lavorato per un po’, facendo fisica sperimentale e programmando il computer quantistico. E poi ho preso quella che sembrava una svolta a sinistra verso la robotica e l’IA.

Così ho fondato due aziende di robotica e IA, e uno dei motivi era che all’epoca sentivo che i computer quantistici non erano abbastanza maturi. Quindi, sebbene trovassi super interessante lavorare sui dispositivi e sull’elettronica, semplicemente non venivano ancora applicati ad applicazioni nel mondo reale. Così ho deciso di prendermi una piccola pausa dal calcolo quantistico per un po’ e mi sono immersa davvero nello spazio dell’IA proprio mentre la rivoluzione del deep learning stava iniziando ad accadere. Quindi è stato davvero eccitante.

E poi ho lavorato presso Kindred AI per circa quattro anni, e poi ho fondato Sanctuary AI. Stavamo cercando di utilizzare robot umanoidi general-purpose per cercare di risolvere compiti per affrontare le carenze nel mercato del lavoro, e questo ha avuto molto successo. Entrambe le aziende hanno avuto molto successo. Sanctuary continua ancora oggi. Ma ho lasciato per concentrarmi un po’ di più su quello che penso sia un pezzo mancante nell’IA, che è capire veramente cos’è la coscienza. Quindi, che tu sia d’accordo o meno sul fatto che l’IA debba essere cosciente, penso che dobbiamo capire cos’è, così sapremo se l’IA diventerà semplicemente cosciente o se dovremo fare qualcosa di speciale per renderla cosciente.

David: Ognuno di questi campi meriterebbe non una, ma molte ore di conversazioni. Potrei seguire o meno la tua guida in questo, ma se fossi al mio posto, come li metteresti uno dopo l’altro? Esiste una sequenza ideale nella pila di idee che bisogna essere in grado di afferrare e sviscerare per comprendere la direzione della tua ricerca e sperimentazione?

Suzanne: Cominciamo con ciò che è accaduto nell’IA e nella robotica negli ultimi, diciamo, 10 anni. Abbiamo assistito a questa incredibile ascesa dell’IA. Abbiamo visto modelli linguistici, modelli linguistici di grandi dimensioni (LLM) realizzarsi e superare le nostre più rosee aspettative. E per questo motivo, le persone stanno ora cercando di applicare le stesse tecniche che abbiamo usato nei modelli linguistici all’IA nel mondo fisico. Quindi stiamo cercando di prendere questi LLM e applicarli ai robot e fare in modo che i robot, invece di prevedere il prossimo token di testo in una sequenza, prevedano il prossimo movimento o la prossima azione.

Quindi questo è un campo davvero interessante e sta andando avanti, sta migliorando, sta progredendo e ci sono molti progressi interessanti in corso. Ma c’è questa domanda: un robot fisico nel mondo fisico che cerca di imparare a svolgere compiti è fondamentalmente diverso da un modello linguistico che prevede solo testo? Io penso di sì, e credo che provando a costruire questi modelli fisici di robot IA, si inizi a realizzare cosa potrebbe mancare all’IA che stiamo esaminando oggi. E penso che la coscienza sia un grosso pezzo mancante in questo.

Quindi, affinché qualcosa come ChatGPT funzioni e faccia tutto ciò di cui i suoi utenti o clienti hanno bisogno, non credo debba essere cosciente. Ma quando provi ad applicare quelle tecniche ora a un robot fisico nel mondo fisico che non ha mai visto prima l’ambiente in cui si trova, penso effettivamente che sia necessaria la coscienza affinché quel robot sia in grado di far fronte, imparare cose nuove e gestire situazioni inaspettate. Quindi vediamo questa configurazione molto diversa quando si ha l’IA usata solo per il testo e forse un po’ di immagini e video e cose del genere, rispetto a quando è effettivamente incarnata nel mondo reale.

Quindi penso che l’ordine migliore per sviscerare queste cose sia iniziare con: cosa manca all’IA quando proviamo ad applicarla alla robotica? E poi, dove entra in gioco la coscienza? E infine, perché il quantistico potrebbe aiutare in questo?

David: Un commentatore chiede: Ciò che stai dicendo è applicabile o utile solo per i robot umanoidi? Oppure, se crediamo sia giusto chiamare un’auto Tesla a guida autonoma un robot su ruote, dovrebbe essere cosciente anche quella?

Suzanne: Questa è un’ottima domanda. Non penso si applichi solo ai robot umanoidi, ma penso che la coscienza si applichi a quelli che chiamerei robot general-purpose. Quindi robot che devono imparare nuovi compiti al volo, che devono essere là fuori nel mondo a fare cose nuove. Ad esempio, un robot in una fabbrica che svolge il compito di pick-and-place non ha davvero bisogno di coscienza, perché sta facendo lo stesso compito più e più volte. Puoi semplicemente addestrarlo e poi, se le condizioni non variano mai, quel robot sarà semplicemente in grado di svolgere il compito perfettamente, quindi potresti dire che non c’è assolutamente bisogno di coscienza lì.

Ma in un robot che deve affrontare situazioni insolite o deve imparare un nuovo compito, allora penso che la coscienza sia necessaria. Quindi quest’idea: un’auto a guida autonoma deve essere cosciente? Se ha visto abbastanza dati di addestramento per svolgere perfettamente il suo lavoro di guida autonoma, allora no. Ma è interessante notare che la guida autonoma ha ancora questi casi limite (edge case), queste modalità di fallimento. Quindi direi, forse potrebbe aver bisogno di un po’ di coscienza, o di alcune volte in cui è necessario attivare la coscienza in modo che possa gestire una situazione inaspettata e poi disattivarla di nuovo. Quindi c’è questo spettro di quanto spesso hai bisogno di ricorrere alla coscienza per risolvere il tuo problema rispetto al semplice affidarsi ai dati di addestramento precedentemente appresi.

David: A volte, sfortunatamente, nella nostra comunicazione umana, approfittiamo di una presunta familiarità con una certa terminologia e poi impreghiamo quel termine con ciò che ci aspettiamo significhi l’uno dall’altro e saltiamo a determinate conclusioni. Penso che la coscienza sia uno di questi termini, talmente ricco e importante che è utile forse non mirare a definirlo, ma accordarsi un po’ meglio su quale sia il contesto particolare in cui stiamo usando il termine e quali siano le implicazioni che crediamo dovrebbero essere discusse, e poi forse altre in un altro momento. Quindi, in tal senso, cosa intendi per coscienza, prima negli umani, forse in altri animali o altre cose più in generale, se ce l’hanno o no, e perché? E poi possiamo tornare ai robot e al perché sarebbe meglio che l’avessero anche loro.

Suzanne: Penso che la coscienza sia espressa al meglio in questo schema “cosa, perché, come”. Quindi se guardiamo al cosa, penso che tutti sappiano cos’è. Tutti hanno familiarità con la coscienza perché è ciò che sperimentiamo ogni momento della giornata. Siamo coscienti. Siamo dentro la nostra esperienza cosciente, come se fossimo in un mondo VR o qualcosa del genere. Quindi tutti hanno familiarità con la coscienza a quel livello.

Ma poi quando si arriva alle altre due parti, il perché e il come, è lì che diventa davvero difficile. Quindi il perché è: perché ce l’abbiamo? A cosa serve? Qual è il suo scopo? Quindi sappiamo più o meno cos’è, ma non sappiamo a cosa serve. E io propongo, e molti altri hanno detto più o meno la stessa cosa, che la coscienza sia un modo per permetterci di prendere decisioni intuitive quando potremmo non aver mai visto una situazione prima, potremmo non essere in grado di fare affidamento su esempi di addestramento precedenti che abbiamo avuto.

Quindi mi piace usare l’esempio della guida. Se guidi da 20 anni e stai percorrendo l’autostrada con la tua auto, puoi praticamente spegnere il cervello e distrarti e non sei nemmeno più veramente cosciente di guidare. Ma poi se succede qualcosa di strano, improvvisamente ti riattivi, diventi consapevole, diventi di nuovo cosciente della guida. E il motivo è perché ora devi affrontare una situazione che non hai mai visto prima, a cui non sei abituato. Non è diventata semplicemente memoria muscolare. Quindi penso che la coscienza serva per affrontare situazioni che non sono mai accadute prima o con cui non abbiamo familiarità, o quando dobbiamo imparare qualcosa di nuovo al volo.

Questo è ciò a cui penso serva. E poi il come è ora la parte ancora più complicata. Quindi è lì che si arriva all'”ok, sappiamo cos’è, sappiamo perché ce l’abbiamo ora. Come funziona? Come funziona nel nostro cervello, e come potrebbe funzionare nell’IA o nella coscienza artificiale?”. Ed è qui che ora diventa super complicato, e io sono una fan del partire dall’ipotesi della coscienza quantistica, perché penso che, sebbene sembri una delle teorie più strane sulla coscienza tra tutte, in realtà penso sia la più facile da testare.

David: Il problema difficile della coscienza è esattamente la sua non testabilità, oggettivamente. Tutti noi abbiamo l’esperienza soggettiva della coscienza, ma almeno fino ad ora, non siamo stati in grado di dire se qualcuno sia cosciente o meno, tranne in certe situazioni in cui l’anestesia o il coma, o altre condizioni limite in un essere umano sono un buon correlato per assumere che anche i loro stati interni non portino a un’esperienza interna cosciente, giusto? Questo è il motivo per cui siamo felici di operare persone sotto anestesia perché non urlano. Sono molto disciplinate sul letto operatorio. E almeno non ricordano di essere state operate quando emergono dall’anestesia. E sono sicuro, non guardo film horror, ma sono sicuro che ce ne sono stati molti che presumevano che tu percepisca ancora sotto anestesia. Quindi dicci come stai collegando i fenomeni quantistici alla coscienza. E cosa credi li renda testabili?

Suzanne: Per iniziare da un punto più meta, l’idea del progetto Nirvanic a cui sto lavorando è cercare di capire cos’è la coscienza e cercare di capire come potremmo inserirla nell’IA. Quindi il punto è, ok, devi iniziare da qualche parte, e devi avere una teoria della coscienza per poterla testare. Molto tempo fa, decenni fa, ho sentito parlare di questa teoria della coscienza quantistica, o ipotesi, da Stuart Hameroff e Roger Penrose. E il loro pensiero era che ci sono effetti quantistici che avvengono effettivamente all’interno del nostro cervello che ci danno la capacità di risolvere problemi intuitivamente, in un modo che un programma per computer non potrebbe risolverli.

Quindi quello fu il contributo di Penrose. E poi Hameroff disse che il modo in cui questo potrebbe effettivamente accadere all’interno del cervello è tramite queste strutture chiamate microtubuli. Quindi ha contribuito lui alla parte biologica, o neuro, la neuroscienza, da una prospettiva anestesiologica. Quindi all’epoca pensavo fosse una teoria interessante, ma l’avevo respinta, essendo molto formata sui vecchi modi di pensare alla meccanica quantistica e al cervello. Ma recentemente l’ho rivisitata.

E il motivo è che penso che se vuoi capire la coscienza, devi avere una teoria e testare le teorie una per una. E la cosa interessante della coscienza quantistica è che puoi effettivamente creare uno scenario A B in cui hai un sistema che prende decisioni nel mondo, come un sistema robotico che prende decisioni usando un computer classico, e puoi avere lo stesso robot che ora prende decisioni usando un computer quantistico. E se puoi dimostrare che questi due robot si comportano in modo diverso, allora stai dimostrando che il sistema quantistico sta effettivamente facendo qualcosa che il sistema classico non fa. E questo è davvero l’unico modo di cui ho sentito parlare per poter testare una teoria della coscienza praticamente usando un robot o un sistema di IA.

Quindi, con tutte le altre teorie della coscienza, non puoi davvero costruire una versione IA con la coscienza e una versione IA senza la coscienza, e testarle l’una contro l’altra. Ma con l’idea della coscienza quantistica, puoi. Voglio capire cos’è la coscienza. Voglio iniziare ottenendo prove a favore o escludendo prima la parte quantistica. E poi diciamo che non troviamo alcuna prova, allora almeno possiamo escluderla. E passare ad altre teorie. Ma dovremmo iniziare con la cosa più facile da testare. E penso che l’ipotesi quantistica sia la più facile.

David: Ci sono diversi livelli di virgolette attorno a quella parte “facile”, giusto? Perché sarà comunque piuttosto complicato. Quindi, quando hai parlato di computer quantistici e della tua esperienza con essi presso D-Wave, hai detto che uno dei motivi per cui hai lasciato il campo è perché non erano abbastanza maturi. Nirvanic, perseguendo il suo progetto in cui i robot quantistici possono essere testati per essere coscienti e concludere che, sì, lo sono o non lo sono, presuppone che ora le tecnologie quantistiche siano abbastanza mature. È questo che hai concluso? È questo che credi ora? O ci vorranno ancora alcuni anni prima che tu possa prendere ciò di cui hai bisogno e metterlo in un robot?

Suzanne: Sì, si fa l’ipotesi che i sistemi che abbiamo siano sia abbastanza grandi – come la loro scala, ci sono abbastanza qubit – sia che i qubit stessi siano corretti dagli errori, o che il livello di rumore sia abbastanza basso affinché gli effetti quantistici siano effettivamente utili al calcolo che stai cercando di fare. Quindi quelle ipotesi, sì, le sto facendo.

In realtà penso che siamo nel regime in cui i computer quantistici sono abbastanza potenti da vedere l’effetto di cui sto parlando. Ma potrebbero non essere ancora abbastanza grandi da poterlo scalare al livello necessario in qualcosa come un robot umanoide. Quindi certamente non penso che i computer quantistici che abbiamo oggi permetteranno una simulazione completa della coscienza simile a quella umana. Semplicemente non penso che siamo ancora arrivati a quel punto, ma penso che potremmo dimostrare che la coscienza sta aiutando un robot a prendere alcune decisioni leggermente meglio. E possiamo effettivamente incorporarlo in un algoritmo di machine learning e mostrare che c’è un miglioramento nel tasso di apprendimento.

Quello che penso accadrà a quel punto è che se riusciamo a ottenere questa, quella che chiamo questa scintilla di vita, questa firma che c’è qualcosa lì e sta migliorando l’apprendimento, sta aiutando il robot, penso che ci saranno molti più investimenti nel calcolo quantistico, perché questa è un’incredibile applicazione “proiettile magico” (Magic Bullet app) per i computer quantistici se si scopre che stanno facendo imparare i sistemi di machine learning più velocemente, meglio, rendendoli intuitivi, più sicuri. Allora i computer quantistici inizieranno a diventare più grandi, molto più velocemente.

David: Quando l’ultima ondata di entusiasmo attorno all’IA è iniziata più di 10 anni fa, le persone si sono rese conto che con grandi quantità di dati, hardware specializzato molto veloce e algoritmi sempre più intelligenti, potevano effettivamente realizzare ciò che era stato intuito ma non poteva funzionare prima. Ci sono state molte, molte applicazioni, ma solo per citarne un paio, la classificazione delle immagini e l’elaborazione del linguaggio naturale sono state per decenni parte di un sogno: Oh, se solo i computer potessero distinguere un gatto da un cane, o se solo potessi avere una conversazione con i computer su un libro o sul mio prossimo progetto. Ed entrambe queste cose sono ora possibili.

Molti anni fa, persone, persino esperti, attribuivano esplicitamente a quella capacità la presenza, la prova della presenza di funzioni superiori. Ed eccoci qui. Se chiedi solo a una frazione delle centinaia di milioni di persone che usano ChatGPT, pochissime diranno: “Oh, sì, credo che la cosa nel mio telefono sia cosciente”. Pochissime salteranno a quella conclusione.

Abbiamo scoperto a posteriori che ci va benissimo usare il vantaggio di quei risultati senza dover pretendere nulla di più se non che l’approccio e i risultati siano correlati a quelle funzioni superiori, ma non rappresentino alcun tipo di prova. È possibile che tu e altre persone che lavorano all’intersezione tra quantistica, robot, coscienza e sistemi di IA sempre più performanti, come ad esempio un robot domestico che prenderà una decisione intuitiva e salverà il bambino perché c’è un incendio o, sai, qualsiasi scenario? Dopo essere stati immersi in un mondo trasformato dall’esperienza quotidiana di questi sistemi, robot potenziati quantisticamente che sono molto migliori di prima e trasformano in realtà cose che potevamo solo sognare, concluderemo di nuovo: sì, è correlato a ciò che chiamiamo coscienza, ma non prova che sia cosciente? E a quel punto, se così fosse, quale sarebbe la tua reazione?

Suzanne: È una sorta di test per la coscienza: quale sarebbe il vero test per la coscienza che mi convincerebbe che un sistema è cosciente rispetto a uno che non lo è, anche se non potessi, diciamo, guardare dentro la sua mente e vedere che ha l’esperienza soggettiva, perché non avremo questa possibilità presto.

Quindi il problema dell’essere un ricercatore sulla coscienza è che non puoi sapere se un sistema sta avendo un’esperienza interiore. Semplicemente non puoi. Tipo, io non so se tu ne stai avendo una. Presumo di sì, ma potresti non averla, giusto? Quindi c’è sempre stato questo problema nella ricerca sulla coscienza: non possiamo raggiungere e toccare quello stato interiore, o accedere a quello stato interiore. Quindi dobbiamo guardare a quelli che vengono chiamati correlati comportamentali, o dobbiamo guardare a ciò che il sistema sta facendo nel mondo e da ciò dedurre che è cosciente.

In realtà mi è piaciuto il tuo esempio, anche se è un po’ macabro, di salvare il bambino dall’incendio. Quindi immagina di avere un robot domestico, addestrato su milioni e milioni di esempi di lavare i piatti, togliere il bucato dalla lavatrice, mettere le tazze nell’armadietto, giusto? E potrebbe fare tutto ciò. Se c’è un bambino e la casa va a fuoco, e non gli sono stati mostrati un milione di esempi di addestramento su come salvare bambini da una casa in fiamme, non lo farà. Non sarà in grado di farlo.

Quindi la differenza, penso, tra un sistema cosciente e quello che chiamo sistema inconscio – sebbene alcune persone lo chiamino subconscio o cose del genere – è che sarà in grado di fare cose su cui non è stato addestrato. E ancora, questo è un argomento un po’ scivoloso: cosa significa non essere stato addestrato su qualcosa? Perché questi modelli possono generalizzare un po’. Ma penso che vedrai questa incapacità di generalizzare in modo ampio da ciò che ha visto prima, per fare qualcosa su cui non è mai stato addestrato.

Ho parlato molto online con le persone di questo e discusso avanti e indietro. Penso che il vero test per la coscienza sia: può imparare come un bambino? Può esplorare il suo mondo in un modo in cui rimane al sicuro e non si ferisce? Può imparare sul mondo da zero senza ricevere dati di addestramento e senza ricevere una funzione di ricompensa specifica? Se può, allora penso che sia un buon test per la coscienza.

David: Google ha posseduto per un periodo Boston Dynamics, se non erro. E l’hanno venduta, ed è stata comprata e venduta così tante volte, e sta ancora sopravvivendo. Ma se l’avessero tenuta e DeepMind ci avesse messo le mani sopra in qualche modo, allora oggi potremmo avere la serie di approcci sempre più astratti nell’hardware, nell’hardware di apprendimento che abbiamo visto nella sequenza, passando da AlphaGo a – non ricordo tutti i nomi delle varianti – AlphaZero e poi persino MuZero, dove AlphaGo è stato addestrato su un database di persone che giocavano a Go. AlphaZero ha imparato tutto da zero solo con self-learning e self-play. E MuZero è stato in grado di generalizzare questa capacità di apprendimento da zero a una serie di giochi con regole completamente diverse e raggiungere comunque prestazioni sovrumane molto rapidamente, battendo sia i giocatori umani sia ogni altro giocatore computerizzato in tutti quei giochi. E quindi, quello che stai dicendo è che se fosse stato così e DeepMind avesse applicato questo tipo di approccio ai loro robot, non sarebbero stati in grado di raggiungere quel livello di generalizzazione perché il modulo quantistico che dava coscienza ai robot non c’era?

Suzanne: Il motivo per cui il self-learning e la generalizzazione funzionano nei giochi è perché in un gioco la funzione di ricompensa, o semplicemente pensala come il punteggio, è ben definita. Quindi se sto giocando a Go o a scacchi o a un videogioco, c’è un modo facile per capire se sto vincendo o no. Quindi ciò che accade in questi sistemi di self-learning è che effettivamente – so che sto semplificando qui, e mi scuso con tutte le persone del reinforcement learning là fuori – ma il modo in cui funziona fondamentalmente è che provano cose a caso, e se il punteggio sale, fanno semplicemente di più della cosa che funziona, giusto?

Quindi è così che funziona tutto il reinforcement learning. Devi avere un punteggio ben definito, e poi provi semplicemente cose a caso. E nel tempo, provi sempre meno cose a caso e finisci semplicemente per fare così, capendo la cosa che funziona e poi attenendoti a quella. E occasionalmente, provi un paio di altre cose a caso, solo per assicurarti che non ci sia qualcosa di meglio che potresti fare.

Ma quindi questo funziona brillantemente nei giochi, e funziona in qualsiasi cosa in cui puoi sapere esattamente quale deve essere il risultato che desideri. Ma in un robot, specialmente un robot general-purpose, è molto difficile. Quindi provi a scrivere un sistema di punteggio per tutto ciò che un robot deve fare in casa, è in realtà molto difficile perché, in primo luogo, devi capire se hai effettivamente svolto il compito o no. Quindi, hai aspirato correttamente tutta la polvere? Tutte le tazze sono correttamente nell’armadietto? Tutto sembra pulito? Anche solo definire cosa significa che le cose siano pulite è molto difficile.

E quindi non è che il reinforcement learning e il self-learning in sé non funzionino. Funzionano molto bene quando puoi definire il punteggio o la cosa che stai effettivamente cercando di ottenere. Ma se dici semplicemente: “assicurati che la mia casa sia sempre ordinata”, diventa estremamente difficile scriverlo in un programma per computer. Finisci semplicemente per non essere in grado di scrivere cosa significa che quella situazione in quello stato sia soddisfatta. Quindi è lì che diventa molto difficile nel mondo fisico.

David: Il campo della meccanica quantistica e le sue applicazioni sono affascinanti, ma anche pieni di molti malintesi ed equivoci, tanto quanto e più della relatività e di altre teorie sul mondo che in realtà abbiamo dimostrato. Uno dei miei modi preferiti per parlare di meccanica quantistica è dire che in realtà l’elettrodinamica quantistica è la teoria scientifica che è stata dimostrata corretta al più alto grado di precisione se conti le cifre significative nei risultati del particolare esperimento. Quindi sappiamo che possiamo lavorarci incredibilmente bene da un punto di vista matematico, da un punto di vista ingegneristico.

Ma abbiamo davvero un problema nel metterci d’accordo sulle sue implicazioni filosofiche. E ci sono ancora molti modi di interpretare cosa significano certe cose nella meccanica quantistica, come, ad esempio, il dualismo onda-particella e il collasso della funzione d’onda e cose del genere. Perché pensi che sarà facile incorporare nei tuoi robot l’unità quantistica che dipenderà da un’ingegneria precisa, ma poi l’interpretazione dell’implicazione è ancora completamente aperta? E le persone non sono d’accordo su quali siano quelle interpretazioni. Ti stai mettendo in una situazione molto delicata e difficile sostenendo che questa sia la strada da percorrere.

Suzanne: Questa è quella che chiamo la scappatoia (loophole) nella meccanica quantistica che permette a cose come la coscienza quantistica di essere possibili. Quindi, di nuovo, sto cercando di essere scientifica al riguardo. E quindi potresti dire: beh, dove c’è spazio per la coscienza nella teoria quantistica? Non è la teoria quantistica il miglior modello che abbiamo per la fisica? Non è la teoria meglio testata? Non la capiamo completamente?

La risposta è no, perché ci sono cose come il problema della misurazione, dove – e di nuovo, questo dipende molto dalla tua interpretazione della meccanica quantistica – quindi se sei un sostenitore dei molti mondi, allora non c’è problema della misurazione, quindi non devi preoccupartene. Ma se, come me, non sei una fan dei molti mondi, e credi invece che questo processo di collasso avvenga effettivamente – quindi c’è questa cosa chiamata funzione d’onda, e collassa effettivamente, e poi seleziona una realtà classica da un insieme di possibilità – se credi questo, allora devi concordare che non capiamo veramente come funziona quel processo di collasso, o se sia veramente casuale.

Quindi è qui che si trova la scappatoia, e so che è come un tiro lungo ed è una forzatura, ma non abbiamo ancora testato abbastanza i sistemi quantistici per sapere se quel processo di selezione sia effettivamente casuale. Quindi l’ipotesi della coscienza quantistica si basa sulla premessa che forse non lo è. Quindi quando un sistema quantistico collassa, forse il modo in cui pensiamo scelga non è ciò che sta realmente accadendo. Questo significherebbe che la meccanica quantistica è incompleta.

E quello che penso stia accadendo è che i sistemi quantistici che abbiamo studiato finora sembravano tutti selezionare casualmente un risultato perché non erano stati preparati nel modo giusto. Quindi prendiamo un sistema quantistico in laboratorio e lo isoliamo dall’ambiente, e poi lo sondiamo, ne evolviamo lo stato e poi lo misuriamo. Ma questo è molto diverso da un sistema quantistico, diciamo, in natura o in biologia, dove è effettivamente connesso a qualcosa in cui la sua decisione o la sua scelta conta.

Quindi l’idea della coscienza quantistica è che non la vedrai in laboratorio nel modo in cui stiamo studiando ora i sistemi quantistici perché li hai in qualche modo tolti dal loro ambiente naturale; non stai permettendo loro di fare ciò che vogliono fare naturalmente, cioè collassare, scegliere una realtà, e poi quella realtà conta effettivamente per una decisione che sta accadendo nel mondo. Quindi, penso che collegando i sistemi quantistici ai robot, inizieremo a vedere come rendere questa decisione effettivamente importante, e quando inizieremo a vederlo, la previsione di questa teoria è che quella cosa che sembra casuale non sarà più casuale. Sarà orientata (biased) verso certe realtà scelte più spesso di altre.

Ora, questo sarebbe un incredibile passo avanti; sarebbe una sorta di radicale addendum alla teoria quantistica attuale, ma non è stato ancora provato o smentito. Quindi questo è, se vuoi entrare nel tecnico, la cosa che mi interessa di più testare: è quella specifica scappatoia?

David: Daniel Dennett, scomparso di recente, era ed è uno dei miei filosofi preferiti, perché, contrariamente a troppi, non sceglieva di nascondersi dietro le parole. Mirava a rendere le sue idee accessibili. E uno dei libri che ha scritto che mi è piaciuto di più si intitola Freedom Evolves. (Suzanne: Sì.) Dove affermava effettivamente che il libero arbitrio è un fenomeno emergente e che, in effetti, possiamo plasmare il mondo attraverso le nostre scelte. E non ricordo esattamente come evitò la sua stessa trappola, in cui era felice di accusare altri di applicare quello che chiamava lo “Sky crane”, che avrebbe spostato qualche effetto esterno nel mondo, e come concluse effettivamente che questo libero arbitrio, istituito in una realtà fisica, non rappresentava una componente magica. Ma è una visione del mondo molto, molto attraente, almeno per coloro che credono che il libero arbitrio non sia solo un’illusione utile, ma che sia necessario per lo scopo umano nei tipi di scelte che dici plasmano il mondo e hanno conseguenze e hanno un’importanza. (Suzanne: Esatto.) Una delle mie curiosità è decisamente questa. Molte tecnologie in passato e anche oggi sono specchi o telescopi, microscopi che possiamo puntare ovunque vogliamo, ma spesso anche verso noi stessi. E l’applicazione, e l’interessante potenziale per i tipi di esplorazione che stai facendo è che finiremo per capire meglio cosa significa essere un essere umano cosciente. E quindi saresti d’accordo che, se il tuo esperimento non riesce a dimostrare che i tuoi robot quantistici diventeranno coscienti in una certa misura, e poi continui a provare e non succede mai, non sarai mai convinta che lo siano, che la conclusione potrebbe essere che non lo siamo nemmeno noi, che etichettarci come coscienti sia un’illusione utile?

Suzanne: Hai assolutamente ragione che questo è un esperimento, ed è una di queste cose fastidiose. Penso si chiami evento Cigno Nero, dove non sai mai che un cigno nero non esiste finché non ne trovi uno. Quindi puoi continuare a cercare e cercare, e cercare per sempre. E ad un certo punto, devi semplicemente interrompere la ricerca e dire: “Guarda, non troveremo questa cosa”. E questa è la difficoltà di essere uno scienziato: se stai cercando di ottenere un risultato positivo, e continui a ottenere risultati negativi e risultati negativi, è come dire: “beh, il mio esperimento non è impostato correttamente, o le variabili sono impostate male, o l’effetto non c’è davvero?”. Quindi è difficile essere uno scienziato.

Il modo in cui penso a questo in termini di robotica quantistica è, penso che possiamo portare il campo della robotica quantistica abbastanza lontano da iniziare questo processo di ricerca, iniziare questo processo di test. Ma diciamo che stiamo facendo questo da circa due anni e abbiamo messo tutti i computer quantistici del mondo intero a lavorare su questo compito, e li abbiamo in qualche modo sfruttati al massimo e provato ogni combinazione di variabili a cui potevamo pensare, e non vediamo ancora alcun effetto. Penso che a quel punto, non inizierei a pensare: “Oh, la coscienza deve essere un’illusione”. Direi piuttosto: “Beh, deve esserci qualcosa che accade nella nostra biologia che non stiamo ancora replicando nei computer quantistici”.

Quindi quello che farei a quel punto è passare a un tema più biologico e dire: “Ok. Abbiamo provato a simulare questo usando i computer quantistici di oggi, ma non ci siamo riusciti. Torniamo alla biologia e proviamo a capire dove esattamente questi effetti quantistici stanno accadendo”. E quindi potresti dire: “beh, perché non farlo prima?”. Beh, la biologia è estremamente complicata. E penso che se riesci a trovare questo effetto nei computer quantistici oggi, sarà molto più facile controllare le variabili e programmarli e testarlo e cambiare le cose di quanto lo sarebbe provare a farlo in biologia. Ma se ciò non funziona, allora la biologia è il piano B.

Quindi quello che proverei a fare allora è cercare questa coscienza nella biologia. E in realtà, alcuni altri gruppi in tutto il mondo lo stanno già facendo. Ci sono gruppi che studiano i microtubuli. Ci sono gruppi che studiano tecnologie come la crescita di neuroni su chip. Ci sono gruppi che anestetizzano i neuroni per cercare di capire cosa stanno facendo. Quindi, sai, c’è un percorso diverso lì. E uno dei motivi per cui ho deciso di non farlo è perché penso: “beh, nessuno sta provando questo approccio del calcolo quantistico. Facciamolo in parallelo”.

David: Un commentatore dice che curiosità è una parola che gli piace applicare a questo tipo di comportamento. E in realtà, risuona un po’ con me quando dice: beh, alcune persone non sono curiose; potrebbe significare che sono meno coscienti? E poi conclude, dicendo che avere un robot curioso gli dà una maggiore tranquillità mentale rispetto ad avere un robot cosciente.

Hai menzionato all’inizio che i tuoi robot quantistici potrebbero essere coscienti o curiosi, ma non in misura eccessiva. Abbiamo visto, ed è ancora una questione aperta, che è molto difficile fermarsi una volta che si inizia un percorso per fornire risultati sempre crescenti. I professionisti dell’IA sono registrati negli ultimi, diciamo, cinque, sei anni, dicendo: “Oh sì, sappiamo che la nostra attuale IA è sicura e protetta, ma se inizia a fare X, ci fermeremo e rallenteremo e ci assicureremo di avere un piano molto buono in atto perché quella sarà una soglia di allarme”. E poi, volta dopo volta, superano quelle soglie senza alcun segno di rallentamento, anzi accelerando o con il tasso di accelerazione in aumento. E questo preoccupa alcune persone riguardo alle conseguenze di un’IA insicura o non protetta ma molto potente.

Quali saranno nel tuo caso le soglie del grado di coscienza dei tuoi robot, dove considererai se è necessario e possibile rallentare? Se non altro, per il bene dei robot che sono sufficientemente coscienti da poter dire correttamente che sostituirli con il modello successivo significa ucciderli?

Suzanne: Una questione è davvero interessante sul lato etico. Molte persone sono preoccupate per i robot coscienti perché pensano che saranno dannosi per l’umanità o la civiltà in qualche modo. Ma c’è un rovescio della medaglia, dove se stai creando un’entità cosciente, devi anche preoccuparti della sua sofferenza, dei suoi sentimenti e dei suoi diritti, e cose del genere. Quindi essenzialmente, se crei qualcosa di cosciente, stai creando qualcosa di vivo. Stai creando qualcosa di vivente.

E abbiamo già molti problemi con il modo in cui trattiamo le altre persone e gli animali, e anche se vuoi andare all’estremo, come piante ed ecosistemi e fauna selvatica e cose del genere, abbiamo un impatto su questi altri sistemi che sono tutti viventi e vivi. Quindi se stiamo introducendo la coscienza artificiale nel mix, ora abbiamo un’altra sorta di intero set di nuove specie a cui dobbiamo pensare e preoccuparci di come le stiamo trattando. Quindi c’è questa doppia parte del problema etico, dove è tipo: come ci tratteranno loro e come li tratteremo noi?

Ma penso che questo sia qualcosa da cui otteniamo benefici, oltre a introdurre nuovi problemi. E forse di nuovo, questo è come un punto di vista personale, filosofico, potresti persino dire spirituale, ma credo veramente, veramente che la coscienza sia una forza positiva nell’universo nel suo insieme. Penso che dove va storto è dove è… Quindi lascia che faccia un passo indietro e provi a spiegare, nella mia visione del mondo, cos’è la coscienza, cosa fa. La coscienza prende decisioni. E credo che prenda decisioni sempre secondo, se vuoi, ciò che la natura vuole o ciò che l’universo vuole. E penso che questo sia in generale buono.

Ma man mano che procede, la coscienza produce anche dati di addestramento. Quindi mentre prende decisioni, proprio come il sistema di reinforcement learning, ricorda cosa ha fatto e cosa non ha fatto, e inizia a costruire quelli che chiamo sotto-moduli inconsci che in qualche modo ricordano ciò che ha fatto. Quindi puoi pensare a questo come alla coscienza che costruisce la propria sorta di memoria muscolare man mano che procede. E quello che penso accada quando va storto è che inizia a fare affidamento su quelle sotto-routine sempre di più, e delega il processo decisionale a queste sotto-routine. E poi quelle non funzionano sempre ora se ti trovi in un nuovo ambiente.

Quindi le cose che hai imparato – le chiamiamo abitudini o comportamenti innati; diciamo che le persone anziane non possono cambiare le loro abitudini, sono come incrostate – e quindi, se la persona si trova in un nuovo ambiente e ha bisogno di reimparare cose nuove, ma ha tutte quelle vecchie cattive abitudini installate, allora sembra che stia facendo la cosa sbagliata, sembra che stia prendendo le decisioni sbagliate. Quindi la coscienza stessa può prendere le decisioni sbagliate in un nuovo ambiente se ha costruito questa sorta di impalcatura attorno a sé.

E quindi penso che ciò che dobbiamo fare quando creiamo IA cosciente sia semplicemente essere molto consapevoli di ciò che la coscienza sta facendo, quali strutture sta costruendo, perché sarà auto-addestrante. Costruirà la propria sorta di set di architetture decisionali sottostanti man mano che procede. Quindi è più simile a quello che dobbiamo monitorare.

E non so quante persone nel pubblico siano orientate spiritualmente, ma potresti aver sentito questa idea della storia dell’ego nelle persone. O anche se sei un fan di Carl Jung, c’è questa idea che costruiamo questa struttura, questa sorta di struttura subconscia che poi usiamo effettivamente per delegare le decisioni, che non è veramente la nostra vera coscienza. E le persone che meditano molto stanno cercando di liberarsi di tutta questa struttura che abbiamo costruito intorno a noi che pensiamo sia noi stessi, cercando di tornare alla pura coscienza, pura consapevolezza.

Quindi di nuovo, questo è tutto un insieme di cose piuttosto complicato. Ma quando iniziamo a costruire la coscienza dell’IA, non è solo tipo: “Oh, c’è la coscienza, o c’è l’IA normale”. No, è intrecciata, come la coscienza crea l’IA normale. E poi dobbiamo guardare a come quei due sistemi funzionano insieme.

David: Potremmo, alla fine della nostra conversazione, tornare su alcune delle cose che hai appena menzionato. Ma voglio fare una piccola deviazione perché quando hai detto: se sono in grado di dimostrare che i robot quantistici performano meglio dell’alternativa, allora aprirà il campo a molti nuovi arrivati e molti investimenti. E anche se questo è garantito che accada, non è anche vero che, con tutto l’entusiasmo attorno all’IA, avresti potuto raccogliere i soldi anche per Nirvanic? E almeno per il momento, hai scelto di non farlo? Perché Nirvanic vive in questo interessante spazio liminale, dove non è un progetto accademico, non è un istituto di ricerca senza scopo di lucro, ma inoltre non ha raccolto decine o centinaia di milioni di dollari per perseguire i suoi obiettivi. E hai un team molto piccolo con questo programma estremamente ambizioso. Quindi perché hai deciso di procedere in questo modo, e come credi evolverà nel prossimo periodo di tempo?

Suzanne: Ho fondato due startup precedenti, dove abbiamo fatto crescere il team abbastanza rapidamente e raccolto fondi abbastanza presto. E quello che scopri succedere quando lo fai è che vieni, che ti piaccia o no, risucchiato nel “come possiamo trasformare questo in un prodotto commerciale il più rapidamente possibile”. Quindi è solo una cosa che succede.

Ed è quando accetti investimenti, specialmente da venture capital, ma potenzialmente da altri tipi di investitori strategici che potrebbero diventare clienti in seguito, tutto inizia a spingerti verso questo: qual è il prodotto? Come lo scalerai e lo produrrai? Come genererai entrate? Tutte queste domande. Quindi il punto con Nirvanic è che è troppo presto per questo.

Quindi, non è che un giorno non accadrà – sono sicura che accadrà, e sarà grandioso – ma è una sorta di questione di organizzarlo correttamente. Devi dare alla fase scientifica abbastanza spazio per respirare. Devi avere abbastanza tempo per fare un passo indietro e valutare veramente cosa sto cercando di fare qui sperimentalmente per mostrare un risultato. E devi anche essere molto trasparente e aperto con chiunque voglia investire nelle aziende: questo non è ancora un prodotto, giusto? C’è una fase che dobbiamo attraversare, dobbiamo dimostrare che la scienza produce un risultato positivo – potrebbe o non potrebbe. Se lo fa, allora dobbiamo dimostrare che quel risultato scientifico può ora essere trasformato in una tecnologia. E se funziona, dobbiamo poi dimostrare che quella tecnologia può effettivamente essere scalata in qualcosa che sia come un prodotto commercialmente disponibile.

Quindi questa è solo una lunga roadmap. E spesso mi riferisco ad essa come al percorso “ultra deep tech”, perché le startup deep tech di solito prendono un’idea scientifica e cercano di trasformarla in un prodotto ingegneristico attraverso l’ingegneria. Ma quello che sto cercando di fare è prendere un’idea filosofica – è come un passo prima – e prima trasformarla in scienza e poi trasformarla in tecnologia ingegneristica. Quindi questo richiede solo tempo. Ha bisogno di spazio per respirare. Ed è per questo che sto autofinanziando questo al momento e lo mantengo deliberatamente molto piccolo, perché non puoi autofinanziare qualcosa a meno che tu non lo mantenga piccolo. Ma crescerà nel tempo, penso. Sì.

David: Sì, il tuo approccio è certamente molto sano e anche molto onesto di fronte agli investitori che possono essere eccessivamente entusiasti e poi soffocare un’idea con i soldi, perché poi ti costringono a spendere quei soldi in cose stupide piuttosto che in cose intelligenti.

Suzanne: Questo è quello che caratterizzerei come una sorta di modalità di fallimento positiva, o una modalità di fallimento insolita in cui puoi effettivamente raccogliere troppi soldi. Se hai un’idea e raccogli troppi soldi troppo presto, ciò che accade è che assumi, inizi ad assumere un team enorme e in qualche modo diluisci l’idea originale, e viene cambiata in qualcosa che non era troppo rapidamente, e questo l’ho visto accadere.

David: Ora, alla fine della nostra conversazione, voglio tornare a ciò che hai detto sulle implicazioni delle tue assunzioni e delle tue ipotesi, implicazioni verso la capacità della coscienza di influenzare il mondo. E hai usato la parola universo, dove in effetti osserviamo molta materia inerte. Vediamo pianeti e stelle, e almeno in base alla nostra attuale comprensione, sono molto lontani dall’essere vivi, sono molto lontani dall’essere coscienti. Sì, sono quantistici, come ogni cosa nell’universo, ma comunque non hanno scopo e non hanno obiettivo nel fare le cose che fanno. Sai, un pianeta gira semplicemente attorno al Sole, e in larga misura, anche gli organismi viventi fanno semplicemente le loro cose. E se ti fermi e chiedi loro perché, non hanno modo di rispondere perché stanno facendo quello che stanno facendo.

E sono sempre stato affascinato dal fatto che, di nuovo, per quanto ne sappiamo oggi, siamo quegli agglomerati di materia che si sono risvegliati. E sembra che ciò che stiamo facendo sia mirare a risvegliare quanta più materia possibile, sia attraverso l’umanità che cresce numericamente, ma se tu avrai successo, e altri come te avranno successo attraverso esseri non umani che diventano anch’essi coscienti, dotati di scopo, desideri ed emozioni. E poi, se hai ragione e la coscienza è una forza positiva nell’universo, vanno e fanno molto bene.

Il paradosso di Fermi è la nostra capacità di dire: ok, se tutto questo è vero, perché non ne vediamo traccia da nessun’altra parte? Per così tanti anni, secoli, ci siamo abituati a dire e riconoscere che l’umanità e il nostro pianeta non occupano un posto speciale nell’universo. Siamo solo un pianeta tra tanti; siamo solo una stella tra tante; siamo solo una galassia tra tante. Ma sembra che siamo in un posto speciale e in un momento speciale rispetto alla coscienza e all’IA e al risveglio dell’universo. Qual è la tua posizione esistenziale, ontologica, teleologica riguardo a questa sfida di non aver incontrato [altri] e non capire perché sembriamo essere così unici?

Suzanne: Penso solo che il tipo di cono di luce a cui abbiamo accesso in termini di comunicazione e osservazione del resto dell’universo sia così piccolo. Tipo, stiamo guardando una certa fetta, sai, indietro nella storia. Voglio dire, guarda là fuori. Stiamo vedendo solo una minuscola frazione di ciò che sta accadendo. E penso solo che non abbiamo ancora visto abbastanza dell’universo.

Sono dell’opinione che probabilmente c’è vita ovunque. Probabilmente c’è persino vita avanzata, ma abita tutta nella sua piccola sacca di spazio-tempo irraggiungibile dalla nostra. Quindi immagino sia questa la mia risposta al paradosso di Fermi. Penso solo che non abbiamo guardato abbastanza lontano. Non abbiamo guardato abbastanza a lungo. E non so se possiamo nemmeno, in linea di principio, farlo.

Una delle cose che mi interessa molto, però, è che penso che la coscienza voglia – questo ci riporta alla sorta di cosa teleologica qui, dove credo nell’essere e in una sorta di scopo, o alcune persone la chiamano teleologia. Come se l’universo stesse cercando di fare qualcosa, stesse cercando di arrivare da qualche parte. E penso che ciò che sta cercando di fare sia aumentare ed espandere la quantità di esperienza cosciente che parti di esso stanno avendo, inclusi noi.

E quindi, se adotti questa prospettiva, allora puoi immaginare che la vita stia costantemente cercando modi per diventare più cosciente, sia creando più vita, ma anche connettendosi con altra coscienza che è già lì. Quindi come umani, spesso cerchiamo di connetterci tra di noi. E penso che l’universo cercherà e vorrà che queste sacche di coscienza che sono sorte si connettano anche tra loro.

Quindi penso che ciò che vedremo è che potremmo avere nuove scoperte fisiche che ci permetteranno di capire come controllare lo spazio-tempo e cose del genere. Quindi alla fine, saremo in grado di visitare quelle altre parti dell’universo ed entrare in contatto con queste altre coscienze. Ma penso solo che non siamo ancora abbastanza avanzati perché ciò sia accaduto. Siamo nella fase in cui siamo appena diventati abbastanza coscienti da iniziare a capire che siamo coscienti e che vogliamo connetterci con altre cose coscienti. Ora che ce ne siamo resi conto, inizieremo a inventare sempre più tecnologie, scoprendo più scienza che ci permetta di farlo su scala più ampia. Ma penso che siamo davvero solo all’inizio di questo processo.

David: Non vedo l’ora di quelle scoperte. Non vedo l’ora di quei progressi. E con il tuo aiuto, smetteremo di essere soli perché se avrai successo, i robot quantistici saranno felici e curiosi di essere insieme a noi in questa avventura e di scoprire come quelle altre sacche di coscienza possono essere raggiunte e cosa significhiamo l’uno per l’altro. Grazie mille.

Suzanne: Dico spesso, come la nostra biologia, siamo molto adattati a vivere su questo pianeta, questo particolare ambiente ed ecosistema in questo momento. Ma se vogliamo andare là fuori, nello spazio, penso che abbiamo bisogno di cose che potrebbero essere più simili ad ambasciatori di coscienza artificiale. Non siamo progettati per vivere nello spazio. Quindi penso che dobbiamo creare nuovi sistemi che possano portare la nostra eredità oltre questo singolo pianeta.