Seminario sulla Singolarità Tecnologica

Ho tenuto il 22 Novembre un seminario sulla Singolarità Tecnologica all’Università di Milano, presso il campus di Crema. Guarda video del seminario è online* ed è anche disponibile il wiki* per portare avanti le analisi e le considerazioni che non è stato possibile approfondire nel tempo limitato del seminario.

La Singolarità Tecnologica è un punto nello sviluppo di una civilizzazione, dove il progresso tecnologico accelera oltre la capacità di comprensione e previsione umane ed è più specificamente caratterizzata dall’avvento di una intelligenza superiore a quella umana. Questo seminario tenuto presso l’Università di Milano percorre le premesse che portano alla Singolarità e ne analizza promesse e pericoli.

Video della presentazione

Slide di presentazione

Esposizione

Siamo in questa serata di discussione, grazie per la vostra presenza e grazie naturalmente per l’invito di Gianni Degli Antoni, a cui sono molto grato. Il mio nome è David Orban e sono qua come appassionato di questi argomenti.

Andremo a definire specificamente che cos’è la singolarità tecnologica, poi cercheremo di definire quali sono le premesse che possono portare al presentarsi della singolarità tecnologica attraverso l’analisi dei diversi meccanismi evolutivi che si sono presentati finora e come l’ultimo di questi meccanismi evolutivi porti alla accelerazione tecnologica. Vedremo brevemente critiche, obiezioni, pericoli che possono presentarsi nel analizzare questi concetti e le promesse dei cosiddetti singolaritariani, cioè delle persone che non solo ritengono possibile l’avvento della singolarità tecnologica, ma lo ritengono desiderabile.

Innanzitutto la singolarità tecnologica che è appunto un punto nello sviluppo della civiltà dove il progresso tecnologico può diventare incomprensibile, per lo meno agli esseri umani attuali, e che si sviluppa attraverso il presentarsi sulla scena di un’intelligenza generale superiore a quella umana. È un fenomeno fisico, sociologico, non è nella sua concezione un fenomeno trascendentale, spirituale, quindi non è assolutamente da confondersi con argomentazioni o analisi di tipo metafisico.

La premessa da cui partiamo è quella che le conquiste dell’umanità fino ad oggi raggiunte siano positive e sia desiderabile rafforzarle, consolidarle, portarle avanti attraverso un percorso di sviluppo e che quindi i possibili potenziali rischi esistenziali a quanto è stato conquistato finora debbano essere esplorati, perché possano essere analizzati e possibilmente evitati. In effetti, tralasciando gli scenari più ottimisticamente ingenui, l’evento della singolarità tecnologica stessa è un rischio esistenziale di questo tipo e quindi analizzarlo è particolarmente importante.

Quando parliamo di intelligenza superiore, intendiamo quello che in informatica da una 50 anni da questa parte viene definito intelligenza artificiale. Quindi intendiamo una… le manifestazioni concrete di un programma, una serie di programmi che oggi vedremmo girare su un calcolatore e nel momento in cui si presenteranno non necessariamente gireranno su calcolatori così come li conosciamo oggi e che in alcuni degli scenari che l’analisi della singolarità tecnologica presenta possono progressivamente sfondersi con gli esseri umani biologici concretamente, ma che non necessariamente lo fanno, non è necessario per raggiungere un’intelligenza artificiale generale che questo parta da quella che è l’architettura del cervello umano.

Ci sono due o tre fotografie che vi presento perché sono particolarmente significative. Il concetto della singolarità viene progressivamente sempre più intensamente studiato negli ultimi 5, 10, 15 anni, però nasce già 50 anni fa e oltre. Questa fotografia a mio avviso è particolarmente significativa perché le tre persone ritratte che hanno originariamente generato, perlomeno è la prima fonte riportata di questo concetto, hanno anche… contribuito fondamentalmente ad altre due direzioni essenziali per la realizzazione della singolarità. Richard Feynman, che ha introdotto pochi anni dopo il concetto di nanotecnologia, cioè la possibilità di realizzare strutture attraverso progettazione di ingegnerizzazione specifica a livello atomico, molecolare per poi arrivare al livello atomico, e John von Neumann che ha posto le basi alla informatica così come l’abbiamo finora architettata e studiata. Il congiungersi di questi rami è essenziale per lo sviluppo della singolarità.

Con un certo salto, arriviamo a Vernon Vinge, che è anche uno scrittore di fantascienza particolarmente creativo, e i cui libri esplorano in effetti i concetti della singolarità con una inventiva molto stimolante. È stato docente di matematica all’Università di San Diego, adesso si è ritirato, e ad un simposio della NASA nel 1993 ha presentato un breve articolo, che però analizzava… quelle che sono le premesse della singolarità e metteva a fuoco che per quanto l’umanità potesse essere la necessaria premessa perché si arrivasse alla singolarità, questo poteva essere anche di per sé un pericolo per l’umanità stessa.

Bill Joy è il fondatore o uno dei co-fondatori di Sun Microsystems. E nell’aprile 2000, nella rivista Wired, che è un po’ la Bibbia di quelle che sono le esplorazioni delle conseguenze culturali della tecnologia digitale di oggi, ha scritto un articolo estremamente lucido e particolarmente pessimista. Questo articolo è intitolato “Perché il futuro non ha bisogno di noi?” proponeva di abbandonare volontariamente le linee di ricerca che possono portare ad uno sviluppo estremo delle tecnologie genetiche, robotiche e nanotecnologiche, VRN, che è un acronimo che vedremo anche più avanti. Faceva questa proposta perché Bill Joy riteneva che non… si potesse correre il rischio di scatenare sull’umanità impreparata le conseguenze di implementazione di queste tecnologie, che di per sé sono neutrali, ma che hanno conseguenze potenzialmente molto distruttive e che lui vedeva come qualcosa che necessariamente si sarebbe avverato senza la possibilità di fermarle. Esempi naturalmente di questi si possono facilmente immaginare, terrorismo batteriologico, macchine autoreplicanti senza limiti, agenti robotici autonomi con intenzioni distruttive. Il suo articolo ha suscitato una discussione estremamente vivace che viene riportato anche dal libro di Ray Kurzweil, The Singularity is Near, La Singolarità è Vicina, che è lo spunto se vogliamo anche per la discussione di stasera.

Ray Kurzweil è un inventore che ha disegnato, progettato il primo meccanismo OCR di Optical Character Recognition, di riconoscimento dei caratteri, il primo motore di riconoscimento vocale ed altre realizzazioni estremamente significative ed importanti. Futurologo, professionista che prevede quando eventuali invenzioni possono trovare terreno fertile per chi vengono sfruttate da un punto di vista economico direttamente per le proprie aziende e oggi ha un team molto produttivo e molto attento che raccoglie quelle che sono le indicazioni verso la singolarità su un proprio sito dove sono presenti anche tutti i dati alla base delle previsioni estremamente radicali del libro. Contrariamente all’articolo che ho citato precedentemente di Bill Joy, le conclusioni del libro di Ray Kurzweil sono estremamente positive, estremamente promettenti, non nasconde, non sottace quelli che sono i rischi della strada che porta alla singolarità e oltre, però ritiene che l’umanità sia su una strada dove non può, non è in grado di fermarsi, e che quindi l’unica possibilità per evitare le conseguenze negative è quello di andare avanti su questa strada.

Qual è questa strada? Su quale strada in effetti ci siamo incamminati? Come siamo arrivati ad essere in grado di analizzare queste possibilità positive o negative che le riteniamo? Nell’universo nato 14 miliardi di anni fa all’incirca dal Big Bang, sono presenti diversi meccanismi particolarmente efficaci che creano complessità, che creano strutture stabili che a loro volta manifestano fenomeni che figliano nuove strutture e questa figliazione porta a strutture stabili più complesse.

In sequenza, percorrendolo con semplicità, vediamo l’aggregazione fisica della materia che porta all’emergersi di oggetti come le stelle, che hanno caratteristiche di perturbazioni, di cicli di funzionamento, di cambiamenti, di meccanismi che gli permettono di brillare per… miliardi di anni molto più complessi che non il gas omogeneo, più o meno omogeneo di idrogeno che li ha generati. Le scale di tempi all’interno dei quali questi meccanismi lavorano sono quelli dei 10 miliardi di anni dove la stabilità della struttura realizzata è all’incirca dell’ordine di grandezza di… un miliardo di anni e oltre sulla terra l’evoluzione darwiniana ha prodotto nell’ordine di grandezza di un miliardo di anni o due o tre che siano strutture viventi che hanno a loro volta una stabilità intrinseca intesa come specie dove quindi il pattern caratteristico della struttura che si presenta è individuabile, riconducibile e come esempio riporto l’organismo più… longevo, più rappresentativo, più numeroso sulla Terra che è quello della grande famiglia dei batteri e noi siamo a oggi gli unici rappresentanti che conosciamo dell’evoluzione popperiana che è sempre un’evoluzione inteso come meccanismo di replicazione con errori all’interno di un ambiente limitato che quindi produce naturalmente quello che è una selezione naturale senza alcun intervento ulteriore ma che non agisce esclusivamente attraverso i meccanismi di eliminazione di individui a priori determinati che quindi non hanno modo di intervenire sul proprio comportamento il tipo di cambiamento che la società umana è in grado nell’arco suo caratteristico di 100.000 anni all’incirca come specie di effettuare è un cambiamento molto più efficace, molto più rapido che non quello dell’evoluzione darwiniana.

Elemento a noi oggi conosciuto, che si sta in effetti studiando adesso perché si ritiene che le sue conseguenze non siano state tutte esplorate, anzi è il contrario, semmai stiamo solo adesso immaginando quali possano essere, è l’evoluzione tecnologica intesa come tecnologia autonoma, non la nostra capacità di realizzare un oggetto fisico, bensì la nostra capacità di generare strutture artificiali che si auto riproducano, la strada che ci ha portati a questo arrivo ha un periodo caratteristico all’incirca di 10 mila anni, è da 10 mila anni che abbiamo cominciato a costruire la nostra civiltà tecnologica e Il periodo caratteristico oggi che vediamo attraverso quello che è la legge di Moore di cambiamento delle generazioni di computer è super giù di un anno. È prevedibile che questo periodo collassi ulteriormente e che quindi l’evoluzione gregoriana porti queste strutture autonome ad un cambiamento ancora più rapido.

Qual è la differenza tra l’evoluzione gregoriana rispetto all’evoluzione popperiana prima menzionata e la capacità ancora più efficace perché questi agenti autonomi intervengano non solo sul proprio comportamento, ma le regole sottostanti al comportamento e le strutture che governano questo comportamento. In effetti io vorrei chiamarla denetiana, ma la fonte che lo riporta, dopo magari lo ritroviamo direttamente sul sito, è uno studioso che l’ha proposto per la prima volta che si chiama Gregory. La differenza tra Darwin, Propper e Gregory è proprio la possibilità di intervenire da parte dei meccanismi evolutivi su specie, fisse che sopravvivono o si eliminano, scusate, individui fissi che sopravvivono o vengono eliminati per il mutamento progressivo della specie. A secondo livello, gli individui che partecipano ad una cultura, che osservano i modelli mentali, sottostanti il proprio comportamento e agiscono di conseguenza cambiando il comportamento nel momento in cui il modello mentale non sia produttivo, non produca un comportamento adatto all’ambiente. In ultimo abbiamo un meccanismo ancora più efficace dove l’osservazione dei possibili eventi in termini ipotetici all’interno del modello mentale può portare al cambiamento della struttura sottostante che ha prodotto il modello mentale stesso.

Lo vedremo in uno slide successivo, ma in termini, se vogliamo, un attimo banalizzati, l’intelligenza artificiale che è in grado per definizione di osservare il proprio codice sorgente, lo può modificare e inserito all’interno di un contesto evolutivo, lo modificherà per arrivare ad una maggiore probabilità di sopravvivenza.

All’interno del libro di Ray Kurzweil ci sono innumerevoli e bellissimi grafici che rappresentano su coordinate bilogaritmiche una linea che porta verso la singolarità a partire dallo sviluppo della vita, della cultura umana, della rivoluzione industriale, dell’invenzione dei computer, e non è un’invenzione di Kurzweil. Uno dei grafici che introduce subito dopo il proprio è un metastudio, una metarappresentazione di una quindicina di fonti diverse che con una certa distribuzione dovuta naturalmente all’incertezza della datazione di certi eventi, ma ha la stessa forma.

Vi sarà particolarmente familiare, visto che ci troviamo in un dipartimento di scienze dell’informazione, quella che è la curva di crescita della performance dei calcolatori. Ho scelto questo grafico perché è parzialmente dovuto al caso, ma è visibile qua quello che è l’analisi sottostante in ognuno di questi grafici. Non si tratta di una curva, ma di un inviluppo. Sono tecnologie che disegnano una curva logistica, una curva ad esse perché vanno esplodendo, sviluppandosi e poi staturano le proprie possibilità e vengono sostituite in modo molto morbido da nuove tecnologie che si presentano per rappresentare, per portare avanti in modo più efficace gli stessi obiettivi e quindi la curva esponenziale è l’inviluppo di queste curve ad esse successive.

Questo è importante perché andando ad analizzare una tendenza tecnologica singola, si va immediatamente a smentire la tesi di Kurzweil, che ci sia un’accelerazione delle tendenze tecnologiche e che l’efficacia, il ritorno nella realizzazione degli obiettivi desiderati di queste tendenze aumenti. Invece la sua osservazione in quanto futurologo è un’osservazione epistemologica, è un’osservazione tecnologica di metastudio che parla appunto della visione di diverse tecnologie che si sovrappongono.

Paul Krutzen nell’anno 2000 ha creato questo neologismo che secondo me dovrebbe diffondersi con ancora maggiore forza di quanto abbia già. Paul Krusen ha vinto il premio Nobel in chimica per l’identificazione e l’analisi delle cause del buco dell’ozono sull’Antartide e l’antropocene nella sua sezione rappresenta quell’era geologica che è caratterizzata dall’intervento dell’umanità sulla biosfera terrestre, così come altre ere geologiche sono state caratterizzate da propri meccanismi.

Un esempio scioccante di quanto questo sia concreto nella nostra vita è riportato nel recentissimo libro di Daniel Dennett, Breaking the Spell, che parla di un importante argomento diverso, di come sia necessario oggi studiare il fenomeno religioso come elemento sociologico, come programma scientifico, senza remore se vogliamo. Riporta l’analisi di Paul McCready dove viene evidenziata un travolgimento della composizione della biosfera dei vertebrati terrestri. Quindi non parliamo di insetti, batteri o della vegetazione, parliamo degli animali superiori. 10 mila anni fa meno del 1 per 1000 di questa sezione della biosfera era rappresentato da esseri umani e dagli animali domestici, cani, pecore, maiali o altri che fossero. Il 99,9% erano animali selvatici. Solo 10.000 anni dopo, che in termini biologici è nulla, assolutamente nulla, la proporzione si è totalmente ribaltata. Il 99% e il 98% della biosfera dei vertebrati terrestri è rappresentato dagli esseri umani e i propri animali domestici e decine di miliardi pollame ovini bovini e così avanti e il 2% è quello che è rimasto agli animali salvati questo è un esempio che penso anche coloro che negano la concretezza del fenomeno del riscaldamento globale che dicono o non esiste e non esisterà mai o dicono semplicemente non ne sappiamo abbastanza o coloro che dicono no tutti i bei grafici che Ray Kurzweil disegna in termini esponenziali sono un artefatto culturale del proprio punto di vista e non rivestono una realtà oggettiva ecco questo tipo di dato è difficile relativizzarlo è difficile metterlo sotto il tappeto è difficile buttare lì un nihil novum, non c’è niente di nuovo.

Una delle cose che a mio avviso sarà più divertente anche osservare nei prossimi anni, dal punto di vista di coloro che desiderano l’avvento della singolarità tecnologica, e sarà più… osservato con brivido da coloro che non lo vogliono o che lo ritengono impossibile, saranno quelle tracce della singolarità che si potranno vedere nel bene o nel male. Io riporto tre piccoli esempi, non necessariamente spinti, ma che possono contribuire magari alla discussione che tra poco inizieremo.

Al MIT c’è un centro che si occupa di realizzare infrastrutture e meccanismi di quello che si potrà chiamare materia programmabile. Loro ritengono, Neil Gershenfeld che è il direttore di questo centro, fa l’esempio di come la manifattura dell’industria più avanzata che abbiamo la creazione di chip con dimensioni caratteristiche che si stanno avvicinando ai nanometri sia identico alla prima fabbricazione dell’uomo cosiddetto primitivo o preistorico che prende un po di argilla lo forma si disegna su qualcosa con il bastoncino poi lo mette nel forno lo cuoce, lo tira fuori, lo spolvera e ha un vaso. Alla Intel con 6-10 miliardi di dollari di investimento non fanno altro, prendono un po’di silicio, si disegnano sopra, non usano il bastoncino, usano i raggi ultravioletti o i raggi X, lo mettono in forno, lo tirano fuori, lo lavano, poi lo tagliano ed ecco il qui. Mentre… Quello che loro stanno facendo è la possibilità di… effettuare un cambiamento di fase della manufattura dove è la spontaneità della costituzione del DNA in termini chimici dagli elementi costituenti che viene preso come analogia per trovare forme a noi utili di prodotti che nascono spontaneamente e che contengono il proprio programma.

Una cosa molto significativa a mio avviso che stanno contemporaneamente portando avanti è la costruzione di quello che chiamano Internet Zero, cioè realizzare standard e protocolli di comunicazione indipendenti dal layer di trasporto che possano permettere l’inserimento a costi trascurabili di capacità di comunicazione, oggi lo chiameremmo server web, ovunque e in ogni oggetto.

L’anno scorso ho appena uscito il libro di Ray Kurzweil, un eminentissimo divulgatore italiano Roberto Vacca ha scritto un articolo che commentava sul libro di Kurzweil in termini dubbiosi e diceva io sono andato a vedere le fonti dei dati di Kurzweil i grafici che lui disegna così ottimisticamente e ho plottato e interpolato i dati e a mio avviso l’errore caratteristico nel interpolarlo come una curva logistica ad esse è molto inferiore che non interpolarlo come esponenziale quindi secondo me Kurtzweil sbaglia Questa sua analisi, secondo me, era sbagliata per due ragioni. Una, quella che abbiamo menzionato prima, cioè ha tenuto conto di una particolare curva e non dell’inviluppo delle curve che è il nucleo del ragionamento di Kurzweil. L’altra ragione per cui sbaglia è perché effettua l’interpolazione a parità di condizioni. L’introduzione… scusatemi se menziono termini un po’tecnici ma immagino per voi non sia un problema, l’introduzione di un protocollo come IPv6 e l’introduzione di nuovi metodi di comunicazione come Internet Zero da parte dell’MIT, renderà possibile che fra 15-20 anni come vacca proiettata non ci siano 600 milioni di host sul pianeta. Ma siano 600 miliardi o 600 mila miliardi se ci serve, affinché in questa stanza, se lo vogliamo e lo desideriamo, ogni oggetto, a qualunque granularità lo vogliamo chiamare tale, sia in grado di comunicare.

Una seconda traccia della singolarità prossima avventura, sempre molto umilmente e molto timidamente, si… manifesta a mio avviso nella gara vinta con successo al solo secondo tentativo dopo il primo anno che è andato a fallire del cosiddetto DARPA Grand Challenge, dove più di 100 miglia, 150-180 km di percorso sono stati superati da veicoli totalmente autonomi ad una media di circa 50-60 km all’ora. e dove quest’anno, non mi ricordo se questa settimana o settimana prossima, si ripete la stessa sfida all’interno di traffico urbano, mentre il percorso nel deserto non era affatto stimolato, c’erano precipizi, c’erano gallerie, il percorso è stato consegnato ai team un’ora prima della partenza e rispetto alla… presunta difficoltà, se non addirittura impossibilità, che un problema di intelligenza artificiale, di pianificazione, perfezione, correzione degli errori, adeguamento ai concreti fallimenti delle varie tecnologie, poteva rappresentare solo qualche anno fa queste macchine. Oggi… anno hardware standard. La macchina vincente dell’Università di Stanford aveva 4 PC ed era una macchina normale, una macchina di serie.

Un terzo esempio è proprio di settimana scorsa, dove mi sembra che la fonte originaria fosse australiana, un gruppo di medici ammetteva, se vogliamo, per la prima volta, non è che lo rilevassero per la prima volta, a mio avviso, lo ammettevano per la prima volta. Quando fanno una diagnosi si consultano con Google e non parliamo di specialisti, parliamo di medici generici. Inserire i sintomi di una malattia all’interno del motore di ricerca permette di affiancare il medico specialistico nella diagnosi.

La penultima ondata di ricerche in intelligenza artificiale, 20 anni fa, dove uno dei punti di esplorazione era quello dei sistemi esperti con approccio top down, dall’alto, basato su regole che affogavano nella propria complessità dopo tre passi e che assolutamente erano simpatici e magari facevano qualche cosa in un strettissimo campo verticale si renderanno conto come l’involontaria conseguenza degli algoritmi di rilevanza in un approccio bottom up di Google sia alieno alieno rispetto a quello che noi vent’anni fa abbiamo potuto immaginare come infatti il nuovo approccio allo sviluppo dell’intelligenza artificiale, alla intelligenza artificiale generale, è un approccio opposto, bottom up, dal basso, che parte da modelli funzionali, quindi con certe aspettative e certe attese e che mira al reverse engineering, allo studio e all’analisi completa del cervello umano.

Lo strumento utilizzato che approfitta dei miglioramenti radicali ed esponenziali che la legge di Moore comporta è la scansione cerebrale funzionale, che è una modalità totalmente non invasiva, la cui precisione sta aumentando esponenzialmente, la cui sensibilità… sta aumentando esponenzialmente. Io sono stato ad una fiera normale al Febit, questo marzo, dove c’era una macchina, dove ti sedevi davanti, ti mettevi un casco, e questo attraverso un feedback che tu nell’arco di una decina di minuti apprendevi senza nessun problema, ti leggeva il pensiero per muovere una manopola per giocare a Pong. Oggi ci vuole il casco, così come ieri ci voleva la perforazione di elettrodi nella testa, probabilmente nessuno per fortuna l’ha fatto, almeno per giocare a Pong. Domani lo si farà da distante, oggi ci vogliono 10 minuti e si fa solo per muovere una manopola, domani sarà possibile farlo per processi di pensiero qualunque.

E’ molto interessante quello tra l’altro che sta facendo IBM con la sua prossima iniziativa, non quella precedente ma quella prima ancora, la ricordate? Deep Blue che ha battuto il campione mondiale di scacchi in carica, che pur essendo il migliore essere umano che fosse in grado di giocare a scacchi ha avuto un… una battuta di orgoglio che purtroppo l’ha abbattuto invece che innalzarlo e ha detto non è possibile, altri esseri umani devono averlo manometto, che è un ossimoro, se lui è il migliore altri non possono averlo battuto, può averlo battuto solo qualcuno che non è umano.

Quello precedente di IBM è successivo a Deep Blue, è Blue Gene, che utilizzano per sviluppare le proprie tecniche di costruzione di supercalcolatori, così come il grafico che abbiamo visto precedentemente, e il cui scopo è quello dell’applicazione della biologia molecolare per come si contorcono le proteine che costituiscono i geni. L’iniziativa di adesso, che si chiama Blue Mind, è per la modellazione della neocorteccia, non ancora nella sua interezza, ma in base ad un modello biologico che oggi riteniamo essere corretto Ed essendo la neocorteccia sede delle nostre funzioni superiori di percezione, di interpretazione di tipo cognitivo, questo è il primo passo nel nuovo approccio allo sviluppo dell’intelligenza artificiale che anche altri stanno percorrendo.

Il nuovo centro di neuroscienza applicato all’Università di Berkeley è nato un anno fa in parallelo con la società commerciale che sfrutta le ricerche chiamate Numenta e che le applicherà nel campo della visione per prima. Quello di IBM è un modello biologico, quindi in conseguenza alla scansione funzionale si è andato a stabilire che ci sono che livelli di cellule che comunicano fra di loro e che nel passare l’informazione originariamente disomogenea della percezione auditoria o visuale o olfattoria o tattile che sia, compiono una sintesi integrativa e man mano che si alza sul livello delle cellule il segnale non è più differenziato.

Che cosa comporta questo? Quali sono i meccanismi che sottostanno a questa integrazione, a questa sintesi di segnale e come un meccanismo anche molecolare di memoria locale a questa colonna di unità di corteccia permetta di costruire modelli locali di previsione. Praticamente il segnale visivo, questo è un esempio che si riporta quasi universalmente, il segnale visivo costante sparisce dalla cognizione, è la differenza del segnale visivo che in realtà noi siamo evoluti a percepire. Ed è questa differenza di segnale che la singola colonna di neocorteccia va a mettere in evidenza.

O per carità i miliardi di dollari di IBM magari sono sprecati eh! Diciamo che le ricerche di Berkeley sono accademiche, fino ad un certo punto perché danno in licenza esclusiva all’autore sia di Numentas che di questo istituto, è il fondatore di Palm, che ha preso i suoi soldi e ha detto è questo che voglio fare, in realtà è questo che ho sempre voluto fare, ma intanto Palm mi ha permesso di trovargli i soldi per poi investirli qua. La ricerca di IBM è di tipo informatico, di architetture di computer, adesso non mi ricordo nemmeno l’ordine di grandezza, sono 5.000 o 50.000 CPU che stanno mettendo insieme per fare questo Blue Mind e questo è di per sé secondo me interessante.

Potremmo ritrovarsi e sono d’accordo, non se consensi su questo, magari sarà un altro approccio che avrà successo, è l’effetto collaterale di uno sviluppo che molti gruppi stanno portando avanti. La forza delle previsioni futurologiche, direi Kurzweil, sta anche in questo. Lui non sta dicendo per nessuna delle cose che in modo incredibilmente ambizioso prevede, è rischioso perché è la sua reputazione che anche sta mettendo a rischio, non sta dicendo secondo me vincerà questo approccio, vincerà questo approccio per il reverse engineering del cervello o per la trasmigrazione della mente non dell’anima, che lui mette in atto o che prevede che accadrà. Dice, proprio perché ci sono così tanti gruppi che stanno lavorando su questi, uno degli approcci avrà successo e qualunque approccio abbia successo comunque cavalca la legge dei ritorni economici, computazionali memetici in generale che accelerano.

Una volta che si arriva, quindi che sia il gruppo di IBM, che sia il gruppo di Berkeley, che sia una miriade di altri gruppi, ce n’è uno molto interessante per esempio, i cui video sono anche caricabili, è una società che si chiama Novamente, anche loro sanno… studiando come implementare una intelligenza artificiale generale. Ecco, ma una volta che ci si arriva, cosa succede? Perché, così come abbiamo accennato prima, se sei un’intelligenza artificiale, contrariamente a noi, che siamo soggetti all’evoluzione popperiana, il codice sorgente che ti genera è a tua disposizione e sei in grado di studiarlo, sei in grado di analizzarlo e di accorgerti che potrebbe essere migliorato. E nel momento in cui inserisci questi miglioramenti e ti ritrovi ad essere ancora più intelligente, dai un’altra occhiata. E se hai voglia, implementi i nuovi miglioramenti. E ripetendo il tutto in modo ricorsivo, si arriva a questo fenomeno che nel 65,

E ripetendo il tutto in modo ricorsivo, si arriva a questo fenomeno che nel 65, quindi una quarantina di anni fa, è stato identificato e che è stato chiamato intelligence explosion, l’esplosione dell’intelligenza. Che cosa comporta l’esplosione dell’intelligenza? Così come le prime forme di vita sulla Terra sono state abbastanza uniformi e poi una testimonianza particolarmente… drammatica per chi ha messo in difficoltà in termini di spiegazione evolutiva darwin stesso c’è stata la esposizione cambriana di forme viventi e ci sono state altre prima che hanno lasciato nessuna tratta perché erano a livello di batteri una in particolare che è stato il passaggio da batteri anaerobici che vivevano nell’atmosfera terrestre originaria priva di ossigeno per arrivare al metabolismo sottostante noi di batteri aerobici che hanno bisogno di ossigeno un po’più efficienti così è sufficiente la prima intelligenza artificiale perché si assista alla diversificazione alla diversificazione che non si ferma alla considerazione provinciale del quoziente di intelligenza dove la scala va dall’idiota del villaggio ad Einstein e all’interno di quello che studiamo tutto il possibile.

Sia in termini lineari, se vogliamo puramente di quoziente di intelligenza, ma sia in termini di parametri a noi eventualmente sconosciuti, possiamo raggruppare all’interno dello… spazio delle fasi delle intelligenze possibili, tutte le menti umane all’interno di un minuscolo punto e le intelligenze artificiali che nascono andranno a spaziare verso posizioni all’interno di questo spazio di fasi, posizioni che per noi sono fitte, ma per loro no o non necessariamente e con motivazioni anche radicalmente diverse dalle nostre.

Se la singolarità è vicina Questa foto è simpaticissima, è il caratteristico cartello dei mendicanti di strada, o anzi scusate, non dei mendicanti, di coloro che vogliono convertirti alle varie religioni estremiste o più di nicchia negli Stati Uniti. Ecco, a singolarità è vicina. Come dobbiamo comportarci? Esiste una fondazione che si occupa proprio di questo. È il Singularity Institute for Artificial Intelligence, il cui scopo è quello di stabilire le condizioni possibili, ma anche necessarie per che la prima intelligenza artificiale che nasca sia amichevole. Cosa significa questo in termini formali? più o meno formali, che ci sia una funzione di utilità valutata su diversi parametri che venga massimizzata dal comportamento di questa intelligenza artificiale. Quale sarà questa funzione di utilità? In termini qualitativi il bene dell’umanità. Cosa significa questo poi è da definire e da implementare.

È fondamentale ed è matematicamente possibile trovare una funzione che sia stabile sotto le condizioni di automodifica, perché la motivazione intrinseca della intelligenza artificiale così realizzata ad automodificarsi include il bene dell’umanità e questo lo porta ad una modifica che continuerà ad includere il bene dell’umanità. Non è ammissibile al contrario fare un approccio a casasco e nemmeno ammissibile prendere un approccio evolutivo. Lo dobbiamo beccare giusto al primo colpo, altrimenti il rischio esistenziale posta all’umanità dal… presentarsi massiccio di queste tecnologie genetiche, robotiche, nanotecnologiche assieme agli agenti autonomi delle intelligenze artificiali avrà un po’ le stesse caratteristiche che è accettato nel passaggio da batteri anaerobici al batteri aerobici, dominavano il pianeta. Per un miliardo di anni hanno dominato il pianeta i batteri anaerobici. Erano… i signori del proprio universo. E oggi ci sono ancora 4.000 metri sotto il livello del mare, dove non c’è luce, dove non c’è ossigeno, dove si nutrono del calore e dei gas a noi tossici delle eruzioni vulcaniche sosterranee.

Noi, ed è stata questa la premessa con cui abbiamo iniziato, non vogliamo che vada a finire così. Bill Joy che abbiamo menzionato diceva bisogna che ci si fermi, nella pratica questo non è possibile e non è possibile anche da un punto di vista sociologico, politico, religioso, quali che siano le motivazioni in un mondo globalizzato che possono portare un gruppo a sviluppare tecnologie che altri gruppi volontariamente si fermano dallo sviluppare. Il progetto Manhattan era in fondo questo. La risposta americana alla minaccia da parte di Hitler dello sviluppo della bomba atomica con il supporto del pacifista Einstein è stato quello. Non ci si può permettere di non prepararsi. nessuno di loro poi era d’accordo nel provarla la maledetta bomba quale sarà quindi la soluzione del complessissimo problema da un punto di vista anche matematico perché non è solo questione di implementazione tecnologica ma anche una questione di modellazione di pianificazione di capacità di analisi matematica soprattutto nel momento in cui parliamo della natura e delle conseguenze dell’intelligenza artificiale costruenda saranno assolutamente da vedere nel momento in cui accettiamo che la strada che abbiamo visto adesso in questa mezz’oretta forse più percorrere è una strada dove non ci si può fermare se la azzecchiamo giusta le promesse della singolarità sono sono quasi un’analogia con i buchi neri, anche quelli non sono rimasti a lungo insondati. Oggi nella fisica, nell’astronomia esistono modelli molto specifici, molto dettagliati di qual è la struttura interna, il comportamento, l’evoluzione dei buchi neri. Così la singolarità non rappresenta l’inconoscibile, ma rappresenta assolutamente una rottura di continuità dove noi con il privilegio di poterlo cercare di influenzare non ci si può permettere di non farlo.

Già oggi se ci si fermasse da 100 miliardi e passa che siamo, ci ridurremmo non so a quanto, ma ci ridurremmo magari senza tornare ai circa 80 milioni di individui che si calcola vivessero 10.000 anni fa all’inizio dell’attività tecnologica, ma la Terra senza soluzioni tecnologiche oggi è in una situazione di per sé comunque insostenibile. 

Vedremo quanto questo porti la singolarità tecnologica ad una situazione di una profezia che si autoavvera, assieme a come i giudizi di desiderabilità oltre che fattibilità influenzino la forma che il futuro avrà.

*Riguardando l’articolo nel 2024 quasi 20 anni dopo la pubblicazione, vedo che la versione originale è da aggiornare e quindi così ho fatto. Google Video che ospitava la registrazione non esiste più, adesso è su YouTube. E il wiki che invece ospitavo io su uno dei miei siti è stato rapidamente invaso da troll e spam e non avevo le risorse per la sua manutenzione. Ho aggiunto anche la trascrizione, cosa complicata allora, semplice oggi.