Big Data e tecnologie esponenziali

Big Data e tecnologie esponenziali


Anche se è difficile rendersene conto, negli ultimi cinquant’anni la potenza di calcolo dei nostri computer è aumentata di più di 1 miliardo di volte. Attraverso la profezia che si auto avvera della legge di Moore, lo sforzo globale di centinaia di team di ingegneri, dove è sufficiente che uno solo abbia successo perché tutti gli altri ne possono trarre vantaggio, dagli strumenti per specialisti dei primi computer a scheda perforata, siamo arrivati oggi ai supercomputer che abbiamo in tasca usati da miliardi di persone.

La digitalizzazione ha avuto un impatto non solo nel mondo dell’informatica in cui è nata, ma ha infettato e sta profondamente trasformando tutti i campi della scienza, della tecnologia, e dell’economia, portando quindi a cambiamenti radicali ovunque.

Se era necessario un budget di 3 miliardi di dollari per un progetto di 15 anni per la decodifica del primo genoma umano, oggi la stessa cosa si può fare con circa 2000 dollari in un paio di settimane. E si stanno già realizzando le macchine di decodifica che potranno ottenere lo stesso con un costo incrementale di un paio centesimi, in tempo reale. Questo semplice esempio fa capire il mondo di fantascienza in cui viviamo, e a cui dobbiamo adeguarci, sia dal punto di vista dei nostri comportamenti, che da quello delle regolamentazioni.

Il modello di business attuale, attorno a cui si sono costruite le fortune di Google, di Facebook e di molte altre aziende che approfittano della disponibilità della mole enorme di dati che generiamo, riflette due assunti più o meno espliciti: che da una parte sia sempre conveniente accumulare quantità crescente di dati da elaborare, e che dall’altra ci dobbiamo abituare allo sbilancio di trasparenza e di rapporto contrattuale a vantaggio dei fornitori di servizi per poterli a nostra volta ricevere.

Con l’aumentare in un prossimo futuro di diversi ordini di grandezza dei dati disponibili, si può già cominciare a vedere il delinearsi di modelli di business alternativi. Questi riconosceranno che ci potrà essere valore nella distruzione dei dati. La popolarità di Snapchat presso il gruppo dei giovanissimi, con la sua funzione di messaggi che si autodistruggono E che addirittura avvertono il mittente se viene catturata una schermata prima che il messaggio sparisca, è un esempio di questo. Semplicemente, oltre un certo volume, verrà smentito che dobbiamo trovare pagliai sempre più grandi alla ricerca di aghi migliori. Un altro cambiamento verrà da termini e condizioni che daranno il diritto a priori agli utilizzatori di una proprietà vera dei loro dati, rilasciandoli in modo estremamente granulare, invece che con un’autorizzazione globale, come avviene oggi.

La centralizzazione stessa, con data center sempre più grandi, che verrà messa in discussione. Il paradigma centralizzato contiene convenienti vulnerabilità. Un’architettura decentralizzata, in cui l’aggregazione dei dati avviene a livello locale, così come l’erogazione dei servizi a valore aggiunto basati su di essa, potrà rappresentare un’alternativa ed un contrappunto competitivo valido.

Quando le architetture client server degli anni 80 cominciavano permettere il collegamento in rete dei personal computer, i sistemi risultanti erano estremamente labili ed inaffidabili. Era esperienza quotidiana trovarsi di fronte all’indisponibilità della rete dei dati e non era nemmeno immaginabile che funzioni applicative fossero gestite dalla rete stessa. Oggi abbiamo raggiunto un livello di affidabilità tale che non solo immagazziniamo una grande quantità di dati nella rete, non solo utilizziamo costantemente applicazioni che si basano sulla disponibilità della rete, alle nostre aspettative stesse si sono posizionate ad un livello dove, nel momento di un problema, se non riusciamo ad accedere a Google o Facebook, anche in modo geograficamente circoscritto, questa diventa notizia da telegiornale. La qualità del codice è migliorata tantissimo, ma non basta ancora…

La prossima generazione di rete di reti, l’internet degli oggetti, costituita da decine di miliardi di sensori ed attuatori, a cui delegheremo la gestione di città, aziende, della nostra vita personale quotidiana, della società stessa sempre più complessa, dovrà avere una affidabilità caratteristica molto superiore ai migliori sistemi di oggi, di un grado senza precedenti.

È probabile che, congiungendo le due tendenze della decentralizzazione e dell’esigenza di un aumento dell’affidabilità del codice, la prossima generazione di sistemi decentralizzati ad altissima affidabilità siano basati su blockchain. La tecnologia di blockchain, conosciuta da molti attraverso una sua implementazione nel sistema di pagamenti di Bitcoin, rappresenta un’innovazione fondamentale. Una nuova generazione di protocolli e di applicazioni basata su blockchain sta nascendo, Dove l’allineamento perfetto degli interessi degli sviluppatori, delle aziende che mettono a disposizione sistemi software e hardware complessi e degli utilizzatori, è assicurato dall’associazione anche delle più piccole transazioni, di scambio di dati e di elaborazione, con un valore economico. Questo può essere trascurabile o quasi, preso individualmente, ma attraverso centinaia o migliaia di miliardi di unità, costituirà la base fondante della nuova architettura.

Per poter continuare in modo sano e sostenibile a trarre vantaggio dalle tecnologie esponenziali, queste tendenze e il necessario adeguamento dei regolamenti che gestiscono l’utilizzo, devono svilupparsi rapidamente!


Questo testo è stato scritto come contributo al libro Data Scientist di Alessandro Giaume.