L’evoluzione dei computer – in accelerazione esponenziale in base alla legge di Moore che viene seguita da gruppi di ingegneri in tutto il mondo per continuare a comprovarne la validità – ha portato a soluzioni sempre più complesse e adatte ad affrontare una grande varietà di problemi. Avendo acquisito una capacità di comunicazione, i computer hanno formato quella che oggi chiamiamo Internet, una rete di reti. Se inizialmente richiedevano l’assistenza dei programmatori per ogni necessità di acquisizione di dati, attualmente sono dotati di sensori e di conseguenza possono essere autonomi in questa acquisizione.
La progressiva miniaturizzazione dei componenti elettronici, non solo permette di creare sistemi sempre più potenti, ma genera un circolo virtuoso di apparecchiature flessibili che non sono più dotate di tastiera e magari perdono anche la visualizzazione attraverso lo schermo, affiancate da software sempre più adatti a un’interazione naturale, che non impone agli operatori umani di imparare linguaggi strani e modalità di interazione artificiali.
I computer, invece di essere delle apparecchiature separate e dedicate all’elaborazione dei dati, diventano una componente necessaria di ogni prodotto. Il beneficio di dotare di sensori, memoria, capacità di elaborazione e di comunicazione un particolare oggetto supera rapidamente il costo aggiuntivo di queste componenti integrate.
Il ruolo della persona che è in grado di formare un ponte tra gli ingegneri che realizzano il prodotto che si può fabbricare su scala industriale da una parte e chi si occupa di marketing dall’altra, diventa essenziale. Chiamata in inglese user experience, l’interazione tra le diverse parti del prodotto non è più solo questione di materiali, funzionalità locale, facilità di produzione e di impiego immediato, ma si estende su scala globale, abbracciando tutte quelle parti di comunicazione dei dati acquisiti che devono poter essere utilmente aggregate per rappresentare un valore aggiunto fondamentale del prodotto.
Il numero di sensori che stanno costantemente raccogliendo dati aumenta rapidamente all’interno di ogni singolo oggetto (un telefono cellulare oggi è dotato di una dozzina di diversi sensori), e aumenta anche il numero degli oggetti stessi progettati, prodotti, venduti, installati e utilizzati. La quantità di dati sul mondo così raccolti è talmente grande da creare difficoltà non solo nel suo immagazzinamento. Mancano addirittura i prefissi per indicarne l’ordine di grandezza: mega, giga, tera, peta, exa per indicare i numeri di byte non bastano più! Analogamente risulta difficile immaginare che l’approccio centralizzato che caratterizza l’Internet di oggi possa essere sostenibile, con la rincorsa a una creazione di pagliai sempre più grandi alla ricerca di aghi eventualmente migliori. Queste due considerazioni portano alla progettazione di un Internet degli oggetti che permetta di aggregare i dati acquisiti, elaborandoli per trovare una soglia, raggiunta la quale questo dato aggregato meriti di essere memorizzato oppure comunicato, magari raggiungendo una persona solo dopo aver superato dozzine di livelli di verifica, perché questa capacità non risieda centralmente in un data center oppure presso un particolare operatore, ma sia una caratteristica anche locale della rete degli oggetti.
Con l’aumentare rapido del numero di oggetti attorno a noi che sono in grado di comunicare è fondamentale che questi non dipendano dalle nostre decisioni per continuare a operare, altrimenti ci affogherebbero con le loro richieste costanti. I nodi che compongono l’Internet degli oggetti devono essere autonomi e decidere da sé che il 99% dei dati che acquisiscono può essere tranquillamente buttato via. Quell’1% che viene tenuto può essere aggregato e correlato con le corrispondenti parti di dati acquisiti da altri nodi e avvertirci di cosa sta succedendo solo quando è veramente importante. L’attività di acquisizione, elaborazione, aggregazione dei dati, soprattutto se decentralizzata, deve poter essere fatta in modo trasparente, all’interno di una rete di reti in cui diversi produttori partecipino sullo stesso piano alla creazione di valore. Diventa quindi essenziale la promozione di una interoperabilità forte, sia a livello di semplici protocolli di comunicazione e immagazzinamento dei dati, sia a livello di algoritmi decisionali e responsabilità autonoma.
Le macchine robotiche in grado di guidare da sé rappresentano un utile esempio concreto di sperimentazione tecnologica. Indicano anche chiaramente le complessità che la potenza dell’Internet degli oggetti rappresenta non solo dal punto di vista della progettazione e della realizzazione, ma per le implicazioni che vanno oltre a quelle della semplice tecnologia. Che cosa succede se una macchina robotica è coinvolta in un incidente? Di chi sono le responsabilità tra passeggeri, produttori dell’hardware, produttori del software ecc.?
Le strutture emergenti della nostra civiltà – siano queste quelle con cui siamo già familiari come le città, oppure quelle che le reti globali interconnesse stanno disegnando con i social network, oppure, appunto, l’Internet degli oggetti – hanno una loro forte realtà autonoma, la cui natura solo debolmente dipende dalle strutture precedenti che le esprimono. C’è un reale collo di bottiglia nell’applicare le esperienze acquisite precedentemente da queste nuove realtà. Non si può sottostimare la difficoltà nella creazione di una cornice che possa abbracciare le opportunità rappresentate dallo sviluppo sano dell’Internet degli oggetti, che massimizzi i benefici e annulli gli ostacoli al suo sviluppo. Lo sforzo di un dialogo aperto e costruttivo, dotato di grande creatività e immaginazione è la sfida che non possiamo non raccogliere per raggiungere l’obiettivo di un mondo che possa fare leva sulla rete di reti di oggetti intelligenti, l’Internet degli oggetti.
Testo pubblicato originariamente sul numero 100 di Formiche
[scribd id=257111647 key=key-40BUeUCWPqZZAYN5G0YM mode=scroll]