Ambiguità: noi e i dati

Il mercato globale corre vorticosamente intorno al mondo riversando milioni di prodotti. Milioni di dati si incrociano con milioni di prodotti. Un singolo dato può essere strategico per il vantaggio competitivo della nostra produzione, ma due dati lo possono essere ancora di più. Immaginiamo migliaia di dati. Riceviamo e inviamo milioni di dati nella più piccola unità di misura del tempo. Dipendiamo dai dati, ma siamo consapevoli che non avremo nè invieremo mai dati completi e perfetti, nè avremo di loro una comprensione completa e perfetta. Quindi, anche se ci attrezziamo organizzativamente e tecnicamente per essere dinamici, essibili, reattivi, anche se digitalizziamo tutta la nostra azienda, il volume di dati è tale che non è agevole trovarne il significato vero e associarlo ad azioni immediatamente fruibili e per noi vantaggiose. L’informatica pervasiva ci condanna per otto ore al giorno a operare in un clima di poche certezze e con molte ambiguità. Eppure dobbiamo quotidianamente prendere decisioni.

Nessuna paura, ci dicono. I dati fini a se stessi sono di poco valore, ma se sono connessi in modo intelligente con altri dati e a loro volta con altri ancora e così via, si crea una specie di «catena di santantonio» che genera valore. Sugli schermi ci mostrano complicate geografie colorate fatte di blocchi, frecce, trattini, linee intere, un correre vorticoso di bit e byte che ci fa venire gli occhi strabici. Ma, ci dicono ancora, con questa organizzazione dei dati avrete sotto controllo ogni situazione per lavorare sempre in un ambito di certezze e quindi veramente a valore. Se insistiamo sulle ambiguità, ci cominciano a gurdare male. Ma quale ambiguità, se a partire dai linguaggi di programmazione sono previste procedure del tipo «if – then- else»? I sistemi fanno tutto loro. Quindi, dobbiamo convincerci che ci stanno mettendo in grado di prendere giuste decisioni? Immaginiamo, per esemplificazione, una misura che ci provenga da un qualsivoglia sensore di fabbrica. Sappiamo che detta misura è caratterizzata da un valore e da una «incertezza»; ma cosa sappiamo della sua attendibilità, affidabilità e ripetibilità? Se immaginiamo centinaia o migliaia di misure, quindi di dati, processati all’interno di un sistema di Big Data che è costituito su algoritmi basati su sistemi statistici e quindi con intrinseci gradi di approssimazione, non siamo preoccupati? E’ lecito oppure no porsi qualche sacrosanto dubbio sui rischi di poca attendibilità e af dabilità dei dati che ci vengono forniti? Su questi temi invitiamo tutti ad andare con i piedi di piombo. Perlomeno a fare qualche riflessione, che, chiaramente, sarà legata al proprio ambito di attività. Il ragionamento ci dà il destro per ribadire la centralità dell’uomo. La macchina ci dà un supporto, ma saranno il nostro senso critico, la nostra sensibilità, il nostro fiuto, a farci prendere le decisioni finali. La barriera tra il tempo umano e il tempo di calcolo è insormontabile. Ma preferiamo prosperare con il tempo del nostro cervello, accettando le nostre ambiguità, piuttosto che consegnarci totalmente ai tecnicismi che introducono altre miriadi di ambiguità. È però fondamentale non dimenticare mai la prima legge della termodinamica: «L’energia può essere cambiata da una forma all’altra, ma non può essere creata o distrutta». Se l’energia viene utilizzata per resistere al cambiamento, allora non è disponibile per realizzare il cambiamento. Si parla di rivoluzione industriale, ma la rivoluzione più importante deve partire da noi.

di Michele Rossi

CONDIVIDI

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here