Vogliamo parlare di dati, con una chiave di lettura non solo scientifica ma etica, economica e, soprattutto, culturale. Dove non c’è cultura, mix allargato che coinvolge educazione, istruzione, ricerca scientifica, conoscenza, innovazione, non c’è neppure sviluppo, inteso non solo per quanto è misurato da indicatori esclusivamente economici, ma attraverso il valore del benessere individuale e collettivo.

Da una ventina d’anni la divisione Global Trends del National Intelligence Council degli Stati Uniti predispone ogni quattro anni per il Presidente neo-eletto un rapporto con una concisa ma completa informazione su globalizzazione, demografia e ambiente. Il rapporto fornisce a chi governerà il paese più potente al mondo una visione accurata e coerente dello stato di salute (ambientale, politico, economico, sanitario, di sicurezza) del pianeta e, soprattutto, strumenti adeguati per guardare al futuro e pianificare interventi sui temi-chiave della sua dinamica.

L’edizione del rapporto che il vincitore delle elezioni presidenziali di novembre riceverà dal direttore del NIC s’intitolerà Global Trends 2035, perché l’idea è di dare una fotografia credibile del futuro del mondo su un arco di tempo dell’ordine di vent’anni; un periodo sufficiente perché il Presidente possa vagliare la credibilità delle predizioni e gettare le basi di interventi mirati a questioni di lungo termine.

Le domande cui il nuovo rapporto indirizza maggiormente la sua attenzione hanno a che fare soprattutto con i dati: in quale misura gli enormi progressi passati e futuri delle tecnologie dell’informazione trasformeranno le società e le relazioni fra cittadini e governanti? Quanto grande sarà l’impatto dell’automazione, della robotica e soprattutto dell’intelligenza artificiale sulle economie e sul lavoro? I big data diverranno un fattore chiave della competizione e potranno stare alla base e alla guida di nuove ondate di crescita della produttività e della innovazione, purché le corrette politiche decisionali e i necessari incentivi vengano messi in opera; siamo preparati per questo? Come influirà tutto questo sul modo in cui si distribuisce il potere nel mondo: ci sarà una diluizione o una concentrazione? Quali problemi chiave di società, economia e politica vedranno un cambio significativo delle loro regole fra oggi e il 2035?

Dunque i dati sono al centro dell’intero processo dello sviluppo futuro del mondo. La quantità di dati generata da una popolazione in crescita esponenziale – stiamo avvicinandoci a grandi passi agli 8 miliardi, eravamo poco più di 7 nel 2012 – una popolazione di cui oltre metà possiede almeno un cellulare o un tablet, sta esplodendo in modo altrettanto esponenziale: ci stiamo avvicinando ad alcuni yottabyte (un numero di 24 cifre!) all’anno. È come se in un anno producessimo un numero di byte pari a un miliardo di volte quanti ne contiene la Library of Congress di Washington – la più grande biblioteca al mondo, con i sui 38 milioni di libri, 3.6 milioni di registrazioni, 14 milioni di fotografie, 5.5 milioni di mappe, 7.1 milioni di spartiti, 70 milioni di manoscritti. Fare i conti con questo è una sfida concettuale senza precedenti ma anche una prospettiva grandiosa, che ci fa intravedere la possibilità – se sapremo gestire l’immenso valore che questi dati racchiudono, estraendone informazione e conoscenza e sapere – di governare questo mondo e di viverci in forma totalmente diversa da come abbiamo fatto fino ad ora: in salute, avendo grandi quantità di tempo libero, accompagnate da strumenti per goderlo; musica, immagini, benessere fisico, guida sicura, … ma anche un lavoro gratificante e non logorante e un’aspettativa di vita in crescita. Questo richiede un impegno etico collettivo di una dimensione che l’umanità non ha mai dovuto affrontare nella sua storia, una condivisione di valori, una volontà di bene comune, un rispetto degli altri che nessuna religione o ideologia hanno saputo ottenere; quindi dovremo accontentarci di approssimazioni successive di un modello inizialmente imperfetto, ma che impareremo a migliorare sempre più.

I primi passi su questa strada tanto impervia quanto ricca di promesse la scienza li ha fatti, con l’intelligenza artificiale, di cui dopo cinquant’anni di sforzi e di miliardi spesi in ricerca, stiamo finalmente cominciando a decodificare le regole, con i computer ad altissime prestazioni, con una matematica sofisticata e potente, con metodi mutuati dalle scienze cognitive, che ci guida nello sforzo immane di districarci in questo mare immenso di dati.

Le prospettive economiche di questi nuovi strumenti di analisi e gestione dei dati sono state studiate da MGI e McKinsey concentrandosi su sanità, commercio, settore pubblico, manifattura e distribuzione delle risorse umane. I risultati sono incredibili: nel commercio si potrebbe aumentare il margine operativo del 60%; nella sanità si potrebbe creare un valore aggiunto di 300 miliardi di $ all’anno, di cui circa due terzi legati ad una riduzione delle spese dell’8%. I governi e le amministrazioni potrebbero risparmiare 150 miliardi di $ migliorando la loro efficienza operativa, senza contare gli strumenti che la data science offrirebbe per ridurre le frodi e gli errori e per migliorare la raccolta delle tasse. Infine, i servizi basati sulla conoscenza della distribuzione delle risorse potrebbero generare un valore aggiunto di 600 miliardi di $ per il consumatore.

E la scienza? I big data sono una sfida anche per gli scienziati. Oggi la scienza si scopre poco preparata anche solo a porre in modo corretto le domande su che cosa si possa apprendere da queste nuove fonti empiriche d’informazione e spesso tende a riportarle a paradigmi ben stabiliti, ma di fatto non più adeguati. È proprio questo che ci costringe a fronteggiare una dei compiti più difficili: trasformare questa grande mole di dati in informazione organizzata, in conoscenza e la conoscenza in sapere.

Lo stesso ruolo dei dati va cambiando: dall’idea del dato inteso come fotografia del sistema e in quanto tale necessariamente relativo al passato, passiamo al dato come mattone costruttivo di modelli che permettano la predizione dell’evoluzione del sistema stesso. Questo fa la ’Data Science’, con algoritmi e metodi che mescolano la computer science con l’intelligenza artificiale, la fisica con lo studio della mente.

In un contesto di questa vastità e natura, la comunità scientifica ha il dovere morale, per le implicazioni etiche dei processi, di governarli senza che i valori di uomo o di cittadino vengano messi a rischio. È anche dovere politico perché in questa rivoluzione sta la chiave per la rivoluzione parallela del processo d’innovazione, ricerca e sviluppo del paese, che richiede la formazione di una nuova generazione di scienziati che sappia trasferire ai decision maker gli strumenti per la creazione di un nuovo paradigma della conoscenza e del suo sfruttamento che produca valore economico, culturale, di qualità della vita per tutti.

È tempo di trasformate i Big Data in Big Science della cultura digitale, amalgamando i dati con le teorie e i modelli con cui li elaboriamo. Questa produrrà una progressiva fusione fra discipline scientifiche oggi diverse, basata sulla condivisione di una stupefacente quantità d’informazioni provenienti da domini differenti della conoscenza, e ci fornirà gli strumenti per fare predizioni in aree diverse, apparentemente scorrelate, definendo nuove professionalità e domini del pensiero. Un’impresa, questa, che deve essere aperta, trasparente, fondata su rigidi principi etici, per evitare monopoli o sfruttamento colpevole dei dati socio-economici, e federata, perché interdisciplinarità comporta lo sforzo congiunto di molte competenze.

Un ultimo spunto. Senza dubbio, il più grande capolavoro della fisica del secolo scorso è la relatività generale di Einstein. La sua storia continua oggi proprio nella data science, con i big data, nella nuova teoria della computabilità, che nasce dal genio di Turing, o meglio della incomputabilità, che nasce da quello di Gödel.

Nel processo fondamentale della data science, estrarre informazione dai dati, abbiamo scoperto che i dati possono essere organizzati in modo naturale in strutture geometriche discrete, che si prestano a essere rappresentate da oggetti matematici della stessa natura di quelli introdotti, attraverso il cosiddetto ’Regge calculus’, nello studio della relatività generale. Le differenze dalla relatività generale sono molte e scabrose da affrontare, ma i primi risultati dell’applicazione di questi metodi, l’analisi topologica dei dati, dalle neuroscienze all’epidemiologia digitale, dall’oncogenetica alle scienze sociali computazionali, sono straordinari e prospettano una vera rivoluzione metodologica nella teoria della computazione e nel modo di affrontare il suo limite misterioso: l’incomputabilità.

2017-01-23T12:20:57+00:00