Open data: luci dopo le ombre

Posted by Vincenzo Patruno | Posted in Digital Economy, Open Data, Open Government, Web Technologies, World News | Posted on 31-05-2016-05-2008

1

 

INTERVISTA di Simona Macellari, Associate Partner, The Innovation Group a Vincenzo Patruno, Project Manager – Istat

Patruno

Tu sei stato tra i primi in Italia a portare all’attenzione nazionale le tematiche relative agli Open Data.  Vero?

Si, vero! Ricordo il 20-10 2010 il primo barcamp su dati e statistica in occasione della giornata mondiale della statistica. Assieme ai colleghi e a tanti amici con cui condividiamo ancora ora idee e progetti abbiamo portato all’attenzione delle istituzioni non solo un modo nuovo di interagire con i “consumatori” di dati, ma anche tematiche nuove come gli Open Data. Con quell’evento riuscimmo addirittura ad essere citati sul sito dell’ONU. Qualche tempo dopo è stata la volta di Apps4Italy, la prima competizione italiana sui dati aperti lanciata assieme al portale nazionale dati.gov.it. In quella circostanza scrissi un pezzo dal titolo “Open Data, l’Italia s’è desta” (http://blog.okfn.org/2011/11/01/open-data-italy-has-awoken/) Qualcosa stava veramente accadendo.  Avevamo cominciato ad organizzato il primo concorso nazionale su Open Data in quattro. Quello che accadde dopo ebbe dell’incredibile. Attorno a quell’evento si riuscì a mettere per la prima volta assieme il mondo delle istituzioni, il settore privato e la ancora giovane comunità open data. Pubblica Amministrazione, imprese e società civile. Esattamente il tipo di sinergia di cui conosciamo il valore e che evochiamo ogni qualvolta parliamo di progetti per innovare il Paese. In quella circostanza intervenne addirittura il governo che ci consentì di raggiungere i 40.000 euro di montepremi.

Secondo te sono stati soldi ben spesi?

Posso solo dirti che tra i vincitori della competizione ci sono stati professionisti, startup, aziende e associazioni che sono attive ancora oggi, a distanza di ben 5 anni. Nel frattempo sono maturate e cresciute, consolidando la propria presenza e la propria reputazione nel mondo dei dati.

E cosa è successo in questi cinque anni?

Una cosa di sicuro positiva è stato senz’altro il fatto che Open Data è diventato un argomento importante che è entrato non solo nelle agende “digitali” ma anche nelle agende “reali” della pubblica amministrazione e degli enti locali. Open Data è stato percepito sin dall’inizio come qualcosa di “facile” attraverso cui fare innovazione e innovare il Paese, grazie anche al “contatto” che ha con tematiche come Open Government, Trasparenza, Accountability,  Ma…

…Ma?

Beh… non c’è dubbio che l’aspetto “immagine” abbia nettamente prevalso sulla sostanza. Le iniziative e i vari portali open data sono stati troppo spesso un’occasione per permettere alla pubblica amministrazione (ma soprattutto ai pubblici amministratori, specie se locali) di indossare il cappello degli innovatori. Ci si è preoccupati essenzialmente di pubblicare qualunque cosa si avesse sottomano per fare numero e magari dire “hey, io sul portale del comune ho più dataset di te”. Il risultato è che abbiamo una enorme quantità di dataset al momento disponibili che è di fatto inutilizzabile.

Stai parlando della qualità dei dati?

Si, anche. Non dimentichiamo che la qualità del dato è un concetto che si sviluppa su più dimensioni.  Tra tutte ne cito due: la “copertura” territoriale e l’aggiornamento del dato. Per copertura territoriale si intende la disponibilità del dato per tutto un intero territorio di riferimento. Un conto è, infatti, che un dato sia  disponibile per un singolo comune, un altro che lo stesso dato sia disponibile ad esempio per tutti i comuni della regione o addirittura per tutti i comuni d’Italia. Di fatto questo è il motivo per cui diventano strategici gli open data delle pubbliche amministrazioni centrali, che spontaneamente nascono già con una copertura nazionale. I dataset poi vanno manutenuti, vanno cioè aggiornati, e questo andrebbe fatto con una frequenza prefissata. In altre parole diventano fondamentali i processi interni alla specifica pubblica amministrazione o ente locale che rilascia i dati. Rendere stabili e strutturali i processi interni che generano un particolare dataset vuol dire accrescere l’appetibilità e il valore di quel dataset in un’ottica di riuso. Spesso quello che invece accade è che la pubblicazione del dato avviene al di fuori dei processi. Basta pertanto anche un cambio di un direttore, dell’assessore di riferimento o l’insediamento di una nuova amministrazione comunale per far crollare tutto.

E’ da poco uscita la terza edizione dell’Open Data Barometer. Qualche commento?

Ci tengo a sottolineare che hanno contribuito a questa terza edizione anche due miei amici e colleghi di Open Data. Erano guarda caso anche loro tra gli organizzatori di Apps4Italy e sono tra i papà degli Open Data in Italia. Parto dalla conclusione del rapporto: va evitato che gli open data diventino “una città fantasma di portali obsoleti, hackathon isolati e applicazioni abbandonate”.Credo realisticamente che in parte questo avverrà. Penso però che questo sia un passaggio necessario e aggiungo anche salutare per permettere l’avvio di una nuova fase degli Open Data, una fase in cui sarà necessario puntare su dataset di qualità e sulla qualità dei processi attraverso cui vengono generati. Che è quello che alla fine ci serve veramente.

Hai associato più volte le parole “innovazione” e “dati”.

I dati “veri” stanno inevitabilmente generando innovazione. E’ quella che possiamo chiamare “data-driven innovation”. Attorno ai dati, infatti, stanno nascendo nuove competenze, nuove tecnologie, nuove opportunità di impresa, nuove modalità di amministrare i territori, nuove modalità per decidere, nuove modalità di essere cittadini.  Negli ultimi tempi abbiamo però banalizzato anche l’innovazione. Abbiamo cominciato a chiamare qualunque cosa “innovazione”, anche il semplice attivismo digitale, e a narrarlo in tutti i modi possibili. Abbiamo poi chiamato “innovatore” chiunque facesse qualunque cosa che prevedesse l’utilizzo di un computer. Diciamo che siamo un Paese in cui tutti sono innovatori un po’ come tutti sono allenatori di pallone, ma che proprio per questo motivo non riesce ad innovare veramente. Serve anche in questo caso una fase nuova, alzando una volta per tutte l’asticella.  L’innovazione, come i dati, sono una cosa seria.

 

Questa intervista a cura di Simona Macellari è stata pubblicata mel mese di Maggio 2016 su http://www.theinnovationgroup.it/newsletter/lospite-del-mese/open-data-luci-dopo-le-ombre/?lang=it

 

Ottenere e visualizzare i dati. Open Data e Big Data

Posted by Vincenzo Patruno | Posted in Big Data, Data Journalism, Open Data, Web Technologies | Posted on 18-01-2014-05-2008

0

Qui la presentazione utilizzata nell’intervento al Data Journalism Day 2014 a Matera. La giornata organizzata da Formedia, l’istituto per la formazione al giornalismo e alla comunicazione multimediale della associazione della stampa della Basilicata.

 

Sistan e Open Data: i catalizzatori di Istat per le citta’ intelligenti

Posted by Vincenzo Patruno | Posted in Big Data, Open Data, Open Government, Web Technologies | Posted on 08-11-2013-05-2008

0

Semantic Web – Tra Ontologie e Open Data

Posted by Vincenzo Patruno | Posted in Open Data, Web Technologies | Posted on 23-08-2013-05-2008

2


semantic web

Supponiamo di voler cercare qualcosa sul web. Quello che tutti facciamo normalmente è utilizzare un motore di ricerca: inseriamo quelle che riteniamo essere per noi le parole chiave, clicchiamo su “invio” e aspettiamo di vedere i risultati.  Quello che Google e gli altri motori di ricerca presentano sono una elenco di link che puntano a quelle pagine Web  che il motore di ricerca ritiene essere di rilevanza non solo sulla base delle parole chiave inserite, ma anche tenendo conto di svariati elementi e regole che vanno a definire così tutte insieme l’algoritmo di ricerca.

E nonostante gli algoritmi utilizzati dai motori di ricerca siano estremamente sofisticati, sappiamo tutti bene che una volta che un motore di ricerca restituisce dei risultati, tocca a noi andare ad aprire uno a uno i vari link proposti prima di tutto per capire se effettivamente sono quelle le informazioni che stavamo cercando, e poi eventualmente per selezionare e integrare tra loro i vari pezzi contenuti nelle varie pagine Web. Facciamo questo esperimento e vediamo cosa risponde Google quando vado  a digitare ad esempio il mio nome e cognome. In prima posizione compare il link al mio blog vincenzopatruno.org, mentre in seconda posizione troviamo il link al sito web di un fotografo mio omonimo. Poco più in basso troviamo il link ad un altro “Vincenzo Patruno”, questa volta il sito web una azienda che vende mobili.

Google ovviamente non è in grado di capire che io, cioè il “Vincenzo Patruno” specialista IT sono diverso dal “Vincenzo Patruno” fotografo e dal “Vincenzo Patruno” imprenditore. Questo perchè quello implementato dall’algoritmo di ricerca è comunque basato su una ricerca testuale. Per Google sono infatti tutte quante pagine che si riferiscono a “Vincenzo Patruno”.  E se poi volessi “isolare” solo le informazioni relative al mio omonimo che di professione fa il fotografo andando a ricercare ad esempio “Vincenzo Patruno fotografo” vedrò che  quello che cambia è in sostanza solo l’ordine con cui i risultati vengono presentati. Addirittura in terza posizione compare il link ad un videoclip che io (e non l’altro VP) ho realizzato lo scorso anno, ma Google ovviamente questo non lo può sapere. In altre parole non sarà mai possibile identificare con Google le informazioni relative a una persona che si chiama Vincenzo Patruno e che di professione fa il fotografo per il semplice fatto che Google non ha gli elementi per capire che “informatico”, “fotografo” e  “imprenditore” sono professioni, come non riesce a identificare che “Vincenzo Patruno” è un nome. Per i motori di ricerca queste sono soltanto parole chiave con cui effettuare una  ricerca testuale.

Va da sè che una volta che Google mostra i  risultati della ricerca, è sempre necessario un intervento manuale per aprire la pagina web proposta, leggerne il contenuto e capire se è effettivamente quello che si stava cercando in modo tale da poterlo selezionare e utilizzare. Questo perchè il Web è nato per essere utilizzato da esseri umani e ancora oggi, a distanza di anni, è sostanzialmente così.

E’ però interessante immaginare quale possa essere l’idea di Web che possiamo aspettarci in un prossimo futuro. Chi ha provato a misurarne la grandezza parla di oltre 3 miliardi e mezzo di pagine indicizzate (http://www.worldwidewebsize.com/) e diventa impensabile poterlo esplorare “a mano” attraverso un motore di ricerca tradizionale. Quello che serve è molto più probabilmente immaginare software e applicazioni che possano estrarre e assemblare dati e informazioni simulando le modalità con cui la mente umana fa i propri ragionamenti.

Una possibilità per consentire ciò è quella di andare ad associare a dati, informazioni e documenti specifiche informazioni aggiuntive dette metadati che ne specifichino il contesto sematico  e che abbiano determinati requisiti in modo da consentire di implementare ragionamenti in modo automatico.  Fantascienza? In realtà questo lo aveva già ipotizzato Tim Berners-Lee, l’inventore del Web in un suo oramai celebre articolo del 2001 dal titolo “The Semantic Web”.

Quello che però è accaduto da quel momento è che sono stati tanti i ricercatori di ogni parte del mondo che hanno approfondito la cosa ideando, cercando di mettere a punto una serie di tecnologie di base che potessero consentire di creare i presupposti per procedere poi verso il Web semantico.  Quello che ne è uscito lo raccontano molto bene Tommaso Di Noia, Roberto De Virgilio, Eugenio Di Sciascio e Francesco M. Donini autori del libro “Semantic Web – Tra ontologie e Open Data” edito dalla casa editrice Apogeo. Vi dico subito che non è un libro divulgativo da leggere in spiaggia sotto l’ombrellone ma un ottimo manuale per professionisti. Che non dobbiamo immaginare essere necessariamente studenti di informatica, ingegneri, progettisti web e sviluppatori. Il libro è stato fatto in modo da essere un valido supporto anche a tutte quelle professionalità più “umanistiche” che lavorano oramai insieme ai “tecnici” su contenuti web, interoperabilità dei dati, linguaggi, semantica e ontologie e che sono sempre più necessarie per immaginare e costruire il Web del futuro.

What does “BIG DATA” mean for official statistics?

Posted by Vincenzo Patruno | Posted in Big Data, Web Technologies | Posted on 30-04-2013-05-2008

0

Il sistema ad Hub per l’interconnessione dei nodi #SistanHub

Posted by Vincenzo Patruno | Posted in Data Sharing, Open Data, Web Technologies | Posted on 25-02-2013-05-2008

0