Open data: luci dopo le ombre

Posted by Vincenzo Patruno | Posted in Digital Economy, Open Data, Open Government, Web Technologies, World News | Posted on 31-05-2016-05-2008

1

 

INTERVISTA di Simona Macellari, Associate Partner, The Innovation Group a Vincenzo Patruno, Project Manager – Istat

Patruno

Tu sei stato tra i primi in Italia a portare all’attenzione nazionale le tematiche relative agli Open Data.  Vero?

Si, vero! Ricordo il 20-10 2010 il primo barcamp su dati e statistica in occasione della giornata mondiale della statistica. Assieme ai colleghi e a tanti amici con cui condividiamo ancora ora idee e progetti abbiamo portato all’attenzione delle istituzioni non solo un modo nuovo di interagire con i “consumatori” di dati, ma anche tematiche nuove come gli Open Data. Con quell’evento riuscimmo addirittura ad essere citati sul sito dell’ONU. Qualche tempo dopo è stata la volta di Apps4Italy, la prima competizione italiana sui dati aperti lanciata assieme al portale nazionale dati.gov.it. In quella circostanza scrissi un pezzo dal titolo “Open Data, l’Italia s’è desta” (http://blog.okfn.org/2011/11/01/open-data-italy-has-awoken/) Qualcosa stava veramente accadendo.  Avevamo cominciato ad organizzato il primo concorso nazionale su Open Data in quattro. Quello che accadde dopo ebbe dell’incredibile. Attorno a quell’evento si riuscì a mettere per la prima volta assieme il mondo delle istituzioni, il settore privato e la ancora giovane comunità open data. Pubblica Amministrazione, imprese e società civile. Esattamente il tipo di sinergia di cui conosciamo il valore e che evochiamo ogni qualvolta parliamo di progetti per innovare il Paese. In quella circostanza intervenne addirittura il governo che ci consentì di raggiungere i 40.000 euro di montepremi.

Secondo te sono stati soldi ben spesi?

Posso solo dirti che tra i vincitori della competizione ci sono stati professionisti, startup, aziende e associazioni che sono attive ancora oggi, a distanza di ben 5 anni. Nel frattempo sono maturate e cresciute, consolidando la propria presenza e la propria reputazione nel mondo dei dati.

E cosa è successo in questi cinque anni?

Una cosa di sicuro positiva è stato senz’altro il fatto che Open Data è diventato un argomento importante che è entrato non solo nelle agende “digitali” ma anche nelle agende “reali” della pubblica amministrazione e degli enti locali. Open Data è stato percepito sin dall’inizio come qualcosa di “facile” attraverso cui fare innovazione e innovare il Paese, grazie anche al “contatto” che ha con tematiche come Open Government, Trasparenza, Accountability,  Ma…

…Ma?

Beh… non c’è dubbio che l’aspetto “immagine” abbia nettamente prevalso sulla sostanza. Le iniziative e i vari portali open data sono stati troppo spesso un’occasione per permettere alla pubblica amministrazione (ma soprattutto ai pubblici amministratori, specie se locali) di indossare il cappello degli innovatori. Ci si è preoccupati essenzialmente di pubblicare qualunque cosa si avesse sottomano per fare numero e magari dire “hey, io sul portale del comune ho più dataset di te”. Il risultato è che abbiamo una enorme quantità di dataset al momento disponibili che è di fatto inutilizzabile.

Stai parlando della qualità dei dati?

Si, anche. Non dimentichiamo che la qualità del dato è un concetto che si sviluppa su più dimensioni.  Tra tutte ne cito due: la “copertura” territoriale e l’aggiornamento del dato. Per copertura territoriale si intende la disponibilità del dato per tutto un intero territorio di riferimento. Un conto è, infatti, che un dato sia  disponibile per un singolo comune, un altro che lo stesso dato sia disponibile ad esempio per tutti i comuni della regione o addirittura per tutti i comuni d’Italia. Di fatto questo è il motivo per cui diventano strategici gli open data delle pubbliche amministrazioni centrali, che spontaneamente nascono già con una copertura nazionale. I dataset poi vanno manutenuti, vanno cioè aggiornati, e questo andrebbe fatto con una frequenza prefissata. In altre parole diventano fondamentali i processi interni alla specifica pubblica amministrazione o ente locale che rilascia i dati. Rendere stabili e strutturali i processi interni che generano un particolare dataset vuol dire accrescere l’appetibilità e il valore di quel dataset in un’ottica di riuso. Spesso quello che invece accade è che la pubblicazione del dato avviene al di fuori dei processi. Basta pertanto anche un cambio di un direttore, dell’assessore di riferimento o l’insediamento di una nuova amministrazione comunale per far crollare tutto.

E’ da poco uscita la terza edizione dell’Open Data Barometer. Qualche commento?

Ci tengo a sottolineare che hanno contribuito a questa terza edizione anche due miei amici e colleghi di Open Data. Erano guarda caso anche loro tra gli organizzatori di Apps4Italy e sono tra i papà degli Open Data in Italia. Parto dalla conclusione del rapporto: va evitato che gli open data diventino “una città fantasma di portali obsoleti, hackathon isolati e applicazioni abbandonate”.Credo realisticamente che in parte questo avverrà. Penso però che questo sia un passaggio necessario e aggiungo anche salutare per permettere l’avvio di una nuova fase degli Open Data, una fase in cui sarà necessario puntare su dataset di qualità e sulla qualità dei processi attraverso cui vengono generati. Che è quello che alla fine ci serve veramente.

Hai associato più volte le parole “innovazione” e “dati”.

I dati “veri” stanno inevitabilmente generando innovazione. E’ quella che possiamo chiamare “data-driven innovation”. Attorno ai dati, infatti, stanno nascendo nuove competenze, nuove tecnologie, nuove opportunità di impresa, nuove modalità di amministrare i territori, nuove modalità per decidere, nuove modalità di essere cittadini.  Negli ultimi tempi abbiamo però banalizzato anche l’innovazione. Abbiamo cominciato a chiamare qualunque cosa “innovazione”, anche il semplice attivismo digitale, e a narrarlo in tutti i modi possibili. Abbiamo poi chiamato “innovatore” chiunque facesse qualunque cosa che prevedesse l’utilizzo di un computer. Diciamo che siamo un Paese in cui tutti sono innovatori un po’ come tutti sono allenatori di pallone, ma che proprio per questo motivo non riesce ad innovare veramente. Serve anche in questo caso una fase nuova, alzando una volta per tutte l’asticella.  L’innovazione, come i dati, sono una cosa seria.

 

Questa intervista a cura di Simona Macellari è stata pubblicata mel mese di Maggio 2016 su http://www.theinnovationgroup.it/newsletter/lospite-del-mese/open-data-luci-dopo-le-ombre/?lang=it

 

Valorizzare i dati pubblici. L’idea di AGID è buona ma gli Open Data sono ancora troppo pochi

Posted by Vincenzo Patruno | Posted in Digital Economy, Gov2.0, Open Data, Open Government, World News | Posted on 02-09-2013-05-2008

0

Ri-pubblico qui un mio articolo scritto per Pionero.it  sulle linee Guida per la valorizzazione del patrimonio informativo pubblico di AGID

linee_guida_600x335

Non c’è dubbio come negli ultimi tempi ci sia stato un  interesse crescente per gli Open Data non solo da parte di associazioni, di community,  di civil servant e di tutti quei soggetti che andiamo genericamente ad etichettare come “la Rete”, ma anche e soprattutto da parte dei governi dei vari Paesi.

Ricordiamo la rilevanza che gli Open Data hanno oramai acquisito nelle varie agende digitali nazionali e locali non solo come “elemento chiave” per consentire la trasparenza dei processi amministrativi della pubblica amministrazione,  per la partecipazione democratica dei cittadini alle scelte che lo riguardano, per il controllo sociale delle politiche pubbliche, l’accountability e per quello che ormai va sotto il nome di “Open government”.

Gli Open Data nascondono infatti anche un enorme valore economico al momento ancora per buona parte inespresso, ma che nasconde grosse potenzialità per il mercato e per lo sviluppo dell’economia digitale.

Anche i Paesi del G8 hanno ritenuto di dover sottolineare tutto il valore che possono avere gli Open Data e nel recente summit dello scorso mese di Giugno hanno adottato l’Open Data Charter, un documento che impegna i singoli governi a mettere in campo una serie di azioni da compiere nei prossimi due anni per il rilascio di varie tipologie di dati ritenuti essere di interesse per i cittadini e per il mercato.

Siamo di fatto arrivati ad un punto in cui si è abbastanza diffusa la consapevolezza del valore che possono avere i dati per lo sviluppo economico e sociale di un territorio. Nonostante questo, gli open data disponibili sono ancora troppo pochi.  E’ vero, ci sono al momento tanti dati di tutti i tipi, ma sono comunque ancora troppo pochi gli Open Data di qualità, quei dati cioè che esprimono veramente delle potenzialità e con cui è possibile farci qualcosa.

A questo va aggiunto che gli Open Data disponibili al momento sono il risultato di iniziative avviate da svariate pubbliche amministrazioni in modo completamente autonomo e indipendente. Ed uno degli effetti del procedere con iniziative isolate e spontanee è quello di rendere estremamente complesso ed oneroso riuscire a fare quello che si fa normalmente con i dati: creare valore aggiunto integrando tra loro dati diversi o prodotti da soggetti diversi.

Ed è proprio in questo contesto che si vanno  a collocare le “Linee guida nazionali per la valorizzazione del patrimonio informativo della PA” di cui si è già ampiamente trattato su Pionero. Il documento è stato rilasciato ad un anno esatto di distanza dalle “Linee Guida per l’Interoperabilità Semantica attraverso i Linked Open Data” ed è stato redatto anche in questo caso dall’Agenzia per l’Italia Digitale che ha coordinato il lavoro di una task-force a cui hanno preso parte numerose pubbliche amministrazioni tra cui Istat, INPS, ISPRA, MIBAC, il Ministero della Salute, la Presidenza del Consiglio dei Ministri, il Ministero per gli Affari Esteri,  diverse Regioni (Veneto, Piemonte, Emilia Romagna, Puglia, Marche, Lombardia, Liguria e Umbria) e alcuni Comuni (Firenze, Bologna, Ravenna, Milano e Palermo) nonchè CISIS, ANCI e UNCEM.

E che ha prodotto un documento in cui vengono date indicazioni e suggerite strategie, tecnologie e modalità operative sulla base degli scenari tecnologici di riferimento nonchè dell’esperienza acquisita “sul campo” dalle singole amministrazioni coinvolte e delle best practices nazionali e internazionali.

Tutto ciò per facilitare la pubblicazione come Open Data del patrimonio informativo pubblico, dando nello stesso tempo anche una serie di indicazioni sulle modalità tecnologiche da utilizzare come riferimento. E andando di fatto a facilitare tutto il lavoro in corso per la definizione dei regolamenti interni previsti dal decreto crescita, visto che i regolamenti dovranno necessariamente attenersi a quanto previsto dalle linee guida.

Open Data: perche’ abbiamo bisogno di una “fase due”

Posted by Vincenzo Patruno | Posted in Digital Economy, Open Data, Open Government | Posted on 29-04-2013-05-2008

0

open data fase due

Questo articolo è stato pubblicato su Pionero.it

Era un pò di tempo che avevo in mente di scrivere questo articolo, ma  ho sempre rimandato in quanto, come sempre accade, riescono ad avere la meglio i progetti da seguire, le scadenze da rispettare, le docenze da preparare e chi più ne ha più ne metta.

Da più parti, infatti, negli ultimi tempi, stanno giungendo segnali che qualcosa sta cambiando attorno al dibattito in corso sugli Open Data. Il che rende questo articolo un pò più adatto ad essere scritto ora che non qualche tempo fa.  Negli ultimi tempi, infatti, molti tra gli attori principali che fin qui hanno agito a sostegno delle iniziative sui dati aperti stanno pian piano invocando la necessità di passare a quella che potremmo chiamare la “fase matura” degli Open Data.

Facciamo qualche considerazione. La prima è che è già da qualche anno che si parla in modo anche piuttosto “intenso” di Open Data. Pensiamo a tutte le iniziative lanciate dai vari Enti pubblici negli ultimi tempi, alle Agende Digitali locali e nazionali, alle varie competizioni sui dati aperti, alle iniziative di tipo legislativo intraprese a livello nazionale e a livello di governi regionali. Addirittura anche la presidenza britannica del G8 ha lanciato una iniziativa per arrivare a rilasciare un insieme di dataset Open in occasione del vertice dei Capi di Stato e di Governo del prossimo mese di Giugno.

Sembra quasi che Open Data abbia assunto le caratteristiche di una moda da seguire piuttosto che di una opportunità per la società. Questo fa sì che se da una parte si moltiplicano le iniziative legate a gli Open Data, dall’altra si punta ancora molto poco all’efficacia di tali iniziative.

E qui la seconda considerazione. Se infatti andiamo a guardare cosa sta accadendo sul fronte del riuso del dato, che ricordiamo essere l’elemento chiave degli Open Data, dobbiamo probabilmente constatare che sta accadendo ancora molto poco.

Le community di sviluppatori faticano al momento a trovare sufficientemente appetibili gli Open Data per progetti che possano andare al di là di un loro utilizzo come semplice esercizio. I data journalist non sono messi meglio. I dati di cui hanno più bisogno sono ancora ben custoditi all’interno degli uffici delle pubbliche amministrazioni. Le aziende e il mercato poi si stanno ancora interrogando su quali possano essere i modelli di business e di conseguenza quali possano essere gli investimenti da fare sugli Open Data per poter generare in qualche modo profitti.  Infine, chi vedeva gli Open Data come un elemento per la trasparenza dell’azione amministrativa e per l’accountability sta verificando come ci sia ancora molto lavoro da fare, e questo nonostante le iniziative di tipo legislativo che pian piano stanno finalmente vedendo la luce.

Tutto sbagliato tutto da rifare? Assolutamente no. Tutto quanto accaduto finora è stato necessario che accadesse nei modi che abbiamo conosciuto. Ma affinché gli Open Data possano effettivamente apportare quei benefici alla società che sono stati più volte ipotizzati è necessario passare ora ad una “fase due”, ad una fase “matura” dei dati aperti che potremmo chiamare probabilmente quella dell’“industrializzazione degli Open Data”.

Partiamo con ordine, e il punto di partenza è che dobbiamo riconoscere che non tutti i dati sono uguali. Abbiamo bisogno di dati che si prestano ad essere riutilizzati, e gli Open Data che esprimono potenzialità per essere riutilizzati non sono dati qualunque ma sono gli Open Data di qualità.

Ora, per qualità dobbiamo intendere non soltanto l’accuratezza del dato e magari la qualità della documentazione che va (sempre) rilasciata a corredo del dato. Un elemento fondamentale per la qualità è anche la tempestività con cui vengono rilasciati. Non dobbiamo dimenticare infatti che più tempo passa tra il momento a cui un dato si riferisce e quando quel dato viene reso pubblico che il dato inevitabilmente si depotenzia. Tutti i dati subiscono un depotenziamento con il trascorrere del tempo. Ovviamente la velocità con cui questo avviene dipenderà dal tipo di dato.  Un dato infatti si depotenzia tanto più rapidamente quanto più quel dato va a descrivere fenomeni che per loro natura cambiano più o meno velocemente nel tempo. I dati che descrivono fenomeni in tempo reale si depotenziano infatti molto più rapidamente di tutti gli altri. Pensiamo ad esempio ai dati del traffico su un tratto di strada, ai dati che indicano dove si trovano in quel momento i mezzi pubblici urbani, a quelli dei posti liberi nei parcheggi di una città, a quelli delle centraline per il rilevamento delle polveri sottili e così via.

Un’ulteriore caratteristica di qualità è il livello di dettaglio a cui il dato viene reso pubblico. Sin da quando si è cominciato a parlare di Open Data, lo si è fatto al grido di “raw data now”  quindi chiedendo a gran voce che fossero i dati “grezzi” ad essere resi pubblici.  Non sempre però il dato grezzo è pubblicabile in quanto spesso si porta dietro tutta una serie di problemi legati alla riservatezza e alla confidenzialità. Ad ogni modo, il dato va anonimizzato (quando serve farlo) e rilasciato a livelli di dettaglio spinti, ovviamente fin dove possibile, in modo da preservarne le potenzialità ma nello stesso tempo in modo da tutelare la privacy dei soggetti interessati.

Ma per ottenere dati di qualità serve puntare ad avere qualità nei processi che generano quei dati. Un ente pubblico genera dati all’interno degli uffici che gestiscono i vari processi amministrativi di cui quell’ente è responsabile. I dati vengono generati “spontaneamente” e quotidianamente in quanto conseguenza del lavoro ordinario di quella Pubblica Amministrazione. Produrre Open Data viene invece visto al momento come una attività separata da fare occasionalmente e che di frequente necessita di una fase supplementare di ricognizione e di “recupero” dei dati da rendere pubblici.

Ed è proprio da qui che bisogna partire per far si che la produzione di Open Data diventi invece parte integrante dell’attività ordinaria della PA.  In altre parole bisogna fare in modo che gli Open Data siano generati in modo strutturale all’interno dei vari processi amministrativi e questo lo si ottiene, ed è la parte più difficile, intervenendo proprio sull’organizzazione dei processi interni.

Infine una considerazione sulla copertura del dato. Un ulteriore elemento di qualità che va ad amplificare le potenzialità del dato è infatti la sua copertura territoriale, ossia la disponibilità dello stesso dato anche per altre regioni, province o comuni. Quello che invece accade è che i dati al momento hanno una caratteristica fortemente “locale”. Le amministrazioni che hanno  rilasciato il proprio catalogo Open Data lo hanno fatto in modo autonomo e indipendente e questo ha fatto sì che l’offerta di Open Data sia al momento fortemente frammentata e disomogenea sul territorio. Il che costituisce un grosso limite per chi voglia fare veramente qualcosa con i dati. Come se ne esce? Andrebbe forse sottolineato ancora una volta il valore della community, specie tra soggetti della Pubblica Amministrazione. E’ infatti attraverso il lavoro comune e la condivisione che possiamo colmare questo limite, ampliando l’offerta informativa di ognuno ed integrandola con quanto è stato fatto da altri. Per arrivare magari in modo spontaneo ad un Programma Open Data Nazionale condiviso. E questo, credetemi, varrebbe molto più di regole, programmi e normative calate dall’alto.

#IF2012 – Data Economy, prospettive di mercato

Posted by Vincenzo Patruno | Posted in Big Data, Data Sharing, Digital Economy, Events, Open Data | Posted on 06-10-2012-05-2008

0