Visualizzazione post con etichetta 2014. Mostra tutti i post
Visualizzazione post con etichetta 2014. Mostra tutti i post

sabato 13 giugno 2015

Gli appalti 2014 della regione Emilia Romagna visualizzati

In occasione dell'hackathon organizzata dalla Regione Emilia Romagna per lavorare sui dati rilasciati sull'area Amministrazione Trasparente abbiamo lavorato sui dati di appalti e contratti assegnati dalla regione nel 2014.
I dataset di orgine sono stati 2 : Bandi di gara e contratti e Società partecipate .



domenica 28 dicembre 2014

Come riusare la mappa di ConfiscatiBene


Da un po' di tempo cercavo uno strumento che consentisse di mettere in piedi una mappa interattiva di rappresentazione di dati con un po' di caratteristiche 'avanzate' già pronte e che non richiedesse pesante programmazione.
Per fortuna la comunità opendatara è un vulcano di risorse :)
La mappa costruita dagli amici del progetto ConfiscatiBene è uno strumento di esplorazione dei dati veramente ben costruito e che mi ha colpito fin da subito per la semplicità di utilizzo. In più, il mitico Dataninja, Alessio Cimarelli è riuscito nell'intento di rendere facilmente riusabile la mappa facendone uno strumento parametrizzabile : https://github.com/Dataninja/advanced-mapping-tool.


Mappa fallimenti

Per sperimentare il tool dei Dataninja ho usato un dataset che ho generato facendo un po' di scraping in rete, il dataset contiene un insieme di imprese italiane fallite dal 2010 al 2014 con dettaglio per Comune; sulla scarsità di dati anagrafici di impresa liberamente accessibili occorrerà poi fare un post apposito :( . Facendo un confronto con i dati ufficiali sui fallimenti si nota comunque che la visualizzazione è sensata almeno per quel che riguarda il trend annuo di crescita e la grandezza relativa del numero di fallimenti a livello territoriale.
Come prima cosa ho forkato il progetto su GitHub https://github.com/eccoilmoro/advanced-mapping-tool/ e ho letto le istruzioni di parametrizzazione le quali spiegano come agire sul file di configurazione (dataninja-advanced-mapping-tool.conf.js) per crearsi la propria mappa.
Spulciando tra le issues del progetto ho notato che Alessio ha pure inserito una cartella demo contenente già dati e parametrizzazioni , la demo riguarda proprio i dati di ConfiscatiBene e io l'ho usata come punto di partenza.
La cartella 'fallimenti'
Ecco i passi successivi :
1. Nel branch gh-pages ho quindi duplicato la cartella 'confiscatibene' e rinominata in fallimenti
2. Ho lasciato inalterata la cartella geo che contiene i confini territoriali regionali provinciali, comunali mostrati nella mappa
3. Ho caricato nella cartella 'data' i 3 dataset contenenti il numero di fallimenti per regione,provincia,comune. Ciascun dataset deve avere una colonna chiave che gli permetta di fare join con i dati dei confini territoriali. Ho usato il formato json ma lo strumento consente anche il formato csv.
4. Ho rinominato il file confiscatibene.conf.js e confiscatibene.custom.css in fallimenti.conf.js e fallimenti.custom.css e modificato index.html per farlo puntare a tali files.
5. Ho configurato fallimenti.conf.js impostando l'origine dei dati, il tipo di visualizzazione tematica (per ora è configurabile solo choropleth) e alcune descrizioni.

Ecco il risultato finale (link per schermo intero) :

   

domenica 13 luglio 2014

Le fusioni e i confini dei Comuni italiani 2014

La tendenza è oramai accertata, i Comuni italiani sempre più spesso si uniscono dando vita a Unioni di Comuni o addirittura si fondono in nuove entità comunali. I motivi di questi movimenti sono da ricercare innanzitutto nella necessità di realizzare economie accorpando la gestione dei servizi nonchè nella opportunità di unire realtà troppo piccole permettendo loro di avere sufficiente 'forza' per rispondere ai nuovi bisogni.
Nel solo 2014 sinora ci sono state 24 fusioni di Comuni e altre sono in cantiere, tante quante se ne sono avute dal 1930 al 2013, segno di una chiara strategia 'accorpatrice' (qui le parole del presidente dell'ANCI Fassino) . Ci sarebbe poi da scrivere un intero post sui nomi dei nuovi Comuni, quasi tutti generati per contatenazione dei nomi dei Comuni componenti (le fusioni non vanno d'accordo con il campanilismo dei nostri paesi, c'è da augurarsi che la cosa non sia ricorsiva , ci troveremmo con nomi kilometrici :) ).

Questa notevole attività di modifica delle entità amministrative si riflette ovviamente anche sui confini comunali, i quali vengono ridisegnati con notevole frequenza. Per chi lavora con i dati geografici risulta quindi difficile rimanere aggiornato, tanto più che l'ISTAT mette a disposizione solo i confini comunali del 2011.
Anche io per elaborare la mappa dei redditi dei Comuni italiani ho dovuto fare un lavoro di corripondenze poichè i dati del MEF sono forniti su basi comunali più aggiornate rispetto ai confini 2011 dell' ISTAT (nei dati del MEF sono presenti già molti comuni fusi che invece risultano ancora separati nei dati ISTAT).

Per ovviare al problema ho creato un dataset che consente di fare la corrispondenza tra i Comuni del 2011 e i Comuni del 2014, in particolare nel dataset c'è la corripondenza tra 2011 e Gennaio 2014 e tra 2011 e Febbraio 2014. Infatti i dati del MEF che ho trattato si riferiscono alla situazione a Gennaio 2014, successivamente però ci sono state ulteriori fusioni di Comuni.
Per mezzo di tale dataset ho poi costruito lo shapefile dei confini dei Comuni italiani a Febbraio 2014, qui rappresentato con una mappa che mostra in colore diverso tutti i Comuni che si sono fusi dal 2011 al 2014/02 (le fusioni sinora coinvolgono solo il Centro-Nord).
Penso che sia il dataset di corrispondenze che lo shapefile possano rivelarsi utili per coloro che operano su dati a livello comunale. Sarebbe auspicabile, vista la tendenza in corso, che l'ISTAT rilasciasse periodicamente un dataset di corrispondenze che tenga conto delle fusioni di Comuni consentendo a tutti di ridisegnare i confini comunali ad una certa data.


sabato 26 aprile 2014

Un post molto noioso sui programmi elettorali

A circa una settimana dalle elezioni amministrative di Lugo ancora in molti sono indecisi su quale sindaco scegliere, con questo post vorrei dare una mano a chi come me si vuole informare in tal senso.

In questa campagna elettorale sono andati per la maggiore gli aperitivi, i pranzi di autofinanziamento, i super-ospiti, i confronti tra i candidati a colpi di slogan più che di idee; tutto molto bello per carità, e i programmi elettorali ? Si, ci sono anche quelli. Sono assai noiosi, sicuramente più noiosi di uno spritz in compagnia o di una braciolata di gruppo.

Eppure su che cosa ci si dovrebbe basare per scegliere chi ci governerà? La fiducia che ispira un candidato è sufficiente a fare una scelta? La cieca fede in una parte politica è buona consigliera?  Io penso di no.
Penso che la politica sia in questo stato anche perchè le persone non leggono i programmi politici (perchè i programmi sono scritti allo stesso illeggibile modo da 50 anni....), non sanno cosa è stato pianificato per loro, se non quelle 3 o 4 proposte 'civetta' che riescono a trattenere.
Sono anche convinto che buona parte dei più accaniti sostenitori delle varie parti in campo non abbiano idea di cosa contengono i programmi dei candidati, da dove traggono tanta convinzione?

Se non si conosce cosa c'è nel programma politico di un candidato che diviene sindaco , non si può chiedere conto delle promesse non mantenute, non si può responsabilizzare la politica e la pubblica amministrazione nei 5 anni di mandato.

In quest'ultima campagna elettorale non ho visto granchè di diverso da quelle che cho visto in passato, eppure la distanza tra la politica e le persone è ormai siderale, probabilmente andava fatto qualcosa di diverso, di nuovo.
Questa lontanza tra persone e politica non si colma secondo me offrendo aperitivi o strigendo mani. Difficile chiedere razionalità ad una campagna elettorale, ma bisogna partire dalle proposte, dai programmi e dalla loro realizzazione.

Per questo ho cercato di sintetizzare le proposte dei candidati sindaco mettendole insieme per riuscire a confrontarle. Purtroppo sono riuscito a reperire con facilità in formato elettronico solo 3 programmi (Ranalli, Verlicchi, Coppola) da poter elaborare (soliti PDF che nessuno legge...), gli altri non li ho trovati e mi scuso se non ho avuto la 'voglia' anche di trascrivere papiri di carta....
Da questi 3 programmi ho cercato di estrarre le proposte, non è stato sempre facile anche perchè spesso nella prosa di questi scritti politici non si distingue bene cosa è veramente una cosa che verrà fatta o cosa invece è un intento o un tentativo o una suggestione, o anche qualcosa che verrebbe fatto comunque perchè già pianificato dall'amminitrazione in carica.

In ogni modo a colpi di copia-incolla un po' rozzi ho creato un dataset di proposte classificate con temi che mi sono sembrati accettabili. Devo dire che molte delle proposte programmatiche che ho individuato non sono facilmente misurabili in un ottica di controllo dell'operato del futuro sindaco, a mio avviso i punti di programma dovrebbero avere un qualche tipo di indicatore di performance simile a quello che si usa per verificare i Piani Esecutivi di Gestione delle amministrazioni comunali, da aggiornare durante i 5 anni di mandato.

Ho messo le proposte di programma in questa pagina nella quale si possono filtrare le proposte per tema o ancora cercare una singola parola (per esempio se qualcuno vuole sapere le sorti del Pavaglione basta che cerchi la parola in questione nell'apposito campo). Avrei potuto fare un lavoro migliore per rendere più leggibili da un punto di vista semantico le proposte (ulteriori classificazioni per esempio) ma i dati da cui partivo non me lo permettevano e anche il poco tempo a disposizione....
Embeddo anche qui di seguito ma suggerisco di usare l'apposita pagina.



martedì 1 aprile 2014

Impegno,civismo,nerditudine: #SOD14



Per raccontare tutto quanto è accaduto a Bologna al raduno di Spaghetti Open Data , che ha visto
quest'anno un aumento considerevole dei partecipanti e temi , servirebbero paginate di commenti e comunque non riuscirei ad esprimere tutta la ricchezza dei contenuti emersi.
Cercherò allora di raccontare l'esperienza #SOD14 con una 'soggettiva' di frammenti di quanto ho vissuto in prima persona nei 2 in cui sono potuto essere presente.

Premiazione del contest Ra4Open
Durante il fitto programma della plenaria di Venerdì mattina, si sono premiati i vincitori del concorso indetto dal Comune di Ravenna per il riuso dei dati pubblicati sul neonato portale open data.
Photo by Matteo Fortini
Il concorso ha avuto un numero di partecipanti a mio avviso superiore alle aspettative, in poco meno di un mese sono stati infatti presentati 12 progetti. Questo è un segnale forte di interesse per il tema dei dati aperti, un interesse che ha coinvolto soprattutto ragazzi giovani ,quelli che hanno l'energia giusta per innovare veramente. Il concorso è stata anche l'occasione per migliorare la qualità dei dataset presenti sul portale, diversi concorrenti infatti hanno indivuduato e corretto errori presenti sui dati, si tratta di un lavoro preziosissimo che dovrebbe essere messo 'a sistema' con meccanismi di review e feedback utili a mantenere la base di dati sempre a buoni livelli qualitativi.
Da un punto di vista tecnico poi, avendo avuto la possibilità di fare parte della giuria, devo dire che le applicazioni premiate sono effettivamente di buona qualità, considerando anche il poco tempo per svilupparle. Ora sono da perfezionare per renderle ancora più usabili, avanti così!!

Il barcamp
Nel pomeriggio di Venerdì all'interno del barcamp che comprendeva 13 sessioni , che avrei voluto seguire tutte (il prossimo anno piazzerò videocamere ovunque :)) ), ho scelto di partecipare alla sessione su Openbilanci e a quella sull'integrità dei dati.

Openbilanci
Con Ettore Di Cesare di Openpolis abbiamo parlato del prossimo rilascio (questione di settimane) della piattaforma Openbilanci. Il progetto, portato avanti per qualche anno , ha raccolto i dati di bilancio degli ultimi 10 anni degli oltre 8000 Comuni italiani per per renderli disponibili in open data e fruibili attraverso visualizzazioni in un unico portale. Lo scopo è quello di creare un luogo in cui cittadini, imprese, giornalisti, amministratori possano trovare dati chiari e fruibili sulla finanza locale, portando tali dati alla conoscenza non solo degli addetti ai lavori. La fonte dei dati è http://finanzalocale.interno.it/ , sito sul quale è stato fatto un massiccio lavoro di scraping per estrarre le informazioni di tuttti i Comuni dall' HTML; un lavoro notevole è stato inoltre quello di 'normalizzare' i bilanci che hanno subito riclassificazioni nel corso degli anni per renderli tutti comparabili anno su anno.
Il progetto prevede in più di arricchire i dati di bilancio, affiancandovi anche altri dati reperipili da banche dati pubbliche (es. dati demografici, numero di auto immatricolate, dati sulle sulle fasce di reddito IRPEF, etc...) e in grado di offrire così maggiori informazioni di contesto. Inoltre è previsto che il portale possa accogliere feddback degli utenti e integrazioni per rendere la base di dati aperta alla partecipazione.
In ultimo la piattaforma potrà essere 'affittata' in versione hosted dai Comuni che volessero gestire i propri dati in modo autonomo.
Il progetto va incontro alla necessità, a mio parere non più procrastinabile, di 'riformare' la comunicazione tra la PA e i cittadini , per questo attendo con impazienza il rilascio della piattaforma e confido che le amministrazioni locali ne facciano l'uso più largo possibile.

Chi controlla l'integrità dei dati
Con il compagno spaghettaro Matteo Fortini ci siamo interrogati sui metodi e le tecniche per verificare la qualità dei dati (ecco le slide di Matteo). La sessione è nata in seguito a diversi thread che si sono susseguiti sulla mailing list di Spaghetti Open Data relativi ai problemi che si affrontano nel garantire dati 'buoni' in un panorama sempre più affollato di dati, fonti, elaborazioni. L'argomento è assai vasto e complesso ma assai importante per riuscire a capire dove sta l'errore in un certo dataset, se qualcuno ha manipolato i dati, se la base dati è corrotta etc... Esistono delle buone pratiche per verificare la qualità dei dati (qui per esempio quelle seguite da ISTAT) e anche tecniche di hashing per dare garanzie di integrità e non ripudio ma nella pratica chi lavora coi dati deve fare molto affidamento sulla sua esperienza e sulla sua conoscenza del dominio di applicazione. Non esistono metodi passo-passo generalizzabili che da una base di dati grezza portino ad un dataset pulito e 'corretto', oltre ai controlli formali  e di coerenza con i metadati (se ci sono), esistono infatti anche controlli domain-driven che riguardano lo specifico dataset (penso ad esempio alle regole di partita doppia per i bilanci).
Penso che il tema in questione non si possa ridurre in poche righe, una cosa è certa, per riuscire a verificare la qualità e l'integrita di un dato serve molta pratica, esperienza, conoscenza del dominio e un attitudine a guardare i dati con approccio puramente scientifico. Confido inoltre che oltre a tanti più dati ci saranno anche tante più persone interessate a usarli e valutarli in modo da creare una ampia popolazione di reviewers , una moltitudine di occhi in grado di garantire dati integri e buoni.

L'Hackathon
Photo by Matteo Fortini

Nella giornata di Sabato ha avuto luogo l'hachathon (ma non sono mancate neppure le goliardiche premiazioni "Master Chef" agli opendatari benemeriti :) ), il momento più atteso da molti, quando si può finalmente lavorare insieme per creare qualcosa. Le tracce di hackthon in programma erano 4, ma poi si sono moltiplicate spontaneamente :) e io ho partecipato alla traccia che si occupava di dati sulla sanità.

Il lavoro è partito da una base di dati ministeriale assai ampia di indicatori di efficacia delle cure di tutte le ASL italiane su base decennale. Come prima cosa abbiamo cercato di capire il significato delle diverse colonne dei dataset e il razionale, un documento PDF che spiegava in dettaglio ciascun indicatore di efficacia per patologia. Vista la grandezza della base di dati abbiamo quindi dovuto scegliere di concentrarci su una patologia in particolare in modo da potere riuscire ad avere un lavoro più possibile completo a fine giornata. Abbiamo scelto di focalizzare l'attenzione sul diabete e sull'indicatore fissato per valutare l'efficacia delle cure, il numero di amputazioni agli arti inferiori. Il gruppo ha lavorato dunque alla pulizia dei dataset coinvolti, all'aggiunta di dati di controllo, alla scelta della dimensione di aggregazione ottimale, all'analisi statistica di base per individuare medie e varianze. Alla fine tutto messo su una mappa ed ecco il risultato (ci stiamo ancora lavorando però!) : http://www.dataninja.it/diabete-amputazioni-evitabili-litalia-peggiora/

Takeaway
Cosa porto con me dopo questo secondo raduno? La conferma di avere incontrato persone con le quali condivido gran parte degli intenti , dell'impegno che stanno alla base della filosofia open data; persone di estrazione e cultura diversa la cui eterogeneità costituisce una ricchezza notevole sia perchè dall'incrocio di competenze si estrae maggiore conoscenza , sia perchè gli ambiti di competenza diversi permettono di creare una rete più aperta al cambiamento e all'ingresso di nuove persone.
In ultimo, mi porto via il diploma che appenderò con riconoscenza in bella vista ;) .