Site icon LSDI

data journalism (segnalazioni dal mondo)

Prendiamo spunto da una segnalazione dal mondo web, per parlare di data journalism. Ci pare che dopo il “lancio” iniziale, enfatizzato come salvifico per il giornalismo digitale, non sia cambiato granché, o meglio le premesse siano disattese. Dati aperti, condivisione di dati e strumenti, collaborazione dove sono finiti? 

NiemanLab riportando la notizia di una collaborazione fra GlobalVoices e MediaCloud (  piattaforma open source che fornisce data set fonti di notizie e strumenti destinati all’analisi del come si realizza la copertura di una notizia) e grazie, soprattutto, alla grande operazione che Google sta facendo con il progetto DNI, apre una riflessione  su dati, giornalisti, tecniche e tecnici….

Dalla riflessione di NiemanLab alcuni stralci:

 

“Da tempo, tento di analizzare più a fondo (tramite la disponibilità di dati e analisi quantitativa) le notizie sotto-rappresentate o mal raccontate online,” afferma Ivan Sigal, direttore esecutivo di Global Voices,  “Abbiamo la possibilità di indagare in questo senso quando possiamo collaborare con esperti di dati della nostra comunità ma non siamo in grado di farlo su base regolare.”

Google ha dato loro la possibilità di lavorare con regolarità in questo modo. E’ il problema di sempre quello della grande disponibilità di dati che se non letti nel modo corretto possono raccontare storie che non corrispondono alla realtà o che non la mostrano per intero.

Con il progetto NewsFrames, l’attenzione è tanto sulla costruzione di un prodotto quanto sulla comprensione delle questioni editoriali, lo strumento ha lo scopo di affrontare  e sviluppare un processo editoriale che permette alle persone di utilizzare quello stesso strumento in modo da generare storie che siano di valore per tutti nel mondo.

E’ qui che sta il centro della questione: ascoltare la comunità e i dati che ella stessa può fornire a professionisti in grado di metterli insieme e tradurli: i data journalist.

“Abbiamo un sacco di idee e nozioni, in fase di test, siamo interessati a cercare di creare qualcosa che permetta, in modo collaborativo, la costruzione e la gestione di query (interrogazione di database che permetta di estrarre alcuni di questi) e temi di ricerca nel corso del tempo”, ha detto Sigal. “Una delle sfide di MediaCloud sta nell’essere stato creato per specialisti e ricercatori, quindi non accessibile a tutti, la speranza è di portare tutto questo anche ad altre persone. “

“Il nostro approccio, consapevole del fatto che è possibile creare tecnologia non adatta a tutti, o solo per poche persone  o che comporti un esborso importante di denaro… Ecco perché stiamo cercando di porre l’accento sulla parità sia dal lato editoriale, sia dal lato tecnologico ”

“Invece di iniziare con la tecnologia e cercare di convincere la gente ad utilizzarla, stiamo partendo dalla questione di ciò che ha valore per la nostra redazione. “

Insomma partire da numeri, da analisi specifiche per arrivare alla condivisione e collaborazione nella realizzazione e comprensione di un prodotto editoriale che sia di valore. La questione, come già detto, va oltre le competenze specifiche che sono necessarie per “trattare” i dati, qui ci si chiede quali storie/notizie possano essere utili per chi le fruirà ( fondamento del fare giornalismo, aggiungiamo). Il passo ulteriore è creare uno strumento, qualcosa che sia accessibile a tutti anche in fase di creazione della notizia.

Ci pare ripercorrendo il nostro archivio che ancora poco di tutto questo si stia realizzando:

La questione competenze di chi i dati li deve “tradurre”:

…competenze di base in statistica / matematica, elaborazione di dati non strutturati, interrogazione dei dati attraverso SQL e programmazione. Questi – spiega Harris di Gigaom – sono i requisiti nativi del web, dove i dati assumono spesso forme diverse dai classici numeri in una tabella…

… più creatività, altrimenti si rischia di riprodurre gli stessi vecchi risultati mettendoli solo, semmai, in una confezione più accattivante.

Chiaro il bisogno di giornalisti-mediatori con un livello di formazione elevato, tale da assicurare standard professionali di qualità sempre maggiore.

Insieme a Jacob Harris (@harrisj) abbiamo anche ipotizzato di diffidare della data j.  Harris sottolinea… l’analisi dei dati è sempre un processo complesso, tedioso e costoso, quindi da prendere (e proporre) con la dovuta cautela.

Nell’ormai lontanissimo 2010 scrivevamo così:

Data journalism, il futuro della professione? E’ la convinzione di Paul Bradshaw, esperto di giornalismo online… analizza le prospettive di un incontro ravvicinato fra il lavoro giornalistico e i ricchi giacimenti di dati disseminati nella Rete ‘’leggibili’’ da programmi informatici 

– Affiancare il potere dell’elaborazione computerizzata al nostro arsenale giornalistico ci consente di fare di più, più velocemente, più accuratamente, ed in condivisione con gli altri – I due movimenti culturali che si sono incrociati aggiungendo una dimensione politica alla diffusione dei dati: quello degli open data e quello dei linked data; i giornalisti dovrebbero avere familiarità con entrambi i movimenti… La sovrabbondanza di dati pubblici resi disponibili costituisce un ricco serbatoio di materiale grezzo. La scarsità invece riguarda le professionalità in grado di collocare e dare senso a tutto quel materiale, una programmazione capace di scavarlo a fondo e raffrontarlo con altre fonti, le competenze statistiche per spacchettarlo e quelle grafiche per disegnare un layout per la visualizzazione –

 

Ci pare che la buona premessa degli anni passati sul data journalism sia ancora non completamente realizzata. Oltre alle competenze giornalistico-tecnico-statistiche servono collaborazione e condivisione soprattutto.

Per chi volesse approfondire:

il primo ebook sul data journalism in Italia di Andrea Fama

 

Data Journalism: panacea per il giornalismo in crisi o nulla di nuovo sotto al sole?

 

Manuali e tutorial

 

il nostro archivio LSDI sul data journalism.

Exit mobile version