Se ‘Gola Profonda’ incontra ‘Data Mining’

golaprofonda.jpg
‘’Sul filo del rasoio la rivoluzione digitale corre in salvo della democrazia. E, forse, del giornalismo’’, dice John Mecklin in questo articolo su Miller-McCune – Il cosiddetto ‘’computational journalism’’ (giornalismo informatico) e l’ efficacia dei giornalisti nei confronti delle istituzioni, anche attraverso il ‘’data mining’’, la possibilità di aggregare la grande quantità di dati presente nella rete ricavandone degli spunti inattesi – Un nuovo attore – il tecnico – entra nel discorso pubblico

——–

di John Mecklin
(da Miller-McCune)

 

Gettando uno sguardo al panorama dei media è evidente che la maggior parte dei principali organi d’informazione ha visto il proprio business model minato dalla rivoluzione digitale. In virtù dell’erosione dei propri monopoli a favore di competitor di nicchia on-line, i tradizionali media d’informazione hanno ridimensionato le proprie entrate, lasciando i giornalisti tra onde che sono diventate tsunami. Questo processo non delinea prospettive luminose per il futuro del giornalismo investigativo, spesso considerato come la più costosa attività giornalistica.

Sam Zell, amministratore delegato di Tribune Company, ha riassunto perfettamente la visione giornalistica dei titani mediatici del XXI secolo: “Non ho ancora capito come monetizzare il Premio Pulitzer”.

Tuttavia, la rivoluzione digitale che minaccia l’esistenza di approfondimenti e reportage, potrebbe dare qualcosa indietro alla professione giornalistica grazie all’emergere di una nuova disciplina: il “computational journalism” (o “giornalismo informatico”) che, secondo James Hamilton, direttore del DeWitt Fallace Center for Media and Democracy, dovrebbe aumentare le capacità e l’efficienza dei giornalisti nei confronti delle istituzioni. Hamilton ritiene che il giornalismo responsabile non possieda caratteristiche di utilità ed interesse pubblico tali da trasformarlo in una fonte centrale di entrate nel disaggregato mondo mediatico di Internet. Per ogni Watergate che fa riversare i lettori tra le pagine del Washington Post, infatti, vi sono decine di altre inchieste, altrettanto approfondite e costose, che però passano inosservate poiché il pubblico è più interessato a notizie come il ritorno sulle scene di Britney Spears, ad esempio (come conferma il caso della rivista Rolling Stone, un tempo bibbia politico-culturale del Watergate).

A quanto pare, in uno scenario Web così disaggregato, utenti e inserzionisti non sono disposti a pagare i costi del giornalismo investigativo. Ma Hamilton è convinto che i progressi informatici possano alterare tale equazione, addirittura sostituendo l’attività umana – lenta e costosa – alla base dell’attuale giornalismo d’approfondimento.

Complessi algoritmi sono già usati per aggregare contenuti destinati a siti Web come Google News, che offre un’ampia selezione di giornalismo on-line, senza ricorrere all’intervento dei giornalisti. Secondo Hamilton, in un futuro relativamente prossimo, questo processo si estenderà e gli algoritmi saranno in grado di aggregare informazioni da diverse fonti ed usarle per scrivere intere parti di articoli.

Un esempio teorico è fornito da EveryBlock, un portale che copre l’informazione di undici città americane. Inserendo il proprio indirizzo nel motore di ricerca, EveryBlock fornisce informazioni civiche, notizie d’attualità e contributi informatici legati ad una precisa area geografica (vedi Lsdi, Le notizie locali…). In futuro, secondo Hamilton, vi saranno algoritmi capaci di elaborare queste informazioni sotto forma di articoli su misura per ogni area geografica, fornendo agli utenti, ad esempio, una storia di criminalità locale ed esplorandone il dato statistico rispetto all’anno precedente. Uno strumento del genere, in pratica, consentirebbe di fornire informazioni iper-locali senza i costi del giornalismo. Una prospettiva che non esalta Hamilton, né come professionista né come lettore.

Ma Hamilton parla anche di un’altra tendenza che influenza il giornalismo investigativo, ovvero il data mining nell’ interesse pubblico.

Quando, nel 2002, il New York Times ha riportato la notizia che un’agenzia americana stava sviluppando un sistema di rintracciabilità del terrorismo chiamato Total Information Awareness (consapevolezza totale dell’informazione, N.d.R.), i difensori della privacy hanno sussultato. Il motivo? Il Governo avrebbe pianificato di trasferire le informazioni presenti su Internet in un enorme database, per poi usare algoritmi informatici – le cosiddette strategie di data mining – e analisti umani allo scopo di identificare percorsi e associazioni prima inosservate che, invece, segnalerebbero una pianificazione terroristica. 

Il progetto è poi sfumato per i potenziali abusi politici che implicava, ed il termine data-mining ha conservato una connotazione autoritaria, che ricorda il Grande Fratello e il Dott. Stranamore in molti ambienti sinistroidi e libertari.

Ma incrociare le informazioni contenute nei database allo scopo di individuare comportamenti sbagliati non è necessariamente una pratica vile. Potrebbe, infatti, aumentare la responsabilità del Governo. Un esempio è costituito dal sito della Sunlight Foundation che, attraverso vari progetti, rivela l’intreccio tra il denaro, le lobby e il Governo di Washington in modo prima impensabile.

Un esempio è costituito dal sito Party Time, che informa circa le location in cui i politici americani terranno un party, spesso allo scopo di raccogliere fondi. E a proposito di denaro, c’è Fortune 535, un sito che tenta di ricostruire le finanze dei membri del Congresso attraverso il vago sistema di dichiarazione dei redditi elaborato dai membri stessi. Ebbene, scoprire tutto ciò con un click anziché con estenuanti viaggi a Washington è senz’altro interessante.

Un esempio più complesso di come si possa tenere traccia dell’attività di governo è watchdog.net, un’altra offerta della Sunlight Foundation. Digitando il nome “Pelosi”, ad esempio, si otterranno le cifre della sua campagna di raccolta fondi, l’archivio della sua attività legislativa, così come una lista che spiega come i suoi voti corrispondano alle posizioni di diversi gruppi d’interesse. Il servizio si basa sull’incrocio delle informazioni provenienti dai database di gruppi la cui attività mira a rendere l’informazione governativa più accessibile al pubblico. E di fatto è così: con un solo click si possono ottenere gli stessi risultati di raccolta e verifica delle informazioni che sono alla base del giornalismo investigativo.

Nell’era post-Google, Allison intravede la possibilità che gli algoritmi informatici possano elaborare l’incredibile quantità d’informazioni disponibili su Internet, fornendo ai reporter un potenziale giornalistico cui non avrebbero mai potuto attingere. È giusto sottolineare, però, che questi programmi possono solo migliorare l’attività giornalistica, magari rendendola più efficiente, ma non possono sostituire i giornalisti, i quali sfrutteranno questi strumenti per informarsi e far meglio il proprio lavoro.

I giornalisti investigativi hanno sempre usato il computer per le loro ricerche. Ma il giornalismo informatico costituisce un ulteriore passo avanti, un tentativo di combinare l’information technology e il giornalismo, rispondendo agli incredibili cambiamenti che la rivoluzione digitale ha portato nella accessibilità dell’informazione.

Irfan Essa, insegnante di giornalismo informatico e probabile coniatore del termine, sostiene che giornalismo e information technology sono discipline legate alla qualità e all’affidabilità dell’informazione. Il professor Essa, inoltre, intravede in questa combinazione un ampliamento dei confini e degli obiettivi tradizionali del giornalismo, e la possibile partecipazione di un nuovo attore – i tecnici – nel discorso pubblico. “Si tratta di una nuova razza”, sostiene, “a metà strada tra i tecnici e i giornalisti”.

Finora i tentativi di costituire questa nuova razza sono andati incredibilmente bene, ma si tratta di un settore così nuove che le sue applicazioni in campo giornalistico devono ancora essere definite, sebbene diverse testimonianze ne rivelino il grande potenziale specialmente dal punto di vista investigativo.

Di fronte a queste notevoli possibilità, il professor Hamilton spera di poter sviluppare un settore accademico in grado di fornire nuovi strumenti al giornalismo investigativo e ai cittadini che si interessano delle faccende pubbliche.

Naturalmente non si può generalizzare, ma molti giornalisti investigativi trovano avvincente – se non esattamente spassoso – il fatto di frugare tra migliaia di carte alla ricerca di storie da denunciare nell’interesse pubblico. Spesso dietro la loro attività si cela anche un grande ego, ma un buon giornalista investigativo è un grande valore per la nazione. Grazie al lavoro di simili professionisti, in più occasioni è stato possibile salvaguardare dalla prevaricazione politica gli interessi e i principi fondamentali della nazione. E lo stesso vale per ogni sorta di problema a carattere locale e regionale che, senza le denunce del giornalismo investigativo, rimarrebbe celato a danno della salute civica delle comunità. 

Sono contento dei miei feed su Facebook e dei video postati su Youtube, così come del fatto che i miei lettori mi avvertano quando theonion.com svela l’ ennesima falsità del mondo dell’informazione. Ma The Onion non salverà la Repubblica dall’ azione di un Presidente convinto che qualunque cosa faccia sia legale per definizione. Ma una nuova razza di giornalisti investigativi può farlo. E comunque una più efficiente classe di giornalisti può sempre aiutarci a scoprire una storia che magari per noi è di fondamentale importanza, anche se non è abbastanza sexy da meritarsi la copertina di Rolling Stone.

(a cura di Andrea Fama)