La censura strisciante di algoritmi social e news pseudo-personalizzate

| 26 maggio 2014 | Tag:, , , ,

filterBernardo Parrella racconta come negli Usa non mancano progetti che cercano di porre rimedio alle varie forme di censura strisciante (la Filter Bubble descritta da Eli Pariser nell’omonimo libro del 2012) determinate dagli algoritmi utilizzati da molte testate e spazi social per incrementare le proprie statistiche (e peggio).

 
Un meccanismo che ci trasforma da semplici lettori in pedine del marketing online.

 

È noto che oggi spesso sono gli algoritmi a decidere la diffusione delle news online, ovvero i rilanci social creati automaticamente dalle varie piattaforme in base ai nostri gusti pregressi e ai link e agli interessi dei nostri ‘amici’.
Non a caso tempo fa abbiamo parlato dell’effetto Facebook sull’informazione in Rete  e dei ‘robot’ che portano alla perdita di quella serendipità invece necessaria per imbattersi in temi e regioni poco seguite dal mainstream.

 

Un approccio che ci considera utenti passivi (e oggetti di marketing), con conseguenze di ampia portata pur se raramente evidenziate: uno studio curato nel 2012 dal team di Facebook sulle elezioni parlamentari Usa del 2010 rivelava che la presenza di certi link nel proprio newsfeed era sufficiente a influenzare il voto al seggio in un senso o nell’altro.

 

Purtroppo crescono le testate che si affidano incautamente a questi rilanci per incrementare le proprie statistiche, anche se poi è risaputo che spesso la gente non legge gli articoli segnalati, limitandosi a linkarli pubblicamente – mentre la stessa piattaforma social non si preoccupa di valutarne la validità, fatto che a volte ha spinto alla grande le  bufale e la disinformazione. E ora questi algoritmi trovano ampio impiego anche nei motori di ricerca, assicurando risultati ‘personalizzati’ in base ai nostri gusti e navigazioni precedenti, ma anche differenziati a seconda del luogo di residenza, dove primeggiano corporation, celebrità (e chi può pagare il dovuto) a livello locale. Tutto ciò ovviamente all’ insaputa dell’ utente.

 

Si tratta insomma di varie forme di censura strisciante (la Filter Bubble descritta da Eli Pariser nell’ omonimo libro del 2012), a cui per fortuna esperti e organizzazioni stanno cercando di porre rimedio. Tra questi, il team del Georgia Tech Information Security Center, che ha messo a punto Bobble, extension per Chrome che rivela le incongruenze nei risultati delle ricerche online rispetto ai vari Paesi (e altri ‘bias’ delle news sul Web). Mentre il curriculum del Center for News Literacy presso la Stony Brook University comprende anche tematiche quali manipolazione dei motori di ricerca e come usare il browser in  incognito, senza cioè che raccolga percorsi o preferenze dell’utente.

 

Altri tentativi di mitigare questa ‘pressione mediatica personalizzata’ includono NewsCube, servizio proposto da un gruppo di ricercatori sud-coreano per offrire automaticamente diverse fonti e angoli d’interpretazione sulle specifiche news, e Balance, progetto dell’Università del Michigan mirato a diversificare i risultati degli aggregatori di notizie (incluso Google News). Strumenti questi per aiutarci a uscire dalla ‘bolla filtrante’ e imparare ad auto-gestire al meglio i percorsi e i siti tramite cui seguiamo (e creiamo) l’informazione.

Un quadro in cui rientrano certamente altri esempi, da Medium, piattaforma di long-form journalism lanciata due anni or sono e assai puntuale su questioni socio-culturali, a Upworthy, dove c’è lo zampino dello stesso Pariser, che ha raggiunto sei milioni di utenti al mese grazie alla tipica impostazione aggressiva e alla forte presenza di video virali.
È forse troppo definire quest’ultimo un “aggregatore che aggiunge valore”, così come è importante ricordare che spesso si tratta di esperimenti ancora di ‘nicchia’ e tecnicamente non perfetti. Ma il punto è provare le alternative esistenti e, soprattutto, scoprire percorsi propri – onde ritrovare la serendipità perduta ed evitare di ritrovarci, a nostra insaputa, pedine del marketing online.

Leggi anche:

I commenti sono chiusi.