Editoria digitale: il Big Data dei lettori è la vera, grande fonte di valore

| 23 settembre 2012 | Tag:, , , , , ,

Dopo tanti anni di ricerca e di attesa per un nuovo business model, Frederic Filloux ormai si è convinto: il vero valore del digitale sta nell’ accumulo di grandi quantità di dati sui lettori. Il Reader’s Big Data.

 

Che può radicalmente cambiare la struttura economica dell’ editoria digitale, offrendo inserzioni e contenuti sempre più mirati e personalizzati.

 

Se gli editori non saranno in grado di estrarre una quantità molto più significativa di danaro rispetto a quello che fanno ora, la maggior parte di loro, semplicemente, si estingueranno

 

 

The value is in the reader’s Big Data

di Frederic Filloux

(Monday Note)

 

 

(…) L’ editoria digitale è ampiamente sottovalutata.

La pubblicità non ha ancora mantenuto le sue promesse – sta crollando sul web e non riesce a sfondare sul mobile (sembra ancora un miraggio la famosa ‘’Occasione da 20 milioni di dollari’’).

I lettori arrivano, e spesso se ne vanno, visto che molte pubblicazioni digitali sono in grado di trattenerli al di là di qualche decina di articoli e di una trentina di minuti al mese. La maggior parte dei grandi nomi dell’ editoria digitale sono inchiodati ad ARPU (ricavi media per unità) a una sola cifra. La gente si affolla sul digitale, ma i soldi non seguono – o, almeno, non nella quantità necessarie per sostenere la produzione di una informazione di qualità.

 

E qui è il punto cruciale della situazione: se gli editori non sono in grado di estrarre una quantità molto più significativa di danaro rispetto a quello che fanno ora, la maggior parte di loro, semplicemente, si estinguerà. Di conseguenza, la maggior parte della popolazione – con la notevole eccezione dei ricchi istruiti – si affiderà a siti web dalla grande audience che faranno solo da eco per frammenti di informazione di bassa qualità.

 

La soluzione? Il valore più grande, che ancora non viene percepito, sta proprio davanti agli occhi degli editori: i profili e i contenuti dei lettori, che ancora non coincidono con il “rumore” di Internet.
Internet fornisce già gli strumenti necessari per vedere chi è che sta visitando un sito web, quello che lui/lei ama, ecc. L’ idea è quella di conoscere l’ utente con la maggiore precisione possibile e di anticipare i suoi bisogni.
Facciamo un esempio con Facebook. Analizzando con attenzione il “contenuto” prodotto dai suoi utenti – dichiarazioni, foto, link, interazioni tra amici, “like”, “poke”, ecc – il social network è stato in grado di sviluppare modelli predittivi spettacolari. Può rilevare la variazione di status di una persona (single, sposato, impegnata, ecc), anche se la persona non lo ha mai detto esplicitamente. Analogamente, FB è in grado di prevedere con grande precisione la probabilità che due persone che causalmente si sono incrociate in rete vengano coinvolte sul piano sentimentale. Lo stesso vale per eventuali cambiamenti di carattere economico o per problei di carattere sanitario.

 

Senza che nessuno se ne accorga, l’ analisi semantica relativa a milioni di comportamenti simili può rilevare chi ha appena perso il posto, o è depresso, bipolare, incinta, euforico, accasciato, o fidanzato. Senza che se ne rendano conto il comportamento online rende le persone completamente trasparenti. Per Facebook, potrebbe tradursi in un livello insopportabile di invadenza, come ad esempio mostrare delle inserzioni imbarazzanti o formulare delle raccomandazioni sciocche – che poi verrebbero visti da tutti.

 

Applicato ai contenuti informativi, le stesse tecniche potrebbero aiutare a perfezionare quello che già si sa sui lettori. Per esempio, un sito web potrebbe rilevare i cambiamenti professionali di qualcuno. Se la signora Laura Smith viene individuata, con una probabilità del 70%, come protagonista di una promozione a marketing manager in una startup di biotecnologie con sede a San Diego (cinque dati), essa potrà essere oggetto di pubblicità mirata soprattutto se sembra essere anche una attiva escursionista (sesto dato).

 

Cosa ancora più importante, nel corso del tempo il sito web potrebbe leggermente ritoccare sé stesso: naturalmente, la signora Smith leggerà più articoli sulle biotech rispetto al lettore medio, mentre la sezione Arte&tempo libero potrà selezionare altri contenuti che possano incontrare il suo gusto, e la sezione Viaggi dovrà somigliare più a un magazine che a una cittadini urbani compulsivi. Progressivamente, i contenuti destinati alla signora Smith diventeranno più utili e coinvolgenti.

 

Le conseguenze economiche sono evidenti. La pubblicità – o, meglio, i contenuti pubbli-redazionali dei vari brand –  saranno vendute ad un prezzo molto più elevato dal sito web e i contenuti sempre più rilevanti indurranno Mrs. Smith a leggere più pagine al mese. (Alcune aziende di targeting pubblicitario lo stanno già facendo questo,  ma in modo grezzo). E dal momento che la signora Smith guadagna di più, il suo crescente interesse per il sito web potrebbe farne una buona candidata per diventare un abbonato Premium, in modo da essere servita con una offerta personalizzata al momento giusto.
A differenza di Facebook,  che succhia apertamente l’ intimità dei suoi utenti con il pretesto che sono loro stessi a voler rinunciare alla propria privacy in cambio di un buon servizio (buon affare per il momento, terribile in futuro), gli editori di informazione giornalistica staranno più attenti. In primo luogo, i lettori saranno serviti con annunci e contenuti che saranno gli unici a vedere – e non i loro 435 “amici” di Facebook.

 

Questa è una grande differenza, che richiede un livello sofisticato di personalizzazione. Inoltre, quando si tratta di lettura, preservare la serendipità è essenziale. Con questo voglio dire che nessuno potrà realizzare un sito al 100% su misura; inevitabilmente, ci sarà qualche brivido quando il lettore potrà desiderare di andare altrove per trovare qualcosa di rinfrescante.

 

Anche con questa descrizione superficiale, si arriva al mio punto: attraverso la compilazione e l’ analisi di milioni di dati comportamentali, è possibile effettuare un servizio giornalistico più attraente per il lettore – e molto più redditizio per l’ editore.

 

A che punto siamo? Nel settore notizie, il Big Data è ancora nella fase dell’ infanzia. Ma, poiché la legge di Moore continua a funzionare, le grandi quantità di potenza di calcolo diventeranno più accessibili per gli editori. Venti anni fa, solo la NSA (la National Security Agency, ndr) era in grado di gestire grandi insiemi di dati con il suo data-center privato grande quanto uno stadio. Ora gli editori possono lavorare con aziende piccole che esternalizzano funzioni come tempo di CPU e capacità di stoccaggio ad aziende del livello di Amazon Web Services e usano Hadoop,   la versione open source del software di Google master distributed applications per analizzare attentamente milioni e milioni di dati.

 

Ecco perché Big Data è in piena espansione e offre alle aziende notizie nuove opportunità per migliorare il loro modello di business.

 

I commenti sono chiusi.