Giornalismo online: 1 miliardo di dollari per la curation

| 3 dicembre 2010 |

Curation2

Gli algoritmi per l’ aggregazione e l’ editorializzazione dei contenuti non è sufficiente e si sta quindi diffondendo sempre di più la figura del ‘’content curator’’ (chi trova, raggruppa, organizza e condivide online i contenuti migliori e più pertinenti su un determinato argomento), una funzione chiave dell’ informazione in Rete – In un articolo che analizza le varie piattaforme di curation che stanno nascendo TechCrunch cita previsioni  di osservatori Usa secondo cui si profilerebbe per il settore un mercato miliardario – Molti lo fanno già naturalmente: chi col bookmark, chi condividendo su  Facebook o Twitter, chi inviando mail; la scommessa di queste nuove piattaforme è di unificare queste azioni naturali dando loro un senso – Al di là delle differenze, puntano tutte sul fattore umano, sull’ idea che nelle sottigliezze dei contenuti e della semantica l’ uomo ha ancora una distanza di vantaggio sulla macchina

——

Qualcuno che trova, raggruppa, organizza e condivide online i contenuti migliori e più pertinenti su un determinato argomento.  E’ il ‘’content curator’’, la nuova figura professionale che la Rete ha già distillato e che si profila come una funzione chiave dell’ informazione in Rete.

Dopo il webmaster è arrivato il blogger. Ora è suonata l’ ora del ‘’curator’’. Ne è convinto Guillaume Decugis, CEO di Goojet – un sito che consente di scovare, commentare e condividere contenuti sulla rete -, che ora sta per lanciare una piattaforma di ‘’curation’’: scoop.it.

Da qualche mese – scrive Decugis sull’ edizione francese di TechCrunch diversi osservatori americani di media sociali prevedono l’ arrivo dei curator e ne fanno addirittura una “opportunità da 1 miliardo di dollari“.

Il problema che il curator deve risolvere, osserva Decugis, è questo: nel web sociale come distinguere il rumore dal segnale, l’ informazione importante dalla banalità?  Come organizzarla e come articolarla editorialmente? In pratica, come dare un senso al web sociale nell’ era di Twitter e dei suoi  3,283 tweet al secondo?

Da tempo il web 2.0 ha i suoi giornalisti, ma gli mancavano i redattori capo. Ed ora – dice Decugis- , eccoli qua.

Ma come costruire un modello partecipativo in questo campo? In una redazione tutto è chiaro: nella stanza del redattore capo c’ è un redattore capo. Uno solo, beninteso. Ma sul web tutti hanno voce in capitolo.

Inizialmente si è pensato che Twitter potesse permettere questa curation. Twittare un link significa che lo si è trovato e che gli si assegna un valore che non aveva prima. Il problema è che quando tutti si mettono a fare questo, ci si perde facilmente…

La seconda ondata di ‘’curation’’ – continua Decugis – è arrivata con gli algoritmi. Tweetmeme classifica gli articoli (che si possono twittare con un semplice click) in funzione della loro popolarità su Twitter. Questo tipo di soluzione (come avviene con Wikio) comporta una gerarchizzazione.

Qualcuno, e io fra questi, pensa che non sia sufficiente. C’ è su questo argomento un eccellente articolo di Tom Forenski sull’ “Human Web” che si può sintetizzare così:

– gli algoritmi vengono costantemente manipolati, mentre gli essere umani no: il SEO in fondo non è altro che questo dopo tutto e la débacle cronica di Digg in questo campo ce lo ricorda;

– il bisogno di tematizzazione: la popolarità va benissimo, ma se io mi interesso di argomenti di nicchia non è più rilevante;

-il bisogno di editorializzazione: cioè il fatto di dare un contesto senza essere un semplice pappagallo.

Le stesse cifre di TweetMeme sembrano mostrare il limite del “tutto algoritmo” (NB: nel 2010 il calo dopo l’ estate è dovuto principalmente al fatto che Twitter ha lanciato il suo ‘bottone’).

Curation3

Da qualche mese qualcuno, Robert Scoble in testa, chiede e predice l’ avvento di nuove piattaformedi curation non basate su algoritmi ma sul lavoro umano dei curator. Qualche start-up sembra aver afferrato l’ idea e si è fatta avanti: PearltreesCurated.byStorify e, alla fine, Scoop.it.

Senza fare una comparazione fra di loro, è chiaro che esse hanno delle differenze (Pearltrees ha una interfaccia di visualizzazione molto innovativa, Curated.by e Storify sono molto centrate sugli avvenimenti in tempo reale e Scoop.it fornisce al curator un grande flusso di suggerimenti per costruire il suo media telematico), ma puntano tutte sul fattore umano, sull’ idea che nelle sottigliezze dei contenuti e della semantica l’ uomo ha ancora una distanza di vantaggio sulla macchina.

Che cosa ci trovano di bello in tutto questo i curator? Un mezzo di espressione semplice e poco divoratore di tempo, il desiderio di essere riconosciuti da una comunità tematica (“Andy Warhol si sbagliava: non saremo tutti famosi per 15 minuti, ma saremo tutti celebri per 15 persone“) oppure solo la voglia civile di partecipare alla grande riforma del web: difficile da dire. Sicuramente un miscuglio di tutte queste cose. Ma, molto pragmaticamente, parecchi lo fanno già naturalmente: chi col bookmark, chi condividendo su  Facebook o Twitter, chi inviando mail, ecc. La scommessa di queste nuove piattaforme è di unificare queste azioni naturali dando loro un senso: quello della ‘’curation’’.

I blog e il Web 2.0 sono nati dall’ idea che dando a tutti i mezzi per scrivere sulla Rete si sarebbe creato qualcosa di molto più ricco che lasciare degli ingegneri a riempire data-base.

E’ il momento di mostrare che dare a tutti i mezzi per essere dei ‘’curator” – conclude Decugis -, non è “la più grande porcata che abbiano mai inventato gli uomini“.

(Sulla questione vedi anche Masternewmedia)

I commenti sono chiusi.