Il problema della qualità nell’ informazione digitale

contentfarm

I responsabili dell’ aggiornamento dell’ algoritmo di Google che gestisce le classifiche dei risultati delle ricerche e il ranking dei siti web spiegano i criteri con cui è stato messo a punto il meccanismo di rivalutazione della qualità dei contenuti – Intanto dalle esperienze compiute dopo l’ applicazione dell’ aggiornamento il dibattito ha fatto emergere una serie di indicazioni per risalire nelle classifiche – Contenuti di bassa qualità, in particolare, possono provocare la perdita di posti di classifica per l’ intero sito

————

Che cos’ è la qualità nella produzione di cointenuti di siti web? In alcuni casi – vedi le cosiddette ‘’content farm’’, le fabbriche di contenuti – si arriva alla soglia dello spam: come definire questa soglia? Come determinare che un sito è superificiale e produce contenuti di bassa qualità?

Google ha cercato di mettere a punto un meccanismo empirico che desse una risposta a questi interrogativi. Ne aveva bisogno per far partire l’ operazione ”Panda’’ (è solo il nome di un ingegnere di Mountain View),  quel complesso aggiornamento del suo motore di ricerca che ha interessato quasi il 12% dei risultati delle ricerche, come racconta Davide ‘’Tagliaerba’’ Pozzi nel suo omonimo blog.

L’ operazione puntava a ridimensionare le classificazione dei siti con contenuti di bassa qualità, che riuscivano però a posizionarsi meglio dei siti con contenuti qualitativamente superiori, e a consentire la giusta classifica dei siti apprezzati invece per la qualità dei loro contenuti. Il tutto fra molte polemiche, naturalmente.

Il meccanismo è stato spiegato bene qualche giorno fa da Amit Singhal e Matt Cutts, i due responsabili del progetto, in una intervista a Wired, di cui Tagliaerbe riporta alcuni passi.

W.: Come fate a riconoscere un sito con contenuti superficiali? Potete dare una definizione di contenuti di bassa qualità?

A.S.: Questo è un problema molto, molto difficile che cerchiamo di risolvere, e siamo in una continua evoluzione per cercare di farlo. Abbiamo voluto mantenere un approccio rigorosamente scientifico, e quindi abbiamo usato il sistema di valutazione standard che abbiamo sviluppato, dove in pratica inviamo i documenti a dei tester esterni. A queste persone abbiamo posto domande del tipo: “Ti fideresti a dare il tuo numero di tua carta di credito a questo sito? Ti fideresti a dare le medicine prescritte da questo sito ai tuoi figli?”

M.C.: Un ingegnere ha preparato un set di domande molto rigorose, del tipo “Consideri autorevole questo sito? Sarebbe OK se questo sito fosse una rivista? Questo sito ha un numero eccessivo di annunci pubblicitari?” e così via.

A.S.: Sulla base di questo, abbiamo fondamentalmente definito cosa può essere considerato di bassa qualità. Inoltre abbiamo lanciato il Chrome Site Blocker, ma non abbiamo utilizzato i dati raccolti per questo update. Tuttavia, confrontando tali dati, abbiamo notato un 84% di sovrapposizione, che ci ha fatto capire che siamo nella giusta direzione.

W.: Ma come avete implementato questa cosa algoritmicamente?

M.C.: Penso che l’ingegnere cerca di riportare la sua stessa intuizione e la sua stessa “experience” agli utenti. Ogni volta che guardiamo ai siti che abbiamo bloccato, grazie alla nostra intuizione e alla nostra esperienza, cerchiamo di capire se questa cosa sarà o meno di valore per l’utente. E attualmente l’idea è quella di classificare i siti di alta qualità da una parte, e quelli di bassa qualità dall’altra.

A.S.: Immagina un iperspazio con un sacco di puntini: alcuni rossi, altri verdi, altri mischiati. Il nostro compito è trovare un piano che ci dica che la maggior parte delle cose che stanno da un lato sono rosse, e la maggior parte delle cose che stanno sull’altro lato sono l’opposto del rosso.

(….)

M.C.: In un certo senso, quando la gente va su Google è esattamente quello che chiede – un giudizio editoriale. E questo è espresso tramite un algoritmo. Quando qualcuno va su Google, l’unico modo per essere neutrali è di mostrare i link a caso, oppure in ordine alfabetico. Il punto cruciale è che dobbiamo avere la possibilità di modificare la classificazione delle cose, per migliorare il motore di ricerca.

W.: Alcuni dicono che dovreste essere trasparenti, per dimostrare che non fate questi algoritmi per agevolare gli inserzionisti.

A.S.: Posso dire categoricamente che non sono i soldi a impattare sulle nostre decisioni.

Ma cosa deve fare un sito colpito dal Google Panda Update per riguadagnare le posizioni perse all’interno dei risultati del motore di ricerca? Dopo l’ iniziativa della casa di Montain View, molti webmaster stanno discutendo del problema.

In sintesi, secondo Taglaerbe, si possono ricavare alcune lezioni:

• contenuti di qualità sostanzialmente bassa possono causare la perdita di ranking dell’intero sito (anche se questo ha pagine di alta qualità)
• cerca le pagine di bassa qualità (non utili, scritte male, duplicate o inconsistenti) e rimuovile
• l’esperienza complessiva dell’utente è importante: design, usabilità, rapporto fra pubblicità e contenuti, percezione del brand
• verifica sia i contenuti che il template del sito (è un template che inserisce un sacco di pubblicità nelle pagine? viene mostrata all’utente un’interfaccia scadente?)
• una volta che sei certo che i contenuti sono di alta qualità, poni attenzione a engagement e awareness (attraverso i social media e altri canali)
• diversifica in vari canali e persino all’interno della ricerca, guarda al di là della web search verso Google News e i risultati “one box” come blog, immagini e video
• possiamo imparare qualcosa dalle content farm, in particolare il loro modo di individuare ciò che interessa al pubblico e le risposte che vogliono dare, nonché le tecniche che utilizzano per sfruttare il crowdsourcing

Il messaggio ufficiale di Google, insomma, è questo: contenuti di bassa qualità su una parte del sito possono impattare sul posizionamento di tutto il sito.

E quindi èbene cercare ed eliminare quelle parti.