Perchè alcuni siti di bassa qualità finiscono in prima pagina?

Motivo di angoscia e terrore per moltissimi addetti ai lavori, vedere risultati di ricerca con siti molto vecchi, scadenti e soprattutto irremovibili da anni è una cosa che fa piacere a pochi (se non, forse, ai proprietari di quei siti). Siti con contenuti vecchi, che non prevedono neanche uno straccio di responsiveness eppure sono lì, a farci beffe di noi e delle nostre ottimizzazioni. In molti casi, i siti in questione lasciano tracce di pratiche considerate scorrette come, di solito, keyword stuffing.

Perchè avviene? Evidentemente alcuni “fattori SEO” – come un po’ erroneamente vengono chiamati, ma è per capirci – non sono tarati a dovere, e questo introduce una sorta di bug all’interno del sistema: di solito questi errori vengono risolti nel tempo, ma possono passare molti mesi finchè succederà ed essere Google un sistema in larga parte closed il meglio che possiamo fare è segnalare come spam i siti scorretti. Qualcuno dirà che serve a poco ma io sostengo da sempre che sia meglio che non fare nulla, o tentare improbabili azioni negative SEO contro l’odiato competitor (che potrebbero inaspettatamente ritorcersi contro di voi).

Risposta breve alla domanda “cosa possiamo farci“: quasi nulla, o meglio, è importante che questa cosa non diventi un limite. Se è vero che le SERP di bassa qualità coincidono molto in consulenze a costo superiore alla media (non fosse altro che richiedono un lavoro più scrupoloso, lungo e dettagliato, ed è difficile capire precisamente dove e quando si andrà a parare), è anche vero che in molti casi rendono sconveniente del tutto intervenirci. Ci sono articoli che provano ad identificare le caratteristiche dei siti scadenti che finiscono in prima pagina, che rispondono il più delle volte, in effetti, a specifiche caratteristiche (ad esempi: EMD – Exact Match Domain, oppure sono domini aged di almeno cinque o sei anni), ma questo non dovrebbe trarre in inganno e considerarsi “regola”.

Dal mio punto di vista, se ci si vuole “infilare” in SERP con risultati scadenti, vale in generale il principio most-recent most-relevant, ovvero cercare di sfruttare Caffeine, nella speranza che Google privilegi contenuti più recenti/approfonditi/di maggiore “qualità“, o pertinenza, per le query in questione. Questo pero’ non sempre si può fare, quantomeno nei casi in cui è possibile farlo si prova ad onorare il succitato principio “Searchers want to find the latest relevant content, and publishers expect to be found the instant they publish“, il che si può attuare in una miriade di modi diversi (il più delle volte un dominio molto autoritativo, o magari EMD, può aiutare parecchio).

Leggi anche
Perchè complicarsi la vita (quando sarebbe solo qu... Scorro Google Plus qualche sera fa e mi imbatto in un collega delle mie cerchie che espone, in maniera dettagliata, come venga calcolata "una certa co...
La “viralità” non si vende: non è un p... Con questo post mi piacerebbe chiarire una cosa che è rientrata in parecchie discussioni in passato, e che riguarda un’idea molto amata (a ragione) da...
Il consulente SEO deve conoscere l’argomento... Domanda che in molti si sono fatti: se sono un SEO esperto posso ottimizzare qualsiasi sito, dai casinò online agli e-commerce di ricambi per l'auto? ...
I 12 miti SEO più pericolosi di sempre Non è arte, non è una scienza esatta e periodicamente ci fa disperare, divertire e lavorare duramente: nel mondo dell'ottimizzazione e della sua divul...
La SEO italiana ha questi problemi: e se non li ri... Dopo aver analizzato le principali difficoltà di chi fa SEO nel nostro paese, che ne dite di passare ad una fase più "propositiva"? Eccovi quattro sug...
Quando Google ti penalizza più volte Un nuovo post pubblicato sul blog per webmaster di Google (Repeated violations of Webmaster Guidelines) richiama l'attenzione dei webmaster vittima di...