Perchè alcuni siti di bassa qualità finiscono in prima pagina?

Motivo di angoscia e terrore per moltissimi addetti ai lavori, vedere risultati di ricerca con siti molto vecchi, scadenti e soprattutto irremovibili da anni è una cosa che fa piacere a pochi (se non, forse, ai proprietari di quei siti). Siti con contenuti vecchi, che non prevedono neanche uno straccio di responsiveness eppure sono lì, a farci beffe di noi e delle nostre ottimizzazioni. In molti casi, i siti in questione lasciano tracce di pratiche considerate scorrette come, di solito, keyword stuffing.

Perchè avviene? Evidentemente alcuni “fattori SEO” – come un po’ erroneamente vengono chiamati, ma è per capirci – non sono tarati a dovere, e questo introduce una sorta di bug all’interno del sistema: di solito questi errori vengono risolti nel tempo, ma possono passare molti mesi finchè succederà ed essere Google un sistema in larga parte closed il meglio che possiamo fare è segnalare come spam i siti scorretti. Qualcuno dirà che serve a poco ma io sostengo da sempre che sia meglio che non fare nulla, o tentare improbabili azioni negative SEO contro l’odiato competitor (che potrebbero inaspettatamente ritorcersi contro di voi).

Risposta breve alla domanda “cosa possiamo farci“: quasi nulla, o meglio, è importante che questa cosa non diventi un limite. Se è vero che le SERP di bassa qualità coincidono molto in consulenze a costo superiore alla media (non fosse altro che richiedono un lavoro più scrupoloso, lungo e dettagliato, ed è difficile capire precisamente dove e quando si andrà a parare), è anche vero che in molti casi rendono sconveniente del tutto intervenirci. Ci sono articoli che provano ad identificare le caratteristiche dei siti scadenti che finiscono in prima pagina, che rispondono il più delle volte, in effetti, a specifiche caratteristiche (ad esempi: EMD – Exact Match Domain, oppure sono domini aged di almeno cinque o sei anni), ma questo non dovrebbe trarre in inganno e considerarsi “regola”.

Dal mio punto di vista, se ci si vuole “infilare” in SERP con risultati scadenti, vale in generale il principio most-recent most-relevant, ovvero cercare di sfruttare Caffeine, nella speranza che Google privilegi contenuti più recenti/approfonditi/di maggiore “qualità“, o pertinenza, per le query in questione. Questo pero’ non sempre si può fare, quantomeno nei casi in cui è possibile farlo si prova ad onorare il succitato principio “Searchers want to find the latest relevant content, and publishers expect to be found the instant they publish“, il che si può attuare in una miriade di modi diversi (il più delle volte un dominio molto autoritativo, o magari EMD, può aiutare parecchio).

Leggi anche
Professione SEO: verità, mistificazione e mitologi... La figura del SEO sta lentamente emergendo dalla nicchia in cui inizialmente era relegata (si faceva SEO mediante notizie, fughe di dati e rivelazioni...
La SEO italiana ha questi problemi: e se non li ri... Dopo aver analizzato le principali difficoltà di chi fa SEO nel nostro paese, che ne dite di passare ad una fase più "propositiva"? Eccovi quattro sug...
Perchè complicarsi la vita (quando sarebbe solo qu... Scorro Google Plus qualche sera fa e mi imbatto in un collega delle mie cerchie che espone, in maniera dettagliata, come venga calcolata "una certa co...
Perchè gli indici SEO non servono a niente In rete trovati molti indici SEO di riferimento, soprattutto nelle procedure di compra-vendita dei domini PageRank, PA, PD, AlexaRank e molte altre. L...
Il keyword stuffing ci inganna: è ora di cambiare ... In ambito SEO tutti dovremmo conoscere il keyword stuffing ed i problemi che può causare: su tutti, un prolificare di pagine web inutili per gli utent...
Fare SEO su un sito senza spendere un capitale L'attività SEO viene spesso associata ad un lavoro sostanzialmente economico, o addirittura ultra-low cost, quantomeno per come viene percepito (male)...