La keyword density ci può mandare fuori strada

Keyword density, che passione: non fosse per lei l’argomento SEO avrebbe perso certamente molto del suo fascino. Si tratta di un’argomento dibattuto (inutilmente) per troppi anni, che si limita a misurare il numero di occorrenze di una parola chiave all’interno di un testo. Questo porta a considerazioni fuorvianti come, per intenderci, il fatto che per ottimizzare un testo sia necessario includerlo un numero ottimale di volte – di solito, la mitologia sull’argomento raccomanda, forse per darsi un tono di autorità, fino al 4%.

L’articolo forse più serio di cui sono a conoscenza sull’argomento risale al lontano 2005, anno in cui avremmo dovuto definitivamente dismettere l’argomento: scritto da Enrico Altavilla, è un significativo excursus che spiega perchè si tratti di una semplice misura di Information Retrieval, che non riesce a fornire nessun valore aggiunto alla SEO. Il motivo principale per cui la keyword density non dice nulla di significato in una consulenza SEO è legato al fatto che non tiene conto del contesto, aspetto fondamentale visto che ogni consulente deve conoscere il contesto in cui opera il sito per poterlo ottimizzare. Un altro articolo che ne ridimensiona i meriti è pubblicato sul sito di Studio Samo, che ribadisce i concetti precedenti ed invita a non basarsi su questa misura per “ottimizzare i testi“: spesso l’unico risultato che si riesce ad ottenere è quello di pubblicare testi che fanno semplicemente schifo!

Centinaia, migliaia di articoli descrivono “tecniche” per ottenere la migliore keyword density sul proprio sito: misura, per una volta, calcolabile sì con precisione, ma che (proprio alla luce della sua semplicità) ci porta fuori bersaglio! In genere qualsiasi tecnica SEO troppo semplice e troppo ovvia dovrebbe suscitare sospetto: non esiste alcuna tecnica per ottimizzare qualsiasi sito “in astratto”, e la KW è sostanzialmente una di queste (o almeno, pretende di esserlo ancora oggi in articoli del 2016).

Calcolare la keyword density è, peraltro, l’anticamera alla generazione di testi automatici mediante script: cosa che, sia detto per inciso, dicono funzioni pure. A questo punto uno potrebbe andare in crisi e non capire quale sia la strada corretta da seguire, ma niente paura: quello che funziona in un caso non va imitato perchè raramente il successo di una campagna SEO si basa sull’emulazione altrui. Più in generale, ci sta evidenziare i limiti di Google (che sono ancora pesantissimi in troppi settori), ma quello che facciamo per un cliente che ci paga il lavoro non può essere equivalente a – ed aggiungo, è vergognoso che lo sia –  smanettare con una cosa del genere.

E ricordiamo una cosa ulteriore: il fatto di credere di aver identificato la causa di un fenomeno (del tipo “questo sito è in prima pagina perchè ha la keyword density al 4%“) non significa affatto, come ingenuamente molti pensano, che la causa sia effettivamente quella. E le correlazioni spurie, in effetti, sono lì a dimostrarcelo. Se devo scrivere un buon testo da posizionare su un motore di ricerca, devo fare dei “calcoli” (in senso figurato) sul contesto, sul budget, sulla qualità e l’opportunità dei contenuti, non certo sul numero di volte in cui debba ripetere una parola chiave. Fosse così semplice, riusciremmo un po’ tutti a posizionarci a turno per chiavi di ricerca molto competitive e non staremmo qui a discuterne affatto.

Ma il punto è anche un altro: questo genere di calcoli sui contenuti di un sito sono profondamente fuorvianti, perchè non avrebbe senso (in ogni caso) mantenere un sito in prima pagina senza che sia “a misura” per gli utenti. Il mito della keyword density al 4% deriva da osservazioni molto superficiali e dalla sempiterna idea (sbagliata) che la correlazione implichi causalità. In giro nella rete troverete molti “studi” (le virgolette sono tutt’altro che casuali: pubblicare infografiche con statistiche è una delle più diffuse tattiche di link building) che giustificano, o provano a giustificare, calcoli in tal senso. Ma per quanto credibili si tratta di correlazioni spurie, le stesse mostrate su Tylervigen (tra le migliori: esiste una correlazione al 99% – quindi altissima – tra le spese USA per scienza, spazio e tecnologia e numero di suicidi per impiccagione, strangolamento e soffocamento). Del resto, anche se la considerassimo una tecnica furba, dovremmo convenire sul fatto che sia molto facilmente rilevabile da un “controllo” di Google: e se le telecamere mi stanno inquadrando durante un furto, è chiaro che non posso più percorrere quel tunnel pensando di non essere visto.

I calcoli sulla keyword density mandano fuori strada, e dovremmo solo smetterla di parlarne.

Leggi anche
I 12 miti SEO più pericolosi di sempre Non è arte, non è una scienza esatta e periodicamente ci fa disperare, divertire e lavorare duramente: nel mondo dell'ottimizzazione e della sua divul...
La SEO italiana ha questi problemi: e se non li ri... Dopo aver analizzato le principali difficoltà di chi fa SEO nel nostro paese, che ne dite di passare ad una fase più "propositiva"? Eccovi quattro sug...
Perchè alcuni siti di bassa qualità finiscono in p... Motivo di angoscia e terrore per moltissimi addetti ai lavori, vedere risultati di ricerca con siti molto vecchi, scadenti e soprattutto irremovibili ...
Posizionamenti instabili su Google, cosa comportan... Se stiamo seguendo l'andamento di una pagina in termini di posizionamento nelle SERP di Google, potrà capitare un fenomeno di "oscillazione" dei risul...
La “viralità” non si vende: non è un p... Con questo post mi piacerebbe chiarire una cosa che è rientrata in parecchie discussioni in passato, e che riguarda un’idea molto amata (a ragione) da...
6 errori clamorosi nelle attività SEO che forse ha... In molte consulenze di ottimizzazione per i motori di ricerca è facile, per non dire quasi inevitabile, cadere in uno degli errori elencati di seguito...