Come cercare su Google (con esempi)

Come si fa a cercare una cosa specifica su Google? Una guida per fare le ricerche su Google non poteva che trovare spazio, del resto, in un blog SEO; capire come cercano e cosa potrebbero cercare gli utenti è uno dei modi migliori per attuare in seguito le nostre strategie di previsione, pianificazione e ottimizzazione dei motori.

Uso base di Google

Per cercare una parola singola, ma questo dovremmo saperlo un po’ tutti, basta digitarla e cliccare sul tasto Cerca con Google. Se avete una connessione veloce, i risultati appariranno in automatico. Se state cercando qualcosa, in genere è opportuno essere più specifici possibile: le ricerche specifiche (o della cosiddetta “coda lunga”) sono da sempre quelle più efficaci e più probabilmente risponderanno alla vostra richiesta. Google, ad ogni modo, è sempre più in grado di “intuire” le nostre intenzioni, e riuscirà a “capire” (dopo un po’ di ricerche e se rimanete loggati su Gmail, soprattutto) cosa stavate cercando. Sì, anche se cercate genericamente “occhiali” o “auto usate“.

Per cercare una definizione, basta cercare la parola singola e comparirà in automatico come primo risultato (vale solo per alcune parole). Se non funziona, invece di cercare parola cercate define:parola. In pratica, usate l’operatore define: (vedremo tutti gli altri operatori in seguito).

Ricerca esatta

Per cercare una corrispondenza esatta di una frase, scrivete il tutto tra virgolette o doppi apici “, ad esempio:

“nel mezzo del cammin di nostra vita”

ovvero l’incipit della Divina Commedia di Dante Alighieri.

Ricerca approssimata

Al contrario della ricerca precedente, questa vi permette di cercare usando * come carattere jolly; sembra una cosa poco interessante ma è utile, ad esempio, se non ricordate pezzi esatti di frase e ne volete ricordare uno specifico.

“nel mezzo * vita”

Noterete come usciranno, quasi certamente, risultati diversi e non per forza correlati a Dante Alighieri.

Cercare un file

Per cercare solo file pdf, ad esempio, basta scrivere filename:pdf; questo tipo di ricerca da sola non serve a granchè, pero’ può essere utile se la combinate con una qualsiasi delle ricerche precedenti. Un po’ di esempi chiariranno meglio cosa intendo.

  • “nel mezzo del cammin” filename:pdf -> PDF della Divina Commedia
  • filename:doc SEO -> file Office su argomento SEO

Uso degli operatori di ricerca

Il nostro utilizzo di Google può essere ancora migliorato se abbiamo presente i cosiddetti “operatori di ricerca”, che sono molto utili per tirare fuori informazioni inedite dal motore e scoprire a volte autentiche chicche del web. Andiamo, quindi, a vedere di che si tratta all’interno di questa micro-guida non ufficiale agli operatori di Google. Non ho considerato, volutamente, operatori secondari come related: in quanto, secondo me, non sono così utili come potrebbero sembrare e nella mia esperienza, nel mercato italiano, non servono a molto.

La ricerca ordinaria, come saprete, è quella che facciamo elencando uno o più termini oppure una frase:
parola

termine che mi piace


Fin qui nulla di strano; la corrispondenza del termine nella pagina web, poi, può essere anche esatta, specie nel caso in cui si stiano cercando blocchi di testo specifici (ad esempio per tracciare link malevoli):
parola 1 “esattamente questa corrispondenza”
Per quanto possa sembrare strano farne uso, l’operatore – (meno) serve ad escludere un termine da un risultato di ricerca, il più delle volte allo scopo di affinarla meglio:
apple -frutta

Cercare in un sito (ma non solo): l’operatore site:

L’operatore site: permette di visionare tutte le pagine indicizzate del sito passato come argomento. Si cerca con la sintassi:
site:nomesito.it [chiave]
dove il termini di ricerca [chiave] può mancare e corrisponde, in generale, alla ricerca di un eventuale termine all’interno del sito in questione.

Si può usare quindi sia in forma generale:
site:nomesito.it
oppure per una specifica:
site:nomesito.it chiave
oppure, ancora:
site:nomesito.it “chiave di ricerca”
per effettuare la ricerca esatta o anche:
site:nomesito.it trova “questo precisamente” -“ma non questo”
che cercherà nel sito nomesito.it la corrispondenza di trova, “questo precisamente” ad esclusione della frase ma non questo.

L’operatore in questione permette, inoltre, di cercare blog in WordPress hosted:
site:wordpress.com chiave
e ricerche ristrette ad estensioni di dominio (ad esempio solo siti .it):
site:*.it chiave

L’operatore più frainteso, link:

Esiste una pessima mitologia su questo operatore, che si ritiene erroneamente fornisca i backlink verso un sito qualsiasi: in realtà questa informazione è nota solo ai proprietari dei siti, fornisce un sottoinsieme casuale di backlink, proprio per evitare che i competitor possano profilare i link in ingresso (e confermandone indirettamente, così facendo, l’importanza in termini di ranking).

Per capirci meglio, l’operatore preleva solo alcuni (eventualmente nessuno!) dei link in ingresso ad un sito, e se ci fate caso vedrete che restituisce risultati diversi in momenti diversi.

In certi casi, infatti, link:nomesito.it può non restituire nulla, ma questo non vuol dire che non ci siano link in ingresso alla pagina: significa che solo chi possieda accesso alla Search Console può vedere questa informazione.

Il seguente video di Matt Cutts chiarisce, come forse saprete, la maggiorparte della mitologia sbagliata in merito.

L’operatore “escludi dai risultati”

Google permette di escludere dai risultati di ricerca ciò che, a priori, desideriamo non visualizzare, filtrando quindi i risultati che non ci interessano.

L’esempio tipico in ambito SEO è il seguente:
“nomesito.it” -site:nomesito.it
che permette di visionare tutti i riferimenti a nomesito.it ad esclusione di quelli presenti all’interno del sito stesso (è un sottoinsieme, per quanto molto ristretto, dei backlink al sito). Si tratta, in sostanza, di una tecnica per visualizzare un sottoinsieme significativo di citazioni del nome del sito esterne al sito stesso, il che corrisponde (con una certa probabilità) ad un sottoinsieme di backlink. Per sbirciare i siti della concorrenza e vedere i backlink “brandizzati”, a volte, non è male

Operatore cache:

Permette di visualizzare la copia cache di una qualsiasi pagina o sito web, quantomeno quella che risulta a Google:
cache:trovalost.it
Personalmente, per effettuare cache di pagine web preferisco servizi come archive.org o archive.is.

Operatori non documentati: inurl, inanchor

Si tratta di operatori su cui Google non fornisce documentazione ufficiale, ed il cui funzionamento è spiegato da fonti non ufficiali (leggasi: da prendere con le pinze). Ad ogni modo possono fornire risultati interessanti specie in fase di ricerca, analisi ed ottimizzazione in ambito SEO, ad esempio:
inurl:qualcosa
restituisce risultati con qualcosa all’interno dell’URL, tipo miosito.it/qualcosa123/pagina.html.

Al tempo stesso:
inanchor:chiave
restituisce risultati di ricerca con anchor text “chiave” che puntino al sito, e si noti come la ricerca di “chiave” offra spesso risultati molto simili a quella di “inanchor:chiave”. Da qui, almeno in parte, deriva la convinzione in ambito SEO che le anchor text con chiave corrispondente al termine di ricerca influenzino il posizionamento delle pagine.

Questi operatori sono diffusi anche nella versione con prefisso all (allinurl, allinanchor), ed in quest’ultimo caso permettono di cercare keyphrase (“casa di legno”) e non termini secchi (“casa”).

Fare dei calcoli

Google può funzionare anche da calcolatrice, per cui basta scrivere l’operazione e troverete subito le risposte che cercate. Ad esempio 2+2.

Convertire valuta

Il convertitore di valuta è un ulteriore strumento economico molto utile promosso gratuitamente dal celebre motore; per convertire una valuta in tempo reale basta, infatti, scrivere prima il valore da convertire (10 euro scriveremo 10) poi la valuta base (eur ad esempio) poi la parola “in” (senza virgolette) e poi la valuta di arrivo.

Per convertire euro in dollari, ad esempio:

1 eur in usd

(fonte: Google)

Posizionamenti instabili su Google, cosa comportano oggi

Se stiamo seguendo l’andamento di una pagina in termini di posizionamento nelle SERP di Google, potrà capitare un fenomeno di “oscillazione” dei risultati; in queste situazioni, in altri termini, si verifica una variazione molto consistente nei risultati che impedisce, in molti casi, di valutare correttamente la qualità della nostra SEO. Utilizzando il software SEOPanel ad esempio (su trovalost.it trovate la mia guida per installarlo), che è un prodotto open source in PHP che non fa altro che fare delle ricerche mediante cron-job, effettuare il parsing HTML dei risultati e conteggiare la posizione di ogni chiave, è piuttosto frequente accorgersi di situazioni del genere.

Uno scenario tipico, in particolare di miglioramento dei risultati, si può registrare ad esempio in questi termini.

Screen 2015-08-03 alle 09.42.30

In questo caso si era partita dalla posizione  50° di Google, e dopo circa un mese di lavoro è stato possibile risalire alla posizione 15°, arrivando quindi in prossimità della prima pagina. Per misurare la qualità del nostro lavoro, di fatto, possiamo prendere il primo e l’ultimo valore di ranking e fare la differenza (togliendo di mezzo, nel farlo, le eventuali oscillazioni), o possiamo essere più precisi facendo una media dei valori.

Possono pero’ capitare casi più difficili da inquadrare, come quelli che mostrerò di seguito.

Screen 2015-08-03 alle 09.39.39

In questo caso (relativo all’ultimo mese di rilevazioni) si è verificato un posizionamento su Google decisamente instabile, che rende impossibile fare qualsiasi tipo di valutazione sulla “bontà” dell’andamento stesso (da 58 a 21, chiaramente migliorato). Il fenomeno non riguarda affatto soltanto Google, ovviamente.

Anche Bing, ad esempio, da tempo sta mostrando risultati incostanti su una chiave molto competitiva; come vedremo, la chiave per capire fenomeni del genere è legata parecchio alla frequenza di scansione delle SERP.

Screen 2015-08-03 alle 09.45.24

Di fatto, quello che conta sono sempre i risultati più recenti, che andrebbero raffrontati con quelli ottenuti 30-40 giorni prima, a seconda dei casi. In questo caso il ranking della chiave in questione è rimasto approsimativamente sempre uguale (da 45 a 39).

Dall’analisi effettuata si dovrebbero considerare almeno due punti fondamentali:

  1. la frequenza di esecuzione dei cron-job può essere determinante, ed andandola a modificare dal pannello di SEOPanel sarà facile accorgersi che può diventare più o meno precisa;
  2. l’orario in cui si effettua la ricerca è anch’esso rilevante, in quando eseguendo la stessa ricerca ad orari diversi Google potrebber restituire SERP diverse, specialmente nei casi più instabili e/o competitivi.

In questo secondo caso, quindi, si può provare a ridurre la frequenza delle scansioni delle parole chiave riducendo la frequenza dei cron-job: la cosa essenziale è trovare il numero giusto.

Da Pannello Admin di SEOPanel, è possibile trovare il cron-job da impostare cliccando su “Comando azione pianificata“: qui troveremo il cron job e potremo modificare la frequenza, ad esempio come mostrato di seguito.

Ogni quindici minuti:

*/15 * * * * php /home/.../seopanel/cron.php

Ogni ora:

0 */1 * * * php /home/.../seopanel/cron.php

Ogni due ore:

0 */2 * * * php /home/.../seopanel/cron.php

Due volte al giorno (alle 3 ed alle 15):

0 3,15 * * * php /home/.../seopanel/cron.php

Perchè anchor text e backlink potrebbero non bastare in qualsiasi strategia SEO

Chiunque sappia di SEO – anche per sentito dire – è piuttosto sicuro che i backlink in ingresso e le anchor text annesse ad un sito siano molto rilevanti per determinare il posizionamento su Google e Bing delle pagine di un sito. Tanto da far scattare un meccanismo di emulazione da parte di moltissimi, che ragionano nei termini “se un competitor grosso possiede X backlink di tipo A e Y di tipo B, se lo faccio anch’io … salirò anch’io nei ranking!“.

Strumenti gratuiti ed a pagamento, o un po’ di esperienza con gli operatori di ricerca, permettono di stimare – anche alla buona – quantità e qualità di backlink della concorrenza: resta pero’ il fatto che questa strategia, da sola, non basta e non può bastare. Di fatto, questo approccio è corretto nella misura in cui considera i contenuti dei siti: ovvero, quei siti famosi sono in prima pagina di Google solo per i backlink, o anche per il tipo di contenuti e servizi che offrono? Un sito di poker, tanto per citare un settore molto competitivo, sicuramente deve offrire servizi di qualità, che siano apprezzati dagli utenti e siano concreti: se non è così, la sua stabilità nei risultati di ricerca sarà inevitabilmente, prima o poi, poco duratura e labile.

Quindi, se vogliamo davvero, entrare in concorrenza nel settore dovremmo anche noi offrire un servizio delgenere: dare la possibilità agli utenti di giocare a poker, altrimenti solo coi backlink dove crediamo di andare? Molti affiliati, ad esempio, cadono spesso in questo tranello mentale di ragionare solo sui link in ingresso, senza badare che non ha senso, sotto nessun punto di vista, che un blog affiliato di bassa qualità vada a fare concorrenza ad un grosso competitor del settore. In molti casi, di fatto, i siti affiliati non riescono ad entrare nelle grosse competizioni di ranking proprio per un limite mentale, oltre che di budget, insito nelle politiche scelte.

Su Google, per la cronaca, in questo ambito si sfrutta spesso l’operatore inanchor: per chiavi di una parola e allinanchor: per chiavi di più parole, al fine di scovare tutti i siti che utilizzano l’anchor text indicata in un link: si tratta di un operatore non più ufficialmente documentato da Google, che viene descritto su siti non ufficiali e la cui precisione è quantomeno dubbia. Di fatto, la ricerca di un termine coincide spesso, in termini di risultati, con quella dell’operatore in questione.

5 verifiche da fare subito se il traffico del tuo sito è in calo

Se le visite sono in calo e provengono da una fonte come un motore di ricerca (tipicamente Google), c’è da dire che le cause possono essere varie, e quelle presentate di seguito potrebbero anche presentarsi contemporaneamente.

La prima possibile causa che bisogna considerare se avete un calo di visite, è verificare che non ci siano stati cambiamenti drastici nel nostro sito, a livello di struttura (menù, organizzazione interna) e di contenuti (post, pagine, video, sezioni interattive). Per quanto sembri banale, è spesso ciò su cui si lavora concretamente. Analizzando Google Analytics, ad esempio, è possibile ad esempio concentrare l’attenzione sulle pagine più visitate, e verificare che non ci siano variazioni importanti proprio su quei post. In molti casi, sarà possibile individuare la fonte di traffico che è interessata al calo più fattivamente, e prendere provvedimenti in funzione di ciò. Al di là di questo, bisogna verificare che tutto il sito sia stato perfettamente scansionato da Google, verificando htaccess e robots.txt, e facendo dei test con i crawler della Search Console. Certo è che, di fatto, non sempre questi strumenti riescono a darci le risposte che ci aspetteremmo, specie se usati con scarse conoscenze tecniche.

Una seconda analisi dovrebbe riguardare l’andazzo generale del mercato di riferimento del sito: come è cambiato rispetto a Google? È possibile che alcuni cambiamenti negli snippets abbiano portato ad una diminuzione dei CTR (verificabili via Search Console)? Domande a cui troveremo risposta dopo un po’ di confronti e/o mediante un’analisi puntuale e quattro chiacchiere con il nostro referente, di solito.

In terzo luogo,  è necessario considerare ciò che stanno facendo i concorrenti del settore (eventualmente nulla): ovviamente ci riferiamo alla parte “misurabile” del discorso, visto che potrebbero esserci moltissime zone oscure che sono impossibili o molto difficili da indagare (ad esempio: hanno cambiato SEO e ne hanno preso uno meno incompetente 🙂 ).

L’ultima cosa da considerare è che non siano in corso cambiamenti algoritmici all’interno di Google: ma qui si ragioni per ipotesi (spesso poco o per nulla “scientifiche”), per cui mi sembra inopportuno spendere troppo tempo a lambiccarsi su possibilità del genere. Senza contare che, ad esempio, l’annuncio di un cambiamento algoritmo è raramente in “tempo reale” rispetto all’Italia, per cui il rischio è quello di imbattersi in correlazioni inesistenti o del tutto casuali. In molti casi, infatti, basta intervenire sulla struttura del sito o analizzare meglio i punti precedenti.

Recuperare il traffico perso non è facile, ma un buon SEO può e deve saperlo fare per essere considerato davvero tale.

La keyword density ci può mandare fuori strada

Keyword density, che passione: non fosse per lei l’argomento SEO avrebbe perso certamente molto del suo fascino. Si tratta di un’argomento dibattuto (inutilmente) per troppi anni, che si limita a misurare il numero di occorrenze di una parola chiave all’interno di un testo. Questo porta a considerazioni fuorvianti come, per intenderci, il fatto che per ottimizzare un testo sia necessario includerlo un numero ottimale di volte – di solito, la mitologia sull’argomento raccomanda, forse per darsi un tono di autorità, fino al 4%.

L’articolo forse più serio di cui sono a conoscenza sull’argomento risale al lontano 2005, anno in cui avremmo dovuto definitivamente dismettere l’argomento: scritto da Enrico Altavilla, è un significativo excursus che spiega perchè si tratti di una semplice misura di Information Retrieval, che non riesce a fornire nessun valore aggiunto alla SEO. Il motivo principale per cui la keyword density non dice nulla di significato in una consulenza SEO è legato al fatto che non tiene conto del contesto, aspetto fondamentale visto che ogni consulente deve conoscere il contesto in cui opera il sito per poterlo ottimizzare. Un altro articolo che ne ridimensiona i meriti è pubblicato sul sito di Studio Samo, che ribadisce i concetti precedenti ed invita a non basarsi su questa misura per “ottimizzare i testi“: spesso l’unico risultato che si riesce ad ottenere è quello di pubblicare testi che fanno semplicemente schifo!

Centinaia, migliaia di articoli descrivono “tecniche” per ottenere la migliore keyword density sul proprio sito: misura, per una volta, calcolabile sì con precisione, ma che (proprio alla luce della sua semplicità) ci porta fuori bersaglio! In genere qualsiasi tecnica SEO troppo semplice e troppo ovvia dovrebbe suscitare sospetto: non esiste alcuna tecnica per ottimizzare qualsiasi sito “in astratto”, e la KW è sostanzialmente una di queste (o almeno, pretende di esserlo ancora oggi in articoli del 2016).

Calcolare la keyword density è, peraltro, l’anticamera alla generazione di testi automatici mediante script: cosa che, sia detto per inciso, dicono funzioni pure. A questo punto uno potrebbe andare in crisi e non capire quale sia la strada corretta da seguire, ma niente paura: quello che funziona in un caso non va imitato perchè raramente il successo di una campagna SEO si basa sull’emulazione altrui. Più in generale, ci sta evidenziare i limiti di Google (che sono ancora pesantissimi in troppi settori), ma quello che facciamo per un cliente che ci paga il lavoro non può essere equivalente a – ed aggiungo, è vergognoso che lo sia –  smanettare con una cosa del genere.

E ricordiamo una cosa ulteriore: il fatto di credere di aver identificato la causa di un fenomeno (del tipo “questo sito è in prima pagina perchè ha la keyword density al 4%“) non significa affatto, come ingenuamente molti pensano, che la causa sia effettivamente quella. E le correlazioni spurie, in effetti, sono lì a dimostrarcelo. Se devo scrivere un buon testo da posizionare su un motore di ricerca, devo fare dei “calcoli” (in senso figurato) sul contesto, sul budget, sulla qualità e l’opportunità dei contenuti, non certo sul numero di volte in cui debba ripetere una parola chiave. Fosse così semplice, riusciremmo un po’ tutti a posizionarci a turno per chiavi di ricerca molto competitive e non staremmo qui a discuterne affatto.

Ma il punto è anche un altro: questo genere di calcoli sui contenuti di un sito sono profondamente fuorvianti, perchè non avrebbe senso (in ogni caso) mantenere un sito in prima pagina senza che sia “a misura” per gli utenti. Il mito della keyword density al 4% deriva da osservazioni molto superficiali e dalla sempiterna idea (sbagliata) che la correlazione implichi causalità. In giro nella rete troverete molti “studi” (le virgolette sono tutt’altro che casuali: pubblicare infografiche con statistiche è una delle più diffuse tattiche di link building) che giustificano, o provano a giustificare, calcoli in tal senso. Ma per quanto credibili si tratta di correlazioni spurie, le stesse mostrate su Tylervigen (tra le migliori: esiste una correlazione al 99% – quindi altissima – tra le spese USA per scienza, spazio e tecnologia e numero di suicidi per impiccagione, strangolamento e soffocamento). Del resto, anche se la considerassimo una tecnica furba, dovremmo convenire sul fatto che sia molto facilmente rilevabile da un “controllo” di Google: e se le telecamere mi stanno inquadrando durante un furto, è chiaro che non posso più percorrere quel tunnel pensando di non essere visto.

I calcoli sulla keyword density mandano fuori strada, e dovremmo solo smetterla di parlarne.

10 strategie SEO per portare traffico fresco al tuo sito

Gli articoli che trattano l’argomento “aumentare le visite” sul proprio sito, di norma, di solito si concentrano sull’aspetto “contenutistico” puro: saper essere leggibili, scrivere di getto, dare del tu, lavorare bene sui titoli, pubblicare ricerche originali e personali, spulciare eventuali case histories, pubblicare immagini che colgano nel segno e così via. Ma questi accorgimenti di copywriting non sono, in effetti, l’unica cosa che si può fare: per rendere accattivante un sito, ed aumentare le prestazioni delle tue metriche analytics, ci sono molte altre cose meno scontate che puoi fare.

Come incrementare le visite sulle pagine del nostro sito? Per provare a rispondere vediamo 10 punti basilari per qualsiasi strategia di link earning e link building, che sono il mezzo attraverso cui le visite arrivano.

  1. Una prima strategia è senza dubbio quella di prendere nota di quello che fanno i competitor per farsi arrivare traffico: una ricerca mirata su Google, oppure strumenti free come Ahrefs, possono aiutarci allo scopo. Questo pero’ deve essere uno stimolo a migliorarsi, non un limite o un vincolo (“facciamo come hanno fatto loro”).
  2. Una tattica molto utilizzata, per quanto da maneggiare con cautela, è quella di sfruttare i forum al fine di evidenziare il proprio sito. Questo vale solo per alcune nicchie di mercato, e bisogna sempre fare attenzione a rispettare le regole e a non infastidire gli amministratori nel farlo (mediante firme o citazioni, di solito): evitare tassativamente eccessivi “tatticismi” come le anchor text corrispondenti alle chiavi di ricerca.
  3. Cercare partnership e farsi linkare il sito è una tecnica attuabile, ed incredibilmente ancora poco sfruttata, per tutti i siti di natura commerciale.
  4. Segnalare il proprio sito ai blog pertinenti (non per forza directory) se fatto nel modo giusto più portare a vantaggi spesso inattesi.
  5. Sfruttare lo scrolling infinito – Sempre più siti sfruttano il meccanismo di infinite scrolling, cioè l’accorgimenti che mostra continuamente nuovi contenuti scorrendo in fondo la pagina, tipicamente gli elenchi di post per categorie o, per avere un esempio più familiare, i post dei nostri contatti Facebook. È chiaro che un accorgimento del genere suscita la curiosità del lettore, è ottimo per spezzare i post più lunghi e tende a diminuire la percentuale di rimbalzo. Sicuramente è una buona strategia su cui investire, o almeno provarci, se avete molti articoli di lunghezza considerevole e desiderate tenere incollati i vostri visitatori al sito web.
  6. Un modo facile per aumentare le visite al sito in modo istantaneo può essere quello di utilizzare i vari social bookmark come OkNotizie e ZicZac, senza ragionare sul PageRank o sui vantaggi indiretti che potranno portare bensì, più intelligentemente, valutando che se postiamo notizie che interessano il bacino di lettori di quei siti. Le visite arriveranno rapidamente e spesso in grande numero, soprattutto arriveranno in modo sensato e da visitori “tematici” ed affini a voi. Su questi siti, di norma, il pubblico sembrerebbe più interessato alle notizie generaliste che a quelle di nicchia o specialistiche, ma il tentativo ovviamente si può fare per capire cosa succede.
  7. Creare un video ad hoc e caricarlo su Youtube, allegando il link al proprio sito nella descrizione, è un esempio di ottimo link in ingresso (nofollow) capace di portare visite tematiche.
  8. Taglio corto sulla tecnica del comment marketing: commentare blog tematici firmandosi col proprio sito non è un modo molto produttivo di impegnare il proprio tempo. Ci sono pero’ delle eccezioni alla regola ed alle netiquette, che potrete scoprire solo con l’esperienza.
  9. Molto produttivi, specie nei settori diffusi solo su internet (consulenze online, ad esempio) scrivere ed intervenire spesso nei forum di settore: aiuta ad aumentare la propria visibilità in modo considerevole e soprattutto in modo naturale.
  10. A volte si pensa male alla link building: perchè inventarsi i modi più strani per ricevere traffico? Spesso le soluzioni più ovvie sono anche le migliori per il nostro sito.
  11. Se fate link building da soli, i link saranno spesso nofollow o saranno rimossi: non sottovalutate, comunque,  l’opportunità di farvi  vedere da altri visitatori o dai proprietari dei siti.
  12. Se ci sono margini di intervento, ad esempio in termini di content marketing, non dovrebbe essere difficile individuare termini di ricerca interessanti con contenuti carenti, vecchi o lacunosi. In questo caso conviene scrivere dei nuovi post sul blog, tipicamente, al fine di colmare queste lacune e calamitare traffico tematico. Costruire buoni contenuti è necessario per attuare bene le strategie viste, e soprattutto per guadagnare link spontanei (soprattutto nel medio-lungo periodo).

Perchè gli indici SEO non servono a niente

In rete trovati molti indici SEO di riferimento, soprattutto nelle procedure di compra-vendita dei domini PageRank, PA, PD, AlexaRank e molte altre. La page-authority (PA) di Moz, ad esempio, è uno degli esempi più celebri (e considerati), ma leggendo la sua documentazione ci possiamo accorgere facilmente di un aspetto secondo me un po’ carente. Quello che leggerete è solo un esempio, chiaramente, di un discorso che vale in generale – quantomeno, finchè Google non renderà open il suo algoritmo di ranking: mai, probabilmente.

Si scrive infatti che “a differenza di altri indici SEO è difficile manipolarlo maliziosamente” (e questo è un bene, ovviamente), e che si tratta di un indice aggregato (probabilmente una media pesata di più fattori) che produce uno score su scala logaritmica tra 0 e 100. Viene utilizzato, come sappiamo, per valutare la “bontà” di un sito e, alla fine dei conti, se valga la pena o meno ottenere un backlink da quel dominio. Moz, pero’, assume che Google tenga conto di un sacco di fattori (senza specificare quali: nessuno lo sa, del resto), per cui (sic) una metrica come quella del PA dovrà tenere conto anch’essa di… “numerosi fattori”.

Riflettiamo un secondo su questa affermazione: parliamo di un indice che cerca di emulare il comportamento di Google, sfruttando come unica (vaga) ipotesi l’unico fatto realmente noto con certezza, cioè che ci sono in ballo “parecchi fattori“. Stop. È come se io volessi simulare l’andamento di una macchina senza sapere neanche se è un diesel o va a benzina, semplicemente perchè “ci sono tanti pezzi di mezzo” per cui mi basterà (?) mettere insieme un ventilatore, un tavolo, un cuscinetto a sfera ed un infisso di una finestra per simularla in modo credibile? Stimo molto il lavoro dello staff di Moz, che ha meriti enormi in ambito formativo per i SEO, ma ho l’impressione che questo genere di informazioni sia affetto da un non sequitur piuttosto clamoroso.

Ovviamente il ragionamento che ho riportato è applicabile a qualsiasi altro indice “alternativo” sviluppato da aziende private: si tratta di analizzatori software esterni a Google, che non possono usare i dati di Google (perchè l’azienda risaputamente lo vieta) per cui si costruiscono indici interni e li usano, a volte, addirittura per determinare liste di ranking factor. Si può benissimo dare credito a questi studi – ed ognuno è libero di fare e credere fideisticamente ciò che vuole – ma resta il fatto che dovrebbe essere chiaro che sto cercando di misurare la “qualità” di un sito utilizzando criteri esterni a quelli che davvero contano, e basandomi sulla buonafede di chi produce quelle informazioni (che, per inciso, a volte potrebbe manipolare i dati per convincerci a comprare le loro consulenze).

Correlazione & SEO, un equivoco che va avanti da secoli

In mancanza d’altro, si effettuano (e si analizzano) spesso in ambito SEO studi di natura statistica che tendono a legare “cause” (backlink acquisiti, variazioni nel title del sito, ecc.) ad “effetti” (miglior posizionamento di una pagina per il termine X): le virgolette sono d’obbligo, in questo caso, altrimenti sarei già partito col piede sbagliato. Non è raro che escano fuori studi che, ad esempio, mettono in correlazione il tipo di title utilizzato con il posizionamento. Uno dei modus operandi più diffuso era quello di inserire la parola chiave all’inizio del titolo, il che dovrebbe produrre effetti benefici al posizionamento.

Al di là delle obiezioni sul metodo, c’è da chiedersi se il metodo funzioni o meno: la vera domanda, pero’, è chiedersi se c’è modo di accertarsi che quel metodo sia effettivo. Siccome i fattori SEO non sono quantificabili se non “a spanne”, è praticamente impossibile fissare l’attenzione su un singolo aspetto che governi tutto il resto. Quindi, detta brutalmente, tutti gli studi che evidenziano fattori di correlazione tra eventi sono puro intrattenimento per il lettore, non suggeriscono alcuna “regola” da applicare e sono scritti, spesso, come pura tecnica di link baiting in cui, puntualmente, cascano tutti.

Molti obiettano che queste tecniche siano innocue, tutto sommato suggeriscono solo dei trend e non tutti sono obbligati a seguirli: ho sembra risposto a queste persone che questo genere di approccio alla SEO è fuorviante e sostanzialmente cattivo, nonostante tutto. Questo perchè sbaglia metodo dall’inizio, e perchè inganna sulla falsariga del noto “correlation does not imply causation“. Due eventi possono insomma essere correlati e non avere nulla a che vedere tra loro, come affermato dal celebre esempio della religione parodica dei pastafariani. Per quanto dispiaccia ammetterlo, bisogna dedurne che buona parte del modus operandi di alcuni SEO è basato su una fallacia di presupposizione, cioè un equivoco dato per buono fin dall’inizio.

Dicono che le correlazioni corrispondono spesso a buone pratiche SEO, e quindi non ci sarebbe nulla di sbagliato nel seguire il trend; ma posso comunque seguire buone pratiche senza farmi deviare dalle correlazioni, che potrebbero spingermi a spingere esclusivamente alcuni fattori ignorando il resto. Per quanto credibili possano essere, si tratta pur sempre di correlazioni spurie, le stesse mostrate su Tylervigen (tra le migliori: esiste una correlazione di oltre il 99% – quindi altissima – tra le spese americana per scienza, spazio e tecnologia e numero di suicidi per impiccagione, strangolamento e soffocamento; significa per caso che se gli USA decideranno di spendere di meno nella ricerca diminuiranno i suicidi?).

SEO per il tuo blog, come farla

Se hai un tuo blog personale e vuoi migliorare la sua SEO, prima di effettuare qualsiasi operazioni dovresti chiederti se il tuo modello di business è abbastanza solido: se non hai un modello di business, in effetti, le cose possono essere decisamente complicate. L’attività di un SEO in effetti si basa su una serie di azioni e di misurazioni successive, che servono a determinare interventi mirati ad aumentare le visite, le conversioni, il posizionamento e così via.

Non sempre fare SEO sul proprio sito è alla portata di tutti, e ci vuole certamente una certa esperienza per effettuare le operazioni più avanzate. A livello di controlli, ottimizzazione di base e check basilari, comunque, non mancano le possibilità: in questo articolo proveremo a vederne qualcuna che potrebbe tornarvi utile nel concreto.

Solitamente la SEO per un qualsiasi sito web si articola in due fasi distinte, che sono:

  1. ottimizzazione on-site, cioè quella che interessa le pagine del sito – title, description, contenuti, struttura dei link interni e così via;
  2. ottimizzazione off-site, ovvero quella che si effettua esternamente al sito – referenze, backlink da blog o forum, citazioni, partnership eccetera.

Per effettuare la prima fase dovrete disporre delle “chiavi” di accesso al sito di interesse, ad esempio in WordPress o Joomla! esse coincidono con la username e la password di amministratore o editore del sito. Per intervenire a livello SEO su un sito, quindi, di solito è indispensabile disporre dei permessi elevati, per cui un amministratore (e non un semplice contributor o articolista del sito) che possa eventualmente modificare il tema e le impostazioni è la “figura” più adatta a farlo. Per quanto riguarda la seconda fase, invece, dovrete invece sfruttare degli account ad hoc che possono essere siti di news “fiduciati”, accessi secondari a siti di colleghi, contatti via email o social e via dicendo. Le strategie nello specifico possono cambiare di molto a seconda dello scenario e del tipo di consulenza, qui stiamo dando solo delle indicazioni di massima.

Alla base di una qualsiasi analisi ed attività SEO spesso si dimentica una cosa fondamentale: al di là delle attività singole che possono o meno portare dei risultati (link building, ottimizzazioni interne, ecc.) vi è il concetto di pertinenza di una ricerca, ovvero: si cerca di capire se esistano delle pagina del nostro sito che possa avere senso, per intenderci, che Google le restituisca in corrispondenza a quella ricerca. Sembra una cosa un po’ complessa, ed in effetti (senza giri di parole) lo è: riuscire a capire bene il senso ed il significato della pertinenza di una pagina rispetto ad una o più ricerche fa la differenza tra il SEO dilettante ed il professionista, e questo nel caso dei blog si traduce nella gestione idonea di contenuti che possano determinare le giuste risposte alle giuste domande.

A livello pratico, quindi, avere un modello di riferimento dal punto di vista monetario è importante per capire il “cosa” stiamo ottimizzando: se abbiamo inserito degli annunci nel blog (caso più che comune) dovremo capire come incrementare visualizzazioni e soprattutto click sugli annunci, ad esempio producendo articoli tematici e/o incrementando i backlink verso nostra home page. Se vendiamo consulenze in un settore specialistico, poi, ci interessa che arrivi il maggior numero di traffico mirato sul nostro sito. Diverso ancora, inoltre,  è il caso in cui il nostro blog riceva visite generaliste, ed in questo caso l’incremento di visite “grezze” serve a rendere le nostre pagine più appetibili per gli inserzionisti (stiamo vendendo banner sul blog, in pratica).

Una volta compreso il modello di business sottostante, andremo ad effettuare le classiche operazioni della SEO che possiamo dividere in due macro-categorie:

  1. ottimizzazione locale delle pagine, quindi a livello di title, description, contenuti delle pagine, rich snippets ecc.;
  2. ottimizzazione esterna, per cui lavoreremo sulle fonti di traffico, backlink, misurazione dei ranking (ad esempio via SEOPanel) ecc.

C’è anche da sottolineare un altro aspetto importante: moltissimi blog di natura personale, per quanto ben scritti ed ottimizzati lato SEO, non sono adatti a guadagnare e/o ad entrare sul mercato, proprio perchè molti argomenti non danno guadagni consistenti e, come se non bastasse, spessissimo il problema risiede nella cronica sottovalutazione del modello di business. I blogger che sanno scrivere bene, infatti, non sempre hanno ben presente ciò che fanno o meglio, lo fanno semplicemente perchè amano farlo. Questo non è per forza di cosa il miglior modo di approcciare al proprio sito, che lato SEO dovrebbe avere anche un buon modello editoriale sottostante, un po’ come se fosse un magazine o una rivista specializzata.

A livello SEO, quindi, sarà necessario il più delle volte aumentare le referenze, le eventuali partnership ed i contenuti di alta qualità al fine di incrementare link in ingresso e popolarità.

Ad esempio se la chiave è “hosting economici”, una pagina che “risponde” bene a questo genere di ricerca è quella che ho creato sul mio principale sito, ovvero Hosting economici a meno di 20 euro / anno. Il punto chiave da capire è che questa pagina effettivamente risponde bene all’esigenza di chi stia cercando un web hosting per le proprie tasche.

In genere (specie quando si fa SEO a livello base) si parte da un posizionamento esistente del sito, cercando (fase di check):

site:nomedelsito.com chiave

e verificando se compaia almeno un risultato; successivamente si passa alla fase in cui si controlla, sempre su Google, che la chiave di ricerca porti al nostro sito nella prima o seconda pagina dei risultati:

chiave

In molti casi, si debbono considerare le varianti della cosiddetta coda lunga, ovvero sinonimi, variazioni più specifiche e simili a partire dalla chiave originale. Ad esempio, partendo dalla chiave di ricerca “SEO” possiamo estendere le ricerche a tre ulteriori varianti: “SEO italia”, “consulenze SEO”, “consulenti SEO”.

Di solito lavorando per qualche tempo sulla coda lunga si riesce ad incrementare il numero di visitatori dai motori di ricerca sul sito, anche se non sempre ciò corrisponde con un posizionamento sui motori ottimale o che si “ottimizzi” quando piacerebbe a noi.

Sulla prima fase (onsite) diciamo che:

le modifiche che portano a miglioramenti “apprezzabili” del posizionamento sono, di solito, variazioni sul title (a volte anche sulla meta-description), ammesso che la pagina sia considerata pertinente nel senso specificato in precedenza.

Conoscere i plugin (Yoast di WordPress e per EFSEO per Joomla sono i più classici ed efficenti) ed il funzionamento dei CMS è certamente molto utile ad un SEO, che non sempre disporrà di un webmaster che possa cambiare per lui questi elementi. Su molti siti, comunque, mi sono trovato decisamente meglio ad ottimizzare in HTML in via diretta il theme, ovviamente operando secondo le “regole” del CMS stesso (theme child di WP ad esempio).

Per quanto riguarda la seconda fase, invece il processo è molto più complesso: consiste nella verifica del posizionamento delle pagine, nell’acquisizione di visibilità da fonti esterne autorevoli senza violare le norme di Google, e (anche qui, again & again) nel successivo monitoraggio dei risultati.

I cambiamenti che portano a improvement del posizionamento sono difficili da quantificare e precisare, per quanto abbia riscontrato risultati apprezzabili nell’utilizzo di fonti di traffico attive (Scoop.it, OkNotizie, …) più che di link autorevoli veri e propri (Dmoz, siti di quotidiani, ecc.), spesso praticamente impossibili da ottenere – se non dietro sotterfugi o pagamenti quasi sempre (dal mio modesto punto di vista) fuori budget. C’è da dire che nell’ambito SEO c’è poco da fare i moralisti, e molto spesso la necessità dovrà cedere il passo a tecniche poco convenzionali.

Quali garanzie può dare la SEO?

Come in numerose altre attività, la “garanzia” sul lavoro eseguito – come si direbbe in altri ambiti “a regola d’arte” – è spesso difficile da ottenere perchè difficile da definire precisamente. Suona sgradevole, forse, ma è bene dirlo a chiare lettere da subito. Questo rende a mio avviso il settore delle consulenze SEO decisamente complesso, più di quanto possa sembrare a prima vista. Il problema, a mio parere, infatti, è che molte cose della SEO sono lasciate un po’ a decisioni e misurazioni “a spanne”: basti pensare che, ad esempio, non esiste un’unica definizione di posizionamento organico, visto che la stessa ricerca può produrre due risultati differenti dal computer nostro e da quello del cliente. Se c’è questo problema di fondo, come farò a dire che il lavoro è finito o meno?

I risultati garantiti, mi sento di dire, a questo punto sono impossibili da garantire, e questo vale soprattutto per la “prima posizione garantita“, che molte aziende “garantiscono” (in modo, mi permetto di dire, vagamente truffaldino) utilizzando Google Adwords, in molti casi, senza dirlo al cliente. L’unico modo per avere questa certezza, infatti, è quello di ricorrere al traffico a pagamento, visto che lavorando di SEO “pura” è molto difficile, a volte impossibile, avere risultati certi. Nessun SEO può garantire la prima posizione a nessun sito, e questo è bene ribadirlo a piene lettere e con piena responsabilità di ciò che si dice.

Quello che si fa mediante l’ottimizzazione di un sito, infatti, è legato più che altro all’incremento delle visite, delle visualizzazioni sui motori di ricerca, dei click e delle conversioni, ammesso che si lavori bene: il cliente meno avvezzo alle misurazioni ed alle percentuali statistiche potrà convincersi della bontà del nostro lavoro misurando non tanto posizione sui motori di ricerca o numero di visite quanto, ad esempio, il numero di vendite. Se un cliente di un SEO vende, potrà quindi avere un feedback piuttosto concreto, senza che – come spesso accade – il consulente sia costretto a “convincere” della bontà del proprio lavoro il cliente. Certo, è difficile lavorare in modo convincente se ad esempio stiamo “semplicemente” (si fa per dire, ovviamente) ottimizzando il sito o la link building o l’aspetto generale nei risultati di ricerca di un sito.

Un buon lavoro SEO non garantisce nulla perchè non può prevedere il futuro: non siamo veggenti, imbonitori o chiromanti, bensì professionisti che cercando i mettere i siti dei nostri clienti nelle migliori condizioni possibili. E la cosa, per inciso, deve essere retribuita adeguatamente, perchè non è affatto cosa di poco conto: è importante, pero’, che gli utenti siano abituati a comprendere il valore dell’ottimizzazione per i motori di ricerca, e questo si può fare ad esempio sfruttando un buon corso di formazione.