Come eliminare una penalizzazione di Google

La rimozione delle penalizzazioni di Google è forse uno degli aspetti che preoccupano maggiormente i webmaster, specialmente quelli meno orientati alle problematiche di ottimizzazione.

Di fatto, è bene tenere presente che la rimozione di una penalizzazione – e parlo di quelle notificate esplicitamente da Google, non di quelle presunte più o meno ragionevolmente – passa per una serie di fasi consecutive facilmente inquadrabili in questi termini. Scrivo questo perchè, molto francamente, mi da’ molto fastidio quando un cliente entra nel merito del prezzo che gli ho proposto, magari dicendo in modo subdolo che starei addirittura pagando troppo, ovvero (detta in termini eleganti) svilendo il mio lavoro stesso. Magari con questo articolo, per una volta privo di considerazioni tecnico-strategiche, riusciamo a mettere (almeno un po’) le cose a posto.

Prima di tutto… capiamoci!

Noto una certa confusione sul modo di esprimersi da parte dei SEO meno tecnici, per cui mi pare opportuno partire da questo. Quando si parla di penalizzazioni, infatti, si possono in genere fare due distinzioni fondamentali:

  1. le penalizzazioni manuali, che sono notificate esplicitamente nella Search Console di Google, e che ricadono solitamente nelle seguenti casistiche tipiche: Sito compromesso, spam generato dagli utenti, host gratuiti contenenti spam, markup contenente spam, Link non naturali che rimandano al tuo sito (link in ingresso penalizzanti), Contenuti scarni o con nessun valore aggiunto, Cloaking, Link non naturali dal tuo sito (link che state dando voi a qualcun altro), Puro spam, Immagini compromesse, Testo nascosto e parole chiave in eccesso (keyword stuffing). Google chiama solitamente queste penalizzazioni “azioni manuali” (fonte).
  2. le penalizzazioni algoritmiche, che invece non vengono notificate in modo esplicito, e per le quali solitamente si sfruttano strumenti esterni che possono aiutare a capire se sia il caso (la certezza a volte non c’è, comunque).

Attenzione al tipo di penalità che ricevete

Non voglio dire che le penalità algoritmiche siano fuffa, certo è che sono l’aspetto meno misurabile (e per questo, secondo me, a volte poco interessante) in ambito SEO.

Se le penalizzazioni di primo tipo sono banali da rilevare (basta verificare nella propria Search Console di non avere avvisi del genere, o di non avere mai ricevuto email), quelle di secondo tipo sono molto più subdole e, in genere, difficili o impossibili da rilevare. Vedo software rilevare penalità come per magia, e colleghi legare con eccessiva sicurezza a Penguin, Panda o altri fenomeni analoghi soprattutto i cali di traffico dei siti, quando in realtà nel caso di penalità algoritmiche non c’è modo di ricondurre con certezza il problema ad una causa specifica.

Ci sarebbe tanto da dire in questo contesto, ma in questa sede basti sapere che:

  1. le penalità algoritmiche da Google Penguin tendono a penalizzare gli schemi di link, che poi nella pratica spesso si riconducano a link building piuttosto grezze, a volte rilevabili ad occhio nudo; per la cronaca, Penguin colpisce ciclicamente i risultati di ricerca dal 2012 in poi (si contano più o meno 7 aggiornamenti certi ad oggi). Si tratta di una delle penalità più popolari in assoluto, che se da un lato conferma che inserire tanti link in ingresso al proprio sito sia un fattore determinante per il ranking, dall’altro invita indirettamente a fare un po’ di attenzione nel farlo.
  2. le penalità algoritmiche da Google Panda riguardano il fenomeno delle content farm, cioè i siti che riproducono / scopiazzano (spesso via software) contenuti altrui allo scopo ad esempio di trarne vantaggio in termini di inserzioni pubblicitarie; la qualità di questi siti è bassa, l’utilità per gli utenti è spesso prossima allo zero. Il problema principale di questi siti copia è che a volte riescono a posizionarsi meglio degli originali, per quanto il fenomeno mi sembri piuttosto in calo negli ultimi tempi. AI tempi, Google pubblicò un celebre articolo (Indicazioni per la realizzazione di siti di qualità) in cui indicava indirettamente i criteri perchè un sito desse “fiducia” in tal senso: articoli scritti in modo attendibile, scritti da esperti o appassionati del settore, nessuna presenza di duplicati approssimati ( articoli pubblicati in gran numero e con piccole variazioni del testo), affidabilità dei sistemi di pagamento, assenza di errori ortografici grossolani, più altre metriche più difficili da misurare come autorevolezza del sito, affidabilità, invasività degli annunci ed altro ancora.

In genere, poi, ricordatevi che le penalità algoritmiche riguardano ufficialmente percentuali di query molto basse, spesso inferiori all’1% di quelle globali (ovvero non solo di quelle italiane!): questo mi suggerisce, da sempre e fino a prova esplicita contraria, che sia necessaria una enorme cautela nell’addurre cause a fenomeni. Del resto, anche se tutti i siti di un campione sono evidentemente stati colpiti da uno dei suddetti, non è affatto detto che la cosa riguardi anche il nostro sito (anche se, ovviamente, è importante sapere dell’esistenza di questi rischi).

Si noti, per inciso, che la recente casistica delle notifiche ai siti senza HTTPS non sembri ricadere in questo contesto, almeno non ad oggi: per cui non si tratta, in quel caso, di una penalità nel senso qui spiegato.

Quando si riceve una penalizzazione esplicita da Google (azione manuale) c’è il lavoro più concreto da fare, ovvero:

  1. è necessario anzitutto accedere alla Search Console del sito, per cui dovrete fornire al vostro consulente (o fare voi stessi, in caso) l’accesso alla piattaforma, e prendere nota della notifica esatta che avete ricevuto per il sito critico;
  2. è necessario esportare la lista di link in ingresso al sito, che viene tipicamente importata come file Excel;
  3. a questo punto ci sono due sotto-casi fondamentali: il primo riguarda le penalità da link in ingresso (Link non naturali che rimandano al tuo sito), il secondo quelle da link in uscita (Link non naturali dal tuo sito).
  4. Se avete una penalità a livello di backlink in ingresso significa che è stata fatta una link building troppo spinta, oppure che qualcuno possa avervi fatto penalizzare apposta: difficile dirlo, ma l’aspetto davvero spinoso è legato alla procedura necessaria per uscire dal problema. Si tratta infatti di analizzare uno per uno i backlink in ingresso riportati dalla Search Console, al fine di individuare quelli sospetti o malevoli; la valutazione non è automatizzata, richiede un criterio di massima da seguire ed un certo senso critico. Si crea una bella lista (file di testo o Excel) di backlink sospetti, e poi si può decidere di A) contattare i webmaster e chiedere di rimuovere i link (ed in più metà dei casi non funzionerà, purtroppo) B) inviare un file formattato per il disavow di Google, e “prendere le distanze” da quei link in modo ufficiale (consigliato). Una procedura, quest’ultima, che è anche un po’ di imbarazzante (per alcuni) “ammissione di colpa” – del resto spesso capita di ereditare situazioni critiche su cui non avete responsabilità dirette – ma che mi pare l’unico modo per uscirne indenni. Si dovrà, dopo aver concluso la raccola link sospetti (il che può richiedere, a seconda del volume di dati, da diversi giorni ad un paio di settimane di lavoro), passare a fare una richiesta di riconsiderazione del sito web sempre mediante Search Console. Essa andrà formulata in modo opportuno evidenziando, soprattutto, il lavoro che è stato eseguito e la situazione eventualmente ereditata: tanto vale essere molto sinceri nella lettera di accompagnamento, aggiungo sempre. Se la richiesta viene accettata, il lavoro si conclude qui; in caso contrario è necessario ripetere le fasi 3 e 4 finchè non vanno a buon fine. La guida per l’uso dello strumento del disavow tool è questa, comunque.
  5. In caso di penalizzazioni da link in uscita, la procedura è leggermente più agevole: si tratta di individuare i link in uscita dal vostro potenzialmente dannosi (Google non vi dirà, neanche qui, “chi” stia penalizzando e a volte neanche “dove” precisamente), e direi che in questi casi il 90% delle responsabilità ricade sui link sitewide, cioè quelli diffusi su tutte le pagine mediante widget o footer. Se sono nei widget, suggerisco di rimuoverli e basta; se invece sono nei footer, si tratta di modificare il theme via HTML / PHP (la cosa non è per forza banale: in WordPress ad esempio è richiesto di creare il theme child, altrimenti le modifiche si perderanno!) Diversamente, una volta mi è capitato di sfruttare un crawler di pagine open source e di lanciarlo sul sito critico per individuare tutte le occorrenze di pagine compromesse. In genere, quello che va fatto è estrarre dal vostro sito (mediante opportuni software, ma anche manualmente alla peggio) tutti – senza eccezioni ! – i link esterni delle vostre pagine, per poi (anche qui) individuare quelli che siano di natura manipolatoria PageRank e simili; è chiaro che questa è la parte più corposa del lavoro, e richiede una certa esperienza al fine di individuare quello che non va, oltre al tempo materiale di analizzare i dati. Se avete venduto dei link a terzi, per inciso, Google vi sta molto probabilmente invitando a rimuoverli. Nella mia esperienza, rimuovendo questi link dannosi ed inviando la richiesta di riconsiderazione a Google, sarà possibile rientrare alla normalità. Per capirci ancora meglio, i dettagli di un lavoro di questo tipo, da me svolto un po’ di tempo fa, si trovano nell’articolo Escape from Google manual penalties (in inglese). Come avete visto, è un lavoro lungo che richiede tempo e competenza.
  6. Una piccola nota ulteriore: in genere le penalità manuali di Google possono riguardare A) tutto il sito (tipico delle segnalazioni di Sito compromesso) B) solo una parte dello stesso (tipo delle penalizzazioni da link in ingresso / uscita). Non sempre è facile orientarsi a capire “cosa” modificare, per cui in caso di difficoltà tanto vale segnalare tutto o quasi (backlink malevoli in ingresso) o al limite cambiare theme o CMS (le penalità da link in uscita si risolvono spesso, anche se non sempre, facendolo).
  7. Molti colleghi mi hanno fatto notare, in passato, come effettivamente non ci sia “prova” concreta del fatto che la penalizzazione venga rimossa. Questo secondo me è vero in parte, anche perchè se le cose si fanno come si deve Google notifica il rientro alla normalità. Per le penalità algoritmiche, invece, il discorso è completamente diverso ed effettivamente, in quei casi, l’obiezione ha più senso. Tra l’altro, aggiungo, una penalità rimossa oggi non è detto che non possa tornare domani!

In questi casi, in effetti, è consigliabile rivolgersi ad un consulente esterno che faccia questo lavoro per noi; ovviamente sul prezzo ognuno ha le proprie politiche e di questo, se ci fosse bisogno di dirlo, bisognerebbe avere più rispetto. Faccio giusto un appunto a chi ha scritto, in passato, articoli sul prezzo più giusto da applicare per una consulenza X, e questo (oltre a sembrarmi una cosa in certi casi poco etica, e più che altro “chiacchiere da bar”) è abbastanza fine a se stessa, fuorviante e – detta in modo brutale – credo non sia utile a nessuno.

Confermato: i siti senza HTTPS sono notificati nella Search Console

Da quest’anno c’è aria di grosse novità in casa Google: la campagna pro-HTTPS da utilizzare su tutti i siti, almeno a lungo termine, sta iniziando a mostrare risultati concreti. Ho già esplicitato altrove (HTTPS è una buona cosa per WordPress?) il mio scetticismo di fondo legato a questa iniziativa: questo non tanto per l’utilità tecnologica in sè (che non si discute: HTTPS è uno standard di sicurezza molto elevato ed utile) quanto per l’uso che tenderanno a farne la maggiorparte delle persone (soprattutto quelle che si baseranno su quello che leggeranno, soprattutto da parte di web hosting interessati a vendere certificati SSL e indirettamente “poco obiettivi” sull’argomento: si veda anche Google penalizza i siti senza HTTPS?).

L’ulteriore novità è che i siti senza HTTPS vengono da qualche tempo, come mi suggeriva qualche collega giorni fa, notificati nella Search Console via email: ovvero i webmaster vengono avvisati in questi termini che il sito non supporta SSL, e che sarebbe preferibile farne uso.

La prima parte del comunicato mi ha notificato il sito web interessato:

La seconda mi ha fornito una descrizione dettagliata, con un URL di esempio (NB mandano solo un esempio, potrebbero esserci altre pagina analoghe: apparentemente le notifiche degli URL specifici riguardano pagina indicizzate e, nel mio caso, ben posizionate su Google). Viene anche esplicitato che si tratta di una prima fase, e che ne seguiranno altre per cui, presto o tardi che sia, tutti i siti senza HTTPS saranno notificati.

Infine propongono come risolvere il problema:

Mi pare opportuno, a questo punto, fare un paio di approfondimenti per evitare gli inevitabili fraintendimenti sull’argomento.

#1 Questa notifica non è una penalizzazione!

Le notifiche di questo tipo arrivano alla Gmail su cui avete registrato la vostra Search Console; non si tratta, per quello che ne sappiamo, di notifiche di penalizzazione (in senso manuale tipo per vendita di link, tantomeno algoritmica tipo Penguin, Panda o altri). Quindi, se riceverete una mail del genere da Google, non vuol dire che siete stati penalizzati: significa semplicemente che è stata rilevata una pagina con un form di login che non usa HTTPS (o comunque almeno una sezione che, secondo la traduzione italiana, “pagine che raccolgono password o dati di carte di credito“: “raccolgono”, in questo caso, va inteso come “ricevono”, “utilizzano” password, ovvero form di login ed eventualmente form di pagamento con numero di carta di credito, data di scadenza e codice CVC: vedi anche come funzionano i pagamenti online).

Il fatto che sia stata rilevata almeno una pagina senza HTTPS non significa, a mio modesto avviso, che ci saranno per forza “guai in vista” se non passate ad SSL: certo, è buona cosa farlo (nessuno lo nega), e sarebbe obbligatorio farne uso, ma questo vale soprattutto per coloro i quali hanno implementato form di pagamento, login o registrazione in HTTP.

#2 La notifica non arriva per tutte le pagine

Sui circa 30 siti che controllo via Search Console, per intenderci, solo in un caso mi è arrivata questa notifica, mentre per i blog ed i portali con pagina di login separata dal resto, per quello che si è capito ad oggi, questa notifica dovrebbe arrivare meno probabilmente.

Non è corretto, pertanto, sostenere – come molti stanno facendo – che la notifica arrivi indistintamente su tutte le pagine che usino HTTP (come detto, sembra arrivare solo su pagine con determinate caratteristiche): certo, l’idea di fondo resta quella di passare ad HTTPS su tutte le pagine, per un web più bello e per avere l’iconcina carina di colore verde su tutti i browser da Chrome 56 in poi. Le pagine interessate a questo genere di notifica, cioè quelle per cui sarebbe richiesto avere HTTPS obbligatoriamente, sono quelle che contengono dei form (caselline in cui digitare password o numeri di carte di credito) 1) di login 2) di pagamento.

Messa così, non ci voleva Google per accorgersene: è ovviamente corretto che avvisino i webmaster e li invitino a passare quanto prima ad HTTPS, ma è piuttosto improprio (e a mio avviso molto meno corretto) puntare sul terrorismo psicologico per cercare di cavalcare l’onda e vendere certificati.

Il messaggio corretto che dovrebbe passare, in effetti, è che bisogna quanto passare ad HTTPS per tutte le pagine di login e di pagamento dei vari siti, soprattutto quelli che vogliono lavorare bene e ridurre i rischi. Ma qui non è questione di SEO, scusatemi: è questione di web ben realizzato. C’è anche una questione di “immagine”, ovviamente, per cui chi usa HTTPS è un po’ come chi veste firmato, ma il punto non è tanto questo. Anche se questo è un blog sulla SEO, diffido da sempre dall’idea – trapelata fin dall’inizio – che HTTPS sia solo un “fattore di ranking” perchè, soprattutto per come ho visto che si lavora in Italia, messa così il potenziale protettivo della tecnologia SSL rischia di andare in malora.

#3 HTTPS universale (su tutte le pagine dei nostri siti) non sarà una modifica “indolore”

Un paradosso, quello di SSL/TLS universalizzati su tutti i siti, che rischia di diventare di dimensioni epiche: da un lato, infatti, le pagine in HTTP già indicizzate andranno reindicizzate, e questa cosa sarà poco ovvia per molti di noi, e sono pronto a scommettere sui duplicati in SERP (stessa pagina indicizzata in HTTP e in HTTPS) che fioccheranno un po’ ovunque. La cosa che mi turba maggiormente, in questa fase, è pensare a tutti coloro che useranno, o che già hanno usato, HTTPS come fattore di ranking, senza neanche rendersi conto di ciò che comporta fare uso di SSL.

#4 HTTPS non risolverà in automatico tutti i problemi di sicurezza

A parte quest’ultimo aspetto squisitamente SEO, in tanti passeranno a breve ad HTTPS con annessi certificati (spesso abbastanza costosi) non solo con la beata speranza di migliorare il proprio posizionamento su Google (in bocca al lupo: ci sono tuttavia tante altre cose, all’ordine del giorno, per migliorare il proprio ranking): altri ancora sfrutteranno la questione per ribadire una maggiore sicurezza sulle proprie pagine, pensando di aver potenziato la sicurezza del proprio sito ed archiviando definitivamente la pratica: in fondo, se lo dice Chrome che il sito è sicuro, di cosa preoccuparsi?

Parliamo di HTTPS, ma ci sono ancora persone che usano irresponsabilmente la propria data di nascita come password. HTTPS in altri termini, mi permetto di ricordare, non ti protegge dall’uso di “12345” come password: per cui secondo me un problema esiste, ma si sta affrontando in modo poco efficace.

#5 HTTPS non è una tecnologia universalmente sicura

Qualche tempo fa (2014) uscirono fuori almeno tre falle informatiche su HTTPS, e molte di queste non sono ancora state risolte ad oggi (vedi ad esempio: 148 mila siti affetti da Heartbleed). Questo vuole dire che, da un certo punto di vista, è ancora prematuro che Chrome etichetti come “sicuro” un sito perchè usa SSL / TLS: in teoria, anche un sito con HTTPS può essere attaccato come qualsiasi altro, per quanto tale probabilità tenda ovviamente a ridursi in presenza di HTTPS. La notifica di “sito sicuro”, se da un lato aiuterà i visitatori a riconoscere i siti truffa (almeno, quelli che non usano SSL), dall’altro potrebbe finire per deresponsabilizzare ulteriormente i proprietari dei siti sull’aspetto legato alla sicurezza.

A: Il mio sito è sicuro, uso HTTPS!

B: Ma usi l’autenticazione a due fattori?

A: No, e la mia password è “password”.

Possiamo poi ipotizzare che il mercato, in questi casi, tenderà a seguire la “coda lunga”, per cui la maggiorparte dei certificati installati saranno certificati gratuiti (per cui, temo, non troppe garanzie) o saranno di qualità  non sempre eccelsa (esempio: da una delle falle di cui parlavo è emerso che su OpenSSL, una delle implementazioni più popolari di HTTPS, c’erano all’attivo solo 5 programmatori, di cui solo uno stipendiato!). Questo dilagare di tecnologia cheap, peraltro brandizzata ed ampiamente promossa da Google e da Chrome, mi pare che finisca per avere dei tratti vagamente inquietanti.

HTTPS è un problema ancora, ad oggi, complesso, e molti aspetti sono squisitamente destinati agli “addetti ai lavori” (perdonerete il taglio “poco SEO” di questo articolo, ma purtroppo da sempre HTTPS è stata legata a questo genere di discorsi): a me questa mossa di invitare tutti a farne uso sembra piuttosto prematura, anche se riconosco la sua bontà di fondo, ovviamente. Darlo in pasto alle masse come stanno facendo, tuttavia, in questo momento, mi pare comunque una strategia poco azzeccata.

24 trucchi SEO per migliorare il posizionamento del tuo sito

  1. Scegliere con cura le parole da ottimizzare. In molti casi puntare le parole chiavi secche o molto brevi è impraticabile, per cui conviene concentrarsi sulla cosiddetta “coda lunga” (long tail): dopo aver definito obiettivi e priorità della vostra attività di ottimizzazione, dovrete scegliere le vostre chiavi di ricerca da ottimizzare. Partendo da concetti generici, cercate quindi di specificarli al meglio: scoprirete che il grado di difficoltà di attività su “SEO Calabria”, “SEO economica” e semplicemente “SEO” è pressappoco crescente: quindi, partite sempre dal basso (dalle frasi di ricerca più lunghe o specifiche), e complicate il discorso progressivamente (ad arrivare a quelle più generiche).
  2. Predisporre un piano editoriale anche minimo, cioè avere idea che bisognerà pur avere dei contenuti da ottimizzare: nella mia esperienza, è più agevole ottimizzare gli articoli di un blog prima che le pagine singole dei prodotti o dei servizi. Cercate di individuare le criticità del vostro sito, gli argomenti che i vostri visitatori cercano, le risposte di cui hanno bisogno ed i servizi (ad esempio gratuiti) che potrete usare per loro come “esca”.
  3. Come ottimizzare il tag <title>. Stando alla definizione del W3C, il tag <title> dovrebbe contenere il titolo o il nome della pagina. A tal proposito, le linee guida che vengono fornite sul title riguardano due punti: il primo è che dovrebbe sempre essere univoco, cioè permettere un’identificazione agevole rispetto ad altri risultati di ricerca oppure, ad esempio, se venisse salvato in un bookmark del browser. Il secondo è che spesso il title è utile che sia distinto dal tag <h1> che, come vedremo, a sua volta dovrebbe essere univoco. Tradotto in termini più pratici, ogni pagina web del vostro sito – o meglio, ogni pagina che desiderate ottimizzare per il motori di ricerca – dovrebbe essere unica, ovvero disporre di un sito che la renda facilmente individuabile, distinguibile ed in grado di esporre in modo corretto i contenuti della pagina. Non a caso, ad esempio, il titolo di questa pagina è “24 trucchi SEO per migliorare il posizionamento del tuo sito“, che esplica in modo chiaro di cosa tratti la stessa e presenta un numero caratteristico al proprio interno per differenziarla da altre pagine simili (quelle dei miei competitor, per intenderci). Ogni pagina web possiede un singolo tag <title>, senza eccezioni. (fonte)
  4. Non forzare i contenuti nel <title>. Il title è un elemento importante per favorire gli utenti nel trovare le risorse contenute nella nostra pagina: se è vero che in generale il rapporto di corrispondenza tra ricerca effettuata su Google e title della pagina risponde a requisiti molto complessi, che vanno quasi sempre al di là della corrispondenza esatta, in alcuni casi può essere una buona idea inserire nel title una keyphrase (ricerca) che si vuole ottimizzare. La corrispondenza può anche essere esatta (title che corrisponde dalla query di ricerca), ma tale pratica è di fatto limitativa, e spesso controproducente; molto meglio naturalizzare la corrispondenza anche a costo di non renderla esatta, dato che i motori sono molto più evoluti di quello che si crede e non “ragionano”, come molti sono portati a credere, come avverrebbe su un database MySQL.
  5. Non scrivere <title> troppo lunghi. Il motivo di base per non farlo è che i title vengono troncati nei risultati di ricerca: storicamente, secondo Moz, la lunghezza ideale di un title si aggira sulle 50-60 lettere, considerando idealmente il numero massimo di caratteri che vanno a riempire uno schermo di 512px (al minimo). In realtà le cose sono più complesse, e l’unità di misura deve cambiare: a parte il fatto che  in molti casi pratici conteggiare le lettere è meno preferibile, ad esempio, a valutare come viene concretamente visualizzata l’anteprima della pagina in termini di social o rich snippet, è stato dimostrato che Google supporta e visualizza correttamente anche title più lunghi: secondo un’analisi di Enrico Altavilla, composti fino a 12 parole consecutive (fonte, fonte).
  6. Scrivere dei <title> naturali, che siano utili a chi cerca. Favorire le ricerche dell’utente passa per l’ottimizzazione dei title del nostro sito, che devono sempre massimizzare la pertinenza del titolo rispetto alla ricerca (oltre che, naturalmente, il contenuto della pagina stessa).
  7. Aggiornare periodicamente le tue pagine. A meno che tu non abbia implementato un meccanismo software di auto-aggiornamento delle pagine, sempre che sia possibile farlo, dovrai aggiornare ogni tot giorni o mesi i contenuti della pagina: questa forma di recentismo, che in gergo si ricollega a Google Caffeine, permette di fare in modo che arrivino sempre nuovi visitatori al tuo sito mediante motori di ricerca. Ovviamente molto dipende dagli argomenti che tratti, dal tipo di servizi o prodotti che offri, dalla loro stagionalità e da altre considerazioni di web marketing. Questa pratica è spesso fondamentale per mantenere il posizionamento delle tue pagine.
  8. Usare Google come strumento di analisi / 1. Specialmente per le chiavi di ricerca molto competitive, non sempre è facile avere un feedback sui motori rispetto al proprio sito. Per capire come siamo messi in termini di una specifica ricerca, proviamo a cercare su Google chiave di ricerca site:nomedelnostrosito.it: il primo risultato che ne uscirà fuori sarà, molto probabilmente, la “migliore pagina” eleggibile in quel momento per posizionarsi al meglio. Se non esce fuori nulla, dovrete indicizzare la pagina su quell’argomento prima; se esce fuori qualcosa, cercheremo di fare in modo che il primo risultato sia quello che “risponde meglio” alla ricerca in esame (eventualmente cambiandone i contenuti, il title o la meta description)
  9. Come ottimizzare il tag <meta name=”description” value=”…”>. Rispetto al title è meno prioritario, ma il tag meta description ha la sua importanza in qualsiasi attività SEO: rappresenta la descrizione visibile ai motori di ricerca del contenuto della pagina, ed in certi casi compare in forma testuale, come l’abbiamo inserita, sotto al titolo cliccabile nei risultati di ricerca. La meta description perfetta, di fatto, non esiste: qualcuno addirittura ha suggerito dei numeri precisi da raggiungere per avere quella “perfetta”, ma in realtà i casi che si possono presentare sono troppo variegati per poter essere racchiusi in un numeretto preciso (chi dice 120, chi 137, chi 80). Non diamo i numeri: in linea di massima è opportuno garantire che la maggiorparte delle pagine del nostro sito, almeno quelle che stiamo provando ad ottimizzare, abbiano sia title che meta description inseriti / generati in automatico a seconda dei casi. E in molti casi la meta description deve fornire informazioni extra rispetto al title (inutile ripetere o fare keyword stuffing), spesso di natura discorsiva.
  10. Non scrivere <meta name=”description” value=”…”> troppo lunghe.  Sulla base delle considerazioni sulla massima lunghezza di un title, per la meta description valgono considerazioni analoghe: per quanto tale limite sia stato individuato in 155 caratteri in media (160 al massimo, vedi l’articolo su Studio Samo), non ha molto senso cercare un limite numerico: tanto vale valutare, caso per caso, nella pratica. Di norma, una buona meta description è composta da una o due frasi descrittive e sintetiche, con eventuale call to action (se si tratta di una pagina che vuole generare conversioni, ad esempio).
  11. Come ottimizzare i tag <h1>, <h2>, …. Stando alla definizione del W3C, i tag <h1>,<h2>,… dovrebbero contenere le intestazioni della pagina o, a seconda dei casi, di un widget, di un paragrafo o di una sezione specifica della pagina. Gli headings HTML sono da tempo soggetti ad un equivoco grossolano, forse legato alla definizione che ne da’ il W3C: “These elements have a rank given by the number in their name. The h1 element is said to have the highest rank, the h6 element has the lowest rank, and two elements with the same name have equal rank.” Si potrebbe pensare che si faccia riferimento al rank sui motori di ricerca, per cui gli heading diventerebbero un elemento da ottimizzare con maggiore preminenza – in particolare gli <h1>, come sostengono in molti – rispetto ad altro, ma non è così: rank fa riferimento alla gerarchia di contenuti della pagina HTML, che è organizzata in gruppi di tag innestati a vari livelli, per cui non c’entra nulla di per sè con la SEO. A tal proposito non esistono linee guida specifiche: l’idea di base è che si cerchi di favorire la distribuzione di contenuti all’interno della pagina (ottimizzazione on page), per cui ha più senso differenziare gli headings dal tag title. Tuttavia si tratta di un requisito meno stringente di quello che sempre, e non è certo un “reato” non differenziarli (per la cronaca: ci sono plugin SEO e theme che favoriscono o meno questa pratica di differenziazione). Ogni pagina web possiede in genere  un singolo tag <h1>, ed eventuali ulteriori tag di rank successivi <h2>, <h3> ecc. (fonte)
  12. Strutturare bene il tuo sito. Per effettuare indirettamente il deep linking del tuo sito, è essenziale che i contenuti delle pagine siano sempre ben collegati tra loro: a mio avviso questo è un requisito indiretto, e direi quasi ovvio, legato più a considerazioni di usabilità (UX) o di teoria dell’informazione. Il buon SEO dovrebbe dare un occhio a questo aspetto, e fare attenzione a non imporre la propria visione (fatta basilarmente di anchor text, link e PageRank) su queste discipline, per evitare che il sito risultante sia particolarmente scadente. La cosa essenziale su ogni sito, comunque, è che il menù sia visibile su qualsiasi risoluzione e che contenga tutti gli elementi in modo ordinato e gerarchico (massimo 3 livelli di profondità, meglio se si riesce a limitarsi a 2).
  13. Usare Google come strumento di analisi / 2. Se stai cercando di lanciare il tuo sito, puoi puntare su una brandizzazione spinta: in questo frangente, significa cercare di massimizzare i documenti indicizzati su Google che contengano il nome del tuo sito come anchor text. Per avere una misura orientativa dei backlink esterni più importanti su cui hai fatto branding, cerca “tuosito.it” -site:tuosito.it su Google: più risultati usciranno, meglio è. Se non uscisse fuori nulla, non è mai tardi per iniziare a brandizzare.
  14. Non farsi fregare dal keyword stuffing. Come ho già scritto, è ora di cambiare mentalità, una volta per sempre: la SEO non è un insieme di trucchetti da applicare meccanicamente sul proprio sito, senza rendersi neanche conto del motivo per cui si fanno le cose. Il keyword stuffing è la ripetizione spinta di parole chiave all’interno delle pagine per evidenziarne (nelle intenzioni) l’importanza: fa parte di pratiche di cosiddetta black hat SEO (e nota bene, ci sono altre tecniche black hat non necessariamente tanto sciocche).
  15. Scrivere per gli utenti, non per motori. Regoletta niente male, e ribadita fin dall’alba dei tempi, che pero’ non segue praticamente nessuno: la tentazione è sempre quella di giocare sulla corrispondenza esatta tra testo e ricerca dell’utente, come se Google verificasse l’eguaglianza stretta (ed in questo senso, purtroppo, i peggiori SEO sono quelli che possiedono un background da programmatori). Scrivere per gli utenti, in altri termini, implica generare contenuti nelle pagine per cui soprattutto abbia senso che un altro essere umano vada a visitarli.
  16. Descrivere le immagini (ed usarle in modo corretto). Se il vostro sito usa delle immagini, è opportuno sia fare uso dell’attributo alt sul tag <img> inserendovi una descrizione sensata, sia corredare le immagini con eventuali, ulteriori, titolo e didascali. Questo potrebbe portarvi, alla lunga, molte visite da Google Immagini, ad esempio, per quanto questa non sia per forza una cosa desiderabile o utile, anche perchè così facendo le conversioni non sono affatto garantite e addirittura, in certi casi, le stesse visite alla pagina (i visitatori tendono a visualizzare l’immagine e, a quel punto, sono ad un “punto morto”: non hanno collegamenti diretti al nostro sito, per cui abbandonano la pagina).
  17. Fare link building (ma anche link earning). L’atteggiamento di intermediazione tra chi demonizza la link building (a torto, visto che addirittura Google ne parla in positivo) e chi la idolatra perviene quasi sempre ad insopportabili, secondo me, vie di mezzo: della serie fatela, ma non esagerate. In realtà la vera mediazione andrebbe fatta tra la “forzatura” di link – che non ha per forza un’accezione negativa, per quanto rimanga rischiosa: ad esempio non abbiate paura di segnalarvi ai siti grossi, se è il caso – e l'”acquisizione” di link. Il più delle volte un backlink profile di buona qualità è riuscito a mediare tra queste due cose. Esempio pratico di link building? Direi un buon guest post. Esempio pratico di link earning? Un buon contenuto che viene copiato, replicato o imitato da tutti, ad esempio lasciando nel testo un link a voi “utile”. Ovviamente ho scritto “esempio pratico”: che siano “buoni” esempi resta da verificare. Cercate sempre, in questa sede e per quanto possibile, di diversificare tipo, quantità ed anchor text dei link in ingresso.
  18. Usare la Search Console di Google. Ogni SEO che si rispetti dovrebbe consultare periodicamente la SC di Google: contiene informazioni difficili da reperire pubblicamente, ed è un’ottima guida per individuare le ricerche più frequenti, le eventuali penalizzazioni ed i contenuti che funzionano meglio sui motori di ricerca. Quindi fatene uso: poche scuse. Al limite da integrare con Google Analytics (che è uno strumento altrettanto utile anche se molto più complesso).
  19. Creare la sitemap XML del vostro sito. Ogni sito che si rispetti su cui si fa SEO dovrebbe disporre di una sitemap, cioè una mappa (che poi è un file XML generato dal sito stesso) contenente la gerarchia dei contenuti (pagine, immagini, post). Non generarla non è sempre davvero necessario, ma certamente aiuta a fare attività di ottimizzazione (sottoporla alla Search Console, per intenderci) e può essere di grande supporto per le vostre attività presenti e future. Se volete, anche il file robots.txt può essere utile come premesse per le vostre attività SEO.
  20. Sfruttare il tuo sito in ogni “dimensione” (aka ottimizzare il CTR). Un titolo più leggibile per questa sezione sarebbe stato “ottimizza gli URL del tuo sito“, ma tanto vale vederla subito in modo più completo: abbiamo gli URL, abbiamo il nome del dominio, poi il title e la meta description. Quattro “dimensioni” che potrete ottimizzare in modo indipendente l’una dall’altra, evitando se possibile ripetizioni e sovrapposizioni: cercate da queste quattro indicazioni darai un’immagine quanto più possibile completa della tua pagina, ed il CTR (tasso di click rispetto al numero di visualizzazioni) dei tuoi risultati tenderà, nel tempo, ad aumentare.
  21. Rispondete ad esigenze concrete (e misurabili). Lo scopo dell’IR (Information Retrieval, la disciplina che studia le tecniche per reperire rapidamente le giuste informazioni, non solo dal web ma da qualsiasi catalogo) è quello di soddisfare il bisogno informativo dell’utente: usate dunque questo criterio nell’ottimizzare le vostre pagine. Solo andando incontro alle sue reali necessità, e dandogli ciò che si aspetta di ricevere, le vostre pagine si potranno posizionare al meglio. Si noti che che non sempre “ciò che si aspetta” corrisponde con “la cosa migliore in assoluto“.
  22. Non legatevi a tecniche specifiche. Qui parliamo di “trucchi SEO” ma probabilmente lo facciamo in modo improprio, soprattutto perchè molte persone li cercano in questi termini (non perchè sia corretto chiamarli così, per capirci!). Molto spesso tuttavia troverete, visto che probabilmente state cercando informazioni su come fare SEO, suggerimenti come inserire la chiave da ottimizzare all’inizio, inserirla più volte e così via: queste tecniche sono quasi sempre errate dal punto di vista tecnico ma, di fatto, non sono nè giuste nè sbagliate lato SEO: l’unica è provare più strade, testare i risultati, migliorarli o testare altre vie. Molto sta a voi ed alla vostra esperienza, in questo.
  23. Il “trucco” per arrivare primi su Google consiste nell’offrire servizi, contenuti e prodotti di reale qualità: di fatto, come ho sottolineato io stesso in vari talk, in molti casi la competizione non ha senso perchè i primi sono davvero “al top” e sarà molto difficile scalzarli dalle prime posizioni. Le attività SEO più intensive sui settori più competitivi possono richiedere, piaccia o meno, anche diversi anni di lavoro. Meglio mettersi l’anima in pace su questo 🙂
  24. I social media vanno utilizzati, ma non sono SEO “in senso stretto”. Per quanto non siano uno strumento prettamente SEO (e su questo non credo sia il caso neanche di discutere), addirittura Matt Cutts invitava a farne uso: i social come Facebook sono uno strumento per far conoscere il proprio sito in modo indiretto, il che può portare ad acquisire nel tempo link dai contatti più improbabili (link earning indiretta, tradotto). Ci sono studi sull’influenza social rispetto alla posizione sui motori, poi, che secondo me vanno semplicemente trascurati perchè poco rilevanti: correlazione non implica causalità.

Siamo arrivati alla fine: adesso vi suggerisco di leggere le FAQ di questo sito per completare il vostro “viaggio” nel mondo SEO!

PS: se ne leggono tante, anche troppo, sul mondo SEO e su ricerche legate a “suggerimenti”, “trucchi” e fantasie varie. In molti casi i “trucchi” – che in realtà non ci sono – che trovate in giro non sono altro che buone pratiche, senza dubbio, ma spesso legate ad altri ambiti (UX, buona progettazione dei siti, ecc.) o del tutto scollegate dal discorso ottimizzazione in generale. A voi giudicare, ovviamente, la bontà del mio approccio testandolo sul campo.

Del resto se davvero ci fosse un trucco effettivamente funzionante per arrivare primi su Google, mi sapreste dire perchè uno dovrebbe pubblicarlo su un sito gratuitamente?

Come posizionarsi bene su Google: uno studio che la dice lunga

In questo articolo cercherò quindi di essere aderente alle considerazioni ed alle difficoltà che si riscontrano nelle attività SEO, in particolare quelle di cui mi sto occupando da qualche tempo (su blog e siti editoriali, in cui l’interesse primario è quello di portare visitatori interessati agli annunci e che possibilmente non usino AdBlocker, nè siano incentivati a farne uso). L’articolo sarà semplice nella sostanza, pero’ è necessario che ne seguiate i singoli passaggi – a volte ostici, a volte meno – anche a costi di perderci un po’ di tempo extra; vi assicuro che non si tratterà in nessun caso di tempo perso, quantomeno se vi occupa professionalmente di SEO.

Pronti? Si comincia.

Le uniche assunzioni che farò, ragionevoli quanto arbitrarie (ci tengo a sottolineare che non sto proponendo la “formula magica” per fare nulla), saranno le seguenti:

  1. Qualsiasi attività SEO sensata e utile deve affrontare il fatto che sia utile e sensata per l’attività e gli scopi / obiettivi del sito; fare cose senza senso (tipo commentare un blog sulla pesca subacquea e farsi linkare un blog sul trekking, oppure mettere HTTPS sulla pagina “Chi siamo“) solo perchè “lo dice X“, con X che varia da Google fino al guru di turno, neanche a dirlo, non ha senso. Non-ha-senso, ripeto: vorrei che fosse chiaro da subito perchè, altrimenti, non ci capiamo alla fine.
  2. Non ha senso, inoltre, tarare le strategie SEO sulla base di questo o quell’altro algoritmo annunciato da Google sul momento (Panda, Penguin ed altre belve feroci); questo, sia perchè non è modo di lavorare corretto nè pratico, sia per le ragioni che ho descritto estesamente qui. Certo, gli aggiornamenti bisogna conoscerli e studiarli, nella misura in cui ci danno preziose indicazioni su cosa non fare o da chi non farsi prendere la mano. Tuttavia, la cosa migliore per fare SEO come si deve resta quella – ed io ne sono fermamente convinto, da quando ci lavoro – di studiare a fondo le linee guida per webmaster, proprio come se fossero il manuale di un software. Il resto, e scuserete la mia brutalità, sono semplicemente chiacchiere da appassionati di oroscopo.
  3. I backlink sono un fattore di posizionamento determinante per Google, specialmente (e questa è un’ipotesi, secondo me, ragionevolissima) se si riesce a superare un numero minimo (che cercheremo di quantificare) di domini unici che ci linkano: quest’ultimo, per me, è un fattore di posizionamento mediamente serio, e comunque più rilevante dell’avere o prendere backlink “grezzi” senza sapere da dove arrivino; insomma, cerchiamo di usare la testa quando lavoriamo su queste cose, sempre.
  4. Gli indici di page e/o domain authority come MOZ sono, e resteranno sempre, di poco conto: questo perchè sono estranei ai motori che usiamo come Google o Bing, pertanto diventano quasi irrilevanti, tanto più se non sappiamo nemmeno come vengono calcolati (e se, ad esempio, alcuni indici possano essere manipolati ad arte, per ragioni faziose e/o commerciali); e pur sapendo come vengono calcolati, del resto, ci possono dare indicazioni perlopiù orientative su altre strategie da attuare (copywriting ecc.)
  5. La misura di pertinenza di una pagina rispetto ad una query può essere più facilmente suggerita dall’esperienza, in molti casi, che dal calcolo di un qualsiasi software. Punto non banale che mi preme sottolineare: se pensate che la pertinenza misuri  come (e quanto) una pagina ottimizzata risponda bene, cioè soddisfi l’utente che cerca (ricerca vista, in questa sede, come “richiesta”, ad esempio “voli low cost”), siete sulla buona strada per capire un po’ meglio la SEO; se invece vi siete fissati che sia tutta una questione di keyword density, lasciate perdere la SEO (consiglio brutale, mi rendo conto, ma spassionato).
  6. Leggiamo spesso che i contenuti lunghi si posizionano meglio di quelli brevi, ricordiamo sempre che 1) non tutto sul web è testo, e che 2) questo discorso può valere per settori informativi come quello dei tutorial (ad esempio), ma che in generale non è un criterio sempre valido e, anzi, sembrerebbe soggetto a continue scremature “al ribasso” (questo perchè la tentazione di infognare di spam le prime pagine dei risultati di ricerca è sempre altissima, in ognuno di noi).
  7. HTTPS per me non sarà mai un fattore di ranking, anche se lo dice Google in quel comunicato vagamente scriteriato, e quantomeno nella misura in cui abbia senso avercelo su un sito web; ha senso nelle pagine di acquisto degli e-commerce o nella fase di login / logout, certo, ma nelle pagine di un blog in sola lettura perchè mai farlo (vedi di nuovo punto 1, a riguardo)?
  8. Qualsiasi articolo che illustri “fattori di ranking SEO” è basato nel 99% dei casi su correlazioni statistiche, e va sempre e comunque presa con le pinze; come a dire, posso trovare 1000 persone che siano solite mangiare 2 volte al giorno, e ci sarà una forte correlazione tra le loro abitudini alimentari. Molte persone potrebbero percepire questa relazione come un qualcosa di intimo che lega questi estranei, ma se consideriamo le singolarità (ogni persona ha il proprio metabolismo, ecc.) ci rendiamo conto immediatamente che è un fattore semplicemente ingannevole. Correlation does not imply causation!
  9. La velocità di un sito non è un fattore di ranking, per il semplice fatto che non è chiaro chi la misuri (con “chi” che varia da Google al guru di turno); semmai, è un requisito di buona qualità di un sito.

Chiariti questi punti, vorrei riportarvi e commentare uno studio presentato dal sito Backlinko, We Analyzed 1 Million Google Search Results. Here’s What We Learned About SEO, un articolo molto discusso e linkato di settembre 2016 che, secondo me, contrariamente dal tono inutilmente sfarzoso di questi articoli offre un paio di spunti davvero interessanti.

Per me è doveroso citarli e, notate bene, di solito non lo faccio mai: so bene che questi “studi” sono tanto accattivanti quanto approssimativi (specie per chi abbia studiato un minimo di statistica, è facile smontarli e rilevarne le contraddizioni, senza contare che pubblicare questi studi è una tecnica di link earning / building a tutti gli effetti: produrre contenuti utili e stimolanti per i SEO perchè poi, guarda caso, i blog SEO ne parlino e ci piazzino un link, come ho appena fatto io. Sarebbe carino che qualcuno, prima o poi, discuta e metta in evidenza questa abusatissima tecnica in qualche evento di web marketing, piuttosto che insistere sui soliti concetti triti e ritriti, per inciso).

Cosa hanno fatto i signori di Backlinkoo? In due parole: sfruttando i dati messi a disposizione da SEMRush, Ahrefs, MarketMuse e SimilarWeb (4 giganti della raccolta dati sul web, soprattutto i primi due), hanno effettuato presumibilmente lo scraping, cioè l’acquisizione ed analisi mirata, di ben un milione di risultati di ricerca di Google. L’idea era quella di capire quali, tra i fattori noti e stabiliti in precedenza, fosse più influente per posizionarsi in prima pagina. Da questi studi è possibile di solito tirare fuori dei cluster, cioè dei raggruppamenti distinti di link, che possano dare indicazioni che poi questi articoli traducono per motivi pratici in termini puramente discorsivi, del tipo: se volete posizionarvi bene su Google, sfruttate bene – cito a caso – i title delle pagine, i backlink da siti autorevoli, e così via.

In breve, quello che emerge dallo studio – lacunoso, ricordo, nella misura in cui si tratta solo di correlazioni, non di regole: badate a non considerarle oro colato – sono soprattutto due cose:

  1. le anchor text risultano essere ancora, nonostante penalizzazioni ed usi francamente ridicoli che ne sono stati fatti, estremamente importanti;
  2. i siti ben posizionati rientrano quasi tutti in un raggruppamento di siti con almeno 300 domini diversi che li linkano.

Il resto – in tutta franchezza – mi sembra un mix di frasi ad effetto, mezze verità ed assunzioni arbitrarie che, per quanto in buonafede possano sembrare, servono soltanto a fuorviare. Non le riprenderò più anche perchè, per non appensantire la trattazione, ho premesso a tutto il discorso i punti secondo me fallaci del loro approccio, limitandomi a filtrare gli unici due che secondo me valgono a tutti gli effetti in qualsiasi strategia SEO.

Se ci tenete andateveli pure a rileggere, ma qui nel frattempo entro nel clou del discorso.

Abbiamo detto che dall’analisi in questione emergono due fattori di posizionamento basilari: il primo è legato ai testi ancora, cioè al testo presente sui link che puntano al nostro sito. Il secondo, invece, è legato al numero di siti unici che ci linkano; quest’ultimo è un dato che chiunque usi la Search Console di Google dovrebbe vedere e poter consultare molto facilmente (Traffico di ricerca -> Link che rimandano al tuo sito).

Si tratta del numero prima di “domini principali che presentano link a pagine sul tuo sito“, in pratica.

Eccovi invece, qui sotto, il grafico di backlinko.com che descrive esattamente questa situazione: i siti in prima posizione avevano tutti, secondo loro, almeno 300 backlink da domini distinti in ingresso, e se questo numero diminuisce peggiora progressivamente il posizionamento (a 150 siamo già in seconda posizione). Possiamo assumere che NUMBER OF REFERRING DOMAINS e domini principali che presentano link a pagine sul tuo sito coincidano, in questa sede, concettualmente.

Ripeto, è solo una correlazione e non dimostra nulla di realmente scientifico, ma pensiamola in modo costruttivo / creativo: quando fate link builing sembrerebbero comunque meglio 10 backlink da 10 domini distinti che 100 da uno singolo. Questo perchè tale varietà in ingresso è un ingrediente che da’ molti benefici, e l’ho constatato soprattutto nel medio-lungo periodo su vari siti che ho curato lato SEO. Se ci fate caso, tra l’altro, 300 è una soglia critica per moltissimi miei siti web; quelli che vanno sui 400/500 domini unici che li linkano, di norma, non sono tantissimi o hanno, in media, uno storico estremanete robusto, una buona organizzazione e raramente – credo – hanno sofferto di veri problemi di posizionamento.

Nel caso che ho riportato in screenshot, si tratta di un sito su cui ho effettuato un’attività di base “leggera”, per cui si posiziona bene solo su ricerche “facili” e senza concorrenti particolarmente agguerriti. Potrei riportarne almeno altri tre in cui quel numero da 27 diventa rispettivamente 120, 190 e 318, e per cui le soddisfazioni in termini SEO sono ad essi proporzionali, in qualche modo.

Sul secondo punto, è almeno da tempi di Google Penguin che sentiamo demonizzare la link building con anchor text mirate: io stesso, ormai, tendo ad acquisire in maniera pseudo-casuale le ancore, ovviamente tenendo sempre in mente la “zona” concettuale del sito, e mai mettendo sempre in evidenza la stessa parola / frase. Il punto è che, come scrive Backlinko stesso, questa pratica è rischiosa ma (e qui entro nella considerazione personale) per una ragione diversa da quella che si sente in giro: è rischiosa perchè viene fatta in modo quasi sempre – uso un eufemismo – privo di stile (se credete che lo stile non c’entri nulla con la SEO, evidentemente pensate pure che il web sia fatto di bot che cliccano a casaccio su qualsiasi cosa, e non di persone sempre più smaliziate, informate ed “agguerrite”). In certi casi la Link Building si continua a fare via software tarati male, usati peggio e concepiti in maniera astrusa o “meccanica”, per cui – messa così – è ovvio che diventi una pratica sconsigliata: è comunque davvero difficile farla bene senza “farsene accorgere“, ed io stesso sto studiando da anni delle strategie che mi consentano di farlo in questo modo. Dateci dentro sotto questo punto di vista, perchè i risultati buoni – prima o poi – arriveranno anche da qui.

Proviamo quindi a tirare le somme (i pigri potrebbero anche leggere direttamente qui, ma saltando i vari passaggi, si perderanno un po’ di dettagli importanti):

  1. ottimizzare una pagina web rispetto ad una ricerca significa, anzitutto, saper scegliere la pagina (o le pagine!) che sia la migliore “candidata”; trovatele, e cercate di capire bene il perchè convenga, o meno, ottimizzarla;
  2. il discorso della pertinenza è essenziale (ed ancora ignorato o peggio snobbato da molti) nella SEO, perchè (specie negli ultimi anni) a funzionare meglio sono le pagine che effettivamente rispondono “meglio” (più velocemente, più estesamente ecc.) alla “domanda” fatta a Google;
  3. se assumiamo che le anchor text siano importanti per la SEO, resta comunque essenziale saper linkare il sito dall’esterno: nel dubbio, suggerisco sempre di usare anchor text brandizzate sul nome del sito per limitare i rischi;
  4. infine provate ad aumentare, da oggi al prossimo mese ad esempio, il numero di domini unici che linkano il vostro sito; è un fattore facile da misurare, abbastanza intuitivo e spesso vitale (anche se non sempre: di solito lo è se sussistono idonee pre-condizioni di qualità, cioè se il sito è fatto davvero bene sotto ogni punto di vista). Nella mia esperienza, conosco un buon sito (che ho curato per un anno circa) linkatissimo e molto seguito – non dico quale, soprattutto perchè non avrei modo di chiedere il permesso di pubblicare quei dati – con oltre 500 domini unici linkanti ed un posizionamento invidiabile per molte query di ricerca anche molto competitive. Sarà stato un caso, certo, ma di sicuro era un indice di cose fatte come si deve, e non dovrebbe meravigliare il fatto che oltre la metà di quei link siano stati spontanei (lo so per certo, perchè ci ho lavorato per un bel po’). Certo non giurerei sul fatto che se ci arrivate anche voi ne godiate lo stesso, ma certamente fare link building con più di 500 domini unici distinti che ti linkano resta un obiettivo difficile, ma comunque sano e “salutare”. Provateci: è un bel modo, secondo me, per impattare le difficoltà della SEO.

Ecco perchè ho linkato quell’articolo: non tanto per il suo valore effettivo – che tendo comunque a smorzare al 50% dei toni; il mio ruolo scettico / rompiscatole me lo impone! – quanto perchè pone due spunti importanti e riscontrabili nella mia attività. Ecco perchè, alla fine, ho deciso di parlarne nel blog; e spero davvero che sia stato utile anche a te.

10 strategie SEO per trovare backlink con Google

Trovare backlink è uno dei principali obiettivi che, presto o tardi, si affaccia in qualsiasi attività di questo genere: come fare a trovarli? Di norma per tracciare e “trovare ispirazione” per i backlink si possono usare strumenti appositi di ricerca: Google, ad oggi, non consente di vedere questo livello di dettaglio in maniera universale, ed i dati delle Search Console sono riservati, giustamente, ad ogni proprietario del sito. Per poterne sapere qualcosa in più, specialmente sui nostri competitor, bisogna quindi cercare di inventarsi qualcosa!

L’unica alternativa, in effetti, per trovare backlink di altri siti (di cui non disponiamo del controllo via Search Console) è quella di aguzzare un po’ l’ingegno e sfruttare i seguenti search pattern, che possono essere molto utili per andare a caccia di link in ingresso spesso inaspettati e non raramente di qualità. Uno strumento molto utile per trovare potenziali backlink, senza tool esterni e sfruttando la “magia” degli operatori di ricerca.

In generale, quando riportiamo la stringa [tuachiave] faccio riferimento ad una delle chiavi di ricerca per cui vi interessa posizionarvi col vostro sito, o – per estensione – una qualsiasi ricerca interessante che sia emersa dal vostro SEO audit. Tenete conto, ad ogni modo, che nessuna di queste ricerche restituirà backlink in ingresso in automatico: i risultati vanno sempre scremati, filtrati ed analizzati in maniera critica, per cui molto del successo di questa tecnica dipende dalla sensibilità e dell’esperienza del SEO che le mette in pratica.

Passiamo subito a fare un po’ di esempi concreti, con 15 strategie di ricerca sfruttabili per trovare nuovi backlink utili.

  1. site:seo.salvatorecapolupo.it [tuachiave] – Cerca [tuachiave] esclusivamente all’interno del sito seo.salvatorecapolupo.it
  2. aggiungi sito [tuachiave] – Permette di cercare direttamente directory web su cui listare o segnalare direttamente il nostro sito (vedi anche un elenco di web directory italiane qui); disponibile in numerose varianti come ad esempio aggiungi sito [tuachiave], aggiungi url [tuachiave], guest post [tuachiave] (per trovare articoli che propongano la possibilità di scrivere noi stessi l’articolo) e così via.
  3. segnala * articolo [tuachiave] – Trova siti web relativi a [tuachiave] che possano offrire la possibilità di segnalare URL di articoli a tema.
  4. “powered by WordPress” [tuachiave] – Permette di cercare siti in WordPress che trattano l’argomento [tuachiave]; di fatto, si tratta di una tecnica per listare velocemente siti web (e blog, nello specifico) da cui farsi linkare via richiesta diretta, commenti, segnalazione di pagine 404 e così via. In questo caso è consigliabile selezionare la lingua italiana tra i risultati, per trovare riferimenti più pertinenti.
  5. [tuachiave] -site:sitofamoso1.est -site:sitofamoso2.est … – Questa è una strategia di base da usare in modo personalizzato, perchè permette di escludere i brand molto grossi dai risultati di ricerca (ad esempio sitofamoso1.est e sitofamoso2.est, ma la lista può essere anche molto lunga) in modo da visualizzare meglio eventuali opportunità di backlink filtrate, di fatto, da eventuali sovraottimizzazioni che spesso chi arriva primo sui motori tende ad effettuare. Ideale da escludere se il competitor appare più volte negli stessi risultati, ad esempio.
  6. ~[tuachiave] – Permette di cercare risultati di ricerca correlati alla ricerca [tuachiave].
  7. site:*.it [tuachiave] – Cerca solo siti con estensione .it, è combinabile con i pattern precedenti, ad esempio site:*.it “powered by WordPress” [tuachiave] .
  8. sito.com -site:sito.com – ad oggi è uno dei miei pattern di ricerca preferiti, in quanto serve a tracciare risultati di ricerca che includano il nome del sito e che non siano inclusi nel sito stesso. In altri termini, in questo modo andrete a tracciare un discreto sottoinsieme di backlink esterni in ingresso a sito.com. Disponibile anche con le varianti “sito.com” -site:sito.com e naturalmente anche come sito.com [tuachiave] -site:sito.com.
  9. site:wikipedia.org [tuachiave] “non cita le fonti necessarie o quelle presenti sono insufficienti” questo tipo di ricerca è particolarmente efficace per reperire rapidamente pagine Wikipedia senza fonti, per le quali potrete aggiungere il vostro sito (sfruttando la sintassi di Wikipedia e la relativa netiquette), ammesso ovviamente che sia lecito farlo e che ci siano le condizioni. Caso tipico: un sito incentrato su una nicchia X che viene linkato da Wikipedia come spiegazione approfondita del settore.
  10. intitle:blog [tuachiave] – è un ennesimo pattern di ricerca per trovare blog, che fa il pari con intitle:forum [tuachiave] che permettono, invece, di cercare solo forum a tema. Anche qui potete trovare molte opportunità di backlink spesso inaspettate.

Vuoi leggere ancora, ti appassiona o ti interessa questo argomento? Guarda il mio ebook (in esclusiva su Amazon) SEO Pratico.

Guida ai tag di SEO Yoast: %%title%%, %%sitename%%, …Guide operative

Che SEO Yoast sia uno dei plugin più usati di WordPress credo di poterlo affermare senza rischi; del resto, le alternative di plugin SEO non sono poche, per cui ognuno potrà valutare con quale si trova meglio in relazione alle proprie necessità. SEO Yoast non è l’unico ed il solo plugin SEO per WordPress, ovviamente, ma è di sicuro uno dei più popolari e dalla migliore fama.

La cosa che deve essere chiara è che Yoast, come qualsiasi altro plugin equivalente, è solo uno strumento nelle nostre mani: non può garantire nulla, da solo, sul piano delle prestazioni, e non è diverso – tecnicamente parlando – da un banale cacciavite. Senza cacciavite è difficile lavorare, ma tutto sta nella sensibilità e nel grado di conoscenza di chi lavora sulle viti stesse.

I tag di SEO Yoast – quelli che sono contenuti tra due gruppi di doppi simboli %, per intenderci – sono una delle caratteristiche più sottovalutate dell’intero plugin; e questo è strano, se non altro, visto che si tratta di una caratteristica dal potenziale molto interessante.

Essi vi permettono di agire sull’aspetto dei vostri risultati di ricerca, o almeno di poter testare l’impatto delle modifiche sul titolo e sulla descrizione senza essere costretti a modificare i contenuti (…e scusate se è poco). Il vero problema di questo plugin è, semmai, il fatto che insista su concetti fuorvianti come la keyword density, oltre alla presenza del famigerato semaforo, un tool piuttosto stupido (e pieno di errori, ha notato di recente Giorgio Taverniti) capace di deviare l’attenzione come pochi.

Chiarito questo, direi di passare ad un’analisi dei vari tag riportando un po’ di possibili usi. Tenete conto che non si tratta di regole da copia-incollare come capita, e che bisogna sempre tenere conto del contesto in cui lavoriamo, degli obiettivi da raggiungere e – non ultimo – di come il theme utilizza ogni singolo tag.

A cosa servono i tag di Yoast come %%title%% e via dicendo? In breve, essi sono utili a fornire a WordPress un template, ovvero un modello di meta-dati (quindi title, meta-description, ecc.) su cui il blog potrà basarsi globalmente. Ad esempio, un titolo come:

%%title%% %%sep%% %%sitename%%

servirà a garantire titoli di post del genere:

  • Questo è il titolo di un articolo – miosito123.it
  • Questo è il titolo di un altro articolo – miosito123.it

Passiamo ai singoli casi più importanti.

  • Articoli – Titolo del template. Nel pannello “Titoli & Metadati” questa sezione si trova nella sottosezione “Tipi Articolo”: esso rappresenta il titolo dei singoli post del vostro sito. A differenza di altri plugin (SEO Ultimate, ad esempio), Yoast non permette di effettuare modifiche sui titoli singoli, ma di impostare gli stessi a livello globale fornendone una struttura di massima (un template, si diceva poco fa). La cosa migliore, in questi casi, è quella di inserire certamente il tag %%title%%, con l’accortezza di includere l’eventuale numero di pagina %%page%% seguito dal nome del sito, cioè %%sitename%%. Tutto questo si traduce in un template come %%title%% pag. %%page%% %%sep%% %%sitename%% (i numeri di pagina non compaiono se non necessari). Impostando questi campi, avremo la possibilità di controllare i titoli di tutti gli articoli del nostro sito. Altri tag utili che si possono inserire, se volete: %%primary_category%% (che inserisce il nome della categoria principale del post), %%category_description%% (che inserisce la descrizione della categoria principale del post), %%pt_single%% (tag che serve ad inserire il nome del tipo di post, al singolare), %%id%% (che inserire l’ID univoco della pagina), %%currentdate%% (la data del post).
  • Articoli – Campo descrizione. Questo campo viene trascurato di default da Yoast, e francamente faccio fatica a capirne il motivo; piuttosto che lasciare la meta description della pagina vuota, quindi, potete inserire il tag %%excerpt%% – %%sitedesc%% che aggiungerà in automatico un excerpt della pagina (se esiste), cioè un estratto generato in automatico,seguito dalla descrizione generale del sito (quella che avete inserito in Impostazioni – Generali). Attenzione che già qui esiste una criticità, in quanto non tutti i theme forniscono un supporto uniforme agli excerpt dei post e, soprattutto, non sempre ha senso questo tipo di configurazione (ad esempio se i vostri articoli contengono solo video o gallerie di immagini). Altri tag utili che si possono inserire, se necessario: %%primary_category%% (che inserisce il nome della categoria principale del post), %%category_description%% (che inserisce la descrizione della categoria principale del post), %%pt_single%% (tag che serve ad inserire il nome del tipo di post, al singolare), %%id%% (che inserire l’ID univoco della pagina), %%currentdate%% (la data del post).
  • Pagine – Campo title. Anche qui, come avvenuto per gli articoli, potete valutare di inserire %%title%% pag. %%page%% %%sep%% %%sitename%%, che è sostanzialmente la stessa struttura degli articoli.
  • Pagine – Campo descrizione. Analogamente alla pagina, potete valutare di inserire %%excerpt%% – %%sitedesc%% (o anche solo %%excerpt%%). %%excerpt_only%% permette, per la cronaca, di caricare esclusivamente l’excerpt della pagina (se l’avete inserito e se il theme lo supporta) senza auto-calcolarlo dal contenuto della stessa. Mi sembra il caso di notare, a questo punto, che un ottimo criterio per stabilire la presenza / assenza di un tag è legato al livello di ridondanza della pagina; è inutile ripetere più di una volta le medesime informazioni, e (prendete questa notizia come una semplice statistica) ho sempre avuto la sensazione che a funzionare meglio siano, in generale, le combinazioni title/meta description più equilibrate, informative per l’utente e prive di inutili e/o ridicole ripetizioni.
  • Categorie – Titolo. Nel pannellino “Tassonomie” trovate questa importante sezione che è utile, di norma, per ottimizzare gruppi di contenuti che rientrino sotto la stessa sezione. Il titolo della categoria dovrebbe contenere il tag %%term_title%% che rappresenta il nome della stessa, pervenendo così ad un template di titolo come %%term_title%% %%page%% %%sep%% %%sitename%%.
  • Categorie – Descrizione. Anche qui il campo viene lasciato un po’ inspiegabilmente vuoto; sono solito popolarlo col tag %%category_description%%, perchè è in grado di inserire la descrizione di ogni singola categoria. Descrizione che, ovviamente, dovrete andare a popolare per ognuna da Articoli -> Categorie.

Salvo casi particolari, la maggioranza dei blog si può ottimizzare in modo piuttosto pacifico con le sole indicazioni che vi ho fornito. Ovviamente qualche sforzo extra è richiesto se trattate tipi di post personalizzati (events, ad esempio), se ottimizzate immagini (il che non è mai banale) e se avete ad esempio un sito focalizzato su un determinato aspetto chiave, per cui ricordo che nei campi di Yoast potete inserire anche stringhe prefissate.

Questo non significa che dobbiate farlo, sia chiaro, o che sia una bella idea riempire le vostre meta-descrizioni di parole ripetute (di fatto è keyword stuffing). Altri tag poco noti e potenzialmente utili potrebbero essere:

  1. %%sep%% che, se non fosse chiaro, è il separatore che avete personalizzato nella home del plugin (per intenderci: – , | , … );
  2. %%tag_description%% che fornisce la descrizione di un tag (pagine singole dei tag, ma anche qui dovrete popolarle una ad una o non vedrete nulla);
  3. %%name%% rappresenta il nickname dell’autore del post in questione, il che vi permette di popolare title o description con il nome degli articolisti;
  4. %%page_total%% fornisce il totale del numero di pagine del post, ammesso che il post sia paginato ovviamente;
  5. %%term_description%% che fornisce la descrizione di un term (pagine singole dei term, in pratica sono spesso i tag o le categorie dei tipi di post personalizzati).

Riferimenti: guida Yoast

Come usare il Google Disavow Tool sul serio

In questo articolo proverò a descrivere nel dettaglio il funzionamento del link per il disavow dei link, cioè il tool ufficiale di Google che permette di effettuare il rifiuto dei backlink “sospetti”. Si presuppone, prima di procedere in direzione disavow, che almeno la maggioranza dei backlink sospetti sia stata rimossa manualmente, ovvero:

  1. cercando di far rimuovere manualmente il link (se proviene da un forum, ad esempio, si può segnalare la situazione agli amministratori, oppure se proviene da un commento di un blog si dovrebbe chiedere al blogger);
  2. provando a contattare il webmaster via email o telefono che ci linka male, e chiedendogli di rimuoverlo (in certi casi preannunciare bonariamente di usare il disavow contro il sito “cattivo” può essere una buona idea)
  3. eventualmente, in fase finale o in mancanza di altre alternative, segnalando il link sospetto con il tool antispam di Google (cosa che suggerisco di fare comunque).

Per muoversi in direzione rifiuto dei backlink, è necessario anzitutto registrare nella Search Console di Google il sito per cui intendiamo effettuare l’opera di pulizia: tale pulizia può essere, contrariamente a quello che si pensa, determinata sia da una penalizzazione esplicitamente notificata, sia da una semplice azione preventiva su iniziativa del SEO, ad esempio al fine di sconfessare link di spam o come risultato di una negative SEO.

In linea di massima, azioni SEO sconsiderate, miopi, incompetenti o poco prudenti potrebbero portare alla necessità di usare il tool in questione. Se usiamo il disavow in modo scorretto, comunque, rischiamo di compromettere i posizionamenti positivi che abbiamo ottenuto col nostro sito, per cui non conviene usarlo con troppa disinvoltura e se non abbiamo molta esperienza in ambito SEO. Google stessa invita ad usare questo strumento con cautela, anche perchè in certi casi non è realmente necessario farne uso. Se avete un certo numero di siti che non volete che vi linkino, o che sono ad esempio fuori tema, visibilmente spam o palesemente inutili, il tool disavow fa esattamente al caso vostro, ed è uno strumento mirato e (parere personale) enormemente utile.

Chiarite le circostanze per cui si usa il tool per il disavow, passiamo ad un esempio concreto di uso del disavow.

Fase 1: apriamo un file di testo ed inseriamo, per righe, tutti gli URL dei siti che desideriamo sconfessare o “bannare” dal nostro profilo di link in entrata. Possiamo inserire in questa fase sia URL assoluti (www.sitomoltocattivo.it, ed in questo caso bisogna premettere la stringa domain:) che URL specifici (www.sitomoltocattivo.it/pagina.html, ed in questo caso basta riportare l’URL con http:// o https:// davanti). Se dobbiamo inserire commenti utili per lo staff di Google (cosa che normalmente faccio in questi casi), premettiamo alla riga un simbolo #.

Un esempio di file disavow è il seguente:

# non riesco ad eliminare questi link
# questo è un commento per lo staff di Google (lo leggeranno davvero?)
http://spam.prova.com/stuff/abc.html
http://spam.prova.com/stuff/cde-fgh.html
# questo dominio mi copia tutti i contenuti (scraper)
domain:sitocopione123.it

Più link sospetti riusciamo a trovare meglio sarà, in questa fase, ma assicuratevi di avere un criterio uniforme per giudicare bene o male un backlink; in casi drammaticamente spammati, inoltre, potreste pensare di esportare tutti i backlink dalla Search Console in un file Excel, e poi andare a prendere i singoli URL da lì, e giudicarli bene o male uno alla volta. Tutti i “cattivi” finiranno nel file disavow, editato come descritto poco fa. È un lavoraccio, come potrete facilmente intuire, ma in molti casi vale la pena farlo (e i ranking persi si riescono a recuperare, in molti casi reali da me trattati).

Il file creato dovrete salvarlo come file di testo, ad esempio disavow.txt, dove in generale troveremo un commento o un singolo indirizzo o dominio per riga.

Fase 2: Abbiamo un disavow già pronto? Perfetto, possiamo andare su https://www.google.com/webmasters/tools/disavow-links-main e scegliere, a questo punto, il sito da ripulire (deve essere registrato nella Search Console).

Scegliamolo, e facciamo click su Rifiuta Link.

Schermata 2016-07-30 alle 10.15.03Fase 3: cliccate su “Rinnega link”, poi su “Seleziona file”, scegliete il file di testo disavow.txt appena creato, caricatelo. Cliccate su “Invia” per confermare.

La procedura di segnalazione finisce qui: se avete ricevuto una penalizzazione manuale da Google, vi sarà notificato l’esito dell’operazione dopo circa 15-20 giorni (in media). Se invece avete effettuato (sperabilmente in modo oculato) il vostro disavow per pulizia preventiva, non vi sarà notificato nulla in particolare ma il lavoro sarà comunque stato fatto.

È anche possibile annullare l’invio di un file disavow, in genere, se ad esempio vi rendete conto di aver peggiorato qualche ranking su Google positivo. Per cui usare questo strumento con terrore nell’anima come molti suggeriscono di fare, secondo me, ha poco senso: l’essenziale è usarlo coerentemente alle proprie politiche SEO, che devono certamente essere ben definite.

Se vi interessa approfondire l’argomento disavow di Google, ho spiegato in un articolo su SEJ una procedura di disavow completa e dettagliata (in inglese, copia qui e qui) che ho effettuato qualche anno fa.

(fonte)

Lista di siti per pubblicare comunicati stampa, article marketing, guest blog

Sarà anche una pratica fin troppo abusata, non sempre efficace e, anzi, molto spesso deprecata, ma le richieste di pubblicazione di articoli via article marketing e guest blog sono sempre presenti, anche dopo tanti anni in cui abbiamo suggerito di non esagerare. In effetti non sempre è agevole avere un link naturale, per cui forzare la mano e cercare di pubblicare articoli (possibilmente utili) su altri siti che si prestino allo scopo diventa necessario. Sarà sempre difficile capire la reale efficacia di questa tecnica di link building, ma resta il fatto che si tratta della tecnica più diretta ed esplicita: sta a voi saperla rendere efficace, sapendo porre le richieste e sapendo soprattutto gestirne i contenuti.

Per scrivere su alcuni siti è necessario richiedere un accredito (solitamente gratuito), su altri invece si può pubblicare sia direttamente che previa moderazione. In ogni caso, è opportuno inviare le richieste solo ed esclusivamente con una buona ragione per farlo, su siti che ragionevolmente potrebbero interessarsi a voi e su argomenti che abbiano pertinenza con quello del sito che vorreste promuovere. Molti siti potrebbero non accettare la vostra richiesta per motivi di convenienza o perchè semplicemente non interessati.

Nota: si invita a cercare di essere sempre equilibrati e corretti, in nessun caso questa lista deve essere intesa come strumento per dare fastidio, spammare articoli e simili.

SitoDescrizione / Tipologia / SuggerimentiContatti
comunicati-stampa.kootj.netComunicati stampa, article marketingcomunicati-stampa.kootj.net - Accrediti
MaiaMagazineMagazine onlinePubblica
TagliaBlogGuest PostCollabora
Mondo SEOGuest Post, Article marketingSito ufficiale
Informazione.itSito di informazione generalista, semplice e veloceSito
Nuovo MarketingArticle MarketingSito - Richiesta di accredito a s.capolupo@gmail.com
ReceSitiBlog generalistarecesiti
R42.itDirectory ed articoli promozionaliR42.it - per accrediti scrivere a sayhem@gmail.com
MediumBlog collaborativoIscrizione
Trovalost.itPortale dedicato alla tecnologia ed ai servizi di hostingContatti
article-marketing.euArticle marketingRegistrazione
Articoli originaliBlog collaborativoRegistrazione
Linkedin BlogBlog collaborativo per professionistiBasta essere iscritti a Linkedin ed attivarlo in inglese Iscrizione
StorifyBlog collaborativoIscrizione
HuffingtonpostQuotidiano onlineContatti
Il Fatto QuotidianoQuotidiano onlineContatti
ViceNews, articoli di tecnologia e tematici: tra i migliori e più visitati siti del momentoVice (verificare a quale indirizzo inoltrare la richiesta a seconda dei casi)
Osservatorio ImmobiliareSito dedicato al settore immobiliareContatti e info
BudoBlogBudoBlog può ospitare articoli di altri amanti del Budo, insegnanti o praticanti delle arti marziali giapponesi che abbiano come tema il benessere psico-fisico, la ricerca dell’armonia e pace interiore, le esperienze ed emozioni vissute nei dojo.Contatti
Penna BluBlogSezione guest post
SEO WebbsBlogSezione guest post
SEO MagazineBlogCollabora
Abis.itBlogAbis
Comunicati.netBlogComunicati.net
News.abc24.itBlogSito
Comunicatistampa.netBlogInvio comunicati
www.comunicatostampa.orgBlogInvio comunicati

Lista di siti per article marketing e guest blog

Per facilitare la link building, ecco una lista di siti che si potrebbero prestare, ad oggi, alla pubblicazione di vostri articoli. Per ulteriori informazioni rifatevi alle regole dei siti singoli, che potrebbero variare nel tempo e non sempre vedono di buon occhio le attività SEO (quasi mai).

Se necessario si suggerisce di contattare preferibilmente redattori, caporedattori, direttore responsabile della sezione di interesse.

Se qualcuno dei proprietari dei siti non gradisse la segnalazione su questa pagina, infine, può contattarmi via email per la rimozione.

SEO e WordPress: la guida che pensa fuori dal gregge

Iniziamo in questi termini: non esiste una SEO specifica per WordPress, e chi sostiene il contrario è mal informato o in malafede del tutto. Molte scelte SEO che facciamo per i nostri siti, in effetti, sono indipendenti dal CMS utilizzato: per cui una buona regola che si applica su WordPress è plausibile possa usarsi con successo anche su Joomla! o altri CMS (inclusi quelli proprietari o realizzati manualmente). WordPress produce HTML in modo automatizzato, mentre capire come intervenirci è richiede di avere idee chiare prima di installare o fare qualsiasi cosa. Non ci sono CMS migliori di altri per la SEO, ma sicuramente WordPress è una delle scelte più amate e popolari tra gli utenti di ogni tipo.

La SEO non è un’opinione, scrive (molto giustamente a mio avviso) Andrea Pernici sul blog di Taverniti: richiede una conoscenza approfondita del contesto in cui stiamo operando, e solo dopo si potrà passare alla fase di azione. Non è solo tecnica, non è solo creatività: conoscere il contesto vuol dire, a prescindere dall’uso o meno di WP, capire come si comportino gli utenti, come valorizzarne i contenuti, cosa cerchino più spesso i potenziali clienti, come ottenere citazioni e link dall’esterno e via dicendo.

Come ottimizzare WordPress per la SEO: linee generali

Non spellatevi le mani a cercare ed installare decine di plugin con la parola “SEO” nel titolo: WordPress di per sè è già pronto per la SEO, anche senza nessuno di questi: ciò vale a prescindere dall’uso o meno di Yoast, il celebre plugin per la SEO utilizzato dai più che pero’, badate bene, possiede anche dei limiti e qualche piccolo difetto. Ne riparleremo in seguito, per il momento non perdiamo il filo e cerchiamo di capire come ottimizzare localmente un sito in WordPress.

Come ottimizzare i permalink di WordPress

Avrete notato nella lista di indirizzi che, in linea di massima, esistono due possibili tipologie di link del sito: quelli con URL “più amichevoli” (tipo http://seo.salvatorecapolupo.it/blog/guida-seo-iniziare/) e per così dire “meno amichevoli” (come http://seo.salvatorecapolupo.it/?p=798): in genere, il primo tipo di URL è mappato sul secondo, ovvero ne costituisce un alias. In altri termini cliccando sull’indirizzo con il numero (non SEO friendly, o grezzo) e su quello con lettere e numeri (SEO friendly o “discorsivo”) andremo comunque a finire sulla stessa risorsa.

Tecnicamente (lato server) gli URL SEO friendly richiedono:

  • Apache con mod_rewrite abilitato
  • Hiawatha con UrlToolkit abilitato
  • Microsoft IIS con diversi moduli abilitati (URL Rewrite, …)
  • Lighttpd con un 404 handler oppure mod_rewrite

ma il più delle volte si ricade nella prima opzione. Per questo il mod_rewrite è già attivo di default, anche se va abilitato via WP mediante:

http://nomesitowp-it/wp-admin/options-permalink.php

che è la pagina standard di attivazione dei vari tipi di permalink.

Se preferite, quindi, i permalink sono un nome più facile da ricordare per un indirizzo, ma anche più “comunicativo” e più ricco di informazioni per utenti e motori di ricerca. Per attivare i permalink SEO friendly in WordPress sarà necessario attivare il mod_rewrite (nel caso di Apache server) e per farlo basta editare il file .htaccess ed inserire le direttive:

# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ - [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
# END WordPress

dopo aver editato e salvato il file .htaccess in questi termini, andremo dal backend amministrativo su Impostazioni -> Permalink (ovvero http://nomesitowp-it/wp-admin/options-permalink.php).

Schermata 2016-07-26 alle 15.24.29

Se tutto è andato per il verso giusto, ora, dovremmo vedere una cosa del genere.

Schermata 2016-07-26 alle 15.26.00

Semplice” in questo caso coincide con quanto detto prima sugli URL “non SEO friendly“: un visitatore che non conosca il nostro sito non capirebbe da quel numerino (123 nell’esempio) di che tipo di pagina si tratta. Scorrendo la lista troveremo numerose opzioni disponibili, di seguito riporto i miei suggerimenti per fare la scelta giusta.

  • Data e nome, Mese e nome – Questa impostazione è ideale per i siti WordPress usati per le news o aggiornati molto spesso, per cui ci interessi disporre di un archivio notizie.
  • Numerico, Nome articolo – È preferibile usare questa impostazione nel caso in cui le date di pubblicazioni non siano prioritarie nel sito, come avviene ad esempio per un blog usato come FAQ, come raccolta di tutorial o privo di notizie temporalmente rilevanti.

Una struttura molto usata, poi, è questa (e la sto usando anch’io nel mio blog):

/%category%/%postname%/

ovvero:

Schermata 2016-07-26 alle 15.29.44

e poi cliccare su Salva le modifiche:

Schermata 2016-07-26 alle 15.29.58Base delle categorie e base dei tag servono, volendo, a rinominare gli URL di categorie e tag da:

http://seo.salvatorecapolupo.it/category/nome_categoria

a

http://seo.salvatorecapolupo.it/mionome/nome_categoria

e da

http://seo.salvatorecapolupo.it/tag/post_con_tag_x

a

http://seo.salvatorecapolupo.it/altromionome/post_con_tag_x

Esistono ulteriori varianti combinabili fra loro, che possono essere analizzate sul sito ufficiale.

Come ottimizzare il file Robots.txt per WordPress

Poco da dire in questa situazione: non esiste un robots.txt considerabile di default per WP, perchè si tratta di un’impostazione a livello più alto, in qualche modo. Il mio suggerimento è quello di lasciare questo file massimamente permissivo, ovvero:

User-agent: *
Disallow:

Per rimuovere contenuti da Google, inoltre, si può sfruttare il file robots.txt, volendo, ma solo se esista una necessità precisa di farlo.

Come ottimizzare i contenuti di WordPress lato SEO

A questo punto dovremmo individuare i contenuti che vanno ottimizzati: possono essere tutti i post, tutte le pagine o solo una parte di esse. Può essere una buona idea far partire l’ottimizzazione elencando tutti gli URL, home inclusa, che desideriamo ottimizzare per i motori di ricerca. L’idea base che dovrebbe guidarci in questa fase è orientata al raggiungimento di un obiettivo: non è corretto pensare di fare delle modifiche ai permalink, oppure cambiare un titolo di un articolo, ed “automaticamente” finire in prima pagina su Google. Ottimizzare un sito per incrementare le visite non coincide necessariamente con le attività necessarie per aumentarne le conversioni, ad esempio.

Piuttosto, il buon posizionamento sarà derivato da un mix di più fattori concorrenti e spesso imprevedibili. Se il nostro obiettivo è quello di massimizzare le visite da motore di ricerca, potremo provare a cercare di far coincidere i titoli degli articoli con parte delle più comuni ricerche fatte dagli utenti. Si tratta pero’ di una cosa che tendono a fare un po’ tutti, per cui non è detto che possa bastare al nostro caso.

Per aumentare le visite la cosa migliore è, in generale, quella di trovare buone fonti di traffico  mediante link building da siti popolari, autorevoli o entrambi. Come fare dipende da caso a caso, o da sito a sito, come ho spiegato estensivamente nel mio ebook sulla SEO.

In generale, si possono seguire più criteri per ottimizzare i contenuti:

  1. variare i titoli degli articoli o delle pagine (a seconda di quello che ci serve) al fine di capire quali funzionino meglio in termini di visite, CTR, click e così via; in caso di dubbi o ambiguità, favorite sempre titoli funzionali a far capire all’utente cosa troverà nella pagina destinazione.
  2. testare diverse opzioni a livello di contenuti, cambiando formattazione e favorendo la leggibilità del contenuto;
  3. massimizzare la pertinenza degli articoli rispetto alle ricerche, cioè fare in modo che “rispondano alle domande” meglio della concorrenza (ecco perchè è importante capire il contesto, come dicevo prima);
  4. rinnovare periodicamente i contenuti degli articoli (almeno quelli soggetti ad invecchiamento);
  5. aggiornare gli articoli per inserirvi, se possibile, elementi che possano risultare graditi, utili o funzionali per l’utente.

Vale per siti in WordPress ma, in questo caso, vale anche per altri tipi di sito.

Quali plugin SEO è meglio installare?

I principi base per la SEO in WordPress sono quelli che abbiamo visto in questa pagina: a questo punto potremmo decidere di istallare anche dei plugin, per quanto non sempre sia necessario o consigliabile farlo.

Il plugin SEO, in linea di massima, può essere utile per effettuare delle ottimizzazioni mirate: ad esempio, SEO Yoast permette di ottimizzare direttamente la home di determinati temi, cosa che non si può editare direttamente e che possiamo sfruttare a nostro vantaggio. Inoltre, questo plugin aggiunge un prefisso o un post-fisso a tutte le pagine, i contenuti ed i post, e permette di regolare il livello di indicizzazione di post, pagine e allegati. Ad esempio, potrei impostare Yoast in modo tale che indicizzate solo post e pagina e non gli allegati, op oppure solo gli allegati. La scelta dipende dalla tipologia di sito e dei contenuti che vogliamo valorizzare (anche qui se non capiamo bene il contesto e quello che si aspetta l’utente medio che cerca nel nostro settore su Google, difficile che andremo da qualche parte).

Non esiste un plugin SEO migliore degli altri: esistono SEO in gamba che sanno utilizzarli e SEO con poca esperienza che li usano male. Motivo per cui il confronto tra plugin SEO ha senso soltanto in termini delle caratteristiche che offrono all’utente finale. Ho realizzato di seguito una tabella nella quale indico le caratteristiche principali a confronto di Yoast SEO e di SEO Ultimate, i plugin che uso quasi sempre sui miei siti.

In generale è sconsigliabile installare contemporaneamente più di un plugin SEO sullo stesso sito, in quanto potrebbe generare conflitti o errori irreversibili.

 Yoast SEOSEO Ultimate
htaccessPossiede un editor integratoPossiede un editor integrato (da attivare)
Robots.txtPossiede un editor integratoPossiede un editor integrato (da attivare)
SitemapGenera facilmente la sitemapGenera facilmente la sitemap
Contenuti del sitoPermette di editare globalmente title e metadescription di ogni pagina e postPermette di editare globalmente title e metadescription di ogni pagina e post
-Permette di editare singolarmente title e metadescription di ogni pagina e post
Principale pregioFacilità d'usoNumero di opzioni configurabili
Principale difettoÈ spesso sopravvalutato come strumento miracolistico, visione dei "punteggi SEO" forse un po' angusta, troppo rigida e poco adatta a molti casi reali. Il semaforo che valuta gli articoli è a volte inattendibile.Interfaccia "a moduli" non necessariamente intuitiva per tutti gli utenti

Guida gratuita SEO

Vuoi scoprire tutti i segreti della SEO? Sapere meglio come funziona, come si fa, cosa ti serve sapere e come agire? Questa è guida per SEO principianti che vorrei offrirti dal mio blog: grazie ad essa potrai scoprire le principali informazioni per l’ottimizzazione dei motori.

Si parte dalle basi, cercando di capire quando davvero vi serve un SEO, e passando poi a inquadrare che cosa stiamo ottimizzando, come misurarlo, come rendersi conto da soli se stiamo lavorando bene o no, per poi complicare un po0 il discorso e passare alle azioni pratiche che si possono eseguire. Il tutto con esempi pratici, strategie applicabili ad ogni settore ed un esempio di ottimizzazione per siti di e-commerce.

Ogni articolo andrebbe letto nell’ordine in cui viene presentato in questa pagina, in modo da garantire un apprendimento graduale.

A fine di ogni articolo troverete il link per tornare a questa pagina. Buona lettura!

Come capire se hai bisogno di un SEO

Quali garanzie può dare la SEO?

Come cercare su Google (con esempi)

Come indicizzare un sito

Come forzare l’indicizzazione di un URL su Google

Come usare i meta-tag ROBOTS

Ottimizzare un sito in ottica SEO: indicazioni di base

La prima pagina su Google non deve essere un’ossessione

10 strategie SEO per portare traffico fresco al tuo sito

Perchè anchor text e backlink potrebbero non bastare in qualsiasi strategia SEO

5 verifiche da fare subito se il traffico del tuo sito è in calo

Come eliminare una penalizzazione di Google

Come fare link building senza fare stupidate

Link building: come farla via email

Link building: 5 tipi di link nofollow che amerai lo stesso

A caccia di errori 404 per fare link building

Bufale sulla SEO

Ecco cinque approfondimenti per evitare di commettere errori madornali durante l’ottimizzazione del tuo sito. Parleremo di indici SEO (come MOZ o AlexaRank), keyword density (una unità di misura delle ripetizioni di una parola in un testo), article marketing (una strategia spesso usata malissimo), PageRank (il celebre indice di Google) e gli incessanti Google Update (o aggiornamenti algoritmici che riguardano il motore di ricerca e in particolare come “tratta” i nostri siti).

  1. L’iper-valutazione degli indici SEO
  2. La keyword density
  3. L’article marketing usato male
  4. L’iper-valutazione del PageRank
  5. L’iper-valutazione dei Google Update

Approfondimenti finali

Da leggere solo dopo aver considerato tutto il resto, per capire ancora meglio il discorso.

In prima pagina su Google: con Adwords

7 idee sbagliate in ambito SEO che ti hanno fregato finora

Come fare SEO per siti di e-commerce

8 punti critici per ottimizzare un sito multilingua

Lista di web directory gratuite in italiano