Ok, hai deciso di farti o rifarti il sito web, e (almeno) scriverti da solo i contenuti delle pagine.
Hai anche il materiale già pronto, devi solo iniziare a scrivere e poi pubblicare.
Ma...
... hai sentito dire che Google è sempre più severo, e fa uscire continui algoritmi che
abbattono la loro scure penalizzando centinaia di pagine per questo o quel motivo.
E magari senza dare nemmeno un preavviso!
Col risultato che pagine più o meno posizionate nei motori di ricerca, subiscono un crollo di ranking o addirittura spariscono dalle Serp!
Come comportarsi allora? Quali sono questi famigerati algoritmi, e come scrivere le tue web pages senza farti penalizzare?
Ecco una lista completa di tutti gli algoritmi/aggiornamenti significativi lanciati dal motore di Mountain View, e i consigli su come fare per evitare le temute penalizzazioni.
Prima di iniziare la lettura...
...sappi che questo articolo verrà aggiornato continuamente
con le nuove uscite degli algoritmi di Big G.
Ti consiglio quindi di salvare tra i preferiti questa pagina, in modo da avere sempre una
guida utile ed esaustiva sull'argomento!
PANDA
Google fa uscire nel Febbraio 2011 questo importante update del suo motore di ricerca, e gli
da il nome dell'ingegnere che lo ha ideato.
Poi, come vedremo, manterrà la tradizione di nomi di animali per alcuni importanti aggiornamenti successivi.
Scopo dell'algoritmo: in sostanza colpisce i cosiddetti Content Farm (l'algoritmo viene inizialmente chiamato "Farmer"), cioè i siti con contenuti di bassa qualità.
Questo diventa molto importante: poco tempo prima infatti Google aveva cambiato la sua infrastruttura
grafica (Caffeine), fatto che porta ad una forte crescita dei siti indicizzati.
E proprio in questi
anni aumentano molto i siti con contenuti di ogni tipo, spesso quindi di bassa qualità.
Si affinano ancora di più le tecniche per spingerli in cima alle classifiche dei motori. Ci si ritrova spesso con SERP inconsistenti, dove i primi posti non sono occupati dai siti più importanti e utili per le ricerche fatte.
Ecco quindi che Google da un giro di vite ai testi di bassa qualità, penalizzandoli fortemente!
Ma come fa a distinguere contenuti superficiali e di bassa qualità?
Qui bisognerebbe uniformare algoritmi informatici... alla mente umana!
Per quanto un
algoritmo possa essere evoluto, non si avvicinerà mai completamente al guidizio umano, in quanto esso
è... opinabile, e varia a seconda dei casi.
Ma Big G probabilmente è la miglior azienda al mondo, e investendo molto su questo, sembra abbia fatto un ottimo lavoro!
Uno dei guru Google, Amit Singhal, ha proposto 23 domande sul loro
blog, per definire il più possibile in maniera "umana" la qualità di un sito e dei suoi
contenuti.
Tali risultati, in qualche modo sono stati "incorporati" nell'algoritmo.
Oltre a colpire i contenuti inconsistenti (troppo corti) o irrilevanti (senza info utili), Panda si concentra sui contenuti copiati o duplicati, che non aggiungono quindi nulla al panorama di informazioni del web.
Ma qualcuno protesta e obietta!
Chiede trasparenza per dimostrare che gli algoritmi
non vengano fatti per agevolare gli annunci a pagamento. Ma Matt Cutts e company sono ovviamente
molto ermetici: rendere noto un algoritmo darebbe i mezzi a molti di... aggirarlo!
Per smentire i detrattori, c'è da riconoscere che Panda ha sicuramente portato forti penalizzazioni ai siti con grandi quantità di annunci AdSense rispetto al contenuto effettivo della pagina.
Panda quindi è il primo grosso passo che fa Google verso risultati di ricerca realmente utili all'utente, che soddisfino le sue richieste.
E in questo senso, oltre all'analisi semantica dei contenuti, Panda penalizza fortemente (finalmente) le ottimizzazioni SEO troppo spinte (on-page), cioè tutti quei trucchetti abusati per anni dai webmaster.
E si allarga all'usabilità del sito, cioè la facilità che ha l'utente nel reperire le informazioni che cerca (leggerezza e velocità del sito, contenuti visibili e accessibili, etc..).
Infine, variabile importante è anche il... gradimento del sito: tempo speso sul sito, frequenza di rimbalzo (cioè il tempo di abbandono del sito), basso numero di click, scarso ritorno di visitatori...
Una caratteristica di Panda da tenere in considerazione è la modalità di intervento: non lavora
in tempo reale, ma il "parsing" di un sito avviene in momenti occasionali.
Risulta quindi più problematico, una volta penalizzati, cercare di recuperare il... terreno perduto!
Dal primo rilascio nel febbraio 2011 Panda viene aggiornato incessantemente, con continui rilasci nei vari mesi. I più importanti sono stati:
PENGUIN
Google intensifica la lotta contro lo spam delle pagine web.
E nell'aprile 2012
esce una prima versione di Penguin, un altra importante classe di aggiornamento dell'algoritmo di
ricerca, seguito poi da altri aggiornamenti intermedi.
Questa volta ci si concentra sulle tecniche off-site, e quindi in primis i backlink, cioè i link in ingresso che da siti esterni puntano al nostro.
La sostanza è che Penguin non vuole link artificiali, di scarsa qualità o in
posizioni innaturali (tecniche molto in voga nel Black Hat SEO).
Vuole link naturali all'interno delle pagine, "guadagnati" grazie all'effettivo
valore del sito, e non link "facili"!
Escono diversi aggiornamenti, fino al 2014. Poi per due anni niente, fino all'importante aggiornamento di Penguin, il 4.0, uscito in settembre 2016, che risulta anche l'ultimo.
La novità introdotta con l'ultimo aggiornamento è, in sostanza, che ora Penguin fa parte del nucleo
principale dell'algoritmo di Google.
Quindi non viene più lanciato a cadenza temporale, ma funziona in REAL TIME!
Questo diventa molto importante: per rimediare ad una penalizzazione basterà una semplice reindicizzazione della pagina dopo averla ripulita dai link "tossici" e ripristinare quindi le posizioni Serp.
Ripulire la pagina dai link penalizzanti non risulta però così semplice come
modificare un testo, dato che i link sono... esterni, e non dipendono da noi!
Un buon articolo per identificarli e ripulirli è
questo di mysocialweb.
HUMMINGBIRD
Nell'agosto del 2013 esce un nuovo algoritmo per il motore di ricerca, e seguendo la scia dei nomi animaleschi, viene chiamato Hummingbird (colibrì), probabilmente per sottolinearne la velocità e il dettaglio rispetto al passato.
I guru di Big G sostengono che questa modifica dell'algoritmo di ricerca è ben più significativa di tutte le precedenti, comprese Panda e Penguin!
E sembrano prenderla molto seriamente: da ora infatti l'intero algoritmo di ricerca Google si chiamerà "Hummingbird"!
Ma c'è un cambiamento sostanziale? E se si, quale?
Beh, in effetti il passo avanti è enorme, anche se non è di immediata visibilità: con Hummingbird,
Google si concentra a capire meglio il significato semantico delle parole della search.
Mentre prima venivano solo valutate le parole più significative di una frase di ricerca, ora si cerca di interpretare più fedelmente possibile la frase esatta, cioè il pensiero di chi fa la query, per restituire il risultato più utile.
Si parla infatti di "ricerche conversazionali", e Hummingbirds cerca di avvicinare Google ancora di più ad un... assistente virtuale!
Tutto questo è in linea con il cambiamento nei modi di fare ricerca: mentre nei desktop la modalità è pressochè invariata, negli smartphone (che ora sono diventati il principale strumento di navigazione) aumentano fortemente le ricerche vocali, e queste necessitano indubbiamente di risposte più... naturali.
Hummingbird agisce quindi sulle Long Tail Keyword (frasi lunghe di ricerca), le
rende più significative e quindi più utili.
La keyword fine a se stessa perde sempre più importanza, a discapito del pensiero che c'è dietro ad
essa.
Il vantaggio fondamentale è che ora chi scrive le pagine non dovrà più concentrarsi sulla parola chiave esatta, ma dovrà sicuramente... essere fedele alla domanda della query dando una risposta esaustiva all'utente!
C'è da dire che per query particolarmente complesse dove ad esempio vengono usati i doppi sensi o l'ironia, non è detto che Hummingbird dia risultati efficaci e corretti (vedremo l'evoluzione più avanti con RankBrain!).
Ma in genere da subito si è potuto notare un miglioramento nella maggior parte delle query di ricerca.
Beh, molto intuitivamente, ora più che mai evitiamo il keyword stuffing, cioè la sovraottimizzazione delle parole chiave.
Concentriamoci ora sul quesito: sto dando una risposta esauriente all'utente?
Sto fornendo del valore utile, migliore degli altri competitor per questa search?
Il cliente ha buone probabilità di risolvere il suo problema o soddisfare il suo desiderio entrando
nella mia pagina?
In definitiva, ora è fondamentale che i nostri testi siano assolutamente di qualità!
MOBILEGEDDON
Arriviamo al 21 Aprile 2015, e con uno sbandieramento da giudizio finale Google lancia questo algoritmo di svolta: Mobilegeddon!
Al contrario dei precedenti, sembra che Big G voglia accendere il più possibile i riflettori su questa nuova modalità, dato che ne annuncia l'uscita già da febbraio.
Cosa succederà?
Beh, semplicemente Mobilegeddon privilegerà nelle ricerche i contenuti ottimizzati per i dispositivi
mobile.
E sembra sia dal nome, ma anche dalla visibilità mediatica data all'aggiornamento, che lo farà
in maniera... solenne!
Le ricerche nei mobile hanno ora ufficialmente superato le ricerche su desktop, e giustamente Google si uniforma e da un segnale forte in questa direzione.
Le search su smartphone e dispositivi simili hanno modalità e scopi diversi da quelle sui normali PC: meno "cazzeggio" e più risoluzione immediata di problemi o esigenze.
Le risposte devono seguire questa linea, e l'aspetto principale è proprio come vengono presentate: informazioni compatte, chiare e ben visibili e diminuzione di distrazioni e sprechi inutili di spazio.
Fin da subito l'algoritmo esce in tutto il mondo e in tutte le lingue.
Quindi non come update
precedenti, dove veniva lanciato prima negli States e poi a seguire negli altri paesi.
Segno di forte sollecitazione per tutti i webmaster ad adeguarsi il prima possibile
all'ottimizzazione dei siti per mobile.
Dalle loro dichiarazioni, inoltre, sembra che l'algoritmo influisca sulle ricerche su mobile, e non su desktop. Cioè le stesse ricerche dovrebbero dare risultati diversi sulle due tipologie di dispositivo.
Ma in ogni caso un layout responsive influenza in generale la user esperience, che come sappiamo e fattore di posizionamento...
Altre caratteristiche di Mobilgeddon:Google afferma che l'algoritmo influirà in maniera "strong" su almeno il 90% delle ricerche.
Molti però pensano che Google esageri e stia un po' bluffando, anche supportati da qualche statistica dopo i primi mesi dal lancio. Altri invece la pensano al contrario.
In ogni caso adeguarsi al mobile diventa ora obbligatorio!
Non perchè l'ha sentenziato Google, ma perchè le modalità di navigazione lo richiedono sempre di più,
e dal nostro sito gli utenti si aspettano questo.
Per ribadire il concetto, Google fa uscire circa un anno dopo (maggio 2016) un aggiornamento significativo, Mobilgeddon 2, ed afferma che l'ottimizzazione per mobile diventa ancora più importante in ottica SEO per il ranking dei siti web.
In una sola maniera: adeguare il tuo sito al mobile!
A tal proposito Google indica le linee guida e stabilisce che è di gran lunga preferibile la modalità responsive: in questo articolo ti spiego come implementarla.
Per controllare il tuo livello di ottimizzazione e ottenere indicazioni su come rimediare, puoi usare direttamente il tester di google, anche se esistono numerose applicazioni free in rete, come ad esempio questa di mrwebmaster.
I punti chiave si possono così riassumere:PHANTOM
Google nel maggio 2013 lancia un aggiornamento al nucleo centrale dell'algoritmo
ma non ne da notizia.
Lo notano comunque in tanti visto il fortissimo scossone nelle serp.
Si pensò all'uscita dell'update
di Penguin, ma Google smentisce (e infatti Penguin 2.0 esce settimane dopo).
Qualcuno quindi lo chiama "Phantom"!
Non viene fatto trapelare molto, ma dall'analisi dei siti colpiti si vede che andrà a penalizzare come ranking i siti di scarsa qualità.
Ancora più significativo è il secondo rilascio di fine aprile 2015, Phantom 2: altro forte terremoto sulle serp in tutto il mondo, e per qualcuno son stati dolori!
Dopo qualche settimana un comunicato conferma l'aggiornamento dell'algoritmo, e indica che è stato migliorato il modo di valutare la qualità dei siti.
Per questo Phantom 2 viene chiamato
"The Quality Update"!
Sembra quindi una bella spallata di Big G ai siti irrilevanti e di scarsa qualità.
Dalle analisi sembra che vengano considerati più i parametri on-page (contenuti) che off-page (backlink). Quindi molte similitudini con Panda.
Al contrario però dei fratelli maggiori, che tendevano a valutare le singole pagine di un sito, sembra invece che Phantom colpisca indiscriminatamente interi domini anche se poche pagine meriterebbero la penalizzazione.
Arriviamo al 19 novembre 2015, e Google rilascia un documento con la nuova
versione delle linee guida per i rater di qualità (Search Quality Rating Guidelines).
Contemporaneamente si verificano forti e improvvisi sbalzi alle serp. Google non fa nessun annuncio
in merito, e quindi questo ulteriore "aggiornamento fantasma" viene chiamato
Phantom Update 3!
Negli aggiornamenti "Phantom", Google è stata ancora più ermetica che in passato (da qui, il
nome!), e non ha rilasciato molte indicazioni.
Un forte indizio è stato dato con Phantom 3, che si è verificato in concomitanza con l'uscita delle
linee guida per i rater di qualità.
Il mio consiglio è quindi quello di seguire queste direttive che spiegano bene come Google interpeta
la qualità di un sito.
Un ottima descrizione delle Search Quality Rating lo si trova in questo
articolo del Tagliaerbe.
In sostanza bisogna sempre creare una qualità che soddisfi le esigenze l'utente che vuole arrivare alla nostra pagina con una search. E risolvere i suoi problemi!
Ormai ogni aggiornamento corposo dell'algoritmo che non viene menzionato da Google ma che ha effetti ben visibili, viene battezzato "Phantom".
All'inizio di Febbraio del 2017 ci sono grossi scossoni: in realtà se ne rilevano due!
In linea con l'andamento recente, che prevede continui update dell'algoritmo verso il
miglioramento della
qualita delle search.
Infatti si registra qualche grosso calo anche in gennaio e dopo l'inizio
di febbraio,
ma i due più consistenti sono questi.
In questi due aggiornamenti, per non essere penalizzati bisogna aver cura di evitare le
cause
descritte sopra!
Dall'uso di PBN e abuso di backlink, all'inconsistenza dei contenuti e scarsa User Experience.
Infine, quando possibile puntare alla verticalità dei contenuti, cioè dare
valore
specializzandosi sul settore.
Sembra infatti che Google premi questa caratteristica, anche se si è visto che diversi siti
generalisti, ma con
contenuti di qualità, non hanno subito penalizzazioni!
RANKBRAIN
Dal 27 ottobre 2015, da un articolo di Danny Sullivan si fa un gran parlare del nuovo rilascio Google "RankBrain".
In realtà è stato lanciato ad inizio 2015, ed è diventato a pieno regime già da diversi mesi.
Ma cos'è? Cosa fa?
RankBrain aumenta il riconoscimento semantico delle query da parte di Google, e in
sostanza ordina le pagine selezionate dalla ricerca, escludendo quelle che contengono parole non
direttamente collegate con il campo semantico della query dell'utente.
Questo parrebbe un ottimo risultato: pensa a quante volte hai fatto ricerche in passato e nei risultati c'erano molte pagine che non c'entravano nulla con quello che volevi!
Ma quindi, occupandosi della parte semantica, questa è la nuova versione di Hummingbird?
Beh, da un lato RankBrain migliora notevolmente l'interpretazione semantica delle query, che era
stata introdotta dal colibrì.
Dall'altro lato, si dice che RankBrain è una componente di Hummingbird, in quanto con questo nome
ora si intende l'intero algoritmo di ricerca di Google!
Ma come funziona?
Si basa su una lista di sinonimi associati ad ogni parola, e di un algoritmo
(appunto detto di stemming) che li processa.
Il motto diventa: "Cose, non stringhe di parole" (“Things, not strings”) che identifica il percorso verso la comprensione del significato completo delle query, oltre le singole parole chiave.
In sostanza: le parole possono essere legate a concetti differenti.
Ad esempio "tv" si può associare al concetto di apparecchio televisore, oppure di trasmissioni Tv.
O anche... la targa di Treviso!
Per ogni parola sono associati dei legami (vettori) con le altre parole che ne identificano il concetto di appartenenza.
Rankbrain cerca di apprendere tramite meccanismi di machine learning (la macchina apprende da se stessa) quali sono i concetti legati alle parole di una determinata query.
Negli esempi di figura, digitando "Vita di Punturicchio" vengono mostrati risultati relativi al pittore. Con "Vittorie di Pinturicchio" invece, il motore capisce che non vogliamo info sul vero Pinturicchio, ma sul calciatore Del Piero, che era soprannominato così.
Allo stesso modo, quando digitiamo una parola sulla barra di ricerca, un meccanismo di autocompilazione ci da dei suggerimenti: sono quelli più probabili per Google.
Aggiungendo una parola o anche solo una lettera, i suggerimenti cambiano. Di questa procedura si occupa RankBrain!
Ma come fa ad apprendere queste informazioni, associare i vettori alle varie parole e sciegliere tra i contesti più probabili?
Sia in maniera automatica che... manuale: creare liste di sinonimi e connessioni vettoriali tra di esse, è eseguito inizialmente con lavoro umano, e in parte elaborati dal Knowledge Graph, che è il primo meccanismo lanciato da Goolge per il riconoscimento semantico.
Poi tramite i miliardi di query che vengono fatte ogni giorno, si creano sempre più connessioni
imparando direttamente dalle scelte degli utenti.
Vengono analizzate le search del passato e con procedure legate all'intelligenza artificiale si
cerca di capire ogni volta il reale fabbisogno dell'utente.
RankBrain è stato quindi introdotto per gestire ed interpretare le query complesse, di più parole (le famose Long-Tail Keywords) per restituire le pagine più attinenti alle query degli utenti.
Un notevole miglioramento al riconoscimento semantico di Hummingbird, che aveva qualche problema in caso di più concetti associati ad una stessa parola.
Certamente RankBrain, oltre a valutare le varie query è anche uno dei fattori più determinanti tra i 200 esistenti per valutare il rank di una pagina, controllando la qualità dei contenuti durante l'interpretazione delle associazioni tra parole.
A questo punto dimenticati eccessi di parole chiave nel testo (keyword stuffing) e a mio avviso cade definitivamente il concetto di keyword density, tanto decantato dai SEO fino a poco fa.
Inseriamo pure le nostre keyword nel testo, ma anche tutti i vari sinonimi e attinenze varie.
Una volta ancora, se fosse necessario ripeterlo, dimentichiamoci di dover scrivere per far contento il motore, e occupiamoci invece di dare una risposta esauriente all'utente, in modo da soddisfare le sue esigenze e risolvere le sue problematiche.
Se sarà felice l'utente, sara felice anche Google!
FRED
L'8 marzo 2017 si notano forti terremoti nelle serp.
E' un grosso update, battezzato "Fred" da una battuta di Gary Illyes di Google,
legato
fortemente alla qualità del sito web, e quindi molto affine a Panda.
Anche qui pochissime notizie da Google: trend al quale dovremo abituarci visti i continui rilasci di aggiornamenti senza dichiarazioni ufficiali!
Si notano tra i siti colpiti, molti con eccessi di sovraottimizzazione o basati sulle affiliazioni.
In pratica, Google ci dice che non ritiene un sito di qualità chi monetizza senza dare
un reale valore agli utenti.
A conferma di questo, molti siti colpiti che avevano ecceduto con annunci pubblicitari, una volta rimossi hanno in generale recuperato le posizioni perse.
In sostanza, Fred sembra guardare in generale alla qualità di un sito, in base a numerosi
parametri!
Non come aggiornamenti del passato che miravano a colpire una specifica caratteristica.
Vengono comunque segnalati molti casi di "falsi positivi", cioè siti che non
dovrebbero
essere colpiti in base a tutti i fattori di qualità, ma che invece subiscono pesanti cali.
Nelle community Seo più di qualcuno sbuffa e accusa Google.
Nelle settimane successive molti di questi siti recuperano posizioni, quindi probabilmente è stato
lanciato qualche altro update di aggiustamento per Fred.
Prevedo quindi per il futuro:
In queste settimane si è scritto tanto su Fred, e su cosa fare per non essere penalizzati.
Ho trovato tantissime opinioni, anche ben documentate con casi reali, su cosa fare e cosa non fare.
A mio avviso, però, bisogna tener conto della multifattorialità di questo update, unito allo scarso rilascio di news ufficiali, che porta ad enunciare decine di rimedi e cose da evitare, tutte riconducibili in generale alla qualità del sito!
E questa... nebulosità degli aggiornamenti sarà probabilmente la regola per i futuri rilasci di Google.
Potremmo riassumere le tracce principali per non essere penalizzati in:Altri Algoritmi/Aggiornamenti
Da Mountain View escono in continuazione decine di aggiornamenti dell'algoritmo, ogni anno.
A volte sono piccoli aggiustamenti, a volte sono forti cambiamenti come quelli
elencati sopra.
Altre uscite da ricordare sono:
E' il 1998, Larry Page e Sergey Brin lanciano il loro motore di ricerca, e l'algoritmo viene
chiamato Page Rank.
E' stato il primo nome che Google ha dato ad una componente del suo algoritmo di valutazione delle
pagine.
Definisce la popolarità di una pagina in base ai link in ingresso (backlink).
Da un valore da 0 a 10 (link popularity) ad ogni singola pagina.
Negli anni subirà continui aggiornamenti, fino a far perdere di importanza le sue caratteristiche
iniziali.
Lanciato per penalizzare le pagine con un alto numero di banner pubblicitari rispetto ai contenuti utili per l'utente.
In genere colpisce tutte le forme di pubblicità online non desiderata in eccesso.
La dichiarazione dice: nell’area visibile (above the fold) di una pagina, l'area
degli annunci pubblicitari deve essere minore o uguale all'area dei contenuti.
Primo passo di Google verso il riconoscimento semantico delle query.
Ogni parola non viene più considerata come una stringa, ma come un'entità (Thing, not String).
Con la knowledge base Google crea un enorme database dove memorizza tutte le connessioni (vettori) tra le parole.
Esce questo aggiornamento, chiamato DMCA Penalty (“Pirate”), per combattere quei siti pirata che diffondono software, ma anche musica, film, etc. in maniera illegale.
Una successiva versione, 2.0, esce due anni più tardi, il 21 Ottobre 2014.
E' un aggiornamento per l'anti-spam nelle pagine web.
La versione 2.0 esce un anno dopo, nel maggio 2014.
Se le query si riferiscono al territorio (Ristoranti, servizi locali, etc...), da rilevanza ai
risultati in locale, vicini all'utente della search.
In luglio esce per gli States, e in dicembre per altre nazioni.
Conclusioni
Abbiamo visto la storia degli algoritmi lanciati dal celebre motore, e quali sono le numerose linee guida suggerite per non essere penalizzati.
Oltre a quelle già note, sono da considerare le intenzioni future, già tante volte espresse e confermate, della casa di Mountain View, cioè una valutazione dei siti che tende sempre di più ad avvicinarsi al giudizio umano!
Per non essere penalizzato quando scrivi le tue pagine web ora e in futuro, oltre a seguire le indicazioni di questo articolo, tieni sempre come base di fondo la mentalità di creare qualcosa che sia più utile possibile al target di utenti che interrogano il motore, come se dovessero essere proprio loro a doverti giudicare!
In questa maniera dovresti essere al riparo da qualsiasi algoritmo o aggiornamento.
Del passato, del presente e del futuro!
Per approfondire l'argomento, consiglio i numerosi articoli del blog del tagliaerbe di Davide Pozzi. Una fonte preziosa e sempre aggiornatissima su questo e numerosi altri argomenti web! Segnalo inoltre:
Se vuoi approfondire, chiarire meglio o... affidarti a noi per il tuo progetto
E se ti è piaciuto questo articolo, Condividilo sui social!
Seguici anche su: