SeoTrek

Padova

Come non farsi penalizzare da Google!
La lista completa degli algoritmi e aggiornamenti!

Penalizzazioni Google

Ok, hai deciso di farti o rifarti il sito web, e (almeno) scriverti da solo i contenuti delle pagine.

Hai anche il materiale già pronto, devi solo iniziare a scrivere e poi pubblicare.

Ma...
... hai sentito dire che Google è sempre più severo, e fa uscire continui algoritmi che abbattono la loro scure penalizzando centinaia di pagine per questo o quel motivo.
E magari senza dare nemmeno un preavviso!

Col risultato che pagine più o meno posizionate nei motori di ricerca, subiscono un crollo di ranking o addirittura spariscono dalle Serp!

Che fare?

Come comportarsi allora? Quali sono questi famigerati algoritmi, e come scrivere le tue web pages senza farti penalizzare?

Ecco una lista completa di tutti gli algoritmi/aggiornamenti significativi lanciati dal motore di Mountain View, e i consigli su come fare per evitare le temute penalizzazioni.

Prima di iniziare la lettura...
...sappi che questo articolo verrà aggiornato continuamente con le nuove uscite degli algoritmi di Big G.

Ti consiglio quindi di salvare tra i preferiti questa pagina, in modo da avere sempre una guida utile ed esaustiva sull'argomento!

Algoritmo Panda

PANDA

Google fa uscire nel Febbraio 2011 questo importante update del suo motore di ricerca, e gli da il nome dell'ingegnere che lo ha ideato.
Poi, come vedremo, manterrà la tradizione di nomi di animali per alcuni importanti aggiornamenti successivi.

Scopo dell'algoritmo: in sostanza colpisce i cosiddetti Content Farm (l'algoritmo viene inizialmente chiamato "Farmer"), cioè i siti con contenuti di bassa qualità.

Questo diventa molto importante: poco tempo prima infatti Google aveva cambiato la sua infrastruttura grafica (Caffeine), fatto che porta ad una forte crescita dei siti indicizzati.
E proprio in questi anni aumentano molto i siti con contenuti di ogni tipo, spesso quindi di bassa qualità.

Si affinano ancora di più le tecniche per spingerli in cima alle classifiche dei motori. Ci si ritrova spesso con SERP inconsistenti, dove i primi posti non sono occupati dai siti più importanti e utili per le ricerche fatte.

Ecco quindi che Google da un giro di vite ai testi di bassa qualità, penalizzandoli fortemente!

Ma come fa a distinguere contenuti superficiali e di bassa qualità?

Qui bisognerebbe uniformare algoritmi informatici... alla mente umana!
Per quanto un algoritmo possa essere evoluto, non si avvicinerà mai completamente al guidizio umano, in quanto esso è... opinabile, e varia a seconda dei casi.

Ma Big G probabilmente è la miglior azienda al mondo, e investendo molto su questo, sembra abbia fatto un ottimo lavoro!

Uno dei guru Google, Amit Singhal, ha proposto 23 domande sul loro blog, per definire il più possibile in maniera "umana" la qualità di un sito e dei suoi contenuti.
Tali risultati, in qualche modo sono stati "incorporati" nell'algoritmo.

Oltre a colpire i contenuti inconsistenti (troppo corti) o irrilevanti (senza info utili), Panda si concentra sui contenuti copiati o duplicati, che non aggiungono quindi nulla al panorama di informazioni del web.

Ma qualcuno protesta e obietta!
Chiede trasparenza per dimostrare che gli algoritmi non vengano fatti per agevolare gli annunci a pagamento. Ma Matt Cutts e company sono ovviamente molto ermetici: rendere noto un algoritmo darebbe i mezzi a molti di... aggirarlo!

Per smentire i detrattori, c'è da riconoscere che Panda ha sicuramente portato forti penalizzazioni ai siti con grandi quantità di annunci AdSense rispetto al contenuto effettivo della pagina.

Panda quindi è il primo grosso passo che fa Google verso risultati di ricerca realmente utili all'utente, che soddisfino le sue richieste.

E in questo senso, oltre all'analisi semantica dei contenuti, Panda penalizza fortemente (finalmente) le ottimizzazioni SEO troppo spinte (on-page), cioè tutti quei trucchetti abusati per anni dai webmaster.

E si allarga all'usabilità del sito, cioè la facilità che ha l'utente nel reperire le informazioni che cerca (leggerezza e velocità del sito, contenuti visibili e accessibili, etc..).

Infine, variabile importante è anche il... gradimento del sito: tempo speso sul sito, frequenza di rimbalzo (cioè il tempo di abbandono del sito), basso numero di click, scarso ritorno di visitatori...

Una caratteristica di Panda da tenere in considerazione è la modalità di intervento: non lavora in tempo reale, ma il "parsing" di un sito avviene in momenti occasionali.
Risulta quindi più problematico, una volta penalizzati, cercare di recuperare il... terreno perduto!

Dal primo rilascio nel febbraio 2011 Panda viene aggiornato incessantemente, con continui rilasci nei vari mesi. I più importanti sono stati:

Febbraio 2011: Panda/Farmer
Aprile 2011: Panda 2.0
Aprile 2011: Panda 2.0
Novembre 2011: Panda 3.1
Giugno 2013: Panda Dance
23 Settembre 2014: Panda 4.1
17 Luglio 2015: Panda 4.2
12 Gennaio 2016: Panda entra a far parte del core nell’algoritmo di Google

 

Come non essere penalizzati

Ecco cosa devi evitare per non essere penalizzato da Panda:
  • Contenuti irrilevanti. In genere quando non risponde alla domanda della search. Più propriamente non rispecchia il titolo della pagina, o la sua intestazione principale (h1).
    Un contenuto irrilevante porterà anche scarso interesse da parte dell'utente, con conseguente elevato bounce rate, basso tempo di permanenza nel sito, e quindi ulteriori possibilità di declassamento.
  • Contenuti copiati o duplicati. Se devi riportare parti da altri siti, riscrivi i concetti con parole tue.
    O al limite, usa il tag rel=canonical che indica a Google qual è la pagina originale da indicizzare.
    Eviterai così la creazione di pagine duplicate e possibili penalizzazioni.
  • Contenuti troppo corti. Poco contenuto (e magari tanti link) non da modo a google di capire se la pagina è rilevante.
    Panda punisce molto più che in passato questi casi.
  • Contenuti generati automaticamente Tipico dei cataloghi dinamici, tante pagine create automaticamente (schede prodotto), con contenuti praticamente identici.
    Anche se i prodotti differiscono solo di pochi dati tecnici, è bene differenziare il testo personalizzandolo per ogni singola scheda.
  • Sovraottimizzazione delle parole chiave (keyword stuffing). La keyword density è un parametro che ormai non ha più molto senso per il SEO. Il testo deve essere scritto per gli utenti, e Google questo lo analizza molto bene.
    E' normale inserire le parole chiave, ma un eccesso di keywords presenti nel testo viene facilmente rilevato e penalizzato.
    Ha molto più senso pensare ad un testo con parole con significato semantico attinente alle keyword da ottimizzare (questo diverrà determinante, come vedremo più avanti → Hummingbird).
    Traduzione: invece di un assiduo uso della stessa keyword (ad esempio "pizza"), inserimento continuo nel testo di parole attinenti (pizzeria, pizzaiolo, margherita, giropizza, pomodoro e mozzarella, etc...)
  • Troppi banner pubblicitari. Esagerare troppo con gli annunci Adsense o altri può far arrabbiare Panda e causare penalizzazioni.
  • Sito lento La velocità del sito diventa sempre più fattore di valutazione per il posizionamento.
    Evita di caricare le pagine con immagini troppo pesanti, e ottimizzale con uno dei tanti programmi disponibili in rete (io uso Gimp).
    Se vuoi testare la velocità del tuo sito (e magari compararla con altri, come questo) puoi usare Gtmetrix.
  • Navigazione complessa. Se l'utente non è agevolato quando entra nella tua pagina e non trova subito quello che cerca, ma invece è costretto ad una navigazione... nebulosa, questo può influire negativamente sul tuo page rank.
  • Layout e formati vecchi. Un design vecchio o formati ormai obsoleti come Flash sono sempre più un fattore di declassamento per i siti.
    Ricorda sempre quali dispositivi vengono usati ora per navigare!

Algoritmo Penguin

PENGUIN

Google intensifica la lotta contro lo spam delle pagine web.
E nell'aprile 2012 esce una prima versione di Penguin, un altra importante classe di aggiornamento dell'algoritmo di ricerca, seguito poi da altri aggiornamenti intermedi.

Questa volta ci si concentra sulle tecniche off-site, e quindi in primis i backlink, cioè i link in ingresso che da siti esterni puntano al nostro.

La sostanza è che Penguin non vuole link artificiali, di scarsa qualità o in posizioni innaturali (tecniche molto in voga nel Black Hat SEO).
Vuole link naturali all'interno delle pagine, "guadagnati" grazie all'effettivo valore del sito, e non link "facili"!

Rispetto a prima ci sono due particolarità:
  • Pagine indipendenti: Penguin analizza e considera le singole pagine, come se fossero indipendenti. Quindi potrebbe penalizzare solo alcune parti del sito.
  • Scansione in breve tempo: mentre Panda aveva una scansione lunga circa un mese, Penguin è molto più veloce, e già dalla prima versione scansiona in poco tempo il sito. Diventa quindi più facile uscire da eventuali penalizzazioni.

Escono diversi aggiornamenti, fino al 2014. Poi per due anni niente, fino all'importante aggiornamento di Penguin, il 4.0, uscito in settembre 2016, che risulta anche l'ultimo.

Aprile 2012: Penguin
Maggio 2012: Penguin 1.1
Ottobre 2012: Penguin 1.2
Maggio 2013: Penguin 2.0
Ottobre 2013: Penguin 2.1
17 Ottobre 2014: Penguin 3.0
10 Dicembre 2014: Penguin Everflux
Settembre 2016: Penguin 4.0

La novità introdotta con l'ultimo aggiornamento è, in sostanza, che ora Penguin fa parte del nucleo principale dell'algoritmo di Google.
Quindi non viene più lanciato a cadenza temporale, ma funziona in REAL TIME!

Questo diventa molto importante: per rimediare ad una penalizzazione basterà una semplice reindicizzazione della pagina dopo averla ripulita dai link "tossici" e ripristinare quindi le posizioni Serp.

Ripulire la pagina dai link penalizzanti non risulta però così semplice come modificare un testo, dato che i link sono... esterni, e non dipendono da noi!
Un buon articolo per identificarli e ripulirli è questo di mysocialweb.

 

Come non essere penalizzati

Che fare per evitare l'impietosa scure di Penguin?
  • Compra-vendita di link. Evitare la compra-vendita di Link: Penguin penalizza sia chi compra che chi vende!
  • Scambio di link eccessivo. Gli scambi di link non deveno essere eccessivi o continui: è molto facile individuare questi incroci di collegamenti, e declassare le relative pagine.
  • Link da siti di scarsa qualità. Indicano un uso quasi sempre artificiale di questi, e ciò può portare penalizzazioni.
  • Commenti-spam o commenti irrilevanti. Attenzione ai commenti degli altri utenti all'interno del nostro sito. Se non regolamentati, portano spesso degli spam-link.
    In questo caso conviene sempre usare nel codice l'attributo nofollow. Anche avere molti commenti irrilevanti può essere fonte di penalità.
    In generale quindi è meglio evitare di fare link building sui commenti.
  • Backlink da siti non attinenti. I backlink devono provenire da siti che trattino più o meno gli stessi argomenti.
    Link da siti che non hanno nulla a che fare con il nostro sono visti in maniera sospetta...
  • Backlink da siti in lingue differenti. Allo stesso modo, link da siti in lingua completamente diversa (siti russi, brasiliani, etc...), indicano spesso spam e portano facilmente a declassamenti.
  • Link in zone del sito irrlevanti. Evitare i link ripetuti in certe posizioni (ad esempio il footer, ormai declassato come zona di scarso contenuto).
  • Eccesso di link interni. Attenzione anche ai link interni!
    Se li usi in eccesso, con lo stesso anchor text, e che puntano alla stessa pagina, puoi subire penalizzazioni!
  • Link building eccessiva. In generale, se vuoi fare link building, non puntare al maggior numero di link a basso costo, ma cerca i link di qualità dai siti più autorevoli.
    Un buon metodo è quello dei guest post, cioè creare dei contatti con i siti più importanti per il nostro settore, e scrivere per loro un articolo o altri contenuti.
    Otterremo così un collegamento autorevole col nostro sito, che influirà positivamente sul posizionamento SEO.

Algoritmo Hummingbird

HUMMINGBIRD

Nell'agosto del 2013 esce un nuovo algoritmo per il motore di ricerca, e seguendo la scia dei nomi animaleschi, viene chiamato Hummingbird (colibrì), probabilmente per sottolinearne la velocità e il dettaglio rispetto al passato.

I guru di Big G sostengono che questa modifica dell'algoritmo di ricerca è ben più significativa di tutte le precedenti, comprese Panda e Penguin!

E sembrano prenderla molto seriamente: da ora infatti l'intero algoritmo di ricerca Google si chiamerà "Hummingbird"!

Ma c'è un cambiamento sostanziale? E se si, quale?
Beh, in effetti il passo avanti è enorme, anche se non è di immediata visibilità: con Hummingbird, Google si concentra a capire meglio il significato semantico delle parole della search.

Mentre prima venivano solo valutate le parole più significative di una frase di ricerca, ora si cerca di interpretare più fedelmente possibile la frase esatta, cioè il pensiero di chi fa la query, per restituire il risultato più utile.

Si parla infatti di "ricerche conversazionali", e Hummingbirds cerca di avvicinare Google ancora di più ad un... assistente virtuale!

Tutto questo è in linea con il cambiamento nei modi di fare ricerca: mentre nei desktop la modalità è pressochè invariata, negli smartphone (che ora sono diventati il principale strumento di navigazione) aumentano fortemente le ricerche vocali, e queste necessitano indubbiamente di risposte più... naturali.

Hummingbird agisce quindi sulle Long Tail Keyword (frasi lunghe di ricerca), le rende più significative e quindi più utili.
La keyword fine a se stessa perde sempre più importanza, a discapito del pensiero che c'è dietro ad essa.

Il vantaggio fondamentale è che ora chi scrive le pagine non dovrà più concentrarsi sulla parola chiave esatta, ma dovrà sicuramente... essere fedele alla domanda della query dando una risposta esaustiva all'utente!

C'è da dire che per query particolarmente complesse dove ad esempio vengono usati i doppi sensi o l'ironia, non è detto che Hummingbird dia risultati efficaci e corretti (vedremo l'evoluzione più avanti con RankBrain!).

Ma in genere da subito si è potuto notare un miglioramento nella maggior parte delle query di ricerca.

 

Come non essere penalizzati

Beh, molto intuitivamente, ora più che mai evitiamo il keyword stuffing, cioè la sovraottimizzazione delle parole chiave.

Concentriamoci ora sul quesito: sto dando una risposta esauriente all'utente?
Sto fornendo del valore utile, migliore degli altri competitor per questa search?
Il cliente ha buone probabilità di risolvere il suo problema o soddisfare il suo desiderio entrando nella mia pagina?

In definitiva, ora è fondamentale che i nostri testi siano assolutamente di qualità!

 

Algoritmo Mobilegeddon

MOBILEGEDDON

Arriviamo al 21 Aprile 2015, e con uno sbandieramento da giudizio finale Google lancia questo algoritmo di svolta: Mobilegeddon!

Al contrario dei precedenti, sembra che Big G voglia accendere il più possibile i riflettori su questa nuova modalità, dato che ne annuncia l'uscita già da febbraio.

Cosa succederà?
Beh, semplicemente Mobilegeddon privilegerà nelle ricerche i contenuti ottimizzati per i dispositivi mobile.
E sembra sia dal nome, ma anche dalla visibilità mediatica data all'aggiornamento, che lo farà in maniera... solenne!

Le ricerche nei mobile hanno ora ufficialmente superato le ricerche su desktop, e giustamente Google si uniforma e da un segnale forte in questa direzione.

Le search su smartphone e dispositivi simili hanno modalità e scopi diversi da quelle sui normali PC: meno "cazzeggio" e più risoluzione immediata di problemi o esigenze.

Le risposte devono seguire questa linea, e l'aspetto principale è proprio come vengono presentate: informazioni compatte, chiare e ben visibili e diminuzione di distrazioni e sprechi inutili di spazio.

Fin da subito l'algoritmo esce in tutto il mondo e in tutte le lingue.
Quindi non come update precedenti, dove veniva lanciato prima negli States e poi a seguire negli altri paesi.
Segno di forte sollecitazione per tutti i webmaster ad adeguarsi il prima possibile all'ottimizzazione dei siti per mobile.

Dalle loro dichiarazioni, inoltre, sembra che l'algoritmo influisca sulle ricerche su mobile, e non su desktop. Cioè le stesse ricerche dovrebbero dare risultati diversi sulle due tipologie di dispositivo.

Ma in ogni caso un layout responsive influenza in generale la user esperience, che come sappiamo e fattore di posizionamento...

Altre caratteristiche di Mobilgeddon:
  • Singole pagine: verranno considerate le singole pagine come se fossero siti indipendenti.
    Quindi all'interno dello stesso sito, pagine ottimizzate potrebbero beneficiare dell'algoritmo, mentre altre potrebbero essere penalizzate.
  • Real-time: l'algoritmo non avrà bisogno di tempi medio-lunghi per classificare i siti web: ogni volta che gli spider visiteranno la pagina, se è ottimizzata per mobile verrà etichettata come tale, altrimenti no.
Mobilegeddon 2

Google afferma che l'algoritmo influirà in maniera "strong" su almeno il 90% delle ricerche.

Molti però pensano che Google esageri e stia un po' bluffando, anche supportati da qualche statistica dopo i primi mesi dal lancio. Altri invece la pensano al contrario.

In ogni caso adeguarsi al mobile diventa ora obbligatorio!
Non perchè l'ha sentenziato Google, ma perchè le modalità di navigazione lo richiedono sempre di più, e dal nostro sito gli utenti si aspettano questo.

Per ribadire il concetto, Google fa uscire circa un anno dopo (maggio 2016) un aggiornamento significativo, Mobilgeddon 2, ed afferma che l'ottimizzazione per mobile diventa ancora più importante in ottica SEO per il ranking dei siti web.

 

Come non essere penalizzati

In una sola maniera: adeguare il tuo sito al mobile!

A tal proposito Google indica le linee guida e stabilisce che è di gran lunga preferibile la modalità responsive: in questo articolo ti spiego come implementarla.

Per controllare il tuo livello di ottimizzazione e ottenere indicazioni su come rimediare, puoi usare direttamente il tester di google, anche se esistono numerose applicazioni free in rete, come ad esempio questa di mrwebmaster.

I punti chiave si possono così riassumere:
  • Sito veloce da caricare. Puoi ben immaginare che ora la velocità di un sito "snello" sia fondamentale. Pensa a tutte le volte che navighi col tuo cellulare e sei in una zona con poco campo...
  • Testo leggibile. Anche senza zoom. Sia per i caratteri (in genere della famiglia Sans serif), sia per dimensione.
  • Link cliccabili. Il posizionamento dei link deve essere a distanze tali da consentirne click semplificati, anche con le cosiddette dita "a melanzana"!
  • Contenuti scritti per il mobile. Quasi tutti i siti vengono progettati su desktop e poi adattati al mobile.
    Visto che ora la navigazione mobile è dominante, la visione dovrebbe essere ribaltata: prima andrebbe progettato e scritto il sito per il mobile con i contenuti fondamentali.
    Poi adattato per il desktop, aggiungendo ulteriori contenuti, menu, etc...
  • Eliminazione dei software non compatibili con il mobile. In primis ovviamente il Flash, che con Mobilegeddon vede il suo definitivo tramonto!
  • Contenuti rilevanti. Con un naturale ridimensionamento dei contenuti su mobile, ora il rischio che diventino irrilevanti aumenta.
    Cerca quindi qui più che mai di essere... utile all'utente e risolvere i motivi della sua ricerca!

Algoritmo Phantom

PHANTOM

Google nel maggio 2013 lancia un aggiornamento al nucleo centrale dell'algoritmo ma non ne da notizia.
Lo notano comunque in tanti visto il fortissimo scossone nelle serp.

Si pensò all'uscita dell'update di Penguin, ma Google smentisce (e infatti Penguin 2.0 esce settimane dopo).
Qualcuno quindi lo chiama "Phantom"!

Non viene fatto trapelare molto, ma dall'analisi dei siti colpiti si vede che andrà a penalizzare come ranking i siti di scarsa qualità.

Ancora più significativo è il secondo rilascio di fine aprile 2015, Phantom 2: altro forte terremoto sulle serp in tutto il mondo, e per qualcuno son stati dolori!

Dopo qualche settimana un comunicato conferma l'aggiornamento dell'algoritmo, e indica che è stato migliorato il modo di valutare la qualità dei siti.

Per questo Phantom 2 viene chiamato "The Quality Update"!
Sembra quindi una bella spallata di Big G ai siti irrilevanti e di scarsa qualità.

Dalle analisi sembra che vengano considerati più i parametri on-page (contenuti) che off-page (backlink). Quindi molte similitudini con Panda.

Al contrario però dei fratelli maggiori, che tendevano a valutare le singole pagine di un sito, sembra invece che Phantom colpisca indiscriminatamente interi domini anche se poche pagine meriterebbero la penalizzazione.

Phantom Update 3

Arriviamo al 19 novembre 2015, e Google rilascia un documento con la nuova versione delle linee guida per i rater di qualità (Search Quality Rating Guidelines).
Contemporaneamente si verificano forti e improvvisi sbalzi alle serp. Google non fa nessun annuncio in merito, e quindi questo ulteriore "aggiornamento fantasma" viene chiamato Phantom Update 3!

Dalle analisi si possono fare un paio di considerazioni rispetto al precedente Phantom:
  1. Qualità dei contenuti: viene affinata la valutazione dei contenuti di scarsa qualità: ci si avvicina ancora di più a cercare di far rispettare le reali intenzioni dell'utente e a soddisfare la sua query.

    Se i contenuti sono comunque consistenti ma non danno un reale aiuto e non soddisfano i suoi bisogni, la pagina in quella search può essere penalizzata.
    In particolare vengono colpite le pagine con liste di link ad altre pagine, e scarso contenuto (le cosiddette pagine di categoria).

  2. Contenuti copiati: mentre nell'aggiornamento precedente di aprile i contenuti copiati da altri siti venivano indiscriminatamente colpiti, ora sembra che almeno in qualche caso questo non sia fattore di penalizzazione!

    Se il testo duplicato riesce comunque ad essere proposto all'utente soddisfacendo le sue esigenze e con una buona user experience, il sito non dovrebbe avere problemi di perdita di rank!

 

Come non essere penalizzati

Negli aggiornamenti "Phantom", Google è stata ancora più ermetica che in passato (da qui, il nome!), e non ha rilasciato molte indicazioni.
Un forte indizio è stato dato con Phantom 3, che si è verificato in concomitanza con l'uscita delle linee guida per i rater di qualità.
Il mio consiglio è quindi quello di seguire queste direttive che spiegano bene come Google interpeta la qualità di un sito.
Un ottima descrizione delle Search Quality Rating lo si trova in questo articolo del Tagliaerbe.

In sostanza bisogna sempre creare una qualità che soddisfi le esigenze l'utente che vuole arrivare alla nostra pagina con una search. E risolvere i suoi problemi!

 

[Aggiornamento 05 giugno 2017]
Phantom Update 5

Ormai ogni aggiornamento corposo dell'algoritmo che non viene menzionato da Google ma che ha effetti ben visibili, viene battezzato "Phantom".

All'inizio di Febbraio del 2017 ci sono grossi scossoni: in realtà se ne rilevano due!

In linea con l'andamento recente, che prevede continui update dell'algoritmo verso il miglioramento della qualita delle search.
Infatti si registra qualche grosso calo anche in gennaio e dopo l'inizio di febbraio, ma i due più consistenti sono questi.

  • Il primo avviene l'1-2 Febbraio. Sembra aver colpito molti siti che abusavano di backlink provenienti da Private Blog Network (PBN)
    Pare trattarsi quindi di un aggiornamento di Penguin, anche se si registra qualche calo pure in siti che non abusano di backlink.
  • Il secondo avviene il 7 Febbraio.
    Questa volta sembra valutare la qualità in generale del sito, quindi più vicino a Panda, o meglio ad un "Quality Update".
    Vengono colpiti siti anche importanti che:
    • Abusano di spazi pubblicitari
    • Mancano di verticalità: sono molto generici in svariati settori, e con scarso valore: molti siti di news hanno subito grossi cali!
    • Hanno contenuti brevi.
    • Non danno valore aggiunto, e hanno l'unico fine di monetizzare il più possibile.
    • Con brutta esperienza di navigazione, come popup aggressivi, paginazione che frammenta inutilmente l'articolo, etc.
    • Con alta frequenza di rimbalzo (Bounce Rate).

 

Come non essere penalizzati

In questi due aggiornamenti, per non essere penalizzati bisogna aver cura di evitare le cause descritte sopra!
Dall'uso di PBN e abuso di backlink, all'inconsistenza dei contenuti e scarsa User Experience.

Infine, quando possibile puntare alla verticalità dei contenuti, cioè dare valore specializzandosi sul settore.
Sembra infatti che Google premi questa caratteristica, anche se si è visto che diversi siti generalisti, ma con contenuti di qualità, non hanno subito penalizzazioni!

Algoritmo Rankbrain

RANKBRAIN

Dal 27 ottobre 2015, da un articolo di Danny Sullivan si fa un gran parlare del nuovo rilascio Google "RankBrain".

In realtà è stato lanciato ad inizio 2015, ed è diventato a pieno regime già da diversi mesi.

Ma cos'è? Cosa fa?
RankBrain aumenta il riconoscimento semantico delle query da parte di Google, e in sostanza ordina le pagine selezionate dalla ricerca, escludendo quelle che contengono parole non direttamente collegate con il campo semantico della query dell'utente.

Questo parrebbe un ottimo risultato: pensa a quante volte hai fatto ricerche in passato e nei risultati c'erano molte pagine che non c'entravano nulla con quello che volevi!

Ma quindi, occupandosi della parte semantica, questa è la nuova versione di Hummingbird?

Beh, da un lato RankBrain migliora notevolmente l'interpretazione semantica delle query, che era stata introdotta dal colibrì.
Dall'altro lato, si dice che RankBrain è una componente di Hummingbird, in quanto con questo nome ora si intende l'intero algoritmo di ricerca di Google!

Ma come funziona?
Si basa su una lista di sinonimi associati ad ogni parola, e di un algoritmo (appunto detto di stemming) che li processa.

Il motto diventa: "Cose, non stringhe di parole" (“Things, not strings”) che identifica il percorso verso la comprensione del significato completo delle query, oltre le singole parole chiave.

In sostanza: le parole possono essere legate a concetti differenti.
Ad esempio "tv" si può associare al concetto di apparecchio televisore, oppure di trasmissioni Tv. O anche... la targa di Treviso!

Per ogni parola sono associati dei legami (vettori) con le altre parole che ne identificano il concetto di appartenenza.

Rankbrain cerca di apprendere tramite meccanismi di machine learning (la macchina apprende da se stessa) quali sono i concetti legati alle parole di una determinata query.

Negli esempi di figura, digitando "Vita di Punturicchio" vengono mostrati risultati relativi al pittore. Con "Vittorie di Pinturicchio" invece, il motore capisce che non vogliamo info sul vero Pinturicchio, ma sul calciatore Del Piero, che era soprannominato così.

Riconoscimento Semantico per Rankbrain

Allo stesso modo, quando digitiamo una parola sulla barra di ricerca, un meccanismo di autocompilazione ci da dei suggerimenti: sono quelli più probabili per Google.

Aggiungendo una parola o anche solo una lettera, i suggerimenti cambiano. Di questa procedura si occupa RankBrain!

Ma come fa ad apprendere queste informazioni, associare i vettori alle varie parole e sciegliere tra i contesti più probabili?

Sia in maniera automatica che... manuale: creare liste di sinonimi e connessioni vettoriali tra di esse, è eseguito inizialmente con lavoro umano, e in parte elaborati dal Knowledge Graph, che è il primo meccanismo lanciato da Goolge per il riconoscimento semantico.

Poi tramite i miliardi di query che vengono fatte ogni giorno, si creano sempre più connessioni imparando direttamente dalle scelte degli utenti.
Vengono analizzate le search del passato e con procedure legate all'intelligenza artificiale si cerca di capire ogni volta il reale fabbisogno dell'utente.

RankBrain è stato quindi introdotto per gestire ed interpretare le query complesse, di più parole (le famose Long-Tail Keywords) per restituire le pagine più attinenti alle query degli utenti.

Un notevole miglioramento al riconoscimento semantico di Hummingbird, che aveva qualche problema in caso di più concetti associati ad una stessa parola.

Certamente RankBrain, oltre a valutare le varie query è anche uno dei fattori più determinanti tra i 200 esistenti per valutare il rank di una pagina, controllando la qualità dei contenuti durante l'interpretazione delle associazioni tra parole.

 

Come non essere penalizzati

A questo punto dimenticati eccessi di parole chiave nel testo (keyword stuffing) e a mio avviso cade definitivamente il concetto di keyword density, tanto decantato dai SEO fino a poco fa.

Inseriamo pure le nostre keyword nel testo, ma anche tutti i vari sinonimi e attinenze varie.

Una volta ancora, se fosse necessario ripeterlo, dimentichiamoci di dover scrivere per far contento il motore, e occupiamoci invece di dare una risposta esauriente all'utente, in modo da soddisfare le sue esigenze e risolvere le sue problematiche.

Se sarà felice l'utente, sara felice anche Google!

Aggiornamento Fred

[Aggiornamento 08 giugno 2017]

FRED

L'8 marzo 2017 si notano forti terremoti nelle serp.
E' un grosso update, battezzato "Fred" da una battuta di Gary Illyes di Google, legato fortemente alla qualità del sito web, e quindi molto affine a Panda.

Anche qui pochissime notizie da Google: trend al quale dovremo abituarci visti i continui rilasci di aggiornamenti senza dichiarazioni ufficiali!

Si notano tra i siti colpiti, molti con eccessi di sovraottimizzazione o basati sulle affiliazioni.
In pratica, Google ci dice che non ritiene un sito di qualità chi monetizza senza dare un reale valore agli utenti.

A conferma di questo, molti siti colpiti che avevano ecceduto con annunci pubblicitari, una volta rimossi hanno in generale recuperato le posizioni perse.

In sostanza, Fred sembra guardare in generale alla qualità di un sito, in base a numerosi parametri!
Non come aggiornamenti del passato che miravano a colpire una specifica caratteristica.

Vengono comunque segnalati molti casi di "falsi positivi", cioè siti che non dovrebbero essere colpiti in base a tutti i fattori di qualità, ma che invece subiscono pesanti cali.
Nelle community Seo più di qualcuno sbuffa e accusa Google.
Nelle settimane successive molti di questi siti recuperano posizioni, quindi probabilmente è stato lanciato qualche altro update di aggiustamento per Fred.

Prevedo quindi per il futuro:

  1. Aggiornamenti continui dell'algoritmo: più o meno corposi, ma in brevi periodi di tempo.
  2. Multifattorialità: questi andranno a considerare diversi parametri ogni volta.
    Non avra più molto senso, quindi, classificarli come in passato.
  3. Scarse news da parte di Google: che riterrà quasi una normale routine quotidiana l'aggiornamento del proprio algoritmo.
    Questo porterà a chiamare i più corposi con l'ennesima versione di "Phantom", o con qualche altro nome particolare, come in questo caso per Fred.

Come non essere penalizzati

In queste settimane si è scritto tanto su Fred, e su cosa fare per non essere penalizzati.
Ho trovato tantissime opinioni, anche ben documentate con casi reali, su cosa fare e cosa non fare.

A mio avviso, però, bisogna tener conto della multifattorialità di questo update, unito allo scarso rilascio di news ufficiali, che porta ad enunciare decine di rimedi e cose da evitare, tutte riconducibili in generale alla qualità del sito!

E questa... nebulosità degli aggiornamenti sarà probabilmente la regola per i futuri rilasci di Google.

Potremmo riassumere le tracce principali per non essere penalizzati in:
  • Rispetto dei Quality Raters di Google.
  • No a contenuti scarni, copiati, falsi o in generale di scarso valore.
  • Evitare eccessi di pubblicità e banners.
  • Chiarezza ed elevata User Experience.
  • Pagina per l'utente, non per Google o per monetizzare.

Altri Algoritmi/Aggiornamenti

Da Mountain View escono in continuazione decine di aggiornamenti dell'algoritmo, ogni anno.

A volte sono piccoli aggiustamenti, a volte sono forti cambiamenti come quelli elencati sopra.
Altre uscite da ricordare sono:

Page Rank (1998)

E' il 1998, Larry Page e Sergey Brin lanciano il loro motore di ricerca, e l'algoritmo viene chiamato Page Rank.
E' stato il primo nome che Google ha dato ad una componente del suo algoritmo di valutazione delle pagine.

Definisce la popolarità di una pagina in base ai link in ingresso (backlink). Da un valore da 0 a 10 (link popularity) ad ogni singola pagina.
Negli anni subirà continui aggiornamenti, fino a far perdere di importanza le sue caratteristiche iniziali.

Top Heavy (Gennaio 2012)

Lanciato per penalizzare le pagine con un alto numero di banner pubblicitari rispetto ai contenuti utili per l'utente.

In genere colpisce tutte le forme di pubblicità online non desiderata in eccesso.
La dichiarazione dice: nell’area visibile (above the fold) di una pagina, l'area degli annunci pubblicitari deve essere minore o uguale all'area dei contenuti.

Knowledge Graph (Maggio 2012)

Primo passo di Google verso il riconoscimento semantico delle query.
Ogni parola non viene più considerata come una stringa, ma come un'entità (Thing, not String).

Con la knowledge base Google crea un enorme database dove memorizza tutte le connessioni (vettori) tra le parole.

Pirate (Agosto 2012)

Esce questo aggiornamento, chiamato DMCA Penalty (“Pirate”), per combattere quei siti pirata che diffondono software, ma anche musica, film, etc. in maniera illegale.

Una successiva versione, 2.0, esce due anni più tardi, il 21 Ottobre 2014.

Payday Loan (Giugno 2013)

E' un aggiornamento per l'anti-spam nelle pagine web.
La versione 2.0 esce un anno dopo, nel maggio 2014.

Google Pigeon (Luglio 2014)

Se le query si riferiscono al territorio (Ristoranti, servizi locali, etc...), da rilevanza ai risultati in locale, vicini all'utente della search.
In luglio esce per gli States, e in dicembre per altre nazioni.

Conclusioni

Abbiamo visto la storia degli algoritmi lanciati dal celebre motore, e quali sono le numerose linee guida suggerite per non essere penalizzati.

Oltre a quelle già note, sono da considerare le intenzioni future, già tante volte espresse e confermate, della casa di Mountain View, cioè una valutazione dei siti che tende sempre di più ad avvicinarsi al giudizio umano!

Per non essere penalizzato quando scrivi le tue pagine web ora e in futuro, oltre a seguire le indicazioni di questo articolo, tieni sempre come base di fondo la mentalità di creare qualcosa che sia più utile possibile al target di utenti che interrogano il motore, come se dovessero essere proprio loro a doverti giudicare!

In questa maniera dovresti essere al riparo da qualsiasi algoritmo o aggiornamento.
Del passato, del presente e del futuro!

 

Bibliografia e approfondimenti

Per approfondire l'argomento, consiglio i numerosi articoli del blog del tagliaerbe di Davide Pozzi. Una fonte preziosa e sempre aggiornatissima su questo e numerosi altri argomenti web! Segnalo inoltre:

Se vuoi approfondire, chiarire meglio o... affidarti a noi per il tuo progetto

E se ti è piaciuto questo articolo, Condividilo sui social!

 

SeoTrek - Padova

via Da Noli, 12, 35138 Padova Italia - Tel. +39 349.8746643

E-mail: assistenza@seotrek.it

Copyright © 2016 - SeoTrek - Padova

Produced by: SeoTrek - Padova

 

Torna a inizio pagina
Condividi su Facebook
Condividi su Linkedin
Condividi su Facebook Condividi su Linkedin Condividi su WhatsApp
Scrivi! Chiama! Whatsapp!
Chiama! +39 349.8746643          Scrivi! assistenza@seotrek.it