Google Panda 4.2

Dopo alcuni mesi dall’uscita dell’ultimo aggiornamento, la nuova versione dell’algoritmo di “Panda” sta per essere messo online. Secondo il portale searchengineland.com, infatti, pare che Panda 4.2 verrà gradualmente introdotto, a partire da questo fine settimana negli Stati Uniti, impiegando però diversi mesi per completare il suo rollout.

Google lavora costantemente al miglioramento dei suoi algoritmi,  la serie Panda, partita a marzo 2011, giunge con questo ultimo aggiornamento alla propria release numero 30.

Aggiornamento lento

A differenza dei suoi predecessori, il completamento della trentesima versione dell’algoritmo Panda richiederà diversi mesi. Al momento in cui scrivo, non è ancora noto quanto tempo sarà necessario al suo completamento. Di sicuro, i suoi effetti non si vedranno sulle SERP in tempi brevi. 

E’ un’opportunità per tutti i siti web che sono stati penalizzati se, i mesi trascorsi dall’uscita della precedente versione dell’ algoritmo di Panda, sono stati accompagnati dalla rimozione delle cause che hanno portato alla penalizzazione stessa. Se siete stati penalizzati da Panda 4.0 o da Panda 4.1 e avete investito in una consulenza SEO, con la relativa ottimizzazione del sito, potrebbe essere giunto il momento di raccogliere i frutti.

Panda garantisce la qualità dei contenuti

Il principale motivo che ha portato penalizzazioni un pò ovunque è relativo ai contenuti duplicati. Prima di Panda 4.0, e parlo in particolare degli ecommerce, non era difficile vedere pagine prodotto piene di fotografie e prive completamente di qualsiasi testo descrittivo. Ancora peggio, molti siti copiavano e incollavano il contenuto descrittivo fornito dal produttore, con il risultato di ottenere decine di siti con le stesse foto, pochi contenuti testuali o peggio, contenuti duplicati. 

Questo tipo di comportamento ha funzionato per molto tempo ma, dopo Panda 4.0 non funziona più. Oggi assistiamo alla progressiva ottimizzazione delle pagine dei prodotti attraverso la scrittura di contenuti originali, redatti da copywriter professionisti, contenuti sicuramente differenti da quelli della concorrenza.

Naturalmente, mentre alcuni siti penalizzati avranno l’opportunità di recuperare, altri che non hanno voluto seguire le regole di ottimizzazione dettate da Google, e che magari sono riusciti ad evitare la penalizzazione, verranno questa volta catturati nella rete del gigante di Mountain View. 

 

 

 

Panda Update 4.1 : evitiamo le penalizzazioni

Google Panda Update 4.1: segreti e stratagemmi per non farsi penalizzare dall’algoritmo di ricerca

Introdotto nel marzo 2011 l’aggiornamento dell’algoritmo di ricerca di Google Panda è stato a fine settembre nuovamente rivisto. Al momento dell’introduzione Panda vide la luce per contrastare il fenomeno delle Content Farm, aggregatori di notizie e contenuti a 360° messi in piedi grazie alla pubblicazione di contenuti duplicati, con il solo scopo di attirare maggior traffico possibile, e di conseguenza pubblicità.

google+-logoPanda Update 4.1 è la ventisettesima uscita dell’algoritmo di Google. Il colosso di Mountain View lo ha annunciato tramite un post su Google+ lo scorso 24 settembre, dicendo che il ‘roll-out’, la fase di transizione da un algoritmo all’altro, sarebbe stata lenta arrivando a durare almeno una settimana. Nel frattempo qualcosa comincia già a cambiare (secondo Google dal 3% al 5% del totale delle ricerche) e gli analisti stanno già constatando fluttuazioni e modifiche nel ranking.

Vediamo così di scoprire cosa c’è di nuovo e quali saranno le conseguenze per gli addetti SEO e le imprese presenti online. Nelle intenzioni di Google come al solito c’è l’idea di rendere il suo motore di ricerca (di cui l’algoritmo è il core, il cuore) ancora più preciso. L’obbiettivo a cui tendere è poi quello di far emergere sempre più i siti di alta qualità per poterli vedere e classificare meglio. 
Ma se da una parte emergono nuove possibilità per alcuni attori medio-piccoli del web, dall’altra Panda Update 4.1 porta con sé anche nuove penalizzazioni. Nuovi siti che in precedenza non erano stati colpiti da Panda potrebbero subire un improvviso calo di traffico. Vediamo di scoprire perché.penalizzazioni-matt-cutts

Panda lavora proprio al punto di intersezione fra una miriade di funzioni, perciò nello scoprire come funziona dobbiamo essere profondamente consapevoli che bisogna considerarle tutte quante, senza escluderne nemmeno una. In altre parole possiamo dire che se non facciamo bene su tutta la linea, siamo in qualche modo a rischio penalizzazione. 
Anzitutto partiamo dalle certezze, che fino ad oggi si chiamano contenuti originali. La ricerca organica deve il suo successo proprio a questo tipo di contenuti che sono diametralmente opposti al copia&incolla. Il contenuto fresco e assolutamente non copiato paga, ma anche il modo in cui i siti sono progettati e la qualità della scrittura. Infatti il web del 2014 è attraversato da una miriadi di flussi di informazioni facilmente disponibili e Google vuole fornire solo i migliori risultati per le sue ricerche.

Passiamo poi ad un altro argomento spinoso e centrale anche in Panda Update 4.1 : le tecniche di link building. Quali sono le tecniche di link building che ancora valgono e fanno aumentare di valore il nostro sito?

A livello di article marketing resistono ancora le Article Directory, ma bisogna agire con cognizione di causa. Non vi limitate ad utilizzare un solo metodo per portare link di ritorno. Guardate con interesse anche al guest posting. Sicuramente il guest posting apre scenari più importanti e da sfruttare. Dunque, quando andate a convincere qualcuno a scrivere un pezzo in cui si parla (o si linka) al vostro sito, puntate su contenuti di alta qualità e collegamenti rilevanti.

Per farlo dovrete conoscere direttamente altri blogger, intessere relazioni, a costruire un rapporto personale con loro.

Quando si parla poi di link building bisogna per forza di cosa tenere in considerazione fattori come PR, DA PA, di cui vi abbiamo parlato qualche settimana fa.

content-is-kingQuando parliamo di contenuti dobbiamo anche prendere in considerazione una lunghezza standard sotto cui non scendere. Quando su una pagina o un articolo di news ci sono almeno 2.000 caratteri allora potremo avere un buon mix di parole chiave diversificate. Aumentare la densità di parole chiave e includere parole chiave semanticamente latenti migliora il flusso di traffico verso il vostro sito.
In fin dei conti il nuovo algoritmo di Google, Panda 4.1, è qui per spingervi a pensare fuori dagli schemi e provare dinamiche di creazione, pubblicazione, condivisione, diffusione che i vostri concorrenti non stanno facendo.

Attenzione poi che l’algoritmo non è soltanto proiettato al futuro, ma agisce anche in maniera retroattiva. La cosa migliore da fare reimpostando le proprie politiche di web management è una verifica dei contenuti a partire proprio da quelli più vecchi. Eliminate i duplicati e i contenuti “thin”, quelli sottili e scarni, che Panda giudica come poco adatti. 

 

 

7 consigli per non essere penalizzati da Pigeon

Pigeon : il nuovo aggiornamento dell’algoritmo di Google

Pochi giorni fa, Google ha annunciato l’avvenuta uscita, negli Stati Uniti, di un nuovo e importante aggiornamento algoritmico per la ricerca locale, chiamato update “Pigeon“. Non ci sono ancora molti dettagli sul cosiddetto Pigeon, ma i webmaster statunitensi segnalano notevoli cambiamenti nella loro classifica locali negli ultimi giorni.

Che cosa sappiamo di Pigeon ?

Google ha confermato che l’aggiornamento è online dal 24 luglio, per i risultati delle ricerche degli Stati Uniti in inglese , ma non ha ancora rivelato quando l’aggiornamento sarà disponibile negli altri paesi. Lo scopo dell’aggiornamento è quello di fornire risultati più pertinenti ed accurati nelle ricerche locali. A differenza degli aggiornamenti Penguin e Panda, questo non é un aggiornamento teso a pulire le SERP dai contenuti di bassa qualità, ma un cambiamento di base per l’algoritmo di ranking per la ricerca locale. Vediamo quali sono stati i primi problemi riscontrati in USA.

Scomparsa delle liste con mappa per un numero enorme di parole chiave

mappa locale pigeonUno dei principali cambiamenti osservato è la riduzione delle liste con mappa locale per un grandissimo numero di parole chiave. Secondo Moz, questo numero scende dal 12,1% delle query locali del 23 Luglio al solo 3,3% di quelle effettuate il 27 luglio.

 

Le query locali tendono a dipendere di più dall’autorità del sito

Dai primi riscontri, pare che Il nuovo algoritmo di ricerca locale sia più legato ai  tradizionali segnali ranking di ricerca web. In altre parole le classifiche locali saranno ora determinate dall’autorità del dominio e da tutti gli altri fattori SEO come se la query non fosse locale.

Aumento dell’importanza delle directory locali

Secondo le prime ricerche post-aggiornamento, i siti di directory locali, come ad esempio Yelp, hanno visto un notevole impulso in classifica. Per alcune query, tutta la SERP è costruita solo da directory locali di qualità.

Qualche consiglio per superare Pigeon senza danni

Anche se i cambiamenti nella SERP sembrano importanti, i principi fondamentali della SEO locale sono tenuti a rimanere gli stessi. Quindi, ecco alcuni consigli generali per il vostro business locale.

Creare una pagina Google+ locale per la tua azienda

La creazione di una pagina Google+ locale per il tuo business è il primo passo per essere inclusi nell’indice locale di Google. Il secondo passo è quello di verificare la proprietà del profilo. Ciò comporta in genere riceve una cartolina / lettera / telefonata da Google che contiene un numero di pin che è necessario inserire per completare la verifica.

Scegliete la categoria corretta per la vostra pagina Google+ locale

Se si desidera comparire nei risultati locali per una ricerca come “dentisti a Torino”, la vostra azienda deve essere catalogata, in Google+, come un dentista. Se si è classificata l’attività in maniera diversa, non avete speranza di apparire per i termini di ricerca locali che identificano il vostro business.

Prefisso telefonico corrispondente all’area locale.

In fase di registrazione su Google+, occorre fornire un numero di telefono principale che corrisponda a quello usato nell’area geografica dove dichiarate sia collocata la vostra attività locale.

Controllo incrociato dati del sito web e dati forniti alla pagina Google+ locale

Google verifica che i dati forniti alla vostra pagina di Google+ locale coincidano con i dati locali che forniti sul vostro sito web (non hai ancora un sito web ? Non comparirai mai su Google :-)).

Coerenza dei dati aziendali sulle directory locali

Assicuratevi che il vostro nome, l’indirizzo e il numero telefonico siano coerenti in tutte le directory locali dove il vostro business è elencato. Indirizzi diversi indicati per il vostro business su Booking  e TripAdvisor, per esempio, possono pregiudicare la vostra visibilità.

yelp-pigeon

Incrementare il numero di recensioni positive su Google+ locale e sulle fonti di terze parti

Il numero di recensioni positive ha un effetto positivo sulla classifica delle ricerche locali. Quindi assicuratevi di incoraggiare i clienti felici a lasciare recensioni positive della vostra attività e / o prodotto sulla pagina di Google+ locale e su qualsiasi altra pagina web, compresi i social media.

Includere la città nel tag titolo del tuo sito web.

Un altro fattore importante per la vostra pagina di destinazione “locale” è di avere la città target inclusa nel tag <Title> del vostro sito web di riferimento.

Questo è quanto, riprenderemo l’argomento quando verrà rivelata la data di uscita in Europa di Pigeon.

Capire algoritmi e penalizzazioni di Google

A proposito delle penalizzazioni di Google. una simpatica signora Toscana, mi ha recentemente contattato per un problema riguardante il suo e-commerce che, da un poco di tempo a questa parte, ha visto scendere notevolmente il numero delle visite.

Questa conversazione mi ha fatto capire come sia complicato, per i non addetti ai lavori, capire gli algoritmi che regolano il funzionamento dei motori di ricerca, e in particolare di Google, e gli effetti che i vari Panda, Penguin e Hummingbird possono avere sui nostri siti web. L’obiettivo di questo articolo è di fare un poco di chiarezza.

L’algoritmo di Google

Quando sono stati creati i primi motori di ricerca era abbastanza semplice, per un consulente SEO,  posizionare il sito del cliente nelle prime pagine dei risultati della ricerca.

Le regole da seguire erano poche e ben definite. Nella maggior parte dei casi, era sufficiente caricare nel codice del sito, e più precisamente nel meta tag keyword, le Keywords opportune per ottenere il risultato.

Google fu il primo, tra i motori di ricerca, a capire l’importanza della pertinenza nei risultati dei motori di ricerca. Fu allora i suoi tecnici svilupparono un algoritmo che potesse mostrare, in cima ai risultati della ricerca, quelli più pertinenti alla chiave di ricerca inserita dall’utente.

Oggi l’algoritmo di ricerca di Google, tiene conto di circa 200 fattori diversi per determinare l’ordine della pagina dei risultati della ricerca o SERP. Alcuni di questi sono conosciuti come ad esempio alcuni TAG del codice (Title, Description), altri fonte di speculazioni, come ad esempio il Google+1.

Infatti l’algoritmo della ricerca di Google è brevettato come segreto industriale. Tutto quello che si sa, tutto quello che fa un consulente SEO, è sperimentare per cercare di capire.

In passato, inoltre, l’algoritmo della ricerca di Google cambiava raramente. Stare in prima posizione con una determinata parola chiave garantiva la leadership della ricerca per settimane o mesi.

Tutto questo è cambiato con il lancio di “Caffeina” nel 2010. Da questo aggiornamento in poi, l’algoritmo di Google può cambiare più volte al giorno (Google fa circa 600 modifiche all’anno e la stragrande maggioranza di queste non sono annunciate).

Ma, quando Google fa davvero un grande cambiamento, lo annuncia e gli da un nome e tutti nel mondo SEO cercano di capire i cambiamenti introdotti e come usarli a proprio vantaggio.

Tre dei maggiori cambiamenti che si sono verificati negli ultimi anni sono chiamati stati chiamati Panda, Penguin e Hummingbird.

Panda

Panda, lanciato il 23 febbraio 2011, aveva lo scopo di mostrare i siti di alta qualità in cima ai risultati della  ricerca e di abbassare i siti di qualità inferiore.

Questo cambiamento algoritmico venne prima chiamato “Farmer”, (il rifermento è ad allevamenti di contenuti cioè siti che aggregano informazioni da molte fonti al fine di classificarsi bene in SERP per molte parole chiave diverse.) Il cambiamento dell’algoritmo è stato poi ufficialmente battezzato Panda dal nome di uno dei suoi creatori, Navneet Panda.

Nella maggior parte dei casi, i siti colpiti da Panda vengono penalizzati molto duramente. Infatti Panda tende ad essere un problema a livello di sito, il che significa che non si limita a retrocedere alcune pagine del tuo sito nei risultati dei motori di ricerca ma, tutto il sito che viene considerato di qualità inferiore.

Come recuperare una penalizzazione di questo genere ? Per rispondere a questa domanda, Google fa riferimento ad un post di uno dei suoi ingegnere, Amit Singhal, che dà una lista di controllo che è possibile utilizzare sul vostro sito per determinare se il sito è veramente di alta qualità:

  • Vi fidereste delle informazioni presentate in questo articolo?
  • Questo articolo è scritto da un esperto o appassionato che conosce bene l’argomento?
  • Il sito ha articoli duplicati, sovrapposti o ridondanti identici o simili con leggere varianti nelle parole chiave?
  • Vi fidereste a dare i dati della vostra carta di credito a questo sito ?
  • Vi sono errori di ortografia, stilistica, o di utilizzo del linguaggio in questo sito?
  • Vi sembra che il sito generi contenuti cercando di seguire il trend delle parole chiave più utilizzate del momento sui motori di ricerca?
  • L’articolo fornisce contenuti originali (informazioni, segnalazione, ricerche originali o analisi)?
  • La pagina fornisce un valore sostanziale rispetto ad altre pagine nei risultati di ricerca?
  • Il sito è un’autorità riconosciuta sul suo argomento?
  • Questo articolo fornisce una descrizione completa del tema?
  • Questo articolo contiene un’analisi perspicace o informazioni interessanti, al di là ovvio?
  • E ‘questo il tipo di pagina che ci si vuole condividere con un amico, o di raccomandare?
  • Questo articolo ha una quantità eccessiva di annunci pubblicitari che distraggono o interferiscono con il contenuto principale?
  • Vi aspettereste di vedere questo articolo in una rivista stampata, un’enciclopedia o un libro?
  • Sono le pagine prodotte con grande cura e attenzione al dettaglio?

Un elenco impressionante! Tutte queste domande sono poste da Google a noi per aiutarci a capire come gli utenti reali potrebbero valutare la qualità del tuo sito. Nessuno conosce tutti i fattori che Google utilizza per determinare la qualità del vostro sito attraverso gli occhi di Panda.

In definitiva però, l’attenzione è rivolta nel creare il miglior sito possibile per gli utenti. Ci sono alcuni fattori che sono ampiamente accettati e condivisi dalla comunità SEO, per quanto riguarda Panda:

Contenuti “Thin” Sottili

Una pagina “Thin” è una pagina che aggiunge poco o nessun valore per qualcuno che la sta leggendo. Questo non significa necessariamente che una pagina, per essere utile,  necessiti di un certo numero di parole, ma è anche vero che, molto spesso, le pagine con poche parole non sono super-utili.

Se si dispone di un gran numero di pagine del tuo sito che contengono contenuti “Thin” sottili l’algoritmo Panda può stabilire che la maggior parte delle pagine indicizzate sul tuo sito sono di bassa qualità.

Duplicazione dei contenuti

Ci sono diverse circostanze, relative alla duplicazione dei contenuti, che possono far vedere il vostro sito come un sito di bassa qualità dall’algoritmo Panda. La prima di queste si verifica quando un sito ha una grande quantità di contenuti copiati da altre fonti sul web.

Ad esempio un blog popolato da articoli che vengono presi da altre fonti e copiati di sana pianta. Google è piuttosto bravo nel capire che non sei l’autore di questo contenuto. Se l’algoritmo si accorge che una porzione considerevole del sito è costituita da contenuti che esistono già su altri siti, questo può causare una penalizzazione da parte di Panda.

È anche possibile incorrere in problemi con contenuti duplicati sul proprio sito. Un esempio potrebbe essere un sito che ha un gran numero di prodotti in vendita.

Facciamo il caso che ogni prodotto abbia una pagina separata per ogni variazione di colore e dimensioni. Se un prodotto è disponibile in 20 diversi colori e ciascuno di questi sono disponibili in 6 diverse dimensioni, allora significa che avete 120 pagine per lo stesso prodotto, che sono tutte pressoché identiche.

Ora, immaginate che, su questo sito, si vendano 4.000 prodotti. Questo significa avere quasi mezzo milione di pagine nell’indice di Google quando in realtà 4.000 pagine sarebbero sufficienti. In questo tipo di situazione, la penalizzazione è sicura anche se, con alcuni accorgimenti tecnici (utilizzo del canonical), il problema si può risolvere.

Contenuti di bassa qualità

Quando si scrive un articolo e lo si pubblica su un sito web o su un blog, l’ ideale sarebbe di presentare a Google l’informazione migliore, in assoluto, nel suo genere. In passato, molti SEO hanno dato consigli ai proprietari dei siti dicendo che era importante alimentare sempre di nuovi contenuti blog e siti web  aggiungendo e indicizzando per Google, sempre nuovi contenuti.

Ma, se ciò che si sta pubblicando non è un contenuto di alta qualità, si potrebbero avere più danni che benefici. Nella lista di domande da porsi, la lista di Amit Singhal citata sopra, molte si chiedono se il contenuto del tuo sito è prezioso, utile per i lettori.

Diciamo di avere un blog SEO e di prendere ogni giorno un breve trafiletto da ciascuno degli articoli di SEO più interessanti che ho letto on-line e di pubblicare, come un post sul mio blog, un loro riassunto.

Google privilegerà il mio articolo o i singoli articoli ?  Naturalmente il mio riassunto non sarà prezioso come gli articoli da cui ho tratto spunto. Ora, supponiamo di aver fatto cosi, ogni giorno, per 4 anni. Ora il mio sito ha oltre 4.000 pagine che contengono informazioni che sono solo citazioni di articoli di altri siti. Il valore aggiunto non sta nel mio sito, per il lettore. Questo è sicuramente un segnale di bassa qualità agli occhi dell’algoritmo di Panda.

Come recuperare le penalizzazioni di Google (Panda)

Google aggiorna l’algoritmo Panda all’incirca una volta al mese. Cosa succede quando interviene un aggiornamento nell’algoritmo Panda? L’algoritmo da un nuovo sguardo su ogni sito sul web e determina se  si presenta come un sito di qualità per quanto riguarda i criteri, aggiornati, che l’algoritmo Panda esamina.

Se il tuo sito è stato penalizzato da Panda e sono state apportate modifiche come la rimozione delle pagine “Thin” sottili e/o i contenuti duplicati, il prossimo aggiornamento di Panda dovrebbe portare ad un miglioramento della situazione.

Tuttavia, per alcuni siti, occorre aspettare almeno un paio di aggiornamenti di Panda per vedere la piena portata dei miglioramenti. Questo perché Google, a volte, può impiegare diversi mesi per rivisitare tutte le pagine e riconoscere i cambiamenti che avete fatto.

Il 20 maggio 2014, Google ha fatto un importante aggiornamento che hanno chiamato Panda 4.0. Questo aggiornamento ha causato un autentico “terremoto” per molti siti che hanno visto ridimensionare la propria presenza sulle pagine dei risultati delle ricerche, soprattutto in Italia.

Penguin

L’algoritmo Penguin, lanciato il 24 aprile 2012, ha come obiettivo, il ridurre il credito che alcuni siti hanno guadagnato attraverso la creazione di backlinks innaturali, al fine di ottenere un vantaggio nella pagina dei risultati della ricerca di Google.

Perché sono i backlinks sono importanti?

Un backlink è come un voto, una raccomandazione per il tuo sito. Se un sito, molto rispettato e importante, inserisce un backlink al tuo sito, allora questa è vista da Google come una raccomandazione per il tuo sito ed ha un grosso valore.

Naturalmente se il backlink arriva da un sito piccolo e sconosciuto la raccomandazione conta poco. Eppure,  ottenere un gran numero di queste piccole raccomandazioni, in passato, poteva fare la differenza. Ecco perché i consulenti SEO cercavano di ottenere il maggior numero di collegamenti che potevano da ogni possibile fonte.

Un’altra cosa che è importante per gli algoritmi di Google è il testo di ancoraggio. Il testo di ancoraggio è il testo cliccabile che gli utenti vedranno come risultato di un link.

Quindi, se un grande blog, come ad esempio il blog di MOZ, riceve molti backlinks con testo di ancoraggio “SEO blog” questo viene interpretato da Google come un segnale importante: il sito citato cosi tante volte per la chiave “SEO blog” è quello da porre nelle prime posizioni per questa ricerca.

Non è difficile immaginare come potesse essere semplice manipolare questa parte dell’algoritmo. Supponiamo di fare attività SEO per un hotel a Rimini, l’hotel Miramare.

In passato, uno dei modi che si avevano per ingannare l’algoritmo era di creare quanti più backlinks dalla rete utilizzando, come testo di ancoraggio, le stesse parole chiave per le quali volevo  ottenere il posizionamento. I miei backlinks avrebbero avuto anchor text tipo “Hotel Rimini”, “Albergo Rimini”, “Vacanze mare Rimini” e possibilmente tutte con lo stesso link http://www.miramare.it/.

Mentre un collegamento autorevole da un sito rispettato è buono, ma difficile da ottenere, quello che gli esperti SEO scoprirono fu che la creazione di un gran numero di link provenienti da siti di bassa qualità era abbastanza efficace.

Questa è la ragione per cui proliferarono, ma ancora oggi proliferano, collegamenti di basso valore facili da raggiungere come elenchi di directory, articoli autoprodotti, e link nei commenti e  nei messaggi dei forum.

Mentre non sappiamo esattamente quali fattori l’algoritmo Penguin analizza, sappiamo che  l’algoritmo sta tentando di rilevare i backlinks di bassa qualità.

John Mueller, di Google, ha detto più volte che Penguin è un algoritmo che considera tutto il sito. Ciò significa che se l’algoritmo Penguin determina che un gran numero di link al tuo sito sono di bassa qualità, allora questo riduce la fiducia di Google nei confronti di tutto il sito.

Come tale, l’intero sito vedrà una riduzione delle sue posizioni nei risultati della ricerca. Penguin ha colpito un sacco di siti drasticamente, in particolare quelli con un’alta quantità backlinks innaturali di basso livello.

Come recuperare da una penalizzazione di Penguin?

Penguin è una parte a se stante del complesso algoritmo di Google, proprio come Panda. Significa che l’algoritmo Penguin è rieseguito periodicamente e i siti coinvolti vengono rivalutati ad ogni ripetizione.

Penguin non viene eseguito molto spesso. L’ultimo aggiornamento è stato il 4 ottobre 2013. Il che significa che non possiamo aspettarci una nuova riconsiderazione automatica fino al prossimo update.

Al fine di recuperare da Penguin, è necessario identificare i link innaturali che puntano al tuo sito e rimuoverli, oppure se non è possibile rimuoverli si può chiedere a Google di non considerarli, attraverso lo strumento disavow.

Al prossimo aggiornamento di Penguin, se avete fatto un buon lavoro nel  ripulire i vostri link innaturali, potrete riconquistare la fiducia di Google. In alcuni casi, bisogna attendere anche un paio di aggiornamenti per tornare alla situazione precedente la penalizzazione.

Se non si è certi sul come identificare i collegamenti innaturali, vi segnalo le seguenti letture:

  • What is an unnatural link – An in depth look at the Google Quality Guidelines
  • The link schemes section of the Google Quality Guidelines

 

Lo strumento disavow è qualcosa da utilizzare se si capisce davvero come funziona. E ‘potenzialmente possibile fare più male che bene al tuo sito se si sconfessano i link inappropriati. Ecco alcune informazioni sull’utilizzo dello strumento disavow:

  • Google’s documentation on the disavow tool 
  • 7 things you may not know about Google’s disavow tool
  • Disavowed – Secrets of Google’s most mysterious tool

E ‘importante notare che quando i siti si liberano da una penalità Penguin, non riconquistano a pieno il top della SERP proprio a causa dei link innaturali rimossi.

Hummingbird

Google ha annunciato Hummingbird il 26 settembre 2013 dichiarando, tuttavia, che l’algoritmo era già operativo da un mese.

Hummingbird è una revisione completa di tutto l’algoritmo di ricerca di Google. Come Danny Sullivan ha fatto notare, se si considera l’algoritmo di Google come  un motore, Panda e Penguin sono cambiamenti  di algoritmo che si possono paragonare a pezzi del motore da sostituire, come un nuovo filtro o una nuova pompa di carburante.

Ma, Hummingbird non è solo una ulteriore aggiunta; Hummingbird è un motore completamente nuovo. Questo nuovo motore fa ancora uso di molte delle vecchie parti (come Panda e Penguin), ma una sua buona parte è completamente originale.

L’obiettivo dell’algoritmo Hummingbird è per Google capire meglio la query di un utente. Bill Slawski che scrive sui brevetti di Google ha un  grande esempio di questo nel suo post qui.

Egli spiega che quando qualcuno cerca “Qual è il posto migliore per trovare da mangiare a Milano?”, Hummingbird è in grado di discernere che l’utente, probabilmente, è interessato a risultati che mostrino “ristoranti”. Si ipotizza che questi cambiamenti erano necessari per rendere più efficace la ricerca vocale.

Quando stiamo digitando una query di ricerca, possiamo digitare “migliore agenzia SEO Torino”, ma quando parliamo di una query ad esempio tramite l’interrogazione vocale, siamo più propensi a dire qualcosa come: “Quale azienda a Torino offre i migliori servizi di SEO? “.

Il punto di Hummingbird è quello di capire meglio che cosa si aspettano come risultato gli utenti quando pongono domande come questa.

Allora, come faccio a recuperare o migliorare agli occhi di Hummingbird?

La risposta a questa domanda è essenzialmente quella di creare contenuti che rispondano alle domande degli utenti piuttosto che cercare di posizionare una pagina per una determinata parola chiave. Ma in realtà, questo è quello dovresti stare già facendo!

Sembra che l’obiettivo di Google con tutti questi cambiamenti di algoritmo (Panda, Penguin e Hummingbird) sia quello di incoraggiare i webmaster a pubblicare contenuti sempre migliori e utili per la propria nicchia.

In pratica fornire risposte alle persone che cercano. Se riesci a produrre contenuti che rispondono alle domande della gente, allora sei sulla strada giusta.

So che questo è una risposta veramente vaga quando si parla di “recuperare” una penalità di Hummingbird. Hummingbird è veramente diverso da Panda e Penguin.

Se un sito è stato retrocesso da Panda o Penguin, è perché Google ha perso un po ‘di fiducia nella qualità del sito. Se si riesce a risolvere quei problemi di qualità si può riconquistare la fiducia dell’ algoritmo e col tempo vedere i miglioramenti.

Ma, se la penalità compare poco dopo il lancio di Hummingbird, allora non c’è davvero un modo per recuperare le posizioni ottenute nelle classifiche utilizzando le parole chiave. È possibile, tuttavia, ottenere nuovo traffico trovando modi per ottenere contenuti più approfonditi e completi, utili per l’utente.

Questo articolo è liberamente tratto e tradotto da un post su MOZ diMarie Haynes : Your Google Algorithm Cheat Sheet: Panda, Penguin, and Hummingbird