Capire algoritmi e penalizzazioni di Google



A proposito delle penalizzazioni di Google. una simpatica signora Toscana, mi ha recentemente contattato per un problema riguardante il suo e-commerce che, da un poco di tempo a questa parte, ha visto scendere notevolmente il numero delle visite.

Questa conversazione mi ha fatto capire come sia complicato, per i non addetti ai lavori, capire gli algoritmi che regolano il funzionamento dei motori di ricerca, e in particolare di Google, e gli effetti che i vari Panda, Penguin e Hummingbird possono avere sui nostri siti web. L’obiettivo di questo articolo è di fare un poco di chiarezza.

L’algoritmo di Google

Quando sono stati creati i primi motori di ricerca era abbastanza semplice, per un consulente SEO,  posizionare il sito del cliente nelle prime pagine dei risultati della ricerca.

Le regole da seguire erano poche e ben definite. Nella maggior parte dei casi, era sufficiente caricare nel codice del sito, e più precisamente nel meta tag keyword, le Keywords opportune per ottenere il risultato.

Google fu il primo, tra i motori di ricerca, a capire l’importanza della pertinenza nei risultati dei motori di ricerca. Fu allora i suoi tecnici svilupparono un algoritmo che potesse mostrare, in cima ai risultati della ricerca, quelli più pertinenti alla chiave di ricerca inserita dall’utente.

Oggi l’algoritmo di ricerca di Google, tiene conto di circa 200 fattori diversi per determinare l’ordine della pagina dei risultati della ricerca o SERP. Alcuni di questi sono conosciuti come ad esempio alcuni TAG del codice (Title, Description), altri fonte di speculazioni, come ad esempio il Google+1.

Infatti l’algoritmo della ricerca di Google è brevettato come segreto industriale. Tutto quello che si sa, tutto quello che fa un consulente SEO, è sperimentare per cercare di capire.

In passato, inoltre, l’algoritmo della ricerca di Google cambiava raramente. Stare in prima posizione con una determinata parola chiave garantiva la leadership della ricerca per settimane o mesi.

Tutto questo è cambiato con il lancio di “Caffeina” nel 2010. Da questo aggiornamento in poi, l’algoritmo di Google può cambiare più volte al giorno (Google fa circa 600 modifiche all’anno e la stragrande maggioranza di queste non sono annunciate).

Ma, quando Google fa davvero un grande cambiamento, lo annuncia e gli da un nome e tutti nel mondo SEO cercano di capire i cambiamenti introdotti e come usarli a proprio vantaggio.

Tre dei maggiori cambiamenti che si sono verificati negli ultimi anni sono chiamati stati chiamati Panda, Penguin e Hummingbird.

Panda

Panda, lanciato il 23 febbraio 2011, aveva lo scopo di mostrare i siti di alta qualità in cima ai risultati della  ricerca e di abbassare i siti di qualità inferiore.

Questo cambiamento algoritmico venne prima chiamato “Farmer”, (il rifermento è ad allevamenti di contenuti cioè siti che aggregano informazioni da molte fonti al fine di classificarsi bene in SERP per molte parole chiave diverse.) Il cambiamento dell’algoritmo è stato poi ufficialmente battezzato Panda dal nome di uno dei suoi creatori, Navneet Panda.

Nella maggior parte dei casi, i siti colpiti da Panda vengono penalizzati molto duramente. Infatti Panda tende ad essere un problema a livello di sito, il che significa che non si limita a retrocedere alcune pagine del tuo sito nei risultati dei motori di ricerca ma, tutto il sito che viene considerato di qualità inferiore.

Come recuperare una penalizzazione di questo genere ? Per rispondere a questa domanda, Google fa riferimento ad un post di uno dei suoi ingegnere, Amit Singhal, che dà una lista di controllo che è possibile utilizzare sul vostro sito per determinare se il sito è veramente di alta qualità:

  • Vi fidereste delle informazioni presentate in questo articolo?
  • Questo articolo è scritto da un esperto o appassionato che conosce bene l’argomento?
  • Il sito ha articoli duplicati, sovrapposti o ridondanti identici o simili con leggere varianti nelle parole chiave?
  • Vi fidereste a dare i dati della vostra carta di credito a questo sito ?
  • Vi sono errori di ortografia, stilistica, o di utilizzo del linguaggio in questo sito?
  • Vi sembra che il sito generi contenuti cercando di seguire il trend delle parole chiave più utilizzate del momento sui motori di ricerca?
  • L’articolo fornisce contenuti originali (informazioni, segnalazione, ricerche originali o analisi)?
  • La pagina fornisce un valore sostanziale rispetto ad altre pagine nei risultati di ricerca?
  • Il sito è un’autorità riconosciuta sul suo argomento?
  • Questo articolo fornisce una descrizione completa del tema?
  • Questo articolo contiene un’analisi perspicace o informazioni interessanti, al di là ovvio?
  • E ‘questo il tipo di pagina che ci si vuole condividere con un amico, o di raccomandare?
  • Questo articolo ha una quantità eccessiva di annunci pubblicitari che distraggono o interferiscono con il contenuto principale?
  • Vi aspettereste di vedere questo articolo in una rivista stampata, un’enciclopedia o un libro?
  • Sono le pagine prodotte con grande cura e attenzione al dettaglio?

Un elenco impressionante! Tutte queste domande sono poste da Google a noi per aiutarci a capire come gli utenti reali potrebbero valutare la qualità del tuo sito. Nessuno conosce tutti i fattori che Google utilizza per determinare la qualità del vostro sito attraverso gli occhi di Panda.

In definitiva però, l’attenzione è rivolta nel creare il miglior sito possibile per gli utenti. Ci sono alcuni fattori che sono ampiamente accettati e condivisi dalla comunità SEO, per quanto riguarda Panda:

Contenuti “Thin” Sottili

Una pagina “Thin” è una pagina che aggiunge poco o nessun valore per qualcuno che la sta leggendo. Questo non significa necessariamente che una pagina, per essere utile,  necessiti di un certo numero di parole, ma è anche vero che, molto spesso, le pagine con poche parole non sono super-utili.

Se si dispone di un gran numero di pagine del tuo sito che contengono contenuti “Thin” sottili l’algoritmo Panda può stabilire che la maggior parte delle pagine indicizzate sul tuo sito sono di bassa qualità.

Duplicazione dei contenuti

Ci sono diverse circostanze, relative alla duplicazione dei contenuti, che possono far vedere il vostro sito come un sito di bassa qualità dall’algoritmo Panda. La prima di queste si verifica quando un sito ha una grande quantità di contenuti copiati da altre fonti sul web.

Ad esempio un blog popolato da articoli che vengono presi da altre fonti e copiati di sana pianta. Google è piuttosto bravo nel capire che non sei l’autore di questo contenuto. Se l’algoritmo si accorge che una porzione considerevole del sito è costituita da contenuti che esistono già su altri siti, questo può causare una penalizzazione da parte di Panda.

È anche possibile incorrere in problemi con contenuti duplicati sul proprio sito. Un esempio potrebbe essere un sito che ha un gran numero di prodotti in vendita.

Facciamo il caso che ogni prodotto abbia una pagina separata per ogni variazione di colore e dimensioni. Se un prodotto è disponibile in 20 diversi colori e ciascuno di questi sono disponibili in 6 diverse dimensioni, allora significa che avete 120 pagine per lo stesso prodotto, che sono tutte pressoché identiche.

Ora, immaginate che, su questo sito, si vendano 4.000 prodotti. Questo significa avere quasi mezzo milione di pagine nell’indice di Google quando in realtà 4.000 pagine sarebbero sufficienti. In questo tipo di situazione, la penalizzazione è sicura anche se, con alcuni accorgimenti tecnici (utilizzo del canonical), il problema si può risolvere.

Contenuti di bassa qualità

Quando si scrive un articolo e lo si pubblica su un sito web o su un blog, l’ ideale sarebbe di presentare a Google l’informazione migliore, in assoluto, nel suo genere. In passato, molti SEO hanno dato consigli ai proprietari dei siti dicendo che era importante alimentare sempre di nuovi contenuti blog e siti web  aggiungendo e indicizzando per Google, sempre nuovi contenuti.

Ma, se ciò che si sta pubblicando non è un contenuto di alta qualità, si potrebbero avere più danni che benefici. Nella lista di domande da porsi, la lista di Amit Singhal citata sopra, molte si chiedono se il contenuto del tuo sito è prezioso, utile per i lettori.

Diciamo di avere un blog SEO e di prendere ogni giorno un breve trafiletto da ciascuno degli articoli di SEO più interessanti che ho letto on-line e di pubblicare, come un post sul mio blog, un loro riassunto.

Google privilegerà il mio articolo o i singoli articoli ?  Naturalmente il mio riassunto non sarà prezioso come gli articoli da cui ho tratto spunto. Ora, supponiamo di aver fatto cosi, ogni giorno, per 4 anni. Ora il mio sito ha oltre 4.000 pagine che contengono informazioni che sono solo citazioni di articoli di altri siti. Il valore aggiunto non sta nel mio sito, per il lettore. Questo è sicuramente un segnale di bassa qualità agli occhi dell’algoritmo di Panda.

Come recuperare le penalizzazioni di Google (Panda)

Google aggiorna l’algoritmo Panda all’incirca una volta al mese. Cosa succede quando interviene un aggiornamento nell’algoritmo Panda? L’algoritmo da un nuovo sguardo su ogni sito sul web e determina se  si presenta come un sito di qualità per quanto riguarda i criteri, aggiornati, che l’algoritmo Panda esamina.

Se il tuo sito è stato penalizzato da Panda e sono state apportate modifiche come la rimozione delle pagine “Thin” sottili e/o i contenuti duplicati, il prossimo aggiornamento di Panda dovrebbe portare ad un miglioramento della situazione.

Tuttavia, per alcuni siti, occorre aspettare almeno un paio di aggiornamenti di Panda per vedere la piena portata dei miglioramenti. Questo perché Google, a volte, può impiegare diversi mesi per rivisitare tutte le pagine e riconoscere i cambiamenti che avete fatto.

Il 20 maggio 2014, Google ha fatto un importante aggiornamento che hanno chiamato Panda 4.0. Questo aggiornamento ha causato un autentico “terremoto” per molti siti che hanno visto ridimensionare la propria presenza sulle pagine dei risultati delle ricerche, soprattutto in Italia.

Penguin

L’algoritmo Penguin, lanciato il 24 aprile 2012, ha come obiettivo, il ridurre il credito che alcuni siti hanno guadagnato attraverso la creazione di backlinks innaturali, al fine di ottenere un vantaggio nella pagina dei risultati della ricerca di Google.

Perché sono i backlinks sono importanti?

Un backlink è come un voto, una raccomandazione per il tuo sito. Se un sito, molto rispettato e importante, inserisce un backlink al tuo sito, allora questa è vista da Google come una raccomandazione per il tuo sito ed ha un grosso valore.

Naturalmente se il backlink arriva da un sito piccolo e sconosciuto la raccomandazione conta poco. Eppure,  ottenere un gran numero di queste piccole raccomandazioni, in passato, poteva fare la differenza. Ecco perché i consulenti SEO cercavano di ottenere il maggior numero di collegamenti che potevano da ogni possibile fonte.

Un’altra cosa che è importante per gli algoritmi di Google è il testo di ancoraggio. Il testo di ancoraggio è il testo cliccabile che gli utenti vedranno come risultato di un link.

Quindi, se un grande blog, come ad esempio il blog di MOZ, riceve molti backlinks con testo di ancoraggio “SEO blog” questo viene interpretato da Google come un segnale importante: il sito citato cosi tante volte per la chiave “SEO blog” è quello da porre nelle prime posizioni per questa ricerca.

Non è difficile immaginare come potesse essere semplice manipolare questa parte dell’algoritmo. Supponiamo di fare attività SEO per un hotel a Rimini, l’hotel Miramare.

In passato, uno dei modi che si avevano per ingannare l’algoritmo era di creare quanti più backlinks dalla rete utilizzando, come testo di ancoraggio, le stesse parole chiave per le quali volevo  ottenere il posizionamento. I miei backlinks avrebbero avuto anchor text tipo “Hotel Rimini”, “Albergo Rimini”, “Vacanze mare Rimini” e possibilmente tutte con lo stesso link http://www.miramare.it/.

Mentre un collegamento autorevole da un sito rispettato è buono, ma difficile da ottenere, quello che gli esperti SEO scoprirono fu che la creazione di un gran numero di link provenienti da siti di bassa qualità era abbastanza efficace.

Questa è la ragione per cui proliferarono, ma ancora oggi proliferano, collegamenti di basso valore facili da raggiungere come elenchi di directory, articoli autoprodotti, e link nei commenti e  nei messaggi dei forum.

Mentre non sappiamo esattamente quali fattori l’algoritmo Penguin analizza, sappiamo che  l’algoritmo sta tentando di rilevare i backlinks di bassa qualità.

John Mueller, di Google, ha detto più volte che Penguin è un algoritmo che considera tutto il sito. Ciò significa che se l’algoritmo Penguin determina che un gran numero di link al tuo sito sono di bassa qualità, allora questo riduce la fiducia di Google nei confronti di tutto il sito.

Come tale, l’intero sito vedrà una riduzione delle sue posizioni nei risultati della ricerca. Penguin ha colpito un sacco di siti drasticamente, in particolare quelli con un’alta quantità backlinks innaturali di basso livello.

Come recuperare da una penalizzazione di Penguin?

Penguin è una parte a se stante del complesso algoritmo di Google, proprio come Panda. Significa che l’algoritmo Penguin è rieseguito periodicamente e i siti coinvolti vengono rivalutati ad ogni ripetizione.

Penguin non viene eseguito molto spesso. L’ultimo aggiornamento è stato il 4 ottobre 2013. Il che significa che non possiamo aspettarci una nuova riconsiderazione automatica fino al prossimo update.

Al fine di recuperare da Penguin, è necessario identificare i link innaturali che puntano al tuo sito e rimuoverli, oppure se non è possibile rimuoverli si può chiedere a Google di non considerarli, attraverso lo strumento disavow.

Al prossimo aggiornamento di Penguin, se avete fatto un buon lavoro nel  ripulire i vostri link innaturali, potrete riconquistare la fiducia di Google. In alcuni casi, bisogna attendere anche un paio di aggiornamenti per tornare alla situazione precedente la penalizzazione.

Se non si è certi sul come identificare i collegamenti innaturali, vi segnalo le seguenti letture:

 

Lo strumento disavow è qualcosa da utilizzare se si capisce davvero come funziona. E ‘potenzialmente possibile fare più male che bene al tuo sito se si sconfessano i link inappropriati. Ecco alcune informazioni sull’utilizzo dello strumento disavow:

E ‘importante notare che quando i siti si liberano da una penalità Penguin, non riconquistano a pieno il top della SERP proprio a causa dei link innaturali rimossi.

Hummingbird

Google ha annunciato Hummingbird il 26 settembre 2013 dichiarando, tuttavia, che l’algoritmo era già operativo da un mese.

Hummingbird è una revisione completa di tutto l’algoritmo di ricerca di Google. Come Danny Sullivan ha fatto notare, se si considera l’algoritmo di Google come  un motore, Panda e Penguin sono cambiamenti  di algoritmo che si possono paragonare a pezzi del motore da sostituire, come un nuovo filtro o una nuova pompa di carburante.

Ma, Hummingbird non è solo una ulteriore aggiunta; Hummingbird è un motore completamente nuovo. Questo nuovo motore fa ancora uso di molte delle vecchie parti (come Panda e Penguin), ma una sua buona parte è completamente originale.

L’obiettivo dell’algoritmo Hummingbird è per Google capire meglio la query di un utente. Bill Slawski che scrive sui brevetti di Google ha un  grande esempio di questo nel suo post qui.

Egli spiega che quando qualcuno cerca “Qual è il posto migliore per trovare da mangiare a Milano?”, Hummingbird è in grado di discernere che l’utente, probabilmente, è interessato a risultati che mostrino “ristoranti”. Si ipotizza che questi cambiamenti erano necessari per rendere più efficace la ricerca vocale.

Quando stiamo digitando una query di ricerca, possiamo digitare “migliore agenzia SEO Torino“, ma quando parliamo di una query ad esempio tramite l’interrogazione vocale, siamo più propensi a dire qualcosa come: “Quale azienda a Torino offre i migliori servizi di SEO? “.

Il punto di Hummingbird è quello di capire meglio che cosa si aspettano come risultato gli utenti quando pongono domande come questa.

Allora, come faccio a recuperare o migliorare agli occhi di Hummingbird?

La risposta a questa domanda è essenzialmente quella di creare contenuti che rispondano alle domande degli utenti piuttosto che cercare di posizionare una pagina per una determinata parola chiave. Ma in realtà, questo è quello dovresti stare già facendo!

Sembra che l’obiettivo di Google con tutti questi cambiamenti di algoritmo (Panda, Penguin e Hummingbird) sia quello di incoraggiare i webmaster a pubblicare contenuti sempre migliori e utili per la propria nicchia.

In pratica fornire risposte alle persone che cercano. Se riesci a produrre contenuti che rispondono alle domande della gente, allora sei sulla strada giusta.

So che questo è una risposta veramente vaga quando si parla di “recuperare” una penalità di Hummingbird. Hummingbird è veramente diverso da Panda e Penguin.

Se un sito è stato retrocesso da Panda o Penguin, è perché Google ha perso un po ‘di fiducia nella qualità del sito. Se si riesce a risolvere quei problemi di qualità si può riconquistare la fiducia dell’ algoritmo e col tempo vedere i miglioramenti.

Ma, se la penalità compare poco dopo il lancio di Hummingbird, allora non c’è davvero un modo per recuperare le posizioni ottenute nelle classifiche utilizzando le parole chiave. È possibile, tuttavia, ottenere nuovo traffico trovando modi per ottenere contenuti più approfonditi e completi, utili per l’utente.

Questo articolo è liberamente tratto e tradotto da un post su MOZ diMarie Haynes : Your Google Algorithm Cheat Sheet: Panda, Penguin, and Hummingbird

Cugino smanettone ovvero chi meno spende più spende


Il cugino smanettone e come rovinare la propria reputazione online

Riprendiamo l’argomento già trattato in precedenti articoli e cioè’, perché’ affidare ad una web agency la realizzazione del sito web aziendale, la tua immagine sul web. Affidarsi ad un ottima web agency significa ottenere dei risultati in termini di profitto dal vostro business online.

Inoltre se avete una qualsiasi attività, non potete correre il rischio di mostrare su internet una immagine approssimativa e poco professionale dei vostri prodotti e servizi. Non esiste “cugino smanettone” inteso come parente o amico che a tempo perso e per pochi soldi possa realizzare un sito web professionale e che dia risultati soddisfacenti

Prendiamo ad esempio l’ottimizzazione per i motori di ricerca. In fase di realizzazione di un sito web, un esperto SEO è in grado di porre in atto tutti gli accorgimenti dettati da Google. Il cugino smanettone per sua stessa natura non puo’ essere aggiornato sulle continue modifiche dell’algoritmo che Google utilizza per le ricerche. Questo ha un grosso impatto in termini di visibilità agli occhi dei motori di ricerca del vostro sito web.

Una web agency molto probabilmente, realizzerà il sito web con wordpress, il cms più utilizzato al mondo. Anche da un punto di vista puramente tecnico, un esperto SEO è sempre informato non solo sulle modifiche di Google ma anche sulla legislatura legata al web.

Negli ultimi tempi c’e’ stato un forte interesse legislativo nei confronti della privacy. Questo interesse ha partorito vari obblighi per i proprietari di siti web che se non messi in atto, rischiano di provocare sanzioni anche molto pesanti da un punto di vista economico.

Negli scorsi anni è stato introdotto prima l’obbligo di una pagina informativa sulla privacy e più di recente, una normativa europea sui cookies che impone ad ogni sito web una pagina informativa sull’utilizzo dei cookies. Nel prossimo futuro entrerà in vigore una ulteriore normativa sulla protezione dei dati personali, la cosi’ detta norma GDPR.

Solo un professionista è al corrente delle evoluzioni tecniche e normative del web.

Ma a quali caratteristiche deve corrispondere un sito per essere considerato un “ottimo” sito web? Scopriamoli insieme.

Innanzitutto ce ne sono due fondamentali che difficilmente si possono ottenere se non si ha un know-how sufficiente e sono: navigabilità e usabilità.

L’architettura del sito è semplice? La sitemap è intuitiva? L’utente riuscirà ad orientarsi in maniera facile? La permanenza sul sito Web è incentivata abbastanza? Le pagine Web vengono navigate tutte? Il sito piace agli utenti finali e soprattutto al Google?

A queste domande se non si hanno le competenze e gli strumenti giusti, non si può rispondere. E come brancolare nel buio. Una persona effettivamente può da sola realizzare un sito web, può conoscere il proprio prodotto/servizio, ma difficilmente è in grado di fare un progetto di Web Marketing efficace.

Ma questi sono solo le prime domande che una Web Agency si pone quando si trova ad analizzare un sito esistente o nel caso in cui, deve crearne uno ex-novo. Il sito per essere un “ottimo sito”deve:

  • Essere chiaro Le domande a cui qualsiasi webmaster dovrebbe porsi sono: E’ chiaro il servizio/prodotto offerto? Il perché del servizio/prodotto offerto si evince? Come viene offerto il prodotto/servizio?  E’ intuitivo? Perché un cliente dovrebbe scegliere questo prodotto/servizio? In che cosa si differenzia dalla concorrenza
  • Avere una Strategia di Marketing: Chi è il Target a cui il mio prodotto/servizio è dedicato? Quale è l’obiettivo che il sito si prefigge? Numero di visitatori? Aumento delle vendite? Richiesta di preventivi? Come fare ad ottenere gli obiettivi prefissati? Nulla è lasciato al caso assolutamente. Tutto ciò che è inserito nel sito deve avere un suo perché e ogni dettaglio deve essere ben ponderato.
  • Auto-promozione: Chi naviga il web cerca informazioni e non pubblicità. Cerca risposte e non proposte commerciali. Cerca insomma di soddisfare un bisogno un desiderio, ricerca soluzioni. Per ciò non serve a nessuno leggere che un determinato Brand è il migliore nel proprio settore, senza che sia definito in cosa realmente si differenzia dalla concorrenza. Meglio dire perché il prodotto è il migliore e lasciare che siano le caratteristiche oggettive a dimostrarlo, senza auto-premiazioni.
  • Avere l’utente al centro del Business: Conquistare l’utente, colpire in maniera diretta il target, convertire il navigatore in cliente, fidelizzarlo.  Considerare la user experience, pensare a cosa il cliente può cercare o volere e cosa lo può convincere nell’acquisto è fondamentale.
  • Stare al passo con la tecnologia: Avere un sito web ottimizzato e al passo con i vari aggiornamenti dei motori di ricerca. Avere un sito “adatto” (in termini di leggibilità, navigazione, chiarezza dei contenuti) a dispositivi mobili, come Tablet e Smartphone.
  • Avere contenuti testuali efficaci: I tuoi testi sono corretti grammaticalmente, efficaci, leggibili? Essi esprimono con chiarezza e semplicità ciò che è essenziale che raccontino? Testi troppo lunghi e prolissi non vanno assolutamente bene, così come anche quelli telegrafici. Ci vuole il giusto mezzo, come per ogni cosa, in questo caso il “giusto mezzo” che tenga in considerazione sia le persone, che i motori di ricerca. Provvedere sempre ad aggiornamenti periodici. La gente vuole vedere qualcosa di nuovo, possibilmente in tempo reale.
  • Utilizzare tecniche SEO vincenti: Essere tra i primi sui motori di ricerca, risulterà davvero difficile se non ti affidi ad una Web Agency. Dietro al mondo SEO ci sono così tante sfaccettature che anche se si è degli appassionati, ci vuole tanto lavoro e tante conoscenze che un semplice “cugino” difficilmente potrà avere.

In conclusione se vuoi che il tuo sito sia un sito di successo lo devi “Amare”.

E poi i proverbi antichi difficilmente sbagliato e io ne conosco uno che in questi casi definisce bene lo scopo di questo post ed è: “Chi meno spende, più spende” Se ti affidi al conoscente, al cugine smanettone che dice di essere un appassionato del mondo di Internet non affidargli il tuo progetto, è una perdita di tempo (=soldi). E in questo periodo il “tempo è denaro” e se non si arriva in tempo “il treno parte”. “A chi ha orecchie per intendere, intenda”!!!!!

 

 

 

Ricerca Semantica e SEO


L’ impatto di Hummingbird sulle tecniche SEO

Le tecniche SEO sono in continua evoluzione e chi lavora in questo campo sa bene che nel Settembre 2013 Google ha annunciato di aver introdotto un nuovo algoritmo per regolare il suo motore di ricerca: stiamo parlando dell’algoritmo “Hummingbird” (tradotto in italiano: “Colibrì”).

Questo nuovo algoritmo, è stato il primo vero passo verso la ricerca semantica, già dichiarata dal colosso di Mountain View nel 2008. Ne avevamo già parlato tempo fa di ricerca semantica in questo articolo.

Ma vediamoci chiaro: Cosa si intende per ricerca semantica?

La ricerca semantica, all’interno di un motore di ricerca, è quella tecnica che utilizza l’intelligenza artificiale per capire l’intenzione dell’utente che pone in essere una ricerca, invece di fare un’analisi attraverso le parole chiavi, come farebbe un normale dizionario.

Google-HummingbirdGoogle, attraverso Hummingbird, cerca di comprendere la relazione tra le parole inserite e la loro disposizione, in modo da capirne il significato, proprio come farebbe un essere umano.

Agli albori di Internet, era l’utente che si doveva adattare ai motori di ricerca utilizzando parole chiave e operatori booleani, oggi è la “macchina” che si adatta al ragionamento umano, in modo da rendere naturale l’interazione.

deep-learning

Attraverso Hummingbird, gli utenti si sono potuti interfacciare col motore di ricerca, attraverso il proprio linguaggio parlato, come se stessero parlando con un conoscente.

In altre parole invece di scrivere nel modulo di ricerca: “previsioni-Roma”, oggi si possono utilizzare espressioni del tipo: che tempo farà domani a Roma? Ci sarà il sole a Roma domani?, etc..

Addirittura adesso è possibile omettere la località di cui si vuole l’informazione, lasciando al sistema il compito di individuare la nostra posizione geografica.

cervelloMa attraverso la ricerca semantica, il sistema non solo ragiona come noi umani, ma lavora anche attraverso la logica;

Questo nuovo algoritmo si sposa bene con gli studi che Google porta avanti relativi alla ricerca vocale, la quale migliorerà ulteriormente la connessione uomo-macchina.

Ma come la ricerca semantica cambia la SEO ?

In passato, quando Google possedeva algoritmi non semantici, era possibile alterare la sua percezione semplicemente manipolando la “Keyword density” dei propri articoli, scritti nel sito, forzando così Google a credere che i contenuti fossero rilevanti e ricchi di informazioni a riguardo.

Questo modello però era troppo semplice e Google doveva porre rimedio a questo meccanismo, che non dava nessun valore aggiunto all’utente finale.

ricerca-semanticaA tale proposito Big G mise a punto un algoritmo, molto più complesso di quello precedente, che riusciva a capire se lo “spammer di turno” lo stava prendendo in giro con tecniche di writing spinto o se si trattava di un contenuto davvero utile.

Il primo passo che Google ha compiuto per non farsi “fregare” più è stato quello di introdurre Google Panda, un algoritmo in grado di valutare “il livello di spam” di una determinata pagina web. Questo sistema lavorava semplicemente come i server di posta (che individuano la posta indesiderata) per fare una prima scrematura del così detto spam.

pandaMa questo non era però sufficiente a garantire i “giusti” risultati in SERPEcco che Google è giunto a farsi questa domanda:

Come faccio ad essere certo che un testo di una pagina web che utilizza il 4% una determinata parola chiave (digitata dall’utente che si interfaccia con il motore di ricerca) non contenga, nel restante 96% notizie irrilevanti?

Per risolvere questo problema Google è approdato all’ algoritmo basato sulla “semantica” e a Hummingbird (presentato prima).

Con gli algoritmi semantici Google, non solo riesce a lavorare sulla parola chiave richiesta dall’utente, ma anche sui “Topic” (insieme di concetti) che rappresentano l’argomento a qui realmente l’utente è interessato, valutando i contenuti in toto. In altre parole attraverso gli algoritmi semantici, Google garantisce che:

  • i testi non abbiano ripetizioni forzate ed innaturali di Keyword;
  • non siano contenuti troppo brevi rispetto all’argomento trattato;
  • non siano testi scritti da persone che non conoscono l’argomento trattato.

Insomma per essere sicuri che Google non penalizzi un sito rispetto ad un altro, bisogna alzare la qualità di ciò che si scrive e realizzare contenuti assolutamente unici e utili.

penalizzazioniSe si garantiscono queste cose si è perfettamente in linea con ciò che Google ogni giorno cerca di ottenere, e non c’è da preoccuparsi minimamente di come realmente funziona il suo algoritmo semantico e di come Google ottiene i suoi risultati nelle SERP.

Hai verificato anche tu l’impatto di questi cambiamenti sui tuoi siti web ? Raccontaci cosa è cambiato nel tuo modo di fare SEO.

Seo Copywriting : ottimizzare i testi in 7 passi


Il successo di un testo ? Contenuti e ottimizzazione SEO

Il SEO Copywriting è l’arte di combinare insieme l’ottimizzazione per i motori di ricerca (SEO) e la buona scrittura. Esso gioca un ruolo fondamentale in un piano di Web Marketing ed è essenziale per generare traffico verso qualsiasi tipo di sito web.

Si potrebbe pensare che possa bastare scrivere un testo di qualità e creativo per far scaturire clic e visualizzazioni, ma non è proprio così. La scrittura creativa, originale, ben fatta serve sicuramente a dare valore al sito web, ma se lo stesso contenuto ha anche un ottimizzazione lato SEO vuol dire assicurarsi il successo e una buona posizione nella SERP dei motori di ricerca.

Il SEO Copywriting diciamo così è il passaggio successivo alla scrittura creativa, un passaggio prettamente tecnico. Ma vediamo adesso come ottimizzare un testo, soffermandoci su 7 passaggi fondamentali da compiere per renderlo “bello” anche per i motori di ricerca.

Scegliere il titolo giusto

Il titolo è la prima cosa che salta all’occhio del lettore, ma è anche la prima cosa che legge il motore di ricerca. L’obiettivo di un buon copywriter consiste nello scrivere titoli che catturino l’attenzione dell’utente, che lo convincano ad aprire il post. Nello scegliere il titolo cercate di essere quanto più chiari possibili. Il lettore deve subito capire di cosa tratterà l’articolo. Ultimo, ma non meno importante, il titolo deve contenere la parola chiave.

Utilizzare le Keyword giuste

Non tutte le parole chiave sono uguali, alcune convertono di più di altre. Poi ci sono quelle che portano più traffico web rispetto ad altre. Il ruolo di un bravo CopyWriter (colui che possiede e modella l’arte del copywriting)  è quello di saper scegliere quelle giuste. E’ fondamentale conoscere le parole chiave più digitate dai potenziali clienti del sito web del quale il copywriter è stato incaricato di scrivere i testi.

Ma quali sono gli strumenti utili esistenti sul web per ricercare le giuste parole chiave? Né esistono diversi, ma senz’altro il più utile è lo strumento di ricerca delle parole chiave di Google AdWords. Attraverso questo strumento possiamo conoscere in modo preciso quanto è ricercata una specifica chiave in un determinato periodo dell’anno, in una lingua in particolare, in una precisa nazione, regione o città.

Google AdWords una volta selezionata la parola chiave, a sinistra dello schermo mostra due cose importanti:

  • una lista di termini correlati alla parola chiave inserita.
  • I filtri di ricerca : Esteso, Esatto o Frase. Con il filtro “Esatto” si hanno i dati precisi su una determinata parola chiave, con il filtro “Esteso”, Google AdWords farà comparire anche le parole chiave correlate ed infine il filtro “Frase” che dà molte più altre info.

Scegliere bene le parole giuste da inserire nel contenuto

Soprattutto l’inizio e la fine di un articolo sono due momenti importanti, sia sotto l’aspetto SEO, ma anche sotto l’aspetto giornalistico. Iniziare il testo con la parola chiave, significa identificare subito la tematica che sarà trattata nel testo, ma soprattutto aiuta gli spider dei motori di ricerca a indicizzare correttamente l’articolo.

Utilizzare un linguaggio adeguato al pubblico del sito web: tecnico se il sito è un portale specializzato in una determinata tematica, più semplice se è destinato al grande pubblico. In qualsiasi caso deve essere un testo scorrevole, piacevole da leggere e soprattutto privo di refusi ed errori grammaticali.

Rispettare le regole del SEO Copywriting

Il SEO Copywriter è un professionista che, con un occhio alla SEO, applica alla scrittura tutte le tecniche del SEO copywriting. Quindi, sa andare subito al nocciolo della questione, usare le giuste e precise parole, suscitare interesse, fornire esempi pratici, citare sempre le fonti e in alcuni casi dire anche la propria opinione sulla tematica trattata.

Usare le liste puntate o numerate

Le liste puntate, come quelle numerate, sono essenziali per rendere un testo veloce nella lettura. Inoltre danno una struttura più ordinata ai post e consentono, anche ai lettori frettolosi (una percentuale altissima di lettori del web), di capire l’argomento trattato e le parti essenziali del contenuto.

Usare grassetto, corsivo e sottolineato

Anche il grassetto, il corsivo e il testo sottolineato consentono una lettura più veloce e pratica. Ricordarsi sempre di inserirli e di mettere in grassetto almeno una volta la parola chiave scelta per il testo.

Rileggere il tutto con attenzione

Il post è stato terminato? Perfetto non abbiate premura di pubblicarlo il prima possibile. Un bravo Copywriter si prende una pausa, fa altro e distoglie l’attenzione dal contenuto appena ultimato. Dopo qualche minuto riprende il post, lo rilegge con attenzione e solo quando è certo che non ci sono refusi, errori grammaticali e che le ottimizzazioni SEO sono al posto giusto, pubblica il testo.

Vediamo adesso nel dettaglio qualche consiglio da seguire per pubblicare un Post di circa 300 parole su un sito WordPress ottimizzato sotto l’aspetto SEO attraverso il Plug-In WordPress SEO di Yoast

  • Creare il titolo di al max 70 caratteri con la parola chiave inserita quanto prima possibile (esso viene riproposto nella voce Titolo SEO del PlugIn);
  • Modificare il Permalink tentando di renderlo il più breve possibile, mantenendo la parola chiave Principale.
  • Inserire il testo che dovrà essere di almeno 300 parole, contenere almeno 2 volte la parola chiave (una volta nel primo paragrafo e una volta nel secondo paragrafo). Creare due paragrafi divisi dal TAGMORE. Per ogni paragrafo inserire un sottotitolo attraverso il tag H2.
  • Scegliere ed inserire la parola chiave nel modulo denominato “Parola Chiave Principale”del PlugIn;
  • Inserire un testo di almeno 140 caratteri all’interno del modulo “Meta Descrizione”, dove dovrà essere ripetuta almeno una volta la parola chiave ed avere il punto alla fine della frase.
  • Inserire almeno un immagine che dovrà contenere il titolo con la parola chiave, il titolo Alt con sempre la parola chiave scelta per il post e una descrizione dell’immagine.
  • Scegliere una Categoria che ben identifichi la tematica trattata.
  • Il pallino nel riquadro in alto a destra dovrà diventare verde. Se il pallino è giallo oppure rosso, c’è qualcosa che non va aprire la finestrella denominata “Analisi della pagina” e analizzare i suggerimenti che il PlugIn fornisce.

Questo è tutto. Naturalmente è solo un piccolo spunto, ci sarebbe ancora molto da dire e da aggiungere sull’argomento, se vuoi dare il tuo contributo, lascia un commento. Alla prossima.

Questo articolo è la rivisitazione di quest’altro, scritto un po di tempo fa’ : Guida SEO per copywriter

Turismo e marketing

Turismo e Marketing, presentare al meglio le strutture ricettive.

Le strategie che una struttura ricettiva deve mettere in atto, per migliorare la propria visibilità sul Web ma anche offline, sono davvero tante. Partiamo da un dato di fatto: la maggior parte dei potenziali clienti che vogliono prenotare una struttura ricettiva, utilizza internet, sia per informarsi sulla struttura, ma anche per prenotare direttamente sui portali delle OTA (Online Travel Agency – Agenzia di Viaggio Online) o direttamente nel booking engine della struttura. Premesso ciò vediamo adesso perché un hotel/villaggio/agriturismo deve aumentare la propria visibilità su Internet e soprattutto come farlo in maniera corretta.  (altro…)