WordPress 4.0 “Benny”

WordPress 4.0 “Benny” un omaggio al re dello swing

Ci siamo, nei giorni scorsi WordPress 4.0 “Benny” è stato annunciato. La quarta versione del popolare CMS – Content Management System, rende omaggio a Benny Goodman – il re dello swing, e introduce interessanti miglioramenti. Si tratta di piccoli cambiamenti che però possono far risparmiare un bel po’ di tempo a webmaster, amministratori e blogger che in tutto il mondo utilizzano WordPress come sistema di pubblicazione e gestione dei contenuti.

WordPress 4.0 Benny è una versione matura della piattaforma open source, che rispetto alle versioni precedenti migliora la gestione dei media con una nuova interfaccia e consente di embeddare contenuti dai siti e dai social e modificare i post in maniera più semplice.

wordpress-4.0-mediamanagerPartiamo proprio da qui, dal nuovo Media Manager di WordPress, adesso più pulito nella navigazione e quindi utile. La griglia degli upload non ha le pagine, è più ordinata e mostra tutti i vostri file scorrendo all’infinito verso il basso o utilizzando i comodi pulsanti.  Vi basterà cliccare sull’immagine per vedere tutti i campi informazione – titolo, sottotitolo, testo alt e caratteristiche tecniche di base come il tipo e la dimensione del file. Inoltre il Media Manager adesso offre la nuova modalità di anteprima dei contenuti.

Passiamo poi ad un altro piccolo grande problema che WordPress 4.0 risolve. Fino ad oggi – alla versione WordPress 3.9, la barra con le opzioni di formattazione rimaneva ferma in alto. Ad esempio, dopo aver selezionato una parola per renderla in ‘grassetto’, bisognava tornare in alto per selezionare la ‘B’ (o, per gli utenti più esperti, usare le scorciatoie da tastiera). Oggi l’Editor di WordPress si muove con voi, facendo sì che gli strumenti di formattazione scorrano con voi e siano disponibili in qualsiasi momento. Anche la barra di pubblicazione adesso è a portata di mano, rimane sempre di lato.

Ecco che un processo che molti effettuano ogni giorno, la scrittura, la redazione e la pubblicazione di contenuti, diviene più facile. Non solo per la barra di formattazione, ma anche per l’operazione di embedding – incorporamento di contenuti nei post, che adesso diviene un’esperienza visiva. Basta con la proliferazione dei plug-in di gestione video, adesso vi basterà incollare un URL di YouTube o Vimeo su una nuova riga per avere istantaneamente il vostro video incorporato. Lo stesso discorso vale per i contenuti da Twitter e da altri 23 siti supportati. In questo modo non è necessaria l’attivazione di applicazioni di terze parti esterne o plug-in di terzi.

plugin-worfpress-4.0Proprio questa è l’altra chicca. WordPress 4.0 rende più accessibile anche l’utilizzo dei plugin. Trovare quello giusto per le vostre esigenze è adesso un’esperienza coinvolgente con il nuovo plug-in di ricerca e la visualizzazione stile negozio. Nella vetrina dei Plugin adesso trovate ciò che state cercando suddiviso in categorie speciali, come ad esempio “performance”, “sociale” e “strumenti”.  Cliccando su un determinato plugin è possibile avere una descrizione, dettagli sull’installazione, registri delle modifiche. Inoltre abbiamo anche una barra laterale per ogni plugin con le specifiche tecniche, il link allo sviluppatore e le info di base. 30.000 plug-in open source recensiti e descritti sono disponibili per voi utenti medi – per personalizzare il vostro sito, mentre per i più esperti c’è CSSChopper, lo strumento per chi ha esigenze particolari.
Infine arriva anche l’introduzione dello strumento WordPress MU (Multi-User). Adesso vi basterà avere una singola installazione di WordPress per ospitare più siti, risparmiando tempo.

Insomma, la nuova versione di WordPress sembra puntare a risolvere – senza troppi stravolgimenti, uno dei problemi fondamentali dei sistemi di web publishing, l’integrazione dei dati e delle risorse esterne nelle pagine, un aspetto molto spesso trascurato nei CMS.

D’altronde Worpdress è una piattaforma molto diffusa, tanto che fra i primi 10 milioni di siti web che Alexa ha ordinato per importanza, circa il 23% si basa su architettura WordPress. Se prendiamo invece in considerazione solo i siti che utilizzano un CMS, WordPress rappresenta addirittura il 61% del mercato, mentre Joomla ha l’8% e Drupal il 5%.

Come per altri aggiornamenti importanti, il nostro consiglio è di installare manualmente WordPress 4.0. Finito il periodo della beta pubblica, adesso la nuova versione del CMS è disponibile. Sicuramente WordPress 4.0 nelle prossime settimane potrebbe avere dei bug più o meno importanti. Il consiglio, per chi ha esigenze professionali, è di attendere almeno fino alla prossima release minore (4.0.1), in arrivo al massimo fra uno o due mesi.

7 consigli per non essere penalizzati da Pigeon

Pigeon : il nuovo aggiornamento dell’algoritmo di Google

Pochi giorni fa, Google ha annunciato l’avvenuta uscita, negli Stati Uniti, di un nuovo e importante aggiornamento algoritmico per la ricerca locale, chiamato update “Pigeon“. Non ci sono ancora molti dettagli sul cosiddetto Pigeon, ma i webmaster statunitensi segnalano notevoli cambiamenti nella loro classifica locali negli ultimi giorni.

Che cosa sappiamo di Pigeon ?

Google ha confermato che l’aggiornamento è online dal 24 luglio, per i risultati delle ricerche degli Stati Uniti in inglese , ma non ha ancora rivelato quando l’aggiornamento sarà disponibile negli altri paesi. Lo scopo dell’aggiornamento è quello di fornire risultati più pertinenti ed accurati nelle ricerche locali. A differenza degli aggiornamenti Penguin e Panda, questo non é un aggiornamento teso a pulire le SERP dai contenuti di bassa qualità, ma un cambiamento di base per l’algoritmo di ranking per la ricerca locale. Vediamo quali sono stati i primi problemi riscontrati in USA.

Scomparsa delle liste con mappa per un numero enorme di parole chiave

mappa locale pigeonUno dei principali cambiamenti osservato è la riduzione delle liste con mappa locale per un grandissimo numero di parole chiave. Secondo Moz, questo numero scende dal 12,1% delle query locali del 23 Luglio al solo 3,3% di quelle effettuate il 27 luglio.

 

Le query locali tendono a dipendere di più dall’autorità del sito

Dai primi riscontri, pare che Il nuovo algoritmo di ricerca locale sia più legato ai  tradizionali segnali ranking di ricerca web. In altre parole le classifiche locali saranno ora determinate dall’autorità del dominio e da tutti gli altri fattori SEO come se la query non fosse locale.

Aumento dell’importanza delle directory locali

Secondo le prime ricerche post-aggiornamento, i siti di directory locali, come ad esempio Yelp, hanno visto un notevole impulso in classifica. Per alcune query, tutta la SERP è costruita solo da directory locali di qualità.

Qualche consiglio per superare Pigeon senza danni

Anche se i cambiamenti nella SERP sembrano importanti, i principi fondamentali della SEO locale sono tenuti a rimanere gli stessi. Quindi, ecco alcuni consigli generali per il vostro business locale.

Creare una pagina Google+ locale per la tua azienda

La creazione di una pagina Google+ locale per il tuo business è il primo passo per essere inclusi nell’indice locale di Google. Il secondo passo è quello di verificare la proprietà del profilo. Ciò comporta in genere riceve una cartolina / lettera / telefonata da Google che contiene un numero di pin che è necessario inserire per completare la verifica.

Scegliete la categoria corretta per la vostra pagina Google+ locale

Se si desidera comparire nei risultati locali per una ricerca come “dentisti a Torino”, la vostra azienda deve essere catalogata, in Google+, come un dentista. Se si è classificata l’attività in maniera diversa, non avete speranza di apparire per i termini di ricerca locali che identificano il vostro business.

Prefisso telefonico corrispondente all’area locale.

In fase di registrazione su Google+, occorre fornire un numero di telefono principale che corrisponda a quello usato nell’area geografica dove dichiarate sia collocata la vostra attività locale.

Controllo incrociato dati del sito web e dati forniti alla pagina Google+ locale

Google verifica che i dati forniti alla vostra pagina di Google+ locale coincidano con i dati locali che forniti sul vostro sito web (non hai ancora un sito web ? Non comparirai mai su Google :-)).

Coerenza dei dati aziendali sulle directory locali

Assicuratevi che il vostro nome, l’indirizzo e il numero telefonico siano coerenti in tutte le directory locali dove il vostro business è elencato. Indirizzi diversi indicati per il vostro business su Booking  e TripAdvisor, per esempio, possono pregiudicare la vostra visibilità.

yelp-pigeon

Incrementare il numero di recensioni positive su Google+ locale e sulle fonti di terze parti

Il numero di recensioni positive ha un effetto positivo sulla classifica delle ricerche locali. Quindi assicuratevi di incoraggiare i clienti felici a lasciare recensioni positive della vostra attività e / o prodotto sulla pagina di Google+ locale e su qualsiasi altra pagina web, compresi i social media.

Includere la città nel tag titolo del tuo sito web.

Un altro fattore importante per la vostra pagina di destinazione “locale” è di avere la città target inclusa nel tag <Title> del vostro sito web di riferimento.

Questo è quanto, riprenderemo l’argomento quando verrà rivelata la data di uscita in Europa di Pigeon.

Capire algoritmi e penalizzazioni di Google



A proposito delle penalizzazioni di Google. una simpatica signora Toscana, mi ha recentemente contattato per un problema riguardante il suo e-commerce che, da un poco di tempo a questa parte, ha visto scendere notevolmente il numero delle visite.

Questa conversazione mi ha fatto capire come sia complicato, per i non addetti ai lavori, capire gli algoritmi che regolano il funzionamento dei motori di ricerca, e in particolare di Google, e gli effetti che i vari Panda, Penguin e Hummingbird possono avere sui nostri siti web. L’obiettivo di questo articolo è di fare un poco di chiarezza.

L’algoritmo di Google

Quando sono stati creati i primi motori di ricerca era abbastanza semplice, per un consulente SEO,  posizionare il sito del cliente nelle prime pagine dei risultati della ricerca.

Le regole da seguire erano poche e ben definite. Nella maggior parte dei casi, era sufficiente caricare nel codice del sito, e più precisamente nel meta tag keyword, le Keywords opportune per ottenere il risultato.

Google fu il primo, tra i motori di ricerca, a capire l’importanza della pertinenza nei risultati dei motori di ricerca. Fu allora i suoi tecnici svilupparono un algoritmo che potesse mostrare, in cima ai risultati della ricerca, quelli più pertinenti alla chiave di ricerca inserita dall’utente.

Oggi l’algoritmo di ricerca di Google, tiene conto di circa 200 fattori diversi per determinare l’ordine della pagina dei risultati della ricerca o SERP. Alcuni di questi sono conosciuti come ad esempio alcuni TAG del codice (Title, Description), altri fonte di speculazioni, come ad esempio il Google+1.

Infatti l’algoritmo della ricerca di Google è brevettato come segreto industriale. Tutto quello che si sa, tutto quello che fa un consulente SEO, è sperimentare per cercare di capire.

In passato, inoltre, l’algoritmo della ricerca di Google cambiava raramente. Stare in prima posizione con una determinata parola chiave garantiva la leadership della ricerca per settimane o mesi.

Tutto questo è cambiato con il lancio di “Caffeina” nel 2010. Da questo aggiornamento in poi, l’algoritmo di Google può cambiare più volte al giorno (Google fa circa 600 modifiche all’anno e la stragrande maggioranza di queste non sono annunciate).

Ma, quando Google fa davvero un grande cambiamento, lo annuncia e gli da un nome e tutti nel mondo SEO cercano di capire i cambiamenti introdotti e come usarli a proprio vantaggio.

Tre dei maggiori cambiamenti che si sono verificati negli ultimi anni sono chiamati stati chiamati Panda, Penguin e Hummingbird.

Panda

Panda, lanciato il 23 febbraio 2011, aveva lo scopo di mostrare i siti di alta qualità in cima ai risultati della  ricerca e di abbassare i siti di qualità inferiore.

Questo cambiamento algoritmico venne prima chiamato “Farmer”, (il rifermento è ad allevamenti di contenuti cioè siti che aggregano informazioni da molte fonti al fine di classificarsi bene in SERP per molte parole chiave diverse.) Il cambiamento dell’algoritmo è stato poi ufficialmente battezzato Panda dal nome di uno dei suoi creatori, Navneet Panda.

Nella maggior parte dei casi, i siti colpiti da Panda vengono penalizzati molto duramente. Infatti Panda tende ad essere un problema a livello di sito, il che significa che non si limita a retrocedere alcune pagine del tuo sito nei risultati dei motori di ricerca ma, tutto il sito che viene considerato di qualità inferiore.

Come recuperare una penalizzazione di questo genere ? Per rispondere a questa domanda, Google fa riferimento ad un post di uno dei suoi ingegnere, Amit Singhal, che dà una lista di controllo che è possibile utilizzare sul vostro sito per determinare se il sito è veramente di alta qualità:

  • Vi fidereste delle informazioni presentate in questo articolo?
  • Questo articolo è scritto da un esperto o appassionato che conosce bene l’argomento?
  • Il sito ha articoli duplicati, sovrapposti o ridondanti identici o simili con leggere varianti nelle parole chiave?
  • Vi fidereste a dare i dati della vostra carta di credito a questo sito ?
  • Vi sono errori di ortografia, stilistica, o di utilizzo del linguaggio in questo sito?
  • Vi sembra che il sito generi contenuti cercando di seguire il trend delle parole chiave più utilizzate del momento sui motori di ricerca?
  • L’articolo fornisce contenuti originali (informazioni, segnalazione, ricerche originali o analisi)?
  • La pagina fornisce un valore sostanziale rispetto ad altre pagine nei risultati di ricerca?
  • Il sito è un’autorità riconosciuta sul suo argomento?
  • Questo articolo fornisce una descrizione completa del tema?
  • Questo articolo contiene un’analisi perspicace o informazioni interessanti, al di là ovvio?
  • E ‘questo il tipo di pagina che ci si vuole condividere con un amico, o di raccomandare?
  • Questo articolo ha una quantità eccessiva di annunci pubblicitari che distraggono o interferiscono con il contenuto principale?
  • Vi aspettereste di vedere questo articolo in una rivista stampata, un’enciclopedia o un libro?
  • Sono le pagine prodotte con grande cura e attenzione al dettaglio?

Un elenco impressionante! Tutte queste domande sono poste da Google a noi per aiutarci a capire come gli utenti reali potrebbero valutare la qualità del tuo sito. Nessuno conosce tutti i fattori che Google utilizza per determinare la qualità del vostro sito attraverso gli occhi di Panda.

In definitiva però, l’attenzione è rivolta nel creare il miglior sito possibile per gli utenti. Ci sono alcuni fattori che sono ampiamente accettati e condivisi dalla comunità SEO, per quanto riguarda Panda:

Contenuti “Thin” Sottili

Una pagina “Thin” è una pagina che aggiunge poco o nessun valore per qualcuno che la sta leggendo. Questo non significa necessariamente che una pagina, per essere utile,  necessiti di un certo numero di parole, ma è anche vero che, molto spesso, le pagine con poche parole non sono super-utili.

Se si dispone di un gran numero di pagine del tuo sito che contengono contenuti “Thin” sottili l’algoritmo Panda può stabilire che la maggior parte delle pagine indicizzate sul tuo sito sono di bassa qualità.

Duplicazione dei contenuti

Ci sono diverse circostanze, relative alla duplicazione dei contenuti, che possono far vedere il vostro sito come un sito di bassa qualità dall’algoritmo Panda. La prima di queste si verifica quando un sito ha una grande quantità di contenuti copiati da altre fonti sul web.

Ad esempio un blog popolato da articoli che vengono presi da altre fonti e copiati di sana pianta. Google è piuttosto bravo nel capire che non sei l’autore di questo contenuto. Se l’algoritmo si accorge che una porzione considerevole del sito è costituita da contenuti che esistono già su altri siti, questo può causare una penalizzazione da parte di Panda.

È anche possibile incorrere in problemi con contenuti duplicati sul proprio sito. Un esempio potrebbe essere un sito che ha un gran numero di prodotti in vendita.

Facciamo il caso che ogni prodotto abbia una pagina separata per ogni variazione di colore e dimensioni. Se un prodotto è disponibile in 20 diversi colori e ciascuno di questi sono disponibili in 6 diverse dimensioni, allora significa che avete 120 pagine per lo stesso prodotto, che sono tutte pressoché identiche.

Ora, immaginate che, su questo sito, si vendano 4.000 prodotti. Questo significa avere quasi mezzo milione di pagine nell’indice di Google quando in realtà 4.000 pagine sarebbero sufficienti. In questo tipo di situazione, la penalizzazione è sicura anche se, con alcuni accorgimenti tecnici (utilizzo del canonical), il problema si può risolvere.

Contenuti di bassa qualità

Quando si scrive un articolo e lo si pubblica su un sito web o su un blog, l’ ideale sarebbe di presentare a Google l’informazione migliore, in assoluto, nel suo genere. In passato, molti SEO hanno dato consigli ai proprietari dei siti dicendo che era importante alimentare sempre di nuovi contenuti blog e siti web  aggiungendo e indicizzando per Google, sempre nuovi contenuti.

Ma, se ciò che si sta pubblicando non è un contenuto di alta qualità, si potrebbero avere più danni che benefici. Nella lista di domande da porsi, la lista di Amit Singhal citata sopra, molte si chiedono se il contenuto del tuo sito è prezioso, utile per i lettori.

Diciamo di avere un blog SEO e di prendere ogni giorno un breve trafiletto da ciascuno degli articoli di SEO più interessanti che ho letto on-line e di pubblicare, come un post sul mio blog, un loro riassunto.

Google privilegerà il mio articolo o i singoli articoli ?  Naturalmente il mio riassunto non sarà prezioso come gli articoli da cui ho tratto spunto. Ora, supponiamo di aver fatto cosi, ogni giorno, per 4 anni. Ora il mio sito ha oltre 4.000 pagine che contengono informazioni che sono solo citazioni di articoli di altri siti. Il valore aggiunto non sta nel mio sito, per il lettore. Questo è sicuramente un segnale di bassa qualità agli occhi dell’algoritmo di Panda.

Come recuperare le penalizzazioni di Google (Panda)

Google aggiorna l’algoritmo Panda all’incirca una volta al mese. Cosa succede quando interviene un aggiornamento nell’algoritmo Panda? L’algoritmo da un nuovo sguardo su ogni sito sul web e determina se  si presenta come un sito di qualità per quanto riguarda i criteri, aggiornati, che l’algoritmo Panda esamina.

Se il tuo sito è stato penalizzato da Panda e sono state apportate modifiche come la rimozione delle pagine “Thin” sottili e/o i contenuti duplicati, il prossimo aggiornamento di Panda dovrebbe portare ad un miglioramento della situazione.

Tuttavia, per alcuni siti, occorre aspettare almeno un paio di aggiornamenti di Panda per vedere la piena portata dei miglioramenti. Questo perché Google, a volte, può impiegare diversi mesi per rivisitare tutte le pagine e riconoscere i cambiamenti che avete fatto.

Il 20 maggio 2014, Google ha fatto un importante aggiornamento che hanno chiamato Panda 4.0. Questo aggiornamento ha causato un autentico “terremoto” per molti siti che hanno visto ridimensionare la propria presenza sulle pagine dei risultati delle ricerche, soprattutto in Italia.

Penguin

L’algoritmo Penguin, lanciato il 24 aprile 2012, ha come obiettivo, il ridurre il credito che alcuni siti hanno guadagnato attraverso la creazione di backlinks innaturali, al fine di ottenere un vantaggio nella pagina dei risultati della ricerca di Google.

Perché sono i backlinks sono importanti?

Un backlink è come un voto, una raccomandazione per il tuo sito. Se un sito, molto rispettato e importante, inserisce un backlink al tuo sito, allora questa è vista da Google come una raccomandazione per il tuo sito ed ha un grosso valore.

Naturalmente se il backlink arriva da un sito piccolo e sconosciuto la raccomandazione conta poco. Eppure,  ottenere un gran numero di queste piccole raccomandazioni, in passato, poteva fare la differenza. Ecco perché i consulenti SEO cercavano di ottenere il maggior numero di collegamenti che potevano da ogni possibile fonte.

Un’altra cosa che è importante per gli algoritmi di Google è il testo di ancoraggio. Il testo di ancoraggio è il testo cliccabile che gli utenti vedranno come risultato di un link.

Quindi, se un grande blog, come ad esempio il blog di MOZ, riceve molti backlinks con testo di ancoraggio “SEO blog” questo viene interpretato da Google come un segnale importante: il sito citato cosi tante volte per la chiave “SEO blog” è quello da porre nelle prime posizioni per questa ricerca.

Non è difficile immaginare come potesse essere semplice manipolare questa parte dell’algoritmo. Supponiamo di fare attività SEO per un hotel a Rimini, l’hotel Miramare.

In passato, uno dei modi che si avevano per ingannare l’algoritmo era di creare quanti più backlinks dalla rete utilizzando, come testo di ancoraggio, le stesse parole chiave per le quali volevo  ottenere il posizionamento. I miei backlinks avrebbero avuto anchor text tipo “Hotel Rimini”, “Albergo Rimini”, “Vacanze mare Rimini” e possibilmente tutte con lo stesso link http://www.miramare.it/.

Mentre un collegamento autorevole da un sito rispettato è buono, ma difficile da ottenere, quello che gli esperti SEO scoprirono fu che la creazione di un gran numero di link provenienti da siti di bassa qualità era abbastanza efficace.

Questa è la ragione per cui proliferarono, ma ancora oggi proliferano, collegamenti di basso valore facili da raggiungere come elenchi di directory, articoli autoprodotti, e link nei commenti e  nei messaggi dei forum.

Mentre non sappiamo esattamente quali fattori l’algoritmo Penguin analizza, sappiamo che  l’algoritmo sta tentando di rilevare i backlinks di bassa qualità.

John Mueller, di Google, ha detto più volte che Penguin è un algoritmo che considera tutto il sito. Ciò significa che se l’algoritmo Penguin determina che un gran numero di link al tuo sito sono di bassa qualità, allora questo riduce la fiducia di Google nei confronti di tutto il sito.

Come tale, l’intero sito vedrà una riduzione delle sue posizioni nei risultati della ricerca. Penguin ha colpito un sacco di siti drasticamente, in particolare quelli con un’alta quantità backlinks innaturali di basso livello.

Come recuperare da una penalizzazione di Penguin?

Penguin è una parte a se stante del complesso algoritmo di Google, proprio come Panda. Significa che l’algoritmo Penguin è rieseguito periodicamente e i siti coinvolti vengono rivalutati ad ogni ripetizione.

Penguin non viene eseguito molto spesso. L’ultimo aggiornamento è stato il 4 ottobre 2013. Il che significa che non possiamo aspettarci una nuova riconsiderazione automatica fino al prossimo update.

Al fine di recuperare da Penguin, è necessario identificare i link innaturali che puntano al tuo sito e rimuoverli, oppure se non è possibile rimuoverli si può chiedere a Google di non considerarli, attraverso lo strumento disavow.

Al prossimo aggiornamento di Penguin, se avete fatto un buon lavoro nel  ripulire i vostri link innaturali, potrete riconquistare la fiducia di Google. In alcuni casi, bisogna attendere anche un paio di aggiornamenti per tornare alla situazione precedente la penalizzazione.

Se non si è certi sul come identificare i collegamenti innaturali, vi segnalo le seguenti letture:

 

Lo strumento disavow è qualcosa da utilizzare se si capisce davvero come funziona. E ‘potenzialmente possibile fare più male che bene al tuo sito se si sconfessano i link inappropriati. Ecco alcune informazioni sull’utilizzo dello strumento disavow:

E ‘importante notare che quando i siti si liberano da una penalità Penguin, non riconquistano a pieno il top della SERP proprio a causa dei link innaturali rimossi.

Hummingbird

Google ha annunciato Hummingbird il 26 settembre 2013 dichiarando, tuttavia, che l’algoritmo era già operativo da un mese.

Hummingbird è una revisione completa di tutto l’algoritmo di ricerca di Google. Come Danny Sullivan ha fatto notare, se si considera l’algoritmo di Google come  un motore, Panda e Penguin sono cambiamenti  di algoritmo che si possono paragonare a pezzi del motore da sostituire, come un nuovo filtro o una nuova pompa di carburante.

Ma, Hummingbird non è solo una ulteriore aggiunta; Hummingbird è un motore completamente nuovo. Questo nuovo motore fa ancora uso di molte delle vecchie parti (come Panda e Penguin), ma una sua buona parte è completamente originale.

L’obiettivo dell’algoritmo Hummingbird è per Google capire meglio la query di un utente. Bill Slawski che scrive sui brevetti di Google ha un  grande esempio di questo nel suo post qui.

Egli spiega che quando qualcuno cerca “Qual è il posto migliore per trovare da mangiare a Milano?”, Hummingbird è in grado di discernere che l’utente, probabilmente, è interessato a risultati che mostrino “ristoranti”. Si ipotizza che questi cambiamenti erano necessari per rendere più efficace la ricerca vocale.

Quando stiamo digitando una query di ricerca, possiamo digitare “migliore agenzia SEO Torino“, ma quando parliamo di una query ad esempio tramite l’interrogazione vocale, siamo più propensi a dire qualcosa come: “Quale azienda a Torino offre i migliori servizi di SEO? “.

Il punto di Hummingbird è quello di capire meglio che cosa si aspettano come risultato gli utenti quando pongono domande come questa.

Allora, come faccio a recuperare o migliorare agli occhi di Hummingbird?

La risposta a questa domanda è essenzialmente quella di creare contenuti che rispondano alle domande degli utenti piuttosto che cercare di posizionare una pagina per una determinata parola chiave. Ma in realtà, questo è quello dovresti stare già facendo!

Sembra che l’obiettivo di Google con tutti questi cambiamenti di algoritmo (Panda, Penguin e Hummingbird) sia quello di incoraggiare i webmaster a pubblicare contenuti sempre migliori e utili per la propria nicchia.

In pratica fornire risposte alle persone che cercano. Se riesci a produrre contenuti che rispondono alle domande della gente, allora sei sulla strada giusta.

So che questo è una risposta veramente vaga quando si parla di “recuperare” una penalità di Hummingbird. Hummingbird è veramente diverso da Panda e Penguin.

Se un sito è stato retrocesso da Panda o Penguin, è perché Google ha perso un po ‘di fiducia nella qualità del sito. Se si riesce a risolvere quei problemi di qualità si può riconquistare la fiducia dell’ algoritmo e col tempo vedere i miglioramenti.

Ma, se la penalità compare poco dopo il lancio di Hummingbird, allora non c’è davvero un modo per recuperare le posizioni ottenute nelle classifiche utilizzando le parole chiave. È possibile, tuttavia, ottenere nuovo traffico trovando modi per ottenere contenuti più approfonditi e completi, utili per l’utente.

Questo articolo è liberamente tratto e tradotto da un post su MOZ diMarie Haynes : Your Google Algorithm Cheat Sheet: Panda, Penguin, and Hummingbird

Cugino smanettone ovvero chi meno spende più spende


Il cugino smanettone e come rovinare la propria reputazione online

Riprendiamo l’argomento già trattato in precedenti articoli e cioè’, perché’ affidare ad una web agency la realizzazione del sito web aziendale, la tua immagine sul web. Affidarsi ad un ottima web agency significa ottenere dei risultati in termini di profitto dal vostro business online.

Inoltre se avete una qualsiasi attività, non potete correre il rischio di mostrare su internet una immagine approssimativa e poco professionale dei vostri prodotti e servizi. Non esiste “cugino smanettone” inteso come parente o amico che a tempo perso e per pochi soldi possa realizzare un sito web professionale e che dia risultati soddisfacenti

Prendiamo ad esempio l’ottimizzazione per i motori di ricerca. In fase di realizzazione di un sito web, un esperto SEO è in grado di porre in atto tutti gli accorgimenti dettati da Google. Il cugino smanettone per sua stessa natura non puo’ essere aggiornato sulle continue modifiche dell’algoritmo che Google utilizza per le ricerche. Questo ha un grosso impatto in termini di visibilità agli occhi dei motori di ricerca del vostro sito web.

Una web agency molto probabilmente, realizzerà il sito web con wordpress, il cms più utilizzato al mondo. Anche da un punto di vista puramente tecnico, un esperto SEO è sempre informato non solo sulle modifiche di Google ma anche sulla legislatura legata al web.

Negli ultimi tempi c’e’ stato un forte interesse legislativo nei confronti della privacy. Questo interesse ha partorito vari obblighi per i proprietari di siti web che se non messi in atto, rischiano di provocare sanzioni anche molto pesanti da un punto di vista economico.

Negli scorsi anni è stato introdotto prima l’obbligo di una pagina informativa sulla privacy e più di recente, una normativa europea sui cookies che impone ad ogni sito web una pagina informativa sull’utilizzo dei cookies. Nel prossimo futuro entrerà in vigore una ulteriore normativa sulla protezione dei dati personali, la cosi’ detta norma GDPR.

Solo un professionista è al corrente delle evoluzioni tecniche e normative del web.

Ma a quali caratteristiche deve corrispondere un sito per essere considerato un “ottimo” sito web? Scopriamoli insieme.

Innanzitutto ce ne sono due fondamentali che difficilmente si possono ottenere se non si ha un know-how sufficiente e sono: navigabilità e usabilità.

L’architettura del sito è semplice? La sitemap è intuitiva? L’utente riuscirà ad orientarsi in maniera facile? La permanenza sul sito Web è incentivata abbastanza? Le pagine Web vengono navigate tutte? Il sito piace agli utenti finali e soprattutto al Google?

A queste domande se non si hanno le competenze e gli strumenti giusti, non si può rispondere. E come brancolare nel buio. Una persona effettivamente può da sola realizzare un sito web, può conoscere il proprio prodotto/servizio, ma difficilmente è in grado di fare un progetto di Web Marketing efficace.

Ma questi sono solo le prime domande che una Web Agency si pone quando si trova ad analizzare un sito esistente o nel caso in cui, deve crearne uno ex-novo. Il sito per essere un “ottimo sito”deve:

  • Essere chiaro Le domande a cui qualsiasi webmaster dovrebbe porsi sono: E’ chiaro il servizio/prodotto offerto? Il perché del servizio/prodotto offerto si evince? Come viene offerto il prodotto/servizio?  E’ intuitivo? Perché un cliente dovrebbe scegliere questo prodotto/servizio? In che cosa si differenzia dalla concorrenza
  • Avere una Strategia di Marketing: Chi è il Target a cui il mio prodotto/servizio è dedicato? Quale è l’obiettivo che il sito si prefigge? Numero di visitatori? Aumento delle vendite? Richiesta di preventivi? Come fare ad ottenere gli obiettivi prefissati? Nulla è lasciato al caso assolutamente. Tutto ciò che è inserito nel sito deve avere un suo perché e ogni dettaglio deve essere ben ponderato.
  • Auto-promozione: Chi naviga il web cerca informazioni e non pubblicità. Cerca risposte e non proposte commerciali. Cerca insomma di soddisfare un bisogno un desiderio, ricerca soluzioni. Per ciò non serve a nessuno leggere che un determinato Brand è il migliore nel proprio settore, senza che sia definito in cosa realmente si differenzia dalla concorrenza. Meglio dire perché il prodotto è il migliore e lasciare che siano le caratteristiche oggettive a dimostrarlo, senza auto-premiazioni.
  • Avere l’utente al centro del Business: Conquistare l’utente, colpire in maniera diretta il target, convertire il navigatore in cliente, fidelizzarlo.  Considerare la user experience, pensare a cosa il cliente può cercare o volere e cosa lo può convincere nell’acquisto è fondamentale.
  • Stare al passo con la tecnologia: Avere un sito web ottimizzato e al passo con i vari aggiornamenti dei motori di ricerca. Avere un sito “adatto” (in termini di leggibilità, navigazione, chiarezza dei contenuti) a dispositivi mobili, come Tablet e Smartphone.
  • Avere contenuti testuali efficaci: I tuoi testi sono corretti grammaticalmente, efficaci, leggibili? Essi esprimono con chiarezza e semplicità ciò che è essenziale che raccontino? Testi troppo lunghi e prolissi non vanno assolutamente bene, così come anche quelli telegrafici. Ci vuole il giusto mezzo, come per ogni cosa, in questo caso il “giusto mezzo” che tenga in considerazione sia le persone, che i motori di ricerca. Provvedere sempre ad aggiornamenti periodici. La gente vuole vedere qualcosa di nuovo, possibilmente in tempo reale.
  • Utilizzare tecniche SEO vincenti: Essere tra i primi sui motori di ricerca, risulterà davvero difficile se non ti affidi ad una Web Agency. Dietro al mondo SEO ci sono così tante sfaccettature che anche se si è degli appassionati, ci vuole tanto lavoro e tante conoscenze che un semplice “cugino” difficilmente potrà avere.

In conclusione se vuoi che il tuo sito sia un sito di successo lo devi “Amare”.

E poi i proverbi antichi difficilmente sbagliato e io ne conosco uno che in questi casi definisce bene lo scopo di questo post ed è: “Chi meno spende, più spende” Se ti affidi al conoscente, al cugine smanettone che dice di essere un appassionato del mondo di Internet non affidargli il tuo progetto, è una perdita di tempo (=soldi). E in questo periodo il “tempo è denaro” e se non si arriva in tempo “il treno parte”. “A chi ha orecchie per intendere, intenda”!!!!!

 

 

 

Ricerca Semantica e SEO


L’ impatto di Hummingbird sulle tecniche SEO

Le tecniche SEO sono in continua evoluzione e chi lavora in questo campo sa bene che nel Settembre 2013 Google ha annunciato di aver introdotto un nuovo algoritmo per regolare il suo motore di ricerca: stiamo parlando dell’algoritmo “Hummingbird” (tradotto in italiano: “Colibrì”).

Questo nuovo algoritmo, è stato il primo vero passo verso la ricerca semantica, già dichiarata dal colosso di Mountain View nel 2008. Ne avevamo già parlato tempo fa di ricerca semantica in questo articolo.

Ma vediamoci chiaro: Cosa si intende per ricerca semantica?

La ricerca semantica, all’interno di un motore di ricerca, è quella tecnica che utilizza l’intelligenza artificiale per capire l’intenzione dell’utente che pone in essere una ricerca, invece di fare un’analisi attraverso le parole chiavi, come farebbe un normale dizionario.

Google-HummingbirdGoogle, attraverso Hummingbird, cerca di comprendere la relazione tra le parole inserite e la loro disposizione, in modo da capirne il significato, proprio come farebbe un essere umano.

Agli albori di Internet, era l’utente che si doveva adattare ai motori di ricerca utilizzando parole chiave e operatori booleani, oggi è la “macchina” che si adatta al ragionamento umano, in modo da rendere naturale l’interazione.

deep-learning

Attraverso Hummingbird, gli utenti si sono potuti interfacciare col motore di ricerca, attraverso il proprio linguaggio parlato, come se stessero parlando con un conoscente.

In altre parole invece di scrivere nel modulo di ricerca: “previsioni-Roma”, oggi si possono utilizzare espressioni del tipo: che tempo farà domani a Roma? Ci sarà il sole a Roma domani?, etc..

Addirittura adesso è possibile omettere la località di cui si vuole l’informazione, lasciando al sistema il compito di individuare la nostra posizione geografica.

cervelloMa attraverso la ricerca semantica, il sistema non solo ragiona come noi umani, ma lavora anche attraverso la logica;

Questo nuovo algoritmo si sposa bene con gli studi che Google porta avanti relativi alla ricerca vocale, la quale migliorerà ulteriormente la connessione uomo-macchina.

Ma come la ricerca semantica cambia la SEO ?

In passato, quando Google possedeva algoritmi non semantici, era possibile alterare la sua percezione semplicemente manipolando la “Keyword density” dei propri articoli, scritti nel sito, forzando così Google a credere che i contenuti fossero rilevanti e ricchi di informazioni a riguardo.

Questo modello però era troppo semplice e Google doveva porre rimedio a questo meccanismo, che non dava nessun valore aggiunto all’utente finale.

ricerca-semanticaA tale proposito Big G mise a punto un algoritmo, molto più complesso di quello precedente, che riusciva a capire se lo “spammer di turno” lo stava prendendo in giro con tecniche di writing spinto o se si trattava di un contenuto davvero utile.

Il primo passo che Google ha compiuto per non farsi “fregare” più è stato quello di introdurre Google Panda, un algoritmo in grado di valutare “il livello di spam” di una determinata pagina web. Questo sistema lavorava semplicemente come i server di posta (che individuano la posta indesiderata) per fare una prima scrematura del così detto spam.

pandaMa questo non era però sufficiente a garantire i “giusti” risultati in SERPEcco che Google è giunto a farsi questa domanda:

Come faccio ad essere certo che un testo di una pagina web che utilizza il 4% una determinata parola chiave (digitata dall’utente che si interfaccia con il motore di ricerca) non contenga, nel restante 96% notizie irrilevanti?

Per risolvere questo problema Google è approdato all’ algoritmo basato sulla “semantica” e a Hummingbird (presentato prima).

Con gli algoritmi semantici Google, non solo riesce a lavorare sulla parola chiave richiesta dall’utente, ma anche sui “Topic” (insieme di concetti) che rappresentano l’argomento a qui realmente l’utente è interessato, valutando i contenuti in toto. In altre parole attraverso gli algoritmi semantici, Google garantisce che:

  • i testi non abbiano ripetizioni forzate ed innaturali di Keyword;
  • non siano contenuti troppo brevi rispetto all’argomento trattato;
  • non siano testi scritti da persone che non conoscono l’argomento trattato.

Insomma per essere sicuri che Google non penalizzi un sito rispetto ad un altro, bisogna alzare la qualità di ciò che si scrive e realizzare contenuti assolutamente unici e utili.

penalizzazioniSe si garantiscono queste cose si è perfettamente in linea con ciò che Google ogni giorno cerca di ottenere, e non c’è da preoccuparsi minimamente di come realmente funziona il suo algoritmo semantico e di come Google ottiene i suoi risultati nelle SERP.

Hai verificato anche tu l’impatto di questi cambiamenti sui tuoi siti web ? Raccontaci cosa è cambiato nel tuo modo di fare SEO.