Site icon Monetizzando® di Valerio Novelli

Ottimizzazione SEO: Posizionamento sui Motori di Ricerca

Ottimizzazione SEO e Posizionamento sui Motori di Ricerca
4.7/5 - (4 votes)

Ottimizzazione SEO di un sito internet, di un blog o di un eCommerce: se sei arrivato su questa pagina sei alla ricerca di una Guida SEO e/o di informazioni su cos’è la SEO e come fare SEO.

Prenditi 10 minuti e leggi questa guida fino alla fine, troverai tutte le informazioni di cui hai bisogno per migliorare il posizionamento sui motori di ricerca del tuo sito internet.

Cominciamo da una piccola introduzione sulla SEO rispondendo ad una domanda che viene fatta ogni mese da 590 persone (vedremo più avanti come faccio a sapere che 590 persone si fanno questa domanda):

S.E.O. Significato

Ogni mese 590 persone scrivono su Google “S.e.o. Significato” mentre 480 persone cercano SEO significato.

SEO è l’acronimo di Search Engine Optimization, vale a dire Ottimizzazione per i motori di ricerca.

Si tratta di un insieme di attività e strategie che hanno come obiettivo quello di semplificare ai motori di ricerca la lettura dei contenuti e delle informazioni presenti all’interno di un blog, di un ecommerce o di un sito internet al fine di migliorare il posizionamento del sito sui motori di ricerca.

Ed in particolare l’obiettivo della SEO è quello di migliorare il posizionamento organico di un sito internet.

Con il termine “posizionamento organico” si intendono i risultati non sponsorizzati (ovvero non a pagamento) mostrati all’interno della pagina dei risultati di Google, chiamata SERP.

SERP è l’acronimo di Search Engine Result Page, vale a dire pagina dei risultati del motore di ricerca, ed è la pagina che visualizzano le persone ogni volta che fanno una ricerca su Google.

Posizionarsi ai primi posti dei risultati di ricerca permette di:

Ottimizzazione SEO

Per svolgere tutte quelle operazioni che ci permetteranno di migliorare il posizionamento di un sito internet all’interno delle SERP, e quindi dei risultati di ricerca, dobbiamo prima di tutto capire come funzionano i motori di ricerca, ed in particolare Google.

Google è infatti il motore di ricerca più utilizzato, ed il motore di ricerca scandaglia costantemente il web alla ricerca di nuovi contenuti e pagine da catalogare ed indicizzare, attraverso le fasi di:

Come funziona un motore di ricerca?

Siamo abituati a pensare che un motore di ricerca entri in funzione nel momento in cui un utente fa la sua “query”, ovvero “domanda di ricerca”.

Dopo che l’utente fa una query al motore di ricerca questo entra in funzione ed estrapola i risultati, ordinandoli e poi mostrandoli all’utente.

Questa è la spiegazione più semplice e logica che ci si aspetta quando si parla di risultati offerti da un motore di ricerca, ma in realtà i procedimenti che stanno dietro all’estrapolazione ed alla catalogazione dei risultati di ricerca sono più complicati.

Generalmente infatti, dopo che un utente fa la sua ricerca all’interno del motore di ricerca, inserendo le sue parole chiave (e quindi la “query di ricerca”, che nel caso di quest’articolo potrebbe essere “Ottimizzazione SEO”), il motore passa alla deduzione dell’argomento, ovvero cerca di capire di quale argomento stiamo parlando.

A questo proposito, dobbiamo ricordarci che ogni parola può avere diverse accezioni – in tal proposito, sull’argomento del senso delle parole, oggi si parla sempre più spesso di SEO Semantica – basta pensare alla parola “Calcio” che può riferirsi allo sport o all’alimentazione…).

Il motore di ricerca passa dunque all’analisi dell’intent, ovvero dell’intento di ricerca, che può essere:

Dopo aver passato le informazioni agli algoritmi di settore, il motore di ricerca, già dal 2012, è in grado di personalizzare i risultati in base alle preferenze dell’utente, ai dati di navigazione, alla nostra cronologia web e ad altri fattori. Una volta dunque effettuate:

il motore ci mostra finalmente i risultati della ricerca. Questo dimostra come sia complicato posizionare un sito internet ai primi posti nei motori di ricerca, e ci fa comprendere come i fattori della SEO variano a seconda dell’argomento di ricerca e dei risultati presenti negli archivi del motore di ricerca.

Le SERP e la Categorizzazione degli Utenti

Fra i vari fattori che influiscono nella costruzione delle SERP (Search Engine Ranking Page),  fra il 2010 ed il 2012, si è assistiti ad una categorizzazione lato utente che, tramite i log di ricerca, ha permesso ai motori di ricerca (e a Google in particolare) di capire quali sono gli interessi degli utenti ed inserirli in determinate “categorie”.

In sostanza Google è riuscito a Profilare, e lavora continuamente alla profilazione di ogni singolo utente.

Se un utente ad esempio cerca spesso automobili e novità sul mondo delle auto, google capirà che siamo degli appassionati di automobili e ci inserirà nella categoria di persona interessate al mondo dell’automobile.

Di conseguenza Google, quando crea una pagina di risultati di ricerca, ordina i suoi risultati in base al profilo dell’utente. 

Cosa fare dunque quando creiamo un sito internet?

Prima di pensare a posizionamenti invasivi o cercare di dominare le SERP che riteniamo più interessanti, cerchiamo di capire a quale “categoria di utenti” è utile il nostro sito, e cerchiamo dunque di categorizzare il nostro sito in maniera tale da raggiungere i nostri utenti – tipo.

Come faccio a capire secondo Google a che categoria appartiene il mio sito?

Google, anche se tu non lo sai, ha già categorizzato il tuo sito internet.

Per controllare in quale categoria ha inserito il tuo sito internet Google puoi utilizzare vari strumenti, ad esempio SEOZoom (che è lo strumento che permette ai SEO di ottenere tantissime informazioni fra cui anche i volumi di ricerca delle parole chiave, Clicca qui per richiedere la prova gratuita di SEOZoom).

È chiaro che per categorizzare un sito su una determinata categoria ho bisogno di avere contenuti per quella determinata categoria.

È utile utilizzare AdPlanner, SEOZoom o altri strumenti anche per capire come sono categorizzati quelli che noi consideriamo i nostri “competitor” e cercare di farci così categorizzare da google in maniera simile.

Fattori SEO

Fra i fattori che influiscono sul posizionamento di un sito internet, e quindi fra i fattori presi in considerazione dai motori di ricerca, ci sono:

Ottimizzazione SEO e Guida SEO

Come ottimizzare un sito per i motori di ricerca?

Ho già parlato di Ottimizzazione Sito Web in un articolo dedicato al libro di Verdiana Amorosi:

Prima di cominciare ad addentrarsi nel mondo della Link Building bisognerebbe avere un sito ben strutturato e ottimizzato: il consiglio che dò sempre a chi mi chiede “come posizionare un sito sui motori di ricerca” è prima di tutto lavorare al sito, su quelli che si chiamano fattori onsite:

Oltre ai fattori esterni, infatti, la prima cosa da curare è l’organizzazione interna: un sito che carica velocemente, che è usabile e che ha degli ottimi contenuti fa sempre la differenza sui motori di ricerca (anche se, in alcune nicchie di mercato, l’ottimizzazione del sito “On Site” può non essere sufficiente).

Cominciare con il piede giusto è fondamentale per avere risultati migliori, e quindi vediamo quali sono i

10 Suggerimenti per aumentare la visibilità su Google

Il dominio e la struttura del sito internet.

Il primo passo dovrebbe essere sicuramente la scelta del dominio. Perchè non bisogna pensare solo ai motori di ricerca ma anche agli utenti, e se il dominio non è semplice da ricordare (o non riesce ad entrare in testa) allora probabilmente già stiamo partendo con il piede sbagliato.

Una volta scelto il dominio (e ricordo che c’è chi acquista domini scaduti) è molto importante scegliere un buon hostingscegliere un buon CMS (oggi si sa che il più utilizzato e WordPress) ed un buon template per wordpress.

Evita di installare troppi plugin (componenti aggiuntivi), cercando a tal proposito di tenere sotto controllo la velocità di caricamento del nostro sito internet.

Una volta impostato tutto questo si può lavorare sulla struttura del sito (noto è il consiglio di creare una struttura ad albero, non andare troppo in profondità con le sottocategorie ed utilizzare i tag in maniera intelligente e non come se non ci fosse un domani!).

All’interno della struttura del sito dovrebbero essere considerate parti come le pagine principali (con ottimizzazione dei titoli ed i vari h1, h2, h3, …, ottimizzazione delle descrizioni, linking interno delle pagine principali, …). Anche le URL devono essere “SEO Friendly” (chissà, magari ti eri scordato di impostare i permalink.

Content is king?

Con l’esperienza maturata negli anni non so dirti se davvero “Content is king”, posso però dirti che i contenuti di qualità, nel tempo, vengono sempre più premiati dai motori di ricerca (e, sopratutto, dagli utenti).

Scrivi qualcosa che sia utile per gli utenti in un linguaggio comprensibile da chiunque, altrimenti non verrai letto.

Ricorda di inserire i grassetti, gli elenchi puntati dove necessario/utile, spaziare bene il testo, creare un buon piano editoriale (leggi l’articolo dedicato al piano editoriale).

E’ importante creare sia contenuti “attuali” (che possono portare traffico nel breve termine) sia contenuti che possano invece garantire una “stabilità di traffico nel tempo” in quanto contenuti sempre utili.

A proposito, non parlare di qualsiasi argomento ma ricorda di scegliere la tua nicchia (e magari ampliarla lentamente nel tempo).

Una volta creato il contenuto non aspettarti il miracolo ma promuovi il tuo contenuto sfruttando i social (e senza fare SPAM) ed i gruppi, le community ed i forum. Ricorda di regalare qualche tuo contenuto eccezionale (ovvero di scrivere dei guest post solo per siti di qualità e fama molto alta) per dimostrare ciò che vali, e non lesinare consigli e suggerimenti.

Una volta creato un buon contenuto prova a contattare anche persone che parlano del tuo stesso argomento e suggerisci il contenuto che hai creato: i link in ingresso sono importanti (ovvero è importante che le persone parlino dei tuoi contenuti e del tuo sito, sia inserendo i link sia commentando o citandoti fra altri esperti).

Usabilità: Fai che il tuo articolo sia letto (e il tuo sito visitato)

Puoi scrivere gli articoli più belli del mondo, ma se il font è 8 pixel sta tranquillo che… non li leggerà nessuno.

Lavora sull’usabilità del tuo sito internet, prova tu stesso a cercare “i tuoi migliori articoli” e naviga sul tuo sito come un utente: si riescono a trovare molte informazioni?

È difficile trovare i tuoi articoli più ca**uti? Lavora sull’usabilità, sulle spaziature dei testi, sulla dimensione dei caratteri, … Insomma rendi il tuo sito appetibile. E non dimenticare mai di sperimentare ed analizzare i risultati.

Perché nessuno condivide i miei contenuti?

Hai scritto un articolo fantastico e aspetti che la gente lo condivida. Ma tu l’hai condiviso? Conosco tantissime persone che sperano nella condivisione… senza che loro stessi condividano i contenuti migliori che hanno pubblicato.

Se non lo fai tu perché dovrebbe farlo qualcun altro? Comincia a dare il buon esempio (a proposito, puoi condividere anche dei buoni contenuti dei tuoi competitor, non c’è nulla di male, non trovi?)….

La link building secondo me è una vera e propria arte.

Non è per tutti.

Non sanno farla tutti.

E sopratutto non è una scienza esatta.

Se non sai farla non sperimentare suoi tuoi clienti.

Crea dei progetti tuoi “pilota” sui quali fare i tuoi test ed affinare le tue tecniche. Evita di fare SPAM (fare link building non significa fare spam, significa costruire una solida realtà in rete), impara a creare delle relazioni solide e ricorda di confrontarti (in maniera educata) con chi ne sa più di te.

Questo è solo l’inizio mio caro Semola, se ti intriga il mondo della SEO potrai leggere vari manuali, ma niente ti formerà più della sperimentazione e del confronto con professionisti seri.

Uno dei problemi di moltissimi siti internet è sicuramente la presenza, all’interno del sito, di link “rotti” o non funzionanti.

Nel corso della vita di un blog o di un sito internet è naturale (e giusto) linkare altri siti internet, ma capita che, a distanza di anni, alcuni domini non vengono più rinnovati, oppure alcune pagine vengono cancellate, e questo provoca l’aumento di “link non funzionanti” all’interno dei nostri siti.

Un link non funzionante non solo è una “esperienza negativa” (se così possiamo definirla) per un utente che visita il nostro sito (e che cliccando si aspetta di trovare qualcosa di utile e non una pagina che non esiste più): può dare l’impressione che il sito internet non sia poi “così curato” e, in ogni caso, non piace a google.

Se un sito internet ha molti link che puntano verso indirizzi rotti, sbagliati o non funzionanti, a lungo andare questo potrebbe essere un problema, ma, fortunatamente, il problema è facilmente risolvibile.

Con WordPress infatti basta installare un semplicissimo plugin molto funzionale: Broken Link Checker: una volta installato ed attivato, all’interno del nostro sito (che funziona con piattaforma wordpress chiaramente), comparirà una voce “Link Checker” su “impostazioni”: sarà lui in automatico a controllare periodicamente se ci sono link corrotti e a suggerirci di apportare modifiche (eliminare il link, aggiornarlo, …).

TrustRank di Google: Cosa è?

Il TrustRank nasce per combattere le pagine web considerate Spam. E’ un algoritmo che permette di controllare e gestire i link che puntano alle pagine web, evitando in questo modo di mostrare agli utenti pagine che sono considerate come Spam.

I siti internet vengono così suddivisi in siti ad alto trust, siti a basso trust (credibilità) e siti spam.

Inizialmente il TrustRank era un marchio registrato da Google che serviva a combattere il fenomeno delle truffe online e del phishing. Successivamente Yahoo adottò il termine per parlare di tecniche per combattere lo spam su internet.

Cosa è il TrustRank?Il TrustRank è una analisi dei link e dei contenuti di un sito internet che permette di capire quali sono i siti internet autorevoli e quali quelli di Spam. Se il nostro sito è linkato da siti con forte trust (per antonomasia siti importanti a carattere nazionale come ad esempio siti di comuni, regioni, quotidiani come Repubblica, Corriere in Italia, ….) molto probabilmente il nostro sito è da considerarsi di qualità, viceversa, se i siti che ci linkano hanno basso trust, il nostro sito non avrà molta credibilità.

In sintesi, il TrustRank classifica le pagine ed i siti internet e dà loro più o meno autorevolezza.

Ma il Trust Rank di un sito internet serve a dare credibilità e rilevanza non solo ad una determinata pagina o al dominio in generale, bensì a tutti gli articoli ed i contenuti presenti sul sito. Da notare anche che nel 2008 google ha rinunciato al marchio registrato “TrustRank”.

In un vecchio video del 2011 è possibile ascoltare Matt Cutts che spiega cosa intende Google con “Trust”:

Gli algoritmi di Google analizzano le pagine web che non sono classificate come Spam (vengono chiamate “Seed”, ovvero “Semi”), gli esperti (umani) analizzano le pagine assegnando dei punteggi e indicando agli algoritmi quali pagine sono da inserire nella categoria spam e quali invece sono di alta qualità; l’algoritmo procede di conseguenza classificando le altre pagine.

Come acquisire TrustRank, ovvero come acquisire autorevolezza

Gli Hub sono i siti che collegano il sito analizzato e l’autorità di un sito. I siti vengono considerati autorevoli se:

Quali sono i fattori che incrementano il Trust Rank?

Libri sulla SEO

Se vuoi approfondire le tue conoscenze sulla SEO probabilmente sarai interessato a conoscere quali sono i migliori libri sulla SEO in commercio.

Come prima cosa non posso non parlarti del mio libro dedicato alla SEO:

Sicuramente uno dei libri che ha fatto la Storia, forse per essere stato uno dei primi libri completi pubblicati sull’argomento, è SEO Power di Giorgio Taverniti, un libro scritto dal fondatore dello storico FORUM GT.

Altri libri sicuramente degni di nota sono SEO e SEM di Marco Maltraversi, poi il famosissimo The Art of SEO di Eric EngeStephan Spencer e ancora Link Building di Ivano di Biasi.

Qui di seguito trovi i box per comprare questi testi direttamente su Amazon:

Not Provided e SEO

Per un utente è semplicissimo “nascondere” ai proprietari dei siti internet le proprie ricerche: i risultati not provided sono tutti i risultati degli utenti che effettuano ricerche dopo aver effettuato l’accesso su google (con gmail, con youtube, con google+, …): basta effettuare l’accesso per nascondere, ai proprietari dei siti, le parole chiave utilizzate nella ricerca.

Oggi tantissimi siti internet, quando accedono alle proprie statistiche, vedono che i “not provided”, sono circa il 60 – 80% del traffico totale verso un sito internet.

Cosa significa realmente la perdita di questi dati?

In breve, la perdita di questi dati significa:

Come misurare allo il successo e le performance delle operazioni SEO?

I professionisti SEO utilizzano una combinazione di: ranking, traffico, conversioni come metriche e KPI per misurare i risultati del lavoro che si sta svolgendo. Le metriche disponibili ancora oggi sono:

E’ importante oggi misurare quali sono le pagine che portano più traffico (che ricevono più traffico) dalla ricerca organica all’interno del sito e cercare di capire quali sono le parole chiave correlate a queste pagine.

Utilizzare Google WebMaster tools per capire quali sono le variazioni a livello di clic / impressions per le parole chiave, tenendo a mente che questi dati non sono precisi al 100% e sono disponibili per una piccola percentuale di parole chiave.

Redirect 301 e Canonical

Nel 2009 Matt suggeriva di utilizzare il rel=canonical quando non era possibile utilizzare un redirect 301.

Ma, scrive un utente, il 301 compromette le prestazione perchè richiede ai browsers di fare un altro “viaggio” verso il mio server. Non è possibile utilizzare il rel=canonical ovunque al posto de Redirect 301?

Matt Cutts risponde in maniera abbastanza diplomatica: Tu sei il proprietario del tuo sito internet quindi tu decidi quando utilizzare il redirect 301 e quando il rel=canonical. Ma la maggior parte delle volte io (Matt Cutts) raccomando l’utilizzo del Redirect 301.

Questo perché tutti sanno come offrire e chiamarlo.

Lo sanno gli utenti, i browsers, i motori di ricerca. Solitamente inoltre il Redirect 301 serve perché stai migrando qualcosa del tuo sito verso una nuova posizione (una nuova location).

Come Indicizzare Velocemente Contenuti su Google?

È possibile forzare l’indicizzazione di un sito web o di una pagina, un contenuto, un articolo, su Google?

I tempi impiegati da Google per indicizzare una pagina web variano in base a numerosi fattori, è possibile però forzare Google a “passare dal nostro sito” per visualizzare un contenuto.

Si tratta di un sistema che va usato con moderazione e che permette di richiedere il passaggio di Googlebot dal nostro sito in maniera immediata: è una pratica lecita (non si tratta di black hat SEO) che permette di analizzare una risorsa in modo immediato.

Basterà infatti aprire la Google Search Console quindi andare su “Scansione/Visualizza Come Google”.

Da questa pagina possiamo dunque inserire l’URL della pagina o del sito da indicizzare, scegliere fra desktop e mobile quindi cliccare su “recupera” o su “recupera e visualizza”: in questo modo Google recupererà il contenuto della pagina e noi potremo cliccare sul bottone “Invia all’Indice” quindi fare la nostra richiesta di indicizzazione/reindicizzazione.

L’hanno chiamato “disavow links tool” (qui la pagina del “Disavow Links Tool”).

Prima di tutto chiaramente puoi controllare i tuoi links recenti, controllare tutti i link che puntano al tuo sito e, generalmente, ricevi (questa è una funzione presente già da un pò di tempo) un messaggio da Google che ti dice più o meno: “Sul tuo sito sono stati ritrovati dei link innaturali, malevoli, o di bassa qualità”, e ti viene consigliato di rimuoverli.

Generalmente, quello che bisognava fare, era cercare di contattare i siti che linkavano il nostro sito, chiedendo di rimuovere i link verso il nostro sito.

Matt Cuts precisa che, se non hai adottato strategie aggressive lato SEO non è un problema rimuovere alcuni link che hanno bassa qualità.

In questo video, in inglese, Matt Cuts, parla di questo nuovo strumento introdotto ad Ottobre 2012, di come utilizzarlo e quando va utilizzato, consigliando di utilizzare il “Disavow Tools” solo in casi estremi e particolari, e di non usarlo in maniera massiva.

Il Disavow Links Tool, ovvero loStrumento per Disconoscere i link, come spiegato anche nel video, non deve essere utilizzato in modo massivo, ma dovrà essere utilizzato, a quanto pare, solo in situazioni particolari o casi estremi.

E’ evidente inoltre che sarebbe stato più comodo per i SEO e per i proprietari di siti internet avere un comodo segno di spunta di fianco all’elenco degli URL che linkano un sito internet per comunicare a Google “questo consideralo valido / questo disconoscilo”.

Dovrebbe dunque essere una importante arma per combattere non solo chi ci linka a nostra insaputa, ma anche chi vuole fare del SEO inverso (ovvero attuare operazioni black hat sui siti dei competitors per far salire automaticamente il sito principale).

Differenza Black Hat SEO e White Hat SEO

Qui di seguito puoi vedere un esempio di pratiche Black Hat SEO e pratiche White Hat SEO: non si tratta di un elenco completo ma di alcuni esempi che ti faranno capire quali sono le differenze fra chi lavora in maniera “pulita” o white e chi invece cerca a tutti i costi di posizionarsi sui motori di ricerca.

Strategie Black Hat SEO

Strategie White Hat SEO

Algoritmi SEO

(Dal 2003 al 2012)

L’evoluzione di Google e del suo motore di ricerca.

Gli aggiornamenti agli algoritmi Dal 2003 al 2007 hanno mirato a colpire i siti internet che effettuavano una ottimizzazione eccessiva delle pagine di un sito internet (over optimization on page).

– 2003 –

Google dance: (Gennaio 2003) Aggiornamenti mensili che mirano a migliorare i risultati di ricerca (Boston, Cassandra, Esmeralda, Fritz) e causano il cambio di posizione frequente di un sito internet nelle SERP.

Florida: (Novembre 2003) Vengono colpiti ed identificati i siti internet che fanno keyword staffing e le tecniche di over optimization on page.

– 2004 –

Austin: (Gennaio 2004) Vengono migliorati gli algoritmi che riconoscono tecniche black hat on page (testo nascosto e keyword stuffing all’interno dei meta tags);

Brandy: (Febbraio 2004) Aggiornamenti che mirano ad espandere l’indice, lavorare su una indicizzazione semantica (LSI) ed aumentare l’attenzione alla rilevanza del testo di un link (Anchor Text). Google migliora la sua comprensione dei sinonimi e la keyword analysis.

2005 –

Nofollow: (Gennaio 2005) Google, Yahoo! e Microsoft introducono l’attributo “nofollow” con l’obiettivo di controllare la qualità dei link in entrata. L’attributo indica ai motori di ricerca di non seguire alcuni link (fra cui link spam e commenti dei blog).

Allegra: (Febbraio 2005) Si parla di Sandbox e LSI, diversi webmaster notano cambiamenti nelle SERP ma non si capisce l’obiettivo di questo algoritmo, forse Google inizia a penalizzare link sospetti.

Bourbon: (Maggio 2005) Si suppone che Bourbon cambia il metro di valutazione dei contenuti duplicati all’interno di un sito internet.

Local Maps: (Ottobre 2005) Grande aggiornamento algoritmico che incide sui fattori di ranking per il Local SEO.

Jagger: (Ottobre 2005) Con una serie di aggiornamenti google colpisce link di bassa qualità, link reciproci, schemi di link e vendita di links.

2006 – NON PERVENUTO: Dall’infografica non sembra ci sia stato nessun aggiornamento algoritmico in google (molto strano!)

– 2007 –

Universal Search (Maggio 2007). Non si tratta di un vero e proprio aggiornamento algoritmico, ma google inserisce ora nelle serp Notizie, immagini, local ed altri motori verticali. Si dice che da questo momento la vecchia serp con 10 risultati cessa di esistere.

– 2008 –

Suggest (Agosto 2008) Google inserisce i suggerimenti di ricerca in un box, mentre gli utenti stanno scrivendo una parola chiave, si evolverà negli anni in google instant.

Gli aggiornamenti effettuati fra il 2009 ed il 2010 sembrano dare grande importanza ai segnali di ranking legati ad un brand.

– 2009 –

Vince (Febbraio 2009) Grande aggiornamento che sembra favorire i grandi brand.

Rel Canonical Tag (Febbraio 2009) – Google, Microsoft e Yahoo! annunciano il supporto per il tag Canonical, attraverso il quale i webmaster possono inviare segnali di canonicalizzazione alla ricerca bot senza incidere sui visitatori (rel=”canonical”).

Caffeine (Agosto 2009) Google rilascia un grande cambiamento infrastrutturale progettato per accelerare il crawling ed espandere l’indice, integrando indicizzazione e posizionamento quasi in real time.

Real Time Search (Dicembre 2009) – Vengono forniti contenuti in tempo reale per Google News, Twitter e nuovi contenuti che vengono indicizzati insieme ad altre fonti all’interno di feed in tempo reale (compresi anche i social media a seconda dell’argomento).

– 2010 –

May Day (Maggio 2010) – Fra aprile e maggio i webmaster notano un calo del traffico da long-tail. Matt cutts conferma che quest’algoritmo impatta sulle query long tail (vengono colpiti siti con grande quantità di articoli porveri).

Brand Update (Agosto 2010) – Non un vero e proprio aggiornamento algoritmico, Google mostra nelle Serp più risultati dello stesso dominio.

Google Instant (Settembre 2010) – I risultati di ricerca vengono mostrati durante la digitazione di una query. Gli impatti sulle SERP in realtà sono poco significativi, l’aggiornamento aiuta semplicemente a dare risultati più velocemente agli utenti.

Social Signal (Dicembre 2010) – Google e Bing utilizzano i segnali sociali come fattori di ranking.

Fra il 2011 ed il 2012 i segnali sociali aumentano di importanza all’interno degli algoritmi di ranking di Google.

– 2011 –

Attribution (Gennaio 2011) – Google, per combattere l’aumento dei casi di Spam, lancia un aggiornamento che aiuta a risolvere i problemi di attribuzione dei contenuti. Precursore del Panda…

Panda (Febbraio 2011) – Ecco che vengono colpiti i siti con contenuti di bassa qulità, le content farms, i siti con molta pubblicità rispetto ai contenuti e siti con problemi qualitativi di contenuti (arriva in Europa ad Aprile 2011).

+1 Button (Marzo 2011) – Google lancia il pulsante +1. Questo pulsante influenza i risultati di ricerca all’interno dei social circle (Anche per gli annunci a pagamento).

Schema (Giugno 2011) – Google, Yahoo! e Microsoft annunciano un supporto consolidato per i dati strutturati, creando degli schemi con l’obiettivo di arricchire i risultati di ricerca.

Google+ (Giugno 2011) – Google lancia google+, le innovazioni introdotte sono le cerchie di utenti e l’integrazione con i prodotti di Google (all’inizio solo Gmail, oggi in continua espansione).

Pagination elements (Settembre 2011) – google per prevenire problemi di contenuti di crawling e contenuti duplicati introducegli attributi rel=”prev” e rel=”next”.

Freshness (Novembre 2011) – Google annuncia l’aggiornamento algoritmico della freschezza dei contenuti (impatta il 35% delle query).

– 2012 –

Search+ Your World (Gennaio 2012) – Google annuncia il cambiamento delle impostazioni sui contenuti social di Google+, che adesso vengono integrati nei profili utente e compaiono nelle SERP (possono essere disattivate le personalizzazioni tramite un pulsante).

Ads Above the fold (Gennaio 2012) – Google aggiorna gli algoritmi relativi al layout delle pagine e svaluta i siti con troppa pubblicità nella parte alta (above the fold).

Venice (Febbraio 2012) – Viene effettuato un miglioramento dei risultati organici localizzati ed integrati con i dati di ricerca.

Penguin (Aprile 2012) – Over Optimization Penality e WebSpam Update: l’algoritmo agisce su fattori di spam fra cui keyword stuffing.

Knowledge Graph (Maggio 2012) – Dati aggiuntivi integrati nelle SERP per avere informazioni su alcune persone, film, luoghi, musica, …

DMCA Penalty Pirate Update: (Agosto 2012) Vengono penalizzati siti con ripetute violazioni del Copyright.

Exact Match Domain (Settembre 2012) – Viene cambiato il modo in cui si valuta la corrispondenza esatta dei domini con l’argomento del sito.

Hai bisogno di consulenza? Contattami.

Approfondimenti e Conclusioni

In questa sezione ho scelto di inserire alcuni link che ritengo interessanti.

25 Errori SEO “che distruggono il tuo posizionamento su Google” – http://www.ilmioposizionamento.it/25-errori-seo-distruggono-posizionamento-google/

Questo articolo verrà aggiornato costantemente, per rimanere aggiornato puoi aggiungerlo ai preferiti o iscriverti alla Newsletter di Monetizzando®.

Buon lavoro e buon posizionamento sui motori di ricerca,

Valerio

Ultimo aggiornamento 2024-03-21 / Link di affiliazione / Immagini da Amazon Product Advertising API

Exit mobile version