SEO E SEM Guida Avanzata Al Web Marketing - Marco Maltraversi - PDFCOFFEE.COM (2024)

.

NOTA Usare il grassetto sulle keyword sembra incidere poco a livello di posizionamento. A ogni modo, il grassetto potrebbe essere utilizzato per evidenziare keyword del contenuto che compaiono nel tag title e nel meta tag description. Per Bing, invece, sembra essere importante la presenza di una keyword nel tag BOLD ().

Ovviamente, i webdesigner hanno a disposizione molti elementi per formattare correttamente il testo e renderlo più gradevole agli occhi dei visitatori, anche con l’utilizzo dei CSS. Il nostro consiglio è quello di concentrarsi sull’uso corretto del grassetto e dell’italico all’interno del documento da redigere, e di utilizzare i tag e per conferire maggiore enfasi alle parole. Nei prossimi capitoli sarà ampiamente illustrato il tema inerente alla scrittura per il web

in ottica SEO.

Attributo ALT nelle immagini Le immagini costituiscono una parte fondamentale nell’estetica di un sito web, ma, come vedremo in seguito, anch’esse dovranno essere considerate per ottimizzare il nostro sito web in un’ottica SEO. L’attributo alt è un elemento interno del tag e serve per fornire un testo alternativo in caso di non disponibilità dell’immagine stessa. Ciò può essere d’aiuto nel caso che un utente stia navigando sul nostro sito con un browser che non supporta le immagini: l’attributo alt fornirà informazioni in merito all’immagine corrispondente. Nell’esempio sotto riportato vediamo, per l’appunto, l’utilizzo dell’attributo alt per una determinata immagine:

Figura 4.12 - Esempio di applicazione e utilizzo del tag “alt”.

NOTA Questa pratica deve diventare di uso comune per tutti i webmaster: affinché un sito sia validato secondo gli standard W3C, la presenza dell’attributo alt per le immagini costituisce uno dei requisiti fondamentali.

Per quanto riguarda la SEO, sarebbe ottimo affiancare al testo un’immagine contenente nell’alt una keyword che appare anche nel contenuto a fianco dell’immagine, come per esempio nel tag

e nel meta tag description. Come sempre, non bisogna abusare di queste tecniche, ma amalgamarle per ottenere i migliori risultati. Una buona idea potrebbe essere quella di usare delle immagini per costruire elenchi puntati di link contenenti keyword, utili nel caso di pagine con pochi contenuti (potete osservare un esempio di questa tecnica nella Figura 4.13).

Figura 4.13 - Elenco puntato con immagini con l’utilizzo dell’attributo alt per rafforzare la presenza delle keyword.

NOTA L’attributo title del tag può essere usato per definire i tooltip visibili quando viene posizionato il cursore sopra l’immagine. Anche se la sua utilità in termini di SEO non è comprovata, consigliamo di utilizzarlo per migliorare la user experience del proprio sito web.

HTML 5 e SEO L’HTML 5 è un linguaggio di markup per la costruzione di pagine web che con il tempo andrà a sostituire l’attuale HTML 4.01, di cui rappresenta la naturale evoluzione. Per tale motivo, anche in ambito SEO dovremo aspettarci novità e cambiamenti. Affrontarli in anticipo ci consentirà di agire sulle nostre pagine per migliorarne l’indicizzazione in un modo sempre più orientato verso i metadati e le strutture semantiche. I motori di ricerca stanno diventando sempre più intelligenti: utilizzare quella che viene definita segmentazione (cioè una pagina è divisa in varie parti distinte e queste parti sono trattate come voci separate) è importante al fine di migliorare il posizionamento del sito web. Attualmente non vi è un modo per fare questo, ma con HTML 5 la situazione potrebbe cambiare radicalmente. Infatti HTML 5 (utilizzato con CSS3) introduce diversi nuovi tag per modellare in maniera semplice il layout di un sito web e fornire informazioni e metadati aggiuntivi ai motori di ricerca. Da qui ci accorgiamo come il web stia assumendo un’impronta semantica; di conseguenza, sia i motori di ricerca, sia i linguaggi di programmazione devono adattarsi a tali cambiamenti.

Figura 4.14 - Struttura di un sito secondo HTML.

Analizziamo ora i principali nuovi tag introdotti da HTML 5.

Il tag Il tag è una benedizione per gli esperti SEO, perché aggiunge una notevole flessibilità al layout delle pagine web. Il tag è molto simile al tag ; la principale differenza è data dal fatto che può avere diversi contenuti come H1, H2, H3, possedere interi paragrafi di testo, hard-coded link. Con questo elemento si raggruppano i contenuti presenti nell’intestazione del documento HTML.

Il tag La facilità di navigazione di un sito web è uno dei fattori importanti per gli esperti SEO. Il tag è preposto a contenere gli elementi di navigazione della pagina. Sarà quindi un tag molto utilizzato dagli spider per indicizzare i contenuti di un sito web.

Il tag Il tag permette di contrassegnare le voci separate in una pubblicazione online, come un blog o una rivista. Si prevede che, nel caso di articoli contrassegnati con il tag , quest’ultimo renderà il codice HTML più pulito, perché ridurrà la necessità di utilizzare i tag .

Il tag Il tag può essere utilizzato per identificare le sezioni separate di una pagina, di un capitolo o di un libro.

Il tag Serve a raggruppare due o più intestazioni successive all’interno di una sezione. Esso può essere composto dai tag h1 fino a h6.

Il tag L’elemento figure serve per rappresentare diagrammi, immagini o contenuti grafici in generale. A questo tag possiamo associare una didascalia grazie all’elemento figcaption.

Il tag Il nuovo elemento cross-browser che fornisce il supporto a contenuti multimediali.

Il tag Con questo elemento si raggruppano i contenuti secondari del documento HTML, tipicamente quelli gestiti nelle barre laterali di un sito web.

Il tag Il tag può essere utilizzato più volte all’interno di una medesima pagina e serve per chiudere delle sezioni e fornire informazioni sulla pagina.

NOTA I tag che abbiamo descritto sono solo alcuni dei tanti e ci vorrebbe un intero libro per illustrarli tutti; per approfondire l’argomento rimandiamo il lettore al seguente articolo: http://www.w3schools.com/html/html5_new_elements.asp

HTML 5 si sta diffondendo sempre più, e anche i motori di ricerca, come vedremo nei prossimi paragrafi, stanno adottando nuove funzionalità derivanti da questo linguaggio (markup, snippet, rel next e prev ecc.). I vantaggi legati all’uso di HMTL 5 sono numerosi: • miglioramenti in usabilità e user experience; • inserimento e adozione di tag che aiuteranno gli sviluppatori nella classificazione dei contenuti; • contenuti web ricchi (audio & video); • costituisce una valida alternativa a Flash e Silverlight; • è ormai ampiamente utilizzato per applicazioni mobili e giochi. Quando HTML5 passerà alla release ufficiale, ci sarà un grosso cambiamento nel campo SEO, poiché verranno utilizzati nuovi campi e nuove strutture da parte dei motori di ricerca per indicizzare contenuti e pagine web. Tuttavia, una volta che HTML 5 sarà usato dalla comunità web, esso diventerà lo standard dominante negli anni a venire, ed è per questo che risulta opportuno testare e tenere d’occhio questa tecnologia, che cambierà l’approccio allo sviluppo di applicazioni per il web.

NOTA HTML 5 introdurrà anche tag rel () con significati semantici atti a definire la relazione che intercorrerà tra i diversi link. Ciò, a nostro avviso, modificherà lo scenario SEO introducendo nuovi e interessanti parametri da prendere in considerazione.

Il Web Semantico Siamo giunti a uno stadio in cui le informazioni che circolano sulla rete sono divenute incontrollabili e anche difficilmente categorizzabili. I motori di ricerca ci aiutano nel reperire le informazioni, ma spesso questo non basta. Magari quello che cerchiamo è nascosto all’interno di un sito poco indicizzato ed è proprio lì che risiede il vero valore. In questo contesto nasce il Web Semantico (Semantic Web), un’architettura universale atta allo scambio di informazioni e conoscenza. Il Semantic Web dovrà integrare e sostituire il web normale per esprimere concetti e informazioni in maniera comprensibile alle applicazioni. In poche parole, con Web Semantico si intende la trasformazione di Internet in un ambiente dove è possibile fornire informazioni e dati in un formato adatto all’interrogazione, all’interpretazione e, più in generale, all’elaborazione automatica. Tra le varie tecnologie adottate per giungere a tale scopo, troviamo: • XML (eXtensible Markup Language), un metalinguaggio che fornisce un insieme standard di regole sintattiche per modellare la struttura di documenti e dati (utilizzato, per esempio, per le Sitemap e i Feed RSS); • URI (Uniform Resource Identifier): serve a identificare in modo univoco una risorsa; • OWL: serve per identificare espressioni di relazioni tra le proprietà in ontologie; • DAML+OIL, linguaggio di ontologia orientato agli oggetti (Object Oriented); • Web Service, un insieme di servizi atti a supportare l’interoperabilità tra diversi dispositivi. Con il termine Web Semantico si intende quindi la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati (pagine HTML, file, immagini, e così via) sono associati a informazioni e dati (metadati) che ne specificano il contesto semantico in un formato adatto all’interrogazione, all’interpretazione e, più in generale, all’elaborazione automatica. I principali motori di ricerca si stanno adoperando per cercare di sfruttare la ricerca semantica all’interno dei loro algoritmi, in modo da fornire risultati sempre più precisi ed eliminare lo spam nelle SERP.

Google e le novità del Web Semantico Google è il motore di riferimento e, anche per quanto concerne il Semantic Web, si sta muovendo in tale direzione. Recenti dichiarazioni (fonte: http://bit.ly/web-semantico) di Amit Singhal, ex top executive di Google Search, hanno aperto nuovi e interessanti scenari. Singhal ha infatti dichiarato che “il motore di ricerca abbinerà meglio le query con un database che contiene

milioni di ‘entità’ – persone, luoghi e cose – accumulate a mano a mano nel corso degli ultimi due anni”. La ricerca semantica potrà aiutare ad associare tra loro parole diverse, per esempio una società (Google) con i suoi fondatori (Larry Page e Sergey Brin). Alcuni importanti cambiamenti sono già stati “attivati”, ma questo cammino verso la ricerca semantica è frutto di un lavoro in corso da anni, che farà entrare Google “nella nuova generazione dei motori di ricerca”. Proprio con l’introduzione del Knowledge Graph, Google ha permesso di rendere le ricerche più facili affinando la ricerca semantica grazie al nuovo algoritmo di Hummingbird. In questo modo il risultato della ricerca è dato dalla correlazione di informazioni “raccolte” da diverse fonti che includono, per esempio, Freebase, Wikipedia,Wikidata e alcuni siti di alta qualità selezionati da Google. Ma non è finita: a ottobre 2015 Google ha comunicato, come abbiamo già avuto modo di vedere, un nuovo algoritmo che sfrutta l’Intelligenza artificiale, ovvero RankBrain il cui scopo è quello di interpretare i risultati di ricerca e fornire le migliori informazioni possibili a sua disposizione. In definitiva, RankBrain utilizza l’intelligenza artificiale per incorporare grandi quantità di dati trasformandole in entità matematiche - denominate vettori - comprensibili da un elaboratore. In tal modo, RankBrain analizza una parola o una frase per fare un’ipotesi sul suo significato filtrando, di conseguenza, il risultato. Ciò rende più efficace la gestione delle query rispetto a quanto visto fino a oggi.

NOTA Il percorso di migrazione verso il Web Semantico da parte di Google è iniziato con l’acquisizione di Orion, nel 2006, e di Metaweb, nel 2010.

In questo scenario, il primo grande cambiamento di Google è stato quello strutturale. Il vecchio motore è stato completamente rimpiazzato da un nuovo motore semantico in grado di individuare entità univocamente riconoscibili nelle pagine web e stabilirne le relazioni con tante altre entità. Le relazioni tra le varie entità sono l’aspetto fondamentale su cui si costruisce il nuovo motore, perché danno la possibilità a Google di approssimare una risposta per deduzione. Questa capacità deduttiva basata sulle relazioni tra le varie entità conferisce a Google una sorta di intelligenza artificiale che gli permette di rispondere con certezza su molti argomenti di cui è “bene informato” e di dedurre possibili risposte attraversando le relazioni tra gli elementi dell’ormai noto Knowledge Graph. In concreto, se cerchiamo le parole “lago Tahoe” su Google, il motore di ricerca è in grado di fornirci tutto quel che sa a proposito del lago: la sua posizione, la sua altitudine, la sua temperatura media e il grado di salinità delle sue acque. In passato, se cercavamo “lago Tahoe”, Google ci restituiva solo dei link all’ufficio turistico del lago, la relativa pagina di Wikipedia e un link alla mappa della località. Per fornire risposte a questo tipo di domande, il motore unisce una nuova tecnologia di ricerca semantica al suo attuale sistema di indicizzazione dei contenuti. L’obiettivo? Riconoscere meglio il valore delle informazioni pubblicate sul web e capire, quindi, quali contenuti mostrare nei

risultati della ricerca. Tutto questo dovrebbe avvenire non più affidandosi soltanto alla lettura delle parole chiave contenute nelle pagine del web, ma attraverso il riconoscimento di specifiche “entità”.

Figura 4.15 - Google e l’evoluzione della ricerca semantica.

Google spera, inoltre, che la ricerca semantica possa invogliare le persone a trascorrere più tempo sul suo sito, entrando così in competizione con Facebook e Twitter, tra i maggiori siti al mondo per tempo medio di navigazione. La mossa verso la ricerca semantica potrebbe spingere milioni di siti web a riorganizzare le loro pagine, modificando ciò che viene chiamato il “linguaggio di mark-up” per agevolare il recupero delle informazioni (in questi termini si è espresso Larry Cornett, web-search executive di Yahoo!). Singhal ha fatto sapere che Google e Metaweb Technologies hanno ampliato questo database fino a raggiungere la quota di 200 milioni di “entità”, in parte attraverso lo sviluppo di algoritmi di estrazione e formule matematiche che semplificano l’organizzazione dei dati raccolti nel web. Google si è spinta anche oltre, interpellando organizzazioni e agenzie governative per ottenere gli accessi a un gran numero di database, tra cui il CIA World Factbook, che raccolgono informazioni aggiornate di carattere enciclopedico sui Paesi di tutto il mondo. Oggi Google è un motore di ricerca molto complesso e con Hummingbird è decisamente intent based, ossia tendente a comprendere quale sia l’intenzione che sta dietro la ricerca dell’utente,

quindi l’approccio del SEO deve essere completamente diverso. Insomma, il Web Semantico si sta avvicinando a grandi passi e stravolgerà il modo di concepire il web e soprattutto la SEO. Concetti come quello di Linked Open Data (LOD) si stanno diffondendo nell’ambito web; cerchiamo di capirne di più. Al giorno d’oggi, l’idea di collegare le pagine web utilizzando i collegamenti ipertestuali è ovvia, ma risale a 20 anni fa. Il concetto su cui si basa il Linked Data è quello di definire opportune regole per la pubblicazione dei dati sul web in modo che essi possano essere facilmente individuati, incrociati e manipolati dalle macchine. Tutte queste informazioni sono organizzate in modo semantico secondo i concetti dell’RDF. In sostanza, il LOD ci permetterà di pubblicare dati strutturati in modo che possano essere interconnessi tra di loro e sia possibile stabilire delle relazioni tra di essi. Alla base di tutto vi sono fondamentalmente due concetti: • Web Semantico; • URI, Uniform Resource Identifier. Linked Open Data è la rappresentazione di dati strutturati migliorati attraverso l’uso di URI HTTP; in sostanza, stiamo parlando di entità-relazioni rappresentate da dati strutturati basati su modelli in cui le entità, gli attributi e i valori di attributi sono indicati da link. C’è ancora molta strada da fare prima che questi concetti vengano realmente applicati al mondo del web di tutti i giorni e soprattutto alla SEO, ma con Schema.org, hashtag ecc., ci stiamo avvicinando a questa tipologia di rappresentazione, che sicuramente costituisce il futuro dei collegamenti ipertestuali semantici. I dettagli del progetto si possono trovare all’indirizzo: http://linkeddata.org/

Figura 4.16 - Semantica sul web.

I microformati All’interno del Web Semantico si collocano anche i microformati, che non sono altro che una parte di mark up presente in una pagina web, con un intrinseco valore semantico. L’uso di standard largamente adottati come l’(X)HTML li rende modulari e semplici da utilizzare.

Figura 4.17 - Microformats.org, i microformati.

Tra i principali microformati utilizzati troviamo: • hCard: è un formato utilizzato per creare strutture dati inerenti a persone, aziende, organizzazioni e luoghi; • hCalendar: serve a standardizzare e identificare eventi o date; • hReview: è specifico per la recensione di prodotti o servizi; • hProduct: è specifico per la descrizione di prodotti o oggetti.

NOTA Per scoprire tutti i microformati presenti, consigliamo di visitare il sito microformats.org: a tale indirizzo sono presenti utili tool per creare automaticamente strutture dati che utilizzano i microformati.

Vediamo un esempio pratico di utilizzo; per prima cosa, prendiamo in considerazione una porzione di codice html:

Di seguito, mostriamo l’inserimento dei microformati con l’utilizzo dell’hCard:

Possiamo notare come sia semplice utilizzare i microformati: essi forniscono informazioni aggiuntive sulla corretta interpretazione dei dati senza modificarne il layout grafico. Ma tutto questo come interagisce con la SEO? I motori di ricerca si stanno sempre più evolvendo verso un’ottica semantica; per questo motivo dobbiamo essere preparati a tali cambiamenti. Recentemente, inoltre, Google ha annunciato la possibilità di utilizzare proprio informazioni semantiche per la creazione di Rich Snippet, affermando: “Grazie ai Rich Snippet, i webmaster che hanno siti contenenti dati strutturati (per esempio, siti di recensioni o con schede di attività commerciali) possono assegnare un’etichetta ai propri contenuti per chiarire che ogni porzione di testo con etichetta rappresenta un determinato tipo di dati: per esempio, il nome di un ristorante, un indirizzo o un voto”. Quindi, attraverso l’utilizzo di microdati, microformati o RDF, è possibile cercare di arricchire lo snippet nella SERP di Google, com’è mostrato in Figura 4.18.

Figura 4.18 - Rich Snippet utilizzando i microformati.

Attualmente, Google supporta tre linguaggi di marcatura per i dati strutturati: i microformati, RDFa del W3C e lo standard microdata dell’HTML 5. Nonostante l’approvazione del W3C, RDFa risulta decisamente più articolato da padroneggiare e gestire in confronto ai microformati e, teoricamente, questo fattore ostacola la sua diffusione. Ciò non significa che non valga la pena di utilizzarlo, poiché presenta vantaggi potenziali, come l’utilizzo di un minor numero di codici di marcatura, che implica pagine di dimensioni più piccole. Anche lo standard microdata dell’HTML 5 sembra molto promettente, ma allo stato attuale è ancora in fase “beta”.

NOTA Secondo Google i microdati utilizzano semplici attributi nei tag HTML per assegnare nomi brevi e descrittivi a elementi e proprietà. RDFa è un modo per associare etichette ai contenuti al fine di descrivere uno specifico tipo di informazioni (http://tinyurl.com/metardfa).

Ora che abbiamo compreso l’utilità di questi strumenti, analizziamoli in modo più approfondito attraverso esempi pratici. Utilizziamo i microformati (essendo questi i più utilizzati e semplici da implementare) per descrivere la nostra organizzazione.

Figura 4.19 - Esempio hCard per un’organizzazione.

Le proprietà utilizzate sono: • fn org: nome dell’organizzazione; • url: link del sito web; • adr: l’indirizzo del business; esso contiene le sottoproprietà: street address, locality, region, postal-code e country-name; • tel: numero di telefono; • geo: specifica le coordinate geografiche. È utile creare tale struttura nella pagina di contatti dell’attività: analogamente, possiamo sfruttare i microformati per creare schede informative riferite a persone o enti. Si può proporre l’utilizzo dei microformati, implementandoli all’interno di una scheda prodotto, com’è illustrato nella Figura 4.20.

Figura 4.20 - Esempio hproduct nella descrizione di un prodotto.

Le proprietà utilizzate nel nostro esempio sono: • brand, per indicare il brand del prodotto; • category, per indicare la categoria merceologica; • description, per indicare la descrizione del prodotto; • fn, per indicare il nome del prodotto;

• • •

price, per indicare il prezzo del prodotto; photo URL, la foto del prodotto; url, per indicare l’URL della pagina di descrizione del prodotto.

Abbiamo quindi potuto apprezzare e osservare la facilità di utilizzo di queste strutture di dati, che si integrano appieno con il nostro codice HTML. Per vedere ulteriori esempi, vi consigliamo di visionare i seguenti link: • http://tinyurl.com/Gmarking • http://tinyurl.com/GReviews • http://tinyurl.com/Gpeople • http://tinyurl.com/GBusiness Dopo aver creato le pagine contenenti i microformati, non ci resta altro che: • validare il nostro codice di markup che utilizza i microformati: http://www.google.com/webmasters/tools/richsnippets o: http://microformats.org/wiki/validator •

segnalare a Google il nostro sito web: http://tinyurl.com/submit-snippet

NOTA È molto importante seguire l’evoluzione tecnologica che accompagna la crescita del web moderno, in quanto i vari motori di ricerca si spingeranno sempre di più verso questi scenari per migliorarsi. Abbiamo già accennato a come Google utilizzi già i microformati: anche Bing e Yahoo! hanno annunciato di utilizzarli. Ciò fa comprendere l’importanza dell’utilizzo dei microformati all’interno delle nostre pagine web. A sostegno di questa tesi, troviamo la notizia dell’acquisto di Metaweb (società specializzata nella catalogazione e archiviazione delle ricerche sulle pagine web e il loro significato) da parte di Google.

I Microdati e Schema.org Abbiamo visto l’utilizzo dei Microformati. Oltre a questi, esistono i Microdati, che, assieme a RDFa, vanno a completare l’insieme delle strutture semantiche da utilizzare per fornire informazioni strutturate ai motori di ricerca. Grazie a HTML 5 è possibile espandere il core set dell’HTML classico con l’aggiunta di vocabolari personalizzati (tramite i microdati, per l’appunto) che ci consentono di fornire

informazioni semantiche ai principali motori di ricerca. Nel luglio 2011, infatti, i principali motori di ricerca, come Google, Bing e Yahoo!, si sono uniti sotto un unico “cappello” Schema.org per creare e sostenere una serie di schemi per la marcatura di dati strutturati sulle pagine web. Lo scopo principale di Schema.org è quello di fungere da punto di riferimento per i webmaster, per facilitare l’utilizzo, da parte loro, dei microdati.

NOTA I motori di ricerca hanno deciso di concentrarsi su un solo formato unificato, i MICRODATI, descritto in Schema.org per cercare una soluzione semplice e utile per i webmaster.

Per comprendere meglio cosa siano i microdati, vediamo come Google li descrive: La specifica dei microdati HTML5 è un modo per assegnare etichette ai contenuti al fine di descrivere un tipo specifico di informazioni (ad esempio, recensioni, informazioni su persone o eventi). Ogni tipo di informazione descrive uno specifico tipo di elemento, come una persona, un evento o una recensione. Ad esempio, un evento ha proprietà quali il luogo, l’ora di inizio, il nome e la categoria. L’utilizzo dei microdati è più semplice di quanto possa sembrare: per ogni pagina HTML in cui vogliamo sfruttare tali strutture possiamo specificare particolari attributi che ci consentono di definire oggetti semantici. Troviamo, quindi, due elementi - radice itemscope e radice itemtype che ci servono come contenitore delle informazioni che vogliamo specificare: • itemscope è il contenitore dell’oggetto e serve a identificare l’elemento; • itemtype identifica e descrive il vocabolario in cui viene specificato il tipo di oggetto. Infine, troviamo l’attributo itemprop, che deriva dai due elementi radice appena descritti e che definisce la proprietà che verrà valorizzata con il testo contenuto presente nel tag. Vediamo un esempio di utilizzo dei microdati:

Analizziamone il funzionamento: • nella prima riga itemscope indica che i contenuti racchiusi tra i tag sono un elemento;

• •

http://schema.org/Person indica che l’elemento è una persona; ogni proprietà dell’elemento persona è identificata con l’attributo itemprop. Ad esempio, itemprop=”name” descrive il nome della persona.

In modo analogo, possiamo creare strutture semantiche per diverse tipologie di oggetti definite in Schema.org. Infine, per poter verificare la correttezza dei tag semantici, possiamo sfruttare lo strumento di Google per i Rich Snippets, come mostrato nella Figura 4.21. https://search.google.com/structured-data/testing-tool

Figura 4.21 - Esempio di validazione struttura con i microdati con lo strumento Rich Snippets di Google.

I microdati sono quindi un valido strumento che dovrebbe essere utilizzato in qualsiasi sito web (come, per esempio, negli e-commerce, per descrivere attraverso strutture semantiche i propri prodotti) al fine di migliorare le informazioni fornite agli utenti e generare i Rich Snippet, conferendo quindi un valore aggiunto alle informazioni presenti nella SERP.

NOTA Vogliamo precisare che non solo Google utilizza i Rich Snippet nella SERP, ma anche gli altri principali motori di ricerca, come, per esempio, Bing, hanno iniziato di recente a sfruttarli. Motivo in più per iniziare a implementare pagine web sfruttando i microdati. Inoltre possiamo sfruttare JSON-LD per inserire strutture dati sviluppate con Schema.org; per maggiori info https://developers.google.com/schemas/formats/json-ld.

Rich Cards Google è sempre attivo e nell’ultimo periodo sta concentrando i suoi sforzi nelle SERP per migliorarle. Dopo aver eliminato la barra di destra per gli annunci di ADWords, introdotto le pagine AMP e avere aumentato i caratteri visibili per i titoli e le descrizioni in SERP, ha diffuso un nuovo formato semantico, ovvero le Rich Cards, per fornire contenuti in maniera più coinvolgente e visivamente accattivante. Attualmente sono disponibili per le ricette, i video, i ristoranti e i corsi online ma non è detto che non vengano a breve estese ad altre strutture dati.

Figura 4.22 - Esempio delle Rich Cards.

Google ha predisposto una guida per implementare queste CARD visualizzabili in formato carosello consultabile all’url https://developers.google.com/search/docs/guides/mark-up-content. Come avviene per i Microdati, è consigliato:

• • •

usare JSON-LD; validare la struttura dati con lo strumento di Google https://search.google.com/structureddata/testing-tool; sfruttare il nuovo formato all’interno delle pagine web.

Le Rich Cards sono sicuramente un nuovo strumento molto potente in mano sia agli editori che agli sviluppatori per implementare pagine che abbiano un aspetto coinvolgente in SERP. Tutto questo, inoltre, è tracciabile dalla Search Console di Google sia per conoscere le Cards corrette sia per avere un’idea di quanti visitatori atterrano sul nostro sito sfruttando questa nuova “funzionalità” di Google.

Figura 4.23 - Rich Cards nella Search Console di Google.

Open Graph Quando parliamo di Web Semantico dobbiamo fare un doveroso accenno agli Open Graph. Facebook ha introdotto l’OpenGraph, che ci permettere di aggiungere delle informazioni strutturate alle pagine web, in modo tale da avere un maggiore controllo su come i contenuti appaiono quando vengono condivisi su Facebook. Grazie alla sua diffusione, l’Open Graph è stato riconosciuto come standard anche da altri social network, come Twitter, Google e LinkedIn. Esso si basa su una serie di tag personalizzabili da inserire nell’ delle pagine Web. La sintassi è molto semplice e la illustreremo brevemente:

• • • • •

og:url: l’url canonica dell’articolo; og:title: il titolo dell’articolo; og:description: la descrizione dell’articolo; og:site_name: il nome del sito che pubblica la notizia; og:image: l’immagine di anteprima Facebook consiglia immagini di circa 1200 x 630 pixel.

Ecco un esempio:

Esistono molti tag Open Graph consultabili all’url https://developers.facebook.com/docs/reference/opengraph#object-type. Infine, grazie allo strumento di Debug di Facebook (https://developers.facebook.com/tools/debug/), abbiamo la possibilità di verificare la correttezza dei tag implementati.

Authorship Markup (Deprecato?) Attraverso gli standard del Semantic Web possiamo informare Google sulla paternità di un articolo, post o documento pubblicato sul web. Questa peculiarità si integra appieno con i Rich Snippet, fornendo un risultato di maggior impatto nella SERP, che mostrerà la foto dell’autore dell’articolo. Per poter associare gli articoli a un profilo personale, abbiamo a disposizione modalità differenti: • possiamo inserire nell’articolo un link con rel=”author” verso il nostro profilo su Google+; • nel caso di un blog o sito web con più autori possiamo inserire nell’articolo un link con rel=”author” verso la pagina relativa all’autore. Quest’ultima pagina al profilo G+ con rel=”me”.

NOTA È altresì possibile, infine, inserire il proprio nome nell’articolo linkato a un indirizzo e-mail verificato. Infatti, alla fine di ottobre 2011 Google ha introdotto un modo semplificato e, in tanti casi, automatico, per associare le pagine di un sito web ai profili Google+. Se una persona pubblica e convalida il proprio indirizzo e-mail sul suo profilo Google+ e inserisce il medesimo indirizzo e-mail in tutti i suoi articoli, Google collegherà gli articoli al profilo Google+ dell’autore. Questa pratica potrebbe portare spam verso l’indirizzo e-mail utilizzato e, per tale motivo, ne sconsigliamo l’utilizzo. Per maggiori informazioni: http://tinyurl.com/markup-mail.

Caso 1: Un autore, un sito web È la situazione più semplice: dobbiamo semplicemente “collegare” il nostro sito web con il profilo personale di Google+. Grazie all’introduzione delle pagine business di Google+, tale procedura è consentita anche in questo scenario. I passi da seguire sono veramente semplici: è necessario, per ogni post/articolo, inserire un link rel=”author” verso il nostro profilo su Google+ e da quest’ultimo linkare il sito web alla voce “contributore di”. In questo modo avremo un collegamento reciproco e verranno attivati gli Authorship Markup per il nostro sito web.

NOTA Inserendo il pulsante di Google+ per le pagine business, creeremo un collegamento reciproco tra il profilo aziendale e il sito web, attivando gli Authorship Markup in maniera automatica.

Figura 4.24 - Schema logico per Authorship Markup nel caso di un singolo autore per sito web.

Caso 2: Un sito web, più autori In questo scenario abbiamo più autori che scrivono per un determinato sito web e ogni autore ha una pagina personale con il proprio profilo all’interno del sito web. Vediamo i passi per mettere in pratica quanto detto: • inseriamo un link con rel =”author” dal nostro post/articolo verso la pagina dell’autore; • inseriamo un link con rel = ”me” dalla pagina dell’autore verso il profilo di Google+; • infine, dalla pagina del profilo di Google+ impostiamo nel campo “contributore di” l’URL del sito web in questione. La Figura 4.25 mostra nel dettaglio i passi da eseguire.

Figura 4.25 - Schema logico per Authorship Markup nel caso di più autori per sito web.

Così facendo, attiveremo gli Authorship Markup anche per siti web in cui collaborano più autori. Per verificare i passi eseguiti, possiamo utilizzare lo strumento di Google per i Rich Snippet: http://www.google.com/webmasters/tools/richsnippets. Se tutto è andato a buon fine, potremo apprezzare la potenzialità di questo risultato nella SERP di Google, come mostra la Figura 4.27. Ma, dopo agosto 2014, questo non è più possibile. Infatti in una dichiarazione John Mueller, portavoce di Google, ha detto:

Figura 4.26 - Lo strumento Rich Snippet di Google.

Figura 4.27 - Come si presentavano gli Authorship Markup nella SERP di Google.

“Sono stato coinvolto sin dalle fasi iniziali dei test sull’authorship markup, e della visualizzazione dello stesso nei risultati delle ricerche. Abbiamo ricevuto un sacco di feedback utile da webmaster e utenti, e abbiamo ottimizzato, aggiornato e affinato il riconoscimento e la visualizzazione delle informazioni sull’authorship. Purtroppo, abbiamo anche osservato che questa informazione non è utile ai nostri utenti come avevamo sperato, e può anche distrarre dai risultati. In base a ciò, abbiamo preso le difficile decisione di interrompere la visualizzazione dell’authorship nei risultati di ricerca.”

I nuovi tag rel=”next” e rel=”prev” Tipicamente, nella gestione di news o in cataloghi di e-commerce online si sfrutta la paginazione per suddividere un elenco di pagine. Google ha cercato di facilitare l’operatività ai webmaster, i quali possono utilizzare i tag rel=”next” e rel=”prev” assieme al tag canonical per evitare duplicazioni di contenuti, consentendo un’organizzazione strutturale delle informazioni.

NOTA Ricordiamo che il tag rel=”canonical” permette di indicare a Google quale sia la pagina principale all’interno di una sequenza di pagine “simili”.

Grazie all’utilizzo di questi nuovi tag, possiamo quindi dichiarare un ordine consequenziale delle pagine per consentire agli utenti e al motore di ricerca una consultazione più semplice e lineare dei contenuti. Vediamo un esempio pratico fornito da Google per sfruttare tali tag. Supponiamo di avere quattro URL con paginazione:

Nella prima pagina includiamo nella sezione :

nella seconda pagina inseriamo:

nella terza pagina:

e nell’ultima pagina:

Alcuni accorgimenti tecnici:

• • • • •

la prima pagina deve contenere solo rel=”next” e non rel =”prev”; l’ultima pagina deve contenere solo rel=”prev” e non rel =”next”; rel =”next” e rel =”prev” vanno dichiarati nella sezione ; rel=”previous” è una variabile sintattica di rel=”prev”; è possibile utilizzare tali tag con rel=”canonical” nel caso sia presente una visualizzazione “view all” (cioè una visualizzazione che consente di elencare tutti gli elementi presenti nella paginazione) per evitare la duplicazione dei contenuti.

Una valida alternativa per gestire i contenuti “spalmati” su più pagine.

NOTA Per ulteriori informazioni, si rimanda a http://tinyurl.com/nextprev e http://tinyurl.com/videopaginazione.

LSI: Latent Semantic Indexing Il Latent Semantic Indexing (LSI) è un particolare metodo di classificazione dei documenti. Esso permette, attraverso complessi algoritmi matematici, di individuare i termini e le frasi presenti all’interno di un documento e di scoprirne le similarità. In questo modo è possibile fornire documenti che possono essere rilevanti per una determinata ricerca, anche se non contengono esattamente gli stessi termini. L’indicizzazione semantica latente aggiunge, quindi, un passo importante al processo di indicizzazione dei documenti. In ambito SEO vi sono diverse discussioni in merito, soprattutto sull’utilizzo da parte dei motori di ricerca di questa tecnica. Alcuni motori di ricerca potrebbero, infatti, utilizzare il LSI o tecniche analoghe per confrontare siti web con argomenti affini, in modo da fornire risultati maggiormente coerenti agli utenti. In parole povere, il LSI applicato ai motori di ricerca non è altro che la loro abilità di conferire un senso al contenuto di una pagina web, non analizzando semplicemente la densità delle keyword utilizzate, ma scoprendo associazioni tra keyword e keyphrase presenti nel contesto di quella particolare pagina. In riferimento alla SEO, cosa possiamo fare per sfruttare un eventuale approccio LSI da parte dei motori di ricerca? Dobbiamo precisare che, a oggi, non esiste nessun brevetto che parli dell’adozione di LSI da parte di Google. I motori di ricerca potrebbero usare tecniche simili, ma non è detto che sfruttino appieno l’algoritmo LSI. Per verificare ciò, possiamo effettuare un piccolo test. Il caso più semplice dovrebbe essere quello della verifica dei risultati di ricerca utilizzando termini singolari e plurali: LSI gestisce in modo identico le due tipologie di frasi, quindi i risultati della ricerca dovrebbero essere identici in entrambe le casistiche.

NOTA Nel caso fossimo collegati con il nostro account Google, dobbiamo effettuare il log out (disconnessione) per effettuare tale test.

Proviamo a digitare “vino” e “vini”: Google produce risultati differenti. Proseguiamo con “auto” e “automobile” o “macchina”: anche in questo caso i risultati proposti si discostano in misura notevole. Come ultimo test proviamo a impiegare diversi tempi verbali di una parola. Se fosse ampiamente utilizzato LSI, i risultati di ricerca forniti dovrebbero essere molto simili. Proviamo con “vincerò” “vinto”. Anche in questo caso i risultati divergono. Questo semplice test, a nostro parere, serve a comprendere che, se anche i motori di ricerca usassero LSI, questo non sembrerebbe influire in maniera così radicale sul posizionamento all’interno della SERP. Inoltre, sembrerebbe che LSI, con numerosi carichi e una mole di dati, non risponda perfettamente: ciò vorrebbe dire che Google potrebbe usare tecnologie migliori. Come sappiamo, nella SEO non esistono certezze matematiche, quindi ogni considerazione va presa con cautela. A ogni modo, possiamo attuare piccole modifiche in ambito SEO per cercare di approcciarci a LSI o a metodologie simili (Google Suggest). I nostri consigli sono i seguenti: • utilizzare sinonimi nell’anchor text: non avrebbe senso creare link che, per esempio, utilizzino sempre e solamente la parola “SEO”; risulterebbe interessante variarli con termini semanticamente simili, come Search Engine Marketing, posizionamento nei motori di ricerca, motore di ricerca, ranking dei motori di ricerca; • prendere in considerazione tutte le varianti di parole chiave suggerite da vari strumenti per la generazione di keyword; • nel corpo del documento utilizzare anche sinonimi e plurali per cercare di indicizzare più keyword. Questi semplici consigli, se ben amalgamati con quanto abbiamo visto e quanto vedremo in seguito, potranno condurre a ottimi risultati in termini di posizionamento e visibilità. Ovviamente, dobbiamo precisare che con il tempo i motori di ricerca miglioreranno i loro algoritmi, perciò è sempre buona norma rimanere aggiornati sull’uscita di nuove tecnologie o sulla pubblicazione di nuovi brevetti. Vi suggeriamo, a tale scopo, di seguire il blog www.seobythesea.com, che propone in anteprima gli ultimi brevetti rilasciati dai principali motori di ricerca.

NOTA Esiste un’estensione per Firefox: Google Semantics (https://addons.mozilla.org/enUS/firefox/addon/6029), che consente di ottenere come risultato di una ricerca in Google anche i sinonimi per la frase ricercata, come si evince dalla Figura 4.28. Un altro interessante tool è http://deeperweb.com/, il quale ci permette di trovare in pochi istanti i sinonimi di una parola confrontandoli con i risultati presenti sul web.

Figura 4.28 - Utilizzo del tool per Firefox Google Semantics. Nell’esempio vengono forniti i sinonimi durante la ricerca della parola “auto”.

LDA: Latent Dirichlet Allocation Abbiamo appena illustrato LSI, quello che viene definito da molti SEO “un mito”; ora ci concentreremo su un argomento nuovo e molto interessante: LDA. LDA significa Latent Dirichlet Allocation e consente di scomporre i documenti e le pagine web in più cluster, suddividendoli attraverso opportuni filtri bayesiani per keyword o argomenti simili. L’applicazione di questo modello è la caratterizzazione di documenti in modo completamente automatico, senza bisogno di indicare il valore semantico delle parole presenti nei testi. Dobbiamo precisare come LDA, diretto discendente di altri modelli, come LSI, non sia una nuova scoperta: le sue prime applicazioni, infatti, risalgono al 2002. La differenza introdotta da LDA è data dal fatto che per l’indicizzazione dei documenti o delle pagine web non vengono presi in considerazione solamente i fattori classici, come il keyword stuffing, la densità delle parole chiave o qualche vecchia tecnica SEO convenzionale a proposito della concentrazione di una parola chiave all’interno di una pagina. Si tratta, invece, di dover riconoscere argomenti diversi che hanno un vocabolario specifico. Applicato ai motori di ricerca, ciò vorrebbe dire insegnare a essi come “Maldini, Baresi e Nesta” facciano parte di un raggruppamento specifico,

“difensori del Milan”. Ma anche questa spiegazione è davvero riduttiva, raffrontata alle possibilità di applicazione di LDA. Si presuppone che alcuni motori di ricerca, come Bing e Google, implementino LDA per le loro classificazioni, ma ovviamente non vi sono certezze in merito. Desideriamo, tuttavia, segnalarvi questi due documenti interessanti: • da parte di Google: http://tinyurl.com/lda-google; • da parte di Microsoft: http://tinyurl.com/lda-microsoft. A tale riguardo, vediamo un esempio di correlazione semantica individuata tramite LDA per capirne il funzionamento: La navetta spaziale ha viaggiato a lungo nello spazio prima di arrivare sulla Luna. Una volta arrivata, le sonde esamineranno il suolo per cercare di stabilire se nelle profondità dei crateri lunari si trova del ghiaccio. Le parole chiave che possiamo individuare sono astronomia e geologia. Il significato semantico delle parole chiave, anche se esse non sono indicate esplicitamente, viene evidenziato dal topic di ogni singola frase. Per effettuare test similari possiamo avvalerci di un tool molto interessante: http://www.virante.org/seo-tools/lda-content-optimizer Esiste un altro ottimo tool, http://www.freebase.com/ ormai sostituito da https://www.wikidata.org/ che ci consente di analizzare le relazioni e le correlazioni tra diverse entità. Non dobbiamo fare altro che impostare l’indirizzo web della pagina e la keyword che vogliamo analizzare. Si otterrà un punteggio in percentuale da intendersi come indicatore di pertinenza del contenuto di questa pagina secondo LDA.

Figura 4.29 - Tool freebase.com.

Tale strumento può rivelarsi adatto per decidere se LDA possa realmente influire sull’ottimizzazione SEO on page e quindi suggerirci quali sono le contromisure da adottare. Per esempio: • questo strumento può venire in aiuto per individuare le keyword più rilevanti per una ricerca; • ci permette di individuare la “bontà” di una determinata parola chiave; • modificando il contenuto della pagina, possiamo scoprire come variano i risultati proposti e agire di conseguenza. L’argomento trattato è nuovo e di attualità; per questo crediamo che provare a effettuare modifiche ad alcune pagine per testarle con questo strumento possa risultare interessante, soprattutto con l’introduzione, da parte di Google, di strumenti che ci suggeriscono in automatico le parole da cercare mentre le digitiamo nel browser (Google Instant). Testare e provare è sempre una buona strategia SEO, ma bisogna anche prendere con le pinze le nuove scoperte e approfondirle adeguatamente. LDA non è una nuova ricetta magica (è presente sul mercato da quasi dieci anni), infatti l’importanza dei link, la validità dei contenuti e la link building rimangono invariati per ottenere un corretto posizionamento, ma l’evoluzione degli algoritmi utilizzati dai motori di ricerca potrebbe aprire nuove e interessanti strade, applicabili anche in ambito SEO.

NOTA Vogliamo segnalarvi due articoli in merito a LDA in cui potete trovare opinioni e pareri contrastanti: http://www.seomoz.org/blog/discussing-lda-and-seo-whiteboard-friday http://seobullshit.com/lda-google-games

Testiamo brevemente i fattori on page Abbiamo illustrato i fattori on page principali; nel Capitolo 5 completeremo tale scenario analizzando l’ottimizzazione della struttura di un sito web e dei componenti di una pagina web. A questo punto siamo pronti per mostrarvi l’utilizzo di alcuni tool che ci permetteranno di monitorare le azioni SEO e che dovranno essere utilizzati nel tempo per cercare di sfruttare tutte le nozioni fornite in questo libro. Un buon esperto SEO deve essere in grado di monitorare le azioni e di capire i successi e le sconfitte, in modo tale da apportare modifiche al proprio piano strategico. Perciò, oltre ad avere un diario di bordo in cui annotare le azioni adottate, risulta utile adoperare alcuni tool che consentono di ottimizzare il tempo fornendo risultati significativi. Successivamente, verso la fine del libro, mostreremo nel dettaglio i migliori tool SEO a disposizione sul mercato e come utilizzarli. Riteniamo comunque opportuno aprire una breve parentesi su come utilizzare alcuni di questi tool per monitorare i fattori SEO on page appena descritti. Un primo tool che analizzeremo è SEO Automatic (http://www.seoautomatic.com/uniquetools/instant-seo-review), uno strumento gratuito (ne esiste anche una versione a pagamento più completa) che consente di monitorare per ogni pagina i principali fattori SEO. È sufficiente inserire l’URL della pagina da monitorare per avere un feedback immediato. La Figura 4.30 mostra un esempio pratico di utilizzo di questo tool.

Figura 4.30 - Utilizzo del tool SEO Automatic per analizzare i fattori interni della pagina web.

Un altro tool è SEO Doctor (http://www.prelovac.com/vladimir/browser-addons/seo-doctor), un plug-in per il browser Firefox che offre la possibilità di monitorare le pagine web, fornendo utili e immediati feedback visivi. Una volta installato il tool, vedremo apparire nella barra dell’URL di Mozilla Firefox nuovi simboli che apporteranno indicazioni, tra cui: • lingua dell’hosting; • link della pagina web; • parametri SEO on page.

NOTA SEO Workers Web Page SEO Analysis Tool (https://addons.mozilla.org/enUS/firefox/addon/10455/) è un altro dei tool per Firefox che permettono di tenere sotto controllo i principali fattori SEO on page delle pagine web.

Figura 4.31 - Utilizzo del tool SEO Doctor per l’analisi dei fattori SEO on page.

Infine, vogliamo menzionare il tool On page (https://addons.mozilla.org/enUS/firefox/addon/9403/), un plug-in aggiuntivo per firebug installabile per Mozilla Firefox. Questo strumento, oltre a mostrare il doom della pagina e i rispettivi parametri, fornisce, inserendo una keyword, una serie di rapporti che consentono di comprendere come la pagina web sia più o meno ben ottimizzata per quella rispettiva keyword. Esso analizza, per esempio, il titolo, i meta tag o il contenuto della pagina o di un dominio e propone suggerimenti per migliorare questi fattori.

Figura 4.32 - Esempio di utilizzo del tool SenSEO.

NOTA Non dimentichiamo della Search Console di Google che ci fornisce utili informazioni, soprattutto a livello di dominio generale, indicando, per esempio, le metadescrizioni duplicate, i tag title duplicati e le performance generali del nostro sito web.

Figura 4.33 - Suggerimenti forniti dalla Search Console di Google.

Ovviamente quello che abbiamo mostrato finora consiste in un rapido controllo automatico su alcuni fattori. Per effettuare una vera Audit SEO, ovvero un’analisi approfondita, è necessario analizzare diversi parametri tra cui i log di sistema, il comportamento del crawler, i tag, i microdati, la velocità di caricamento, l’esperienza utente e così via. Nel Capitolo 5 analizzeremo questi aspetti e approfondiremo tale analisi, per il momento vi consigliamo di scaricarvi Screaming Frog (www.screamingfrog.co.uk) o Visual SEO (www.visual-seo.com), che ci saranno molto utili per le nostre analisi on page.

Conclusioni e punti salienti del capitolo In questo capitolo abbiamo analizzato i principali tag SEO on page, scoperto come sia importante il Web Semantico e come viene sfruttato dai principali motori di ricerca. Cosa ricordarsi? • I Tag Html sono importanti, ma non sono l'unico strumento della SEO. • Il Tag Title e Description variano in SERP e gli ultimi aggiornamenti hanno visto un aumento di caratteri visibili. • CBO è importante al fine di migliorare le risorse indicizzate, soprattutto per siti di grosse dimensioni. • Una buona struttura di navigazione di un sito web è fondamentale sia per gli utenti che per i motori di ricerca. • Schema.org è un primo passo verso concetti di strutture Web Semantiche. • Le Rich Cards sono una delle ultime novità di Google in ambito snippet nelle SERP.

“Il design non è come sembra o come appare. Il design è come funziona.” (Steve Jobs)

Capitolo 5 Architettura di un web project SEO Architettura di un sito web Lo scopo della SEO non è solo quello di migliorare l’indicizzazione per i vari search engine: una delle sue peculiarità risulta essere, infatti, la capacità di attrarre i visitatori e coinvolgerli all’interno del sito facendoli rimanere su di esso il più tempo possibile. Questo perché il vero valore aggiunto è la permanenza sul sito web del visitatore, che, trovando interessanti i contenuti, è invogliato a scoprirli e, soprattutto, è incentivato a ritornare per vedere gli aggiornamenti e le novità proposte. Un sito web deve pertanto basarsi su un’architettura solida e deve essere progettato in modo curato. Un suo elemento fondamentale è la navigabilità: più questa è semplice e intuitiva, più probabilità avremo che un utente trovi facilmente ciò che cerca. Al tempo stesso, una grafica ben curata e raffinata sarà gradita dai visitatori più esigenti. Uno dei più importanti principi della progettazione delle interfacce grafiche afferma che si devono conservare le conoscenze acquisite dagli utenti nel corso delle loro esperienze informatiche. Per tale motivo, le grosse software house e i produttori di sistemi informatici seguono con enorme interesse questa filosofia, cercando di produrre applicativi con un’interfaccia che garantisca una certa uniformità d’impiego. Sarebbe, infatti, molto difficile proporre una modalità grafica di interazione completamente diversa rispetto a quella attualmente utilizzata da una specifica azienda per un determinato software o sito web. Ciò potrebbe provocare ostilità da parte degli utenti: gli utilizzatori finali, abituati a una disposizione logica degli elementi di interfaccia e quindi a un certo modo di lavorare, si troverebbero a far fronte a una nuova realtà di cui non conoscono le reazioni e impiegherebbero più tempo per compiere la medesima operazione.

NOTA Un esempio recente è stato il cambio di layout e di interfaccia di Facebook, che ha suscitato lamentele da parte di molti utenti.

Tuttavia, se per le applicazioni software desktop si può avere un profilo dell’utilizzatore finale del software, ciò non è possibile per le applicazioni Intranet e, soprattutto, Internet, che si rivolgono a utenti dei quali non sono note né le competenze informatiche, né i sistemi operativi utilizzati. È dunque impossibile sapere quali competenze conservare e diviene essenziale cercare l’esperienza minima comune a tutti gli utenti potenziali, che consiste nell’uso del browser e

dell’ipertestualità. È spontaneo chiedersi quale sia il modo ottimale per creare un’interfaccia lato web che guidi l’utente durante le sue attività. Entra in gioco il concetto di consistenza, che possiamo suddividere in tre entità: • consistenza visiva: la similarità nell’apparenza e nella disposizione degli elementi grafici che la compongono; • consistenza nel comportamento: una determinata azione deve sempre produrre un risultato simile; per esempio, tutti i bottoni si azionano con lo stesso tasto del mouse; • consistenza funzionale: la stessa azione ha sempre lo stesso risultato. Un’interfaccia progettata male può decretare l’insuccesso di programmi altrimenti ben scritti, mentre una GUI (Graphic User Interface) accattivante può nascondere molte pecche. Questo assioma, comunemente accettato nella programmazione tradizionale delle applicazioni desktop, perde validità quando si costruiscono applicazioni Intranet: la GUI, infatti, influenza fortemente tutta l’architettura del sistema e un errore nella sua analisi può condurre all’uso di tecnologie inadatte a raggiungere gli obiettivi prefissati, costringendo alla riscrittura dell’intero sito web. Per tale motivo, l’uso della consistenza ci permette di ottenere la riusabilità delle componenti di interfaccia (esistono librerie di componenti di interfaccia con aspetto e comportamento predefiniti) e di favorire la capacità di apprendimento da parte dell’utente. È evidente come l’importanza dell’interfaccia utente, in ogni tipo di applicazione, sia molto elevata, e come, nel caso di applicazioni Internet, non si limiti al lato estetico, ma ricada fortemente su tutto lo sviluppo delle applicazioni. Ecco perché è fondamentale, per raggiungere i migliori risultati, prestare attenzione, nella costruzione della GUI, sia all’utente a cui si rivolge l’applicazione, sia al contesto in cui tale applicazione sarà usata e ai controlli necessari per renderla sicura ed efficace.

NOTA Un buon sito web dovrebbe avere una solida struttura di navigazione e rispettare i canoni di accessibilità e usabilità (per esempio W3C).

Disegno architetturale di un sito web I motori di ricerca, come abbiamo più volte accennato, cercano di migliorare i propri algoritmi in modo da comprendere meglio i contenuti offerti da un sito web, con lo scopo di fornire agli utenti risultati di ricerca sempre più attinenti. Creare un’architettura logica di un sito web, organizzata in maniera tale da rendere facile il reperimento delle informazioni, sarà utile non solo ai nostri visitatori, ma anche ai motori di ricerca. Non solo, migliorare quello che è il look and feel di un sito web potrebbe migliorarne il feedback da parte degli utenti, che, trovando un’interfaccia facile, ma allo stesso tempo gradevole, sono invogliati a rivisitare il sito web. Troviamo, quindi, il concetto di Rich Internet Application (RIA), che definisce un insieme di applicazioni web che hanno caratteristiche e funzionalità del tutto equivalenti alle “tradizionali” applicazioni desktop

(cioè residenti sul computer). Nelle RIA il browser, che deve elaborare le funzionalità dell’interfaccia utente e della presentazione dei dati, è chiamato a svolgere un compito ancora più importante. Tale approccio migliora l’interazione con il web, rendendola quasi indistinguibile da quella con i programmi desktop. L’avvento delle RIA ha permesso agli sviluppatori di utilizzare funzionalità avanzate per le interfacce utente web, che rendono le applicazioni più semplici e utilizzabili e forniscono agli utilizzatori finali strumenti più produttivi, riducendo i tempi operativi e di navigazione necessari per l’interazione con le applicazioni stesse.

Figura 5.1 - Esempio di applicazione RIA.

Non è detto che un esperto SEO sia anche un programmatore, perciò, nella fase di sviluppo di un sito web, le due figure (programmatore ed esperto SEO) devono lavorare in sinergia per sviluppare un disegno architetturale che rispetti i seguenti punti: • usabilità: un sito web deve essere facilmente navigabile e le informazioni devono essere fornite in modo chiaro e conciso. Jakob Nielsen, il “guru” della usability, definisce “usabile” (e quindi accessibile) un sito quando esso consente facilità ed efficienza di utilizzo, permette pochi errori di interazione, è adeguato alle aspettative e ai bisogni degli utenti e risulta facile da capire. L’uso di animazioni Flash, JavaScript e così via deve essere ridotto e implementato solo per migliorare la user experience;

NOTA Secondo la definizione data dalla norma ISO 9241, l’usabilità è il “grado in cui un prodotto può essere usato da particolari utenti per raggiungere certi obiettivi con efficacia, efficienza e soddisfazione in uno specifico contesto d’uso”.

accessibilità: le informazioni fornite da una pagina web o da un sito web devono essere facilmente fruibili da tutte le persone. Per esempio, sarebbe opportuno dare agli utenti la possibilità di aumentare il carattere delle scritte, in modo tale che possano essere lette dalle persone che hanno difficoltà a leggere. Il layout del sito web deve essere simile su tutti i dispositivi e browser web. In questo contesto dovrebbero essere utilizzati elementi di programmazione (CSS, DIV HTML, per esempio) in modo tale da rispettare le specifiche di accessibilità W3C (www.w3c.org);

NOTA Per maggiori approfondimenti in merito, vi segnaliamo la seguente guida: http://webdesign.html.it/guide/leggi/46/guida-accessibilita-dei-siti-web-teorica/ Inoltre, vogliamo ricordare che le pubbliche amministrazioni e i siti istituzionali in Italia devono rispettare le norme di accessibilità qui descritte: http://www.governo.it/

fruibilità: un sito web deve poter essere visualizzato correttamente su diversi dispositivi e browser. Con l’avvento di cellulari sempre più interattivi, risulta importante rendere i contenuti dei nostri siti web fruibili anche da diversi apparati tecnologici.

A questo punto siamo pronti per procedere con il design architetturale del sito web. Individuato il target degli utenti e i loro possibili bisogni, il passo successivo consiste nella definizione del linguaggio di programmazione con cui implementare le nostre pagine web, e nella scelta di utilizzare o meno risorse o CMS open source. Importante è progettare il sito web in modo che attragga l’attenzione dei visitatori e sia in grado di rispondere in tempi brevi anche a numerosi accessi. Un utente, in media, non aspetterà più di sei secondi per il caricamento di un contenuto (a meno che non si tratti di un contenuto multimediale, come un filmato in streaming); per tale motivo, un sito web deve essere progettato in modo tale che le pagine vengano caricate velocemente (quindi è consigliato utilizzare immagini di piccole dimensioni, per esempio).

NOTA “Un Content Management System, in acronimo CMS, letteralmente ‘sistema di gestione dei contenuti’, è uno strumento software installato su un server web studiato per facilitare la gestione dei contenuti di siti web, svincolando l’amministratore da conoscenze tecniche di programmazione web.” (Wikipedia)

Un altro punto da tenere in considerazione è la tipologia di sito web: un blog dovrà avere una struttura fondamentalmente diversa da quella di un sito web aziendale o di un portale di ecommerce. Ogni sito web, ogni tipologia di sito web va studiata per cercare di capire bisogni e desideri dell’utenza che ci visiterà, in modo da fornire contenuti in grado di sollecitare la curiosità dei visitatori. Ultimamente, nel web si trovano sempre più siti prefabbricati costruiti su CMS (per esempio, Joomla) o blog open source, in cui spesso il layout e lo stile si ripetono. A nostro avviso, è vero che un CMS ci aiuta a implementare un sito web e riduce di molto i tempi di sviluppo, ma bisogna fare attenzione al codice da esso prodotto. A volte, il codice è “sporco” e non ottimizzato SEO, pertanto dobbiamo essere in grado di metterci mano per apportare le modifiche richieste. In altri casi, invece, tali CMS potrebbero usare meccanismi di sovraottimizzazione e quindi essere malvisti dai motori di ricerca. L’originalità e la capacità di implementare strutture e layout nuovi sicuramente ci aiuteranno nel nostro processo di sviluppo di un sito web. Un altro fattore da tenere in considerazione nello sviluppo di un sito web è la riusabilità del codice. Spesso i siti, soprattutto quelli di piccole dimensioni, si assomigliano. Essere in grado di riutilizzare il codice implementato, per esempio per la gestione delle news, e utilizzarlo in altri siti ci consentirà di ridurre il tempo di sviluppo. Anche la scelta del template è importante: strutturare un sito web in modo tale che dei restyling grafici non implichino una riscrittura di tutte le pagine che costituiscono il sito ci permetterà di apportare modifiche in tempi brevi e senza impattare sulla struttura generale del progetto.

Figura 5.2 - I principali passi da seguire per strutturare un’architettura per un sito web SEO friendly.

Ovviamente, non possiamo dilungarci più di tanto su questo argomento, poiché il nostro scopo è quello di fornire informazioni in modo tale da rendere consapevole l’utente dell’importanza che ha un buon disegno architetturale anche in un contesto SEO.

Navigabilità La navigazione di un sito web è rilevante per aiutare i visitatori a trovare rapidamente i contenuti desiderati, ma non solo: può essere di aiuto ai motori di ricerca per capire quali sono i contenuti interessanti. Generalmente, tutti i siti web hanno una home page (o root), cioè la pagina principale di ingresso da cui si accede al sito web digitando l’URL (per esempio, www.yourdigitalweb.com). Non è detto che gli utenti accedano al nostro sito web da questa pagina, poiché ogni pagina correttamente indicizzata potrebbe essere fonte di nuove visite. Tipicamente, un’organizzazione gerarchica dei contenuti e delle pagine comporta una struttura di navigazione facilmente intuibile da parte dell’utente. Tale struttura deve essere coerente e suddividere eventuali macroaree del sito web. Per esempio, le pagine che parlano di cucina potrebbero essere organizzate in directory così strutturate: www.miosito.web/cucina; mentre altre pagine che hanno come argomento principale la musica potrebbero essere strutturate in questo modo: www.miosito.web/musica. Secondo l’information architecture (Rosenfield e Morville, 2006), la struttura principale di un sito web è di tipo gerarchico, con un nodo padre collegato a più nodi figli.

Figura 5.3 - Esempio di struttura semplificata di navigazione per un sito web.

I nodi figli, a loro volta, possono essere interconnessi tra di loro per migliorare la navigabilità del sito web. Gli argomenti possono essere raggruppati in maniera omogenea secondo criteri diversi con l’obiettivo di fornire differenti modi per ottenere l’accesso alle stesse parti di un contenuto. In base a questo schema, i collegamenti che partono dalla home page, detti collegamenti di primo livello, dovranno condurre l’utente (e ovviamente gli spider) alle aree secondarie del sito, divise in base a uno schema logico di contenuti. I collegamenti che partono dalle aree secondarie, o collegamenti di secondo livello, condurranno alle pagine interne che trattano dello stesso argomento e così via. Tutte le pagine dovranno contenere un link a pagine di livello superiore e, opzionalmente, alla home page. Per i siti complessi, contenenti migliaia di pagine, una struttura di questo tipo potrebbe rendere difficoltoso il reperimento di alcune informazioni; per questo motivo dovrebbe essere corredata da un’opportuna Sitemap e da un campo di ricerca avanzato.

NOTA Una Sitemap è una pagina che contiene la lista gerarchica di tutte le pagine del sito web. Creare un file Sitemap in XML consente ai motori di navigare il sito web in maniera più semplice e soprattutto di prendere in considerazione tutte le pagine.

Figura 5.4 - Esempio di struttura gerarchica interconnessa per un sito web (fonte: Datadial).

Una volta organizzata la nostra struttura, dovremo capire se sia meglio implementare la

navigabilità con sottodirectory o domini di terzo livello. La cosa importante da tenere in mente è quella di dare un nome coerente alle cartelle e agli URL. Per esempio: www.miosito.it/pippo/miofile.html è un URL non molto significativo, che non è di aiuto al visitatore né tantomeno ai motori di ricerca. Invece, un URL www.miosito.it/ricette/risotto_di_porcini.html ha un valore intrinseco e consente di percepire in anticipo il contenuto della pagina (tratteremo nei prossimi capitoli l’argomento inerente alla riscrittura degli URL). Le pagine, quindi, dovranno essere strutturate per fornire un colpo d’occhio che aiuterà l’utente a capire dove si trova e se le informazioni che vuole ricercare sono presenti. Quindi è opportuno: • mettere in risalto l’argomento trattato dalla pagina; • creare una gerarchia che segua una logica; la navigazione dovrebbe avvenire partendo da un contenuto generale fino ad arrivare a informazioni sempre più specifiche; • i tag spesso aiutano l’utente a capire gli argomenti trattati nella pagina che sta visitando; • non fornire troppe informazioni nella stessa pagina: potrebbero confondere l’utente e farlo desistere dalla consultazione; • usare prevalentemente link per la navigazione; menu costituiti da immagini, JavaScript o flash potrebbero non essere correttamente considerati dai motori di ricerca; • la barra di navigazione (sia essa orizzontale o verticale) deve essere ben visibile e consentire all’utente di esplorare il sito facilmente; • implementare un breadcrumb (insieme di link) nella parte superiore o inferiore della pagina in modo da permettere ai visitatori di navigare velocemente all’interno della struttura del proprio sito web;

Figura 5.5 - Esempio di breadcrumb per facilitare la navigazione.

NOTA Le briciole di pane possono essere utilizzate anche con i microdati o con Schema.org:

informazioni quali contatti, e-mail e “cambio lingua” dovrebbero essere presenti in ogni pagina (in quanto sono le caratteristiche più ricercate dai navigatori). Tipicamente, tali diciture potrebbero essere collocate in fondo alla pagina, o in posizioni strategiche, ma sempre ben visibili.

Tutte le informazioni illustrate ci devono essere di aiuto per creare una struttura di navigazione semplice ed efficace. Se troviamo difficile reperire qualche informazione all’interno del nostro sito web, dovrebbe accendersi subito un campanello di allarme per metterci in guardia sul fatto che molti dei potenziali utenti si troverebbero in difficoltà nel reperimento delle informazioni. Dovremmo, perciò, immediatamente modificare la struttura di navigazione del nostro sito web. Nella Figura 5.6 vi è un esempio di buona struttura di navigazione.

Figura 5.6 - Struttura di navigazione.

Gestione dei link In base alle considerazioni fatte nei paragrafi precedenti, risulta chiaro come i link rivestano un ruolo molto importante nel decretare la posizione di un sito web, o di una sua pagina, nelle

graduatorie di rilevanza di un motore di ricerca. Questa importanza è giustificata, a livello teorico, dal fatto che tale meccanismo citazionale, alla base della struttura ipertestuale del web, stabilisce relazioni tematiche tra le risorse, favorendo la saturazione dei bisogni informativi dell’utente. Nella pratica, purtroppo, tale corrispondenza tra collegamenti e attinenza tematica è difficile da implementare, sia per la varietà delle possibili affinità semantiche tra le risorse, sia per la proliferazione di pratiche atte ad aumentare in maniera innaturale il ranking. Come abbiamo osservato, Google (così come gli altri motori di ricerca) ha costantemente aggiornato i propri algoritmi per offrire un posizionamento secondo criteri di maggiore trasparenza dei risultati naturali. Questo processo ha richiesto l’introduzione di algoritmi come HillTop e TrustRank, nonché un’evoluzione del concetto di link popularity, basato inizialmente sulla quantità dei link, e passato successivamente a un approccio basato sulla qualità, ovvero sul maggiore rilievo assunto dall’attinenza semantica nel calcolo del valore dei link. Passiamo dunque in rassegna i fattori legati ai link di cui i motori di ricerca tengono maggiormente conto per la determinazione del valore degli stessi, osservando come alcuni aspetti di squilibrio nel calcolo dell’importanza dei link siano stati corretti grazie all’introduzione degli aggiornamenti.

Anchor text del link L’anchor text è un parametro fondamentale per gli spider, poiché rappresenta il primo segnale di attinenza tematica con la pagina cui punta. Il valore del link per il sito che lo riceve aumenta, dunque, proporzionalmente all’esattezza, all’attinenza e alla specificità dei termini utilizzati in questa stringa rispetto alle keyword di una query. A conferma di questa tesi, nella determinazione del soggetto tematico di un sito concorrono tanto i testi contenuti all’interno di esso, quanto l’anchor text dei suoi link in ingresso. In passato, se molti link puntavano al sito con la stessa stringa nell’anchor text, il documento aveva maggiori possibilità di ranking per quella determinata query. La dimostrazione di quanto appena detto trova conferma nel fenomeno del Googlebombing, una pratica che, utilizzando in maniera distorta la forza dell’anchor text, ha messo più volte Google in crisi. Oggi, con l’avvento di Google Penguin e con l’evoluzione degli algoritmi semantici da parte dei principali motori di ricerca, il panorama è decisamente cambiato! Infatti, se un sito web riceve moltissimi link in ingresso con lo stesso anchor text (che non sia il nome di brand o di dominio), per esempio “auto usate”, esso, in concomitanza di altri fattori, potrebbe essere intercettato dall’algoritmo di Google Penguin e quindi non posizionarsi ottimamente per quella specifica keyword.

Testo attorno al link Il parametro successivo a livello logico è il testo stesso che giace attorno al link. Tale testo concorre all’attribuzione di forza al link in misura pari alla sua coerenza con il link stesso e con la pagina verso cui il link è direzionato.

Linking interno La struttura dei link interni di un sito può influenzare il ranking dello stesso in virtù della sua organizzazione. Come abbiamo accennato in precedenza, la buona navigabilità di un sito si

ottiene a partire da una suddivisione dei contenuti in sistemi gerarchici di cartelle e sottocartelle. L’importanza di una specifica pagina nell’architettura globale di un sito web può essere misurata attraverso l’importanza e la profondità delle altre pagine del sito che si riferiscono alla pagina in questione. Una pagina interna ben collegata ad altri documenti del sito sarà senz’altro considerata più importante di una pagina oscurata, rimossa o isolata. Tale ordine, oltre a costituire una virtù apprezzata dagli utenti e dagli spider, ottiene riconoscimento in termini di posizionamento.

Link popularity La link popularity globale del sito, associabile all’algoritmo PageRank, misurava semplicemente il peso e il numero di link. L’esempio più famoso risale alla fine del 2003, quando numerosi blogger si misero d’accordo per linkare la home page della biografia ufficiale del presidente degli Stati Uniti, George W. Bush, con l’anchor text miserable failure. Pur non contenendo questi due termini in alcun punto del codice, questa pagina balzò in testa per le ricerche legate a quelle keyword. Dall’inizio del 2007, Google ha aggiornato l’algoritmo di Googlebot per evitare gli effetti del Googlebombing. La lunga attesa per tale riparazione viene spiegata da Google con la volontà di risolvere il problema a livello tecnico, grazie alla scalabilità degli algoritmi, piuttosto che manualmente. L’ottica è quantitativa, per cui un grande numero di link provenienti da siti molto importanti bastava, di per sé, a innalzare smisuratamente il valore di PageRank di un sito. Lo squilibrio di tale valutazione ha portato all’introduzione dell’algoritmo HillTop, che ha trasformato la link popularity in un concetto legato all’area tematica. L’area tematica viene misurata da Google come un gruppo di siti i cui link reciproci trattano un argomento correlato. Link da siti della stessa area tematica portano attualmente grande valore al sito stesso, mentre è stato svilito il peso dei link provenienti da aree che trattano altri argomenti. Naturalmente, al fianco di questo fattore si pone il trust di ciascun sito, introdotto con l’algoritmo TrustRank, che specifica ulteriormente il concetto della qualità dei link, vincolandola, oltre che all’area tematica, anche alla fiducia che si riceve. Come abbiamo appreso, i link sono sempre più uno strumento per certificare l’attendibilità del sito e sempre meno un mezzo per valutare la qualità dello stesso, compito che ormai è demandato (giustamente) ai contenuti.

NOTA È possibile effettuare l’inserimento, all’interno del codice HTML, di relazioni tra i contenuti online, di modo che i collegamenti tra questi non siano più solo ipertestuali, ma anche basati sul rapporto di senso che li lega. L’utilizzo di tali standard consente, per esempio, di esplicitare che la relazione tra i due estremi di un link è di amicizia o di collaborazione professionale:

Sitemap

La Sitemap è uno strumento che i webmaster possono sfruttare per migliorare la navigabilità di un sito web. In genere consigliamo di preparare due Sitemap, una per gli utenti e una per i motori di ricerca (in formato XML). La Sitemap per gli utenti sarà una semplice pagina che racchiude tutta la struttura del sito web, in modo da consentire un rapido accesso a tutte le pagine di esso. Fondamentale è mantenere aggiornata tale pagina e gli URL in essa contenuti; per tale motivo l’utilizzo di pagine dinamiche aiuterà a creare questa pagina automaticamente e a mantenerla aggiornata nel tempo. Nella Figura 5.7 troviamo un esempio di Sitemap utile agli utenti.

Figura 5.7 - Esempio di Sitemap per l’utente.

La Sitemap XML è invece uno strumento per indicare ai motori di ricerca tutte le pagine che costituiscono il nostro sito web. È molto utile quando possiamo comunicare agli spider la frequenza di aggiornamento delle nostre pagine web, la data dell’ultima modifica e il valore di importanza relativamente alle altre pagine del sito (che va da 0 a 1). Lo scopo della Sitemap è quindi quello di fornire informazioni aggiuntive al fine di favorire l’indicizzazione delle pagine web dell’intero sito web. Nel novembre 2006 i principali motori di ricerca hanno unito le forze per supportare un nuovo standard per Sitemap: Sitemaps 0.90.

La Sitemap deve: • iniziare con un tag di apertura e terminare con un tag di chiusura ; • specificare lo spazio dei nomi (standard del protocollo) all’interno del tag ; • includere una voce per ogni URL come tag XML principale; • includere una voce secondaria per ogni tag principale . Riportiamo un semplice esempio di Sitemap XML:

NOTA È possibile creare più file Sitemap, ma ciascuno di essi non può contenere più di 50.000 URL e non può avere una dimensione superiore a 10 MB.

Cerchiamo di illustrare brevemente i principali attributi che costituiscono la Sitemap: • : è obbligatorio, costituisce il file e fa riferimento agli standard del protocollo corrente; • : anch’esso obbligatorio, è il tag di apertura per ogni URL; • : è obbligatorio e specifica l’URL della pagina; questo valore deve contenere meno di 2048 caratteri; • : è un attributo facoltativo e specifica la data dell’ultima modifica del file; questa data dovrebbe avere il formato W3C Datetime, che consente di omettere l’ora, se lo si desidera, e di utilizzare il formato AAAA-MM-GG; • : è un attributo facoltativo e specifica la frequenza con la quale la pagina potrebbe venire modificata. I valori consentiti sono: – always – hourly – daily – weekly – monthly – yearly – never • : anch’esso è un attributo facoltativo e specifica la priorità di questo URL rispetto ad altri URL del sito. Il suo valore va da 0 a 1 e la priorità predefinita di una

pagina è 0,5.

NOTA Il sito ufficiale sitemaps.org contiene ulteriori informazioni su come strutturare Sitemap XML semanticamente corrette.

Per chi avesse problemi nel creare il file Sitemap XML, esistono online diversi servizi che, attraverso la compilazione di un opportuno form, ci consentono di generare in modo automatico la Sitemap XML 0.90. Una volta generato l’XML sitemap.xml, non ci resterà che caricarlo sul nostro sito web in modo da renderlo fruibile ai motori di ricerca. Tra i vari servizi che ci consentono di generare i file XML per la Sitemap, possiamo citare xml-sitemaps.com, l’utility più completa per la creazione e la validazione di Sitemap (ulteriori approfondimenti sono reperibili al link http://tinyurl.com/Gsitemap-generator). Avendo a disposizione la Sitemap XML, possiamo comunicarla ai vari motori di ricerca (si veda l’appendice B); per esempio, per Yahoo! la sintassi è la seguente:

In modo analogo, attraverso la Search Console di Google, possiamo inserire la nostra Sitemap affinché il motore di ricerca possa correttamente indicizzare le nostre pagine web.

NOTA Esistono diversi formati di Sitemap utilizzabili per video, immagini, mobile, news, codice open source per le coordinate geografiche. Potete trovare ulteriori dettagli a questo indirizzo: http://tinyurl.com/about-sitemap

Figura 5.8 - Invio di Sitemap XML a Google attraverso Search Console.

NOTA Se utilizziamo il campo priority, dobbiamo prestare attenzione a dare un giusto peso alle varie pagine: è errato attribuire a tutte le pagine un’importanza elevata!

News Sitemap Per descrivere articoli che riportano delle news potrebbe venirci in aiuto la News Sitemap, di cui riportiamo un esempio:

Video Sitemap Se nel nostro sito web abbiamo un certo numero di contenuti multimediali e vogliamo correttamente indicizzarli, sarebbe opportuno creare una Video Sitemap:

NOTA A questo indirizzo potrete trovare ulteriori approfondimenti: http://tinyurl.com/gvideo-sitemap

Mobile Sitemap Come approfondiremo in seguito, è possibile specificare una Sitemap anche per i contenuti mobile:

Keyhole Markup Language: KML KML è l’acronimo di Keyhole Markup Language. Tale formato è utilizzato per esprimere informazioni geografiche in applicazioni quali Google Earth, Google Maps, Flickr, Virtual Earth e altre ancora. Da marzo 2007 Google sta indicizzando i file KML che possono essere inclusi in sitemap esistenti, o, ancora meglio, in nuove geositemap. Con i file KML è possibile conquistare la fiducia con Google al fine di geolocalizzare un’attività commerciale; ci basterà segnalarla utilizzando il Google Webmaster Central.

NOTA Potete trovare ulteriori informazioni sull’utilizzo dei file KML al seguente URL: https://developers.google.com/kml/documentation/.

Ecco un esempio di utilizzo di file sitemap.xml e file klm: Sitemap.xml:

File kml:

Attraverso l’utilizzo di sitemap XML e file KML è quindi possibile fornire ulteriori informazioni a Google e migliorare la propria geolocalizzazione.

Feed RSS Un Feed RSS è un file XML appositamente strutturato, che consente agli utenti di rimanere in contatto con le novità di uno specifico sito web. È uno strumento apprezzabile e lo riteniamo fondamentale per i siti web che pubblicano in modo costante novità o aggiornamenti sui loro prodotti. A differenza della newsletter, gli iscritti al Feed riceveranno la notifica appena un nuovo contenuto verrà pubblicato sul nostro sito web. In ambito SEO è veramente importante avere a disposizione un Feed RSS perché ci permetterà di: • inserire il sito in aggregatori di notizie; • mantenere un contatto continuo con i nostri visitatori; • aderire a campagne pubblicitarie online; • fornire i nostri Feed RSS a canali come Google News, Yahoo! e via dicendo; • indicizzare contenuti multimediali come immagini, suoni e video. Tutti i software per la creazione di blog e CSM incorporano in modo automatico strumenti per la creazione di Feed RSS. Nel caso dovessimo sviluppare un sito web nostro, attraverso Asp.net PHP o altri linguaggi di programmazione, è molto semplice implementare un Feed RSS per i contenuti del sito stesso. Riportiamo di seguito un esempio di struttura XML di un Feed RSS:

Organizzazione e scrittura degli URL Abbiamo già accennato all’importanza di creare URL che abbiano un significato, che esprimano cioè il contenuto della pagina che andremo a visitare. Spesso si ha l’abitudine di creare pagine “standard”, come azienda.hmtl, prodotti.html e così via. Gli URL dovrebbero essere più significativi e contenere possibilmente keyword richiamate all’interno della pagina stessa. Per tale motivo, sarebbe più interessante chiamare la pagina Azienda come azienda-produzionemiele.html: in tal modo introdurremo la keyword “miele” direttamente nell’URL e forniremo un’informazione in più sia agli utenti, sia ai motori di ricerca.

NOTA Esistono molti dibattiti in merito all’utilizzo del trattino alto “-” o basso “_”. L’unica cosa che appare certa è che Google (notizia appresa dal blog ufficiale) sembra utilizzare il trattino alto negli URL per separare due keyword, mentre quello basso viene interpretato come parte integrante di una parola. È quindi consigliabile utilizzare i trattini (-) invece dei caratteri di sottolineatura (_) nell’URL nel caso si vogliano separare i significati delle varie parole. Precisiamo, però, che i motori di ricerca usano algoritmi in grado di interpretare anche parole o frasi scritte “attaccate” come se fossero parole separate. Quindi non bisogna fossilizzarsi troppo su tali punti. Da alcuni esperimenti effettuati su oltre una ventina di siti web, abbiamo notato come i principali motori di ricerca siano in grado di interpretare correttamente parole separate sia da trattini alti, sia da trattini bassi.

Tipicamente, si raccomanda di non utilizzare URL troppo lunghi e che contengano meno di quattro parole chiave. Secondo Google, inserire le keyword nell’URL potrebbe portare un miglioramento, ma sicuramente inserire numerose keyword non aiuterebbe. Per quanto concerne, invece, la posizione delle keyword all’interno dell’URL, questo risulta essere un fattore secondario.

NOTA Su questo argomento è possibile visualizzare un approfondimento a questo link: http://tinyurl.com/url-ranking

Anche la definizione dei nomi delle cartelle (directory) ricopre un ruolo importante: visto che andranno a costituire una parte dell’URL, essi dovranno essere utilizzati in maniera corretta. Per esempio, la directory news dovrebbe contenere tutte le news presenti nel sito web, la directory prodotti potrebbe servire per organizzare il catalogo dei prodotti aziendali. Vediamo un esempio: www.miosito.com/prodotti/carrello-elevatore.html La directory, nel caso di questo URL, è “prodotti”, quindi possiamo capire l’importanza di utilizzare nomi coerenti in base al contenuto di ogni cartella.

NOTA Nella scrittura degli URL consigliamo di utilizzare sempre le minuscole. Questo perché diversi server web potrebbero interpretare in maniera differente pagine o contenuti che contengono lettere maiuscole e minuscole. Per esempio, alcuni server Linux potrebbero interpretare le pagine Pagina.html e pagina.html come due entità distinte. Per questo motivo bisogna prestare attenzione alla nomenclatura di file, cartelle e URL.

Abbiamo quindi visto come sia importante avere URL corti, che contengano keyword, ma che siano significativi per l’utente e per i motori di ricerca. Ricordiamo, inoltre, come l’URL di un documento o di una risorsa venga mostrato come parte del risultato di ricerca dei vari motori di ricerca, perciò è estremamente importante creare URL SEO friendly. Nel caso si utilizzino CMS o pagine web dinamiche (jsp, php, asp ecc.), è possibile utilizzare tecniche per la riscrittura degli URL in modo da renderli maggiormente SEO friendly. Tramite l’utilizzo di un rewrite engine, saremo quindi in grado di modificare i nostri URL. A differenza di un normale sito web HTML, un sito web dinamico, come dice la parola stessa, può variare la forma e i contenuti. Questi, infatti, sono collegati a basi di dati su cui risiedono le informazioni aggiornate periodicamente dal webmaster o dal manutentore del sito web. Un sito web dinamico può, con il passare del tempo, avere al suo interno numerose informazioni e pagine web che lo aiuteranno nell’indicizzazione. Ovviamente, questa grande mole di dati prodotta grazie all’aggiornamento del sito web deve essere gestita in maniera opportuna. Molti motori di ricerca, infatti, possono ignorare il contenuto perché non formattato correttamente, perché presenta link scritti in maniera non riconducibile, perché non riesce a riconoscere correttamente le pagine del sito web dinamico; questo può diventare un grosso problema per un’azienda. Il prodotto “pistone” potrebbe essere raggiungibile da una pagina web così strutturata: www.sito.com/prodotto?id=1 Possiamo notare come tale pagina sia difficilmente indicizzabile e non risulti di facile memorizzazione da parte dell’utente. Invece, un URL strutturato in questo modo: www.sito.com/prodotti-1/pistone.html sarà ottimizzato per i motori di ricerca. La riscrittura degli URL si ritiene necessaria perché: • URL troppo lunghi non sono facilmente memorizzabili da parte degli utenti; • URL “sporchi” sono difficilmente indicizzabili e poco usabili; • URL “sporchi” non esprimono correttamente il contenuto della pagina che si andrà a visitare.

Non essendo, questo, un libro di programmazione, non ci soffermeremo a illustrare le diverse tecniche di URL rewriting da utilizzare per i vari linguaggi di programmazione, ma ci limiteremo a elencare una serie di soluzioni applicabili.

Riscrittura degli URL per i principali linguaggi di programmazione e web server PHP e Apache • utilizzare il mod_rewrite di Apache. Il mod-rewrite è un modulo del web server Apache che consente di trasformare URL dinamici del tipo http://www.sito.com/prodotto.php? id=23 in URL apparentemente statici del tipo http://www.dominio.com/prodottopane.html; • implementare .htaccess, che sono dei semplici file di testo contenenti le direttive di Apache per la configurazione.

NOTA Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori nell’implementazione di tali tecniche per PHP e Apache: • http://httpd.apache.org/docs/2.0/mod/mod_rewrite.html • http://www.andreavit.com/blog/url-rewriting-e-redirect/riscrittura-delle-url-conhtaccess-apache-consigli-esempi-pratici-2.html

ASP.NET e ISS • http://urlrewriter.net/: modulo per implementare URL rewriting in Asp.net; • http://www.urlrewriting.net/: modulo completo per implementare la riscrittura degli URL; • usare il modulo HttpModule to Perform Extension-Less URL Rewriting con IIS7; • utilizzare ISAPI Rewrite per abilitare Extension-less URL Rewriting per IIS5 e IIS6. Il sistema di riscrittura URL di ISAPI si avvicina molto al mod-rewrite di Apache, ma risulta ideato in modo specifico per Microsoft’s Internet Information Server (IIS); • implementare URL routing di asp.net 3.5 e 4.0 e Asp.net MVC.

NOTA Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori nell’implementazione di tali tecniche per ASP.net: • http://msdn.microsoft.com/it-it/library/cc668201.aspx • http://aspnet.html.it/articoli/leggi/2222/tecniche-di-url-rewriting-con-aspnet/4/

JAVA

• • •

implementazione URL Encoding; utilizzo dell’oggetto di sessione; http://www.tuckey.org/urlrewrite/

NOTA Di seguito sono elencate alcune utili guide che potrebbero aiutare i programmatori nell’implementazione di tali tecniche per JAVA: • http://docstore.mik.ua/orelly/java-ent/servlet/ch07_03.htm

Figura 5.9 - Esempio di riscrittura URL con ASP.Net.

Scegliere il nome dei file Anche quando pubblichiamo file, siano essi immagini, pdf, documenti o file compressi, dobbiamo prestare attenzione e scegliere nomi di file adeguati. Anch’essi, infatti, potrebbero essere posizionati nei motori di ricerca e quindi generare nuovo traffico verso il nostro sito web. Vediamo alcuni semplici consigli da seguire: • evitare gli spazi nei nomi dei file; • evitare di utilizzare caratteri “strani”, che potrebbero non essere correttamente interpretati dai server;

• •

utilizzare i trattini (-) per separare nomi di file lunghi; fornire nomi di file coerenti e che possano contenere keyword.

Vediamo subito alcuni esempi completi: • dobbiamo mettere online il pdf del catalogo dei prodotti che ha il seguente nome: prodotti%202010.pdf. Ovviamente è opportuno riscrivere il nome del file indicando il tipo di prodotti e l’anno. In tal modo, il cliente già dal nome riesce a percepire quello che contiene il file. Un nome corretto potrebbe essere catalogo-spugne-2010.pdf; • per le immagini il discorso è equivalente: è sempre opportuno scegliere nomi coerenti con il contenuto del file. Corona-ergal.jpg e Birra-fresca.jpg sono, per esempio, due ottimi nomi di file. Procedendo sulla falsariga degli esempi proposti, possiamo scegliere nomi di file SEO friendly.

Figura 5.10 - Esempio di riscrittura di nomi di file SEO friendly.

Gestione pagine di errore e redirect Un sito web, soprattutto di grosse dimensioni, costituito da migliaia di pagine, potrebbe essere sottoposto a errori di carattere tecnico o di digitazione degli URL. Per esempio, gli utenti potrebbero navigare all’interno del nostro sito in modo insolito, digitando direttamente gli URL nel browser. Ciò potrebbe causare la richiesta di una pagina che in realtà non è presente sul nostro server: in questi casi come ci dovremmo comportare? Dovremmo creare una pagina 404 (che indica che la pagina non è stata trovata) che informi l’utente che la risorsa cercata non è disponibile e lo consigli di accedere al sito web da un opportuno link. Alcuni dei motivi principali per cui viene visualizzata la pagina 404 sono: • link di pagine o risorse non più presenti nel server; • pagina precedentemente indicizzata nelle SERP, ma non più presente nel server; • link rotti nella struttura del sito.

La pagina di errore 404 dovrebbe avere un layout uguale al resto del sito web e fornire tutte le informazioni utili all’utente per poter accedere al nostro sito web. Per tale motivo, potrebbe essere utile mettere in essa le FAQ, una serie di link di “ingresso” verso il nostro sito web ed eventualmente un’e-mail di contatto in caso di errore. In tal modo l’utente non si trova spiazzato e, invece di abbandonare la pagina, ritorna sul nostro sito web. Per migliorare l’usabilità della pagina di errore 404, Google mette a disposizione un widget, disponibile al seguente link: https://support.google.com/webmasters/answer/93641?hl=it

NOTA Di seguito, due link interessanti sulla gestione dell’errore 404: • http://tinyurl.com/error-g404 • http://tinyurl.com/G-page404

Redirect 301 Supponiamo ora che una pagina che è stata indicizzata debba essere eliminata, perché obsoleta o perché contiene informazioni errate. Usando la tecnica del redirect 301, potremo dire allo spider che la pagina in questione non esiste più, ma punta fisicamente e in modo permanente verso un’altra pagina web. Questo perché il redirect preferito dai motori di ricerca è quello chiamato 301, il quale indica al motore che l’indirizzo è stato spostato permanentemente. Esistono diversi modi per effettuare un redirect 301 SEO friendly per vari linguaggi di programmazione. Cercheremo, nel seguente elenco, di mostrare le principali tecniche a disposizione. • Htaccess 301 redirect: è implementabile in siti ospitati su server Apache in cui le richieste vengono controllate dalle regole specificate nel file .htaccess. Vediamo un esempio: Alla richiesta della pagina pagina_seo1.php, l’utente verrà rimandato alla pagina

NOTA Potete trovare ulteriori informazioni per implementare tale tipologia di redirect a questo indirizzo: http://tinyurl.com/apache-redirect

IIS 301 redirect: è possibile configurare opportunamente IIS per gestire la redirezione delle pagine. Vediamo i passi per effettuare un redirect 301 di un intero sito web: dopo

aver avviato ISS, dobbiamo selezionare il server in cui è presente la risorsa e poi il sito web da gestire. Dopo aver fatto clic con il tasto destro, scegliamo la voce Proprietà. Selezioniamo il tab Home Directory; scegliamo Reindirizzamento a un URL e nella casella Reindirizza a: inseriamo l’indirizzo verso cui ridirigere le richieste. Infine, attiviamo l’opzione Reindirizzamento permanente per la risorsa necessaria per effettuare il redirect 301.

Figura 5.11 - Esempio di configurazione ISS per redirect 301 di un intero sito web.

NOTA Per effettuare un redirect di un singolo file dobbiamo effettuare i seguenti passaggi: avviare ISS; dopo aver selezionato il server, spostarci fino alla pagina da gestire; facciamo clic con il tasto destro su di essa e selezioniamo la voce Proprietà. Una volta posizionati sulla scheda File, possiamo modificare l’impostazione in Reindirizzamento a un URL come visto precedentemente.

PHP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole effettuare il redirect 301:

Oppure nel file htaccess:

ASP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole effettuare il redirect 301:

ASP .NET redirect 301: il seguente codice va inserito all’interno della pagina (sezione Page_Load) in cui si vuole effettuare il redirect 301:

JSP redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole effettuare il redirect 301:

Ruby on Rails redirect 301: il seguente codice va inserito all’interno della pagina in cui si vuole effettuare il redirect 301:

Coldfusion redirect 301:

Perl redirect 301:

Perl redirect 301:

Redirect HTML: nel caso non avessimo a disposizione un linguaggio di programmazione e ci trovassimo nella situazione di dover effettuare un redirect di una pagina web che è stata spostata, l’unica alternativa a disposizione è quella dell’utilizzo di codice HTML per effettuare il redirect. Ecco il codice che ci viene in aiuto:

NOTA Il valore CONTENT=“” serve a specificare i secondi che intercorrono al reindirizzamento verso la pagina specificata. Se tale valore è pari a 0, viene interpretato come un redirect simil 301.

Google e i principali motori di ricerca, tra cui Yahoo!, sono in grado di riconoscere il redirect via meta refresh, che viene trattato specificatamente come 301 (nel caso venga indicato un valore pari a zero) o 302 (se il ritardo è maggiore). In conclusione, il redirect via HTML, a nostro avviso, va applicato solamente nei casi in cui non si abbiano alternative; contrariamente, è sempre consigliabile utilizzare il redirect 301. Gary Illyes ha affermato: “301 redirects don't lose PageRank anymore”. Questa dichiarazione è molto importante sull'utilizzo di questi redirect!

Redirect 302 Il redirect di tipo 302 è un redirect temporaneo. È consigliabile utilizzarlo in quei casi in cui si vuole comunicare allo spider che una determinata pagina web è stata temporaneamente rinominata o rimossa dal web, ma che sarà ripristinata entro breve. In questo modo lo spider, non

trovando la pagina, non la rimuoverà dal proprio indice, ma ne terrà in memoria una copia cache fino a quando la pagina non verrà ripristinata.

Redirect sconsigliati lato SEO Esistono, ancora oggi, alcune tipologie di redirect non molto apprezzate dai motori, e che, anzi, in alcuni casi vengono interpretate come azioni di spam, penalizzando quindi la pagina web o il dominio che ne fa uso. I principali redirect da evitare, a nostro avviso, sono i seguenti: • Meta Refresh HTML: con tempo di redirect superiore a cinque secondi, non sembra essere una tecnica molto amata dai motori di ricerca, soprattutto per l’abuso che ne è stato fatto: •

JavaScrip Redirect: rientra nella categoria di cloaking e quindi potrebbe portare a penalizzazioni della pagina che lo implementa:

Redirect con frame: tipicamente viene usato nella pagina principale del dominio in cui si inserisce un frameset che richiama l’URL della pagina da visualizzare. Anche questa risulta essere una tecnica non apprezzata dai motori di ricerca:

Spostare una pagina web o un dominio Alcune volte potrebbe capitare, per problemi di hosting, per scelte di marketing o per qualsiasi altro motivo, di dover spostare una pagina web o addirittura un intero sito web. Per fare questo, abbiamo visto come sia indispensabile utilizzare opportunamente un redirect 301, per non perdere la propria popolarità e il PageRank. Quali sono le pagine principali su cui dovremmo concentrarci per effettuare la migrazione? • le pagine con maggiori visite; • le migliori landing page; • le pagine con più backlink; • le pagine meglio posizionate nella SERP. I passaggi da seguire per effettuare una migrazione corretta sono i seguenti: • evitare di avere online due versioni con contenuti duplicati; • verificare che tutti i link del nuovo e del vecchio sito siano funzionanti; • implementare la pagina di errore 404 per tenere sotto controllo eventuali errori; • effettuare un redirect 301 a livello globale o per ogni singola pagina che si vuole “trasferire” (consigliato); • monitorare le operazioni attraverso l’utilizzo l'utilizzo della Search Console messa a

disposizione da Google; ottimizzare il nuovo sito web attraverso le tecniche illustrate in questo libro.

NOTA Google offre il consiglio seguente (http://www.google.com/support/webmasters/): “Non effettuare un unico reindirizzamento che diriga tutto il traffico dal vecchio sito alla nuova home page. Un reindirizzamento pagina per pagina comporta una maggiore mole di lavoro, ma consente di conservare il posizionamento del vostro sito nei risultati di Google e fornisce al contempo un servizio coerente e trasparente agli utenti. Se non vi è una corrispondenza 1:1 tra le pagine del vecchio e del nuovo sito (come consigliato), dovete assicurarvi almeno che ogni pagina del vecchio sito sia reindirizzata in una nuova pagina con contenuto analogo”.

Applicando opportunamente tali passaggi, saremo in grado di trasferire il nostro dominio senza che avvengano penalizzazioni da parte dei motori di ricerca. Per verificare tutti i link interni del nostro sito web, possiamo sfruttare due interessanti tool: • Pinger: è un tool per Mozilla che ci consente di verificare se i link presenti in una pagina siano funzionanti o meno; • Xenu: è un software da installare sul proprio PC che analizza tutti i link presenti all’interno del dominio e verifica la presenza di eventuali collegamenti non funzionanti. È possibile scaricare il software dal link http://home.snafu.de/tilman/xenulink.html.

NOTA Può accadere che non tutti i vecchi URL abbiano un corrispettivo URL. Per tale motivo, bisogna compiere delle scelte: • effettuare un redirect verso un nuovo URL; • eseguire un redirect verso la radice della categoria.

Figura 5.12 - Esempio di utilizzo del tool Xenu per la verifica dei link di un sito web.

Search Console (ex GWT Google Webmaster Toolkit) è uno strumento che analizzeremo ampiamente in seguito, ma che ci può già venire utile nel caso di cambio di indirizzo di un dominio web. Per utilizzare lo strumento in questione, è necessario essere registrati e aver inserito opportunamente i meta tag di verifica all’interno dei siti da monitorare.

NOTA Attenzione: "John Mueller of Google went on record that when you do 301 redirects of many or all of your old internal pages to your home page, Google will treat those redirects as soft 404s. Which means, essentially, Google will ignore those redirects, not pass the PageRank and signals from the old pages to the new page"

Figura 5.13 - Errori nella Search Console.

La risoluzione grafica di un sito web è utile per la SEO? Chi si occupa di SEO il più delle volte non si pone nemmeno il problema della risoluzione di un sito web, in quanto questa caratteristica non sembra essere presa in considerazione dai motori di ricerca. Ma è proprio qui che stiamo commettendo un grave errore. Dobbiamo ricordarci che un buon sito deve accogliere gli utenti, i quali sono la fonte principale per la SEO. Se un visitatore accede al nostro sito web e non visualizza correttamente le pagine presenti in esso, possiamo essere certi che lo abbandonerà dopo pochi secondi. Per tale motivo, la scelta della risoluzione a cui impostare il layout di un sito web è importante. In alcuni casi, se utilizziamo un layout al 100%, esso si adatta automaticamente alla risoluzione dello schermo. Bisogna fare attenzione, però, che anche tutti i moduli interni siano in grado di adattarsi. Questa tecnica a volte è penalizzante per il layout, che potrebbe essere “non molto sfarzoso”. Per vedere quale potrebbe essere la risoluzione ottimale per il nostro sito web, ci potremmo basare su statistiche prese da altri siti web che abbiamo implementato, al fine di capire quale sia la risoluzione più utilizzata dagli utenti che navigano nel web. Dai dati forniti da marketshare.hitslink.com, si può notare come a oggi la risoluzione più usata dai frequentatori della rete risulti essere 1024 x 768, seguita da 1280 x 800, come mostrato in Figura 5.14.

Figura 5.14 - Le principali risoluzioni video utilizzate dai navigatori in Internet.

La soluzione ottimale sarebbe dunque quella di sviluppare le pagine con larghezza dinamica, ma con una struttura minima di circa 1000 px. È importante, a nostro avviso, riservare un layout apposito per apparati mobile, quindi far sì che il nostro sito web sia fruibile anche da cellulari, palmari e via dicendo. Una volta implementati il layout e la grafica, resta un ultimo passo da compiere: vedere se il nostro sito web viene visualizzato correttamente all’interno dei vari browser. L’errore comune di molti designer e sviluppatori web è quello di fermarsi al layout visualizzato nel proprio monitor e nel browser predefinito senza testare quanto è stato creato anche in altre risoluzioni o su altri browser web.

Vediamo alcuni strumenti utili per verificare come viene visualizzato il nostro sito web a risoluzioni differenti e su browser diversi: • http://testsize.com: è un servizio online che ci permette di vedere come viene visualizzato un sito web a risoluzioni differenti; • http://browsersize.googlelabs.com: è un servizio messo a disposizione da Google per testare le risoluzioni del proprio sito web. Durante l’implementazione di un sito web spesso può diventare difficile costruire pagine web che vadano bene per tutti gli utenti e soprattutto per tutti i browser web in circolazione. Eseguire i cosiddetti test cross browser è un passaggio essenziale, ma il più delle volte si rivela un compito arduo. Un primo passo verso la compatibilità consiste nell’eseguire test preliminari attraverso opportuni software di simulazione che verificano la compatibilità del sito web all’interno di browser differenti. Tra i principali servizi possiamo menzionare: • http://browsershots.org: servizio online che consente di verificare se il proprio sito web è compatibile con i principali browser in commercio;

Figura 5.15 - Esempio di utilizzo del tool browsershots.org per la verifica della compatibilità di pagine web su browser differenti.

https://netrenderer.com/: consente agli utenti Mac di testare le proprie pagine su Internet Explorer attraverso questo servizio gratuito;

• •

http://www.browsercam.com: offre un’interfaccia online per controllare le schermate su una serie di browser e sistemi operativi differenti; http://www.my-debugbar.com/wiki/IETester/HomePage: un software gratuito permette di verificare la compatibilità delle proprie pagine web all’interno di browser Internet Explorer di Microsoft nelle varie release.

Attraverso i tool sopra illustrati possiamo capire se il lavoro svolto sia adeguato o se, eventualmente, sia necessario apportare alcune modifiche alla grafica o ai componenti per rendere il sito web compatibile con diverse risoluzioni video e su diversi browser web.

DIV e CSS o tabelle? Durante lo sviluppo del layout web esistono due scuole di pensiero e due approcci fondamentalmente differenti: l’utilizzo di tabelle o di tag HTML e i DIV formattati attraverso l’uso di CSS. Le tabelle, oltre ad avere la funzione di rappresentare dati di ogni genere allineati in righe e colonne, sono utilizzate per costruire l’intera struttura di una pagina web. Infatti, con le tabelle si può definire il layout di una pagina web in modo da disporre il testo su colonne multiple e ottenere allineamenti anche molto complessi. I DIV, invece, sono raccoglitori di elementi (secondo il W3C): “Gli elementi DIV e SPAN, insieme con gli attributi id e class, offrono un meccanismo generico per aggiungere struttura ai documenti. Questi elementi definiscono il contenuto o come in riga (SPAN) o come a livello di blocco (DIV), ma non impongono alcun altro idioma presentazionale sul contenuto. Pertanto, gli autori possono usare questi elementi in congiunzione con i fogli di stile ecc. per adattare l’HTML ai propri bisogni e ai propri gusti”. Fondamentalmente, l’uso delle tabelle è più semplice e intuitivo, si ha la certezza che il layout risulti simile su quasi tutti i browser web ed eventuali modifiche potrebbero richiedere poco tempo. L’utilizzo di DIV + CSS comporta una conoscenza profonda dell’HTML e dei CSS, il layout risulta più pulito e tipicamente servono meno righe di codice per ottenere il medesimo risultato utilizzando le tabelle. Il problema principale è rappresentato dalla compatibilità con i vari browser: infatti, alcuni parametri dei CSS possono essere interpretati in maniera differente da browser diversi, con conseguente layout modificato. In linea di principio, l’utente non si accorgerà se un sito web è stato fatto utilizzando le tabelle o i DIV + CSS. Stabilire, poi, quale sia l’approccio migliore non è facile; su Internet i dibattiti in merito a questo argomento sono accesi.

Figura 5.16 - Esempio di utilizzo di tabelle e DIV con CSS.

Come si vede dall’esempio, il layout basato su tabelle contiene più codice rispetto alla versione con i DIV e CSS.

NOTA A nostro avviso, un layout costruito utilizzando DIV + CSS potrebbe essere l’approccio migliore (anche se in alcuni casi potrebbe richiedere maggior tempo per lo sviluppo), perché ci consente una separazione tra disegno (DIV) e grafica (CSS) e l’utilizzo di codice “pulito” e leggero (rispetto all’implementazione basata su tabelle).

Il nostro consiglio è quello di avere un approccio pragmatico a questo argomento: • è consigliabile utilizzare i DIV nella maggior parte dei casi: grazie a essi è possibile implementare pagine con minor quantità di codice ingombrante e i loro CSS potranno essere archiviati in file esterni. Questo porterebbe a un caricamento più rapido delle pagine web del nostro sito; • nonostante ciò, se si è scelto di adottare un design specifico e dettagliato, sarà consigliabile utilizzare le tabelle, in quanto renderanno veloce il caricamento delle pagine web.

NOTA “Per esempio, Google propone tutti i suoi annunci tramite tabelle. Questo è pragmatismo all’opera.” (Robin Good)

Ai motori di ricerca non importa molto di queste differenze nel codice; a loro interessa la qualità

dei contenuti. È altresì vero che un sito web “meno pesante”, che si carica più velocemente e la cui struttura interna HTML sia facilmente navigabile da parte degli spider, aiuterà nel processo di indicizzazione. Vediamo, quindi, i principali pro e contro nell’utilizzo delle tabelle o DIV + CSS. Utilizzo delle tabelle Pro • generalmente minor tempo per l’implementazione di un layout basato sulle tabelle; • facilità di scrittura; • pochi errori riscontrati con i browser (in alcuni casi si adattano maggiormente ai browser); • nessun trucco CSS da usare. Contro • la comodità nello sviluppo viene in genere “pagata” con una notevole complessità di codice e poca chiarezza dei contenuti; • le tabelle annidate non sono apprezzate dai motori di ricerca; • utilizzo di molto codice anche per elementi semplici; • difficoltà nel gestire i tag di chiusura. DIV + CSS Pro • ottima divisione tra contenuto e impostazione grafica; • ridotto peso delle pagine, con conseguente diminuzione dei tempi di caricamento; • possibilità di cambiare l’aspetto del sito, anche notevolmente, modificando solamente un file. Contro • uso di “trucchi” CSS per poter raggiungere alcuni effetti grafici e far sì che il layout sia cross browser (alcuni browser differenti o datati potrebbero non interpretarli correttamente o allo stesso modo); • conoscenza approfondita dei CSS per poter scrivere al meglio il layout; • tipicamente, impiego di maggior tempo per implementare un layout complesso. Ora che abbiamo ben chiaro lo scenario, possiamo scegliere la strada che riteniamo migliore in base alla tipologia e alla complessità del sito web che implementeremo. Fondamentalmente, la nostra scelta dovrebbe propendere maggiormente verso l’utilizzo dei DIV e CSS, in quanto il futuro del web (come vedremo HTML 5) andrà in questa direzione.

NOTA A livello SEO, abbiamo notato come vi siano siti web costruiti utilizzando tabelle e siti web con layout fatto solamente di DIV e CSS, entrambi posizionati in prima pagina nella SERP dei vari motori di ricerca. Questo ci fa capire che, per un sito web, una buona struttura (leggera, navigabile e accessibile) è certamente importante, ma è altresì fondamentale proporre contenuti aggiornati e freschi.

W3C e accessibilità Abbiamo accennato all’importanza di avere un sito web accessibile non solo da un punto di vista SEO, ma anche per accogliere utenti con caratteristiche e bisogni differenti. Ma cos’è il W3C? È un’associazione che cerca di definire degli standard e di consentire al web di essere sfruttato e fruibile al 100% delle sue potenzialità. Validare il codice HTML attraverso gli standard imposti dal W3C a volte risulta davvero arduo (possiamo notare che anche i siti più importanti, come Bing.com, presentano numerosi errori di validazione), ma può rivelarsi utile per migliorare l’accessibilità del nostro sito web e quindi la user experience. In ambito SEO, come vedremo tra poco, i vantaggi di avere un sito W3C validato sono pochi, ma a nostro avviso è sempre meglio avere un sito web validato secondo gli standard per i seguenti motivi: • i motori di ricerca possono leggere il contenuto del sito senza incorrere in errori HTML (per esempio, tag non chiusi); • un sito validato W3C (WAI WCAG) è conforme agli standard di accessibilità, quindi può essere usato per le pubbliche amministrazioni; • un sito validato W3C è sinonimo di sito ben fatto e strutturalmente valido.

Figura 5.17 - La home page di Google non rispetta gli standard W3C.

In poche parole, il W3C è per l’HTML ciò che la grammatica è per la lingua italiana. Nonostante ciò, sul web esistono siti W3C non validi, ciò senza compromettere la loro navigabilità e senza

che gli utenti se ne accorgano. Per esempio, la home page di Google ha diversi tag HTML non chiusi, quindi non è W3C compatibile. I principali sostenitori del W3C affermano che il vantaggio derivante dal rendere un sito compatibile con gli standard indicati da esso è principalmente quello di rendere il nostro sito accessibile ai visitatori e agli spider dei motori di ricerca. È noto, d’altro canto, come sia difficile creare un sito che sia completamente compatibile con gli standard W3C, cosa che richiede molto tempo per analizzare il codice. Abbiamo anche visto come alcuni siti web, tra cui Google, pur non rispettando tali standard, siano funzionanti e utilizzati da migliaia di persone. In una recente intervista, Matt Cutts dichiara che a Google interessano i contenuti, non gli standard. Egli afferma: “Stiamo cercando di fare sempre attenzione alla qualità. A quanto è valida una pagina per gli utenti. In quale misura, cioè, essa sia in grado di fornire ai visitatori le informazioni di cui hanno bisogno. Ci sono molte persone che scrivono codici HTML non validi, commettendo molti errori di sintassi, ma che comunque producono ottimi contenuti. Dobbiamo essere capaci di classificare questi contenuti anche se qualcuno commette errori e non è totalmente perfetto in termini di validazione”. La conclusione che dobbiamo trarre è che W3C fornisce delle linee guida che permetterebbero di rendere il nostro sito web maggiormente accessibile, ma in questo scenario dobbiamo sapere che generalmente i motori di ricerca non trarranno molti vantaggi da pagine che rispettano tali standard. Il nostro consiglio rimane quello di scrivere un codice il più pulito e leggero possibile, corredandolo di contenuti interessanti.

NOTA A questo link è possibile prendere visione delle linee guida per lo sviluppo di siti web W3C compatibili: http://www.w3.org/TR/WCAG10/full-checklist.html

Ora non ci resta che vedere come validare le nostre pagine web. La procedura è molto semplice: è sufficiente andare sul sito web http://validator.w3.org/ e inserire l’URL della pagina che vogliamo validare. In caso di errori, verrà riportata la riga in cui essi compaiono, in modo tale da individuarli ed eventualmente correggerli.

NOTA Vi consigliamo un tool per Firefox, che consente di validare pagine web anche offline, utile in fase di sviluppo di un sito web: HTML Validator. Nella Figura 5.18 viene mostrato il tool in azione.

Figura 5.18 - HTML Validator in esecuzione.

SEO e WordPress Sul web esistono molti CMS: WordPress, Magento, Joomla sono i più noti. Ora cercheremo di analizzare brevemente le modifiche principali da apportare a WordPress per renderlo SEO friendly. WordPress è, assieme a Joomla, un CMS diffuso su scala mondiale, che ci consente di realizzare in pochi istanti siti web o blog. Per questo motivo analizzeremo le principali tecniche di base per partire con un sito WordPress ottimizzato (ovviamente molti di questi consigli potranno essere utilizzati anche per altri CMS online).

WordPress e la sicurezza WordPress (www.wordpress.org) è senza ombra di dubbio uno dei CMS più intuitivi e utilizzati al mondo. Grazie alla vasta community e all’ampia scelta di plugin e template disponibili – per la maggior parte gratuiti – è entrato di peso a far parte della vita quotidiana di chiunque si occupi di sviluppo e gestione di progetti web. Proprio per questa ragione è anche uno dei CMS più “presi di mira” dall’altra vasta community presente nei meandri della rete: i famigerati Hachers. :-) La natura “open source” di WordPress, che ne determina il punto di forza forse più assoluto, si rivela allo stesso tempo anche un tallone d’Achille, da non sottovalutare. La scelta di aprire il proprio codice alla vasta community della rete permette a chiunque di contribuire alla qualità del core di WordPress. I “difetti” e i bug presenti nel codice applicativo vengono scoperti, analizzati e infine fixati potenzialmente da chiunque contribuisca allo sviluppo del CMS.

Tuttavia, il processo di analisi del codice applicativo può essere utilizzato allo stesso modo per scopi non propriamente leciti. Individuata una falla, infatti, un cosiddetto “cracker” potrebbe trovare il modo per utilizzarla a proprio vantaggio, diffondendo malware e/o trovando “accessi dalla porta di servizio” per compromettere i siti sviluppati con WordPress. Un esempio recente è la falla di sicurezza scoperta il 6 maggio 2016 ai danni del noto plugin Yoast SEO (https://www.wordfence.com/blog/2016/05/yoast-seo-vulnerability/). Col passare del tempo, e dei vari aggiornamenti del core, i sistemi di sicurezza WordPress continuano a migliorare e ad affinarsi, ma per andare sul sicuro e minimizzare i rischi è consigliabile installare alcuni plugin appositi. Ne segnalo due: Wordfence e iTheme Security (precedentemente noto come Better WP Security). Principalmente si occupano di gestire la maggior parte delle funzioni base di sicurezza del nostro sito.

Figura 5.19 - Esempio di utilizzo di plugin di sicurezza.

Wordfence, nello specifico, ha diverse e interessanti caratteristiche: • firewall con ban automatico o manuale degli IP; • notifiche in tempo reale sulle minacce e gli accessi; • blocco degli attacchi brute-force; • anti malware con scansione automatica dell’intero codice applicativo; • filtri anti spam;

• • •

gestione della cache; password audit; riparazione di file corrotti.

iThemes Security si concentra, invece, su una serie di operazioni preliminari che i cracker effettuano per irrompere nei siti WordPress. Comprende, quindi, la possibilità di scegliere un URL per il login, impedendo, così, di accedere al sito mediante path standard come wp-admin o wp-login.php. Oppure blocca gli accessi dopo un numero predefinito di tentativi falliti, impedisce qualunque accesso durante un orario stabilito, contrasta gli attacchi brute-force, invia notifiche per qualsiasi cambiamento di file operato dal sistema e impedisce la scansione delle cartelle del sito. Ecco infine una carrellata di altri plugin utili: • caching: W3 Total Cache; • link rotti: Broken Link Checker; • backup e sicurezza: WPB2D WordPress Backup; • sicurezza: Secure WordPress; • authorship Markup: AuthorSure; • Schema.org: All In One Schema.org Rich Snippets; • redirection: segnala i 404 e permette di impostare i redirect 301.

Yoast SEO: il plugin SEO per eccellenza Il plugin Yoast SEO (precedentemente chiamato WordPress SEO by Yoast) è uno strumento prezioso che può contribuire al miglioramento della SEO di un sito web. Yoast SEO è in assoluto uno dei plugin gratuiti più diffusi, con oltre un milione di utenti che lo utilizzano regolarmente; e questo la dice lunga sulla sua semplicità di utilizzo e, perché no, sulla sua sostanziale efficacia. È, infatti, uno dei tool più completi per l’analisi e l’ottimizzazione SEO nell’ampio mondo WordPress. Oltre a permettere la gestione di tutte le funzionalità SEO di base, garantisce anche impostazioni più avanzate ormai indispensabili per ottenere i risultati desiderati. Per prima cosa è opportuno configurare permalink; questo ci consentirà di avere URL SEO friendly per il nostro blog WordPress. Andiamo in Impostazioni > Permalink; qui possiamo impostare gli URL personalizzati, come mostrato nella Figura 5.20.

Figura 5.20 - Permalink: riscrittura degli URL.

Una volta scaricato e installato, Yoast vi inviterà a iniziare un tour guidato. In questo modo potrete impostare i primi valori di default e comprendere il funzionamento dei vari tool disponibili: • Title e Meta Description (due valori importantissimi perché, oltre ad avere un peso nel posizionamento della pagina per quanto riguarda il “tag title”, sono un vero e proprio biglietto da visita utile per attrarre l’utente web sul proprio sito, piuttosto che su un sito concorrente); • Robot Metadati; • Canonical URL; • Breadcrumbs (semplici ma importanti informazioni che aiutano a comprendere la struttura del sito); • Primary Category (la possibilità di catalogare un post in più categorie indicando, però, quella principale); • Permalink; • Sitemap XML (fondamentale per comunicare a Google la mappa del sito); • RSS (permette di aggiungere contenuti come link ai feed RSS); • Editor di facile utilizzo per il robots.txt e .htaccess. Non voglio dimenticare di citare l’ormai mitico semaforo di Yoast, che tanto fa sorridere i SEO con più esperienza alle spalle.

I colori del semaforo – verde, giallo o rosso – vorrebbero rappresentare il livello di qualità del lavoro effettuato OnPage sull’articolo che si sta analizzando. È piuttosto evidente di come si tratti di una semplice indicazione di massima, che non deve essere scambiata per un giudizio completo, assoluto e a 360°. La versione Premium di Yoast SEO - a pagamento - comprende anche altre funzioni come ad esempio il Redirect Manager, che aiuta a reindirizzare vecchi URL; o il Multiple Focus Keywords, uno strumento in grado di ottimizzare un post per due o più termini. La Figura 5.21 mostra un esempio di utilizzo del di plugin per ottimizzare titoli e descrizioni.

Figura 5.21 - Ottimizzazione di titoli e descrizioni per WordPress.

NOTA Tra le varie funzionalità offerte da WordPress SEO, vi è la possibilità di impostare la priorità della sitemap, eventuali redirect 301 o configurare il rel=”canonical” senza scrivere nessuna riga di programmazione.

Senza addentrarci nei dettagli delle configurazioni avanzate del plug-in, possiamo dire che esso ci consente di impostare in pochi passaggi diverse funzionalità avanzate, come la gestione della sitemap, la gestione dell’authorship markup e l’impostazione di sottosezioni, come gli archivi e i campi tag, che per blog appena nati potrebbero causare qualche problema di visibilità se non gestiti in modo corretto. All’indirizzo seguente si può trovare una guida dettagliata su come configurare il plug-in nelle sue impostazioni più avanzate: https://yoast.com/articles/wordpress-seo/

Autoptimize: la velocità è importante! Oggigiorno le abitudini degli utenti che navigano il web stanno cambiando e affinandosi sempre di più.

Aspettare qualche secondo in più nell’attesa che un sito si aprisse, non era una grossa seccatura in passato. Oggi, invece, è un fastidio sopportato da pochi. Persino Google ha poca pazienza con i siti web poco ottimizzati e lenti. La velocità con cui si carica una pagina web, infatti, sembra essere un fattore rilevante che – indirettamente o meno – potrebbe essere considerato da Google ai fini del posizionamento di un sito web in SERP. Indipendentemente da come la possa pensare googlebot, è fondamentale che i nostri siti siano reattivi e scattanti, per offrire agli utenti una piacevole esperienza di navigazione. Se gli utenti saranno contenti del nostro sito web è molto probabile, infatti, che lo sarà anche il motore di ricerca. A questo fine, vi consigliamo un plugin completamente gratuito e in grado di ottimizzare il vostro sito WordPress in maniera semplice e veloce. Autoptimize unisce tutti gli script e gli style, comprime i CSS e JS, fa caching del sito e minifica il codice HTML, rendendo, così, il sito più leggero e veloce. Una volta aperto Autoptimize, vi troverete davanti a una pagina dei setting molto chiara e immediata. Qui potrete decidere se spuntare o meno i cinque checkbox proposti, a seconda dei compiti che desiderate far compiere al plugin. Potrete anche inserire gli script che vorrete escludere dall’ottimizzazione. Inoltre, questo tool è compatibile con altri plug-in come WP Super Cache e HyperCache, che integrano perfettamente Autoptimize con funzioni più avanzate.

Figura 5.22 - Esempio di utilizzo di AutoOptimizee.

NOTA WordPress usa una serie di costanti per migliorare la sicurezza sotto diversi aspetti, come ad esempio i cookie assegnati durante l’autenticazione. Queste costanti si trovano nel file wpconfig.php e, malgrado in genere siano a posto, è sempre meglio verificare e generarle dall’URL http://api.wordpress.org/secret-key/1.1/.

SEO e Joomla Anche Joomla, essendo un CMS molto diffuso, ha diversi livelli di personalizzazione. A livello SEO, oltre a seguire tutte le indicazioni date in questi capitoli, abbiamo la possibilità di installare plug-in che ci facilitano il compito di ottimizzazione. Una delle prime configurazioni da

impostare lato SEO è presente in “Impostazioni Sito”: da qui è possibile, infatti, scrivere il nome del sito e impostare altre opzioni avanzate. Inoltre Joomla ha delle opzioni SEO native: si tratta di parametri presenti in Sito > Configurazione Globale > Impostazioni SEO, che possiamo attivare e che ci permettono di impostare URL SEO friendly.

Figura 5.23 - Ottimizzazione SEO di Joomla.

Oltre alle impostazioni standard, consigliamo alcuni plug-in aggiuntivi; tra questi i principali sono: • Joomsef: consente di riscrivere e personalizzare gli URL e presenta una sezione specifica denominata Manage Meta Tags attraverso la quale l’utente può impostare per ogni singolo URL i relativi title, description, keywords; • Mijosef: permette di generare in modo automatico i principali meta tag SEO.

NOTA Altri plug-in molto utilizzati sono SEO Boss e SEOSimple, ottimi strumenti per personalizzare e ottimizzare Joomla. Si ringrazia Davide Prevosto per il supporto fornito.

SEO per PrestaShop di Ivan Cutolo Quando si parla di SEO per e-commerce, a differenza di un tradizionale website, bisogna affrontare alcuni argomenti rilevanti: • architettura website, più complessa in uno shop online; • linking interna, più articolata, essendoci molte pagine/categorie/prodotti; • gestione contenuti duplicati, più frequenti; • ID URL categorie (nel caso di PrestaShop).

La struttura architettonica di un e-shop. Quando si costruisce un e-shop, la prima preoccupazione è che sia bello, che abbia una grafica accattivante, elegante, che sia evidente il nome del brand: in sintesi, alla cura grafica si dedica tantissimo tempo, sforzandosi di immaginare cosa possa piacere o meno alla gente. Perdendosi nel mondo dell’estetica, si dimentica che è importante comunicare e, nel mondo reale come in quello digitale, è fondamentale che il messaggio, il prodotto, il servizio proposto arrivi all’utente/cliente. Nel mondo del digitale, non potendo usare la parola per comunicare, si attinge ad altri strumenti, per far arrivare in modo diretto, senza ostacoli, il messaggio di vendita al cliente: la scrittura, le immagini, la struttura architettonica del sito. Entreresti in un negozio confusionario, dove è difficile trovare quello che cerchi senza indicazioni? Certamente no. Quando si costruisce un ecommerce, bisogna considerare che l’utente è frettoloso, è impaziente, si annoia se non trova quello che cerca in breve tempo, va via, dimenticandosi di te per sempre. L’utente cerca delle informazioni, dei dettagli, vuole conoscere il prodotto, se non trova tutto questo, non ci sono visite ma solo curiosi di passaggio. Instauriamo una buona relazione con l’utente, sin dai primi passi, accogliendolo in uno shop dalla struttura chiara e pulita, di facile navigabilità, con le giuste informazioni, con un contenuto sincero e leggibile. Come deve essere l’architettura di un e-shop a prova di cliente?

Struttura a silos La home è la pagina più importante del tuo sito, è l’ingresso dove ricevi gli utenti, è la pagina che Google vede e valuta. Organizza la home, dove presenti il tuo negozio con macro categorie, che indicano i gruppi merceologici dei prodotti in vendita, che andranno a contenere le varie categorie. Capita spesso di vedere menu con un numero elevato di macro categorie, che disorientano l’utente; è importante invece la moderazione nell’inserirle: anche l’abuso di esse genera confusione e difficoltà di navigazione. L’ideale, per un e-commerce di piccole o medie dimensioni, è inserirne al massimo cinque o sei. Come nominare le macro categorie? Questo è un passaggio rilevante per un’architettura efficace sia lato utente, sia lato SEO. Ecco perché la realizzazione di uno shop non esula da una pianificazione marketing preventiva. Le categorie vanno nominate alla luce di uno studio delle keywords di settore. Bisogna capire quali sono le key più ricercate e di conseguenza quelle da ottimizzare. Fatto questo lavoro, si nominano le macro e le micro categorie. Nell’immagine, facciamo un esempio di architettura leggera e semplice da navigare con tre macro categorie, all’interno di queste un numero sempre non elevato di micro categorie, fino ad arrivare in una sequenza logica, ordinata e precisa alla scheda prodotto.

Figura 5.24 - Struttura a silos ideale per un e-commerce.

La struttura, così rappresentata, è quella che consiglio per la navigabilità e l’usabilità, ideale per la maggior parte degli e-commerce che si realizzano; chiaramente in base al numero dei prodotti e alla grandezza dello shop, si può allungare la struttura di un passaggio ulteriore prima del carrello.

Internal linking Spesso, si sottovaluta dal punto di vista SEO, la parte inerente alla linking interna, dando priorità all’ottimizzazione di title, description e H1. È lavoro che va fatto, ma la SEO, in una fase advanced, riguarda anche link interni al sito, che devono essere distribuiti in modo omogeneo. La linking interna in un e-shop va curata per due fattori che ci stanno a cuore: l’utente e Google. Come dicevo, il più delle volte, noto che nell’ e-commerce non esiste alcun tipo di collegamento tra le pagine dello shop o, laddove esista, ci sono dei collegamenti privi di senso. Questa prassi non aiuta l’indicizzazione del sito e non ne aiuta la navigabilità. Come ragionare e perché creare link interni? L’internal linking ricopre un ruolo importante, consente agli utenti di navigare un sito, aiuta a stabilire la gerarchia di informazioni, permette di definire la link juice spread (ranking). In un e-commerce è la home la pagina di ricerca più forte, quella con il rank juice più alto, mentre la pagina del prodotto è quella meno trafficata con il juice più basso; per trasferire forza a tutto il sito è necessario collegare le pagine tra loro, con senso logico e tematico. Il mio consiglio per ottimizzare le pagine e creare una corretta linking interna è quello di immaginare una struttura a silos, dove si collegano tra loro le pagine prodotto con le micro categorie, e queste con le

categorie o viceversa. Per non generare confusione nell’utente e compromettere il lavoro di indicizzazione, evitate dei collegamenti fuori schema con link a categorie non pertinenti al prodotto. Schema del silo in dettaglio Nella Search Console di Google, andando in Traffico di ricerca > Link interni, si controlla lo stato reale della linking interna del sito analizzato e si vede quali sono le pagine più linkate. In ordine, teoricamente, dovremmo trovare: • home; • categorie; • sottocategorie. Proprio come riportato nella Figura 5.25.

Figura 5.25 - Search Console Architettura.

Nel caso in cui i numeri siano troppo sproporzionati, rivediamo e miglioriamo la struttura di link. Contenuti duplicati La Search Console di Google è uno strumento interessante, ci dà tante informazioni, come visto prima, e in particolare ci allerta in caso di contenuti duplicati. Un e-commerce può cadere vittima dei contenuti duplicati: senza entrare nel merito dell’originalità dei testi del sito, la duplicazione in genere dipende dalla paginazione e/o dai filtri di ricerca. Ad esempio in PrestaShop, quando entriamo in una categoria, ci ritroviamo sulla destra un ordine per: età, prezzo, colore, ecc. (vedi Figura 5.26).

Figura 5.26 - Ordinamenti E-commerce.

Nel momento in cui l’utente sceglie l’ordine, cambierà l’URL di riferimento: /4-abbigliamento-bambina?orderby=name&orderway=desc /4-abbigliamento-bambina?orderby=name&orderway=asc Queste due URL, e tutte quelle delle varianti della categoria, in realtà hanno gli stessi contenuti. Per Google queste pagine sono duplicate. In PrestaShop questo problema si può risolvere installando un modulo per il “tag canonical” (lo trovate in Addons-PrestaShop e costa 29,90 €): http://addons.prestashop.com/it/url-redirect/4501-canonical-url-pro.html Con questo modulo, in un e-shop PrestaShop, comunichiamo a Google qual è l’URL canonical, l’URL principale a cui tutte le appendici fanno riferimento, eludendo il pericolo di contenuti duplicati. Sul piano tecnico, l’installazione del modulo non è complessa e prevede una piccola modifica in HTML, che viene spiegata bene, appena si installa il modulo.

Friendly URL A Google sono gradite le cose semplici, chiare, pulite e leggibili. Quanto sono noiosi quegli URL, infiniti con tanti numeri e lettere? Disorientano Google per l’indicizzazione della pagina e l’utente che si sente perso. Con PrestaShop possiamo creare degli URL friendly, brevi, con il nome della categoria, così Google e l’utente sono sempre informati del luogo in cui si trovano.

Come si imposta l’URL friendly? Dal pannello diBackend andiamo in Preferenze > SEO & URL e impostiamo il Friendly URL; a questo punto il nostro URL si presenterà così: nomesito/12-categoria. Un URL breve, semplice, efficace, ma purtroppo non perfetto, perché compare di default un numerino, nel nostro caso 12: è una gerarchia interna di PrestaShop, che non serve all’utente e nemmeno a Google. Come possiamo ovviare a questo? PrestaShop risponde a questa mancanza con un modulo, “Advanced URL”, con il quale possiamo eliminare questo numero: anche questo modulo si trova in Addons-Prestashop: http://addons.prestashop.com/it/url-redirect/16928-advanced-url.html Un piccolo consiglio, che dal punto di vista SEO non sarà determinante per scalare la SERP, ma può essere utile, mentre sul piano dell’usabilità ci ritroviamo un URL più corto e pulito che non guasta mai. Abbiamo analizzato e individuato una serie di aspetti importanti per un’ottimizzazione SEO di un e-shop in PrestaShop: l’architettura, la linking interna, il canonical, gli URL friendly, tutti il più delle volte trascurati, ma che vanno presi in esame per un lavoro corretto e preciso, finalizzato a realizzare un e-shop, gradito al motore di ricerca e all’utente/cliente, che vogliamo raggiunge nel vasto mondo del web.

SEO e Magento Magento è uno dei più famosi CMS dedicati agli e-commerce e realizzato in php. Dal 2008, anno della sua nascita, la piattaforma realizzata da Varien sta riscuotendo un successo dopo l’altro, vincendo numerosi e prestigiosi concorsi di rilevanza internazionale. Sempre più negozi online stanno scegliendo Magento per sviluppare i propri siti e in molti casi si sta rivelando una scelta vincente. Famosi brand quali Nike, Olympus, Volcom, Nicol Miller, e tanti altri ancora, hanno deciso di affidarsi a Magento ormai da anni. Seguire il loro esempio e decidere di aprire il proprio e-commerce su questa piattaforma è sicuramente un primo e decisivo passo per dare uno slancio al proprio business online, ma non è sufficiente. Come sappiamo tutti, l’ottimizzazione SEO è una parte fondamentale di ogni sito Internet. Permette, infatti, alla nostra pagina web di comparire tra i primi risultati delle query su Google o su altri motori di ricerca come Bing e Yahoo!. Raggiungere i primi posti delle SERP Google offre vantaggi importantissimi e una visibilità capace di sbaragliare la concorrenza sul web. Per questo l’attività SEO è una vera e propria lotta all’ultimo sangue, e per ottenere i risultati sperati dobbiamo dotarci delle giuste “armi”.

Estensioni SEO Magento Magento è di default uno degli engine più SEO-friendly che si possa trovare. Molte funzioni base

per l’ottimizzazione SEO sono già presenti e possono essere utilizzate semplicemente tramite la dashboard del nostro sito. Permette, infatti, di modificare gli URL, di gestire i Meta Data, di aggiungere Page Title, Meta Decription e Slug, di modificare l’Header, ecc. Queste possibilità, se sfruttate e gestite nel modo corretto, ci garantiscono già un buon livello di ottimizzazione SEO. In breve tempo vedremo il nostro sito e-commerce scalare una posizione dopo l’altra dando una spinta notevole al nostro business. A volte, però, capita che non riusciamo a raggiungere i risultati sperati nonostante l’ottimo utilizzo dei tool di default. In questo caso c’è una sola cosa da fare: affidarsi a estensioni SEO Magento esterne che garantiscono risultati eccezionali semplificando, allo stesso tempo, il lavoro necessario. Oggigiorno esiste un’infinità di provider e di aziende che sviluppano estensioni con finalità SEO. Molte di queste hanno caratteristiche simili ed è quindi complicato capire quale sia il tool che fa per noi.

Figura 5.27 - Esempio del plugin CreareSEO in Magento.

Esistono sia estensioni gratuite, sia a pagamento. Bisogna però ricordare che un prodotto a pagamento non è sempre un prodotto migliore. Esistono, infatti, estensioni gratuite molto utili e che spesso sono addirittura migliori di molte altre più o meno costose. Un esempio è sicuramente Free Magento SEO Extension, l’estensione gratuita e sviluppata dal team Creare. Questo prodotto offre una serie di nuovi e fondamentali strumenti capaci di

combattere alcuni problemi in cui ci si può imbattere durante l’attività SEO: come duplicati di contenuti o pagine 404. Anche per la sua semplicità di utilizzo e gestione, Free Magento SEO Extension è una delle estensioni più scaricate e apprezzate dall’online community fedele a Magento.

Advanced SEO Suite Nonostante si trovino ottimi strumenti anche gratuitamente, non è sbagliato considerare la possibilità di investire del denaro in un potente tool SEO. Una maggiore visibilità, unita a prodotti di qualità, garantisce ritorni che giustificano gli investimenti iniziali, e la giusta estensione è in grado di trasformare il nostro sito in una fabbrica di soldi. Dopo aver provato tante estensioni, finalmente possiamo dire di averne trovata una che ci soddisfa sotto molti punti di vista. Il “must-have” per ogni e-commerce che vuole puntare sulla SEO è l’estensione a pagamento Advanced SEO Suite, sviluppata dall’azienda Mirasvit. Permette di ottimizzare le categorie di prodotti venduti per specifiche ricerche di termini all’interno del template. In questo modo permette al negozio online di schizzare e guadagnare posti in tutti i maggiori motori di ricerca (Google, Bing, Yahoo!, ecc). Nello specifico Advanced SEO Suite permette: • l’ottimizzazione per le keywords; • l’ottimizzazione degli URL; • l’utilizzo di link canonici; • l’utilizzo della sitemap frontale semplice e comoda da usare; • l’ottimizzazione della Google sitemap; • l’utilizzo di altri strumenti quali il Robots.txt Editor, il Google Rich Snippets, e la produzione automatica di crosslink interni e di ALT per le immagini dei prodotti. Insomma, stiamo parlando di un modulo per la SEO a 360°, considerato tra i migliori sul mercato e che vanta feedback e review positive e affidabili. Mirasvit ha pensato proprio a tutto, dando strumenti automatici e facili da usare a chiunque voglia avere successo con il proprio business online. La configurazione dell’Advanced SEO Suite è veloce. Basta seguire le indicazioni fornite al momento dell’acquisto, o sul sito dell’azienda, per iniziare immediatamente a ottimizzare la SEO del nostro negozio online e ottenere i risultati che ci eravamo prefissati.

Figura 5.28 - Esempio del plugin Advanced SEO Suite in Magento.

Nel prezzo del prodotto sono compresi anche l’installazione e il servizio d’assistenza, sempre molto efficace e puntuale. Anche questo è un valore aggiunto da non sottovalutare e che può fare la differenza nel momento di scegliere un’estensione piuttosto che un’altra.

NOTA Abbiamo analizzato i CMS più usati, ovviamente ne esistono molti altri che non abbiamo preso in considerazione. Ad esempio Drupal a oggi ha moltissimi plug-in presenti in WordPress e le configurazioni sono molto simili. Ogni volta che ottimizziamo un CMS open source i nostri consigli sono: • metterlo in sicurezza da eventuali “attacchi”; • controllare la generazione di URL e l’alberatura; • verificare la presenza di pagine prive di contenuti o duplicati; • verificare che il plugin SEO installato assolva appieno ai suoi compiti.

Si ringraziano Ivan Cutolo e Davide Prevosto per i preziosi suggerimenti sulla parte di personalizzazione dei CMS.

Conclusioni e punti salienti del capitolo In questo capitolo abbiamo analizzato temi molto importanti, come l’organizzazione dei contenuti e il disegno architetturale di un sito web. Questi aspetti sono molto importanti non solo a livello SEO, ma anche a livello di marketing generale. Cosa ricordarsi? • È opportuno far raggiungere le risorse desiderate agli utenti nel minor numero di clic possibile. • È altresì importante e cruciale organizzare i contenuti in modo organico evitando duplicazioni o malfunzionamenti del sito stesso. • Infine, abbiamo analizzato brevemente 4 dei CMS più usati nella realizzazione di siti web e ci siamo soffermati su alcuni aspetti SEO basilari nelle loro configurazioni.

“La creatività è senza dubbio la risorsa umana più importante. Senza creatività non ci sarebbe progresso e ripeteremmo sempre gli stessi schemi.” (Edward De Bono)

Capitolo 6 Performance e ottimizzazioni di un web project SEO Velocizzare il caricamento delle pagine web La velocità dei siti web risulta essere un nuovo fattore SEO per l’ottimizzazione interna. A sostegno di questa tesi, troviamo un’interessante dichiarazione di Matt Cutts, il quale ha affermato che, con l’introduzione del nuovo algoritmo di Caffeine, la velocità di caricamento delle pagine di un sito web diventerà un fattore da tenere in considerazione per il buon posizionamento. Nonostante ciò, la qualità e la frequenza di aggiornamento dei contenuti saranno ancora gli aspetti fondamentali per stabilire il valore di un sito web. Dobbiamo inoltre ricordare che i fattori utilizzati per determinare il posizionamento sono più di 200 e molti di questi non sono noti.

NOTA All’indirizzo http://tinyurl.com/velocita-pagina potete trovare il video completo dell’intervista a Matt Cutts. Google suggerisce di ottimizzare i tempi di caricamento delle pagine, in quanto “i siti veloci aumentano la soddisfazione degli utenti e migliorano la qualità generale del web”. Inoltre consiglia di testare le prestazioni di un sito web utilizzando PageSpeed Insights e Webpagetest.org.

Inoltre, la velocità di caricamento di un sito web va a costituire la user experience dell’utente: più la pagina sarà lenta, più probabilità avremo che l’utente chiuda il browser o abbandoni il sito. Per tale motivo, dobbiamo prestare attenzione e cercare di creare pagine leggere ma allo stesso tempo accattivanti e dal layout curato. Nei prossimi paragrafi cercheremo di illustrare le principali tecniche per misurare le prestazioni del nostro sito web e per agire nel caso sorga la necessità di velocizzare i tempi di risposta di alcune pagine web.

NOTA Dal 2010 a oggi Matt Cutts e John Mueller hanno rilasciato dichiarazione su come i siti "lenti" possono avere una perdita di visibilità in SERP. A oggi non è quindi sicuro se i siti “veloci” siano realmente premiati da Google. Ovviamente da parte nostra crediamo sia fondamentale avere un sito che risponda in modo “rapido” soprattutto dopo l’introduzione di AMP e le Progressive Web App per il mobile.

Misurare la disponibilità e la velocità dell’hosting Nel Capitolo 3 è stato affrontato ampiamente il tema della scelta di un Hosting Web. Infatti, è importante avere un piano di hosting commisurato alle performance che vogliamo ottenere e al carico del nostro sito web. Esistono strumenti in grado di tenere sotto controllo la disponibilità di un server web, in modo da poter essere avvisati nel caso vi siano problemi. Si tratta di un aspetto cruciale, specialmente se si ha un’attività online in cui il business dipende dalla possibilità, per i visitatori, di accedere ai contenuti 24 ore su 24. Supponiamo, per esempio, che i server di eBay si guastino o vadano offline per alcuni minuti: ciò comporterebbe un danno di milioni di euro. Possiamo quindi capire l’importanza di misurare la disponibilità del nostro hosting per essere sempre a conoscenza di eventuali malfunzionamenti. Tra i vari servizi gratuiti offerti da questo servizio, possiamo menzionare i seguenti: • HostTracker: è uno strumento che consente di monitorare un server web (http://hosttracker.com/); • Mon.itor.us: è un tool gratuito che permette di monitorare un server web in tempo reale (http://mon.itor.us/). Tali servizi aiuteranno a monitorare il nostro sito in modo da prevenire eventuali lackout.

NOTA Un server web che supporta l’ultima versione del protocollo HTTP2 permetterà ai siti gestiti di sfruttare le potenzialità del nuovo protocollo e quindi erogare risorse in modo “più rapido e veloce”; qui potete trovare una guida introduttiva: https://github.com/http2/http2-spec/wiki/Implementations

Misurare le prestazioni del sito web Per sapere se il nostro sito web risponde correttamente alle richieste, dobbiamo adottare strumenti in grado di misurare le prestazioni. Il primo passo da seguire potrebbe consistere nell’utilizzo di server proxy, in modo tale da verificare il livello di accessibilità del sito web da

diverse località geografiche. Per esempio, se utilizziamo un server proxy che si trova a Londra, possiamo scoprire i tempi di risposta e il modo in cui viene visualizzato il nostro sito come se fossimo realmente in Inghilterra. Tra i vari servizi di proxy, possiamo citare: btunnel.com, web4proxy.com e http://nntime.com/proxy-country. Mettiamo ora in atto quanto detto precedentemente: dalla lista scegliamo un proxy che si trova in Inghilterra e impostiamolo all’interno del nostro browser web. Per esempio, in Internet Explorer dobbiamo andare in Strumenti > Opzioni Internet > Connessioni > Impostazioni Lan e inserire l’indirizzo IP e la porta del nostro proxy, come mostra la Figura 6.1.

Figura 6.1 - Impostazione del proxy.

A questo punto, possiamo navigare tra le pagine del nostro sito web e vedere come sono i tempi di risposta: testeremo, così, come un utente inglese visualizzerebbe il nostro sito web e come esso risponde alle varie richieste. Esistono diversi servizi che permettono di monitorare le prestazioni delle nostre pagine web: a tale proposito, Google mette a disposizione tutta una serie di strumenti, disponibili al seguente link: http://code.google.com/speed/. Tra i tool a disposizione, possiamo utilizzare Google Analyst e gli strumenti per webmaster, che consentono di monitorare la velocità media di caricamento delle nostre pagine web, come mostra la Figura 6.2.

Figura 6.2 - Esempio di controllo della compatibilità mobile da parte del tool di Google.

NOTA Un aspetto da tenere presente è il fatto che sia Google Analytics, sia Google Search Console sono strumenti JavaScript-based. Questi tool registreranno solamente le visite alle pagine provenienti da browser in cui sono stati abilitati JavaScript e i cookie. Per avere, invece, un quadro generale del traffico dal nostro sito web, dobbiamo utilizzare un analizzatore di file di log, come AWStats.

A oggi vi sono diversi strumenti per fare le verifiche della velocità di caricamento delle nostre pagine web, per esempio Page Speed (http://code.google.com/speed/page-speed/), rilasciato da Google, e YSlow (http://developer.yahoo.com/yslow/), rilasciato da Yahoo!. Entrambi sono extension di Firefox e richiedono Firebug (http://getfirebug.com/). Una volta installati questi tool, possiamo vedere il tempo di caricamento delle pagine e scoprire quanto “spazio” occupa ogni singola pagina.

NOTA Vogliamo segnalarvi un tool molto interessante: GTMetrix (http://gtmetrix.com), che ci consente di monitorare la velocità del nostro sito web sia attraverso Page Speed sia con YSlow.

Figura 6.3 - Esempio di utilizzo dei tool per verificare le prestazioni di un sito web.

NOTA Ai fini della velocità del sito sono importanti sia i tempi di risposta del server web, sia gli elementi stessi della pagina; per tale motivo, dovranno essere ottimizzati tutti i componenti che la costituiscono, come immagini, CSS, JavaScript, Flash ecc.

Alleggerire le pagine web Ora che abbiamo capito l’importanza che ha il tempo di caricamento di una pagina web sia per l’utente, sia per i motori di ricerca, mostreremo alcune tecniche di base per cercare di ottimizzare le nostre pagine web. Attraverso un altro interessante tool come pingdom (tools.pingdom.com), analizziamo le nostre pagine web per cercare di capire gli elementi che le costituiscono e in quali termini essi contribuiscono al tempo di caricamento. Fatto ciò, siamo pronti per iniziare ad apportare alcune modifiche per alleggerire le pagine web.

Figura 6.4 - Utilizzo del tool pingdom per verificare gli elementi che contribuiscono in modo negativo al caricamento di una determinata pagina web.

Cerchiamo, in primo luogo, di utilizzare i CSS per definire il layout delle nostre pagine web e inseriamoli in file esterni alla pagina web:

NOTA È opportuno verificare sempre che le risorse "splittate" siano visibili ai bot dei motori di ricerca (spesso si rischia che esse siano bloccate dal file robots, è opportuno controllare sempre il contenuto con la search console di Google alla voce: “visualizza come Google”).

In questo modo, la velocità di caricamento della pagina migliorerà, poiché, per gli accessi successivi al primo, la quantità di byte da scaricare sarà inferiore, dato che il file di stile verrà memorizzato nella cache del browser. Inoltre, come abbiamo avuto modo di vedere in precedenza, l’utilizzo dei CSS ci consente di ottenere un codice snello e pulito.

NOTA È possibile ottimizzare i CSS attraverso piccoli accorgimenti, per esempio combinando più regole: Invece di avere: • h1 { color: black; } • p { color: black; } usiamo un’unica regola: • h1, p { color: black; } Inoltre è possibile utilizzare il metodo CSS sprite, che permette di mostrare più immagini ai visitatori della nostra pagina web facendone caricare solo una, velocizzando in questo modo i tempi di caricamento della nostra pagina.

Esistono svariati tool che permettono di ottimizzare e comprimere i nostri file CSS, tra cui: • CSS Optimizer: è un semplice tool online che processa il CSS e ne crea una versione compressa (http://www.cssoptimiser.com); • Clean CSS: è possibile impostare il livello di compressione desiderato e personalizzare le diverse opzioni di compressione (http://www.cleancss.com); • CSS Compressor: consente di definire diverse opzioni di compressione (http://iceyboard.no-ip.org/projects/css_compressor). Se nelle nostre pagine è presente del codice JavaScript, esso dovrebbe essere sempre inserito in un file esterno, soprattutto nei casi in cui lo stesso codice è utilizzato in più pagine (vale il medesimo discorso fatto per i CSS):

NOTA Vedremo in seguito come sia possibile comprimere anche i file JavaScript.

Elementi da evitare sono le tabelle nidificate, perché quanto più la nidificazione sarà articolata, tanto più il browser impiegherà tempo nella renderizzazione della pagina. Ciò comprometterà il tempo di caricamento e la velocità della nostra pagina. Un altro elemento di cui sconsigliamo l’utilizzo è rappresentato dai frame. Il problema sta nel fatto che i motori non riescono a indicizzare correttamente i siti con i frame. Questo perché ogni frame è una pagina a parte, quindi richiede maggior tempo nel caricamento e l’uso del frame set (il raccoglitore dei vari frame) ne complica ulteriormente l’architettura e la complessità. Per questo motivo suggeriamo di non usare tali elementi, ma di sostituirli con template adattabili al linguaggio di programmazione utilizzato.

Infine, l’ultimo consiglio che ci sentiamo di fornire, oltre a quello di ottimizzare tutti gli elementi che compongono una pagina (immagini, pdf, JavaScript), è di rimuovere eventuali spazi bianchi o tag HTML non strettamente necessari per il nostro sito web. Strumenti come Dreamweaver ci aiutano in questo compito.

NOTA Pagine troppo ricche di testo o di immagini possono risultare lente da caricare, e intimorire, così, i visitatori. È quindi consigliato suddividere i contenuti corposi su più pagine.

È sempre consigliabile sfruttare i percorsi relativi piuttosto che quelli assoluti, in modo da non costringere il server a ristabilire nuove connessioni. Inoltre, è sempre preferibile utilizzare file presenti sui propri server invece di sfruttare immagini presenti su altri siti web (di cui non avremo il controllo). Per esempio, invece di utilizzare l’URL relativo:

sfruttiamo il percorso relativo:

Un altro metodo per migliorare la velocità di caricamento delle nostre pagine web è l’utilizzo della cache (HTTP caching), che permette un caricamento rapido delle pagine per le visite successive alla prima. Ogni linguaggio di programmazione lato web offre strutture atte a sfruttare la cache del browser: • per Asp.net si veda: http://tinyurl.com/cache-microsoft; • per PHP si veda: http://tinyurl.com/cache-apache.

NOTA Tra le altre tecniche che possiamo utilizzare per migliorare la velocità delle nostre pagine web troviamo Gzip, che consente di ridurre il peso di JavaScript e CSS. Esiste, inoltre, un modulo per Apache creato da Google per caricare velocemente le pagine web: http://googlewebmastercentral.blogspot.com/2010/11/make-your-websites-run-faster.html

Ottimizzazione delle immagini per la SEO Le immagini all’interno di un sito web hanno una notevole importanza, perché vanno a costituire

quello che sarà il layout grafico. L’utente può essere attratto da elementi visivi: una grafica curata e ben fatta ci consentirà di migliorare l’esperienza utente dei nostri visitatori. Le immagini per la SEO costituiscono un elemento spesso non ben visto: cercheremo di mostrarvi alcuni piccoli trucchi per ottimizzarle. Iniziamo a prendere in considerazione i tag HTML, che servono al browser per visualizzare l’immagine:

Il nome dell’immagine, come abbiamo visto, deve essere breve e contenere una o due parole chiave che richiamino l’argomento espresso dall’immagine stessa. Questo perché alcuni utenti potrebbero giungere al nostro sito attraverso la ricerca effettuata su immagini, per esempio Google Image. Avere un nome che esprima il contenuto di un’immagine o di una foto agevola sia gli utenti, sia i motori di ricerca. L’attributo alt deve essere presente e deve rispecchiare anch’esso il contenuto dell’immagine. Nel caso, per qualsiasi motivo, l’immagine non venisse caricata, il testo contenuto nell’attributo alt permetterebbe all’utente di capire dove si trova e cosa potrebbe incontrare proseguendo nella navigazione. I tag width e height devono essere sempre presenti, perché permettono al browser di visualizzare l’immagine senza doverne calcolare gli attributi di altezza e larghezza. Inoltre, la presenza di questi due attributi permette al browser di caricare la pagina senza aspettare di aver effettuato il download delle immagini presenti in essa. Una piccola accortezza che ci permetterà di guadagnare secondi preziosi e di fornire i contenuti nel minor tempo possibile.

Questi espedienti consentono di ottenere sottili miglioramenti, apprezzabili anche in ambito SEO. Non dobbiamo dimenticarci che anche il testo che si trova nelle vicinanze delle immagini risulta essere un elemento molto importante. Infatti, se ben strutturato, con informazioni correlate a quelle dell’attributo alt, rende ancora più appetibile l’immagine per i motori di ricerca. La scelta del formato delle immagini (gif, jpg o png) è un altro aspetto cruciale che ci consentirà di risparmiare qualche KB. • Gif permette di ottenere prestazioni migliori per immagini con una mappa di colori ristretta (fino a un massimo di 256 colori). Questo formato supporta la trasparenza e piccole animazioni. È tipicamente consigliato per elementi grafici come bottoni, icone o layout grafici. • Jpeg è più indicato per immagini fotografiche e, grazie al suo metodo di compressione (con perdita dell’informazione), ci permette di ottenere risultati soddisfacenti. Questo formato non supporta la trasparenza. • Png attua una compressione dell’immagine senza perdita di informazioni e supporta la trasparenza e la semitrasparenza. L’unico difetto riscontrabile è che a oggi non tutti i browser supportano la trasparenza delle png.

La scelta di un formato adeguato per le nostre immagini consentirà di ottenere immagini con qualità superiore, ma di dimensioni ridotte, e un risparmio in byte utile per ottimizzare il caricamento di una pagina web. Un modo per ottimizzare le immagini è quello di ridurne le dimensioni; in che modo? Esistono diversi strumenti che ci agevolano in questo compito: • http://www.imageoptimizer.net/Pages/Home.aspx: è un tool online che consente di ridurre le dimensioni di immagini con estensioni gif, png e jpg; • http://www.imgopt.com/: è un servizio offerto da Yahoo! per la compressione delle immagini; • http://www.prelovac.com/vladimir/wordpress-plugins/seo-friendly-images: è un tool per ottimizzare le immagini.

NOTA Ricordiamoci che se nel nostro sito inseriamo un’immagine con tag height e width di 50 px, ma in realtà l’immagine ha una larghezza e un’altezza di 500 px, essa impiegherà più tempo a caricarsi. Per tale motivo, se vogliamo inserire immagini di preview con dimensioni ridotte, utilizziamo programmi appositi per ridurne le dimensioni.

È bene tenere presente che, se utilizziamo linguaggi di programmazione dinamici, è possibile sfruttare librerie proprietarie (per esempio, http://aspnet.codeplex.com/releases/view/50140) per comprimere le immagini e adattarle al nostro layout grafico. Inoltre, in alcuni casi, utilizzando i CSS, possiamo ottenere i medesimi risultati ottenuti con le immagini, ma utilizzando meno byte, quindi rendendo più performanti le nostre pagine web. Infine, prendiamo in considerazione il termine coniato per specificare le immagini che vengono utilizzate su domini diversi, causando un forte sfruttamento in termini di banda e risorse. Alcune persone potrebbero utilizzare le nostre immagini nei loro blog o nel sito web, prelevandole direttamente dal nostro sito web, sovraccaricandolo. Alcuni webmaster cercano quindi di bloccare le immagini, se visualizzate da domini diversi dall’host di destinazione. Questo consente di migliorare il carico sul server e di impedire che le nostre immagini vengano utilizzate su altri siti web. Di contro, però, bloccando l’hot-linking, impediamo che motori di ricerca di immagini sfruttino le foto, privando il nostro sito web di una possibile fonte di visite. Il nostro consiglio è quello di monitorare l’utilizzo delle immagini attraverso strumenti di statistica, ma di non impedire completamente la tecnica dell’hotlinking, perché ci priveremmo di visite provenienti da canali trasversali. Abbiamo quindi analizzato le principali tecniche che ci permettono di ottimizzare le immagini del sito web per la SEO; nei successivi paragrafi prenderemo in considerazione l’ottimizzazione di altri elementi multimediali (quali filmati video, HTML 5) per migliorare la user experience sia degli utenti, sia dei motori di ricerca.

NOTA Potrete trovare alcuni spunti interessanti per la gestione dell’hot-linking a questo link: http://www.mauriziopetrone.com/blog/hotlink-no-backlink Ricordiamo che nel corso degli anni sono nati nuovi formati di immagini ormai compatibili con i browser web più diffusi. Questi formati sono l’apng (png animate) e le WebP (il 40% più leggere delle normali jpg) o le jpg 2000. Perché non iniziamo a sfruttarle?

Flash e SEO: un tecnologia superata e deprecata L’utilizzo di Adobe Flash permetteva di dare un tocco di vivacità e movimento al design dell’intero sito web. Sempre più le aziende e i clienti richiedono siti animati, interattivi e multimediali anche se oggi Flash è una tecnologia obsoleta e decisamente superata. Indubbiamente questa tecnologia migliora la user experience dell’utente, ma non è la strada ottimale per una corretta indicizzazione dei contenuti web.

NOTA SWF è il formato compilato che viene letto dai Flash Player disponibili per i vari browser web. È possibile implementare applicazioni Flash che si integrano con l’XML.

In questo contesto troviamo, come accade in molti campi, due correnti di pensiero opposte: • gli esperti SEO, che non amano l’utilizzo di Flash(tecnologia superata); • i designer e i web designer, che affermano che l’utilizzo di Flash era indispensabile per fornire un’esperienza utente e un’interattività migliori (oggi è possibile sfruttare HTML 5 e Ajax per ottenere i medesimi risultati). Di fronte a questo dilemma, possiamo porci nel mezzo e cercare di identificare, delle due diverse correnti di pensiero, gli aspetti principali: • i siti RIA, da una recente analisi, sono risultati più apprezzati dai visitatori che tendenzialmente spendono su di essi più tempo; • alcune animazioni possono essere fatte con altri strumenti come JavaScript o Ajax; • i contenuti devono essere facilmente stampabili o consultabili dall’utente; • le pagine HTML sono “più leggere” di quelle che contengono animazioni; • dobbiamo ricordarci che il sito web deve essere fatto per il motore di ricerca, ma soprattutto per i visitatori, i quali hanno emozioni e sensazioni che possono scaturire da una combinazione appropriata di stili e animazioni; ciò potrebbe indurli a tornare a visitarlo; • la navigazione di siti interamente in Flash è difficoltosa e, anche se ben strutturata, risulta

non molto apprezzata dai navigatori web; in genere un utente non è disposto ad aspettare più di dieci secondi per il caricamento di un contenuto web.

In base a queste considerazioni, possiamo pensare di utilizzare Flash in modo appropriato e apprendere cosa può essere correttamente indicizzato. In passato, i motori di ricerca non riuscivano a interpretare correttamente i contenuti presenti all’interno dei file SWF. Oggi, grazie alla collaborazione tra le società che gestiscono i principali motori di ricerca e Adobe, è possibile indicizzare correttamente anche i contenuti di tipo Flash.

NOTA Il 30 giugno 2008 Google ha annunciato, attraverso il suo blog, la possibilità di indicizzare correttamente i contenuti Flash (http://googlewebmastercentral.blogspot.com/2008/06/improved-flash-indexing.html).

“Stiamo lavorando inizialmente con Google e Yahoo! per migliorare in modo significativo la ricerca dei contenuti RIA presenti sul web e abbiamo intenzione di ampliare la disponibilità di questa funzionalità a beneficio di tutti gli editori di contenuti, sviluppatori e utenti finali”. Questo è quanto ha affermato David Wadhwani, General Manager e Vice Presidente della Platform Business Unit di Adobe. “Google sta lavorando duramente per migliorare la lettura e l’interpretazione dei file SWF. Attraverso la nostra recente collaborazione con Adobe, siamo in grado di aiutare i proprietari dei siti web nel progettare soluzioni in Flash in grado di essere indicizzate. Migliorare il modo con cui eseguire la scansione dei contenuti dinamici, migliorare l’esperienza di ricerca per i nostri utenti” ha affermato Bill Coughran, Vice Presidente della sezione Engineering di Google. Il problema fondamentale dei contenuti Flash è che essi non aderiscono al paradigma della singola pagina per informazione, quindi è possibile che particolari stati o frame non abbiano necessariamente un URL univoco. Senza un URL univoco, i motori di ricerca che desiderano avere un collegamento al contenuto specifico del filmato Flash si troveranno di fronte a questo problema. Lo stesso discorso, anche se con caratteristiche leggermente differenti, si verifica con le pagine “Ajax-based”. Una tecnica chiamata deep linking consente agli sviluppatori Flash di fornire URL specifici per determinati stadi dell’applicazione. Tale tecnica non è del tutto perfetta, ma è in grado di offrire agli utenti un collegamento a un particolare contenuto del file SWF. Nell’implementazione di applicativi Flash è quindi possibile limitare il problema utilizzando in modo appropriato questi stratagemmi.

NOTA Il seguente link mostra esempi di utilizzo della tecnica deep linking per Flash: http://flash.html.it/articoli/leggi/3050/swfaddress-deep-linking-e-tasto-indietro

Sotto, riportiamo un esempio di codice HTML validato W3C per incorporare filmati Flash:

NOTA Al posto del messaggio di errore “Fail…” è consigliabile inserire una descrizione, in modo tale da fornire agli utenti e ai motori di ricerca informazioni aggiuntive (metodo SWFObject).

Buone pratiche per lo sviluppo di Flash SEO (Flash non si usa più!) Esistono diversi espedienti per cercare di indicizzare al meglio anche le pagine web sviluppate utilizzando la tecnologia Flash; vediamole: • utilizzare file XML o file di testo esterni all’applicazione Flash potrebbe migliorarne la leggibilità e l’indicizzazione; infatti, il formato XML offre ai motori di ricerca una struttura semantica molto adatta all’indicizzazione dei contenuti. Separando il layer di contenuto dal layer applicativo, si otterrà una migliore manutenzione dell’applicativo Flash e un migliore risultato in termini di indicizzazione; • creare URL unici per le pagine web Flash aiuterà i motori nella navigazione dei contenuti Flash. Per creare tali link univoci, si consiglia di impiegare tecniche come SWFAddress, SWFObject o UrlKit (http://code.google.com/p/urlkit/). Un’altra soluzione è quella di associare una nuova pagina HTML per ogni contenuto che si vuole rendere più SEO friendly, come mostrato nella Figura 6.5;

Figura 6.5 - Esempio di utilizzo di pagine HTML per inglobare contenuti Flash.

utilizzare il tag NOSCRIPT HTML potrebbe essere una buona soluzione per veicolare i motori di ricerca verso i contenuti presenti nelle pagine che utilizzano Flash. Questo tag è molto utile, perché, nel caso di un sito sviluppato interamente in Flash, ci permette di dare in pasto ai motori di ricerca testo e descrizioni fondamentali per una corretta indicizzazione. L’utilizzo è molto semplice: si posiziona il tag subito dopo il codice che incorpora il filmato Flash nelle nostre pagine.

Figura 6.6 - Esempio di utilizzo del tag NOSCRIPT per migliorare l’indicizzazione di pagine Flash.

All’interno di questo tag è possibile inserire testo e descrizioni che serviranno ai motori di ricerca per capire il contenuto trattato nella pagina. Da alcuni test effettuati è stato possibile constatare come i motori di ricerca indicizzino correttamente tali contenuti, come mostra la Figura 6.7;

Figura 6.7 - Sito web in Flash che utilizza il tag NOSCRIPT e la sua corretta interpretazione da parte dei search engine.

sfruttare framework dedicati all’ottimizzazione dei contenuti Flash, come GAIA o turtlebite.

Abbiamo visto alcune tra le metodologie a disposizione degli esperti SEO per migliorare l’indicizzazione di contenuti Flash. Cercheremo ora di analizzare più nel dettaglio le due principali tecniche che vengono utilizzate per rendere indicizzabili i contenuti Flash: • SWFObject; • SWFAddress.

Figura 6.8 - FEB Flash Website Framework.

SWFObject consente di interrogare il browser web per capire se è in grado di riprodurre il filmato Flash; in caso contrario, viene visualizzato un contenuto HTML alternativo. Questa tecnica offre quindi la possibilità non solo di fornire contenuti agli spider, ma anche di sfruttare un eventule layout diverso nel caso il browser non supporti i filmati Flash. Applicare SWFObject può apportare alcune migliorie, in quanto gli spider, navigando sulle nostre pagine web, troverebbero contenuti indicizzabili, quindi è plausibile ipotizzare un buon rendimento lato SEO. Per quanto concerne le note negative di questa tecnica, troviamo una scarsa possibilità di fornire

contenuti identici al filmato Flash in caso di mancata riproduzione. È bene prestare attenzione al contenuto alternativo, onde evitare penalizzazioni da parte dei motori di ricerca. Di seguito mostreremo due esempi che utilizzano la tecnica appena illustrata: Esempio 1:

Esempio 2:

NOTA Ai seguenti link troverete numerosi esempi di applicazioni per questo SWFObject: • http://www.alistapart.com/articles/flashembedcagematch/ • http://www.hochmanconsultants.com/articles/seo-friendly-flash.shtml

L’SWFObject offre quindi un modo diverso per includere contenuti HTML; ciò deriva dalla Web Accessibility Initiative, la quale afferma che i contenuti multimediali dovrebbero avere un modo alternativo di accesso alle informazioni presenti in essi. SWF Address non è altro che una libreria (JavaScript/Actionscript) che si occupa di collegare fra di loro sezioni interne di un filmato Flash. SWF Address ci consente di: • aggiungere il sito web Flash ai preferiti del browser; • inviare link via e-mail; • ricercare contenuti specifici; • utilizzare i bottoni di navigazione del browser; • effettuare deep linking tra contenuti interni. In poche parole, SWFAddress permette di creare deep link, cioè di associare un URL a una sezione del nostro sito in Flash e di navigarlo anche con i bottoni avanti/indietro/refresh del browser. Per esempio, supponiamo di avere un sito in Flash con tre sezioni: HOME, PRODOTTI e CONTATTI. SWFAddress offre la possibilità di accedere alla sezione PRODOTTI con un URL di questo tipo: miosito.com/#/PRODOTTI/

SWFAddress consente di migliorare la navigabilità dei nostri contenuti Flash e di fornire URL diversi da dare in pasto ai motori di ricerca. In ambito SEO, per ottenere i migliori risultati, tale tecnica dovrebbe essere utilizzata in concomitanza con SWFObject, in modo tale da fornire URL distinti e contenuto indicizzabile dai motori. Da non sottovalutare lo sforzo di progettazione e implementazione necessario per applicarla e la scarsa possibilità di avere una buona link popularity, poiché i link verso contenuti interni hanno il valore “#” come suffisso.

NOTA Ai seguenti link potete trovare esempi di applicazione di tale tecnica: • http://www.roytanck.com/2007/02/14/making-flash-websites-search-engine-friendly/ • http://flash.html.it/articoli/leggi/3050/swfaddress-deep-linking-e-tasto-indietro/ Infine segnaliamo un’altra tecnica chiamata Scalable Inman Flash Replacement (sIFR) introdotta nel lontano 2006: un modo per incorporare in pagine web un qualsiasi font grazie a Flash e JavaScript.

Figura 6.9 - Il sito Nike Lab utilizza la tecnica SWFAddress.

Ottimizzazione dei PDF Il formato PDF (Portable Document Format) è stato sviluppato da Adobe Systems e permette di

creare documenti in grado di mantenere la formattazione del documento originale sia per la stampa, sia per la visualizzazione su piattaforme diverse, che includono Windows, UNIX e Mac. Grazie all’avvento degli e-book e dei book-reader digitali, tale formato ha ottenuto una grande popolarità e diffusione in Internet. I motori di ricerca riescono a interpretare ottimamente i contenuti presenti all’interno di questi file, indicizzandoli correttamente. Basti pensare a come la ricerca in Google della voce “manuali pdf” produca numerosi risultati nella SERP, derivati da una perfetta indicizzazione dei file con estensione .pdf.

Figura 6.10 - La ricerca in Google di “manuali pdf” produce numerosi risultati, determinati dalla corretta indicizzazione dei documenti PDF.

Per creare un documento PDF, possiamo avvalerci di numerosi tool (Infix PDF Editor, Acrobat Reader Professionale) a disposizione; ovviamente il migliore rimane quello di Acrobat (utilizzato nel corso di questa trattazione). Attraverso questi software, saremo in grado di gestire i meta-data del documento e di modificarli a nostro piacimento. L’ottimizzazione di un documento PDF segue le linee SEO on page viste per le pagine web. Dobbiamo scegliere un titolo adeguato, non creare PDF troppo pesanti (in termini di byte), completare i meta tag del documento e

utilizzare gli stili di intestazione, perché verranno riconosciuti come i tag H1, H2… di una pagina HTML. Tutto questo perché un documento PDF ben posizionato nel web potrebbe portare nuove visite al nostro sito web.

NOTA È importante tenere presente come alcuni convertitori di PDF o versioni non recenti di Photoshop non convertano il testo come “editabile”, bensì in pixel (il testo appare come un’immagine) non indicizzabili. Per una corretta e adeguata indicizzazione, i testi presenti all’interno di un documento PDF non devono essere rasterizzati come immagini.

Analizziamo ora le proprietà di un documento PDF (si consideri la Figura 6.11).

Figura 6.11 - Esempio di modifica delle proprietà del PDF con Adobe Acrobat Pro.

• • •

File (ottimizzare-pdf.pdf): se nel documento PDF non è stato definito il meta tag “Title”, viene utilizzato il nome del file. Per tale motivo, è importante utilizzare nomi appropriati e non generici. Title: risulta essere l’elemento cruciale per una corretta indicizzazione del documento PDF. Tale tag viene utilizzato come titolo nei risultati della SERP. Author: serve a specificare l’autore del documento PDF. Subject: questo campo funge da Snippet del Meta Description per il nostro documento PDF. Comprendiamo bene l’importanza di questo meta tag e di conseguenza la scelta delle keyword e delle frasi da riporre al suo interno. Keywords: parole chiave che servono a identificare il documento; solitamente è

consigliato indicare non più di cinque-sette keyword per documento. Tra le varie opzioni a disposizione, abbiamo l’opportunità di modificare la visualizzazione iniziale del documento PDF dalla sezione “Initial View”. Variando tali parametri (come mostrato in Figura 6.12), saremo in grado di visualizzare in maniera più user friendly i nostri documenti PDF.

Figura 6.12 - Impostazioni di visualizzazione di un documento PDF.

Quelle sopra esaminate sono le tecniche base applicabili per migliorare l’indicizzazione dei documenti nel web.

NOTA

Domande e risposte sui PDF Come vengono trattati i documenti PDF? I PDF vengono trattati in modo del tutto analogo alle pagine HTML: i link passano PageRank, il testo viene indicizzato. Al momento le immagini presenti nei PDF non possono essere indicizzate e non è possibile aggiungere l’attributo “nofollow” ai link. I PDF possono produrre contenuto duplicato? Sì, se sono la copia identica di una pagina html o di una descrizione di un prodotto o scheda tecnica. Per evitare la duplicazione, è possibile inserire nell’header HTTP il rel=”canonical”. Se non vogliamo indicizzare il file PDF, lo possiamo bloccare dal file robots.txt o attraverso il tag X-Robots-Tag: noindex nell’header HTTP utilizzato per servire il file PDF. Come si comportano i link nei PDF? Secondo le ultime dichiarazioni i link in file PDF passano PageRank

Silverlight per la SEO Per costruire applicazioni web altamente interattive, sul mercato esistono principalmente due strumenti software: Flash di Adobe e Silverlight di Microsoft (recentemente sta prendendo piede anche JavaFX).

NOTA Silverlight, conosciuto anche con il nome in codice WPF/E, rappresenta una recente tecnologia per lo sviluppo di nuove applicazioni web multimediali e animate tramite l’utilizzo del Framework .NET.

Nella battaglia per aggiudicarsi una grossa fetta del mercato, questi tre grandi colossi propongono le novità introdotte nei loro applicativi di punta per lo sviluppo sul web. Tale battaglia verterà principalmente sulla qualità offerta da questi supporti e sull’attrazione che essi riusciranno a esercitare sugli utenti finali. Lo scontro tra i due colossi di produzione software si fa ormai ad armi pari: Silverlight offre un ottimo supporto alla programmazione delle RIA, applicazioni tipiche dello sviluppo del web 2.0, soprattutto grazie alla possibilità di interfacciarsi con script Ajax e di fare streaming video con qualità DVD. Proprio per quanto riguarda lo streaming, è ottima la scelta di casa Microsoft di permettere la diffusione gratuita a flussi video fino a 4 GB senza l’ausilio di costosi software come Adobe. Entrambe le piattaforme hanno l’opportunità di lavorare con i numerosi linguaggi di programmazione server side presenti

sul mercato, come PHP, Coldfusion, .NET, Ruby on Rails, e possono essere usate anche nelle architetture Enterprise J2EE. Si evince come Silverlight, nell’era delle applicazioni web interattive e multimediali, stia rivestendo un ruolo di grande importanza, che deve quindi essere considerato e analizzato anche in ambito SEO. I motori di ricerca, al momento, non riescono a riconoscere perfettamente il contenuto di Silverlight in modo nativo. Per tale motivo, per rendere il contenuto di Silverlight indicizzabile da parte dei motori di ricerca, è possibile avvalersi di approcci con cui i search engine hanno già familiarità, come la combinazione di aree di contenuto di Silverlight con i metadati HTML. L’obiettivo di tale ottimizzazione è quello di aumentare le probabilità con cui la pagina, contenente oggetti Silverlight, viene visualizzata all’interno della SERP. Vediamo ora in sintesi alcune tecniche di ottimizzazione di Silverlight, tratte dall’articolo ufficiale di Microsoft scritto da Ashish Shetty: http://www.silverlight.net/learn/whitepapers/seo-for-silverlight/

Mixare l’HTML con il contenuto di Silverlight Questo modo di operare comporta la miscelazione di testo in HTML con il contenuto di Silverlight nella stessa pagina, così da produrre contenuti ricchi e utili agli occhi dei motori di ricerca. Per fare questo, in fase di progettazione del contenuto di Silverlight è necessario inserire contenuti testuali HTML, affinché si integrino appieno con la struttura della pagina. La Figura 6.13 mostra un esempio di applicazione di questa tecnica.

Figura 6.13 - Esempio di mix di contenuti HTML e Silverlight (fonte: Microsoft).

Utilizzare l’object tag L’object tag è progettato in modo tale che, se l’oggetto principale non può essere caricato, il

browser cerca contenuti alternativi all’interno di questo tag. Il seguente listato mostra un esempio di applicazione di tale tecnica:

Utilizzare un contenuto alternativo per Silverlight L’object tag per l’applicazione Silverlight deve essere integrato con un contenuto alternativo. In questo modo, se il browser non riuscirà a caricare il contenuto dell’applicazione Silverlight, verrà mostrato all’utente un contenuto testuale alternativo. Tale tecnica, molto simile a quanto visto per Flash, serve per dare in pasto ai motori di ricerca contenuti che descrivano la pagina in questione. Il seguente listato mostra l’applicazione di tale tecnica:

Per tutte le altre tecniche più avanzate che richiedono una specifica conoscenza di Silverlight rimandiamo il lettore alla consultazione dell’articolo: http://www.silverlight.net/learn/whitepapers/seo-for-silverlight/

SEO e contenuti video L’avvento di piattaforme come YouTube ha permesso la diffusione online di contenuti video. Anche i contenuti video possono essere utili per richiamare nuovi visitatori verso il nostro sito web. Una grossa fetta della promozione e indicizzazione dei contenuti video è data dalle azioni di marketing online, come vedremo nei prossimi capitoli. Ora analizzeremo le tecniche base per ottimizzare un contenuto video.

Best practices e suggerimenti: • bisogna assicurarsi di creare videoclip inerenti al contesto del sito web. Un video deve essere relativamente corto e fornire informazioni aggiuntive al visitatore; • è fondamentale utilizzare un buon titolo per il video: una strategia per convincere gli utenti a visualizzare il nostro video è quella di indicare un titolo accattivante, che contenga una parola chiave direttamente correlata al nostro prodotto, servizio o marchio; • esistono numerose piattaforme per la condivisione di video: YouTube, Google Video, AOL Video, Yahoo! Video, MySpace.com, MSN Video. Essere presenti su una o più di queste piattaforme di condivisione di contenuti video risulta essere cruciale per promuovere i nostri filmati sul web; • utilizzare tag che definiscano il contenuto del video. Una descrizione HTML prima del filmato e l’utilizzo di tag che ne identifichino la categoria rappresentano un buon modo di procedere per migliorare l’indicizzazione del video stesso; • non creare video troppo lunghi: un video che dura più di cinque minuti potrebbe non catturare l’attenzione dell’utente. Nel caso di contenuti video molto lunghi, è consigliabile suddividerli in più parti e renderli fruibili di volta in volta in modo da suscitare l’interesse dei visitatori; • utilizzare appositi software di compressione dei filmati per rendere il video “leggero” e facilmente visualizzabile sul web. Per la visualizzazione del video è consigliabile adoperare formati che siano cross-browser e cross-platform; • offrire la possibilità di visualizzare il video a diverse risoluzioni; in tal modo l’utente con una banda limitata potrà caricare il video in poco tempo con una risoluzione minore, mentre l’utente che ha una banda superiore potrà visualizzare il filmato ad alta risoluzione; • l’utilizzo di una Sitemap video permette una corretta indicizzazione da parte dei motori di ricerca; essa è simile a una Sitemap in XML, ma è formattata appositamente per i video.

NOTA Google non può di fatto “vedere” cosa ci sia dentro un filmato, perciò si basa su titoli e altri meta-dati per determinarne il reale contenuto.

Soffermiamoci un attimo sull’analisi del Sitemap video, in quanto è uno strumento molto efficace per la diffusione e l’indicizzazione dei nostri filmati all’interno dei principali motori di ricerca. Google dice: Google Video Sitemap è un’estensione del Protocollo Sitemap che consente di pubblicare i contenuti video online, nonché i relativi metadati, e di inviarli a Google al fine di renderli disponibili per la ricerca nell’indice di Google Video. È possibile utilizzare una Sitemap video per aggiungere informazioni descrittive, quali il titolo, la descrizione e la durata del video, che agevolano la ricerca da parte degli utenti di una particolare porzione di

contenuto. Quando un utente trova il vostro video tramite Google, viene indirizzato ai vostri ambienti ospitati per poterlo riprodurre integralmente. Quando inviate una Sitemap video a Google, gli URL dei video inclusi saranno disponibili per la ricerca su Google Video. I risultati di ricerca conterranno un’immagine miniatura (da voi precedentemente fornita o generata automaticamente da Google) dei contenuti del video, oltre alle informazioni (per esempio, il titolo) forniti nella Sitemap video. Il vostro video può inoltre comparire in altri prodotti di ricerca di Google. In poche parole, Sitemap video non è altro che un file XML in cui racchiudere le informazioni inerenti a contenuti multimediali: in tal modo, si istruiscono i motori di ricerca sul contenuto dei filmati. I tipi di video compatibili comprendono mpg, mpeg, mp4, mov, wmv, asf, avi, RA, RAM, RM, FLV e devono essere direttamente disponibili tramite HTTP. La Figura 6.14 mostra un esempio di Sitemap video.

Figura 6.14 - Esempio di Sitemap video.

Per conoscere tutti i tag disponibili e approfondire questo argomento, consigliamo la lettura dell’articolo che trovate all’indirizzo: https://developers.google.com/webmasters/videosearch/sitemaps

NOTA Per chi non avesse conoscenze riguardo a XML, è possibile creare Sitemap video utilizzando un software gratuito scaricabile da https://moz.com/community/q/video-sitemap-generator.

Una volta creata la nostra Sitemap video, non ci resterà altro che inviarla attraverso gli strumenti per webmaster di Google o aggiungere il suo collegamento nel file robots.txt (per esempio, aggiungendo il tag Sitemap: http://www.miosito.com/video_sitemap.xml). Sitemap video non è l’unico strumento che abbiamo a disposizione per indicizzare i nostri contenuti multimediali. Media RSS è un formato creato da Yahoo!, ma supportato anche da Google e Bing, per la scoperta di contenuti multimediali come video, audio e immagini. È un’estensione di RSS 2.0 ed è molto utile nel caso di pubblicazione di filmati in modo continuo (la Figura 6.15 mostra un esempio di utilizzo di Media RSS).

Figura 6.15 - Esempio di Media RSS.

NOTA Al seguente link troverete maggiori informazioni su Media RSS: http://www.rssboard.org/media-rss

Questi consigli, accompagnati da una buona campagna di marketing volta alla diffusione dei nostri contenuti video, ci permetteranno di acquisire popolarità sul web.

NOTA Non dimentichiamoci che nelle specifiche di HTML 5 vi sono nuove e interessanti novità proprio per i contenuti video e i relativi standard da utilizzare.

Dobbiamo sempre ricordarci che i risultati video sono in grado di attirare l’attenzione degli utenti scardinando il concetto di Golden Triangle: infatti un interessante studio di eye-tracking di Dr. Pete su Google Universal Search (http://tinyurl.com/video-eye-ok) mostra come il video al secondo posto per la parola chiave “How to make a pizza” risulti molto più visto del risultato testuale presente al primo posto. Per questo motivo, è fondamentale sfruttare i video per le nostre campagne di promozione online.

Figura 6.16 - Studio sull’importanza dei video nella SEO moderna (Dr. Pete).

Come ottimizzare un video YouTube per la visibilità online Per ottimizzare e rendere virale un video su YouTube non esiste una ricetta magica. Come avviene per il ranking in Google, anche gli algoritmi di YouTube si modificano nel tempo e si adattano alle evoluzioni tecnologiche e comportamentali degli utenti. Esistono alcuni fattori che servono a migliorarne la visibilità, ad esempio: • il titolo del video deve contenere la parola chiave per cui volete essere trovati; • la durata del video pare essere un fattore di posizionamento così come il coinvolgimento degli utenti; • è importante avere parole chiavi nella descrizioni e nei tag; • inoltre il tempo di visualizzazione e il numero di visualizzazioni sono fattori di ranking. Per questo motivo è importante compilare in fase di caricamento titolo e descrizione del nostro video e prestare cura agli aspetti sopra elencati.

Ajax e i JavaScript: come usarli in ambito SEO? Dal 2001 al 2008 il World Wide Web è passato attraverso una crescita spaventosa in termini di tecnologie e metodologie utilizzate per portare questo strumento statico alla vita. All’inizio, tutte le pagine web erano statiche: gli utenti richiedevano una risorsa (costituita da un file) e il server gliela restituiva. Stimolato da tecnologie nuove e talvolta già presenti da tempo nei browser, il web ha compiuto un notevole progresso, sconvolgendo il modo d’uso tradizionale che necessitava del caricamento completo di una pagina ogni volta che si accedeva a nuove informazioni o a una nuova parte della logica dell’applicazione. Nasce, quindi, il concetto di “web 2.0”, cioè un diverso atteggiamento mentale sia di chi sviluppa i servizi attraverso le tecnologie, sia di chi ne fruisce: la maggiore attenzione all’utenza innesca un meccanismo collaborativo interno ed esterno estremamente vitale, creativo e produttivo. Ciò risulta possibile anche grazie alla maggiore maturità dell’infrastruttura e del mercato tecnologico: maggiore diffusione di connettività a banda larga a costi inferiori, di dispositivi digitali personali migliori e più economici. In questo contesto, sorgono nuove tecnologie come Silverlight e Ajax (Asynchronous JavaScript And XML), quest’ultimo sorto nel febbraio del 2005, quando James Garrett della Adaptive Path LLC pubblicò un articolo intitolato “Ajax: A new approach to web application”. Da quel momento nacque ufficialmente Ajax, una specifica tecnologia basata su JavaScript, che conferisce alle nostre applicazioni web maggiore interattività, velocità e tutta una serie di costrutti che le rendono uniche. Invece del modello classico, in cui il browser si occupava di avviare le varie richieste al server web e di elaborare le risposte provenienti da quest’ultimo, il modello Ajax prevede un livello intermedio chiamato Ajax Engine, che gestisce tutte le fasi della comunicazione. A differenza del modello tradizionale, il server, che solitamente servirebbe HTML, immagini CSS o JavaScript, viene opportunamente configurato per inviare i dati che possono essere quindi interpretati e utilizzati dal motore Ajax. Questo processo comporta un trasferimento minore di dati e informazioni: l’interfaccia utente viene aggiornata più velocemente e l’utente è in grado di svolgere il proprio lavoro con maggiore efficienza (la Figura 6.17 illustra tale processo).

Figura 6.17 - Gestione richieste Ajax.

L’intento di tale tecnica è perciò quello di ottenere pagine web che rispondano in maniera più rapida, grazie allo scambio in background di piccoli pacchetti di dati con il server, così che l’intera pagina web non debba essere ricaricata ogni volta che l’utente effettua una modifica. Alla base di questa tecnologia web vi è il componente denominato XMLHTTP, che detiene il compito fisico di instaurare la comunicazione. Come è possibile notare, il processo di richiesta Ajax si sviluppa in tre passi fondamentali. Il primo passo consiste nella creazione vera e propria dell’istanza dell’oggetto XMLHTTP sul browser e nella sua configurazione. Il passo successivo è quello di configurare correttamente i parametri della chiamata. La terza e ultima fase prevede l’impostazione della funzione di Callback, il cui scopo è quello di controllare lo stato della chiamata. Ajax non risulta essere una nuova tecnologia, bensì consiste nel riutilizzo di quelle esistenti, permettendo di realizzare un determinato compito. Una delle peculiarità di Ajax che ne fanno una tecnologia eccezionale è data dalla sua capacità di funzionare nella maggior parte dei browser e di non richiedere alcun software o hardware proprietari. Il punto di forza principale sta nel fatto che il programmatore non deve riscrivere il codice già funzionante, ma può integrarlo ed estenderlo con questa tecnologia. Ajax risulta essere un approccio sul lato Client, perciò è indipendente dal lato Server. Le principali tecnologie alla base di Ajax sono: • HTML/XHTML: linguaggi di rappresentazione del contenuto primario; • CSS: fornisce una formattazione stilistica ai contenuti web; • DOM (Document Object Model): aggiornamento automatico di una pagina caricata; • XML: linguaggio standard per lo scambio di informazioni; • XSLT: processo di trasformazione da XML in HTML; • XMLHttp: agente di comunicazione primario; • JavaScript: linguaggio di scripting utilizzato per programmare un motore Ajax.

NOTA JavaScript è un linguaggio di scripting orientato agli oggetti, comunemente usato nei siti web. Può essere adoperato in concomitanza con altre tecnologie, come Ajax e Silverlight.

Senza dilungarci troppo sugli aspetti tecnici, possiamo capire come questo linguaggio di programmazione orientato alle applicazioni web sia fondamentale per un web interattivo. Esistono numerosi framework che utilizzano queste tecniche: il più noto e diffuso è JQuey. In tale scenario, anche la SEO deve approcciarsi a queste nuove strutture garantendo una buona indicizzazione delle pagine (e dei relativi contenuti) che sfruttano tali tecnologie. Per quanto concerne l’indicizzazione delle pagine contenenti JavaScript, i consigli sono i seguenti: • utilizzare file JS esterni alla pagina; • sfruttare il tag (come spiegato in precedenza, quando si è parlato dei contenuti Flash) per fornire del testo alternativo ai motori di ricerca; • caricare attraverso la funzione google.load() le librerie JavaScript o Ajax desiderate.

NOTA Attraverso google.load() siamo in grado di fornire i contenuti JavaScript in maniera più veloce rispetto al server che ospita il nostro sito: questo perché Google utilizza il data center che geograficamente si trova più vicino al visitatore per fornire le librerie richieste durante il caricamento della pagina web. Il suo utilizzo è molto semplice e immediato. Per prima cosa, dobbiamo procurarci una API Key per il nostro dominio e inserirla nelle pagine web in cui vogliamo utilizzare tale tecnica:

Successivamente possiamo incorporare le librerie che vogliamo utilizzare richiamandole attraverso la funzione google.load:

Per maggiori informazioni: https://developers.google.com/loader/

Esistono diversi strumenti atti a comprimere i file JavaScript; siccome tali file renderanno, a livello di programmazione, il codice non comprensibile, si consiglia sempre di avere una copia del file originale non compresso per potervi apportare eventuali modifiche in caso di aggiornamenti. Segnaliamo due servizi che offrono la possibilità di comprimere i file JavaScript: • Closure Compiler: un servizio online semplice e gratuito (http://closurecompiler.appspot.com). È possibile scegliere la tipologia di compressione e verificare che il codice compresso sia compilato. Semplice, efficiente e veloce. La Figura 6.18 mostra un esempio di utilizzo di questo strumento;

Figura 6.18 - Esempio di utilizzo di Closure Compiler per comprimere file JavaScript.

YUI Compressor: questo strumento (http://yuilibrary.com/) dispone di numerose opzioni per la compressione sia di file JavaScript, sia di CSS. Ne sono disponibili diverse versioni ed è un applicativo multipiattaforma.

Figura 6.19 - Esempio di utilizzo di YUI Compressor per comprimere file JavaScript.

Per quanto concerne l’indicizzazione di contenuti e pagine che sfruttano Ajax, sono stati compiuti numerosi passi avanti da parte dei motori di ricerca, che si sono adoperati per fornire strumenti e tecniche agli specialisti SEO. Google, nel 2009, ha rilasciato una guida molto utile agli esperti SEO consultabile al seguente indirizzo che ormai risulta superata ma che lasciamo per completezza: https://webmasters.googleblog.com/2009/10/proposal-for-making-ajax-crawlable.html Tra i punti salienti per ottimizzare gli applicativi in Ajax (secondo Google) ricordiamo i seguenti. • Dobbiamo specificare allo spider di Google che il nostro sito supporta il nuovo “schema” di indicizzazione per Ajax. Tipicamente un URL in Ajax contiene un hash “#” che serve a specificare i diversi stati in cui può trovarsi l’applicazione (http://www.miosito.com/index.html#stato10). In questo modo, un sito così strutturato viene visto dagli spider come costituito da una sola pagina: i motori di ricerca non sono in grado di capire che diversi stati dell’applicazione Ajax possono corrispondere a pagine con contenuti e informazioni differenti. Google affermava tempo fa di dover aggiungere un punto esclamativo (!) subito dopo il cancelletto, così: http://www.miosito.com/index.html#!stato10 In tal modo, riusciamo a comunicare allo spider che siamo in grado di accettare la procedura di indicizzazione in Ajax. • Il crawler cambierà l’URL richiesto: nell’istante in cui lo spider di Google si accorge che l’URL è stato modificato (come descritto nel punto precedente), riesce a indicizzare la pagina come a sé stante. • Modificare gli stati dell’applicazione Ajax in modo tale da fornire tag e description diversi e contenuti appropriati. Ovviamente si tratta di una soluzione alternativa e abbastanza articolata; per tale motivo recentemente Google ha comunicato come non ci sia più bisogno di sfruttare gli _escaped_fragment_ i contenuti in Ajax (https://googlewebmastercentral.blogspot.it/2015/10/deprecating-our-ajax-crawlingscheme.html). In questo scenario Google consiglia di sfruttare il concetto di Progressive Enhancement per migliorare sia l’esperienza utente sia per facilitare a Google il compito di rendering di siti con tali caratteristiche.

Google sitelink Secondo la definizione presente in Google Search Console, i sitelink “sono link aggiuntivi che Google talvolta genera dai contenuti dei siti al fine di aiutare gli utenti a navigare nel vostro sito”. I Google sitelink sono dei piccoli link che appaiono sotto il primo risultato di Google per

una determinata serie di parole chiave e consentono all’utente di raggiungere informazioni ricercate senza navigare nel sito stesso. La Figura 6.20 mostra un esempio di struttura generata da Google.

Figura 6.20 - Struttura sitelink di un sito web.

NOTA Google mostrerà i sitelink solo quando ne avrà individuati almeno tre; essi vengono assegnati solo se pertinenti a quella determinata ricerca. Per approfondimenti vedere https://plus.google.com/+GoogleWebmasters/posts/b4WcMeLgbAL.

Non si conosce bene la ricetta in base alla quale Google decide o meno di assegnare i sitelink, ma è assai probabile che questi vengano generati:

• • • • • • •

quando il sito web genera un buon traffico di utenti; quando Google ritiene che i link presenti nel sito risultino di utilità per l’utente; quando il sito è ben strutturato e navigabile; quando nel sito siano presenti in giusto rapporto anchor text di parole chiave inerenti ai risultati di ricerca nella SERP; quando il sito in questione gode di buona popolarità e di un buon numero di link in ingresso di qualità; quando il numero di clic ricevuti per una pagina è elevato; quando il tempo di permanenza sul sito web è sufficientemente lungo: questo significa che quello che stiamo proponendo è di interesse per il visitatore.

Questi sono solo alcuni dei fattori che Google potrebbe tenere in considerazione per generare i sitelink; esistono, tuttavia, eccezioni in cui tali sitelink vengono generati anche per siti web con pochi visitatori e con una struttura di navigazione discutibile. Nel giugno 2005 Google ha registrato il brevetto dei sitelink, che solo il 21 dicembre 2006 è stato reso pubblico sul sito dei brevetti americani (Us Patent). È possibile consultarlo al seguente link: http://tinyurl.com/Google-brevetto-sitelink Gli algoritmi con cui vengono generati tali sitelink stanno evolvendo e negli ultimi mesi Google sta testando nuove strutture per i sitelink. Il nostro consiglio è quello di seguire tutte le linee guida per l’ottimizzazione della home page, creando una buona struttura di navigazione. Dopodiché, solo il tempo e il riscontro delle strategie applicate ci consentiranno di capire se il nostro sito è idoneo ad avere i sitelink. Nell’agosto 2011, Google (http://tinyurl.com/nuovisitelink) ha migliorato e ottimizzato la generazione dei sitelink. Ora, infatti, possono essere visualizzati fino a 12 sitelink per sito web ed è anche possibile bloccare direttamente dagli strumenti per webmaster i sitelink non “desiderati”. Nel 2014 altre modifiche alla grafica della SERP di Google hanno modificato il layout dei sitelink; altre modifiche grafiche e di layout sono state introdotte nel 2016.

NOTA Da alcuni test effettuati su una decina di siti, abbiamo potuto riscontrare che i sitelink sono stati aggiunti (in genere dopo due-sette mesi) nei siti web che avevano le seguenti caratteristiche: • siti con un numero costante di visite giornaliere (maggiore nei casi rilevati a 25 visite uniche); • siti sia con struttura a tabelle, sia con DIV + CSS, ma con una navigabilità semplice ottenuta principalmente con link testuali; • siti con Sitemap e Feed RSS; • siti aventi la barra di navigazione posta nella parte alta del sito web realizzata con link testuali ed elenchi puntati (ul, li).

Sitelinks Search Box Una delle ultime novità è la possibilità di avere il search box direttamente nella SERP di Google nella finestra dei sitelink, come mostra la Figura 6.21.

Figura 6.21 - Ricerca direttamente nelle SERP di Google

Google ha specificato più volte che questo box verrà mostrato solo per query ritenute utili e pertinenti per gli utenti e anche per siti che non hanno “implementato” il codice specificato nelle linee guida. Per tentare di far apparire il box in questione, dobbiamo seguire le linee guida di Google:

https://developers.google.com/structured-data/slsb-overview Quali sono quindi le principali caratteristiche a cui devono rispondere i siti web per poter usufruire di questo box di ricerca? • avere un motore di ricerca interno al sito; • strutturare i dati delle pagine con il markup di Schema.org; • impostare correttamente il tag rel=”canonical” in Home Page; • avere una struttura che supporti la codifica dei caratteri UTF-8. Ecco un esempio di implementazione con i microdati:

Com’è possibile notare, il codice, che va inserito in Homepage, è semplice e deve riprendere l’URL di generazione prodotta dal motore interno del sito web.

Mobile SEO L’evoluzione tecnologica degli ultimi anni ha permesso la diffusione sul mercato di dispositivi mobile a prezzi accessibili e dotati di connettività. Risulta infatti possibile collegarsi attraverso palmari o cellulari di ultima generazione a Internet e fruire, tramite questi strumenti, di contenuti web anche multimediali. Addirittura, gli ultimi lettori MP3 hanno al loro interno browser in grado di collegarsi alla rete Internet, consentendo all’utilizzatore di scaricare i brani desiderati. iPod, iPad, iPhone sono diventati un cult per i giovani d’oggi; quasi tutti i cellulari ormai incorporano un browser web e applicativi per connettersi con i maggiori social network. Risulta quindi fondamentale conoscere il proprio target di utenti, ma soprattutto i dispositivi che essi usano per visitare le nostre pagine web, in modo tale da prendere in considerazione la possibilità di creare una versione accessibile da apparati mobile. Sotto questo aspetto, anche la SEO e il Web Marketing hanno un ruolo cruciale. I motori di ricerca si sono adattati a questa evoluzione e offrono la possibilità di indicizzare opportunamente siti web creati appositamente per apparati mobile. Per esempio, Google utilizza lo user agent “Googlebot-Mobile” per identificare i siti che offrono i loro contenuti per apparati mobili. Yahoo!-Bing e tutti i principali motori di ricerca mondiale forniscono i loro contenuti sotto forma mobile e prevedono strumenti specifici per identificare siti e pagine web studiati appositamente per tali scenari.

NOTA In alcuni contesti è preferibile verificare la stringa dello user agent all’interno delle nostre pagine web, in quanto i motori di ricerca potrebbero cambiare tale intestazione senza preavviso. È quindi consigliabile utilizzare le ricerche DNS per verificare l’esattezza dello user agent, come viene spiegato in questo articolo di Google: https://webmasters.googleblog.com/2006/09/how-to-verify-googlebot.html

Nel mondo mobile troviamo diverse esigenze, dovute sia alla dimensione degli schermi dei dispositivi, sia agli utenti che hanno aspettative e bisogni differenti rispetto a quelli “desktop” (che utilizzano il web attraverso un normale PC). “A Large Scale Study of European Mobile Search Behaviour” (http://dl.acm.org/citation.cfm?id=1409243) è un’interessante ricerca che mostra l’evoluzione del mobile, fornendo importanti spunti di riflessione: • nel 2008 la lunghezza media delle query in Europa si aggirava attorno ai 2,2 termini e in questo scenario Google era il motore di ricerca in grado di attirare query più articolate; • nonostante la difficoltà di digitazione, gli utenti creano query di lunghezza del tutto comparabile a quella del web tradizionale; • la Long Tail Keyword applicata è ancora valida e circa il 14% delle richieste viene rielaborato per raffinare la propria ricerca.

Figura 6.22 - Lunghezze delle query mobile espresse in numero di termini.

Questo ci fa capire l’importanza dell’evoluzione tecnologica verso il mondo mobile e quanto sia fondamentale anche in ambito SEO prestare attenzione a tali cambiamenti. Ma come funziona la Mobile Search di Google? Facendo riferimento al brevetto “Blending Mobile Search Results” del 31 luglio 2008 (fonte: http://tinyurl.com/bleending-mobile), è possibile notare come i risultati di ricerca restituiti dalla sfera del Mobile Search siano un blending, un’aggregazione tra siti “desktop” e siti “mobile”. La Figura 6.23 riassume lo schema di funzionamento.

Figura 6.23 - Mobile Search, schema di massima del suo funzionamento.

Vediamo come funziona, in linee molto generali, il Mobile Search di Google: vengono generate due SERP differenti, una che ingloba i risultati per i siti mobile, l’altra per gli utenti generici (che definiremo anche “desktop”). È da evidenziare come il ranking dei siti mobile venga implementato utilizzando un algoritmo differente, che sfrutta il “mobile search quality score”. A questo punto le due SERP vengono mixate attraverso un processo che prende il nome di “blended”, in modo tale da fornire un unico risultato. I risultati ottenuti vengono filtrati ed elaborati per evitare i contenuti duplicati, e presentati all’utente finale. L’analisi di tale brevetto può portare alla luce diversi spunti e curiosità che gli esperti SEO possono osservare per migliorare l’indicizzazione anche per i siti mobile. Ovviamente lo sviluppo di un sito per apparati mobile richiederà tempo, risorse tecniche e investimenti. Ma quali sono le principali caratteristiche che deve avere un sito mobile?

NOTA Negli header delle versioni mobile degli URL sarà necessario aggiungere il rel=”canonical” che punta alla versione desktop dello stesso URL: La versione desktop dell’URL dovrà contenere il rel=”alternate media” in modo da consentire la mappatura tra versione desktop e versione mobile; ecco un esempio pratico:

DocType: la versione mobile del nostro sito web deve utilizzare un DocType adeguato:

dominio differente: registrare possibilmente un sito .mobi o .mobile di terzo livello (per esempio, mobile.ingegneridelweb.com), in modo tale da separare i contenuti e facilitarne l’indicizzazione; navigabilità e velocità: la struttura delle pagine deve essere essenziale, senza effetti e con pochissime immagini. L’utente deve trovare nel minor tempo possibile quello che sta cercando; shortcut con le Access Key:

Tale link permette, indicando la lettera associata, di tornare alla pagina “SEO” utilizzando la combinazione Alt + S per mettere il focus sul link e [Invio] per concretizzare il link. Questo modo di operare facilita la navigazione e la consultazione delle pagine web ed è molto apprezzato in ambito mobile; sitemap: è necessario predisporre una sitemap per la versione mobile. Tale sitemap è molto simile a quella classica, ma utilizza appositi tag “mobile”; un esempio di codice è illustrato qui sotto:

utilizzo di codice leggero e che rispetti gli standard, tra cui XHTML di base 1.1, XHTML MP 1.2, XHTML di base, XHTML MP, HTML e WML (http://www.w3.org/TR/mobile-

bp/).

NOTA Per la validazione del codice è possibile utilizzare due tool: • Ready.mobi (http://ready.mobi/) • W3C MobileOK Checker (http://validator.w3.org/mobile/)

Una recente ricerca di Google (consultabile su http://www.thinkwithgoogle.com/researchstudies/mobile-path-to-purchase-5-key-findings.html) ha riportato il comportamento all’acquisto degli utenti che utilizzano uno smartphone. Si evince come l’utilizzo per ricerche e soprattutto la tipologia con cui vengono ricercati determinati argomenti stia evolvendo e cambiando negli ultimi anni. Per questo motivo, anche lo sviluppo di siti web deve adattarsi a queste nuove richieste e tipologie, anche in base alle indicazioni che ci vengono fornite dai principali motori di ricerca internazionali.

Figura 6.24 - Mobile Search di Google 2016.

Uno dei problemi più sentiti per un webmaster è quindi quello di gestire tecnicamente la possibilità di fornire contenuti differenti in base alle richieste dei dispositivi. Per questo motivo è necessario adottare alcuni accorgimenti tecnici. • Utilizzare fogli stile o architetture apposite, in modo tale da identificare se un visitatore ci sta visitando da un apparato mobile, e quindi effettuare un redirect verso contenuti e informazioni adeguate. Identificare attraverso lo user agent la richiesta di visualizzazione e

predisporre soluzioni differenti per apparati mobile diversi (che possono avere risoluzioni o dimensioni dello schermo variabili). È altresì possibile identificare lo user agent del motore di ricerca in modo tale da redirigerlo verso contenuti opportuni. La Figura 6.25 mostra un esempio pratico di tale tecnica.

Figura 6.25 - Schema redirect automatico per apparati mobile.

NOTA Il redirect alla versione mobile potrebbe costituire cloaking? Riportiamo quanto affermato da Matt Cutts (http://tinyurl.com/redirect-mobile): “Avere uno script che reindirizza automaticamente gli utenti mobile alla versione mobile del proprio sito non costituisce cloaking. Questo perché il cloaking altro non è che il tentativo di mostrare contenuti diversi all’utente e a Googlebot. Ma lo spider di Google si comporta esattamente come un comune utente. Il Googlebot è pertanto ‘insensibile’ a questo tipo di redirect. In linea di massima, fintanto che Googlebot viene ‘trattato’ come fosse un comune utente, non vi è alcun rischio di essere penalizzati”.

Una soluzione differente sarebbe quella di fornire lo stesso URL per versioni desktop e mobile, cambiando però il loro formato in base allo user agent. In altre parole, sia gli utenti mobili, sia quelli desktop accedono allo stesso URL (in questo caso non viene effettuato nessun redirect), ma il contenuto della pagina si adatta in base allo user agent. In questo contesto, se il nostro sito web non viene configurato correttamente, potrebbe essere considerato cloaking. Per cloaking si intendono quelle tecniche atte a separare i contenuti forniti a Googlebot rispetto a quelli visualizzati dagli utenti normal, in modo tale da avere

un vantaggio in termini di posizionamento. Come si è detto precedentemente, Google utilizza “Googlebot” per la navigazione normale e “Googlebot-Mobile” per le ricerche mobile. Per rimanere entro le nostre linee guida fornite da Google, si dovrebbe procedere in questo modo: – l’utente desktop deve vedere il medesimo contenuto proposto a Googlebot; – l’utente mobile deve vedere il medesimo contenuto proposto a Googlebot-Mobile; – il contenuto proposto all’utente mobile e desktop potrebbe anche essere differente.

Figura 6.26 - Schema di gestione di medesimi URL, ma con contenuti e forme differenti per versione mobile e desktop. Esempio di modelli mobili corretti.

NOTA Tale ragionamento è stato fatto per Google, ma funziona in maniera similare anche per gli altri motori di ricerca. Ricordiamo, inoltre, che è stata rilasciata la piattaforma JQuery Mobile pensata proprio per tali apparati (http://jquerymobile.com).

Quindi, dal punto di vista dello sviluppo, esistono a oggi fondamentalmente tre tipologie di macro-soluzioni che raggruppano quelle sopra descritte e che possiamo adottare nello sviluppo

di un sito web mobile friendly: • responsive design; • dynamic serving; • sito mobile custom. Il modello responsivo è quello più amato dai web designer, in quanto consente con modifiche ai CSS di rendere adattabile e modulabile la grafica in base al dispositivo su cui è visualizzato il sito web. Un sito con responsive design ha quindi tipicamente un unico template HTML gestito da un unico file CSS, e soprattutto un’unica ottimizzazione SEO. La tecnica del dynamic serving consiste nell’intercettare la tipologia del dispositivo e, in base a questo parametro, fornire attraverso un unico indirizzo un template appropriato alla risoluzione del device che sta effettuando la richiesta. In questo contesto avremo differenti template e CSS in base ai dispositivi per cui vogliamo adattare il nostro sito web. Un’altra alternativa è quella di avere una versione mobile separata dal resto del sito web, che, oltre a essere molto dispendiosa a livello tecnico, lato SEO deve avere delle accortezze per evitare che il sito web sia correttamente interpretato come dedicato ai mobile e non considerato contenuto duplicato.

NOTA Vediamo alcune accortezze da tenere in mente: • per i siti responsivi sfruttare il tag viewport ; • per i siti dynamic servering: rendere disponibile HTML e CSS nello stesso URL, variando lo user agent; • per l’ultima modalità, ovvero quella in cui abbiamo due versioni separate, è opportuno identificare la versione mobile e desktop e sfruttare in modo opportuno i tag rel=”alternate” and rel=”canonical”.

Strumenti per la SEO Mobile Una delle problematiche più sentite durante lo sviluppo di progetti mobile è la fase di testing per simulare il reale utilizzo. Non essendo possibile provare il sito web sviluppato su ogni apparato tecnologico di tipo mobile, la soluzione è quella di utilizzare strumenti avanzati come Dreamweaver, che offre la possibilità di effettuare testing in ambienti simulati (come mostra la Figura 6.27) o di sfruttare servizi online gratuiti (a pagamento per funzionalità avanzate). Di seguito illustriamo alcuni tool gratuiti che ci permettono di implementare in modo semplice e intuitivo versioni mobile per i nostri siti web; tra questi troviamo: • Mobify (http://www.mobify.com): un servizio web-based che ci consente di realizzare una versione mobile del nostro sito web; • WireNode (http://www.wirenode.com): un servizio gratuito che consente di creare un sito

• •

web ottimizzato per i telefonini più diffusi sul mercato, avendo a disposizione statistiche e assistenza SEO mobile; Onbile (http://www.onbile.com): una piattaforma gratuita che offre servizi per la gestione di siti web mobile; Mippin Mobilizer (http://mippin.com): un servizio gratuito che consente di implementare una versione mobile del proprio blog o sito web.

Figura 6.27 - Device Lab di Dreamweaver CS5.

Dopo aver implementato il nostro sito web, l’ultimo passo, come abbiamo precedentemente illustrato, è quello di testarlo sugli apparati mobile. Per fare questo, è necessario disporre di emulatori che simulino il software e la tecnologia presenti sul dispositivo cellulare su cui si vuole effettuare il test. Vediamo quali sono, a nostro avviso, i migliori strumenti a disposizione: • User Agent Switcher (https://addons.mozilla.org/en-US/firefox/addon/59): consente di modificare lo user agent per vedere come si comporta il nostro sito web. È un plug-in per Mozilla Firefox; • Mowser (http://mowser.com/): è un servizio gratuito che permette di verificare come il nostro sito web venga visualizzato da un qualsiasi apparato mobile; • Google Mobilizer: è un servizio gratuito di Google che consente di verificare la visualizzazione del nostro sito web su apparati mobile; è sufficiente inserire l’URL del sito web o della pagina per vedere come sarà la visualizzazione su dispositivi cellulari.

Figura 6.28 - Esempio di visualizzazione di un sito web con Google Mobilizer.

Abbiamo quindi preso in considerazione gli strumenti online che riteniamo costituiscano le basi per effettuare ottimi test sui nostri siti web mobile. Ovviamente, sul mercato esistono numerosi software, anche professionali, atti a effettuare tali compiti e che mettono a disposizione funzionalità avanzate. Il nostro consiglio, in un momento di forte cambiamento tecnologico, è quello di prendere realmente in considerazione la possibilità di implementare una versione mobile del proprio sito web, al fine di consentire la fruibilità dei servizi da più apparati e soprattutto di invogliare nuovi “clienti” o “visitatori” a visitare il nostro portale.

NOTA Di recente Google (http://tinyurl.com/googlesmart1), a seguito della grande diffusione dei cellulari smartphone, ha introdotto un nuovo tipo di agente che simula la navigazione su un sito operata da uno smartphone. Come si legge dal blog di Google Search Console: “The content crawled by smartphone Googlebot-Mobile will be used primarily to improve the user experience on mobile search. For example, the new crawler may discover content specifically optimized to be browsed on smartphones as well as smartphone-specific redirects”. Questa è un’ulteriore conferma che ci dovrebbe spingere a creare siti web con supporto anche ai dispositivi mobile.

Mobile Site Speed e compatibilità mobile Abbiamo già visto e analizzato come la velocità di caricamento di un sito web sia fondamentale per intercettare l’attenzione dell’utente. Anche per i siti mobile è importante tenere in considerazione questo aspetto, per tale motivo vi segnaliamo alcuni link utili tra cui: • Google Page Speed Insights https://developers.google.com/speed/pagespeed/insights/). • Mobi Test from Akamai (http://mobitest.akamai.com/m/index.cgi). • WebPageTest (http://www.webpagetest.org/). • W3C’s Mobile OK Checker (http://validator.w3.org/mobile/).

NOTA Il 26 febbraio 2015, sul Webmaster Central Blog, Google ha ufficializzato quanto aveva già detto in sordina a novembre 2014: l’essere mobile-friendly sarà un fattore di posizionamento; Google, per facilitare la comprensione di questo argomento da parte dei webmaster, ha pubblicato una mini guida a supporto: http://bit.ly/remigi-mobile.

Google ha attuato dal 2015 la cosiddetta rivoluzione mobile o Mobilegeddon. I siti che non saranno compatibili con le sue direttive avranno un ranking inferiore nei risultati di ricerca mobile. In pratica, una pagina web è idonea all’etichetta “mobile-friendly” sole se soddisfa i seguenti criteri: • non ha contenuti Flash; • utilizza testo che è leggibile anche senza zoom; • evita scroll orizzontali nella modalità mobile; • collegamenti ipertestuali e menu facilmente accessibili e che non disturbino la navigazione. Per verificare se il tuo sito è Mobile Friendly secondo le direttive di Google, ti basterà utilizzare il seguente tool: https://www.google.com/webmasters/tools/mobile-friendly/

Ecco come potrebbe apparire nelle SERP Mobile:

Figura 6.29 - Test di compatibilità mobile e risultato in SERP con https://testmysite.thinkwithgoogle.com/.

Questi sono ulteriori segnali che ci fanno capire come nella progettazione di un sito web l’aspetto “mobile” non è da sottovalutare e sarà sempre più importante nei prossimi anni.

Accelerated Mobile Pages - AMP La novità in ambito mobile passa dalle pagine AMP, ovvero pagine web strutturate in base a una specifica open source fruibile al link https://www.ampproject.org/. Sostanzialmente le pagine AMP convalidate vengono scansionate, memorizzate e pubblicate da una cache di Google che consente una pubblicazione più veloce e rapida fornendo un’esperienza utente unica.

Figura 6.30 - AMP nelle SERP di Google Mobile.

NOTA Queste nuove pagine avranno vita propria e quindi dovranno essere create e gestite in modo scrupoloso. Ovviamente dovremmo poi sfruttare il canonical o alternate per evitarne la duplicazione dei contenuti. Google ha già annunciato che il formato AMP sarà fruttato anche in altri servizi come ad esempio Google News.

Il progetto si basa su AMP HTML, framework open source ideato e progettato basandosi su protocolli e tecnologie esistenti e che consente di realizzare pagine più leggere in grado di essere erogate in poco tempo. Grazie alla collaborazione con altri player del mercato tra cui Twitter, Pinterest, WordPress.com, Chartbeat, Parse.ly, Adobe Analytics e LinkedIn ed altri editori nazionali ed europei, è stato possibile sperimentare questa funzionalità ormai diventata una realtà all’interno delle SERP mobile. Grazie a tale novità, gli editori e in generale tutti i webmaster potranno realizzare contenuti ricchi di elementi multimediali, come immagini, video, mappe, condivisibili sfruttando il sistema di cache di Google. Per quanto riguarda la pubblicità, Google AMP supporta formati diversi di advertising e quindi gli editori non si dovranno preoccupare di questa problematica. Recentemente Google ha dichiarato il RollUP di Amp sulle SERP tradizionali. Un primo passo è avvenuto Il 23 agosto 2016 in cui Google ha rimosso l’etichetta mobile-friendly dalle SERP; successivamente Il 20 settembre 2016 Google ha annunciato il rollup dei risultati AMP in SERP.

Questa novità ci fà capire come AMP e il mobile siano una priorità e non dovremmo sottovalutare questa tecnologia nelle nostre strategie.

NOTA Ma Facebook e Apple stanno a guardare? Ovviamente no, grazie a “Facebook instant articles” e “Apple News” è possibile pubblicare i contenuti direttamente sulle loro piattaforme senza “uscire da esse”. Il novo servizio di Instant articles di Facebook inoltre è del tutto automatico e gli editori non dovranno scrivere una riga di codice: https://developers.facebook.com/docs/instant-articles.

Come implementare AMP L’implementazione di AMP è relativamente semplice: i più famosi CMS si sono attrezzati ed esistono infatti plugin come AMP per WordPress che svolgono egregiamente questo compito. Vediamo un esempio di pagina AMP.

Analizziamo il codice per scoprire come deve essere strutturato: • il doctype deve iniziare con ; • va specificato il tag o; • ovviamente devono essere presenti i tag di apertura e chiusura ; • deve essere specificato l’URL canonical della pagina non APM ; • va specificato il tag ; • deve contenere il meta tag ;

• •

va specificato lo script ; deve contenere AMP boilerplate code (quello presente style amp-boilerplate ecc.).

Con queste accortezze avremo creato una pagina AMP. Detto questo, Google ci suggerisce alcune accortezze da prendere in considerazione ovvero: • in tutte le pagine non AMP è fondamentale inserire un riferimento alla versione AMP della pagina per consentire a in modo che Google e altre piattaforme di rilevarla: •

nella pagina AMP va specificato come abbiamo già detto la pagina canonical (o HTML o se stessa):

NOTA Anche le AMP autonome vengono indicizzate, a condizione che possano essere rilevate dal motore di ricerca, per questo motivo è necessario che dispongano di link ad altre pagine indicizzate o che siano specificate nella Sitemap.

Il passo successivo è vedere se la pagina è valida; vediamo gli step: • aggiungere all’url da verificare #development=1; • aprire lo Chrome Development Tool e andare alla voce console; • se troviamo la scritta Powered by AMP ↯ HTML – Version xxx significa che abbiamo fatto le cose correttamente. La seguente immagine illustra i passi appena descritti (recentemente è stato rilasciato un plug-in per Chrome e Mozilla che permette di validare in modo semplice le pagine AMP; il plugin si chiama "amp-validator"):

Figura 6.31 - Esempio di pagina AMP.

Alla fine possiamo visionare lo stato delle nostre AMP page direttamente dalla search console di Google.

Figura 6.32 - AMP nella Search Console di Google.

AMP è sicuramente una bella novità da tenere in considerazione nell’implementazione di un sito web.

NOTA Se utilizzi WordPress sicuramente troverai utile questo link: https://it.wordpress.org/plugins/amp/ dove troverai diversi plugin utili per iniziare a sfruttare AMP.

Progressive Web App - PWA Google ha rilasciato nel 2016 un nuovo prodotto in occasione della Google I/O, a San Francisco, ovvero le Progressive Web App. Questa nuova tecnologia permetterà agli sviluppatori di costruire un sito Internet per mobile che funzioni molto più velocemente e si comporti come un’app. Aaron Gustafson, che lavora nella sezione di sviluppo di nuovi sistemi web per la Microsoft, rivela che le PWA sono una tecnologia che permetterà a un sito Internet per mobile di funzionare molto più similmente a una app per smartphone e tablet. Allo stesso tempo, sarà possibile evitare il download. In più, sarà possibile inviare notifiche all’utente direttamente sul suo dispositivo quando qualcosa sul sito cambierà e i pagamenti online saranno più facili e immediati. In questo scenario diventa sempre più difficile per gli sviluppatori scegliere la via migliore. In ogni modo vediamo nel concreto cosa siano le Progressive Web app e come si comportano. • Progressive: devono “lavorare” ed essere disponibili a tutti gli utenti, a prescindere dalla scelta del browser perché devono essere implementate con il progressive enhancement. • Responsive: disponibili per qualsiasi dispositivo: desktop, mobile, tablet. • Connectivity independent: devono essere in grado di “lavorare offline” su reti di bassa qualità. • App-like: devono apparire con un layout simile a un’app e basarsi sul modello APP shell model. • Fresh: devono essere aggiornate in modo costante. • Safe: devono essere sicure e servite sotto HTTPS. • Discoverable: sono identificabili come “applicazioni” grazie al loro manifest W3C in modo da essere anche facilmente indicizzabili dai principali motori di ricerca. • Re-engageable: integrazione con le notifiche push. • Installable: devono consentire agli utenti di “mantenere” le app che trovano più utili sul loro schermo, senza il fastidio di entrare in un app store. • Linkable: facilmente condivisibili attraverso URL. Insomma sembra tutto molto bello in teoria, ma in pratica? Le PWA sono un costrutto che permetterà di migliorare l’esperienza utente, in quanto Google si è accorto che lato mobile molti siti e app non sono al passo con i tempi. Tutto questo comporta una miriade di standard e linee

guida da seguire. Per alcuni approfondimenti tecnici vi consiglio la lettura del post ufficiale di Google di inizio 2016 https://developers.google.com/web/progressive-web-apps/.

AMP o PWA: molta confusione Le Accelerated Mobile Pages hanno portato come conseguenza logica (a mio avviso) all’implementazione delle Progressive Web App (PWA) le quali sopperiscono alle carenze tecniche delle AMP. In pratica le PWA permetteranno di integrarsi con i servi dei nostri smartphone tra cui ad esempio SIRI e migliorare l’integrazione tra sito web e app mobile. Attualmente le PWA non sono ancora ampiamente diffuse in quanto gli editori le stanno ancora testando, dovremo aspettare un po’ per capire come gestirle in modo corretto! Le Progressive Web Apps non sono altro che un altro set di strumenti che sono stati sviluppati negli ultimi anni per ottimizzare il web su dispositivi mobili. Accoppiate con il Responsive Web design, Web API HTML5-basede e JavaScript saranno il modo migliore per costruire per il web del futuro.

ASO: App Store Optimization ASO è l’acronimo di Application Store Optimization e indica tutte quelle tecniche che si devono applicare per poter migliorare la posizione di un’app mobile all’interno della pagina dei risultati degli app store (Play Store e IOS). Si evince fin da subito come la SEO classica debba anche evolversi e adattarsi nello sviluppo delle app mobile.

Figura 6.33 - Ranking Factors.

Tra le varie opzioni da considerare per l’ottimizzazione on page nello sviluppo di app troviamo: • App Title: il titolo dell’app deve essere conciso, persuasivo e contenere delle keyword; • App Description: la descrizione deve essere coinvolgente e contenere parole chiave utili alla ricerca dell’app; • App Logo: il logo di un’app deve attirare l’attenzione dell’utente e rispettare alcuni criteri che facilitano il posizionamento dell’app, come non contenere parole, essere leggero e rispecchiare le caratteristiche dell’app; • App Screenshot: gli screenshot di un’app devono essere diversificati e devono essere in grado di attirare l’attenzione dell’utente finale; • Category: le categorie degli store sono molte e differenti, ed è quindi fondamentale scegliere quella che rispecchia appieno la caratteristica della nostra app; • App YouTube Demo: questa è una caratteristica dedicata al Play Store, che permette di caricare un video di YouTube che mostra l’utilizzo della vostra app; • Leverage Google Plus: tutte le app sullo store di Google hanno un plug-in per Google +. Più saranno i G+ ottenuti, più la vostra app potrebbe guadagnare posizionamento nello store.

NOTA Google ha affermato chiaramente che qualsiasi “uso ripetitivo e/o irrilevante di parole chiave nel titolo dell’app e nella descrizione, in grado di creare un’esperienza utente sgradevole, può causare una sospensione dell’app all’interno dello store”.

Ora che abbiamo visto i principali fattori interni soffermiamoci un attimo per capire le possibili differenze tra i vari store e principalmente Google Play e Apple Store. Cerchiamo di riassumere: • il nome nell’applicazione per Apple Store deve essere di circa 25 caratteri mentre 30 per Google Play, e potrebbe essere utilizzato nell’URL dell’app; • tipicamente la descrizione viene utilizzata per i primi 167 su Google Play (valore che potrebbe cambiare); • parole chiave vengono utilizzate da IOS, che sfrutta i primi 100 caratteri prendendo solamente i termini singoli (al momento plurali e singolari sono keyword differenti); • come abbiamo visto, l'icona ha un ruolo fondamentale anche per intercettare l’interesse dell’utente; • lo screenshot è importante per dare un’anteprima agli utenti di quello che sarà l’utilizzo dell’app; • la categoria è fondamentale in quanto il 64% degli utenti scarica un’app direttamente dagli app store. Non ci crederete, ma anche per il posizionamento delle app esistono i fattori ASO off page: • App ratings: la valutazione data dagli utenti all’app; • App reviews: le recensioni scritte in modo naturale dagli utenti che hanno provato e testato l’app; • totale dei download: questo influisce sulla psiche dell’utente. Più alti saranno i download della vostra applicazione, maggiore è la probabilità che altri utenti scarichino la medesima app; • Link Building: per le app di Google, il Play Store Google ha accesso agli indici di ricerca di Google. Questo significa che i link da siti web popolari e autorevoli sarà certamente di aiuto nel ranking della vostra app mobile.

NOTA Tra gli altri fattori esterni possiamo individuare ad esempio: • numero di installazioni; • numero di disintallazioni; • tempo utilizzo dell’app; • andamento dei download nel tempo. Ovviamente sono fattori del tutto indicativi che possono variare e avere un peso differente nel ranking delle APP.

Ovviamente alcune delle caratteristiche appena elencate possono adattarsi meglio o all’app store di Apple o al Play Store di Google. Prima di concludere, vogliamo elencare alcuni tool per controllare e migliorare la ASO di un’app: • Flurry: per aumentare la popolarità della vostra app; • Swrve: supporto avanzato agli sviluppatori; • App Annie: facilita il monitoraggio dei download e altre caratteristiche dell’app mobile.

Figura 6.34 - Alcuni dei principali fattori di Ranking Mobile (in continua evoluzione).

NOTA Tra gli altri tool che consigliamo per l’ottimizzazione delle APP segnaliamo: • Sensor Tower (sensortower.com) • MobileDev HQ (mobiledevhq.com) • SearchMan (searchman.com) • Apptweak (apptweak.com) • Straply (straply.com) • AppCode.es (appcodes.com) • Appstatics (appstatics.com) • MobileAction (mobileaction.co)

App Indexing Abbiamo visto come Google, ma non solo, stia puntando molto sul mobile seguendo l’andamento e l’evoluzione tecnologica. Google App Indexing è la capacità da parte di Google di indicizzare i contenuti delle app e mostrarli nei risultati di ricerca. Google App Indexing è stato lanciato nel mese di ottobre 2013 per una serie limitata di editori. Successivamente è stato ampliato nel giugno 2014; nel mese ottobre 2015 Google ha annunciato il supporto per l’indicizzazione delle app all’interno di Safari e queste funzionalità permette di offrire agli utenti il contenuto di applicazioni non installate sul dispositivo. Grazie all’avvento dell’App Index cambia anche il modo di sviluppare le app e di svolgere attività SEO su di esse; infatti potremmo modificare il codice dell’applicazione per renderlo più efficace in quanto Google ora è in grado di leggere l’intero contenuto dell’app, indicizzarlo e renderlo visibile nelle SERP.

Figura 6.35 - App Index Google vs Apple.

La App Indexing fondamentalmente può articolarsi su due binari come la SEO ovvero: • a pagamento: si può utilizzare Adwords o Bing ADS per mostrare gli annunci riferenti all’applicazione; • organica: attraverso l’ottimizzazione SEO del contenuto delle applicazioni e seguendo le direttive ASO. Infatti, con questa nuova funzionalità i motori di ricerca non leggono più solo una parte del codice dell’app come titolo e descrizione, ma sono in grado di leggere l’intero contenuto dell’applicazione e per questo motivo dovrà essere nostro compito ottimizzarlo per facilitarne il posizionamento e la visibilità. Tra le ultime novità di Google App Indexing troviamo inoltre la possibilità di provare molte app (pulsante Try now) direttamente in SERP (Google App Streaming) senza installarla per avere una visione in anteprima del suo utilizzo.

Figura 6.36 - Google App Streaming senza installazione.

NOTA Anche gli altri motori di ricerca e siti web si sono attrezzati di conseguenza infatti troviamo: • Bing App Linking: molto simile all’indexing di Google: https://msdn.microsoft.com/enus/library/dn614167.aspx; • Apple App Search & Universal Links: https://developer.apple.com/library/content/documentation/General/Conceptual/AppSear ch/UniversalLinks.html.

Figura 6.37 - App Index e Google.

Come iniziare a sfruttare questa opportunità? Google ha reso disponibile una guida disponibile al seguente url https://developers.google.com/app-indexing/. Senza entrare troppo nei dettagli tecnici che potete trovare nella guida ufficiale, vediamo gli step principali (che sono differenti in base ad app iOS o Android): • aggiornare il Manifest dell’applicazione:

includiamo le chiamate API app inde:

verificare il sito nella Search Console di sviluppo:

inserire lo snippet di markup:

Grazie a questi semplici passaggi avremo la nostra applicazione compatibile e indicizzabile da Google. I passaggi anche per le app iOS sono semplici e il consiglio è quello di utilizzare fin da subito questa grande opportunità per migliorare la visibilità delle app anche nelle SERP mobile.

NOTA Per chi volesse approfondire questo argomento oltre alla guida ufficiale di Google, al seguente link, è possibile visionare una guida completa: http://searchengine-land.com/appindexing-new-frontier-seo-google-search-deep-linking-226517.

Pop UP e Push Notification Tra le varie possibilità che abbiamo per migliorare la visibilità di un’app Google ma non solo, ci rendono possibili quelle che sono le Push notification all’interno di un sito web. Cosa sono? Sono modalità che consentono di inviare notifiche attraverso al visitatore del nostro sito

avvisandolo della possibilità di scaricare la nostra APP, ad esempio. Per iniziare a sfruttare tale tecnologia vi invitiamo a visitare: • https://developers.google.com/web/updates/2015/03/increasing-engagement-with-appinstall-banners-in-chrome-for-android • https://developers.google.com/cloud-messaging/

Figura 6.38 - Esempio di notifiche.

Conclusioni e punti salienti del capitolo In questo capitolo abbiamo appreso come la “velocità di caricamento”, sia quella prettamente tecnica sia quella percepita dagli utenti, sia un elemento fondamentale. Abbiamo visto come ottimizzare i contenuti video, PDF e come gestire Ajax e Javascritp. Proprio a questo proposito voglio dirvi come esistano numerosi framework come ad esempio backbone.js, Angular.js, jquery,node.js e molti altri. È opportuno utilizzarli in modo corretto per evitare che siti web sempre più “veloci” e intuitivi non si scontrino con le necessità dei motori di ricerca (ovvero la necessità di leggere testo e interpretare URL). Infine abbiamo analizzato il mondo mobile: qui sarà il futuro. Le ricerche mobile hanno superato quelle da desktop, le vendite da mobile stando spopolando, quindi… È ora di sfruttare queste potenzialità! Cosa ricordarsi? • Controlla le performance del tuo sito web. • Migliora e ottimizza i tempi di caricamento. • Ottimizza i PDF. • Sfrutta le AMP. • Rendi il tuo sito mobile friendly. • Rimani aggiornato sulle novità di Google e Apple in ambito APP e mobile.

“L’uomo è una creatura che non vive di solo pane, ma principalmente di slogan.” (Robert Louis Stevenson)

NOTA Il 13 Ottobre 2016, Gary Illyes ha pubblicamente annunciato che Google sta passando ad un "mobile first index". In tal modo Google dovrebbe preferire l'indice mobile a discapito di quello "desktop". Questo passaggio per i siti responsivi dovrebbe avvenire in modo indolore. Il mobile è un tema molto caldo e in questo capitolo abbiamo cercato di darvi degli spunti utili per affrontare questa nuova sfida SEO. Focalizziamoci sui concetti base: • Rimane un unico indice di Google, UNO! • Google in caso di versione mobile e versione desktop valuta la versione mobile. • Google accetta di buon grado le strutture di layout come accordion/tabbed content… i contenuti non prontamente visibili NON saranno più dequalificati. • NON toccate le combinazioni canonical-alternate.

Capitolo 7 Siti multilingua per la SEO e il SEM L’importanza dei siti multilingua Il problema della creazione di siti web multilingua è sempre più sentito dalle aziende e dai webmaster di tutto il mondo. L’internazionalizzazione ha portato molte aziende a spingersi in mercati stranieri, in cui è fondamentale una presenza online per lo specifico mercato di riferimento. Si viene, quindi, a creare la necessità di implementare versioni di siti web distinte per lingua o per nazione. Le motivazioni possono essere svariate: • creazione di strumenti di helpdesk e supporto clienti per determinate specifiche; • politiche di pricing diverse per nazioni differenti; • marketing verticale differente in base alla lingua o alla nazione: l’azienda potrebbe, infatti, decidere di attuare campagne di marketing o di promozione online diverse in territori geograficamente distanti, ma che adottano la medesima lingua; • brand aziendale che rispecchia le richieste specifiche di quel particolare settore. Tutti questi fattori dovranno prevedere azioni di Web Marketing ben definite, che vanno da scelte di comunicazione e gestione dei contenuti diversificate, alla gestione del brand aziendale e delle politiche di prezzo adattabili alle diverse realtà, fino a toccare i costi di trasporto e logistica. Un altro aspetto da non sottovalutare è l’organizzazione delle informazioni e dei contenuti lato web in modo da garantirne un’ottimizzazione per un corretto posizionamento all’interno dei motori di ricerca. Le informazioni dovranno essere, quindi, localizzate, in base alle scelte aziendali, per lingua o nazione e perciò proposte in una forma e in un contesto che risultino di interesse per il visitatore. Per tale motivo, la scelta e lo studio delle parole chiave devono essere rivisti e studiati per riflettere lo scopo del sito stesso. Utenti di diverse nazioni, ma che utilizzano la medesima lingua, potrebbero ricercare in modo dissimile lo stesso vocabolo, poiché hanno usanze e bisogni differenti. Lo studio SEO per la ricerca delle parole chiave va quindi predisposto in tale ottica. In alcuni casi, come stiamo notando, le esigenze delle aziende e del mercato in cui esse operano conducono alla necessità di creare contenuti e supporti non più distinti solamente per lingua, ma anche per nazione. La globalizzazione e la localizzazione del visitatore diventa, quindi, un punto fondamentale: un utente americano potrebbe accedere alla pagina di un determinato sito web in lingua inglese ma riferita al mercato europeo, con prezzi e brand differenti. In tal modo, l’utente potrebbe trovarsi “spaesato” e lasciare dopo poco tempo il sito web. I visitatori che accedono a un sito e trovano i contenuti nella loro lingua nazionale sono fino a quattro volte più propensi a comprare e a

dedicare del tempo a visitarne le pagine. In questo scenario sarebbe preferibile usare indirizzi IP localizzati in base alla nazione corretta, sia per migliorarne le performance, sia per rendere efficace la localizzazione del sito web stesso. Per esempio, il dominio ingegneridelweb.es dovrebbe appartenere a un provider spagnolo con relativo indirizzo IP corrispondente. Un problema molto pressante che può sorgere nel caso di un sito web multilingua, ma con differenziazione per nazioni, è quello del contenuto duplicato. Inevitabilmente, alcune schede tecniche e alcuni contenuti della stessa lingua potrebbero essere utilizzati per versioni diverse del medesimo sito web in base alla nazione. In questo caso potrebbe essere utile apportare piccole modifiche al contenuto e variare il titolo originale delle pagine ed eventualmente alcune keyword di riferimento. Tutti questi problemi richiedono una grande attenzione sia dal lato marketing, sia per quanto concerne aspetti SEO e di miglioramento del posizionamento. Esistono altresì differenze nella psicologia dei diversi popoli che portano alla necessità di avere non solo pagine e strutture diverse, ma anche strategie SEO adattabili al contesto. Per esempio, un buon titolo (title di pagina) per gli utenti italiani potrebbe essere un disastro per quelli russi. Se poi andiamo nel dettaglio, possiamo incontrare casi particolari, come le nazioni multilingua. Prendiamo l’esempio della Spagna, Paese in cui le lingue ufficiali riconosciute sono quattro: spagnolo, catalano, galiziano e basco. Se fossimo un’azienda spagnola e volessimo comunicare e avere visibilità in maniera ottimale in Catalogna, potremmo registrare il dominio miodominio.cat, oltre a miodominio.es, pubblicando i contenuti opportunamente contestualizzati nella lingua del dominio o utilizzando i terzi livelli per ogni versione linguistica nazionale. Tutti questi fattori ci portano a pensare come l’influenza della lingua e della nazionalità rappresenti un aspetto fondamentale e sempre più presente anche all’interno dei motori di ricerca. Basti pensare alle query di ricerca all’interno di Google fatte in lingue diverse dall’inglese: esse risultavano essere solamente il 30% nel 2002, mentre oggi sono oltre il 50% (dall’analisi di Google Trends). Questo ci fa capire l’importanza di geolocalizzare! Da una recente analisi statistica (fonte: dynamical.biz) dei comportamenti degli utenti europei, è emerso come gli acquirenti online preferiscano “riempire i loro carrelli virtuali” in fasce diverse della giornata: • l’utente spagnolo tra le 12 e le 13; • gli utenti tedeschi e italiani tra le 14 e le 16; • l’utente danese tra le 17 e le 18; • l’utente francese tra le 18 e le 22; • l’utente inglese intorno alle 20; • l’utente svedese intorno alle 21. Dobbiamo anche notare (come precedentemente accennato) come un contesto nazionale possa influenzare la nostra strategia di comunicazione. Per esempio, negli Stati europei del Mediterraneo, Internet è sempre più usata come fattore di comunicazione, di scambio e social network; nei Paesi nordici si fa invece affidamento su Internet per un utilizzo più pragmatico e per scopi funzionali. Riguardo ai siti multilingua e al loro posizionamento, potrebbe essere scritto un trattato di centinaia di pagine, ma, come ben sappiamo, i motori di ricerca sono in rapida evoluzione e in questo campo le varie tattiche attuate potrebbero essere suscettibili di

cambiamenti radicali nel prossimo futuro. Le politiche SEO da adottare vanno quindi studiate e commisurate prestando molta attenzione a tutti i fattori appena illustrati.

TLD, sottodomini o cartelle? Nei diversi progetti di promozione che coinvolgono siti web multilingua, ci si scontra spesso con il dilemma di dover posizionare e gestire ciascuna versione linguistica. Le soluzioni da adottare sono tipicamente tre: • utilizzare TLD diversi: un esempio è Amazon, che ha registrato www.amazon.com, www.amazon.fr (stessa strategia intrapresa anche dal colosso Google); • utilizzare domini di terzo livello (o sottodomini): Wikipedia utilizza questa tecnica per scindere le stesse lingue di Paesi diversi, per esempio en.wikipedia.org o it.wikipedia.org; • sfruttare le cartelle o directory: questa è la strada adottata da Apple; troviamo infatti registrati i domini www.apple.com/fr/, www.apple.com/it/.

Figura 7.1 - Come strutturare un sito multilingua.

NOTA Potete trovare un interessante articolo di approfondimento a questo indirizzo: http://www.mattcutts.com/blog/subdomains-and-subdirectories/

Utilizzare TLD differenti per gestire la diversificazione delle utenze in base alla nazione e alla

lingua è una strategia che consigliamo per siti di grosse dimensioni. Comporta, infatti, un grande dispendio di risorse e accorgimenti tecnici. Questo perché sia i cookie, sia le session, strumenti mediante i quali è possibile mantenere in memoria alcune informazioni dei visitatori, sono strettamente legati a un singolo dominio. Ai fini della sicurezza e della privacy, i browser non trasmettono i cookie da un dominio diverso da quello che li ha impostati.

NOTA La gestione di un account su più domini diventa quindi più difficile rispetto a una soluzione unificata all’interno di un unico dominio.

Per evitare questi ostacoli, è necessario optare per accorgimenti tecnici di progettazione e sviluppo atti a garantire il single sign-on se vi è la necessità di una gestione delle autenticazioni unificate per più domini. Il problema si avverte anche in caso di preesistenza dei dati, cioè quando si vogliono memorizzare i dati in una banca dati unica. Serviranno, quindi, un sistema centralizzato e opportuni accorgimenti tecnici e di sviluppo (per esempio, webservice) per gestire tali problematiche. Il tutto si traduce in un aumento della complessità totale della struttura e dei costi di implementazione, che solo grosse aziende, in base al loro target di mercato, sono disposte a sostenere.

NOTA Utilizzando un dominio unico, si ha il vantaggio di concentrare e sfruttare tutti i benefici dei fattori off page.

Riepilogando: i Top Level Domain sono utili per gestire siti multilingua organizzando i contenuti geografici di nazioni differenti: • miosito.com per gli Stati Uniti; • miosito.fr per la Francia; • miosito.de per la Germania; • miosito.it per l’Italia. Vantaggi: • ogni sito è a sé stante ed è facile impostare parametri quali lingua, valuta, disponibilità di prodotti, e definire, per esempio, i costi di trasporto; • sono identificativi di uno specifico mercato di riferimento; • attraverso gli strumenti a disposizione degli esperti SEO sono facilmente monitorabili; • se registrati su hosting nazionali, si potrebbero avere miglioramenti di velocità e di prestazioni (per esempio: sito spagnolo se hostato su un provider spagnolo);

facilmente indicizzabili e contestualizzabili dai motori di ricerca.

Svantaggi: • se una lingua è parlata in diversi Paesi, i link in entrata potrebbero essere distribuiti su più domini; • se più lingue sono utilizzate in un Paese, queste dovranno essere gestite utilizzando sottodomini o cartelle; • risulta costoso avere diversi domini; • sono richieste competenze e risorse tecniche specifiche; • sono complicati da gestire e da coordinare. Quando è consigliabile utilizzare un sottodominio (o dominio di terzo livello)? Un sottodominio potrebbe rivelarsi come una potente tecnica per ospitare un blog o un altro microsito con un tema di business completamente diverso dal nodo padre. Google considera i sottodomini come entità logiche del tutto separate dal dominio padre: seo.tuosito.com è trattato in modo differente dai motori di ricerca rispetto a tuosito.com. Generalmente, i sottodomini vengono utilizzati in modo da separare contenuti o aree tematiche differenti: se il nostro sito tratta temi specifici a volte non interconnessi tra loro, l’utilizzo di sottodomini sarebbe la tecnica migliore per organizzare i contenuti. Per esempio, Google ha il proprio prodotto per le news (news.google.com) e per la gestione delle mappe (maps.google.com) e, poiché essi sono fondamentalmente diversi, vengono organizzati in sottodomini separati. Per tale motivo, è da tenere ben presente come ciascun dominio di terzo livello sia visto come un’entità a sé stante rispetto al motore di ricerca: avrà, pertanto, un trust, un’anzianità e una link popularity differenti.

NOTA Abbiamo affermato che, secondo Google, un sottodominio vive di vita propria, ma se un sottodominio è bannato, lo diventa anche quello principale? In alcuni casi sì. Se è linkato al dominio principale, potranno essere penalizzati entrambi. Vi sono stati casi in cui una penalizzazione di un sottodominio si è estesa al dominio principale, e altri, invece, in cui questo non si è verificato. Però, se il dominio principale viene bannato da Google, ed esso presenta collegamenti con i sottodomini, anche questi ultimi verranno molto probabilmente penalizzati.

Per quanto concerne l’aspetto SEO, si è vista una notevole proliferazione di domini di terzo livello costruiti con il solo scopo di migliorarne l’indicizzazione in base a opportune keyword. In merito non esistono particolari controindicazioni o penalizzazioni; se è fatta in maniera scrupolosa, l’attività di organizzazione in terzi livelli può dare buoni risultati. Riepilogando: i sottodomini sono considerati dai motori di ricerca come entità “apparentemente” diverse rispetto al dominio principale. Non ereditano il posizionamento del dominio di

appartenenza, ma scelte errate possono influire più o meno direttamente sul dominio principale. Per gestire siti con lingue diverse, possiamo strutturare i domini, per esempio, in questo modo: • es.miosito.com • it.miosito.com Potrebbe essere necessario avere più suddivisioni, con l’uso di sottocartelle in caso di gestione di situazioni particolari, come, per esempio, Paesi in cui si parlano più lingue o Stati diversi che parlano la stessa lingua.

NOTA Google ha ottimizzato il suo algoritmo di posizionamento in modo da escludere sottodomini creati unicamente per aumentare la posizione nella SERP.

Vantaggi: • possibilità di strutturare keyword per rafforzare il nome del dominio (per esempio, seo.ingegneridelweb.com); • essendo entità a sé stanti, sono facilmente monitorabili. Svantaggi: • generano un segnale URL debole rispetto ai risultati di ricerca di primo livello; • la configurazione di impostazioni personalizzabili, come la valuta o la nazionalità, potrebbe richiedere maggiori dettagli e approfondimenti tecnici. Sottocartella o sottodominio: qual è la scelta migliore dal punto di vista SEO? La sottocartella può essere utilizzata per gestire e organizzare contenuti.

NOTA Useremo i termini cartelle, sottocartelle o directory per identificare una particolare struttura ad albero per la gestione di un sito web strutturata in questo modo: miosito.com/cartella/

A differenza di un sottodominio, che ha una vita e una gestione del posizionamento a sé stanti, le directory possono avere un impatto positivo o negativo sulla classifica SEO del sito principale. Se, per esempio, utilizziamo testo duplicato all’interno delle nostre sottocartelle, la penalizzazione si riflette in modo automatico verso il sito principale. È quindi necessario prestare attenzione durante l’utilizzo di sottocartelle.

Riepilogando: l’utilizzo di una sottocartella (sottodirectory, directory o folder) è un’operazione tecnicamente semplice e indolore a livello della struttura architetturale di un sito web. Potremmo, infatti, organizzare i contenuti per lingua utilizzando questa struttura: • miosito.com/it/ per l’Italia; • miosito.com/fr/ per la Francia; • miosito.com/de/ per la Germania. Nei casi particolari in cui una stessa lingua può essere parlata da più nazioni, l’organizzazione delle cartelle potrebbe assumere la seguente forma: • miosito.com/es/ per la Spagna; • miosito.com/es-ar/ per l’Argentina; • miosito.com/es-mx/ per il Messico. Un’altra situazione che potrebbe verificarsi è quella di una stessa nazione che utilizza lingue diverse (come la Svizzera o la Spagna). La nostra struttura a cartelle potrebbe diventare così: • miosito.com/es/ spagnolo; • miosito.com/es-ca/ catalano.

NOTA È importante, nella nomenclatura delle sottodirectory, utilizzare ISO 639-1 con codici di due lettere; per esempio, è corretto utilizzare /it/, mentre non è appropriato utilizzare /ita/ o /Italia/.

Vantaggi: • nessun costo di registrazione; • possibilità di aggregazione di link: tutti i backlink vanno allo stesso dominio; • facilità di gestione e di implementazione. Svantaggi: • la targeting geolocation può essere considerata ambigua (su uno stesso dominio abbiamo più lingue); • potrebbe essere necessaria una suddivisione ulteriore per nazionalità; • può risultare difficile tenere traccia delle statistiche all’interno delle directory per più lingue; • modifiche in negativo o in positivo influenzano l’intero dominio. Per un sito multilingua è meglio utilizzare sottocartelle o domini di terzo livello? Questa è una delle questioni più dibattute in ambito SEO. È bene precisare che entrambe le soluzione sono corrette e ben contemplate dai motori di ricerca; non esiste una soluzione migliore

in assoluto, perché vanno presi in considerazione aspetti di marketing, brand aziendale e fattori variabili, quali politiche di pricing dei prodotti o sinergie tra le diverse sezioni del sito. Cercheremo, però, di mostrare un interessante esempio di posizionamento in base alla lingua relativo a un colosso mondiale, Microsoft: • andiamo su google.it (Italia) e ricerchiamo la parola chiave “Microsoft”: noteremo che, come primo risultato, compare www.microsoft.com/it-it/; • ora posizioniamoci su google.fr (Francia) e ricerchiamo la parola chiave “Microsoft”: noteremo che, come primo risultato, compare www.microsoft.com/fr-fr/; • analogamente, accediamo a Google.de (Germania) e ricerchiamo la parola chiave “Microsoft”; noteremo che, come primo risultato, compare www.microsoft.com/de-de/. Possiamo, quindi, osservare come i principali motori di ricerca riescano facilmente a interpretare le cartelle come suddivisioni logiche di sezioni multilingua di uno specifico sito web.

NOTA Gli strumenti per i webmaster di Google consentono ora di organizzare e gestire le preferenze di geolocalizzazione per le sottodirectory.

In conclusione di questo semplice esperimento, possiamo affermare che è possibile utilizzare sottocartelle in ambito SEO, senza che vi siano effetti negativi. I motori di ricerca saranno in grado di distinguere le varie sezioni linguistiche presenti all’interno dello stesso dominio. Se, invece, abbiamo esigenze specifiche per la gestione di siti web multilingua, allora è possibile ospitare i nostri siti su diversi domini. Per esempio, potrebbe essere utile avere per la Germania il dominio miosito.de o miosito.it per l’Italia. È altresì possibile, come si è anticipato, creare sottodomini per i siti in lingua diversa, per esempio de.miosito.com o it.miosito.com. Tipicamente, la scelta dell’utilizzo di sottodomini per la gestione linguistica di un sito è più incline alle preferenze delle imprese e delle aziende, piuttosto che all’ottimizzazione da un punto di vista SEO. Dovrete essere voi stessi a decidere se scegliere l’utilizzo di un sottodominio o di una sottocartella. Utilizzando una struttura a sottocartelle, risparmierete sicuramente molto tempo. Tuttavia, qualsiasi attività eseguita sulla vostra sottocartella potrà avere impatti positivi o negativi sulle graduatorie del motore di ricerca. Pertanto, è necessario analizzare i diversi scenari a disposizione prima di effettuare la propria scelta.

NOTA È anche possibile specificare la lingua di una determinata pagina attraverso i parametri URL. Google, in alcuni casi, fa uso di tale tecnica, per esempio viene usata la sintassi hl= per cambiare la lingua di una pagina. Anche Bing permette agli utenti di cambiare il Paese e la lingua attraverso un apposito menu sfruttando i parametri URL. A nostro avviso, tale tecnica non è consigliabile, soprattutto se un sito è alla ricerca di traffico proveniente dai motori di ricerca, in quanto gli URL complessi non sono graditi né dai motori di ricerca né dagli utenti finali.

Figura 7.2 - Google: pregi e difetti delle tecniche da utilizzare per i siti multilingua.

NOTA Per ulteriori approfondimenti: http://tinyurl.com/siti-multilingua

Esempi pratici per i siti multilingua Cercheremo di mostrare esempi pratici per gestire correttamente siti multilingua ottimizzando gli aspetti SEO di questo interessante scenario.

Content language È corretto utilizzare il content language con l’indicazione del Paese di riferimento:

anche se sarebbe più corretto inserire il seguente tag:

accompagnato dalla dichiarazione del Content Type all’interno della per specificare, per esempio, la codifica ISO-8859-1:

NOTA Gli header HTTP (Content-Language) e gli attributi dei tag HTML (lang) sono nati con lo scopo di specificare la lingua di un documento web. I motori di ricerca li utilizzano poco, dato che si devono appoggiare a strumenti linguistici più sofisticati, come l’analisi n-gramma, per capire il linguaggio umano dei contenuti web.

Gestione caratteri speciali Durante la realizzazione di siti multilingua è possibile incappare in problemi nell’utilizzo di caratteri speciali (come alfabeti cirillici, lettere accentate). Per evitare problemi di visualizzazione, è necessario impostare il charset corretto. Per esempio, per le pagine contenenti caratteri cirillici deve essere specificata la codifica, a scelta tra: windows-1251, KOI8-R, ISO 8859-1 o UTF-8 (unicode). Nel caso che il russo risulti l’unica lingua utilizzata per l’intero sito web, è consigliabile scegliere il charset windows-1251 (il più diffuso). Se vi sono pagine che utilizzano la lingua russa insieme a pagine in italiano o in inglese, è preferibile utilizzare UTF-8. Nel caso il sito sia in lingua cinese, il charset più utilizzato risulta GB2312, come mostrato nel seguente listato di codice:

NOTA Il charset=GB2312 corrisponde al cinese semplificato, mentre il charset=big5 corrisponde al cinese tradizionale.

I charset più utilizzati risultano essere i seguenti: • charset = gb2312 cinese semplificato; • charset = big5 cinese tradizionale; • charset = EUC_KR coreano; • charset = Shift_JIS o EUC_JP giapponese; • charset = KOI8-R o Windows-1251 russo; • charset = iso-8859-1 est Europa; • charset = iso-8859-2 Europa centrale; • charset = iso-8859-5 lingue slave (Bulgaria, Bielorussia, Macedonia, Serbia ecc.); • charset = uft-8 unicode multilanguage.

Redirect in base alla lingua Solitamente molti siti propongono nella loro home page la selezione della lingua, ma si sa che la pigrizia degli utenti del web è notevole, quindi è sempre meglio far risparmiare loro qualche clic. Ecco, allora, che un rilevamento automatico della lingua e della nazione con relativo redirect è una soluzione più user friendly. Ovviamente, tale modo di operare deve essere portato avanti tenendo presenti diversi fattori: • dev’essere concessa all’utente la possibilità di scegliere la lingua desiderata anche se viene reindirizzato in base alle impostazioni della lingua del browser; • lo spider potrebbe non gradire redirect automatici e penalizzare il sito; • lo spider, utilizzando una lingua diversa, potrebbe non indicizzare correttamente tutte le pagine del sito web; • non impedire all’utente l’accesso a contenuti in lingua diversa.

Gestione delle traduzioni Molti siti utilizzano Google Translate o strumenti analoghi per tradurre in realtime i loro contenuti: una soluzione economica che può essere utilizzata per i blog o per comunità free. Non commettiamo l’errore di far tradurre a strumenti automatici siti web istituzionali o aziendali. Oltre a fare una pessima figura con i clienti esteri, non saremo correttamente indicizzati (in base alla lingua) dai motori di ricerca. Le traduzioni del nostro sito web devono essere accurate e fatte in modo tale da rispondere alle esigenze dei visitatori. Esistono, inoltre, situazioni particolari in cui uno stesso concetto (o vocabolo) può essere espresso con parole diverse in Paesi che utilizzano la medesima lingua. Per esempio: la parola “all’ingrosso” può essere tradotta in spagnolo in modo differente: • catalano/spagnolo: venta al por mayor; • argentino: venta mayorista; • messicano: mayoreo. Questo ci fa comprendere l’importanza di una corretta traduzione dei contenuti del nostro sito web, in base al targeting degli utenti, alla lingua e alla nazionalità.

Gestione della duplicazione dei contenuti È noto come non sia una buona norma mischiare contenuti di lingue diverse all’interno della medesima pagina. Come abbiamo già accennato in precedenza, è importante gestire in modo corretto i contenuti tradotti per diverse lingue e nazioni onde evitare spiacevoli penalizzazioni da parte dei motori di ricerca. La penalizzazione derivante dalla duplicazione di contenuti consiste nel fatto che Google (così come altri motori di ricerca) potrebbe indicizzare solo una parte delle pagine aventi il contenuto replicato. Ciò potrebbe capitare per la descrizione di un prodotto nella stessa lingua, ma presente su pagine realizzate per nazionalità differenti. In altri casi, questo potrebbe essere non rilevante e i motori di ricerca indicizzeranno correttamente le pagine che riterranno rilevanti, anche se presentano contenuti in parte duplicati. Il nostro consiglio è quello di cercare di prestare attenzione e di fornire contenuti idonei e magari leggermente differenti per nazione.

Sitemap per siti multilingua Per quanto concerne la Sitemap, meglio utilizzarne una o più per multilingua? Sicuramente, per istruire i motori di ricerca in modo idoneo, è un’ottima soluzione avere Sitemap separate per lingua o nazionalità del sito web multilingua, come mostra la Figura 7.3.

Figura 7.3 - Esempio di Sitemap multilingua.

rel=”alternate” hreflang=”x” Google ci permette di sfruttare i tag rel=”alternate” hreflang=”x” in contesti multilingua in modo da visualizzare la lingua corretta o l’URL locale per gli utenti che effettuano specifiche ricerche. In quali contesti possiamo sfruttare questi tag? Google ce lo dice chiaramente.

in scenari in cui viene tradotto soltanto il modello della pagina, ad esempio la barra di navigazione e il piè di pagina, e vengono mantenuti i contenuti principali in una sola lingua. Si tratta di una soluzione comune per le pagine con contenuti generati dagli utenti, ad esempio un post di un forum; in situazioni in cui le pagine hanno contenuti molto simili in un’unica lingua, ma con piccole varianti locali. Ad esempio, dei contenuti in inglese destinati ai lettori di Stati Uniti, Gran Bretagna e Irlanda; in siti web i cui contenuti sono completamente tradotti. Ad esempio, per ogni pagina vi sono sia la versione in tedesco sia quella in inglese.

Supponiamo, quindi, che la società TravelINC fornisca contenuti rivolti a utenti negli Stati Uniti, in Gran Bretagna e in Germania. Gli URL seguenti hanno sostanzialmente gli stessi contenuti, ma con varianti locali: • http://www.travelinc.com/: home page in lingua inglese. Contiene informazioni sui costi delle spedizioni internazionali che partono dagli Stati Uniti; • http://en-us.travelinc.com/: in lingua inglese; i prezzi vengono indicati in dollari americani; • http://de.travelinc.com/: versione dei contenuti in tedesco. In questo contesto possiamo sfruttare il tag “alternate”, inserendolo in ogni pagina indicata nella sezione HEAD, come mostrato di seguito:

Esiste un tool semplice ma efficace nella generazione di questi tag: http://www.internationalseomap.com/hreflang-tags-generator/. Può aiutarvi nel supporto per la creazione dei tag linguistici con hrflang. Dal maggio 2012 Google ha semplificato il contesto, dando la possibilità di inserire tali tag direttamente nella sitemap.xml; la struttura, nell’esempio preso in analisi, sarà la seguente:

NOTA Ricordiamo che è possibile utilizzare hreflang anche nelle intestazioni HTTP (ad esempio possiamo sfruttarle nel caso di PDF): Maggiori dettagli sono presenti su http://tinyurl.com/google-alternate. Gli URL negli hreflang devono essere ovviamente quelli canonici, altrimenti il tag hreflang potrebbe essere ignorato da Google e da altri motori di ricerca.

Infine, il valore “x-default” è riservato viene utilizzato per indicare i selettori/reindirizzatori non sono specifici di una lingua o di un’area geografica, ad esempio se l’homepage fa un redirect automatico in base alla lingua del browser. Ecco un esempio del suo utilizzo:

Per verificare di aver eseguito le operazioni in modo corretto, possiamo verificare il tutto nella Search Console di Google.

Figura 7.4 - Esempio di Sitemap multilingua.

Link earning per siti multilingua Per la SEO i link in entrata sono uno degli elementi fondamentali per migliorare il posizionamento di un sito web. Per tale motivo, bisogna investire sforzi e risorse per gestire opportunamente i link all’interno di progetti multilingua. Anche attività di link popularity focalizzate per nazione svolgono un ruolo fondamentale. Risulta opportuno applicare tecniche di ottimizzazione off page mirate ma equilibrate per le varie versioni multilingua del sito web: • nel caso si utilizzino le cartelle, la campagna di link earning è facilmente gestibile. È possibile ottenere link direttamente alla nostra home page, oppure disporli all’interno di pagine interne per migliorarne la classifica; • quando si utilizzano sottodomini o domini, è vivamente sconsigliato implementare campagne separate per la costruzione di link. È necessario garantire che i sottodomini o i domini ricevano un numero sufficiente di collegamenti da parte di domini esterni al fine di velocizzare l’indicizzazione e aumentare il loro PageRank. Inoltre, nel caso di sottodomini, è opportuno assicurarsi che il nodo figlio sia collegato al nodo padre. Infine, quando si dispone di più domini, è opportuno accertarsi di avere collegamenti trasversali.

NOTA Ribadiamo che qualsiasi attività di link earning deve essere messa in atto al fine di ottenere link naturali e non artificiali. Anche per il SEO multilingua, dopo gli ultimi aggiornamenti di Google Penguin, è fondamentale ottenere link in ingresso con anchor text pulite (a nome di dominio o di brand), magari suddivise per nazionalità. Google vuole che i link siano naturali e spontanei, ma questo lo abbiamo già ribadito più e più volte!

Un’altra tecnica molto utile per l’indicizzazione delle pagine nelle diverse lingue è il crosslinking, ovvero l’inserimento di link in una pagina che punta ad altre pagine aventi il medesimo contenuto, ma in lingua diversa. Gli utenti che giungono su una pagina a loro non gradita sono in

grado di cambiare lingua. I motori di ricerca saranno facilitati, con questo stratagemma, a seguire i link, quindi ci sarà maggiore probabilità che indicizzino tutti i contenuti nelle varie lingue.

Targeting geografico È possibile sfruttare lo strumento di targeting geografico (nella Search Console di Google) per indicare a Google che il nostro sito è rivolto a un Paese specifico. Questo strumento va utilizzato solamente se il nostro sito ha un dominio di primo livello generico gTLD (generic Top-Level Domain). Non va usato se il nostro sito è rivolto a Paesi diversi. Per esempio, sarebbe sensato impostare l’Italia come target per un sito sui ristoranti di Genova, ma non avrebbe senso impostare lo stesso target per un sito rivolto a persone di lingua francese in Francia, Italia e Germania.

Geo Targeting con IP e redirect Oggi molti siti si specializzano nel fornire contenuti localizzati: l’utente di nazioni differenti visualizzerà versioni di contenuti ad hoc. Per migliorare l’esperienza degli utenti, sta diventando una prassi comune indirizzare i visitatori verso un contenuto più appropriato in base alla posizione fisica dell’utente. Ci sono diversi modi per determinare la posizione di un utente, ma quello più diffuso è l’utilizzo dell’indirizzo IP dell’utente avendo a disposizione un database aggiornato delle locazioni degli IP.

NOTA Questa tecnica può essere rischiosa se non si hanno strumenti aggiornati o se si utilizzano localizzazioni approssimative. Per siti di medie dimensioni è consigliabile l’utilizzo dell’identificazione della lingua del browser web dell’utente.

Vale la pena di notare che gli indirizzi IP non sono perfetti al 100% per determinare la “posizione esatta di una persona”: essi, infatti, dipendono dall’Internet Service Provider (ISP) e con l’utilizzo di alcune tecniche, come i proxy, possono essere facilmente manipolati. Tuttavia, il rilevamento IP dovrebbe essere utilizzato solo per i nuovi visitatori, memorizzando le informazioni dell’utente. È altresì importante dare la possibilità all’utente di aggiornare il proprio target geografico.

Il target per IP è SEO friendly? Da un punto di vista SEO, si tratta di un tema molto caldo: le principali preoccupazioni scaturiscono dal fatto che i crawler dei motori di ricerca potrebbero essere reindirizzati in modo errato in base al loro IP. Ciò potrebbe accadere perché i motori di ricerca non sono ospitati con indirizzi IP da tutti i Paesi e si corre il rischio di non indicizzare correttamente i contenuti. Ecco

perché questa tecnica va usata con molta cautela e non è molto apprezzata in ambito SEO.

Il reindirizzamento dei motori di ricerca utilizzando uno user agent Una tecnica per evitare che i crawler dei motori di ricerca vengano reindirizzati a una certa area del sito è l’utilizzo di uno User Agent Detection. Uno spider, quando visita il sito web, è identificabile attraverso il suo nome, per esempio Googlebot, MSNBot o Slurp. Dunque, l’individuazione di un motore di ricerca tramite il suo user agent è utile al fine di prevenire la localizzazione tramite IP. Purtroppo, non è così facile: i motori di ricerca definiscono questa tecnica, in determinate occasioni, con il nome cloaking e potrebbero considerarla come spam e bloccare il nostro sito web. Ogni volta che un sito mostra ai visitatori contenuti diversi sulla base di una variabile (per esempio, contenuti diversi mostrati a visitatori e a spider dei motori di ricerca), si corre il rischio di essere penalizzati dai motori di ricerca per cloaking. Il cloaking è in genere una tecnica SEO Black Hat e rappresenta una violazione delle linee guida di Google per i webmaster. Per evitare tali sanzioni, Google propone alcune soluzioni: • non autotradurre in modo automatico i contenuti in base all’IP; • fornire a Googlebot lo stesso contenuto che un utente vedrebbe visitando il sito; • creare URL separati per contenuti differenti. Se sottodomini o sottocartelle sono utilizzati nella struttura del sito, impiegare gli strumenti per i webmaster per impostare la località preferita.

Redirect in base alla lingua del browser? Una tecnica alternativa, anch’essa molto discutibile, è il redirect in base alla lingua del browser. Questo vuol dire che, se un utente inglese entra nel sito, gli verranno mostrati i contenuti in lingua inglese, a uno spagnolo quelli in lingua spagnola e via dicendo. Di per sé, ciò sembra non avere ripercussioni, ma, come abbiamo già accennato, è necessario prestare attenzione e utilizzare questa tecnica con molta cautela. Gli spider potrebbero essere rimandati a sezioni specifiche di un sito web, non riuscendo a indicizzare correttamente i contenuti delle altre lingue. Per questo motivo, è necessario collegare opportunamente le varie versioni in lingua del sito e concedere all’utente la possibilità di variare in qualsiasi istante la lingua a disposizione. Si potrebbe anche incorrere nel rischio che i motori di ricerca interpretino come Doorway Page tale tecnica, penalizzando l’intero sito web. Il nostro consiglio è quello di applicare queste tecniche solamente se si è realmente sicuri delle azioni tecniche da mettere in atto. Per effettuare quanto illustrato, è possibile utilizzare script JavaScript, php, asp.net, così come altri linguaggi di programmazione. Per esempio, in PHP il seguente sorgente indirizza il visitatore in base alla lingua del browser verso pagine specifiche:

Per quanto concerne asp.net, un metodo da noi testato e che sembra funzionare bene risulta quello di rimandare il visitatore a sezioni in lingua del sito con un redirect 302, mantenendo comunque collegate le diverse versioni attraverso opportuni link. Dopo un mese dall’utilizzo di questa tecnica, abbiamo notato come Google e i principali motori di ricerca riescano a indicizzare correttamente tutte le pagine del sito web:

Google ha ribadito che il redirect in questa situazione dovrebbe essere un 302 e andrebbe specificato, come abbiamo visto, nell’hreflang l’attributo x-default. Quelli esaminati finora sono metodi molto delicati, che, se non usati correttamente, possono generare penalizzazioni da parte dei motori di ricerca. Se ritenete opportuno applicarli, il nostro suggerimento è quello di seguire gli spunti forniti in questo capitolo e di mettere in atto tutti gli accorgimenti per ottenere i risultati desiderati.

NOTA Qui troverete ulteriori informazioni sulle linee guida di Google per i siti multilingua: http://bit.ly/seo-multilingua

Conclusioni e punti salienti del capitolo In questo capitolo abbiamo analizzato le principali accortezze che dobbiamo tenere in considerazione quando implementiamo un sito web multilingua o un progetto internazionale. Cosa ricordarsi? • Non registriamo un dominio .it per poi sviluppare su di esso anche la versione inglese ad esempio www.pippo.it/en. • Sfruttiamo e implementiamo correttamente hreflang. • Personalizziamo le pagine di atterraggio degli utenti in base alla lingua e alla cultura del loro Paese. • Prestiamo attenzione, se siamo un e-commerce, alla corretta localizzazione della moneta in uso. • Non esiste solo Google come motore di ricerca, sfruttiamo anche gli altri search engine come Baidu o Yandex se il nostro obbiettivo è aumentare la visibilità nei Paesi in cui sono usati. Detto questo, prima di concludere, voglio mostrarvi qualche tips e accortezza da tenere in considerazione nell’implementazione SEO per progetti internazionali. • Per prima cosa ricordati di avere un tag di ritorno negli hreflang. • Non effettuare redirect strani che potrebbero ingannare o bloccare il crawler. • Specifica sempre la lingua di destinazione e offri all’utente la possibilità di cambiarla. • Personalizza i menù e le immagini in base alla nazione e cultura specifica. La seguente immagine mostra una corretta configurazione da prendere come spunto per progetti SEO internazionali.

Figura 7.5 - Esempi di tag html per gestire correttamente siti multilingua lato SEO.

“Quando fai marketing, non aver paura di essere creativo e di sperimentare.” (Mike Volpe) CMO – Hubspot

Capitolo 8 Copywriting e tecniche di persuasione sul web Quando ci si accinge a scrivere sul web, non bisogna seguire le stesse modalità adottate nella redazione di un testo su carta: sul computer, infatti, a differenza di un libro, ciò che si interpone tra gli occhi del lettore e i caratteri battuti sul foglio elettronico è lo schermo, che, a causa della luminosità e degli effetti di luce, può rendere la lettura non piacevole e talvolta fastidiosa. Inoltre, diversamente da un manuale o da un articolo cartaceo, il visitatore, sul web, tende a effettuare una lettura molto rapida, saltando vocaboli o righe e focalizzando l’attenzione su parole che egli ritiene utili o curiose per i suoi fini di ricerca. Lo scrittore web attento deve pertanto tenere in considerazione questi fattori come premesse, come punti fermi per poi adottare uno stile di scrittura che conferisca vantaggi (di tempo, di precisione delle informazioni, di chiarezza, di semplicità, di completezza) al suo interlocutore, ma anche a se stesso, soprattutto nel caso di un’impresa che presenta la propria mission e i propri prodotti, facendo del sito web aziendale il punto di forza per attirare nuovi clienti e fidelizzare quelli esistenti. Risulta allora fondamentale, per l’autore, conoscere e applicare quelle che potrebbero essere definite delle vere e proprie regole di scrittura sul web, o, se si preferisce evitare il termine “regole” (che può creare una sensazione negativa di costrizione e forzatura), degli accorgimenti pratici vivamente consigliati a chiunque decida di inserire contenuti di carattere informativo sul web. Tali indicazioni sono fornite dal SEO Copywriting, vale a dire uno strumento assolutamente valido ed efficace che ingloba tecniche e direttive di scrittura sul web: SEO, anteposto al vocabolo Copywriting, oltre a designare il concetto di Search Engine Optimization, vuole evidenziare la possibilità, se si seguono le indicazioni impartite, di ottimizzare i contenuti, i testi, le immagini, i file che si vogliono pubblicare su Internet, attraverso l’inserimento delle keyword. Tutto ciò contribuisce alla logica SEO: la conseguenza immediata dell’adozione di un sistema di scrittura efficace e persuasivo, che evidenzia le parole chiave e offre al lettore risposte immediate, è sicuramente il miglioramento del posizionamento del proprio sito web. In questo capitolo sono quindi descritte quelle regole di scrittura cui si è accennato poco prima, che si auspica il lettore di questo libro consideri come paradigma di riferimento, d’ora in poi, per i suoi scritti sul web.

Prima di scrivere: a cosa prestare attenzione Prima di dare forma alle idee che si hanno nella mente, è fondamentale domandarsi a chi è

indirizzato il messaggio, quale intenzione o argomento si vuole presentare, in quale modalità si desidera esporre le argomentazioni; detto in altri termini, è utile porsi le domande seguenti.

Chi è il destinatario del mio messaggio? Bisogna identificare il target/pubblico a cui ci si rivolge, considerando il sesso, l’età, il livello di cultura e formazione, la categoria professionale, tanto per citare alcuni fattori salienti.

Che cosa voglio scrivere? È opportuno avere ben chiaro nella mente l’oggetto preciso del messaggio, così da poter scrivere informazioni utili e interessanti per il lettore ed evitare di dilungarsi in ambiti non inerenti al tema, che potrebbero annoiare e distrarre il pubblico. Di conseguenza, la domanda successiva sorge spontanea.

Perché scrivo riguardo a una determinata tematica? Quale scopo/fine voglio conseguire? Rispondendo a tale domanda, si ha l’opportunità di colpire maggiormente il lettore indirizzandolo verso aspetti dell’argomentazione che si vuole siano oggetto di attenzione: per esempio, essendo consapevoli che lo scopo che ci si è prefissati è la promozione sul web di prodotti aziendali, si sa a priori che il messaggio dovrà vertere su una descrizione accurata delle caratteristiche e delle potenzialità della merce, avvalendosi di un linguaggio chiaro e diretto al cliente.

Come posso scrivere il messaggio nel modo più efficace possibile? Il “come” raggruppa, in un certo senso, le informazioni che possono scaturire rispondendo alle domande precedenti: si tratta di redigere le proprie argomentazioni in uno stile efficace e semplice, che bandisca “giri di parole” e frasi lunghe e ripetitive. Ciò che conta, infatti, è l’incisività dell’esposizione: per avere successo è fondamentale essere concisi, procedere con ordine (punto per punto), scrivere il necessario in modo sintetico ma esaustivo.

L’impostazione dei contenuti Il titolo Il primo aspetto cui dedica attenzione il lettore è sicuramente il titolo: per questo motivo, è importante che esso sia corto, semplice e conciso, ovvero che contenga tutte le informazioni che il lettore si aspetta di leggere, ma anche intrigante, cioè capace di destare interesse. In particolare, per ottenere tale effetto, è consigliabile redigere il titolo scegliendo tra le modalità sotto descritte:

la forma interrogativa: usando un’interrogazione come titolo, si attrae maggiormente chi legge, proprio perché questi è invogliato a trovare la risposta alla domanda. Seguendo tale indicazione, un esempio potrebbe essere il seguente: “Non sai come posizionare al meglio il tuo sito web sui motori di ricerca?”, invece di “Il posizionamento di siti web sui motori di ricerca”. Nel primo caso, il lettore è catturato dalla domanda, a cui cercherà probabilmente di associare una risposta, ma anche dal linguaggio diretto e familiare e dall’uso dell’aggettivo “tuo”, che sembra fornire una soluzione su misura al diretto interessato; la forma esclamativa: essa consente di porre in rilievo il tema che si intende affrontare. L’esclamazione, infatti, può essere identificata come una forma di espressione di un consiglio, di un suggerimento, di un parere personale, che, annunciato sotto forma di opinione, viene letto volentieri, perché non è né una regola né una restrizione, ma solo un consiglio. Per esempio, “SEO Specialist: i professionisti specializzati nel posizionamento dei siti web nei migliori motori di ricerca! Affidatevi a noi!” invita alla lettura sia per la forma esclamativa, che sembra indicare un consiglio valido fornito da un amico di fiducia, sia per l’utilizzo di una terminologia persuasiva, come “migliori”, “affidatevi”, “professionisti”, “specializzati”. Il fattore da considerare, indipendentemente dalla scelta di una modalità piuttosto che di un’altra, è la capacità attrattiva che il titolo deve possedere: è fondamentale mettere in evidenza la problematica o l’oggetto (esempio A) di ciò che si vuole esprimere o, al contrario, inserire la soluzione (esempio B): – A)“Non riesci a ottenere un buon posizionamento sui motori di ricerca?”; – B)“Ecco i consigli utili per ogni tuo problema!” / “Come fare per risolvere questo problema”.

Il contenuto Dal punto di vista formale/stilistico, è auspicabile che il testo sia suddiviso in paragrafi ed elenchi (eventualmente anche composto da sottotitoli e sottoparagrafi): l’occhio umano riesce, in tal modo, a visualizzare ordine e chiarezza. Sempre a tale scopo, è utile impiegare certi caratteri precisi di scrittura di colore nero (automatico), come il “Times New Roman”, il “Verdana”, l’”Arial”, il “Georgia”, il “Trebuchet MS” e il “Tahoma”, sullo sfondo bianco. Inoltre è meglio, per evidenziare parole, frasi o concetti, servirsi del grassetto o di colori diversi, evitando, invece, il sottolineato (salvo nel caso del link) e le lettere maiuscole, e diminuendo l’uso del corsivo, poiché sono metodi di scrittura non immediatamente visibili. Ancora, è bene che: • il testo sia corto e riassuntivo, nel senso che deve toccare tutti i dettagli dell’argomento in questione, senza, però, cadere in giri di parole o inutili digressioni “fuori tema”; • siano presenti spazi, sia bianchi (per esempio, tra un paragrafo e un altro), sia creati dalla punteggiatura (di essa si dirà meglio in seguito); • se si desidera implementare immagini, esse devono essere presenti in numero ridotto, di piccole dimensioni e poste ai lati, sopra o sotto il testo, altrimenti potrebbero fuorviare l’attenzione del lettore: le figure hanno la funzione di aiutare a capire quanto spiegato o di

invogliare l’interlocutore a proseguire la lettura, ma non devono risultare l’unico elemento attrattivo dell’esposizione; insieme alle immagini è opportuno inserire le relative didascalie, che consentono non solo di spiegare il contenuto della figura (che quasi sempre è comprensibile da sé), ma anche di chiarire il motivo per il quale si include proprio quell’immagine in quel punto specifico del testo.

Dal punto di vista intrinseco (per non usare il termine “contenutistico”, dato che il soggetto di cui si sta parlando è, appunto, il contenuto del testo), gli scritti sul web devono essere caratterizzati da: • sintesi; • specificità delle argomentazioni; • chiarezza; • semplicità; • concisione ed essenzialità; • gradevolezza grafica; • correttezza della lingua.

La lingua e lo stile Il linguaggio del web segue le stesse regole di quello “su carta”, pertanto valgono appieno i principi dettati dalla lingua italiana. Per consolidare tali nozioni, conviene stilare un elenco delle maggiori problematiche linguistiche riscontrabili fra gli utenti: • il punto si usa per chiudere definitivamente un argomento; in genere, per terminare il tema trattato e iniziarne uno nuovo, creando opportuni paragrafi, si va a capo. Il punto si posiziona alla fine di periodi brevi e semplici. Una nota di riguardo merita il titolo: al termine del titolo il punto non è concesso; • la virgola indica una pausa minore rispetto al punto; solitamente si usa per legare due proposizioni (senza usare la congiunzione “e” o “o”), per separare fra loro gli elementi di una lista “disposta lungo il testo” (non a elenco), per mettere in risalto un’espressione. Anche la virgola, come il punto, ha la funzione di permettere pause, consentendo una lettura agevole e scorrevole; • il punto e virgola deve essere usato con moderazione, poiché indica una pausa di intensità minore del punto ma maggiore della virgola; quasi sempre si usa nei punti elenco al termine di ogni frase o parola; • i punti di sospensione sono e rimangono sempre tre; se si adoperano all’interno del testo e non alla fine, essi vanno situati attaccati alla fine della parola che li precede e separati da uno spazio dalla parola che li segue (per esempio, “il marketing è… strategico”); • il trattino separatore va collocato adiacente a entrambi i vocaboli tra i quali è inserito (senza spazi); se esso si trova all’interno del testo per indicare una digressione o un inciso, in sostituzione alla virgola, per esempio, deve essere preceduto e seguito da uno spazio (“la descrizione è – per così dire – inadeguata ai contenuti”);

la lettera maiuscola si utilizza nei casi di designazioni di enti, ministeri e simili (per esempio, “Ministero della salute”) e nel caso di acronimi, come “SEO” (“Search Engine Optimization”), “SAA” (“Systems Application Architecture”), “ICF” (“Internet Connection Firewall”); l’apostrofo si usa, per esempio, davanti agli acronimi e ai numeri scritti in lettere (se i numeri sono scritti in cifre, non devono essere preceduti dall’apostrofo); sul web è preferibile, a differenza di quanto accade a livello cartaceo, rappresentare i numeri in cifre, perché più chiari e immediati, tranne nel caso in cui il numero sia molto grande (“50 milioni”). Anche i secoli e i decenni vanno scritti in lettere (“nel diciassettesimo secolo”); i punti elenco possono essere costituiti in diversi modi: – punto e virgola alla fine di ogni riga, punto al termine dell’ultimo elemento dell’elenco, lettera minuscola iniziale della prima parola della prima riga; – punto alla fine di ogni riga, lettera maiuscola iniziale di ogni parola di ogni riga; – nessuna punteggiatura, lettere iniziali minuscole.

In generale, lo stile di scrittura sul web deve essere, come più volte ripetuto, chiaro e mirato a ciò che l’interlocutore si aspetta di trovare: prima di scrivere, quindi, bisogna avere ben presenti le informazioni che il lettore vuole trovarsi davanti; bisogna “mettersi nei panni del lettore”, fornendogli indicazioni complete ed esaustive che racchiudano risposte immediate alle sue esigenze. Per tale motivo, può rivelarsi utile tracciare una sorta di mappa, di schema organizzativo dei contenuti che si vogliono presentare: per esempio, può essere estremamente vantaggioso iniziare, dopo la stesura del titolo e di eventuali sottotitoli, da indicazioni generali, per poi passare, attraverso sottoparagrafi, a indicazioni specifiche, arricchite di esempi e di immagini, nonché di collegamenti ipertestuali. I link, infatti, oltre a conferire veridicità e affidabilità alle argomentazioni esposte, suscitano curiosità ed esortano il lettore a cliccarvi sopra e a procedere nell’esplorazione dei contenuti.

Il corretto uso dei link Innanzitutto, il link deve essere indicato tipicamente in sottolineato (per convenzione), menzionando il nome o la dicitura del collegamento ipertestuale, e collocando, a fianco e tra parentesi, il tipo di file e la dimensione; sono da evitare forme del tipo “clicca qui”. Un esempio di corretta scrittura del link è il seguente: Caratteristiche tecniche stirelle (pdf 1 MB). Il collegamento ipertestuale è sicuramente un valido aiuto sia per chi deve spiegare/descrivere qualcosa, sia per chi deve leggere/capire qualcosa, perché è un componente aggiuntivo e fornisce un elemento in più rispetto alla mera descrizione. Tuttavia, un uso eccessivo può disturbare il lettore, e addirittura infastidirlo, perché la presenza fitta di link sottolineati ostacola una lettura scorrevole e veloce. In conclusione, se e quando si ritiene opportuno creare un link, è buona norma: • sottolinearlo; • designarlo con il nome o il titolo appropriato;

• • •

affiancarlo con una parentesi in cui sono inserite la tipologia di file (per esempio, word o pdf) e la dimensione; scrivere il link su una sola riga; accertarsi della validità temporale e della veridicità dei contenuti del link.

SEO: l’importanza di fare la giusta scelta lessicologica La rilevanza delle keyword Risulta fondamentale per l’impresa, sia per accrescere il proprio fatturato, sia per acquisire nuovi clienti o fidelizzare quelli già esistenti, avere un sito web aziendale ben posizionato sui principali motori di ricerca. È necessario, quindi, che il motore di ricerca riconosca delle keyword, parole chiave significative e illustrative del contenuto del sito, affinché il potenziale cliente, digitando, per esempio, “articoli sportivi”, sia immediatamente indirizzato al sito stesso, il cui link è in prima linea sul motore di ricerca. Per fare questo, una buona tattica può essere quella di evidenziare in grassetto le parole chiave: in tal modo, infatti, il motore di ricerca riesce a trovare e a posizionare il sito, consentendo al pubblico di visualizzarlo prima con molta più probabilità. Come abbiamo già illustrato nei primi capitoli, la scelta delle keyword è fondamentale ed è un processo lungo. Durante la scrittura di articoli e testi per il web, il copywriter deve cercare di mescolare il testo corredandolo di parole chiave pertinenti, che siano di aiuto sia ai motori di ricerca, sia agli utenti finali. Tutte le tecniche illustrate precedentemente rimangono valide e vanno applicate con cura e creatività.

La fidelizzazione degli utenti Sia per quanto riguarda i privati, sia per quanto riguarda le imprese, si spera sempre che l’utente, una volta visualizzato il sito web, vi ritorni nuovamente, per leggere news, curiosità o stabilire contatti, nel caso di privati (che magari aprono un blog), o per pubblicizzare e commercializzare i prodotti, nel caso di un’azienda. Pertanto, ciò su cui si deve puntare, nel momento in cui si decide di realizzare un sito web o di assicurarsi un incremento delle visite, è la fidelizzazione dell’utente o potenziale cliente. È importante, quindi, ottenere dati relativi agli utenti per cercare di rafforzare nel tempo il legame con essi, per conoscere il più possibile le loro attitudini, i loro interessi, il loro comportamento d’acquisto. Il punto di partenza in tale direzione è sicuramente la realizzazione della pagina di registrazione (che, come informazioni obbligatorie, richiede almeno nome, cognome, indirizzo e-mail e password) e la conferma utente, che deve essere graficamente gradevole e attraente, ma semplice e chiara, di immediata comprensibilità per l’utilizzatore. Essa deve, appunto, dare conferma esplicita della buona o cattiva riuscita della registrazione e, in caso positivo, informarne il visitatore attraverso un messaggio di complimenti o congratulazioni. È bene, però, posizionare la fase di registrazione e conferma in alto nella pagina, poiché l’utente non si deve trovare nella scomodità di dover abbassare la pagina, non leggendo, eventualmente, alcune informazioni. Il passo successivo prevede l’invio di una e-mail di conferma all’indirizzo di posta elettronica che il visitatore ha inserito nell’apposito modulo di registrazione e, quasi

sempre, è utile chiedergli cortesemente di cliccare il link che troverà nella e-mail per completare al 100% la registrazione. Da non trascurare, in queste fasi iniziali, è il linguaggio da utilizzare: esso deve far trasparire gentilezza e cordialità e, al contempo, essere informale e di tono amichevole per coinvolgere l’utente. A tale proposito, si può inserire uno spazio dedicato al visitatore, in cui gli si chiedono pareri e suggerimenti relativamente al sito web, cosa secondo lui andrebbe modificato, cosa ha trovato più interessante e cosa meno, attraverso quali canali di comunicazione è riuscito a trovare il sito: ovviamente, tutte queste indicazioni devono presentarsi come facoltative (le regole e le costrizioni non piacciono a nessuno). Un altro metodo, il più antico utilizzato nel marketing e nel Web Marketing, è quello di fornire una risorsa al visitatore. Infatti, dare qualcosa all’utente in cambio di una particolare azione migliora l’interazione e la possibilità di fidelizzazione. Non per altro, i termini free e gratis sono quelli più ricercati in rete e su di essi si focalizza l’attenzione degli utenti. Per tale motivo, dare una risorsa gratis è un’azione che viene sempre più adottata nel web. Per esempio: • “Iscriviti alla newsletter, riceverai una ricetta gratis al giorno” • “Iscrivendoti al nostro forum, avrai un ebook in omaggio” • “Segnala il nostro sito sul tuo blog, avrai in omaggio l’applicazione per iPhone” sono solamente alcune delle principali tecniche per influenzare i visitatori del proprio sito web affinché compiano un’azione in cambio di una risorsa gratuita.

NOTA Una delle azioni di fidelizzazione (o viral marketing) più utilizzate consiste nel fornire ebook gratuiti incentrati su argomenti specifici. In questa maniera, oltre a migliorare il rapporto con il cliente/visitatore, si ha la possibilità di diffondere il contenuto in rete, e quindi di veicolare nuove utenze verso il sito web stesso.

Un’altra modalità fondamentale del processo di fidelizzazione del cliente consiste nel coinvolgerlo direttamente nelle attività del sito web. Per esempio, siti di carattere ludico, come blog o comunità virtuali, cercano di catturare l’attenzione dei visitatori, invogliandoli alla scrittura di commenti, articoli, opinioni, o coinvolgendoli, in alcuni casi, come moderatori di forum o discussioni.

Figura 8.1 - Esempio di landing page volte a fidelizzare l’utente.

I siti di carattere più commerciale dovrebbero invece giocare sull’emozionalità. In questo scenario si collocano le landing page, particolari pagine web che hanno come unico obiettivo quello di invogliare l’utente a eseguire l’azione per la quale sono state ideate (acquisto di un prodotto, visualizzazione di un link ecc.). Le landing page risultano essere elementi chiave per le campagne di Web Marketing (abbiamo visto, nel Capitolo 7, come strutturarle e idearle). Le frasi, i video, i contenuti presenti all’interno di una pagina web devono trasmettere emozioni e sensazioni. Annunciare il lancio di nuovi prodotti, scrivere articoli a puntate o creare video aziendali accattivanti sono tutti pretesti per richiamare gli utenti a visitare nuovamente il nostro sito web.

Scrivere sul sito web aziendale La scrittura su un sito web aziendale prevede tutte le indicazioni che sono state fornite finora, per quanto concerne sia la stesura del testo, sia il linguaggio, sia le finalità della scrittura sul sito di

un’impresa. È importante che la lettura sia coinvolgente e attragga il cliente con frasi concise e accattivanti. È necessario produrre contenuti che attirino l’attenzione dell’utente, siano coinvolgenti e contengano parole o frasi atte a migliorare l’indicizzazione della pagina. Di seguito si riporta un esempio positivo di sito web aziendale scritto secondo gli elementi descritti nel capitolo.

Figura 8.2 - Esempio di scrittura su un sito web aziendale.

Scrivere sul blog Sebbene, in linea generale, i suggerimenti impartiti in questo capitolo siano validi anche per la scrittura sul blog, esistono alcune precisazioni che meritano di essere delucidate. Innanzitutto, a differenza del sito aziendale, è auspicabile che il blog presenti un linguaggio più diretto e familiare, quasi confidenziale, in linea con gli argomenti trattati, quali, per esempio, opinioni personali, interessi, hobby. Lo scopo è quello di catturare l’attenzione del visitatore e incuriosirlo, incentivandolo non solo a proseguire la lettura, ma anche a esporre riflessioni e commenti personali. Per scrivere il blog, è utile procedere per paragrafi, quattro o cinque al massimo: • il primo è sicuramente quello più importante, perché apre il discorso e ha il compito

• • •

fondamentale di invogliare il lettore. Per tale ragione, l’inizio potrebbe consistere in un quesito, un’esclamazione, nell’esposizione di un problema, tutti elementi in grado di destare curiosità; il secondo dovrebbe trattare l’argomento esposto nel paragrafo precedente, senza entrare nei dettagli; è nel terzo che si potrebbe approfondire il discorso, utilizzando anche immagini esemplificative; verso il finale, si potrebbe descrivere un’esperienza personale o invitare il lettore a raccontare la propria, sollecitare opinioni e/o soluzioni, includere un link coerente con le argomentazioni che possa dare man forte all’esposizione.

Si consideri il blog della Figura 8.3, caratterizzato da un’architettura costituita da paragrafi e da un linguaggio semplice e diretto.

Figura 8.3 - Strutturazione di un buon blog aziendale.

La persuasione sul web Attraverso l’applicazione dei concetti di persuasione e dei relativi sei principi fondamentali enunciati dalla psicologia sociale, cercheremo di illustrare alcuni concetti ed esempi di persuasione applicati all’ambito del web. Prima di procedere dobbiamo fare una precisazione: la persuasione non è l’arte di convincere qualcuno a fare qualcosa che non vuole fare, ma è il processo mediante il quale si cerca di influenzare e cambiare i comportamenti e gli atteggiamenti di una persona al fine di fargli assumere un comportamento che sia proficuo per noi e per lui.

NOTA B.J. Fogg con i suoi studi ha dimostrato che anche le tecnologie possono agire in maniera persuasiva, quindi anche attraverso gli strumenti tecnologici si possono sfruttare le tecniche di persuasione per convincere gli utenti a cambiare atteggiamento o ad assumere determinati comportamenti.

La persuasione è stata studiata in psicologia per spiegare le regole dell’influenza sociale. Si possono definire sei principi fondamentali della persuasione: reciprocità, impegno e coerenza, testimonianza sociale, simpatia, autorità, scarsità.

Principio della reciprocità Quando ricevono qualcosa, le persone sono “programmate” per ricambiare il favore. Ricevere qualcosa da un’altra persona infonde in noi il bisogno di contraccambiare questo favore. Questo istinto di reciprocità agisce con una forte pressione sul destinatario della nostra concessione, facendolo sentire quasi obbligato a rendere il favore ricevuto. Per questo motivo, fare delle concessioni alla controparte è un ottimo innesco per sfruttare la reciprocità a nostro favore. Un esempio di reciprocità applicata all’ambito web è costituito dalle pagine “404 – file not found” presentate in maniera simpatica o carina, in modo da consentire la comprensione dell’errore riscontrato anche a utenti inesperti; esse forniscono un ottimo strumento di aiuto per uscire da una situazione di criticità indesiderata in cui l’utente si può sentire a disagio.

Figura 8.4 - Errore 404.

Un altro esempio che sfrutta il principio di reciprocità è basato sul fatto che le persone hanno una maggiore disposizione a impegnarsi a spendere del denaro in futuro rispetto a spenderlo ora. Così, se offriamo l’opportunità agli utenti di usufruire dei nostri servizi per un periodo di prova, facciamo loro una concessione, e quindi essi saranno meglio disposti a pagare successivamente il nostro servizio. Un chiaro esempio di ciò si può trovare sul sito web della Microsoft. La suite di programmi Office è scaricabile in versione di prova per gli utenti del sistema operativo Macintosh. Dopo 30 giorni di utilizzo gratuito, viene richiesto l’inserimento di un codice di attivazione da acquistare.

NOTA Lo stesso si può dire per i siti che offrono alcuni servizi gratuitamente e altri invece a pagamento; il fatto di offrire alcuni servizi in maniera gratuita predispone gli utenti a essere più facilmente persuasi a utilizzare i servizi a pagamento.

Figura 8.5 - La pagina per scaricare Office per Mac, sul sito web della Microsoft.

Uno studio di Cialdini & Ascani ha messo in luce come, in ambito medico, le persone che rifiutano di aderire a inviti a donazioni di sangue a lungo termine successivamente acconsentano a donazioni singole più spesso delle persone a cui viene semplicemente chiesto di donare il sangue una sola volta (49,2% contro 31,7%). Lo studio è molto interessante e ci permette di avanzare alcune ipotesi che potrebbero essere valide in ambito web. Ad esempio, se si volesse gestire l’iscrizione a pagamento a un sito con diversi livelli di abbonamento, sarebbe più persuasivo fornire un form per ciascun tipo di abbonamento e disporli uno di fianco all’altro, piuttosto che fornire un unico form di iscrizione con la possibilità di scegliere l’abbonamento desiderato. Questo perché si sfruttano due condizioni: innanzitutto l’utente può visualizzare contemporaneamente le diverse offerte e, in secondo luogo, egli viene messo in condizione di

scegliere in maniera completamente libera l’abbonamento che preferisce. Il fatto di visualizzare contemporaneamente le diverse offerte fa in modo che l’utente possa con molta facilità confrontare i diversi abbonamenti; inoltre, le diverse opportunità vengono presentate in maniera paritaria e questo lascia piena libertà all’utente, che si sente più libero da pressioni e che percepisce ciò come una concessione fatta nei suoi confronti. Se presentassimo di default un unico form con l’abbonamento più costoso, potremmo respingere l’utente, che sarebbe meno persuaso ad abbonarsi, mentre, se presentassimo di default l’abbonamento più economico, rischieremmo di ottenere pochi utenti che si abbonano alla fascia più costosa.

Principio dell’impegno e della coerenza Se ci focalizziamo sul nostro modo di pensare e di agire e ci guardiamo intorno, possiamo subito notare che le persone sono mosse da impegno e da azioni svolte in funzione dei propri principi e valori, delle proprie convinzioni e dei propri ideali. Quando le persone si impegnano in un atto, in proprie convinzioni, o assumono determinati atteggiamenti, allora tendono a mantenere questa posizione in modo da essere considerati coerenti. La nostra società, infatti, premia ed elogia chi rimane coerente con i propri principi e ideali. Lo stimolo che ci spinge a essere coerenti con noi stessi e a mantenere gli impegni presi funge da leva persuasiva, che un abile persuasore può sfruttare. Alcune tecniche, in particolare, permettono di ottenere l’impegno delle persone: • la tecnica del “piede nella porta”, che parte con una piccola richiesta al fine di ottenere condiscendenza per richieste maggiori in futuro; • l’impegno scritto: un impegno scritto è più efficace perché comprende l’atto fisico di scrivere, con tanto di ragionamento per formulare la frase; • l’impegno pubblico: quando una persona assume degli impegni davanti ad altre persone, essa vuole mantenere l’impegno preso in modo da mostrarsi coerente agli occhi degli altri. Anche Facebook, per sua natura, sfrutta il meccanismo dell’impegno per persuadere gli utenti a contribuire con contenuti personali sulla propria bacheca. Infatti, quando ci si iscrive a Facebook ci si impegna a “esserci”. In maniera implicita, quindi, ci si impegna a stringere amicizie e a pubblicare contenuti personali sulla propria bacheca. Si può notare quanto la persuasione aiuti in questo senso: si pensi alle molte persone che normalmente non sentirebbero mai l’esigenza di comunicare i propri stati personali a tutti gli amici e conoscenti. È Facebook stesso che le induce a farlo. In questo caso ci si trova in una situazione favorevole, in cui l’impegno agisce in maniera molto efficiente; si toccano, infatti, le leve dell’impegno pubblico e dell’impegno liberamente scelto. Un altro metodo efficace consiste nel proporre ai propri utenti più esperti e con maggiore familiarità con gli argomenti trattati dal sito di tenere una propria rubrica, inserendo i propri articoli e contribuendo così ai contenuti del sito stesso. Tale sistema può essere sfruttato per siti informativi tematici in cui al team di esperti che ha creato il sito si possono affiancare nuovi utenti che vogliono contribuire con le loro conoscenze.

Principio della testimonianza sociale Questo principio si basa sul fatto che noi impariamo cos’è corretto andando alla ricerca di cosa le altre persone ritengono corretto; ciò può essere fatto attraverso domande, oppure osservando i comportamenti degli altri. La testimonianza sociale agisce come strumento fortemente persuasivo perché permette di superare i blocchi che possiamo porci, semplicemente facendoci vedere che qualcun altro è riuscito a superarli. Un caso esemplare è la storia di Roger Bannister, il primo uomo al mondo che, nel 1954, riuscì a coprire di corsa la distanza di un miglio (circa 1600 metri) in meno di quattro minuti; dopo di lui centinaia di persone sono state in grado di superare questo limite, che gli scienziati avevano ritenuto, a quei tempi, invalicabile per l’uomo. Nei siti di ecommerce questo si traduce, ad esempio, nel fornire prodotti correlati a quelli inseriti nel carrello dall’utente, enfatizzando il fatto che “gli utenti che hanno acquistato questo prodotto hanno poi comprato anche questi altri prodotti”.

Figura 8.6 - Amazon sfrutta il principio della testimonianza sociale all’interno del proprio e-commerce.

Un altro modo consiste nel dare la possibilità agli utenti di recensire i nostri prodotti o di esprimere delle valutazioni: anche in questo caso, la testimonianza positiva di altri utenti può fungere da elemento persuasivo per l’acquisto, come mostra la Figura 8.7.

Figura 8.7 - WooRank sfrutta la testimonianza sociale inserendo le foto di manager che utilizzano il prodotto.

NOTA Quando si vogliono sottolineare norme descrittive, tuttavia, bisogna fare attenzione a non usare il principio del social proof per rinforzare un comportamento indesiderato. Un esempio può essere legato alle statistiche: un messaggio del tipo “il 90% dei siti web non è accessibile; approfitta dei nostri servizi per rendere accessibile il tuo sito” è molto meno efficace rispetto a “approfitta dei nostri servizi per rendere accessibile il tuo sito: i siti più rinomati si stanno muovendo in questa direzione”.

Principio della simpatia È quasi inutile dire che siamo più inclini a rispondere a una richiesta se la persona che ce l’ha posta ci piace; il principio della simpatia si basa proprio su questo fatto. Come fare, quindi, per sfruttare la simpatia a fini di persuasione? Diversi sono i fattori che agiscono sul gradimento della persona:

• • • • • • •

l’attrazione fisica: le persone attraenti godono del cosiddetto “effetto halo”, per cui le altre persone credono che dalla bellezza derivino anche intelligenza o bontà; la somiglianza: noi apprezziamo le persone simili a noi, con i nostri stessi interessi e con vissuti simili; la familiarità: ci piacciono maggiormente le cose familiari, quelle a cui siamo abituati, che non stravolgono le nostre abitudini; la cooperazione: quando qualcuno collabora con noi per il raggiungimento di un obiettivo, inconsciamente ci piace di più; i complimenti: una persona che ci fa dei complimenti si rende piacevole ai nostri occhi; l’associazione: le persone che sono associate a eventi, persone o altre cose positive hanno maggiori possibilità di essere gradite; l’apparenza di veridicità: più ci rendiamo credibili, maggiore sarà la simpatia riscossa. Un esempio è un blogger che recensisce un prodotto mettendo innanzitutto in luce la lista dei difetti, per poi citare i pregi e infine dare il suo avallo: in questo modo il suo giudizio appare più veritiero; l’interesse: questo avviene quando qualcuno sembra argomentare contro i propri interessi in nostro favore, come se fosse dalla nostra parte.

Questi fattori contribuiscono alla creazione di un senso di simpatia nei confronti del persuasore. Sfruttando queste leve, il persuasore sarà in grado di rendersi più gradevole e simpatico e in questo modo riuscirà a convincere più facilmente il suo destinatario. Un buon metodo per guadagnarsi la simpatia degli utenti è fargli i complimenti: questo significa che bisogna cercare di essere gentili e farli sentire soddisfatti. Lodare gli utenti permette di ottenere la loro condiscendenza e favorisce la buona predisposizione nei confronti dei contenuti successivi e delle successive richieste. Se le persone si sentono aiutate, aumenta automaticamente la loro simpatia nei confronti del sito web. Un ottimo esempio di come il sito possa aiutare l’utente consiste nel fornire suggerimenti per il completamento dei campi. Anche Google fornisce dei suggerimenti volti ad aiutare l’utente nella ricerca. In particolare, ci riferiamo sia allo strumento Google Suggest sia alla correzione automatica che Google offre al momento della digitazione di una keyword errata. Conquistarsi la simpatia degli utenti è quindi molto importante perché ci protegge da eventuali nostre mancanze; inoltre bisogna ricordarsi che è molto più difficile guadagnarsi la simpatia degli utenti piuttosto che perderla. Una volta guadagnata la simpatia degli utenti, è molto più difficile perderla di quanto non sia difficile guadagnarla a partire da un sito web che non risulta simpatico.

Figura 8.8 - Il sito della Apple ringrazia gli utenti che scelgono di scaricare il browser Safari.

Principio dell’autorità Gli esseri umani hanno un radicato senso di rispetto e obbedienza nei confronti delle autorità. Anche la sola apparenza (di autorità) o il solo fatto che una persona autorevole esprima un giudizio positivo nei nostri confronti è sufficiente per ottenere condiscendenza. Il modo in cui mostriamo i nostri titoli conseguiti o in cui ci vestiamo influenza la percezione di autorità che gli altri hanno di noi: in questo caso si può dire senza indugio che “l’abito fa il monaco”. Sfruttare le proprie credenziali, i titoli acquisiti, i premi ricevuti e le referenze positive di esperti riconosciuti e famosi, sono tutti elementi che ci permettono di essere più persuasivi. Se abbiamo la fortuna di essere degli esperti riconosciuti, abbiamo un grande vantaggio da sfruttare a nostro favore: possiamo infatti persuadere con molta più facilità i nostri utenti. Chi è in cerca di informazioni si rivolge alla fonte più autorevole, quindi all’esperto che sa come consigliarlo nel modo migliore: entra quindi in gioco la credibilità presunta. Se non siamo degli esperti in materia, ma abbiamo collaborato con persone importanti, oppure siamo stati menzionati o citati da persone autorevoli, possiamo sfruttare la loro autorità per valorizzare la nostra. B.J. Fogg la chiamerebbe “credibilità stimata”. In questo caso è molto utile inserire giudizi positivi espressi dagli esperti in nostro favore (ad esempio, in una pagina “dicono di noi”). In questo modo gli utenti ci considereranno come una fonte di informazione attendibile.

Figura 8.9 - Esempio di autorità indiretta con l’elenco dei principali clienti all’interno del sito web.

Principio della scarsità Il concetto psicologico che sta alla base di questo principio è che le opportunità ci sembrano di maggior valore quando la loro disponibilità è ridotta. Per enfatizzare la scarsità di alcune risorse si può ricorrere al loro numero limitato, al tempo limitato della loro disponibilità, alla competizione con gli altri. C’è inoltre da dire che le persone sono più motivate a evitare di perdere qualcosa, piuttosto che ad avere la possibilità di guadagnare qualcosa dello stesso valore (questo ha dei legami con la “Kahneman’s prospect theory”; ad esempio, è molto più persuasivo dire “se non agisci perdi l’opportunità di vincere un milione”, piuttosto che “se giochi potresti vincere un milione”). Un buon modo per riuscire a persuadere un cliente a comprare un prodotto è quello di enfatizzare la sua disponibilità limitata: in questo caso, se l’utente è dubbioso, sarà molto più probabile che esegua l’acquisto per non rischiare di rimanere senza la possibilità di farlo. Si può in questo caso sfruttare anche la leva del messaggio negativo (“Sono disponibili per l’acquisto le ultime copie del libro. Affrettati ad acquistarlo! Non rischiare di rimanere senza”). Un altro modo per riuscire a vendere bene i propri servizi può essere quello di enfatizzare la poca disponibilità sul mercato di servizi simili (“Siamo una delle poche web agency in Italia che si occupa di persuasive design. Non perdere l’occasione di usufruire dei nostri servizi”) o le particolari condizioni che rendono il nostro servizio unico (“Il rapporto qualità/prezzo e la nostra professionalità ci rendono una delle poche aziende che fanno al caso tuo”), o l’unicità del servizio offerto (“Siamo l’unica azienda a offrire… non perdere l’occasione di collaborare con noi”).

Una tecnica persuasiva per aumentare le vendite su un sito di e-commerce consiste nell’offrire periodicamente dei brevi periodi di promozione. Potremmo pubblicizzare la promozione in questo modo: “30% di sconto sui tuoi acquisti, la promozione è valida solo per pochi giorni. Non perdere l’occasione!”, così i clienti saranno maggiormente propensi a comprare, in quanto su di loro si eserciterà una pressione psicologica. Supponiamo il caso di un sito che offre dei servizi, che voglia acquisire rapidamente molti utenti; una possibile leva persuasiva efficace per ottenere adesioni potrebbe essere la seguente: “Siamo un’azienda che si sta lanciando sul mercato. Registrati gratuitamente per ottenere alcuni servizi riservati ai membri. Affrettati! L’iscrizione presto richiederà un abbonamento mensile”. Un esempio ci viene fornito da ClubMed: l’agenzia vuole convincere l’utente a prenotare una vacanza. Il sito cerca di incentivare gli utenti proponendo di effettuare la prenotazione entro una data stabilita, in modo da ottenere un notevole risparmio economico.

Figura 8.10 - Offerta Club Med.

Prendendo spunto da alcuni degli esempi proposti, vi sarà possibile applicarli in ambito web per aumentare le conversioni del vostro sito web e migliorare il “rapporto virtuale” con i vostri clienti.

Qualità e lunghezza dei contenuti nella SEO Quando si parla di SEO e testi tipicamente emergono ideologie e congetture strane. Si parla di semantica, di lunghezza minima dei testi e di altri miti più o meno lontani dalla verità. Quando scriviamo dei testi lo dobbiamo fare per gli utenti, giusto? Ok, se questo punto è chiaro, cosa cavolo centra la lunghezza minima? Mi spiego meglio; se dobbiamo dare delle direttive al cliente che scrive le schede prodotto, ci sta dire: “Fammi articoli, o schede di almeno 300 parole”. Questo perché se il cliente è pigro o impegnato, riusciamo a definire uno standard minimo come soglia di qualità. Se invece siamo noi a gestire il nostro sito o i contenuti dei clienti il discorso è totalmente differente.

Avere dei testi “lunghi” a volte premia ma dipende dal contesto: se vogliamo approfondire argomenti o tematiche è opportuno avere dei testi ricchi con link e approfondimenti. Se la materia invece viene ampiamente spiegata in 150 o 200 parole è inutile cercare in tutti i modi di allungare il testo. I testi si devono adattare ai bisogni degli utenti! Stop. Ora soffermiamoci ad analizzare il comportamento dell’utente: perchè non legge tutto l’articolo? Perchè ha fatto clic lì? Sono segnali importanti. Analizziamo la struttura del sito web: abbiamo rami che generano pagine vuote? Abbiamo problematiche con il Crawl Budget ? Questi sono campanelli di allarme. Analizziamoli. In definitiva dobbiamo, a mio parere, scrivere testi utili per gli utenti e analizzare la struttura del nostro blog o sito web per evitare problematiche di contenuti di bassa qualità o di pagine ridondanti tra di loro che possono creare problemi a livello di visibilità.

Quanto deve essere lungo un testo? L’opinione di Google Ok avete letto il mio pensiero che può essere condiviso o meno, ma su questa tematica che dice Google? John Mueller su Google Hangout si è lasciato andare a diverse dichiarazioni molto interessanti. Ha infatti affermato che avere articoli brevi non ci darà alcuna penalità da parte di Google. Ha anche sottolineato che avere alcuni articoli lunghi può essere fonte di confusione per gli utenti, e per tale motivo, in alcuni contesti, è meglio avere testi brevi perchè risultano più adatti agli utenti. Per chi se lo ricorda, già nel lontano 2012 Google aveva affermato che avere articoli brevi non comporta problemi di ranking e anche nel 2014 è stato ribadito tale concetto. John Mueller ha affermato: Non soffermatevi sulla lunghezza degli articoli ma piuttosto nel fare in modo di stare effettivamente fornendo qualcosa di utile e interessante per l’utente. E se a volte questo significa avere un breve articolo allora breve articolo va bene, se significa fare un articolo lungo pieno di approfondimenti va bene ugualmente! L’algoritmo di Google non conta il numero di immagini presenti in un articolo o la lunghezza del testo, cerchiamo di avere un’idea complessiva in modo da sapere se il tuo sito stia fornendo informazioni utili per chi lo visita”. Queste affermazioni dovrebbero chiarire molti dubbi in merito alla lunghezza del testo.

Conclusioni e punti salienti del capitolo In questo capitolo abbiamo voluto dare qualche spunto sulla scrittura sul web e come sia “difficile” trovare il giusto mix tra concretezza e completezza dell’informazione. Molti SEO vi diranno che i testi devono essere lunghi almeno 400 parole e contenere “x” volte la keyword principale… Sono tutte dicerie che non trovano un riscontro concreto. Quando scriviamo sul web, dobbiamo tenere ben in nota i principi visti in questo capitolo. Cosa ricordarsi? • La lunghezza non conta; ovviamente un contenuto con approfondimenti e curiosità suscita più interesse nel lettore e anche nel motore di ricerca. • Scrivere sempre contenuti originali e non copiare… Mai!

Essere creativi e adattarsi allo stile del blog o del sito per cui scriviamo.

“Il marketing tradizionale parla alla gente. Il content marketing parla con loro”. (Doug Kessler)

Capitolo 9 Strategie off page: link building e visibilità online Se il posizionamento all’interno dei motori di ricerca fosse focalizzato sui soli parametri interni (on page factors), la bontà dei risultati forniti dai search engine risulterebbe alquanto scarsa. Per combattere tecniche di Black Hat SEO e di spam, gli algoritmi dei motori di ricerca si sono evoluti e, a oggi, sono svariati i fattori che influenzano il corretto posizionamento e la corretta indicizzazione di un sito web. Questo perché i motori di ricerca devono dare risultati sempre più appropriati e attinenti alle query ricercate. I fattori esterni sono un elemento cruciale da usare con cura e maestria al fine di aumentare la propria visibilità nel web. La popolarità è uno di questi elementi: essere popolari nel web moderno non significa solamente avere una buona link popularity (cioè un certo numero di link in ingresso al proprio sito web, come illustrato nel Capitolo 1), ma anche possedere link di qualità, commenti e pareri positivi (quindi una reputazione positiva) e avere una buona visibilità nei social network. In questo capitolo inizieremo ad analizzare i principali fattori esterni che ci consentiranno di acquisire visibilità e autorevolezza nel web, lasciando al Capitolo 10 il compito di illustrare i benefici e le tecniche dell’SMO (Social Media Optimization).

Analisi dei competitors: si continua… Abbiamo già visto, nei capitoli precedenti, come risulti fondamentale analizzare i propri competitors, sia da un punto di vista SEO, per cercare di capire le keyword vincenti, sia da un punto di vista strategico, per analizzare e prendere in considerazione eventuali strategie di Web Marketing da applicare. A questo punto del nostro percorso abbiamo già individuato opportunamente i principali competitors a livello di keyword; il passo successivo è quello di analizzare le loro strategie per vedere come essi si siano evoluti o meno negli anni, così da comprenderne peculiarità e aspetti da sfruttare.

NOTA Prima di proseguire, è necessario introdurre alcune nomenclature di base: • Backlink o Inbound link: è un link ipertestuale in ingresso che rimanda il visitatore a una specifica pagina web; • Outbound link: sono i link di un sito che puntano verso siti esterni; • Deep linking: quando inseriamo all’interno della pagina di un qualsiasi sito web un collegamento a una pagina interna di un altro sito; • Surface link: quando inseriamo all’interno della pagina di un qualsiasi sito web il link alla home page di un altro sito.

Un primo passo potrebbe essere quello di analizzare i backlink dei nostri competitors. Nell’appendice A del libro troverete tutti i principali comandi che ci possono venire in aiuto in questa ricerca; tra questi possiamo menzionare: • inurl: www.miocompetitor.com • intitle: www.miocompetitor.com • allintitle: www.miocompetitor.com • allintitle: www.miocompetitor.com • inanchor: www.miocompetitor.com

Figura 9.1 - Risultato prodotto da MajesticSEO per l’analisi dei link in ingresso di un sito.

NOTA Sul web esistono numerosi strumenti gratuiti che ci aiutano ad analizzare i backlink; tra questi possiamo menzionare: • http://www.majesticseo.com • SEOmoz (linkscape) • http://www.advancedlinkmanager.com • https://ahrefs.com/ e la Search Console di Google che ci aiuta a tenere sotto controllo i link in ingresso verso il nostro sito.

Ora che abbiamo preso visione dei backlink dei nostri principali competitors, il passo successivo è quello di osservare l’evoluzione dei loro siti web nell’arco degli anni per capire quali sono le modifiche e gli accorgimenti che hanno portato più o meno visibilità. Come è possibile effettuare questa operazione? Esiste un servizio web in cui è possibile trovare una cronologia delle principali pagine web di uno specifico sito catalogate per anni. È sufficiente andare su http://www.archive.org/web/web.php, inserire l’URL del sito da analizzare e in pochi secondi ci verrà mostrato un archivio cronologico contenente la preview del sito per un

determinato periodo (come mostra la Figura 9.2).

Figura 9.2 - Visione storica del sito web www.gruppofratispa.com attraverso il tool archive.org.

In questo modo possiamo vedere se i nostri competitors si sono “evoluti” negli anni con il loro sito web o se sono sempre stati sulla medesima linea di marketing. Questo passaggio, a nostro avviso, è molto importante per capire come gestire il target di mercato e pianificare eventuali azioni di marketing specifiche. Ora non ci resta che procurarci ulteriori informazioni sul dominio e su eventuali sottodomini registrati per possedere un buon quadro generale sulla strategia adottata dai nostri competitors a livello di hosting e visibilità del sito web. Possiamo, allora, sfruttare alcuni tool online che permettono di vedere l’intestatario del sito web, il traffico prodotto e di prendere in considerazione altri dati utili: • http://www.who.is.net/website-information • http://whois.domaintools.com • http://www.robtex.com/dns/robotex.com.html Anche i social network hanno la loro importanza: per vedere la popolarità dei nostri competitors non dovremo fare altro che digitare il loro nome all’interno dei social network stessi. Per esempio, in Facebook, nel campo ricerca, inseriamo il nome del nostro competitor, così in Twitter, Digg, YouTube ecc. È possibile, in questo modo, intuire le linee intraprese dai nostri rivali nel mondo del web e dei social network. Infine, non ci resta che vedere come sono posizionati in base a determinate keyword.

Figura 9.3 - Utilizzo del tool Who.is.

Esistono numerosi tool atti a questo compito; alcuni li abbiamo esaminati nel Capitolo 3, altri saranno analizzati specificamente nei prossimi capitoli. Quello che vogliamo segnalarvi in questa sede è un servizio gratuito molto utile: Keywordspy (www.keywordspy.com), che ci consente non solo di vedere le keyword per quel determinato sito web, ma anche la loro posizione nei motori di ricerca ed eventuali competitors. Attraverso quanto analizzato in questo paragrafo e nei capitoli precedenti, possiamo avere una visione d’insieme dei nostri competitors, conoscere la loro popolarità, le loro evoluzioni negli anni e magari scoprire anche alcuni punti deboli (per esempio, keyword non correttamente indicizzate, domini con i loro brand non occupati e via dicendo). Ora siamo pronti per avviare la vera fase off page con l’intento di aumentare la nostra visibilità nel web, avendo a disposizione un bagaglio di informazioni utili che ci serviranno per indirizzarci verso la giusta strategia da adottare.

Figura 9.4 - Utilizzo del tool Keywordspy.

NOTA Potremmo sfruttare anche le potenzialità di Google Alerts: in questo modo sapremo se il nostro competitor sta facendo campagne di link building, comunicati stampa o altre iniziative specifiche. Un altro tool molto potente per l’analisi dei competitors è SemRush: esso permette non solo di vedere le keyword per il quale il sito web è posizionato, ma anche possibili campagne AdWords attive.

RPA - Popolarità, reputazione e autorevolezza, i tre fattori di successo In ambito SEO esistono principalmente tre fattori off page, che determinano una campagna di

successo: • popolarità: quando il nostro sito web è popolare e ben visto nella sfera di Internet; • reputazione: cosa il web moderno “dice” di noi, della nostra azienda o del nostro brand; • autorevolezza: quello che pubblichiamo sul web (ma non solo) deve avere solide fondamenta e non deve essere scritto solo per attirare visitatori o curiosi. Per misurare questi valori, i motori di ricerca utilizzano diverse tecniche e stratagemmi. Negli anni, l’evoluzione degli algoritmi ha portato enormi cambiamenti in ambito SEO, e la stessa cosa avverrà quando sarà introdotto in maniera definitiva HTML 5. Esistono diversi fattori che regolano il ranking di una pagina e che servono per stabilire il coefficiente RPA; di seguito ne illustriamo alcuni: • PageRank (PR): è un valore da 0 a 10 assegnato da Google; tale fattore sta perdendo, nel corso del tempo, la sua popolarità (come si evince dalle dichiarazioni di Peter Norbig e Matt Cutts ormai è un fattore non più utilizzato), tuttavia si tratta di uno tra i tanti elementi che costituiscono l’algoritmo di Google. Il valore del PageRank non verrà più aggiornato da Google; • Alexa Rank: è un sistema di valutazione che stima circa 10 milioni di siti Internet nel mondo. Se un sito ha valore 1, significa che esso gode del massimo grado di autorevolezza e popolarità (a differenza del PageRank, con cui il valore 10 indica il massimo punteggio ottenibile). Per vedere il proprio punteggio è sufficiente andare sul sito www.alexa.com; • TrustRank: è un algoritmo ideato per combattere lo spam. Inizialmente il brevetto era stato depositato da Yahoo! (http://www.vldb.org/conf/2004/RS15P3.PDF), ma nel 2005 è stato acquisito da Google, che lo ha utilizzato e migliorato. Questa tecnica è utilizzata per distinguere le pagine web utili e corrette da quelle di spam e si avvale anche dell’intervento umano per compiere tale operazione. Per maggiori informazioni, consigliamo la lettura del Capitolo 1; • BadRank: serve per esprimere quanto un sito web sia non affidabile; è quindi l’esatto contrario del trust rank. Bisogna prestare attenzione nel caso si effettuino collegamenti a siti web che possono essere afflitti da BadRank (per esempio: forum in disuso, blog datati, siti web non aggiornati), perché, attraverso l’outbound link, vi è la possibilità che la penalizzazione si trasferisca a ritroso verso il nostro sito web; • MozRank (MR): è un valore calcolato su scala logaritmica in base 10 che indica la popolarità di un sito web. Grazie al tool www.opensiteexplorer.org, possiamo calcolare il MozRank assieme ad altri due valori molto importanti: il DA (Domain Authority) e il PA (Page Authority);

NOTA Al momento non esistono misurazioni numeriche per il TrustRank e il BadRank, che vanno quindi considerati come modelli teorici. Potete trovare un interessante articolo in lingua inglese a questo link: http://pr.efactory.de/e-pr0.shtml

Topical TrustRank: può essere visto come un’evoluzione del TrustRank. Il TrustRank tende a privilegiare principalmente i siti appartenenti a grosse comunità. La soluzione proposta nel Topical TrustRank permette di stabilizzare il valore del TrustRank, dividendo il suo peso in funzione dell’argomento dei siti hub (o seed) e delle matrici link del TrustRank. In questo modo, anche piccoli siti di nicchia hanno la possibilità di posizionarsi bene all’interno della SERP;

NOTA Uno studio fatto nel 2006 ha dimostrato come il Topical TrustRank, rispetto al TrustRank, possa ridurre lo spam addirittura del 43,1% (www.2006.org/programme/item.php?id=3115).

WebRank: è un indice utilizzato da Yahoo! per misurare la popolarità di un sito web. I dati vengono raccolti anche attraverso la toolbar di Yahoo! e permettono di fornire un valore che va da 1 a 10, atto a indicare la visibilità e la popolarità di un determinato sito web; Expert Rank: è un algoritmo utilizzato da Ask.com che fornisce risultati di ricerca rilevanti, identificando i siti più autorevoli del web. È utilizzato per determinare la popolarità tra quelle pagine considerate autorevoli sull’argomento di una determinata ricerca. Si tratta, più precisamente, della popolarità tematica.

Quelli appena illustrati sono, a nostro avviso, i principali indici che consentono di tenere monitorata la nostra popolarità all’interno dei motori di ricerca. Non dimentichiamoci, come vedremo tra poco, come l’avvento dei social network abbia allargato tali concetti: quando parliamo di RPA (popolarità, reputazione e autorevolezza), dobbiamo prendere in considerazione anche questo scenario. I link esterni verso altri siti o risorse devono essere fatti in modo accurato seguendo una logica. Che senso avrebbe linkare una pagina che parla di pecorino con un sito di sport? Nessuna. La gestione di buoni outbound link ci permetterà di migliorare la nostra autorevolezza. Elenchiamo alcuni semplici consigli da seguire quando linkiamo un sito esterno o una risorsa: • controllare sempre ciò che linkiamo: è buona norma vedere se il sito che linkiamo è

• •

autorevole e presenta buoni contenuti; utilizzare anchor text coerenti: sfruttare parole chiave adeguate e in linea con l’argomento linkato e non eccedere mai con link con anchor text a chiave esatta (Google Penguin); verificare la correttezza dei link: come abbiamo visto precedentemente, esistono diversi tool atti a questo scopo (per esempio, Xenu’s Link Sleuth); controllare i link inseriti dai visitatori: se abbiamo un blog, un forum o una community, è buona norma mettere filtri antispam inerenti ai link e verificare periodicamente i link inseriti dagli utenti per evitare azioni di spam che potrebbero danneggiare la reputazione e la credibilità del nostro sito web.

Si può quindi comprendere come non solo quello che scriviamo e i contenuti presenti sul nostro sito web debbano essere ben fatti e articolati (come abbiamo visto nel Capitolo 8), ma anche i link esterni debbano essere utilizzati in modo coerente secondo un filo conduttore. Lo stesso vale per i link in entrata (inbound link), i quali rivestono un’enorme importanza a livello SEO. Questo perché avere un link che punta al nostro sito significa che quello che facciamo (o vendiamo) piace, quindi è un nuovo canale attraverso cui visitatori curiosi possono accedere a noi. Anche per i link in entrata valgono regole di base che è bene conoscere, infatti non tutti i link sono uguali: • è importante la relazione che vi è nel link: per esempio, l’utilizzo dei tag relazionali, come rel=”nofollow” e via dicendo; • acquisto di link: i link acquistati non sono ben visti dai motori di ricerca (sono da evitare!); un numero eccessivo di link in entrata verso il nostro sito prodotti in un breve lasso di tempo potrebbero causarne la penalizzazione (sconsigliamo vivamente tale tecnica!); i link acquistati sono il metodo migliore per “farsi del male=penalizzazione”. Infatti, essendo l’algoritmo antispam di Google molto raffinato, non basta una buona strategia di Digital PR in cui si acquistano guest post su determinati siti e, anche se ben strutturata e con link giustificabili a un occhio di un umano, potrebbe portare a risultati in realtà inutili lato SEO. Tra l’altro Google non vieta l’acquisto in sé, bensì l’acquisizione innaturale di link (se io ti regalo una maglietta in cambio di link, non è un acquisto, ma è comunque vietato da Google ad esempio). Ovviamente è difficile determinare la linea immaginaria che Google ha tracciato tra naturale e innaturale. Inoltre, nell’ultimo periodo e in alcuni settori, è praticamente impossibile, per un sito appena nato, acquisire link naturali, se non in seguito a importanti investimenti pubblicitari che possano, dopo svariato tempo, fargli acquisire una popolarità reale, è per questo che il lavoro del SEO è diventato alquanto difficile, delicato e tecnico; • autorevolezza dei link: è importante ricevere link da siti autorevoli e con un alto PageRank. Dopo tutti i concetti teorici, è arrivato il momento di procedere nel dettaglio con il lato pratico, sempre con lo scopo di aumentare la visibilità del nostro sito web, ma anche la sua popolarità e autorevolezza.

Ma, prima di iniziare, come facciamo a tenere sotto controllo i principali indici di popolarità? A tale proposito, si rivelano utili diversi tool; ve ne segnaliamo tre molto interessanti, che vanno installati come plug-in di Firefox: • Webrankstats (https://addons.mozilla.org/it/firefox/addon/52177/), che ci fornisce interessanti dati su: Google Pagerank, Alexa, Compete e Quantcast Rank, pagine indicizzate e backlink in Google, Bing e Yahoo!, Bookmark webpages con PickMeWeb.com e siti web similari con SimilarSites.com. Inoltre, ha un contatore per Delicious, Digg e Tweet; • SeoQuake (https://addons.mozilla.org/it/firefox/addon/3036/), una barra multifunzione che fornisce importanti e preziose indicazioni sugli indici di popolarità più diffusi;

Figura 9.5 - Utilizzo delle barre Webrankstats e SeoQuake per monitorare i principali indici RPA.

Chrome SEO (https://chrome.google.com/extensions/detail/oangcciaeihlfmhppegpdceadpfaoclj), un plug-in per Google Chrome che ci indica le pagine indicizzate, il traffico, il ranking e ci fornisce un report dei backlink per uno specifico sito web.

Topical link Abbiamo già accennato all’importanza di avere link in entrata di qualità. Anche l’anchor text dev’essere pensato in modo coerente ed essere rilevante con quanto è linkato. Nell’esempio seguente mostreremo un buon uso dell’anchor text affiancato a un utilizzo di ancore non ottimizzate:

NOTA Le recenti evoluzioni degli algoritmi e l’eccessivo abuso di link con anchor text esatti hanno fatto in modo che anche link con ancore naturali, come “vai al sito”, siano utili e fondamentali per le attività di popolarità e visibilità online. Lo ribadiremo più volte: i link devono essere naturali!

Backlink da domini con TLD .edu e .gov? Nel mondo SEO, a volte, non esistono certezze: solo test e prove possono smentire falsi miti e ideologie. I domini con TLD .edu e .gov sembrano godere di una buona reputazione, poiché sono riservati a scopi specifici. Per questo si trovano in rete consigli sull’acquisto di tali domini per rafforzare la propria reputazione e ottenere backlink verso il proprio sito web. Se fosse tutto così semplice, la SEO non avrebbe motivo di esistere e i motori di ricerca produrrebbero risultati alquanto distanti dai desideri degli utenti. È probabile che i domini con estensione .edu e .gov possano godere di buona reputazione, ma questa è dovuta ai contenuti trattati in essi, alla rete di collegamenti e alla qualità dei link in ingresso che detengono. A sostegno di questa tesi, troviamo una dichiarazione di Matt Cutts, il quale, in un’intervista di Stephan Spencer, afferma: “Alcune persone mi chiedono se i link da DMOZ o da domini .edu e .gov diano qualche impulso particolare al valore del sito; la mia secca risposta è NO: i TLD .edu tendono ad avere PageRank più elevato perché ricevono a loro volta molti inbound link”. L’intervista continua: “In nessun punto dell’algoritmo c’è scritto che in caso di domini .edu deve essere assegnato un maggior peso”. Cutts conclude il discorso legato al Trust dei TLD dicendo: “Non serve a nulla andare alla ricerca di link da domini .edu: si può avere un pessimo link da TLD .edu, come si può avere un ottimo link da dominio .com”. Tali affermazioni chiariscono alcune perplessità, ma a nostro avviso è sempre bene leggere con cognizione di causa quanto attesta Google. I domini in questione possono essere registrati solamente da organi specifici e sono regolamentati da leggi specifiche. Ottenere un link da domini di primo livello come .edu e .gov può risultare prezioso a condizione che l’argomento trattato sia lo stesso. Storicamente, lo spam ha trovato poco spazio in queste tipologie di domini. Il valore aggiunto di tali collegamenti è che essi tendono a cambiare molto poco nel tempo e l’età di un link è un importante fattore di off page ranking, come vedremo più avanti in questo capitolo. Insomma, se il link viene da un TLD con estensione .edu o .gov, se il sito gode di una buona reputazione e autorità (e non è un forum governativo dove qualsiasi persona può registrarsi e inserire link, per intenderci) e l’argomento trattato è in linea con quello del nostro sito, allora avere un backlink su tali domini può risultare davvero utile per la nostra campagna di ottimizzazione off page.

NOTA Un discorso analogo va fatto per domini autorevoli, a prescindere dalla loro estensione TLD.

Età dei backlink L’età dei backlink trasmette un messaggio di fiducia, quindi di qualità. In poche parole, più un link è datato, più potrebbe avere un valore di reciproca stima tra i siti linkati. Un backlink nuovo su una pagina che è in continua evoluzione potrebbe non essere così vantaggioso come un backlink “vecchio” sulla medesima pagina. Ai nuovi link, infatti, serve tempo per propagarsi, perciò è bene iniziare fin da subito una buona campagna di ottimizzazione off page e mantenerla costante nel tempo. I link vecchi servono, ma ovviamente non dobbiamo dimenticarci che anche i link giovani, specie per necessità di indicizzazione rapida di contenuti, sono fondamentali in ambito SEO. Questa contromisura applicata non solo da Google potrebbe essere nata proprio per evitare acquisti di link per brevi periodi. Avere un certo lasso di tempo per considerare i link in entrata consente di consolidare il rapporto esistente tra il linkante e il linkato ed è un primo metodo per evitare tecniche di linking artificiali. Se avete notato, i link in ingresso mostrati nella Search Console di Google tipicamente non sono visualizzati immediatamente, ma aggiornati più di rado. Questo forse proprio perché i link potrebbero essere presi in considerazione e valutati da Google dopo “un periodo di maturazione”.

NOTA Sottolineiamo un concetto che a volte risulta frainteso da molti webmaster: un sito web è composto da N pagine e ogni pagina ha un proprio PageRank, la propria importanza e “reputazione”; per tale motivo, anche la strategia di backlink deve portare link a tutte le pagine, non solamente alla home page. Questo concetto deve essere ben chiaro e applicato in ogni campagna di backlink.

Link: posizione relativa nella pagina HTML Come avviene per le keyword, tipicamente anche i backlink che si trovano nella parte superiore di una pagina HTML sono percepiti come più importanti rispetto a quelli che si trovano verso il fondo. Ciò ha senso dal punto di vista dell’usabilità del sito web. Facciamo l’ipotesi di un sito web complesso: l’utente trova più facile seguire i link in alto nella pagina piuttosto che scrollare e scendere a fondo pagina.

NOTA Attenzione: un link posizionato in alto a livello di codice HTML non necessariamente risulta posizionato in alto anche visivamente. Attraverso i CSS, possiamo modificare il layout del sito web. Quindi la posizione è importante, ma lo sono anche la resa a video e la collocazione in ottica “wide site”: dimensione del font, ricorrenza su tutte le pagine del sito (tutti fattori ampiamente analizzati nei precedenti capitoli).

Proprio in questo contesto ci viene in aiuto il modello di navigatore ragionevole proposto da Google in un brevetto del giugno 2004 (http://bit.ly/valore-link): un brevetto datato, quindi, ma che racchiude molti concetti ancora attuali. A system generates a model based on feature data relating to different features of a link from a linking document to a linked document and user behavior data relating to navigational actions associated with the link. The system also assigns a rank to a document based on the model. E, ancora, parlando del modello di navigatore ragionevole: Systems and methods consistent with the principles of the invention may provide a reasonable surfer model that indicates that when a surfer accesses a document with a set of links, the surfer will follow some of the links with higher probability than others. This reasonable surfer model reflects the fact that not all of the links associated with a document are equally likely to be followed. Examples of unlikely followed links may include “Terms of Service” links, banner advertisements, and links unrelated to the document.

NOTA Google come considera o considerava due anchor text che puntano allo stesso sito nella stessa pagina? Supponiamo di avere sul mio sito una pagina con due link che puntano entrambi alla stessa pagina del mio blog: • il primo link si trova in alto e ha come ancora blog; • il secondo link si trova nel corpo e ha come ancora celebrity news blog. Risultato: la seconda ancora parrebbe NON aiutare il blog a posizionarsi per la chiave celebrity news, in quanto sembra che Google non tenga conto delle ancore presenti nei link successivi al primo (se tali link puntano alla stessa risorsa; si tratta di un test condotto nel 2008). Considerazioni e precisazioni: • per “primo link” si intende il link che si trova più in alto a livello di codice, non (ovviamente) a livello visivo; • l’originale formula del PageRank diceva, in effetti, di non considerare i “voti multipli” che una pagina può fornire a un’altra (ogni pagina può quindi esprimere un unico “voto” verso un’altra pagina). Nel maggio 2014, alla domanda: “Che impatto possono avere due link su una pagina che puntano allo stesso target, con testo ancorato diverso, a livello di PageRank?”, Cutts ha risposto che il PageRank fluisce singolarmente in ognuno dei due link, come in tutti gli altri link presenti sulla pagina. Ma, per quanto riguarda il testo ancorato, Cutts afferma che nel “processo di estrazione dei link” Google prende in considerazione tutti i link della pagina, ma potrebbe decidere di selezionare solo un link, o solo alcuni link, e questo comportamento può variare nel corso del tempo: nel 2009 (l’ultima volta che Cutts ha verificato la cosa) Google poteva in effetti prendere in considerazione solo il primo testo ancorato, ma non c’è garanzia che oggi le cose stiano ancora in questi termini.

Il brevetto, in sintesi, parte dal presupposto che non tutti i link abbiano lo stesso valore, poiché non tutti hanno la stessa probabilità di essere seguiti. L’utente-tipo, ad esempio, andrà a cliccare più facilmente i link più invitanti, all’interno del content e nella parte “above the fold”, rispetto a quelli scritti in un font piccolissimo, con un anchor text poco invitante e inseriti nel footer. Vediamo, quindi, quali potrebbero essere i fattori per la valutazione di un buon link all’interno della pagina (escludendo tutti i discorsi sulla qualità del sito che linka e affini): • dimensione del testo e colore; • anchor text – testo invitante/non invitante;

• • • • • • • •

posizione all’interno del paragrafo o della lista; posizione nella pagina (Contesto, Header, Footer, Sidebar…); tipo di link – un’immagine può essere più invitante; contesto del link; URL del link; above the fold o no; lingua del link (uguale o no a quella del testo); un grafico di SEOMoz spiega perfettamente la questione correlata alla posizione nella pagina (Figura 9.6).

Figura 9.6 - Correlazione dei link all’interno di una pagina.

È fondamentale, quindi, pensare prima di tutto all’usabilità di una pagina e dei link al suo interno anche in ambito prettamente SEO: non si parla più di quantità di link, ma, ad esempio, di colore del link, di probabilità che il link venga cliccato.

Cross-Linking Si definisce Cross-Linking il processo in cui il sito A linka il sito B, B linka C e C linka A. L’esempio mostrato è un caso basilare: in pratica, è una metodologia atta a linkare fra di loro una serie di siti web o network in una struttura quasi circolare in cui i siti web sono reciprocamente collegati tra di loro (Figura 9.7).

Figura 9.7 - Cattiva struttura a Cross-Linking.

Non è una tecnica Black Hat SEO, non la consideriamo una tecnica White SEO, diciamo che è una tecnica “grigia”, con mille sfaccettature e peculiarità da prendere bene in considerazione. I motori di ricerca sono in grado di individuare i network di link e anche comunità in cui si scambiano link per aumentare la propria reputazione. L’ultima fonte ufficiale da Google risale al 2007; si afferma: “Ho molti siti diversi. Posso linkarli reciprocamente fra loro? Prima di iniziare a farlo, considera il punto di vista dell’utente e se i crosslink possano fornire valore. Se i siti

sono correlati fra loro, per esempio un sito di manuali di automobili che linka un sito di ricambi d’auto, potrebbe aver senso, perché i link sono organici e utili. Ma il Cross-Linking fra dozzine o centinaia di siti, probabilmente, non fornisce valore, e io non lo raccomanderei”. Infine, troviamo un video, all’indirizzo http://tinyurl.com/crossl-link, in cui viene affermato che non è opportuno linkare direttamente nel foot un network di siti web e che i link dovrebbero essere correlati in modo da fornire informazioni in linea con l’utente che naviga tra i diversi siti web. In poche parole, nel caso abbiamo un network di siti e li vogliamo collegare tra loro senza subire penalizzazioni, dobbiamo: • linkare tra loro possibilmente siti web o pagine di siti web che abbiano argomenti correlati; • se siamo una software house che ha migliaia di siti web ospitati su un server con un unico IP, potrebbe essere rischioso collegare fra loro tutti i siti web. Infatti, il motore di ricerca in primo luogo analizza che i link di siti interconnessi non risiedano sulla stessa classe di indirizzi IP; • scegliere attentamente i siti web da linkare: meglio pochi siti web ma di qualità, piuttosto che tanti siti web con contenuti scadenti.

NOTA Il WebRing è una collezione di siti Internet riuniti in una struttura circolare. Viene usato per aumentare la visibilità dei siti che ne fanno parte, ma spesso l’obiettivo principale è il miglioramento del ranking. In alcuni casi le diciture Cross-Linking o WebRing possono assumere il medesimo significato. Google ha affinato l’algoritmo per riuscire a identificare schemi anche molto complessi di network artificiali, come ad esempio la struttura denominata link-wheel oppure lo schema piramidale. Tuttavia l’algoritmo di Google non è perfetto e alcuni network che utilizzano tecniche black hat sopravvivono e riescono ancora a trarre profitto da tali strutture di linking di scarsa qualità, riuscendo a eludere i meccanismi antispam.

Caratteristica dei link e i link di qualità Come abbiamo visto nei precedenti capitoli, i link sono importanti e devono essere curati con attenzione sia per quanto riguarda l’ottimizzazione on page, sia per quella off page. I link possono essere testuali, immagini o animazioni gif o flash, perciò vanno creati in modo tale da essere un veicolo di nuovi visitatori verso il nostro sito web. Nei paragrafi precedenti abbiamo già analizzato alcuni fattori importanti, come la posizione dei link, l’anzianità dei link ecc. In questo breve paragrafo cercheremo di riassumere tutte le principali caratteristiche che deve avere un buon link, in modo tale da affrontare correttamente il processo di ottimizzazione off page. Iniziamo col dire che è preferibile avere più link da diversi domini, piuttosto che molti link da un unico dominio: la nostra reputazione online, se avessimo diversi link sparsi per la rete, aumenterebbe. Inoltre, avendo più link che puntano al nostro sito web da domini differenti,

avremo più possibilità di catturare nuovi visitatori. Come abbiamo già visto, è preferibile avere link dai trusted see, cioè i cosiddetti siti di fiducia. Inoltre, proporre link all’interno del contenuto (sia esso una news, un articolo o quant’altro) sembra avere maggior peso piuttosto che presentare link disposti in modo casuale nella pagina. I link fissi nella pagina, infatti, possono essere interpretati come poco naturali o a pagamento; diversamente, un link messo all’interno di un discorso o di un post di un blog ricoprirebbe un maggior peso, perché interpretato come di utilità per l’utente. I link di testo, tipicamente, possono avere più peso e più valore rispetto a quelli inseriti nelle immagini o in banner animati.

NOTA Vogliamo ricordare che i i link presenti nel tag NOSCRIPT hanno poco valore, perché tale tipologia di link non è visibile dal visitatore nella pagina (salvo che egli non riesca a visualizzarla correttamente) e, per tale motivo, i motori di ricerca vi danno meno peso al fine del ranking.

Nel marzo 2014 Matt Cutts è ritornato sul concetto della qualità dei link e del loro valore (https://www.youtube.com/watch?v=NCY30WhI2og). Jon Ball riassume in cinque punti tradotti dal blog TagliErbe quali sono i cinque elementi da considerare per valutare la qualità dei link.

1. Rilevanza La rilevanza è uno dei principali parametri. Come abbiamo ribadito più volte, è fondamentale avere link contestualizzati. A livello, invece, di dominio, se questo è estremamente noto e popolare, è da considerare come positivo: un link da Corriere.it o Repubblica.it non credo possa essere disprezzato da nessuno, anche se proviene da una pagina non proprio a tema.

2. Tipologia La tipologia di un link si compone, a sua volta, di vari elementi: • anchor text: è il testo cliccabile di un link. Probabilmente è il modo più comune per migliorare il posizionamento per una determinata parola chiave, anche se un eccesso di link, con identico anchor text, è ormai da tempo oggetto di penalizzazioni (Penguin su tutte). Meglio, quindi, cercare di ottenere link con anchor text variati (che includano il proprio brand, le parole chiave per le quali ci si vuole posizionare, termini di coda lunga ecc.); • URL completo: si ha quando si utilizza l’intero URL per linkare una pagina o un sito (http://www.libro-seo.it). È un modo molto naturale di linkare, anche se non così potente come l’uso di anchor text mirati e ricchi di keyword; • dominio: simile all’URL, ma senza “fronzoli”. Per esempio, un lettore potrebbe linkare il mio sito usando libro-seo.it, anziché http://www.libro-seo.it. Se il dominio include la

keyword per la quale si punta a essere posizionati, potrebbe essere un buon link, anche se è bene fare attenzione all’algoritmo EMD Update; immagine: ovviamente è anche possibile rendere linkabile una immagine, ovvero fare in modo che cliccando su una immagine si venga portati su una certa pagina. Questo genere di link è buono a livello di diversificazione, soprattutto se l’attributo alt è correttamente compilato; link “accorciato”: esistono molti siti che permettono di accorciare il proprio URL. Uno dei più noti è goo.gl, gestito proprio da Google, un altro è bit.ly. Quando si ottiene un link di questo tipo, è bene analizzare come viene fatto il redirect, per capire se è in grado di passare tutto il link juice possibile.

Ci sono poi vari modi per linkare una risorsa: • diretto: è il classico link in grado di portare direttamente da una pagina a un’altra; • redirect: è un link che porta su una pagina, ma passa prima da un’altra pagina. È bene ricordare che un reindirizzamento di tipo 301 indica al motore di ricerca che la risorsa è stata spostata in modo permanente su un nuovo URL, e che tale redirect trasferisce anche tutto il PageRank (almeno stando a quanto affermato da Matt Cutts il 25 febbraio 2013). Attenzione, invece, al 302, che si ritiene non passi link equity; • site-wide: è un link inserito in tutte le pagine di un sito (per esempio, nella barra laterale o nel footer). Se Google lo ritiene naturale, lo conteggia spesso come un singolo link; se, invece, lo ritiene artificiale, può far scatenare l’ira del Penguin; • JavaScript: spesso si usa JavaScript per creare particolari menu all’interno di siti o blog. L’abilità di Google nel seguire certi link inclusi in JS è nota già dal 2009, e dal 2011 il Googlebot ha iniziato a indicizzare alcuni commenti in AJAX/JS. Personalmente, suggerisco comunque di “raddoppiare” questi link con link testuali statici, per levarsi ogni dubbio; • Nofollow: l’attributo nofollow dice sostanzialmente ai motori di ricerca di “non aggiungere il link” nell’albero dei link (link graph) del motore di ricerca (se inserito all’interno di uno specifico link). Non è chiaro il valore attribuito da Google a questa tipologia di link, ma la presenza di un po’ di link nofollow, all’interno del profilo di backlink di un sito web, è sicuramente da considerarsi naturale.

3. Autorevolezza Quando è necessario misurare la qualità di un link, l’autorevolezza è la metrica che viene immediatamente dopo la rilevanza. C’è chi cerca di determinare tale parametro guardando al valore del PageRank (parametro ormai non aggiornato), chi usa la Mozbar (la barra di Moz, che mostra valori come la Domain Authority, la Page Authority e il MozRank), chi Alexa. È importante, però, comprendere che, in parecchi casi, si raggiunge un miglior risultato ottenendo link da siti di nicchia che trattano temi affini al proprio, anziché puntare a link da grosse testate generaliste. Inoltre, è utile cercare di capire il traffico sviluppato dal sito linkante (utilizzando strumenti come SEMrush) e i livelli di engagement presenti sul sito stesso (conteggiando like, retweet e +1 ottenuti dagli articoli, quantità/qualità dei commenti ecc.).

Ovviamente in commercio esistono numerosi tools per misurare l’autorevolezza, ma il “metodo manuale” risulta essere quello migliore. Ad esempio, possiamo cercare da un sito da cui riceviamo un link, il suo brand in Google. Se non troviamo molte informazioni in merito, allora è molto probabile che quel link valga poco o niente.

4. Posizione Per posizione si intende il punto della pagina in cui è stato inserito il link. Di seguito riportiamo un breve elenco, dalla posizione migliore alla peggiore: • all’interno del contenuto; • in un box (ad esempio, nel box della biografia dell’autore); • nella sidebar (da evitare); • nel footer (da evitare). Ovviamente non è sempre possibile controllare la posizione di un link ottenuto, ma in linea generale il link migliore è quello inserito naturalmente all’interno di un contenuto pertinente.

5. Oltre i link È bene cercare di sviluppare un certo fiuto analizzando a colpo d’occhio: • gli altri link presenti sulla pagina (e nel dominio); • il tema trattato e la qualità complessiva dei contenuti (nella pagina e nel dominio); • la frequenza di pubblicazione dei contenuti (se si tratta di un sito editoriale). In altre parole, bisogna porsi domande del tipo: c’è un blog? è aggiornato? Com’è la qualità dei contenuti? C’è una pagina “chi siamo” ben fatta? Sono presenti link verso siti irrilevanti? C’è l’indirizzo e/o il numero di telefono nella pagina “contatti”? Chi gestisce il sito? Cosa ha fatto e cosa fa nella vita? Imparare a individuare di primo acchito un sito di buona qualità è infatti estremamente importante in una strategia di link building, perché ottenere link pregiati è la miglior garanzia a lungo termine per un buon posizionamento sui motori. È quindi davvero importante osservare queste semplici regole per produrre campagne di successo e soprattutto per evitare penalizzazioni che potrebbero danneggiare la nostra reputazione nel web.

L’avvento del nofollow nella SEO moderna La SEO, disciplina che da sempre ha caratterizzato il mondo della visibilità sul web, ultimamente sta cambiando. Cambiano gli scenari, cambiano gli algoritmi dei motori di ricerca e cambiano le abitudini e le esigenze dei navigatori sul web. Google, dopo gli aggiornamenti di Google Panda, EMD Update e Google Penguin, ha rivoluzionato il “vecchio modo” di concepire la SEO, ma non solo, infatti anche i copy che scrivono articoli per il web devono prestare attenzione ad alcuni

meccanismi che sono stati innestati a mano a mano e messi in piedi da Google. In primo luogo, l’utilizzo degli anchor text con “keyword secca” all’interno di un articolo non solo potrebbe perdere valore, ma, se attuato in modo massivo (ovvero se la maggior parte dei link che atterrano sul vostro sito arriva solo da quella keyword), potrebbe far scattare tutta una serie di meccanismi (Google Penguin e relative release) che potrebbero determinare un calo di visite al sito web (linkato) o, in casi estremi, a una penalizzazione. Proprio nella prima settimana di settembre 2013 (per l’esattezza, il 4 settembre 2013) molti webmaster di tutto il mondo hanno segnalato significativi cali di visite o aumenti inaspettati, segnale di test di nuovi possibili aggiustamenti dell’algoritmo di Google (anche se non sono state rilasciate comunicazioni ufficiali). Come dovrebbero essere i link che arrivano al nostro sito web secondo Google? • naturali; • con anchor text differenti e differenziati; • “brandizzati”, ovvero in cui ci siano citazioni del brand o del sito stesso; • sia follow sia no follow (per publiredazionali, widget, banner o guest post).

NOTA Ripercorriamo alcune dichiarazioni fatte da Google: • i link nei widget e nelle infografiche devono avere l’attributo rel=”nofollow”; • i link che arrivano da publiredazionali o guest post di bassa qualità o a pagamento da oggi devono avere l’attributo nofollow.

È quindi fondamentale che chi scrive articoli e posiziona link in guest post o publiredazionali a pagamento metta l’attributo nofollow a tali link. Inoltre è buona norma inserire o nel titolo o a fondo articolo la dicitura “contenuto sponsorizzato” in caso di guest post o articoli a pagamento. Se ci atteniamo a queste norme, saremo certi di non incappare in segnalazioni da parte di Google ed eviteremo di essere penalizzati in seguito ad aggiornamenti più “cattivi” di Google Penguin. Esistono già esempi di penalizzazioni da guest post a pagamento, come è avvenuto a Interflora nel febbraio 2013. John Mueller (https://plus.google.com/+JohnMueller/posts) ha già affermato chiaramente in passato che “non è necessario mettere il nofollow su tutti i link del sito”, ma in diversi hangout ha specificato più volte il concetto: “Non ci sono penalizzazioni se non linki siti esterni. Dal punto di vista della user experience, potrebbe essere una buona idea inserire dei link sulle tue pagine, ma dal punto di vista del web spam e da quello dell’indicizzazione di Google, non c’è bisogno di mettere link sulle tue pagine. In passato abbiamo visto persone che linkavano Google, Wikipedia o CNN credendo che i motori di ricerca fossero così ingenui da pensare che, linkando siti noti e di qualità, anche la qualità delle pagine dei loro siti possa crescere di conseguenza.”

Quindi il terrore di linkare notizie o evitare penalizzazioni è alla base dei nuovi SEO che sono terrorizzati e proprio recentemente (maggio 2016) Gary Illyes (portavoce del team tecnico di Google) ha manifestato la sua rabbia nei confronti di importanti siti di notizie che non linkano altri siti più piccoli per il terrore di ricevere penalizzazioni o abbassamenti di ranking. Cercando di riassumere: • tutti i tipi di annunci pubblicitari, testuali o banner, widget o infografiche devono avere l’attributo rel=”nofollow”; • articoli o publiredazionali a pagamento devono avere la dicitura “contenuto sponsorizzato” ed eventuali link presenti devono essere nofollow; • per evitare penalizzazioni, negli articoli distribuiti su siti di comunicati stampa con anchor text ottimizzati, questi devono essere nofollow; • i link nei footer di siti web non devono “passare” PageRank e quindi devono essere nofollow; • linkare non è proibito, possiamo farlo citando risorse utili e autorevoli!

Influenza dei nofollow sul ranking di Google I nofollow influenzano il ranking di Google? Secondo Cutts la risposta è no… ma, se abusiamo di tecniche di spam nella creazione di link (come nella diffusione massiva di articoli o commenti con anchor text ottimizzati), allora potremo cadere sotto la lente d’ingrandimento di Google e incappare in una penalizzazione manuale. Ora abbiamo il quadro completo dell’utilizzo del rel nofollow nelle nostre strategie di visibilità sul web; una domanda, tuttavia, sorge spontanea: “Ma se utilizzassimo tutte queste tecniche per fare NEGATIVE SEO verso un nostro competitor?”. La nostra risposta a tale quesito è che oggi, con gli ultimi aggiornamenti dell’algoritmo, è purtroppo più facile utilizzare tecniche black hat per cercare di disturbare un sito di un competitor; le analizzeremo in modo approfondito nel capitolo dedicato al black hat. La SEO moderna si sta evolvendo e rivoluzionando; è quindi fondamentale aggiornarsi e adottare tecniche pulite e lineari.

Link Building e visibilità online: Link Earning? Il processo di Link Building (che possiamo chiamare in mille modi differenti ad esempio Link Earning) è uno dei pilastri su cui si fonda la SEO (e su cui i principali motori di ricerca combattono). Significa, infatti, “costruire link” (e ad esempio Google non vuole che i link vengano “costruiti” ma che siano “naturali”!). Questo processo permette di aumentare il bacino di utenza dei nostri visitatori e di scalare posizioni all’interno dei motori di ricerca. Il numero di inbound link verso il nostro sito è una prima misura della nostra popolarità. Tale processo è molto laborioso e va curato in ogni sua parte per ottenere reali benefici a livello di visibilità. Dobbiamo tenere presente che in questo scenario è bene applicare anche adeguate strategie di marketing, affiancandole a strategie di link baiting, cioè la capacità di un contenuto di generare link spontanei. Nei successivi paragrafi prenderemo in considerazione tutti gli aspetti pratici che un buon esperto SEO deve mettere in atto per migliorare la popolarità di un sito web.

NOTA Negli aggiornamenti rilasciati in febbraio e aprile 2012 (http://tinyurl.com/feb-google e http://tinyurl.com/ap-google), Google ha menzionato nuove politiche per la valutazione dei link. In particolare, ha dichiarato: “Spesso utilizziamo delle caratteristiche dei link per cercare di capire l’argomento della pagina che riceve il link. Oggi abbiamo cambiato il modo con il quale valutiamo i link; in particolare, non utilizziamo più un metodo di analisi che abbiamo usato per alcuni anni. Spesso riprogettiamo o eliminiamo del tutto parti del nostro algoritmo di valutazione per mantenere il sistema gestibile e comprensibile”. Tra le varie novità relative ai nuovi metodi di valutazione dei link possiamo menzionare: • la disattivazione di un metodo di classificazione relativo al testo di ancoraggio; • il miglioramento dei sistemi per interpretare e usare il testo di ancoraggio e determinare quanto sia rilevante quell’anchor text per ogni data query e sito; • una gestione più complessa e articolata per valutare i link in base al contesto. Ovviamente queste sono solo alcune delle novità annunciate che potranno essere utilizzate a pieno regime per dare più o meno peso ai vari link.

Tecniche di Link Building deprecate Scambio naturale di link Il primo passo da fare è cercare di ottenere in modo del tutto naturale link spontanei, così da aumentare la nostra visibilità. Semplice a dirsi, ma molto meno a farsi. Per acquisire link in entrata in modo naturale, dobbiamo fare in modo che il nostro sito web predisponga contenuti, informazioni, documenti o oggetti multimediali di interesse per il visitatore. In questo modo egli lo linkerà all’interno del suo blog, nei social network o nei suoi siti e noi acquisiremo in modo naturale dei link in ingresso. Abbiamo già detto delle difficoltà e delle accortezze da avere nel caso di Cross-Linking, quindi dobbiamo stare attenti a non cadere in qualche errore banale. Durante la fase di scambio di link, dobbiamo scegliere siti attinenti all’argomento trattato ed eventualmente preparare banner o link opportuni da dare ai cosiddetti “siti amici”. È bene precisare che una volta lo scambio di link e banner era una pratica molto diffusa e produceva ottimi risultati; oggi, con l’aggiornamento degli algoritmi dei motori di ricerca, non è garantita la sua efficacia. Questo perché solitamente lo scambio di link avviene in pagine dedicate, dove si accumulano banner e link a siti che non hanno relazione, quindi il motore di ricerca li categorizza con rilevanza molto bassa. Nonostante ciò, ricordiamo che tali link possono comunque costituire un tramite per aggiudicarci nuovi potenziali visitatori. Ovviamente, avendo appreso quanto illustrato, siamo più consapevoli delle azioni che possiamo compiere e soprattutto della loro efficacia. Per esempio, se dobbiamo farci linkare con un’immagine o un banner, questa potrebbe essere una soluzione corretta:

NOTA Tipicamente, portali, comunità o siti ludici ospitano la pagina “siti amici”, in cui avviene uno scambio reciproco di link. Questa pagina, per avere valore, non dovrebbe contenere più di 25 link ed essi dovrebbero essere contestualizzabili. Maggiori sono il PageRank e il trust di questa pagina (Domain e Page Authority), maggiore sarà il guadagno che avremo in termini di visibilità da tale scambio.

A nostro avviso, è sempre opportuno preparare qualche banner in modo tale da poter pubblicizzare il nostro sito web in contesti diversi, come scambio banner o scambi naturali su siti dedicati e aventi il medesimo argomento. Queste azioni a volte determinano pochi benefici a livello di posizionamento nei motori di ricerca, ma possono comunque condurre nuove visite o potenziali clienti al nostro sito web.

Figura 9.8 - Un esempio di banner.

NOTA Esistono degli standard per le dimensioni dei banner definite dallo IAB (http://www.iab.net). Tra questi troviamo (espressi in pixel) i seguenti formati: 300 x 250, 250 x 250, 240 x 400, 336 x 280, 180 x 150, 300 x 100, 720 x 300, 468 x 60, 234 x 60, 88 x 31, 120 x 90, 120 x 60, 120 x 240, 125 x 125, 728 x 90, 160 x 600, 120 x 600, 300 x 600. Ultimamente, l’OPA (Online Publishers Association) sta valutando la possibilità di introdurre nuovi formati maggiormente orientati a catturare l’attenzione del navigatore. Un ottimo esempio è lo scambio banner con link testuale abbinato, per due motivi principali: • nella stragrande maggioranza dei siti web che utilizzano banner come forma di pubblicità online vengono sfruttate piattaforme per il tracciamento dei clic; in tal modo si potrebbere perdere il link juice passato; • è sempre da preferire una forma testuale del link.

L’evoluzione del web è passata dai pop up, finestre che si aprivano e obbligavano gli utenti a

compiere determinate azioni, a finestre Ajax, a banner animati di varie dimensioni. Oggi, con i principali browser web è possibile inibire le finestre di pop up, quindi avere una navigazione più scorrevole. Per questo motivo, è preferibile evitare campagne pubblicitarie che si basano su finestre di pop up. Il passo successivo è stato quello di creare finestre di pop up o banner a comparsa che sfruttano Ajax (chiamata asincrona) o JavaScript + CSS. Queste animazioni, in realtà, grazie a un gioco di CSS e Ajax (JavaScript a seconda delle metodologie di implementazione), compaiono all’utente (e non vengono bloccate dai browser) a tutto schermo o in aree dedicate e obbligano alla lettura. Un nuovo modo di fare pubblicità a volte molto invasivo, ma che potrebbe risultare efficace. Per cercare di ottenere uno scambio naturale di link, è quindi buona norma, prima di tutto, attrezzarsi con banner e link da fornire ai siti web in cui verrà inserito il nostro collegamento e successivamente cercare di invogliare altri webmaster a inserire il nostro link o banner sui loro siti web. (Vogliamo sottolineare che stiamo parlando di tecniche deprecate e ormai sorpassate!)

Figura 9.9 - Banner pubblicitario a comparsa dal sito HTML.it.

NOTA Google (http://bit.ly/widget-seo) ha ribadito più volte come devono essere strutturati e utilizzati i link sia nei banner, sia nei widget. Per questo motivo è fondamentale utilizzare l’attributo rel=”nofollow” in tali contesti.

Acquisto di link: una tecnica da evitare I link non solo possono essere acquisiti in modo del tutto naturale e gratuito, ma vi è la possibilità di acquistarli. Acquistando un pacchetto di link, sui siti indicati verrà posizionato un link verso il nostro sito web. Ma questa pratica è veramente utile? A nostro avviso, come tutte le pratiche SEO, deve essere utilizzata in modo opportuno e valutata in base al nostro business (o a quello del cliente) e alle nostre esigenze. Inizialmente, molti webmaster hanno iniziato ad acquistare link con il solo scopo di aumentare il PageRank delle pagine linkate senza preoccuparsi se fossero a tema o visibili ai motori di ricerca. Come abbiamo già detto, i motori di ricerca spesso sono in grado di capire se i link arrivano da link farm o da pagine con argomento completamente differente. Sono arrivate, quindi, le prime penalizzazioni ai siti che vendevano link in modo indiscriminato, più precisamente verso siti web categorizzati come link farm che non utilizzavano l’attributo rel=”nofollow”. Questo ha causato diverse perplessità nel settore, soprattutto sull’utilizzo corretto degli attributi da apporre nei link e sull’efficacia nell’acquisizione di link o spazi pubblicitari a pagamento. I nostri consigli sono i seguenti: • se dovete acquisire link o spazi pubblicitari, guardate il PageRank, l’autorità della pagina che vi linkerà e la collocazione del link; essere linkati da una pagina contenente migliaia di altri link ha un valore praticamente nullo; • cercate di utilizzare testi e Anchor text differenti, in modo da ottimizzare le diverse keyword che puntano al vostro sito web; • evitate link da siti con argomenti non inerenti al vostro.

NOTA In questo contesto è di attualità il caso JCPenney, un’azienda che è riuscita a scalare le classifiche prendendosi letteralmente gioco di Google e dei suoi algoritmi semplicemente grazie a una compravendita di link e spazi pubblicitari. Google ha quindi modificato i suoi algoritmi (Farm update e Panda update) proprio per contrastare la lotta allo spam e penalizzare i siti web che acquistano link in modo smisurato. L’acquisto di link è quindi una pratica possibile anche se MOLTO rischiosa, che va utilizzata con giudizio e che, soprattutto, dovrebbe essere affiancata a una buona strategia di Web Marketing per identificare in modo corretto gli obiettivi e il target che si vogliono raggiungere.

NOTA I siti web www.alverde.net e http://www.teliad.it/ sono un ottimo punto di partenza per iniziare ad acquistare link. Attenzione: è una tecnica sconsigliata!

Inserimento nelle directory Una delle strategie che abbiamo a disposizione è l’inserimento del nostro sito web in directory. Tale inserimento è gratuito nella maggior parte dei casi, ma in alcuni contesti potrebbe risultare a pagamento. Anche in questo ambito valgono le stesse raccomandazioni illustrate per lo scambio dei link: utilizzare directory di qualità, inserire i link all’interno di categorie correlate al nostro sito web, non abusare di software di inserimento automatico in migliaia di directory. Meglio poche directory ma buone, piuttosto che tante ma di dubbia popolarità. Come sempre, dobbiamo quindi prestare attenzione alla tipologia di directory, analizzare eventuali tag title e la descrizione della pagina che ospiterà il nostro link, vedere se la directory crea una pagina per ogni utenza registrata e così via. È importante inserire titoli e descrizioni differenti sia per evitare penalizzazioni sul contenuto duplicato, sia per rafforzare maggiormente più keyword. Nell’appendice B del libro troverete una lunga serie di directory italiane e straniere da cui iniziare per inserire il vostro sito web. Inoltre, sul sito web http://www.libro-seo.it/, sarà disponibile un elenco aggiornato di directory ritenute valide e di buona utilità in ambito SEO. Prima di proseguire, vogliamo mostrarvi l’inserimento di una delle directory, a nostro avviso, più importanti, illustrandovi passo passo le azioni da compiere. Andiamo su http://www.dmoz.org/ e scegliamo la categoria in cui inserire il nostro link, nel nostro caso: Regional > Italian > Italiano > Affari > Information Technology > Internet > Marketing > Registrazione e Posizionamento sui Servizi di Ricerca

Figura 9.10 - Procedura di inserimento di un sito web in Dmoz, passo 1.

A questo punto, selezioniamo il pulsante in alto a destra Suggerisci URL, inseriamo il nostro URL, il titolo e la descrizione attenendoci alle regole illustrate nei precedenti capitoli (titolo accattivante, descrizione concisa ma contenente keyword e così via). Premendo il pulsante Invio, comunicheremo la nostra intenzione di essere iscritti alla directory, operazione semplice e veloce. In modo del tutto analogo, possiamo procedere con l’inserimento in altre directory, ricordandoci di utilizzare la nostra creatività per differenziare titolo e descrizione, che identificheranno il nostro sito web.

Figura 9.11 - Procedura di inserimento di un sito web in Dmoz, passo 2.

NOTA Abbiamo incluso l’utilizzo delle directory fra le tecniche deprecate in quanto nella SEO moderna i principali motori di ricerca hanno ribadito in modo insistente che i link che arrivano al sito devono essere naturali e di qualità. Quindi sarebbe inutile sprecare tempo e risorse nell’utilizzo di directory che potrebbero in futuro essere la causa di penalizzazioni.

Promozione nei forum I forum sono un luogo di ritrovo in cui vengono fornite, a volte, utili risposte in merito a dubbi, perplessità o problemi. Per questo motivo, essere presente su un forum, ovviamente correlato al sito da promuovere, può essere un’operazione valida da compiere. Supponiamo di essere una software house: essere presenti su un forum tecnico dove forniamo suggerimenti e consigli può essere molto utile per promuovere la nostra attività. Inoltre, è sempre consigliabile inserire una

firma contenente l’URL del nostro sito web. In questo modo, i curiosi potranno accedere al nostro sito web associandolo a una risposta positiva ottenuta dal forum. Attenzione a non abusare di questa tecnica; si tratta di una strategia, a nostro avviso, oltrepassata, che può essere utile solo nel caso in cui fossimo utenti assidui di un determinato forum.

Figura 9.12 - Esempio di firma apposta in un forum di discussione.

NOTA Se stiamo discutendo su un argomento inerente alla buona cucina, è di poca utilità inserire la firma che rimanda al nostro sito web di informatica. Questo perché, come abbiamo visto, i motori di ricerca previlegiano link con argomenti correlati. Inoltre, un utente interessato ad argomenti di cucina non avrà, nel momento in cui sta consultando quel particolare forum, particolare interesse a visionare un sito con tematiche completamente differenti.

Un giusto equilibrio nel fornire risposte di qualità aumenterà la nostra reputazione (ricordiamo

che, inserendo una firma adeguata, potremo aumentare la link popularity). Spesso i post dei forum possono apparire in prima posizione nei risultati di ricerca, quindi, se riusciamo a essere presenti in essi, abbiamo molte probabilità di aumentare la nostra link popularity. Bisogna ricordarsi che i forum sono gestiti da moderatori: creare un post ad hoc per pubblicizzare un evento, un prodotto o un servizio potrebbe essere utile, ma bisogna tenere presente che tale post deve risultare di interesse per i lettori. Altrimenti potremmo cadere nella chiusura del post da parte di un moderatore o, nei casi più gravi, nelle liste di spam, con conseguente eliminazione del nostro account e di tutti i nostri post dal forum. Per tale motivo, le azioni da compiere devono essere fatte seguendo una logica: è inutile rispondere a molte domande in un forum in poche ore, primo perché daremmo soluzioni banali, secondo perché non sarebbe di utilità per la nostra reputazione. La promozione attraverso i forum richiede tempo e cura, ma, tra le azioni di promozione off page, è certamente una pratica che, se usata correttamente, potrebbe condurre a ottimi risultati di visibilità.

NOTA È buona norma generale, quando ci iscriviamo a forum, gruppi e comunità sul web, completare in modo corretto anche il profilo. In esso inseriamo una descrizione della società, link verso il sito societario o il blog e via dicendo. L’accuratezza con cui curiamo questi piccoli particolari è il primo passo per aumentare la nostra autorevolezza nel web.

Creare un forum La creazione di un forum non si può definire un’azione off page, bensì on page. Nonostante ciò, ci è sembrato opportuno inserirla in questo contesto per fare capire l’utilità di avere e gestire un forum aziendale o personale. Tutte le pratiche atte a gestire e migliorare un forum sono invece pratiche SEO off page, che ci consentiranno di aumentare la nostra reputazione e popolarità nel web. Il primo passo, ovviamente, è quello di creare un forum: se non siamo abili programmatori, esistono numerosi servizi online che consentono di creare forum. Tra questi possiamo citare: • http://www.forumfree.org • http://www.forumup.it/

NOTA Se mastichiamo un po’ di linguaggi di programmazione per il web, il nostro consiglio è quello di partire dai numerosi progetti open source per poi personalizzare a piacimento un forum. Ovviamente, un forum creativo e personalizzato avrà più valore di uno standard e utilizzato da migliaia di webmaster.

Una volta creata la nostra piattaforma di scambio di idee, le azioni più importanti da compiere sono le seguenti: • creare un forum che parli di argomenti attuali e magari poco trattati; • avere dei moderatori preparati che analizzano i nuovi post; • rispondere in modo adeguato a problemi e fornire soluzioni appropriate; • non lasciare in disuso il forum; un utente che non riceve una risposta nel giro di pochi giorni sarà portato a cercare miglior fortuna su altri forum; • creare post unici e creativi nei forum di interesse. Far crescere una comunità del genere è un impegno che richiede molto tempo e impegno. A livello di Web Marketing, avere un forum aziendale in cui rispondere a dubbi o perplessità degli utenti può essere un’arma a doppio taglio.

Network di siti: una tecnica molto rischiosa Una delle possibilità a disposizione durante la progettazione di un sito web è quella di creare un network di siti web tra loro correlati, ma con tematiche differenti. Per creare un network di siti web, è necessario valutare la possibilità di utilizzare domini separati o sottodirectory con i problemi già affrontati nei precedenti capitoli. Un altro aspetto fondamentale consiste nel chiarire i motivi per cui strutturare un network di siti web e pianificare un’azione di marketing specifica. Per esempio, un’azienda che commercializza prodotti potrebbe avere: • un sito web informativo in cui vengono illustrati i processi produttivi e la solidità aziendale; • un sito web dedicato all’e-commerce; • un portale di assistenza online; • un blog aziendale in cui inserire novità, aggiornamenti e roadmap aziendali. Tutto questo va opportunamente valutato, sia perché implica un maggior dispendio di energie a livello progettuale e di gestione, sia perché deve essere attuato in modo tale da avere un ritorno in termini di visite e soddisfazione da parte del cliente.

Article Marketing L’Article Marketing è la tecnica che offre la possibilità di pubblicare articoli o recensioni su siti specializzati. Molte volte tale attività è stata abusata e utilizzata per diffondere contenuti del tutto identici su diversi siti web. Per prima cosa, è opportuno non creare contenuti duplicati. Se abbiamo un blog con un articolo molto interessante, possiamo pubblicizzarlo su siti di Article Marketing in forma diversa, producendo un riassunto che rimanderà al nostro sito web. Anche in questo campo sono necessarie originalità e fantasia per produrre contenuti di qualità e interessanti per i lettori. Negli ultimi anni tale tecnica è divenuta molto rischiosa per il semplice motivo che i siti di article marketing contenevano per lo più contenuti duplicati e migliaia di link in uscita. Questo ha fatto sì che un link ottenuto da un sito di article marketing avesse un valore

prossimo allo zero per le nostre attività di visibilità online.

La nuova strada per la Link Building moderna: i link devono essere naturali! Comunicati stampa online Nelle attività di promozione online viene a collocarsi la possibilità di sfruttare i Comunicati Stampa per far conoscere i propri prodotti o il proprio brand. I siti che offrono questa possibilità hanno regole ferree: i Comunicati Stampa devono avere almeno un certo numero di caratteri, una certa forma e contenuti appropriati, e prima di essere pubblicati normalmente vengono validati. Per tale motivo, è opportuno scrivere Comunicati Stampa di qualità e mirati, in modo da cogliere l’attenzione del lettore. Dobbiamo precisare inoltre che avere uno stesso contenuto su diversi siti è una pratica rischiosa. Per tale motivo i comunicati stampa online potrebbero generare link innaturali. È quindi fondamentale inserire sempre nel comunicato l’attributo rel nofollow per beneficiare solo della visibilità reale del sito ospitante e non solo per ottenere un link.

NOTA I Comunicati Stampa possono essere considerati attività definite di Buzz Marketing. Questa tipologia di marketing ha lo scopo di aumentare il numero di visite verso uno specifico servizio o prodotto. In questo modo, è possibile accrescerne la popolarità in breve tempo e ottenere un buon riscontro in termini di conversioni. In tali attività è opportuno evitare di: 1. avere contenuti duplicati; 2. avere link con anchor text ottimizzate (ad esempio link su “vendita case”).

Promozione nei blog L’azione di promozione dei blog è anch’essa una pratica molto dispendiosa a livello di tempo e va curata nei dettagli. L’inserimento di commenti nei blog non deve essere vista come un’azione di spam, perché non ci porterà nessun risultato. Dobbiamo commentare solamente post che sono di nostro gradimento e in linea con il sito web che stiamo promuovendo. È buona norma non criticare l’autore del post, bensì proporre argomentazioni costruttive che possano arricchire il post. È inutile rispondere a un post che parla di come sia bello l’iPhone 7 dicendo: “Sì, è bello www.miosito.it”, con il solo scopo di inserire un link verso il nostro sito web. Ormai ci sono chiare le azioni che dobbiamo compiere; esse devono essere motivate e gli argomenti devono essere correlati a quello che vogliamo proporre, quindi: • commentiamo solamente ciò che ci piace ed è correlato alla nostra attività; • non critichiamo in modo brusco e scortese gli autori: cortesia e buon comportamento sono fondamentali; • creiamo commenti costruttivi e creativi.

All’interno delle piattaforme di blogging è possibile attivare un meccanismo di ping: questa tecnica, che prende il nome di pingback, consente, quando si scrive un nuovo post, di avvisare il gestore di ping dell’inserimento di un nuovo documento, il quale verificherà a sua volta in modo automatico la presenza di link di interesse inserendoli nel proprio network. In questo modo è possibile la diffusione dei propri link e contenuti nei principali aggregatori di blog o di notizie. Ovviamente, tale tecnica va studiata per vedere che non si creino in rete contenuti duplicati, ma link che rimandano al nostro post originale.

NOTA Il Trackback è l’invio di una segnalazione da un blog sorgente che notifica al blog di destinazione la presenza di un contenuto riferito a un suo post.

Creare un blog Quanto illustrato per la creazione di un forum è valido anche per la creazione di un blog. I blog stanno riscuotendo un enorme successo anche nelle realtà aziendali. Annunciare l’uscita di un nuovo prodotto, mettere video dettagliati sulle novità e le caratteristiche, pubblicare curiosità e approfondimenti sono tutte azioni che permettono non solo di fidelizzare l’utente/cliente, ma anche di fornire un servizio di qualità.

NOTA Un blog è un sito web in cui è possibile pubblicare post in ordine cronologico inverso. All’interno di questo spazio web è possibile inserire immagini, video e opinioni sugli argomenti in linea con il tema del blog.

Ovviamente un blog deve essere frequentemente aggiornato e suscitare interesse nei lettori. Esistono diverse piattaforme che offrono servizi di hosting gratuiti; le più famose sono: • Wordpress.com • Blogger.com • WebSiteX5.com È altresì possibile utilizzare blog open source disponibili per diversi linguaggi di programmazione e personalizzare a piacimento grafica, utility e quant’altro. Tra i principali possiamo menzionare: • WordPress • BlogEngine

NOTA Potete trovare un interessante articolo, in cui vengono spiegati i passi iniziali per la creazione di un forum, a questo link: http://bit.ly/creare-blog

Infine, è possibile, utilizzando un editor installato sul proprio PC, interagire e aggiornare il blog (per esempio, utilizzando Windows Live Writer). Anzi, per le piattaforme più evolute, siamo in grado di aggiornare il blog o di rispondere a commenti e discussioni direttamente dal cellulare.

Perché la mia azienda deve avere un blog? Un blog è uno strumento valido e molto utile, che può consentire a un’azienda di far sentire a gran voce la sua presenza online. Accogliere i propri clienti, mostrare loro i nuovi prodotti, narrare la storia e l’evoluzione aziendale attraverso una serie di post è un’azione di marketing innovativa, che negli Stati Uniti ha avuto ottimi riscontri. Inoltre, ricordiamoci che, se produciamo contenuti di qualità, essi potranno essere facilmente indicizzati nei motori di ricerca, producendo un ottimo riscontro a livello di nuove visite provenienti dal web. Abbiamo già visto, nel Capitolo 8, le regole da seguire per far sì che il nostro blog risulti una semplice pagina web. Tra queste vogliamo sottolineare: • l’importanza di scrivere post con un linguaggio idoneo, correlandoli a immagini e video che possano fornire maggiori dettagli; • l’inserimento di link verso i nostri prodotti quando facciamo riferimento a essi; • la necessità di tenere periodicamente aggiornato il blog; • le problematiche inerenti allo spam: esse devono essere monitorate e i commenti moderati prima di essere visibili.

Figura 9.13 - Esempio di blog aziendale.

NOTA Un esempio è il blog di BetClic che unisce informazioni utili e correlate alla passione dei propri clienti!

NOTA Una tecnica applicabile in questo scenario è quella del Guest posting, ossia pubblicare un post, un articolo su un blog “ospite” che ha maggiore visibilità. Per sperimentare questa forma di comunicazione è sufficiente scrivere un articolo inerente al settore in cui siamo competenti e pubblicarlo su un blog atto a ospitarlo che abbia buona visibilità.

Promozioni multimediali e multicanalità Grazie a canali come YouTube, Google Universal Search e alla possibilità di sfruttare la banda larga, i video si sono diffusi sul web con molta facilità. Utilizzare questo canale di comunicazione alternativo risulta essere un’ottima strategia da adottare in campo SEO.

Supponiamo di avere un negozio online: mostrare agli utenti video sull’utilizzo dei prodotti può essere un surplus molto apprezzato. Molte catene di informatica, come per esempio Mediaworld, stanno usando questa strategia di marketing molto “azzeccata”.

NOTA Abbiamo già visto nei capitoli precedenti come ottimizzare un video per la SEO.

L’azione da compiere è quella di creare un video curato, pubblicarlo nel nostro sito web e richiamarlo nei principali canali di distribuzione video nonché nei social media.

Figura 9.14 - Uso intelligente dei video per la promozione online.

Negli ultimi anni, nel campo del Web Marketing sta prendendo piede la multicanalità: si tratta della piena interazione tra impresa e clienti attraverso molteplici canali. Dal punto di vista del marketing, multicanalità significa integrare tutti i punti di contatto (brand touchpoint) tra la marca e il cliente, superando approcci riduzionistici di politiche distributive multicanale e strategie di comunicazione integrata (fonte: Wikipedia). Per questo, essere presenti su diversi media che possono anche uscire dagli standard del web, come promozione su magliette, macchine aziendali, pubblicità cartacee ecc., risulta molto importante per rafforzare tutte le azioni che andremo a compiere sul web. In Italia esiste un Osservatorio sulla Multicanalità, gestito dal Politecnico di Milano, che ogni anno fornisce nuovi e interessanti spunti. Per questo motivo, invitiamo il lettore

a consultare il sito web http://multicanalita.it, dove potrà trovare aggiornamenti e novità fondamentali per restare in contatto con questo tema di attualità.

Social network L’invasione dei social network, Facebook in primis, ha rivoluzionato il modo di approcciarsi al web. Questi nuovi canali di comunicazione hanno portato all’uso di Internet persone di ogni età e di ogni parte del mondo, che non avrebbero mai pensato di sfruttare la rete. Nasce così la necessità per la SEO, il SEM e il Web Marketing di adattarsi a questo cambiamento. Tale argomento richiederà maggior cura e dettagli di approfondimento, per i quali rimandiamo al Capitolo 10.

Social bookmarking e Social news I social bookmarking sono servizi in cui vengono resi disponibili elenchi di segnalibri (bookmark) creati dagli utenti. Tali elenchi sono liberamente consultabili e condivisibili con gli altri utenti appartenenti alla stessa comunità virtuale. Essere attivi anche su questi canali (i più conosciuti sono Twitter, FriendFeed ecc.) ci consentirà di aumentare la nostra popolarità e di far conoscere i nostri documenti o articoli a un più ampio bacino di utenza. Sul web esistono ormai numerosi siti che offrono questa tipologia di servizi; sarebbe inutile essere presenti su tutti. Consigliamo di scegliere i servizi di social bookmarking in linea con il proprio target e di curare bene ogni particolare e peculiarità. La Figura 9.15 mostra un elenco che contiene, a nostro avviso, i principali social bookmarking da utilizzare come punto di partenza.

Figura 9.15 - Principali siti che offrono servizi di social bookmarking.

I servizi di Social news sono invece dei siti che offrono la possibilità di inserire notizie e articoli da sottoporre al giudizio degli altri utenti. In base ai voti ricevuti e al tempo trascorso dall’inserimento, ogni notizia ottiene maggiore o minore visibilità. Questi servizi permettono di aumentare la propria popolarità, ma soprattutto la veicolazione di nuove visite sul nostro sito web. Tratteremo ampiamente questo argomento nel Capitolo 10.

NOTA Quando tratteremo l’argomento del Black Hat SEO, vedremo un esperimento legato proprio a servizi di Social news.

Grazie all’utilizzo di Feed RSS, questi servizi possono essere aggiornati in modo automatico; così facendo, la notizia pubblicata sul blog aziendale o l’inserimento di un nuovo articolo verranno pubblicizzati su più canali verticali. Questa tecnica va analizzata molto attentamente per evitare la diffusione di contenuti che possono essere duplicati e avere ripercussioni negative sul nostro sito web.

Promozioni nei siti di annunci I siti di annunci permettono di inserire descrizioni di vario genere, tipicamente legate alla compravendita di oggetti. Ma allora cosa c’entra questo con la SEO? Essere presenti anche su questi siti è una spinta in più per ottenere visibilità. Supponiamo di avere a catalogo un nuovo prodotto: inserirlo in un sito di annunci potrebbe permetterci di raggiungere un più ampio numero di clienti. Per spiegarci meglio, vediamo un caso pratico: siamo un’agenzia di viaggi e abbiamo una promozione per l’ultimo dell’anno. Ovviamente pubblicheremo una news sul nostro sito web: tale news, se abbiamo seguito le indicazioni dei paragrafi precedenti, sarà mandata ai principali siti di Social news a cui siamo iscritti. Ora non ci resterà che scegliere siti di annunci fidati e con un ampio bacino di utenza (come, per esempio, subito.it o kijiji.it), in cui pubblicare la nostra promozione, ovviamente scegliendo un titolo e una descrizione adeguati e inserendo in calce link al nostro sito web. A differenza degli altri strumenti visti, i siti di annunci, dopo un periodo specifico, elimineranno l’annuncio. Questo, quindi, non ci permetterà di aumentare la nostra link popularity, ma sicuramente, se eseguito in maniera mirata, ci consentirà di ottenere nuovi visitatori interessati a quanto stiamo promuovendo in quel preciso momento. Tra i siti di annunci più popolari possiamo annoverare: • http://www.kijiji.it/ • http://www.bakeca.it/home.php • http://www.subito.it/ • http://www.annunci365.it/ • http://www.bloo.it/ • http://www.youpost.it/

NOTA Alcuni siti di annunci chiedono una somma per dare una maggiore visibilità all’annuncio con la possibilità di inserire foto e video. Sta alla nostra strategia di marketing seguire la strada che riteniamo più opportuna. Molto spesso i link in uscita da questi siti risultano essere nofollow.

Promozione su eBay e portali dedicati Questa pratica è ideale per chi gestisce siti di e-commerce o con un catalogo prodotti. Molti commercianti, addirittura, trovano più utile sfruttare eBay per il loro business. Strumenti di ecommerce hanno la possibilità di interagire con siti web e portali come eBay stesso, facilitando la possibilità di condivisione dei propri prodotti sul web. EBay genera un traffico di utenti davvero sbalorditivo, perciò esservi presenti con un’inserzione può essere molto vantaggioso.

NOTA Troverete alcune regole di base fornite da eBay stesso per migliorare i propri annunci a questo indirizzo: http://pages.ebay.com/education/basic-SEO-on-eBay/index.html

Negli ultimi anni, il motore di ricerca interno di eBay si è aggiornato ed evoluto e ora è in grado di fornire risultati correlati e di utilità per l’acquirente. Vi è la possibilità di apparire in vetrina con annunci a pagamento, dopodiché arrivano i risultati organici forniti dal motore di eBay, il quale assegna un punteggio variabile in base all’accuratezza dell’annuncio. Per esempio, un buon titolo contenente parole chiave ha una certa rilevanza; vi sono differenze di catalogazione nell’utilizzo di plurali e aggettivi. Anche le spese di spedizione hanno influenza sul posizionamento su eBay: a parità di prodotto, vengono visualizzati quelli con spese di spedizione più bassa. Inoltre, nell’utilizzo di eBay, dobbiamo ricordarci che più specifiche forniamo, più probabilità avremo di invogliare il nostro utente rassicurandolo sulla nostra professionalità. Meglio essere dettagliati e prolissi piuttosto che dimenticare qualche specifica del prodotto o del servizio messo in vendita su eBay. Inoltre, dobbiamo ricordarci che il metro principale di affidabilità su eBay è misurato dai feedback. Un utente sarà invogliato a comprare da un venditore con il 100% di feedback piuttosto che da uno con l’80%. Per tale motivo, essere cordiali, rispondere a domande degli acquirenti e cercare di andare incontro alle necessità degli utenti è una politica di marketing che non deve essere sottovalutata.

Figura 9.16 - Esempio di annuncio su eBay.

Esistono portali dedicati per lo shopping, come per esempio TrovaPrezzi e ShoppyDoo, che consentono l’iscrizione (sia gratuita, sia a pagamento per servizi professionali), fornendo la possibilità di trovare i prodotti a prezzi convenienti e, ai clienti, di commentare la bontà e i servizi del negozio. Tutte queste attività ovviamente vanno valutate da un opportuno piano di marketing, ma possono risultare realmente interessanti per abbracciare un bacino di utenza più ampio.

NOTA Un buon venditore deve saper ascoltare. Analizzare i commenti e i feedback che gli utenti lasciano su di noi nella rete non è un’operazione semplice né tanto meno veloce, ma è necessaria per accrescere la nostra reputazione. È quindi sempre opportuno avere un elenco dei canali in cui siamo iscritti e abilitare la notifica via e-mail a commenti o feedback; in tal modo, potremo essere tempestivi e supportare il cliente nella scelta di un prodotto o rispondere in modo adeguato a commenti più o meno opportuni. Presenza e reputazione sono armi vincenti per una buona campagna SEO e SEM.

Link Baiting e azioni virali Il Link Baiting non è altro che la rivisitazione del termine con cui Matt Cutts ha definito il marketing virale applicato al web e alla realizzazione della propria link popularity. Abbiamo già visto come sia fondamentale ottenere link spontanei; grazie alle tecniche di marketing virale applicate al web, si cerca di ottenere risultati mirati secondo una specifica tabella di marcia. I “link esca” hanno iniziato ad affermarsi nel web con l’avvento dei Social bookmark. Il meccanismo di diffusione di una notizia può avvenire anche in pochi minuti, portando traffico mirato verso il proprio sito web. Supponiamo di scrivere un articolo su un tema poco discusso; lo segnaliamo nei principali canali di bookmark: il nostro link genera curiosità, molti utenti lo aggiungono tra i preferiti, lo condividono e, nel giro di poco tempo, compare in prima pagina nei Social bookmark. In questo modo arriveranno a noi migliaia di visite e link spontanei grazie all’avvio di un meccanismo molto potente: il viral linking o pull. Le tecniche e le strategie di pull atte a generare link e traffico sono innumerevoli: • regalare qualcosa agli utenti; • essere innovativi; • fornire gadget; • far parlare di sé sempre e comunque.

NOTA Il marketing virale denota ogni strategia che stimoli e incoraggi gli individui a trasmettere ad altri e a diffondere un messaggio di marketing, generando il potenziale per una crescita esponenziale sia della notorietà, sia dell’influenza del messaggio stesso (Wilson, 2000).

La parte più difficile di tutto ciò è far attivare il giusto meccanismo di passaparola in modo naturale ed efficace. Ovviamente, in questi processi vanno definite delle regole per evitare che “la situazione ci sfugga di mano”. I principi su cui si fonda il marketing virale sono i rapporti sociali esistenti sul web: per esempio, il particolare interesse per una marca o un prodotto

specifico non deve avere lo scopo di creare una comunità, ma piuttosto di penetrare all’interno del gruppo cercando di conquistare la fiducia dei partecipanti e veicolando il loro potere e la loro voglia di novità per diffondere il nostro messaggio. In questo scenario troviamo anche il concetto di Buzz, ossia l’insieme di commenti, opinioni e pareri scambiati in uno specifico momento a proposito di un determinato prodotto o servizio. Il marketing virale cerca, per l’appunto, di guidare i processi che portano alla generazione di un buzz per diffondere un messaggio specifico. A supporto di quanto affermato, troviamo il contributo di Ralph F. Wilson con The six principles of viral marketing. I sei principi, secondo Wilson, sono: • regalare qualcosa; • prevedere una semplice trasferibilità di messaggio; • essere pronti per una crescita grandissima e molto rapida; • far leva su comportamenti e motivazioni comuni; • utilizzare reti di comunicazione esistenti; • trarre vantaggi dalle risorse di altri. Capiamo da subito come, per una buona campagna SEO e SEM, l’utilizzo del marketing virale, con tutte le sue sfaccettature, sia di indubbia utilità. Illustreremo, quindi, un elenco di principi, a nostro avviso fondamentali, per compiere azioni di viral marketing precise ed efficaci, a supporto della teoria espressa da Wilson: • giocare sull’emotività delle persone: creare pagine curate e video con immagini e suoni, utilizzare caratteri e frasi ad hoc in modo da suscitare emozioni in chi ci visita è un buon inizio per le nostre campagne; • risultare innovativi e creativi: molto spesso, per pigrizia, proponiamo contenuti o idee copiate o non originali; la creatività deve accompagnarci nel processo di viral marketing; • creare un marchio identificativo: gli utenti, i clienti o i visitatori devono collegare un simbolo, una frase o un marchio a noi, senza possibilità di dubbio; • rischiare: il rischio è uno dei fattori che possono influenzare in modo positivo o negativo una campagna. Tutti questi fattori, miscelati con quanto già illustrato, sono una buona base di partenza per iniziare a sviluppare un piano di marketing dedicato per la nostra campagna SEO. Illustreremo nel dettaglio alcune attività da compiere per aumentare la nostra visibilità online, come la costruzione di landing page, creazione di campagne di e-mail marketing e via dicendo.

Landing page Tratteremo solo i punti salienti di questo argomento, perché non basterebbe un libro solo per parlarne in maniera completa e approfondita. Prima di tutto, cos’è una landing page? “Nel Web Marketing, la landing page è la specifica pagina che il visitatore raggiunge dopo aver cliccato un link apposito o una pubblicità. Spesso, questa pagina mostra contenuti che sono un’estensione del link o della pubblicità, oppure la pagina è ottimizzata per una specifica parola chiave (keyword) o frase per ‘attrarre’ i motori di ricerca” (fonte: Wikipedia). Ma perché le landing page sono così

importanti? Perché servono a catturare l’attenzione del visitatore e a invogliarlo a compiere un’azione sul nostro sito web. Il tempo di permanenza in questo scenario riveste un ruolo fondamentale. La pagina di “atterraggio” (landing page) è la prima pagina che l’utente si trova di fronte dopo un clic effettuato su un banner promozionale o da un link, perciò riveste un ruolo molto importante nel processo di conversione del visitatore a nostro cliente. La nostra landing page deve persuadere il visitatore a: • leggere del testo e comprenderlo in breve tempo; • compilare form o questionari con i propri dati personali; • fare un acquisto online; • navigare nel nostro sito e usufruire dei nostri servizi. Si capisce subito come l’impresa sia ardua: un visitatore vuole tutto e subito, possibilmente senza spendere nemmeno un euro. Il compito di queste pagine è entrare nella mente del visitatore medio e convincerlo che l’azione giusta da fare è quella che gli stiamo proponendo. Ora che abbiamo le idee chiare sull’importanza delle landing page, mostreremo un breve esempio di come dovrebbe essere organizzata una buona pagina landing (prendendo spunto da un interessante articolo di http://www.formstack.com). Ovviamente si tratta di consigli che noi proponiamo, ma che i guru del Web Marketing potranno più o meno condividere: • il titolo deve essere accattivante e avere un layout che colpisca l’attenzione del lettore; • il paragrafo di introduzione, “Secondary Headline”, deve essere chiaro e conciso e non deve essere confondibile con il titolo della pagina; • è necessario seguire le istruzioni viste nel Capitolo 8, relativo alla scrittura sul web. Il testo deve essere coinvolgente e privo di errori grammaticali;

Figura 9.17 - Esempio di anatomia di una landing page da formstack.com.

• •

per aumentare la credibilità del prodotto che stiamo proponendo è importante riportare casi di successo, testimonianze, partnership. Questi fattori influiranno positivamente sull’utente medio, che sarà quindi più propenso ad approfondire la nostra offerta; usare caratteri e testi forti nel testo, che dovrà convincere l’utente “all’azione” (call to action). Il font dovrà essere in risalto, così come il colore scelto si dovrà distaccare dal resto del layout in modo da risultare facilmente individuabile; il bottone per la call to action deve essere anch’esso ben visibile e contenere parole in grado di suscitare emozioni e reazioni nell’utente, come “free”, “acquista ora”, “compra”, “download now”; i link devono essere pochi, chiari e visibili; è importante creare un’immagine o un video virale. In tal modo dobbiamo essere in grado di far associare immediatamente al visitatore l’immagine o il video proposto al nostro prodotto o servizio; lo spazio da dedicare alla landing page deve essere curato, i pulsanti e i link di conversione devono essere posti in parti ben visibili e possibilmente senza fare “scrollare” la pagina al visitatore.

Queste regole basilari sono il punto di partenza per implementare landing page accattivanti e di successo. Quando costruiamo tali pagine, dobbiamo metterci nei panni dei nostri clienti o

visitatori e proporre contenuti, immagini e testi che possano suscitare in loro curiosità verso il servizio o prodotto che vogliamo promuovere.

E-mail marketing Anche questo argomento, per la sua vastità e complessità, verrà affrontato solamente da un punto di vista SEO e SEM, cercando di coglierne gli elementi principali. Esistono diverse tipologie di e-mail, tra cui troviamo: • e-mail transazionali: messaggi inviati tipicamente in automatico dopo la registrazione a un portale, dopo l’acquisto di un prodotto o per la notifica di un particolare evento; • e-mail personali: scambiate in modo diretto fra singoli individui; • e-mail pubblicitarie o anche dette Direct e-mail (DEM): atte a promuovere un determinato prodotto o servizio; • newsletter: messaggi periodici inviati ai propri iscritti; • messaggi sui social network: è possibile scambiarsi messaggi stile e-mail all’interno dei principali social network.

NOTA Dobbiamo ricordare che esistono norme che regolamentano l’invio delle e-mail e l’iscrizione a newsletter; per esempio, deve essere data la possibilità all’utente di disiscriversi in qualsiasi momento dalle newsletter; nel caso di e-mail pubblicitarie, è necessario ricevere il consenso da parte dell’interessato anche per l’invio della prima e-mail e via dicendo. Quindi bisogna prestare attenzione ad aspetti legali e burocratici dell’e-mail marketing prima di utilizzarlo. Maggiori informazioni sono reperibili al seguente indirizzo: http://www.garanteprivacy.it/garante/doc.jsp?ID=432448

L’e-mail è uno dei veicoli principali di comunicazione nel web; per questo motivo l’e-mail marketing continuerà a crescere, anche se ovviamente si dovrà adattare alle evoluzioni e alle nuove forme di comunicazione del web moderno. L’e-mail marketing 2.0 poggia su tre principi fondamentali: • maggior rispetto per i clienti e per la loro privacy; • informazioni sempre più mirate; • personalizzazione della comunicazione.

Figura 9.18 - Manifesto e-mail marketing 2.0, http://www.mailup.it/email-marketing/manifesto-email-marketing-2.0.asp.

Il mondo dell’e-mail marketing è complesso e articolato e, per essere efficace, deve essere affrontato con cognizione di causa. Gli utenti sono diventati più istruiti, le e-mail di spam e phishing spopolano, per questo sarebbe inutile inviare migliaia di e-mail se queste venissero catalogate come spam. Cercheremo di fornire alcuni piccoli e semplici consigli per iniziare una campagna di e-mail marketing adeguata: • acquisire liste di e-mail: è possibile acquistare elenchi di e-mail oppure crearsene uno proprio con il tempo (per esempio, con landing page, forum di iscrizione). In entrambi i

• •

casi, è necessario analizzare il target degli utenti e inviare e-mail adeguate e pertinenti. Se invieremo un’e-mail inerente a un corso SEO a una casalinga, avremo poche probabilità di riscuotere successo; messaggi mirati: il messaggio deve essere coinvolgente, corto, semplice ed efficace. Alcune immagini potrebbero essere d’aiuto e suscitare interesse nel lettore; correlazione tra messaggio e pagina web: il messaggio presente nell’e-mail tipicamente rimanderà a una pagina web. Essa dovrà essere in sintonia con il messaggio dell’e-mail e dovremo ripetere più volte il messaggio che vogliamo sia appreso dal visitatore.

In questo scenario abbiamo capito l’importanza di strumenti di e-mail marketing: saper gestire correttamente una campagna, organizzare liste di e-mail, preparare autorisponditori sono tutte operazioni che richiedono tempo e passione, ma che possono produrre ottimi risultati. Da dire ci sarebbe ancora molto, ma preferiamo fermarci qui (ulteriori dettagli saranno inseriti nel sito web www.libro-seo.it), in quanto sono state fornite le principali indicazioni su come iniziare una corretta campagna di e-mail marketing. Prima di concludere, vogliamo segnalarvi alcuni servizi che offrono la possibilità di creare, acquistare e sviluppare mailing list: • YourMailingListProvider (www.yourmailinglistprovider.com) • ContactPro (www.contactpro.com) • Bancomail (http://www.bancomail.it) • Newsletter (www.newsletter.it)

NOTA Esistono alcuni trucchi per evitare che un messaggio finisca tra le liste di spam; ne citiamo alcuni: evitare di lasciare l’oggetto del messaggio vuoto, non scrivere tutto in maiuscolo, non utilizzare simboli come € o $ nel corpo del messaggio o nell’oggetto, evitare spazi bianchi, punti interrogativi o esclamativi, evitare di mettere nell’oggetto keyword come “newsletter, news”, ma utilizzare titoli ad hoc. Per verificare se l’IP del server di invio delle e-mail è nella black list, possiamo utilizzare uno dei numerosi servizi a disposizione, per esempio http://www.openbl.org.

Sondaggi e feedback Coinvolgere l’utente è una delle pratiche più difficili. L’utilizzo di sondaggi e feedback potrebbe essere una caratteristica con due funzionalità principali: • attirare l’attenzione dell’utente; • fornirci preziosi dati statistici. I sondaggi sono strutturati per fornire un numero limitato di risposte preimpostate, con conseguente riduzione dei benefici ricavabili, mentre i feedback, avendo la risposta libera, sono più proficui (ma richiedono più tempo per la compilazione). Questi strumenti possono essere

collocati all’interno di siti web, forum, gruppi di discussioni e via dicendo, e ci potrebbero essere di aiuto per ricavare opinioni esterne (e quindi migliorare alcune funzionalità del sito web) e dati statistici sul gradimento o meno di un determinato prodotto o servizio.

Widget, gadget e infografiche Una delle peculiarità del viral marketing, come abbiamo visto, è quella di regalare qualcosa agli utenti. I widget e i gadget possono essere uno strumento molto proficuo per le nostre campagne SEM. Per widget e gadget intendiamo strumenti o servizi web che permettono all’utente di ottenere benefici dal loro utilizzo. In poche parole, qualcosa che consente loro di compiere un’azione desiderata in breve tempo e con semplicità. Quindi, non sono altro che piccole applicazioni che facilitano la distribuzione dei nostri contenuti nel web in modo gratuito. Per essere più chiari, vediamo alcuni esempi. • Un esempio di widget potrebbe essere il calcolo del PageRank di una pagina inseribile direttamente in qualsiasi sito web, oppure il contatore di utenti online, attraverso il quale ogni webmaster può conoscere il numero di visitatori collegati al suo sito web. L’utilità consiste nel fornire un servizio gratuito agli utenti, quindi essi saranno più propensi a utilizzarlo. Più il servizio è di utilità, più avremo probabilità che esso si diffonda. Inoltre, nel widget inseriremo un link verso il nostro sito; più widget saranno in giro, più link naturali riceveremo in modo gratuito. I contro? Non abbiamo il controllo di dove sarà inserito il widget: potrebbe essere inserito in siti non adeguati (pornografici, per esempio) o bannati.

Figura 9.19 - Esempio di widget.

Un altro esempio di gadget consiste nel fornire agli utenti uno strumento software. Per

esempio, oggi vanno molto di moda le toolbar inseribili all’interno dei vari browser, le quali ci forniscono svariate funzionalità. Oppure plug-in per Windows (per esempio, gadget di Windows) o per Mozilla, installabili con semplicità. Tutti questi strumenti potrebbero essere un veicolo di nuovo traffico, perché, se ben strutturati e progettati, saranno in grado di diffondersi nel web “a macchia d’olio”. Le infografiche sono uno strumento molto potente e importante nel Web Marketing moderno; se utilizzate opportunamente, possono portare molta visibilità al nostro sito web.

Figura 9.20 - Esempio di infografica virale.

NOTA Ricordiamo, inoltre, che vi è la possibilità di creare widget per piattaforme come iGoogle, Windows, Blog e via dicendo. Altre strategie virali potrebbero essere la condivisione di contenuti interessanti o slides (ad esempio Slideshare) oppure la creazione di PodCast, che sta diventando una pratica molto apprezzata.

Ma cosa pensa Google dei widget e delle infografiche? Matt Cutts consiglia (http://bit.ly/widget-infografiche) di utilizzare l’attributo nofollow nei link forniti in widget e infografiche, perché possono essere inseriti in contesti con temi non correlati con il nostro sito web. Il consiglio è di prendere alla lettera questa indicazione, per evitare sgradevoli sorprese.

NOTA Ricordiamo che, a oggi, l’unica strada per rimuovere una eventuale penalizzazione data da un numero eccessivo di link follow è quella di utilizzare il DISAWOW TOOL all’interno della Search Console di Google (o, eventualmente, di contattare tutti i siti che hanno inserito il nostro widget e richiederne la rimozione).

Condivisione di documenti: file sharing Una delle strade che si possono intraprendere per aumentare la propria popolarità nel web è la condivisione di documenti, slide o filmati. Una tecnica molto di moda in quest’ultimo periodo è quella di fornire gratuitamente ebook (in pdf), al fine di ottenere link spontanei verso il nostro sito web. Inoltre, vi è la possibilità di condividere documenti attraverso strumenti come SlideShare o DropBox (che analizzeremo nel dettaglio nel Capitolo 10). Altre tecniche che possiamo sfruttare sono quelle che consistono, per esempio, nel far circolare un nostro ebook o contenuto attraverso file sharing, come eMule o Torrent. Tutte queste pratiche vanno eseguite tenendo conto dei principi della SEO, quindi ottimizzando i documenti, mettendo in essi link al nostro sito web e utilizzando titoli accattivanti e curiosi.

Guest Posting Il Guest Posting è una tecnica usata per scrivere un articolo promozionale su un blog ospite: è uno dei principali modi per farsi conoscere in breve tempo da un pubblico sempre più ampio. Ovviamente, come tutte le tecniche di visibilità online, va sfruttato prestando attenzione ad alcuni particolari fondamentali, tra i quali: • i contenuti di un guest post devono essere di qualità e attinenti al sito che lo ospita; • un guest post non deve contenere troppi anchor text con keyword mirate; • il guest blogging va fatto con moderazione; • il guest blogging non deve essere l’unica strategia di link building; • non usare lo stesso articolo su due diversi siti; • non fare article spinning. Come deve essere un guest post di qualità? • il guest post deve essere non autopromozionale; • deve avere un contenuto utile per l’utente e ricco di informazioni;

• • • •

deve avere pochi link (1-2 verso il proprio sito/blog) e con anchor text non ottimizzati. I link devono essere contestualizzati e giustificabili in modo tale da non far percepire all’utente che si sta facendo autopromozione; deve essere corretto grammaticalmente; deve essere formattato bene (spazi bianchi, paragrafi, sottotitoli); deve essere originale e di alta qualità.

Le indicazioni sono chiare: chi accetta guest post dovrà stare molto attento alla bontà dell’autore e alla qualità del contenuto, e il guest blogging fatto per ottenere link avrà vita molto dura in futuro.

NOTA (http://www.mattcutts.com/blog/guest-blogging) “Rovina e caduta del Guest Blogging per la SEO” è il titolo di un post di Matt Cutts, che in pratica sancisce la fine del guest blogging, o perlomeno di un certo tipo di guest blogging fatto esclusivamente per posizionarsi meglio su Google. Matt sottolinea un concetto già ribadito in passato: “Se nel 2016 stai utilizzando il guest blogging per ottenere link, probabilmente dovresti smettere. Perché? Perché nel corso del tempo è diventata una pratica sempre più spammosa e, se stai facendo un sacco di guest blogging, allora sei davvero in cattiva compagnia. Nei tempi passati il guest blogging era una cosa rispettabile, molto simile a ottenere la prefazione di un libro da parte di un autore famoso. Ora non è più così”.

Il lavoro del SEO si avvicinerà sempre di più ad attività di digital PR al fine di ricercare influencer e blogger che parlino del prodotto o servizio in modo naturale dopo averlo provato. Entrano, quindi, in gioco nuove metodologie di ricerca di opinion leader in grado di dare visibilità al servizio che vogliamo promuovere. Esistono numerosi tool, come, per esempio, Followerwonk, Topsy, Opensite, Cognitiveseo, che possiamo sfruttare per la ricerca di blog e persone in linea con il target di riferimento. Dopodiché vi è il passo successivo, ovvero il contatto diretto con il blogger e l’accordo per ottenere un post in grado di portare visite e, allo stesso tempo, utile lato SEO. Ovviamente andranno rispettate tutte le linee guida appena elencate.

Broken Links e domini scaduti: tecniche SEO che non passano mai di moda I broken links continuano a essere una fonte inesauribile di opportunità: trovare un link non più funzionante verso una risorsa esterna, in un blog che potrebbe essere appetibile, può significare un link facile. Immaginate che un blog di riferimento nel vostro settore abbia un link verso una pagina di un sito che non esiste più; quella pagina era una grande lista con descrizione delle razze dei cani. Quello che potreste fare è creare una risorsa simile sul vostro sito (sempre che sia a tema) e poi mandare un’e-mail al proprietario del blog, facendogli presente che avete creato un sostituto a quella risorsa che non esiste più. Per trovare i broken links, dobbiamo utilizzare un

tool di analisi di un sito web, come per esempio Screaming frog (http://www.screamingfrog.co.uk/seo-spider/). Una volta lanciatolo, andiamo nel tab external e troveremo i link non funzionanti per iniziare ad applicare le strategie SEO sopra descritte.

Figura 9.21 - Esempio di tecnica SEO per i link “rotti”.

In modo analogo possiamo ricercare domini scaduti e registrarli o consultare i database di hosting provider per vedere se vi siano domini a Trust interessanti per poterli così registrare per le nostre attività di link building online (ovviamente rispettando le direttive di Google e dei principali motori di ricerca).

NOTA Create immagini interessanti per ogni articolo? Qualcuno potrebbe averle riusate senza mettere un link al vostro sito. Trascinate le vostre immagini nel box di ricerca di Google Immagini e scoprite velocemente se qualcuno le ha riutilizzate senza il permesso, poi chiedetegli gentilmente un link in cambio dell’immagine.

Come fare Link Building in modo corretto? La Link Building si è notevolmente evoluta rispetto a qualche tempo fa; soprattutto in settori molto competitivi e per campagne di media grandezza, è necessario avere un approccio totalmente diverso rispetto al passato. I classici link da scambio, da directory (sia dalle classiche directory di siti, sia da quelle di articoli, i cosiddetti siti di article marketing) e da siti di social bookmarking hanno ormai un valore prossimo allo zero. Abbiamo analizzato in questo capitolo le principali tecniche che possiamo utilizzare per ottenere link, evidenziandone pregi e difetti. Per tale motivo diventa fondamentale rivedere totalmente il nostro approccio a questo argomento, cercando di sviluppare da oggi campagne che portino risultati duraturi nel tempo e che non siano totalmente controllabili, sebbene facilmente monitorabili. Per campagna “controllabile” intendiamo: facilmente manipolabile, di cui si possano riprendere le redini in qualsiasi momento,

con un controllo totale su qualsiasi link in entrata. Un esempio di campagna controllabile è la diffusione di articoli su circuiti di comunicati stampa, oppure la creazione di una rete di siti “fasulli” in cui vengono inseriti i link verso il nostro sito. Google continuerà ancora per molto tempo a utilizzare i link come parametro principale per la determinazione dell’autorevolezza di un sito (sia che questo avvenga tramite algoritmi direttamente afferenti ai collegamenti stessi, sia tramite algoritmi più indiretti, come il fantomatico “Author Rank”), quindi è bene essere continuamente aggiornati su questo argomento.

NOTA Cosa pensa Google dei link innaturali per il mercato italiano? A questo link http://bit.ly/linkinnaturali si può trovare una guida di Giacomo Gnecchi Ruscone del team Google di Dublino, che si occupa proprio di Search Quality. Estrapolando i punti principali, evidenziamo che: • “la nostra posizione sui link che puntano al vostro sito non è cambiata: partecipare a schemi di link e principalmente all’acquisto di link che passano PageRank al fine di influenzare i risultati dei motori di ricerca è ancora contro le nostre linee guida”; • “vorremmo ricordare che, per quanto riguarda i link in uscita dal vostro sito o blog, tecniche come la vendita di link per influenzare il PageRank sono sempre in violazione delle nostre linee guida”; • “non è difficile trovare blog italiani che ospitano link altamente ottimizzati a siti terzi, sia attraverso articoli ospitati (guest blogging) sia tramite l’uso di widget contenenti tali link”. La posizione di Google è chiara: le attività di link building non naturali o sospette saranno messe sotto la lente di ingrandimento anche per il mercato italiano e dovremo aspettarci penalizzazioni sull’abuso di tali tecniche.

Figura 9.22 - Matt Cutts: Link non naturali per il mercato italiano.

La SEO si avvicina sempre più al classico marketing. Attualmente i mercati sul web stanno diventando sempre più competitivi per alcuni motivi: • un continuo ingresso di nuove aziende sul web, grazie all’abbassamento delle soglie di

investimento e delle barriere all’ingresso; una sempre maggiore presa di coscienza delle potenzialità del web e del search marketing da parte delle grandi aziende, che quindi stanno investendo grandi capitali in questo settore, alzando la competitività media; un continuo affinamento delle tecniche di ranking dei motori di ricerca, Google in primis.

In una situazione come questa, le possibili strade da intraprendere, dovendo giocare “duro”, sono essenzialmente due: 1. automatizzare all’estremo qualsiasi azione di SEO, inventando metodi per l’acquisizione di link che sembrino naturali quando non lo sono. Questo potrebbe essere fatto, per esempio, con la diffusione di template con link inseriti in automatico nel testo mediante algoritmi semantici, oppure tramite la creazione di network di siti con contenuti di qualità medio-bassa e con un seguito di persone “fittizie” create sui social network, sempre al fine di creare link; 2. iniziare a intendere la SEO off page in modo finalmente naturale, cercando di utilizzare tutti gli strumenti che il marketing ci mette a disposizione (analisi di vario tipo, metodi di comunicazione e creazione dell’offerta ecc.) per raggiungere tutti i potenziali influencer (blogger e autorità sui social network) del settore e stabilire relazioni reali e durature con loro, oppure per capire quali sono i contenuti che possono diventare virali, generare rumore sul web e farci ottenere indirettamente link, che a quel punto diventano quasi secondari, se contestualizzati in una campagna a più ampio spettro come questa. È facile capire come, a parte determinati e particolarissimi settori, è decisamente più facile e sicuro intraprendere la seconda strada, anche perché essa ci permette di essere abbastanza sicuri di non incappare in penalizzazioni future, rischio che è invece abbastanza concreto nel secondo caso. Volendo intraprendere, quindi, tale percorso, è necessario: • conoscere profondamente il mercato in cui si va a operare: quali sono i forum di settore, quali i social di riferimento, quali gli argomenti più discussi e sentiti dagli utenti, quali le qualità più richieste alle aziende; • essere pronti ad ascoltare e a fare uso massiccio di social network e strumenti ad hoc (vedi Followerwonk, Simplymeasured, Topsy ecc.); • giocare molto sulle relazioni con gli influencer del settore: identificare quali sono le personalità e i blogger più seguiti e cercare di creare partnership e relazioni vere con loro, coinvolgendoli nei progetti collegati al sito, cercando di renderli partecipi di ciò che viene organizzato; • analizzare continuamente le strategie dei competitors, trarne ispirazione per nuove idee, carpire le idee migliori. Tramite una conoscenza approfondita delle esigenze del proprio settore sul web, diventa più facile modulare la propria offerta per far sì che sia competitiva anche dal punto di vista SEO. Non si tratta di cercare link, ma di modificare il prodotto andando incontro alle esigenze degli

utenti cui siamo interessati: in questo caso, chi dovrà darci un link. Tutto ciò senza scordarci, ovviamente, le “tecniche” più tradizionali. L’unione tra la SEO tecnica più tradizionale e un approccio più globale e “figlio del marketing” può essere la vera chiave di volta per campagne SEO efficaci.

Un esempio di analisi dei link e come ragiona (o forse no…) un SEO A conclusione di questo capitolo vogliamo mostrarvi un esempio di attività di Link Earning o Link Building, ma prima dobbiamo fare alcune premesse. Chi svolge attività SEO o di visibilità online deve sapere che: • Google conosce moltissime cose su di voi, forse anche troppe, fregarlo non è la soluzione giusta; • Google (ma anche gli altri motori di ricerca) vuole che i link siano naturali; ovviamente questo non per un suo capriccio, ma perché: – a) se le tecniche di posizionamento fossero facili da fregare, perderebbe soldi dagli sponsor Adwords; – b) perderebbe di credibilità se i risultati fossero poco inerenti; • abbiamo già visto Google Penguin e come colpisca principalmente attività di link building artificiali; • le tecniche come i Private Blog Network (che vedremo nel capitolo 13) posso sì funzionare, ma sono molto pericolose; • in alcuni casi i grossi brand non faranno mai attività di link building, in quanto otterranno con strategie di digital content link in modo naturale e targetizzati. Detto questo, possiamo iniziare con il dire che per aumentare la nostra visibilità è opportuno avere un giusto equilibrio tra i vari fattori in modo da entrare in sinergia con Google. Come si comporta Google? La seguente immagine illustra il processo di analisi dei link da parte di Google.

Figura 9.23 - Google e il comportamento dei Link-SeoThatWorks Ivano di Biasi.

NOTA Quality Rater: Google, oltre ai suoi algoritmi, ha una folta schiera di esseri umani che controllano dei risultati a campione quando vi è il sospetto che qualcosa non vada perfettamente. A questo link troverete una guida di Google pensata per i Quality Rater: https://www.google.com/insidesearch/howsearchworks/assets/searchqualityevaluatorguideli nes.pdf

Bene, come possiamo quindi iniziare un’attività di link building per aumentare il nostro trust e quindi la visibilità nei motori di ricerca senza essere penalizzati? Per far sembrare naturali i link agli occhi di Google, una strategia ipotizzabile è quella di avere un link a brand ogni tot menzioni e un link con anchor text esatta. Per esempio, come mostra la seguente immagine, possiamo trovare le citazioni e quindi ipotizzare di organizzare la nostra strategia per ottenere link che siano il più naturale possibili.

Figura 9.24 - Trovare link e citazioni - SeoThatWorks Ivano di Biasi.

Il passo successivo è quello di analizzare il nostro profilo di link per evidenziare di non avere troppe anchor text ottimizzate e diluire le attività in modo da ottenere il massimo dalla nostra strategia. Ad esempio, utilizzando Majestic SEO possiamo scoprire chi “ci linka”. In questo modo, analizzando il profilo di “Booking.com”, scopriamo un utilizzo eccessivo della keyword “offerte Hotel” nell’anchor text. Infatti per tale keyword Booking è completamente assente nella SERP di Google. L’analisi delle anchor text è fondamentale anche per prevenire eventuali attacchi di Negative SEO (vedi Capitolo 13).

Figura 9.25 - Esempio di link in ingresso a Booking.com.

Una volta che abbiamo chiari questi passi, possiamo applicare la strategia di link building che più si adatta alle nostre esigenze. In conclusione: • facciamo campagne mirate alla promozione del Brand, dobbiamo far conoscere chi siamo e cosa facciamo; • misuriamo sempre la nostra reputazione online e la nostra popolarità; • creiamo contenuti utili e accattivanti; • monitoriamo i link che “ci arrivano” ed evitiamo le vecchie attività di link building. La SEO si è evoluta: cerchiamo di applicare nuove strategie per ottenere dei link che siano di valore. Il tempo è denaro, non sprechiamolo in attività di link building inutili.

NOTA Se noti dei link innaturali, è possibile segnalarlo a Google attraverso questo modulo: https://www.google.com/webmasters/tools/paidlinks?pli=1&hl=it Si ringrazia Giuseppe Liguori e Ivano Di Biasi per il supporto a questo capitolo.

Link Building Outreach Nel corso di questo capitolo abbiamo sempre detto che Google e i principali motori di ricerca

vogliono che i link siano naturali. Se ti aspetti che ti illustri tecniche innovative per ingannare Google, sei nel posto sbagliato (e anche nel capitolo errato:) fai un giro al capitolo 13). Quello che voglio fare è darti una visione di insieme su tecniche di Outreach per instaurare rapporti con blogger per ottenere link che “sembrino” il più naturale possibile e contestualizzabili. Ovviamente Google non vuole questo e penso che sia chiaro, ma tali tecniche ti permetteranno di instaurare rapporti (anche umani) e ottenere buoni link. Premettendo che a mio personale avviso il modo migliore oggi per ottenere link di qualità è: • scrivendo articoli di qualità; • scrivendo guide o infoprodotti che diano qualcosa in più; • scrivendo ebook gratuiti da distribuire, infografiche e podcast attingendo alle regole descritte in merito; • distribuendo slides o presentazioni utili. Visto che tali attività richiedono moltissimo tempo e sforzi in risorse, molto spesso è utile applicare tecniche di Outreach. Google e i suoi operatori ci permettono di trovare blog e siti che potrebbero fare al caso nostro, ad esempio (“KEYWORD” è la parola chiave che vi serve, ad esempio “Ricette”): • KEYWORD inurl:guest post. • Intitle:KEYWORD “Pubblica un articolo”. • Su Bing ad esempio [“guest post” KEYWORD]. • inurl:”categoria argomento” intitle:”blog” ad esempio inurl:”sport calcio” intitle:”blog”.

NOTA Potete provare diverse combinazioni per trovare i risultati ideali per la vostra strategia.

Figura 9.26 - Strumenti di ricerca grazie agli operatori di Google per trovare siti con cui collaborare.

Se non voglio usare gli operatori dei motori di ricerca. possiamo affidarci a strumenti che ci permettono di individuare gli influencer o siti che parlano di una determinata tematica; tra questi possiamo citare: • https://moz.com/followerwonk/ • buzzstream.com • http://www.inkybee.com/ • https://ontolo.com/ • http://citationlabs.com/tools/

https://idb.buzzstream.com

Sono tutti strumenti che ci aiutano nella ricerca di profili sociali o blog che parlano delle nostre tematiche al fine di individuare quelli più affini con la nostra strategia e contattarli.

Figura 9.27 - Utilizzo di FollowerWonk per trovare blogger con tematiche affini alla mia.

Una volta individuati i blogger con cui collaborare, possiamo valutarne la qualità con alcune metriche viste in precedenza tra cui: • Domain Authorithy e Page Autorithy; • Alexa Rank; • link che rimandano al loro sito (per valutarne il profilo dei link); • sfruttare il comando site: per vedere “l’indicizzazione” del sito Web. Detto questo, che è un po’ il riassunto di alcune tecniche già viste nel capitolo, dobbiamo

preoccuparci del contesto del link e quindi porci alcune delle domande che abbiamo riassunto nella nella Figura 9.28.

Figura 9.28 - Contesto di un link nelle attività SEO.

Una volta capito che il sito ha tutte le caratteristiche che ritengo opportune, mi posso proporre come articolista, scrivendo una guida ad hoc o cercando una forma di collaborazione. Ovviamente di tecniche e strategie ve ne sono davvero tante e servirebbe un libro intero dedicato all’attività di link earning. In questo capitolo ho voluto dare spunti e idee per applicare al meglio i propri sforzi, evitando tecniche deprecate o operazioni “pericolose”.

Conclusioni e punti salienti del capitolo In questo capitolo abbiamo cercato di analizzare le principali pratiche delle attività off page. Sono l’aspetto più rischioso delle attività SEO e vanno curate in ogni parte. Non credete più al link miracoloso o alle strategie innovative, la link earning va curata e supportata da tutte le strategie di marketing online. Con il rilascio di Penguin 4.0 Google ha fatto diverse dichiarazioni per fare chiarezza sui link e soprattutto per dare un’idea di come potrebbe funzionare tale algoritmo. In questo capitolo abbiamo evidenziato alcune tecniche deprecate e illustrate altre, più o meno “pericolose”, per ottenere link. Per concludere abbiamo riassunto alcune delle principali dichiarazioni di Gary Illyes e John Mueller sulla tematica dei link. • “Google controlla in modo appurato la sorgente del link per capire se è un sito a tema, di qualità”.

• •

“Penguin cerca di capire come mai c’è un link verso quella pagina e, se è naturale, o se è stato inserito solamente per ingannare i sistemi di ranking.In base a questo prenderà le sue decisioni!” “Infrequent Google crawling is a sign of a low quality site, quindi se avete basse frequenze di scansione da parte del Boot di Google potrebbe essere un campanello di allarme”

Ma la dichiarazione più bella è stata fatta il 27 settembre 2016: “Links in particular are really important for Google.” (John Mueller) Grazie a queste informazioni abbiamo piena libertà e spirito decisionale per intraprendere strategie SEO che sfruttano le linee guida di Google portando risultati “che durano” nel tempo.

“Qualche volta, le nuove idee si trovano nei dettagli più insignificanti di un problema, dove gli altri non si peritano di guardare.” (Nate Silver, statistico)

Capitolo 10 Mondo Google e i servizi web dei Search Engine In questo capitolo analizziamo i principali servizi e brevetti messi a disposizione da Google e tutte le utility erogate dai vari Search Engine, in modo tale da inglobarle e sfruttarle nei nostri progetti per aumentare la popolarità e la visibilità sul web.

Google Local Search e Venice Update Google ama la Local Search e, da quanto annunciato nel febbraio 2012 dal blog ufficiale di Google, con il codename “Venice” è in grado di soddisfare le ricerche degli utenti, mostrando sempre più spesso dei risultati geolocalizzati in base alla località rilevata (questo anche per le ricerche generiche che non contengono il nome della località).

NOTA Il 27 ottobre 2010 Google ha introdotto il “Place Search”, il canale verticale dedicato alle “ricerche locali”. Con questa modifica Google mira ad aiutare gli utenti a trovare più facilmente “informazioni locali”. Il 22 marzo 2010 sul Long Blog è stato annunciato un nuovo test che Google sta svolgendo in America: mostrare il prezzo degli hotel su Google Maps. Tale feature è tutt’ora applicata e funzionante anche su Google Italia ed è attivata per alcuni partner come Booking.com ed Expedia.

Secondo le dichiarazioni di Google, il nuovo algoritmo permette di avere: • miglioramenti al ranking per risultati di ricerca locali (nome in codice del lancio: “Venice”); questo aggiornamento migliora l’innesco di risultati Universali Locali basandosi maggiormente sul ranking dei nostri principali risultati di ricerca come un segnale; • risultati locali migliorati: “abbiamo lanciato un nuovo sistema per trovare risultati, in modo più affidabile, partendo dalla città dell’utente. Ora siamo in grado di rilevare quando sia le query sia i documenti sono locali per l’utente”. Vediamo ora alcune delle modifiche recenti apportate da Google nella sfera del Local Search,

tema cruciale per il marketing turistico. Se effettuiamo una ricerca del tipo:

Google mostrerà nella SERP le mappe di Google Places/Local (vedremo tra breve di cosa si tratta) correlate all’indicazione dei prezzi e alla possibilità di effettuare la prenotazione in maniera diretta, come mostra la Figura 10.1.

Figura 10.1 - Esempio di scheda Local Search di Google con i prezzi degli hotel direttamente nella SERP prima del Venice Update.

Questa nuova funzione non cambia il modo in cui le attività sono posizionate su Google Maps. Google Maps posiziona le schede in base alla loro pertinenza con i termini di ricerca, alla distanza geografica (dove indicata) e ad altri fattori, indipendentemente dal fatto che ci sia o meno un prezzo associato. A oggi più di 100 milioni di persone utilizzano il servizio di Google Maps da telefoni cellulari per trovare indicazioni stradali o informazioni sulle proprie attività. Tutte queste novità sono da tenere in considerazione per le nostre attività SEO e soprattutto per progetti di marketing turistico. Inoltre, grazie all’aggiornamento del Venice Update, Google è in grado di restituire risultati in base alla localizzazione dell’utente rilevata attraverso l’indirizzo IP, Wi-fi o il GPS. Questo lato SEO è un grosso cambiamento, in quanto query digitate da utenti in posti differenti potranno avere

risultati diversi, come mostra la Figura 10.2.

Figura 10.2 - Esempio di query effettuate da località differenti dopo il Venice Update.

Google Pigeon Il 24 luglio 2014 Google ha rilasciato questo nuovo algoritmo che si pone l’obiettivo di migliorare la pertinenza e la qualità dei risultati locali. Da tempo Google si è impegnata su questo fronte, grazie a questo nuovo sistema (il cui nome non è mai stato ufficialmente né confermato né smentito) è riuscita a ottimizzare l’attinenza delle SERP geolocalizzate. In questo modo, ricercando sia vocalmente (Ok Google) che digitando la query, il motore di ricerca, oltre a individuare la risposta migliore, sarà in grado di fornire risultati attinenti premiando anche le piccole realtà locali che difficilmente potrebbero apparire in SERP. Secondo le prime analisi il Pigeon avrebbe avuto un impatto sia sulle Local Pack che One Box e Caroselli. Local Pack, One Box e il Carosello cosa sono? • Local Pack: sostanzialmente sono i risultati forniti per le aziende locali (un esempio lo potete trovare nella Figura 10.2).

One Box: sono i risultati di ricerca nella parte destra, in cui è possibile visualizzare informazioni e foto su una determinata realtà locale (Figura 10.3).

Figura 10.3 - Esempio di One Box.

Carosello: sono una nuova tipologia di visualizzazione che ormai si è diffusa su diverse tipologie di SERP per dare un’informazione intuitiva e visuale.

Figura 10.4 - Esempio Carosello in SERP Italiane.

Ora che abbiamo appreso queste nuove informazioni, cerchiamo di capire come il nuovo algoritmo abbia o stia per modificare in modo sostanziale le SERP locali. Secondo diversi studi, pare che Pigeon abbia portato a una riduzione dei local pack del 11,26% e in modo similare anche delle One Box. Questo cambiamento è dovuto al fatto che Google vuole riconoscere e

fornire risultati ottimali per ricerche territoriali e addirittura personalizzarle in base al quartiere in cui ci troviamo. Insomma, una bella novità che ha fatto piacere alle piccole attività e ha portato via un po’ di visibilità ad altre realtà.

NOTA Secondo un’analisi svolta da BrightEdge, è emerso che con il roll-out di Pigeon il settore del lavoro ha perso oltre il 60% della visibilità, le agenzie immobiliari oltre il 63%, il settore dei film (negozi noleggio, cinema) il 35% e le agenzie di assicurazioni il 10%. La medesima ricerca ha fatto emergere come il Local Pack appaia più spesso per il settore della ricettività con quasi il 30% in più, quello della ristorazione con quasi un 20% in più e quello della formazione con oltre il 10%.

Google Maps e il nuovo Google Map Maker Google Maps è il famoso servizio che fornisce mappe geografiche e informazioni relative ad attività locali. I risultati di Google Maps sono integrati nella SERP di Google e possono essere sfruttati sia da dispositivi mobile sia da PC. Recentemente il colosso di Mountain View ha rilasciato Google Map Maker, un servizio che permette di aggiungere e aggiornare dati geografici su Google Maps e Google Earth. Grazie a questo tool è possibile: • aggiungere elementi naturali e confini politici; • aggiungere strade, fiumi, ferrovie e altro per mappare strade, fiumi, ferrovie e altro; • aggiungere contorni di edifici per aggiungere edifici, palazzi, monumenti e altro; • aggiungere sedi di attività.

Figura 10.5 - L’interfaccia di Google Map Maker.

Grazie a questo servizio e all’integrazione con Google Maps e con Google Local, si aprono nuovi e interessanti scenari per la creazione di mappe e punti di interesse sia per attività di business sia per luoghi o punti culturali.

Google Places Se possiamo utilizzare Google Maps per crearci mappe personalizzate, grazie a un nuovo servizio gratuito, chiamato Google Places, possiamo promuovere un’attività commerciale in modo del tutto gratuito. Il procedimento è semplice: per prima cosa dobbiamo avere un account in Google, dopodiché andiamo all’URL http://www.google.com/local/add/businessCenter e facciamo clic su Aggiungi un’altra attività commerciale per iniziare a inserire la propria azienda all’interno di Google Maps. A questo punto dobbiamo compilare il modulo inserendo dati societari, immagini e foto aziendali. Abbiamo, inoltre, la possibilità di aggiungere maggiori dettagli, tra cui orari di apertura e chiusura, tag e keyword correlate all’attività.

Figura 10.6 - Esempio di scheda approvata in Google Places.

NOTA La scheda di Google Places, prima di essere pubblicata, sarà validata da Google, perciò dobbiamo completarla in ogni sua parte e inserire informazioni realmente correlate alla nostra azienda. Vi è, inoltre, la possibilità di gestire 10 o più attività tramite la funzionalità “bulk upload” https://support.google.com/places/answer/178024?hl=it.

Una volta completate le operazioni, confermando la scheda, avremo due possibilità: attivarla telefonicamente o farci inviare una cartolina contenente un pin. Ottenuto il pin (in genere la cartolina arriva per posta dopo due-tre settimane), dal pannello di controllo potremo attivare la nostra scheda, quindi aumentare la visibilità. Infatti la mappa potrà comparire nelle ricerche organiche in Google per determinate chiavi di ricerca, catturando l’attenzione del visitatore. Il servizio ci fornisce anche interessanti statistiche inerenti alle impressioni e ai clic della nostra scheda in Google e la possibilità di inserire offerte correlate. Cosa dobbiamo fare per ottimizzare la nostra scheda di Google Places lato SEO? La risposta è molto semplice: completare correttamente tutti i campi. È fondamentale inserire in modo adeguato tutti i campi in fase di registrazione, evitando errori o omissioni. Per esempio, il numero di telefono presente in Google Places deve essere uguale a quello indicato sul sito web, così come l’indirizzo e la ragione sociale. Evitiamo di avere due schede della medesima attività su Google Places o di inserire categorie con nomi di luogo. Infine, cerchiamo di aggiungere foto e video a corredo della scheda.

NOTA In caso di duplicazione, si peggiora il ranking nella Universal Search. Google afferma che sono due i principali fattori di posizionamento delle schede di Places: • la pertinenza delle chiavi di ricerca; • la pertinenza della vicinanza geografica. La Local Search è sempre più sentita e gradita dagli utenti: consigliamo, quindi, di sfruttare questo servizio gratuito per iniziare a mettere le radici nel web e aumentare la propria visibilità.

Google My Business Google a giugno 2014 ha rilasciato Google My Business (http://www.google.com/business/), un servizio per unificare le Pagine di Google Places, le mappe e le Pagine Google + per le attività commerciali. In questo modo è possibile gestire le pagine Google Local, Google Places in modo aggregato, così come le statistiche sulle visualizzazioni. In pratica avremo diverse possibilità di integrazione tra cui: • aggiornamento centralizzato: tutte le informazioni saranno finalmente disponibili da un’unica fonte; • caricamento delle foto per arricchire le pagine personali e i profili della società o delle pagine locali; • analisi e statistiche sulle attività delle pagine; • integrazione totale con AdWords Express per la promozione attraverso i canali di Google; • App Google MyBusines per sistemi Android e iOS. La sezione statistiche ci permette di visualizzare i posti più “visualizzati” le interazioni con gli utenti e altri dati molto utili per le attività commerciali. Inoltre è presente un dettaglio che ingloba le visite provenienti dal sito collegato all’attività. Davvero un passo avanti per avere tutto sotto controllo da un’unica sezione “MY BUSINESS”.

Figura 10.7 - Google My Business: la nuova interfaccia centralizzata di Google.

Figura 10.8 - Google My Business: esempio della scheda delle statistiche.

NOTA Anche Bing ha un servizio molto simile; al seguente url potete provarlo: https://www.bingplaces.com/

Pagina Google + Local Le pagine Google+ Local sono state introdotte da Google per sostituire le vecchie Google Places e differiscono da queste ultime per la possibilità di sfruttare tutto il lato social della piattaforma. Esse consentono di aumentare la visibilità di attività locali e di fornire informazioni utili ai clienti finali. Infatti è possibile inserire una descrizione, compilare orari di apertura e chiusura dell’attività, proporre offerte, servizi e collegamenti con il canale YouTube.

Figura 10.9 - Esempio di creazione di una pagina di Google+local.

NOTA Nel 2012 Google ha dato la possibilità di avere URL personalizzati sia per i profili sia per le pagine business di Google+. Inoltre ha cambiato di recente interfaccia e a settembre 2016 Google+ diventa il core di Google Apps for Work.

Grazie al servizio Google Business Photo è inoltre possibile creare un tour virtuale dell’attività commerciale in modo da dare una visione professionale dell’azienda. L’URL per sfruttare questo servizio è: http://www.google.it/intl/it/help/maps/businessphotos/.

Google Hotel Finder Nel luglio 2011 Google ha attivato un nuovo servizio sperimentale che permette di cercare e prenotare hotel: si tratta di Hotel Finder, raggiungibile all’indirizzo

http://www.google.com/hotelfinder/.

NOTA https://support.google.com/hotelfinder/. Qui potrete trovare una guida iniziale per capire come utilizzare questo servizio.

Attraverso le nuove SERP di Google possiamo: • possiamo trovare nuovi hotel in base a dati di ricerca, quali posizione, prezzo o recensioni; • scoprire le recensioni dei clienti ed esaminare le schede degli hotel; • richiedere direttamente informazioni o prenotare l’hotel scelto avendo la possibilità di tenere una “shortlist” dei migliori hotel.

Figura 10.10 - Google Hotel Finder all’opera.

Ma cosa bisogna fare per inserire il proprio hotel nelle ricerche di Google? A oggi non vi è una formula perfetta per essere presenti in questo circuito (https://support.google.com/websearch/answer/6276008); questo perché Google ricava i dati utilizzati in Google Hotel Finder prendendoli dalle schede di Google Place, dalle schede OTA alle quali l’hotel è affiliato, da provider GDS e da tutti i siti di recensioni online, come Yelp, Zagat e similari. Si tratta, quindi, di un servizio sicuramente interessante, che potrebbe aprire numerose strade e opportunità nel settore turistico, in particolare nell’ambito delle prenotazioni alberghiere sul web, dove il predominio di Booking.com è quasi assoluto.

Google Flight Search Google Flight Search è un servizio (lanciato nel settembre 2011) studiato per facilitare gli utenti che devono trovare informazioni in merito ai voli aerei.

NOTA A partire dal 15 marzo 2012, Google Flight Search permette di trovare e prenotare voli aerei anche verso destinazioni esterne agli Stati Uniti d’America. Sono state aggiunte, infatti, circa 500 destinazioni al di fuori degli Stati Uniti, tra cui, per l’Italia, Torino, Milano, Genova, Verona, Venezia, Bologna, Firenze, Pisa, Roma, Napoli, Bari, Palermo, Catania.

Google Flight Search è raggiungibile dall’URL http://www.google.com/flights/, e al momento è integrato parzialmente nella SERP per determinate ricerche. Il suo funzionamento è molto semplice: basta inserire la città di partenza e quella di destinazione per avere un resoconto completo. Inoltre è possibile sfruttare vari filtri: • Number of stops: numero di fermate intermedie; • Airline: compagnia aerea; • Connection: città dove fare scalo; • Outbound/return time: definizione di uno specifico range per l’orario di partenza o di arrivo; • Price: prezzo del volo; • Duration: durata del volo.

Figura 10.11 - Google Flight Search.

Si tratta, pertanto, di un servizio utile, che sicuramente verrà ampliato e incluso in Universal Search.

Search Field Trial Google ha annunciato, nell’agosto 2013, una serie di nuove funzionalità di ricerca che renderanno più facile trovare le proprie informazioni personali tramite Google Search. In pratica, interrogando il motore di ricerca saremo in grado di ottenere risposte correlate alla nostra “vita” sul web (è ciò che sta cercando di fare con Google Now per gli utenti di Android). Il motore di ricerca Google, infatti, ora potrà trovare informazioni sui voli in arrivo, su prenotazioni di hotel e alberghi, su acquisti online, integrandole con il calendario di Gmail. Ma a quali domande Google sarà ora in grado di dare risposta? • voli: è possibile chiedere a Google “Il mio volo è in orario?” per ottenere informazioni dettagliate su voli e tratte aerei; • prenotazioni: per avere informazioni sulle prenotazioni di alberghi; • acquisti: interrogando il motore di ricerca con la key “i miei acquisti”, potremo ottenere lo storico dei nostri ordini in corso e molte altre informazioni; • agenda: scrivendo “Quali sono i miei piani per domani?” otterremo un’integrazione con il nostro calendario e la nostra agenda online; • foto: basta chiedere “Mostrami le mie di Roma” per iniziare a vedere le nostre foto caricate su Google+. Per provare questa funzionalità dobbiamo andare su Search Field Trial al seguente link: https://www.google.com/experimental/gmailfieldtrial/.

NOTA Ricordiamo che è possibile impostare le schede di Schema.org per le email action. Per tutte le informazioni: https://developers.google.com/gmail/markup/.

Google Destinations Si tratta di un nuovo servizio di Google per organizzare in maniera rapida e veloce le proprie vacanze. Infatti, è possibile ricercare hotel, voli e biglietti. Il nuovo servizio di Google si attiva in modo del tutto automatico aggiungendo “destinazioni” dopo il nome di un continente o di uno stato su Google (ad esempio “Europa Destinazioni”), mentre si fa una ricerca da Mobile. In tal modo è possibile visualizzare un elenco delle possibili destinazioni, con l’indicazione dei principali luoghi d’interesse, il prezzo medio dei voli per raggiungere la meta e quello di un hotel. Il nuovo Google Destinations permette di rendere il motore di ricerca un sistema per fare direttamente le cose, non solo per cercarle.

Google Voice Search e Spoken Answers Google ha introdotto la ricerca vocale nel lontano 2008, integrandola nel corso del tempo per le varie lingue. Da dicembre 2013 è stata introdotta la ricerca vocale anche per l’Italia; possiamo quindi utilizzare il motore di ricerca come un automa in grado di dare risposta alle nostre domande. Nel 2015 le ricerche vocali sono state il 22% del totale. Circa l’88% proviene da Mobile. (Dati Globali su: https://www.thinkwithgoogle.com/articles/i-want-to-go-micro-moments.html.)

Ok Google Come abbiamo già accennato, e avremo modo di vedere nel dettaglio, a settembre 2013 Google ha svelato l’algoritmo di ricerca Hummingbird, in italiano Colibrì, e dal 1 luglio 2014 la funzione “Ok Google” (la possibilità di parlare dallo Smartphone a Google ottenendo risposte) è attiva anche in Italia. Queste novità e i successivi miglioramenti dell’algoritmo fino ad arrivare a RankBrain sono un enorme passo in avanti per ottimizzare l’esperienza utente.

NOTA Alla luce di queste novità, perché non pensare di integrare la ricerca vocale all’interno del nostro sito web? Grazie alle Web Speech API è stata data la possibilità agli sviluppatori di incorporare il microfono all’interno delle loro applicazioni web. Per maggiori informazioni, vi consiglio: https://dvcs.w3.org/hg/speech-api/raw-file/tip/speechapi.html.

Google News Cos’è Google News? Secondo Google: “Google News è un sito di notizie generato automaticamente che raccoglie articoli di notizie da oltre 250 fonti di informazione in lingua italiana provenienti da tutto il mondo, che raggruppa articoli dal contenuto simile e li visualizza in base all’interesse personale di ogni lettore”. Riuscire a essere presenti in tale servizio vuol dire aumentare notevolmente la propria visibilità e incrementare le visite. Questo perché nei risultati di ricerca di Google viene dato maggior rilievo alle notizie provenienti da Google News, che vengono visualizzate tipicamente con un’immagine a fianco.

Figura 10.12 - Risultati di ricerca provenienti anche da Google News.

NOTA Per vedere se il nostro sito web ha i requisiti necessari per essere aggiunto, è necessario leggere con attenzione la guida ufficiale di Google all’indirizzo http://bit.ly/guida-googlenews e visionare il video http://bit.ly/tips-google-news.

Per analizzare meglio questo scenario, ci avvaliamo del supporto fornitoci da Maile Ohye che ha pubblicato sul blog di Google News le risposte a due domande piuttosto interessanti. Nella prima afferma che aggiungere il nome della città al titolo della news non aiuterà l’editore a trovare un maggior numero di lettori locali, in quanto l’algoritmo di Google si occuperà di estrarre la

posizione geografica dall’articolo stesso. “Modificare il nome per includere parole chiave rilevanti o aggiungere indirizzi locali nel footer non ti aiuterà a entrare in contatto con un pubblico specifico” dice Maile. Nella seconda afferma, invece, che Google News preferisce URL inserite di recente all’interno della News Sitemap ma, se non c’è una sitemap news, il sito viene passato dal bot. (https://support.google.com/news/publisher/answer/75717? hl=it&ref_topic=4359874) Nel brevetto “sistemi e metodi per migliorare il posizionamento di notizie”, nella parte relativa a implementation consistent with the principles of the invention, sono menzionati i seguenti fattori:

NOTA Il brevetto è stato presentato alcuni anni fa, ed è quindi probabile che alcuni dettagli siano cambiati, ma all’interno di esso ci sono comunque parecchi fattori interessanti, alcuni dei quali potrebbero essere legati al posizionamento in Google News. Tutti i fattori che analizzeremo fanno parte del brevetto, ma in maniera abbastanza verosimile non sono impiegati nella maggior parte dei casi. Ricordiamo che all’interno della redazione di Google News c’è qualcuno che decide quali siti possano entrare e quali no. Si possono rispettare tutte le regole e comunque non essere inclusi. Inoltre, è possibile notare come ci siano siti di scarsa qualità in Google News, indice di uno scarso controllo e algoritmi decisamente più scarsi rispetto a quelli di ricerca organica. Per ulteriori approfondimenti vi consigliamo la lettura di http://www.ideativi.it/blog/535/regole-di-google-news-inserire-un-sito-e-nonessere-sbattuti-fuori.aspx

numero di articoli prodotti dalla fonte nel corso di un determinato periodo di tempo: presumibilmente, più sono gli articoli (non duplicati) prodotti da una fonte nell’arco di un certo periodo di tempo, meglio è. Il motore di ricerca potrebbe anche considerare il numero di “frasi originali” pubblicate dalla fonte nel corso del tempo; lunghezza media dell’articolo prodotto dalla fonte: potrebbe essere misurato in parole o frasi. Se un articolo medio prodotto dalla CNN è di 300 parole, mentre quello di una fonte locale è di 150, alla CNN potrebbe essere assegnato un valore di 300 per questo parametro, mentre alla fonte locale ne verrebbe attribuito uno di 150; gli articoli più lunghi sono quindi preferibili? Se un motore di ricerca si mette a guardare le 100 principali news prodotte dalla CNN nel corso dell’ultima settimana e le 100 principali news di un’altra fonte, e ne confronta la lunghezza, la fonte con gli articoli più lunghi sarà considerata di qualità superiore? Se il motore di ricerca, invece, raggruppasse insieme tutti gli articoli su un determinato argomento e ne misurasse la lunghezza, potrebbe considerare quello più lungo come quello di miglior qualità. Questa metrica sembra indicare che la lunghezza è un parametro di cui tenere conto; “punteggio” relativo alle Notizie dell’Ultim’Ora: a seguito di un evento importante,

• • •

quanto tempo ci mette la fonte a pubblicare una notizia su di esso? Se si raggruppano tutti gli articoli su quell’evento e si osservano le date di pubblicazione, alla fonte più veloce potrebbe essere assegnato il miglior breaking news score; modello di utilizzo: se il motore di ricerca traccia il numero di quanti seguono i link verso una particolare fonte di news, quando all’utente vengono presentati i link verso le fonti, quale di queste tende a visitare di più? opinione “umana” sulla fonte: gli utilizzatori del motore di ricerca potrebbero identificare fonti che amano leggere o che hanno visitato. Potrebbero essere anche utilizzati altri parametri: ad esempio, i giornali possono essere confrontati in base al numero di premi Pulitzer che hanno vinto. Inoltre, l’anzianità di una fonte potrebbe essere considerata come una misura della fidelizzazione del pubblico. In alternativa, ci si potrebbe avvalere di persone che analizzano e valutano una selezione di articoli provenienti da diverse fonti, chiedendo loro di assegnare un punteggio a ogni singola fonte; statistiche circa la “tiratura” della fonte: sono le statistiche di tiratura delle copie stampate, le statistiche d’uso come quelle di Media Matrix o Nielsen Netratings, e tutti gli altri possibili modi per misurare il traffico che una fonte riceve; dimensioni dello staff della fonte: è il numero dei singoli giornalisti che firmano gli articoli di una fonte, indicativamente devono essere almeno 5; numero di agenzie giornalistiche associate alla fonte: questo parametro sembra favorire le fonti di dimensioni maggiori e le agenzie di stampa già affermate; “entità” che appaiono negli articoli prodotti dalla fonte: una “entità” è una specifica persona, un luogo, un’organizzazione o una cosa. Se raggruppiamo tutti gli articoli circa un evento particolare e uno include una citazione dell’“entità” che gli altri articoli, sullo stesso argomento, non includono, esso potrebbe posizionarsi meglio di altri. Questo parametro si suppone stia a indicare che una fonte è “in grado di riportare la notizia originale”. Per esempio, la data di pubblicazione degli articoli potrebbe essere considerata per verificare quale articolo includa l’“entità”, e quando. Variazioni sull’ortografia e abbreviazioni potrebbero anche essere esaminate per determinare se le “entità” citate negli articoli siano uniche; numero di argomenti sui quali la fonte produce contenuti: gli articoli potrebbero essere categorizzati in argomenti e la gamma di questi essere considerata come un indicatore della “dimensione” della fonte. Questo sembrerebbe favorire le fonti più “generaliste” rispetto a quelle che si concentrano su una nicchia molto ristretta; “diversità internazionale” della fonte: riguarda il numero di Paesi dai quali il sito della fonte riceve traffico. Il motore di ricerca potrebbe tenere in considerazione cose come gli indirizzi IP delle persone che cliccano sui link della fonte per verificare come sono distribuiti gli utenti a livello mondiale; stile di scrittura utilizzato dalla fonte: il motore di ricerca potrebbe utilizzare sistemi automatici per misurare l’ortografia, la grammatica e i “livelli di lettura” di una fonte. Altri segnali presi in considerazione potrebbero essere il numero di link che puntano al sito web della fonte.

Questi sono alcuni fattori da prendere in considerazione prima di fare una richiesta di inclusione in Google News; tra i prerequisiti troviamo: • il tuo sito deve contenere le informazioni di contatto chiaramente accessibili tra cui un indirizzo, telefono ed email; • se il sito è disponibile in più lingue, ogni sezione dovrà essere ben distinta; • il sito deve avere una redazione e un dettaglio per ogni autore; • il sito deve specificare la frequenza di post (tipicamente, per essere incluso, sono necessari almeno 5 post al giorno). Un altro problema che Google ha dovuto affrontare è il cosiddetto paywall, ovvero il fatto che molte notizie posso essere lettere solo se un utente dispone di un abbonamento. Questo è un grosso problema per Google in quanto gli utenti non amano essere rimandati a siti in cui è richiesto un abbonamento per leggere la notizia. Per superare questo ostacolo, è stato ideato First click free (FCF https://support.google.com/news/publisher/answer/40543) ovvero un sistema in grado di permettere all’utente la lettura del primo articolo in modo gratuito senza sottoscrivere nessun abbonamento. L’editore avrà inoltre la possibilità di impostare un sistema per consentire un numero massimo di “letture” gratuite (ad esempio il NewYorkTimes ha impostato questo limite a 10 news al mese). I siti appartenenti a Google News che hanno notizie a pagamento o erogabili sotto abbonamento appariranno nelle SERP con la scritta “subscription”, come mostra la seguente immagine:

Figura 10.13 - Risultati Paywall Google News.

Requisiti tecnici per l’inclusione in Google News Nel precedente paragrafo abbiamo scoperto cos’è Google News e abbiamo visto le principali novità e Tips per richiederne l’inclusione. Ora cercheremo di approfondire e scoprire quali sono

i principali requisiti tecnici richiesti per essere ammessi a questo programma: • l’URL per ogni articolo dovrebbe contenere un numero univoco costituito da almeno tre cifre, anche se questa regola è ormai “superata” (https://support.google.com/news/publisher/answer/68323); • il titolo, il corpo, la data e il nome dell’autore devono essere separati e facilmente riconducibili (sarebbe opportuno sfruttare Schema.org per dare informazioni precise al motore di ricerca); • gli articoli devono contenere un minimo di 80 parole; • la pagina HTML di una sezione o di un articolo deve avere un peso inferiore a 256 KB; • le pagine che visualizzano più articoli allo stesso URL non saranno incluse; • i link a immagini o link incorporati in JavaScript non possono essere sottoposti a scansione; • la sezione e gli articoli devono essere sullo stesso dominio (o sottodominio) del sito principale; • Google preferisce i siti codificati in UTF-8 e le pagine devono avere un contenuto di tipo HTTP text / html, text / plain o application / xhtml + xml; • è importante creare una Sitemap ad hoc per gli articoli (https://support.google.com/news/publisher/contact/report_issue_content); • le headlines devono avere almeno 10 caratteri ed essere comprese tra le 2-22 parole; • nel titolo dell’articolo non devono essere presenti link; • l'headline dovrebbe essere contenuta nel tag ; • il titolo dell’articolo dovrebbe appartenere al tag • •

possiamo utilizzare il canonical per evitare duplicazione di contenuti; Google News non utilizza il metatag description (https://support.google.com/news/publisher/answer/70752): possiamo sfruttare i meta tag news_keyword and standout; un altro tag importante da sfruttare è < news_keyword > e va collocato all’interno < head> della pagina (https://support.google.com/news/publisher/answer/68297). Possiamo inserire fino a 10 parole ed evitare la ripetizione di parole presenti nel titolo dell’articolo; infine un tag nuovo e importante è standout (https://support.google.com/news/publisher/answer/191283), che serve a indicare notizie originali o gli scoop. Le regole da rispettare in questo caso sono le seguenti: – l’articolo è assolutamente originale; – l’organizzazione ha investito notevoli risorse nel produrre l’articolo; – l’articolo merita un riconoscimento speciale; – il tag standout non è stato utilizzato sui propri articoli più di sette volte nella stessa settimana.

Dopo aver analizzato quanto sopra illustrato, se riteniamo di avere tutti i requisiti necessari, non ci resterà altro da fare che segnalare il nostro sito web attraverso l’apposito form:

http://tinyurl.com/add-googlenews

NOTA Matt Cutts ha annunciato che Google News ha recentemente introdotto il supporto di due nuovi meta tag: • syndication-source; • original-source. Come si evince dalle linee guida di Google News, al momento tali tag non sono utilizzati per il ranking, ma costituiscono un esperimento per perfezionare un sistema in grado di identificare l’autore originale di una notizia.

Se il nostro sito è stato incluso in Google News potremo poi gestirlo direttamente con https://partnerdash.google.com/publisher per impostare le sezioni e gestirne gli aggiornamenti come mostra la seguente immagine:

Figura 10.14 - Gestione di un blog presente in Google News.

NOTA News-Wave Update o Colossus Update (nomi non ufficiali) è un possibile aggiornamento che ha riguardato le parole chiave di tendenza e le intenzioni di ricerca legate a keyword “informazionali“. Queste novità, dalle analisi svolte, hanno portato alla conclusione che dal 19 giugno 2015 diversi siti di informazione, riviste e giornali online hanno ottenuto un notevole boost nelle SERP del motore di ricerca.

Google Blog (ormai morto) Google Blog Search è il motore di ricerca implementato e sviluppato da Google attraverso il quale vengono fornite, come risultati della ricerca, informazioni correlate prelevate dai vari blog. Senza addentrarci troppo nel funzionamento di questo strumento, possiamo dire che, per essere ben visibili anche in Google Blog, dobbiamo produrre articoli di qualità, privi di pubblicità, seguendo le normali regole SEO illustrate in questo libro. Quando riteniamo che il nostro sito sia pronto per essere inserito in questo canale, non dobbiamo fare altro che andare al seguente link: http://blogsearch.google.com/ping

Google Libri Google Libri è una vasta biblioteca online in cui trovare libri e recensioni. Se vogliamo pubblicizzare il nostro libro in questo canale, dobbiamo consultare la guida presente al link: http://tinyurl.com/add-books

Figura 10.15 - Risultati prodotti da una ricerca in Google Books.

NOTA Nei capitoli precedenti abbiamo già analizzato come inserire i nostri contenuti in Google Immagini e in Google Video. Vorremmo farvi notare che molti di questi servizi che vi abbiamo illustrato sono stati o saranno integrati in modo automatico nelle SERP di Google per migliorare sempre di più l'esperienza utente!

Google Merchant Center o Google Shopping Google Merchant Center è un centro operativo attraverso il quale è possibile caricare i propri prodotti per renderli disponibili in Google Shopping e in altri servizi sempre firmati Mountain View. Dopo aver creato un account nel Google Merchant Center, è possibile: • caricare i propri prodotti attraverso data feed, upload diretti, o usando le api; • facilitare nuovi utenti a raggiungere il proprio sito attraverso la Google Products Search o Google.com; • utilizzare i dati forniti dal Merchant Center per ottimizzare le campagne AdWords; • aumentare la visibilità del proprio negozio online su Google.

NOTA Per maggiori informazioni, vi consigliamo http://www.google.com/support/merchants/.

di

consultare

la

guida

Per creare un account Google Merchant Center, è necessario avere un account Google e seguire le istruzioni presenti nella pagina http://www.google.com/merchants/.

NOTA Google ha introdotto una figura professionale chiamata tecnicamente Quality Rater, con lo scopo di contrastare lo spam e migliorare i risultati di ricerca sia all’interno dei risultati organici sia in quelli di Google Shopping.

Google ALLO Google Allo è nuova applicazione di messaggistica istantanea ideata da Google. Potrà facilmente integrarsi con i sistemi Android e diventare un piccolo assistente personale. Le features sono interessanti, vedremo con il tempo le sue evoluzioni e se riuscirà a competere con Telegram e WhatsApp!

Figura 10.16 – Esempio di Google ALLo.

Shop the Look

Shop the Look è una nuova funzionalità in fase di testing da parte di Google per rendere lo shopping online più semplice e veloce. Questa feature è infatti in grado di mostrare in SERP gli outfit dei fashion blogger più seguiti.

Figura 10.17 – Esempio di Shop the Look.

È una nuova funzionalità online che attingerà da diversi social media. Google ci mostrerà un outfit più affine a noi e, cliccandoci sopra, avremo accesso a una galleria con tutte le immagini dei singoli prodotti, e i relativi link per acquistarli provenienti dalla piattaforma Shopping Ads.

Una strategia ben congegnata per promuovere alcune tipologie di annunci a pagamento. Vedremo se con il tempo riscuoterà il successo atteso. Per maggiori info: https://adwords.googleblog.com/2016/09/shop-look-on-google.html

Consumer Surveys Consumer Surveys è un nuovo servizio che permetterà alle aziende di creare sondaggi personalizzati. Il servizio è raggiungibile dall’URL: http://www.google.com/insights/consumersurveys/how Consumer Surveys consentirà alle aziende di diffondere i sondaggi a pagamento avendo a disposizione statistiche e risultati aggiornati. I publisher, invece, potranno offrire agli utenti dei contenuti riservati, accessibili dopo la compilazione del sondaggio. Per ogni sondaggio o risposta compilata, il publisher riceverà un compenso dato dalla combinazione di diversi fattori. In questo modo Google garantirà una larga diffusione dei sondaggi per le aziende che aderiranno a tale servizio.

Novità e brevetti Google Ultimi aggiornamenti di Google Quali sono stati gli ultimi aggiornamenti di Google? Al momento della pubblicazione del libro sono i seguenti: • RankBrain; • Google MugShot Algorithm; • Hummingbird; • Mobilegeddon; • HTTPS/SSL Update; • Pigeon; • Google Panda; • Google Pirate Update; • Payday Loan; • Pirate; • Exact-Match Domain (EMD) Update; • Phantom Update; • Page Layout; • più Risultati nella SERPs; • eliminazione del box destro nei risultati; • Link Warnings; • KnowledgeGraph; • Venice Update; • algoritmo che penalizza “ads above the fold”;

Spammy link network crackdown.

Questo ci fa capire come Google sia in costante evoluzione e come, per chi lavora nella SEO, sia fondamentale un aggiornamento continuo per intuire evoluzioni e caratteristiche da sfruttare nelle attività di visibilità online. Analizziamo ora i principali aggiornamenti che hanno caratterizzato il comportamento di Google negli ultimi anni.

Google Panda e i Phantom Update Abbiamo già accennato a Google Panda, ma vogliamo spendere qualche parola in più su tale aggiornamento, che ha determinato uno stravolgimento nel mondo del web. Google Panda è un cambiamento dell’algoritmo attuato per migliorare il ranking dei siti in base alla loro qualità. Si tratta di uno degli oltre 500 aggiornamenti dell’algoritmo applicati tra il 2011 e il 2012. Matt Cutts e Fellow Amit Singhal hanno affermato che tale aggiornamento avrebbe avuto un impatto intorno al 12% sulla SERP; in realtà sia negli Stati Uniti sia in Italia (anche se in misura molto ridotta) ha causato non pochi problemi, come per esempio cali di visite di ben il 50%. Gli obiettivi di tale cambiamento sono i seguenti: • ridurre le classifiche per i siti di bassa qualità: cioè a basso valore aggiunto per gli utenti (per esempio, quelli che copiano i contenuti da altri siti); • migliorare il posizionamento per i siti di alta qualità: cioè i siti con contenuti originali e di informazione, come per esempio quelli di ricerca o che offrono relazioni approfondite. Vediamo quali sono le prime accortezze da adottare per evitare di incappare in Google Panda: • evitiamo di avere contenuti duplicati: i siti di aggregazione di notizie sono stati i primi a essere colpiti da Panda. Evitiamo di copiare contenuti da altri siti web, ma cerchiamo sempre di produrre testi unici e di qualità soprattutto per l’utente finale; • troppi banner e pubblicità fanno male: i ranking Factors del 2016 hanno mostrato una correlazione negativa fra il posizionamento e la quantità di annunci AdSense (ma non solo) presenti su una pagina. Il testo di una pagina deve essere più corposo rispetto ai banner o alla pubblicità, inoltre i contenuti pubblicitari devono essere posizionati below the fold per dare ampio spazio al testo e all’informazione;

NOTA Google afferma: “Il nostro ultimo update è pensato per ridurre il ranking dei siti di scarsa qualità, quindi la cosa fondamentale per i webmaster è assicurarsi che i loro siti abbiano la più alta qualità possibile. Noi esaminiamo diversi fattori per individuare i siti di bassa qualità. Tenete a mente che le persone che cercano in Google tipicamente non vogliono trovare contenuti superficiali o scritti male, contenuti copiati da altri siti o informazioni inutili. Inoltre, è importante che i webmaster sappiano che i contenuti di bassa qualità su una parte del sito possono impattare sul posizionamento di tutto il sito. Per questo motivo, se credete di essere stati colpiti dal nostro update, dovreste controllare tutti i contenuti del vostro sito e migliorare la qualità complessiva delle pagine del vostro dominio. Togliere le pagine di scarsa qualità o spostarle su un dominio diverso potrebbe aiutarvi a posizionare meglio i vostri contenuti di qualità. Inoltre, alcuni publisher si sono concentrati eccessivamente sul nostro ultimo cambiamento dell’algoritmo, Panda, senza considerare che questo cambiamento è soltanto uno dei circa 500 miglioramenti che abbiamo intenzione di implementare per il servizio di ricerca quest’anno (2011)”.

• •

non acquistiamo link per le campagne di link building. L’acquisto di link è sicuramente un fattore di penalizzazione, la quale potrebbe essere più o meno correlata a Panda in base alla “gravità”; testi troppo ottimizzati possono costituire un campanello d’allarme: proprio all’inizio del 2014 Google ha annunciato diverse penalizzazioni per politiche SEO aggressive; controlliamo periodicamente la Bounce Rate troppo alta (Frequenza di rimbalzo): una frequenza di rimbalzo troppo alta è il segnale che qualcosa non va. È importante capire i problemi relativi alla frequenza di rimbalzo e ai tempi di permanenza di un utente sul nostro sito web per cercare di migliorare la situazione attuale. Ovviamente questo parametro dipende molto dalla tipologia del sito stesso; usabilità del sito web: il sito web deve essere performante, usabile, e rispondere alle richieste dell’utente. Google lo sa e valuterà anche tale parametro come indice di qualità di un sito web.

Quali accortezze dobbiamo adottare nella nostra strategia di visibilità online per essere conformi alle direttive di Google su Panda? Di seguito ne elenchiamo alcune: • creare sempre contenuti freschi e interessanti; • curare la forma dei contenuti; • evitare di copiare contenuti; • evitare di avere troppa pubblicità nelle nostre pagine; • sfruttare il rel=canonical; • utilizzare bene il 301 e il noindex nofollow.

NOTA I contenuti di bassa qualità presenti in alcune parti di un sito web possono incidere sui posizionamenti dell’intero sito, quindi è fondamentale prestare attenzione a pagine duplicate o di bassa qualità inserite negli anni nel nostro blog o portale. A fine 2015 Google ha annunciato come Panda ora faccia parte del core dell’algoritmo, anche se ad oggi non è real time. Inoltre sono stati rilasciati degli aggiornamenti del Phantom Update che vanno oltre, infatti controllano la qualità delle pagine dei contenuti al fine di migliorare quella che è l’esperienza utente. L’aggiornamento Phantom infatti è nato al fine di valutare la qualità delle pagine e si concentra principalmente sulle intenzioni dell’utente. Questo algoritmo si adatta ai vari segnali di qualità e questo vuol dire che possono avvenire cambiamenti in qualsiasi momento, senza preavviso sulle SERP di Google a seguito di aggiustamenti del ranking. Non si ha modo di sapere come agiscano e come si comportino ma ad esempio a giungo 2016 un rilascio di tale filtro ha portato diversi scompensi in SERP.

Abbiamo visto come agisce Google Panda e quali sono le possibili azioni da mettere in atto per evitare di incappare in questa modifica dell’algoritmo. Vogliamo ricordare che periodicamente Google rilascia aggiornamenti di Panda per rendere il processo di lotta contro lo spam più lineare ed efficace. Da parte nostra non ci resta che cercare di creare siti web efficaci con layout accattivanti e contenuti di qualità.

Payday Loan Update Gli aggiornamenti o update di Google, come avete notato, sono numerosi, alcuni noti altri meno. Questo aggiornamento rilasciato nel 2013 va a supporto di Panda e serve per contrastare le “very spammy queries”. A oggi il PayDay Loans è alla terza release. Matt Cutts ha affermato come Google presterà sempre pìù attenzione alle query ritenute Spam. Questo servirà a migliorare l'esperienza utente e anche i risultati forniti dal motore di ricerca!

Page Layout Algorithm o Top Heavy Update Google nel 2012 ha introdotto un nuovo algoritmo, “Page Layout Algorithm“, detto anche “Top Heavy”, volto ad abbassare il posizionamento di pagine web con numerosi annunci pubblicitari nella parte alta della pagina, ritenuti elementi di disturbo nella navigazione per gli utenti. Si tratta di un algoritmo atto a colpire in particolar modo i siti “Made for Adsense”, ovvero quei portali pieni di pubblicità e privi di elementi di reale interesse per l’utente. All’inizio del 2014 Google ha rilasciato un ulteriore aggiornamento dell’algoritmo, in cui si cita: Abbiamo ricevuto lamentele da utenti che, se cliccano su un risultato e trovano con difficoltà il contenuto della pagina, non sono molto contenti della loro esperienza.

Piuttosto che scrollare in basso la pagina per bypassare una sfilza di annunci, gli utenti vogliono vedere il contenuto subito. Per questo i siti che non hanno molto contenuto “above-the-fold” (N.d.T.: letteralmente, “sopra la piega”: nel web design indica il contenuto della prima schermata, prima appunto di iniziare lo scrolling) saranno colpiti da questo cambiamento. Se cliccate su un sito web e la parte che vedete per prima non ha molto contenuto visibile sopra la piega oppure dedica una larga parte della schermata iniziale agli annunci, non si tratta di un’esperienza utente molto buona. Siti come questi non si posizioneranno più così bene nella nostra SERP. In caso di penalizzazione, Google suggerisce, ovviamente, di modificare il layout delle pagine e di attendere che il crawler scansioni nuovamente tutto il sito: pare, dunque, che il “page layout algorithm” sia un algoritmo senza alcun contributo manuale, e se viene ripristinato il giusto rapporto fra contenuti e pubblicità è possibile uscirne senza danni.

Figura 10.18 - Esempio di Page Layout NON corretto.

NOTA È possibile effettuare dei test sul layout delle vostre pagine, sfruttando https://testmysite.thinkwithgoogle.com/

I nostri consigli nella creazione di un sito web SEO friendly e soprattutto compatibile con questi ultimi aggiornamenti di Google sono i seguenti: 1. utilizzate una grafica che tenga conto delle necessità degli utenti; 2. posizionate banner e sponsor dopo il testo scritto; 3. realizzate un sito usabile e mobile friendly. In poche parole, se volete guadagnare con la pubblicità del vostro sito, dovete farlo in modo coerente e non inondando il sito di banner o annunci pubblicitari.

Penguin Update Avremo modo di parlare in maniera ancora più dettagliata, nel Capitolo 12, del nuovo Penguin Update, algoritmo che si concentra sui link tematici, con anchor text specifici che puntano a un sito web. In particolar modo, il nuovo algoritmo si concentra su: • Keyword-Stuffing: non è una novità, ma il Penguin Update, secondo quanto affermato da Google, dovrebbe dare il colpo di grazia a questa antica forma di black-hat ancora molto utilizzata; • schemi di link: link non settoriali, strutture di link non coerenti sono sotto il radar del nuovo algoritmo; • bassa qualità contestuale del link: ovvero i link vengono valutati in modo differente in base al contesto in cui sono collocati. Per questo motivo, se il mio sito web riceve molti link in entrata con keyword innaturali, allora dovrei iniziare a preoccuparmi del nuovo aggiornamento di Google. La Figura 10.19 mostra un quadro complessivo dei primi siti web colpiti dal Penguin Update. Da quanto è emerso, pare proprio che i primi i siti web penalizzati da Google Penguin abbiano una peculiarità in comune: ricevono diversi link con keyword specifiche nell’anchor text.

Figura 10.19 - Penguin Update e percentuale dei link con medesima keyword nell’anchor text.

NOTA Una buona mossa per evitare di incappare nella penalizzazione è quella di variare le keyword dei link e quindi non portare più del 10% dei link in entrata verso il nostro sito web con la medesima keyword. Ovviamente, come ha ribadito più volte Google, questi link devono essere naturali!

In definitiva, i nostri consigli per non incappare nel Penguin Update sono i seguenti: • evitare campagne link-aggressive che utilizzano la medesima keyword nell’anchor text verso il nostro sito web; • variare le keyword dei link che puntano verso il nostro sito web in modo tale da avere una distribuzione omogenea dei link; • nella creazione di guest post è fondamentale attenersi in modo scrupoloso alle direttive di Google; • creare contenuti unici ed evitare scambio di link da siti; • evitare lo scambio di link, soprattutto con siti non autorevoli o non a tema; • non ingannare Google con network di siti web; • spalmare nel tempo le azioni di link building, utilizzare prevalentemente il brand e il nome del sito come anchor text e variare gli anchor text con keyword specifiche secondo le regole di Google.

NOTA Nel caso fossimo incappati nella penalizzazione del Google Penguin Update, potremmo, attraverso il modulo http://tinyurl.com/6qdx8a7, cercare di far valere le nostre motivazioni. Google ha inoltre recentemente introdotto il Disavow Tool, uno strumento per rimuovere i link “sporchi” che arrivano al nostro sito web. Approfondiremo nel Capitolo 12 l’argomento delle penalizzazioni causate da questi filtri.

Proprio a settembre 2016 è stato confermato da Google che Penguin 4.0 sarà real time. Le novità principali sono: • Penguin è ora in tempo reale: storicamente l’elenco dei siti interessati da Penguin veniva aggiornato in un determinato lasso di tempo. Questo rendeva difficile “recuperare” una penalizzazione causata da questo algoritmo. Con questa modifica, i dati di Penguin vengono aggiornati in tempo reale, così i cambiamenti saranno visibili in modo molto più veloce e rapido; • Penguin è ora più granulare. Penguin sarà più attento allo spam modificando la SERP in base a questi segnali. A mio avviso è una buona notizia, se un sito è stato penalizzato da questo “filtro” non dovremmo più aspettare mesi per recuperare… o almeno cosi sembra dalle prime dichiarazioni di Google! Essendo real time e granulare questo algoritmo potrà colpire i siti con maggiore precisione e per molti SEO che fino a oggi hanno usato tecniche di link building massive e artificiali potrebbe essere arrivata la fine.

Storia di Google Penguin a oggi Penguin 1.0 24 aprile , 2012 (impatto ~3.1% sulle query) Penguin 1.1 26 maggio, 2012 (impatto 0.1% sulle query) Penguin 1.2 5 ottobre, 2012 (impatto ~0.3% sulle query) Penguin 2.0 22 maggio, 2013 (impatto 2.3% sulle query) Penguin 2.1 4 ottobre, 2013 (impatto 1% sulle query) Penguin 3.0 17 ottobre, 2014 (impatto 1% sulle query) Penguin 4.0 & real-time 23 Settembre, 2016 Fonte: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html Questo nuovo algoritmo certamente farà cambiare alcune strategie usate da anni nella SEO nell’ambito del link building, cercando di premiare strategie meno invasive che puntano su link e contenuti di qualità.

NOTA I motori di ricerca non vogliono che tu faccia link building. Vogliono che tu, quei link, te li guadagni!

Google Freshness Update Abbiamo già avuto modo di imbatterci in Google Caffeine. Nel novembre 2011 (http://tinyurl.com/contenuti-freschi), direttamente dal blog ufficiale, il team di Google ha annunciato il rilascio di una nuova funzionalità: Google Freshness Update. L’impatto di tale aggiornamento sarà importante: in pratica, per il 35% delle ricerche Google darà maggiore spazio a contenuti più recenti e aggiornati. Quale è stato o sarà l’impatto sulle nostre ricerche? Amit Singhal sostiene che il nuovo algoritmo dà un peso differente in base alla freschezza dei contenuti, ovviamente a seconda delle esigenze degli utenti. Troviamo, quindi, una macrosuddivisione: • eventi recenti o temi caldi: d’ora in avanti, quando cercheremo determinate informazioni su eventi recenti o su notizie dell’ultima ora, ci verrà mostrata una lista di risultati di qualità, fra i quali anche le pagine che potrebbero avere solo qualche minuto di vita; • eventi ricorrenti: alcuni eventi hanno ricorrenze ben precise e specifiche. Può essere il caso di una partita di coppa con cadenza prestabilita o di un evento come le elezioni presidenziali. Senza che ci sia bisogno di specificarlo, è logico che per questi tipi di notizie si vorrebbe avere sempre a disposizione le informazioni più aggiornate e non contenuti vecchi di mesi; • aggiornamenti frequenti: esistono anche ricerche per informazioni che cambiano spesso nel tempo, ma che non sono né “temi caldi” né eventi ricorrenti. Per esempio, se dovessimo acquistare un’automobile e volessimo leggere le opinioni a proposito di un determinato modello, vorremmo poter trovare le recensioni più recenti e aggiornate. Bene, sono proprio questi i punti su cui si basa l’aggiornamento proposto da Google sulla freschezza dei risultati.

NOTA Tutto è partito da Google Caffeine (2010) fino a giungere al Freshness Update per cercare di fornire agli utenti dati in real time. In realtà, tali modifiche non costituiscono una vera e propria novità, ma sono una rielaborazione del Query Deserves Freshness rilasciato nel 2007.

Cerchiamo di analizzare il Freshness Update, per sfruttare tali peculiarità nelle nostre campagne SEO. Il fatto di premiare la “freschezza” dei contenuti potrebbe andare a discapito della rilevanza, aprendo in tal modo una nuova strada per lo spam. Google ha dichiarato: “La freschezza è una componente, ma l’attenzione sarà anche per il risultato, inclusi i fattori di attualità e di qualità”. Ma, quindi, quali sono i principali concetti da tenere in considerazione? La freschezza dei contenuti viene determinata dalla data di pubblicazione e dalla data in cui il crawler ha scansionato la pagina. Le pagine web, non appena vengono scovate da Google, ottengono un punteggio di freschezza direttamente correlato alla data di creazione e alla data in cui vengono indicizzate per la prima volta. Questo punteggio diminuirà nel tempo, segnando l’obsolescenza dei contenuti. La freschezza è correlata alla quantità e alla qualità degli aggiornamenti. Il “punteggio di freschezza” tiene conto dei vari aggiornamenti effettuati sui contenuti della pagina: la modifica di una frase avrà un peso minore rispetto all’aggiornamento di un intero paragrafo. La frequenza di rimbalzo sarà un nuovo fattore da prendere in considerazione. Il modo in cui gli utenti interagiscono con le pagine web è utile alla valutazione della freschezza dei contenuti; per questo motivo, se il tempo di permanenza su una specifica pagina è ridotto, Google potrebbe pensare che i contenuti presenti su di essa non siano aggiornati o pertinenti.

NOTA Negli aggiornamenti rilasciati nel marzo e nell’aprile 2012, Google ha fatto cenno più volte ad aggiornamenti legati alla freschezza dei contenuti per quanto concerne immagini, video e testo. Il futuro andrà sicuramente in tale direzione: Google sembra voler dare un’“iniezione di freschezza” ai propri contenuti, anche se spesso freschezza non fa rima con qualità e pertinenza.

Quelle analizzate sono solo alcune delle possibili variabili che Google potrebbe prendere in considerazione per la catalogazione dei contenuti freschi e aggiornati. Il nostro consiglio è quello di cercare di aggiornare vecchi post e di produrre contenuti di qualità, ma freschi e con informazioni coerenti.

Google Pirate Update Non si tratta di un nome ufficiale, né tantomeno di una penalizzazione reale a quanto pare. Dalle dichiarazioni di Google (https://googlewebmastercentral.blogspot.it/2012/04/another-step-toreward-high-quality.html), dopo DMCA, per la richiesta di rimozione dei contenuti che violano i

diritti d’autore o diffamano la persona o l’azienda, il Pirate Update (presunta uscita 2012) è un sistema in grado di dare un ranking inferiore a tutti quei siti con contenuti “più o meno illegali.” Infatti verrà data meno visibilità ai siti che permettono di scaricare illegalmente programmi o vedere partite in streaming non autorizzate, ad esempio. Questo ha portato nel 2015 a un forte calo nelle SERP dei siti torrent e di altri siti di pirateria. Ciò è stato possibile analizzando milioni di richieste DMCA. La lotta contro lo spam sarà dura, ma Google ha aumentato notevolmente l’attenzione su questi aspetti.

Not Provided e Meta Tag Referrer Google ha recentemente annunciato un cambiamento che non farà piacere a molti SEO e markettari. Di cosa stiamo parlando? “When a signed in user visits your site from an organic Google search, all web analytics services, including Google Analytics, will continue to recognize the visit as Google organic search, but will no longer report the query terms that the user searched on to reach your site. Keep in mind that the change will affect only a minority of your traffic. You will continue to see aggregate query data with no change, including visits from users who aren’t signed in and visits from Google cpc”. Questo significa che un utente, autenticato in uno dei servizi di Google (Google Plus, Gmail ecc.), quando effettua una ricerca, viene mandato alla versione HTTPS di http://www.google.com/. In tal modo sarà ancora possibile risalire al referrer, ma non alla query, che verrà omessa (il comportamento esatto verrà illustrato a breve). Attenzione! Questa modifica influirà su tutti i sistemi di analytics.

NOTA In parole povere: supponiamo che un utente sia autenticato con Gmail ed effettui una ricerca in Google (la modifica annunciata sarà completamente attiva nei prossimi mesi), ad esempio “pastore belga”. Comparirà, ovviamente, un elenco di pagine web inerenti alla parola chiave ricercata. Cliccando su uno dei risultati presenti nella SERP, al sito di destinazione (in base alle casistiche che vedremo nei test) non verrà passata la query di ricerca. Questo vuol dire che conosceremo l’URL di “partenza” ma non sapremo per quale keyword l’utente ci ha cercato. Un problema non di poco conto per i sistemi di analisi dei dati web.

Figura 10.20 - Esempio “minimale” di casistica generale del risultato del referrer in due situazioni distinte.

Attualmente pare che il comportamento sia leggermente diverso per gli utenti che giungono dal servizio da https://encrypted.google.com/: • nel caso in cui il sito di destinazione utilizzi il protocollo HTTP, viene omessa non solo la query di riferimento, ma anche il referrer; • nel caso in cui il sito di destinazione utilizzi il protocollo HTTPS, vengono passati sia il referrer sia la query. Test SEO sui risultati organici Grazie a Giacomo Pelagatti e al suo schema possiamo fare chiarezza su quanto realmente accade e sulle implicazioni che potranno esserci (lo schema si riferisce solo ai risultati organici).

Figura 10.21 - TEST SEO - risultati organici.

Test per le campagne ADWords Per i risultati a pagamento, provenienti da Google AdWords, la situazione è completamente diversa. Per testare il comportamento abbiamo prodotto due annunci ADWords in grado di fornirci il referrer: http://myfanpage.it/test.php e https://myfanpage.it/test.php. Questa mossa, forse, è dovuta al fatto che Google non può mettere limitazioni a un servizio offerto a pagamento ai propri clienti.

Figura 10.22 - TEST SEO - risultati da AdWords.

NOTA Dobbiamo precisare che il comportamento di un client su encrypted.google.com (sia per i risultati organici sia per quelli a pagamento) relativamente al non-invio di referrer da HTTPS a HTTP è quello standard, previsto dalla specifica del protocollo HTTP: “Clients SHOULD NOT include a Referrer header field in a (non-secure) HTTP request if the referring page was transferred with a secure protocol”. Una precisazione: per quanto concerne l’analisi dei “grafici” sopra illustrati, la dicitura “Not provided” si applica alle parole chiave, mentre la scritta “Traffico diretto” è inerente al segmento nel quale, in assenza di un referrer, confluiscono le visite da sorgenti non tracciate (discorso riferito a Google Analytics).

Dal 23 settembre 2013 le ricerche di Google sono state reinderizzate sotto protocollo HTTPS e correlate dal fatto che Google ha palesemente deciso di non passare le keyword negli URL di reindirizzamento (come abbiamo dimostrato nel test precedente). Ovviamente questo colpirà tutte le visite provenienti dal motore di ricerca Google. Il grosso problema è che i SEO, e non solo loro, perderanno moltissime metriche di valutazione delle attività di visibilità sul web.

Figura 10.23 - L’evoluzione dei not provided (http://www.notprovidedcount.com/).

Ma non finisce qui: Google ha iniziato a sfruttare il meta tag referrer per prelevare l’URL di riferimento che viene inviata dal browser quando si visita una pagina collegata da un risultato della ricerca organica. In poche parole, Google, con l’obiettivo di rendere la fruizione delle SERP più veloce per gli utenti, ha deciso di implementare il meta tag referrer, una proposta del Web Hypertext Application Technology Working Group che consente ai siti web di chiedere ai browser come gestire i contenuti dell’intestazione HTTP referrer. Il meta tag referrer ha quattro attributi:

• • • •

never; always; origin; default.

Esempio di implementazione all’interno del tag Head di una pagina HTML:

Per i browser che lo permettono (come Chrome, ad esempio), Google nella versione in https utilizzerà il meta referrer come modalità di tracciamento della sorgente, quindi gli accessi delle ricerche organiche SSL dovrebbero essere tracciati come “referral” google. Le ricerche non-https non subiranno invece cambiamenti. In definitiva, per gli utenti loggati su Google e che utilizzeranno un browser in grado di supportare il meta tag referrer: • i siti di destinazione non riceveranno più gli URL delle pagine di redirezione e quindi nemmeno tutti i parametri che esse contengono, pertanto la navigazione sulle SERP sarà più veloce; • i siti di destinazione riceveranno solo un’intestazione HTTP referrer contenente il nome di dominio di Google. Secondo la casa di Mountain View, la piccola ma importante modifica servirà a velocizzare i tempi di caricamento delle pagine, visto che sarà possibile eliminare una query verso i server Google. Ovviamente questo cambiamento renderà disomogenee le informazioni che troveremo nei nostri sistemi di tracciamento delle visite. Solo con analisi e verifiche potremo monitorare tale cambiamento e capire come ottimizzare i nostri sistemi di analytics.

My Answers (ex Google Search, Plus Your World) Ormai da tempo Google si è mosso e si sta muovendo per inglobare la “sfera sociale” all’interno delle sue ricerche. Tutto è iniziato con Google Social Search, feature nata per dare la possibilità agli utenti di cercare all’interno dei contenuti generati dai propri amici introducendo il concetto di Social Circle. Google Social Search è in pratica un motore di ricerca verticale e offre la possibilità ai contenuti di apparire nei risultati di ricerca senza “passare” da Google classico. L’ultima novità introdotta in ordine cronologico è My Answers (ex nome in codice Search, plus Your World), cioè l’evoluzione di Google Social Search, per permettere agli utenti di trovare informazioni in modo rapido e intuitivo partendo da correlazioni con i profili sociali e amici. Google My Answers permette di ottenere risultati determinati non più soltanto dalla pertinenza del contenuto, ma dal grado di trust, autorità e connessioni sociali con le persone che fanno parte

delle nostre cerchie sul social network di Google, Google+. È quindi stravolto il concetto di pertinenza, cioè i risultati che verranno mostrati saranno modificati dall’algoritmo in base a grafi sociali, trust e potenziali interessi di post condivisi dalla nostra cerchia sociale.

Figura 10.24 - Google e ricerca My Answers in azione anche sul mercato italiano.

NOTA È possibile disattivare la funzionalità attraverso un apposito pulsante.

My Answers è una vera e propria personalizzazione della propria esperienza con Google e permette di ricercare il volo che abbiamo prenotato, le informazioni di un nostro contatto, lo stato di spedizione di un pacco o le nostre foto direttamente dalla ricerca di Google. Questo avrà un impatto davvero forte sia sulla SERP sia sui brand aziendali, i quali saranno sempre più invogliati a migrare verso Google+ per rafforzare la propria presenza in Google.

Figura 10.25 - Come appariva la SERP quando erano attivi i risultati privati! Google ha sospeso questa funzionalità!

Knowledge Graph e Knowledge Vault Google è in continua evoluzione e lo dimostra rilasciando in modo costante nuove funzionalità e algoritmi al fine di migliorare i risultati di ricerca. Nel maggio 2012, direttamente dal blog ufficiale http://tinyurl.com/knowledge-grap, è stata annunciata una nuova feature, Knowledge Graph, in grado di rendere il motore di ricerca un elemento più vicino agli interessi degli utenti; essa ci permetterà di ricevere risposte su cose, persone, luoghi, celebrità, squadre sportive, città, edifici, personaggi storici, opere d’arte e molto altro ancora. Il motore di ricerca, grazie a Knowledge Graph, ci consente di riconoscere la differenza tra le diverse accezioni del termine ed è in grado di fornire le risposte alle possibili query alternative. Ma non finisce qui, la nuova funzionalità ci permette di ottenere un riassunto contenente le informazioni principali su uno specifico argomento in base alla nostra query di ricerca.

Figura 10.26 - Il funzionamento di Knowledge Graph per la query [Mario Balotelli] ci fornisce informazioni dettagliate sulla vita del calciatore.

Infine, con Knowledge Graph il motore di ricerca potrà produrre nuove informazioni su personaggi famosi, persone, avvenimenti o oggetti.

NOTA Afferma Google: “Abbiamo sempre creduto che il motore di ricerca perfetto debba capire esattamente cosa vuole dire l’utente e restituire la risposta di conseguenza. Ora siamo in grado di rispondere alla vostra prossima domanda senza conoscerla, perché riusciamo a correlare le informazioni storiche in base a quello che altre persone hanno cercato”.

Grazie a Knowledge Graph, Google dovrebbe essere in grado di fornire informazioni sempre più dettagliate e in linea con le esigenze degli utenti; sicuramente il giusto mix con il servizio My Answers produrrà risultati migliori in direzione di un motore di ricerca sempre più semantico ma con uno sguardo al social.

NOTA Anche Bing ha implementato un servizio simile, chiamato SnapShot, per mostrare risposte a specifiche query degli utenti.

Il Knowledge Graph contiene informazioni su aziende, prodotti, persone, brand, entità, luoghi; queste informazioni vengono poi inserite nella SERP di Google, costituendo un ulteriore canale informativo. È quindi fondamentale per la SEO e per la Brand Reputation prendere in considerazione anche questo scenario al fine di curare i contenuti di aziende o personaggi famosi che potrebbero essere inclusi nel Knowledge Graph.

NOTA Google, a ottobre 2014, ha confermato l’adozione della sperimentazione del Knowledge Vault all’interno delle SERP. Essendo un processo che richiede un’elevata potenza di calcolo, verrà introdotto gradualmente e permetterà di fornire informazioni dettagliate e ricche.

Google Colibri: Hummingbird Update Chi ama e lavora con la SEO è abituato alle novità di Google. Una delle più recenti è Hummingbird (colibrì). Hummingbird è un update infrastrutturale e cercherà di dare risposte migliori ed efficaci in base alle ricerche degli utenti. Colibrì ricopre tutta la sfera delle “ricerche conversazionali” e “contestuali”; per comprendere meglio, facciamo un esempio. “Dov’è il posto più vicino a casa dove posso acquistare un Samsung Galaxy s5?”. Per rispondere a questa domanda, un motore di ricerca tradizionale tende a focalizzarsi solo sulle parole, cercando una pagina che risponda ad “acquistare” e a “Samsung Galaxy s5”, per esempio. Hummingbird, invece, sarebbe in grado di capire meglio il significato che sta dietro alle parole. In questo scenario, Google potrebbe: • capire dove vi trovate fisicamente, se avete concesso a Google di saperlo; • capire che “posto” significa un negozio reale (e non uno shop online); • capire che il Samsung Galaxy s5 è un dispositivo in vendita presso certi negozi. Il fatto di comprendere queste cose può aiutare Google ad andare oltre la vecchia ricerca, basata solo sulle parole. Nello specifico, Google ha affermato che Hummingbird presta maggiore attenzione a ogni singola parola della query, assicurandosi che l’intera query venga presa in considerazione. L’obiettivo è quello di far emergere pagine che rispondano all’intero significato della query, rispetto a pagine che rispondano solo ad alcuni termini. Decisamente un grosso passo in avanti per il motore di ricerca.

Una recente ricerca condotta da Searchmetrics ha misurato la coerenza dei risultati di ricerca per coppie di keyword basandosi sull’analisi di una serie di domande semanticamente identiche. L’analisi è stata effettuata in step temporali: • appena prima di Hummingbird (07/2013); • poco dopo Hummingbird (10/2013); • nel gennaio 2014. Risultato: come si può evincere dal grafico della Figura 10.27, il risultato di ricerca corrispondente a keyword semanticamente simili è aumentato di quasi il 20%.

Figura 10.27 - Colibrì nella SERP ed evoluzione.

Con il nuovo algoritmo e con l’integrazione del Knowledge Graph, Google si sta addentrando verso la naturale evoluzione semantica. La strada è ancora lunga, ma i primi paletti sono stati messi; ora si tratterà di vedere le implicazioni che questi potrebbero avere nella SEO.

Rank Brain Abbiamo già accennato a questa interessante novità introdotta da Google che cerca di sfruttare

concetti di intelligenza artificiale applicandola al motore di ricerca stesso al fine di fornire query personalizzate e sempre più attinenti.

NOTA Si ringrazia Maurizio Ceravolo per l’integrazione su Rank Brain.

Il 26 ottobre 2015 Google ha annunciato questa importante modifica al motore di ricerca, che di fatto apre la porta all’introduzione del machine learning. Il machine learning è un nome che racchiude un insieme variegato di tecniche, che hanno in comune il fatto che servono a risolvere problemi di cui non sappiamo realizzare un algoritmo di risoluzione. Ovvero, in programmazione classica, il programmatore scrive passo per passo le istruzioni che servono per risolvere un dato problema, che potrebbe essere il calcolo della traiettoria di un proiettile o l'elaborazione degli interessi del nostro conto in banca. Tutte cose che, con pazienza e carta e penna, potremmo ottenere a mano. Ci sono invece diverse classi di problemi per cui questo è difficile o impossibile da ottenere. Ad esempio, riconoscere un viso in una fotografia, scoprire se un oggetto è stato rubato e non semplicemente spostato da un espositore analizzando un video, riconoscere a chi appartiene una voce o guidare un’auto, in mezzo al traffico, senza l’ausilio di un umano. Per tutte queste cose è più facile usare il machine learning. E per far questo non si conosce l’algoritmo, ma si addestra il sistema. Ovvero si usano migliaia (o anche milioni) di esempi di cui si conosce di un dato input, l’output atteso, e il sistema si costruisce da solo, in base all’esperienza di addestramento, l’algoritmo di risoluzione. Quanti più esempi corretti riceve, tanto meglio funziona il sistema. Supponiamo che io voglia costruire un sistema per riconoscere dei gatti, che tanto successo hanno su Internet. Dovrò mostrare al sistema migliaia di foto di gatti (input) e dire al sistema che l’output atteso è gatto. In questo modo quando gli mostrerò una foto di gatto, non presente nel campione di addestramento, il sistema probabilmente mi risponderà gatto. Dite che è un esempio fuori luogo? Mica tanto. Nel 2012 Google ha annunciato un vasto esperimento su larga scala di riconoscimento di gatti: https://googleblog.blogspot.it/2012/06/using-large-scale-brain-simulations-for.html Il sistema ha usato 16 mila core di CPU dei data center di Google ed è stato addestrato con 20 milioni di foto di gatti provenienti da anteprime di video di YouTube. Per anni Amit Singhal, il capo della ricerca di Google, è stato contrario all’introduzione del machine learning, in quanto questo avrebbe impedito agli ingegneri di Google di sapere per quale motivo un certo sito avrebbe rankato meglio di un altro. Sarebbe dipeso dall’addestramento ricevuto e non ci sarebbe stato un algoritmo definito in parte del processo di ranking. Il 25 ottobre questa riserva è caduta, e parte del processo dell’elaborazione necessaria di un risultato di ricerca è sotto machine learning. Poco dopo, Singhal ha lasciato Google e questo potrebbe

significare un disaccordo nella scelta aziendale. Però non avendo informazioni ufficiali in merito, possiamo rimanere solo nel campo delle supposizioni. Tutto questo in ogni caso ci dà un primo insegnamento. I SEO hanno spesso ripetuto che ci sono 200 segnali che elabora Google per definire il ranking. In verità questi sono molti di più: http://searchengineland.com/bing-10000-ranking-signals-google-55473 Ognuno di questi segnali ha più di 50 sottovarianti che portano a 10.000 i parametri da tenere in conto. A questi si aggiunge l’introduzione del machine learning, che addiziona altri parametri, invisibili e sconosciuti anche agli stessi ingegneri di Google. A questo punto neanche il personale di Google può sapere esattamente perché su una data chiave di ricerca un certo risultato è al primo posto. E, se non lo sanno loro, non lo può sapere nemmeno il SEO che vi garantisce il primo posto nelle ricerche. Non ci sono tantissime informazioni su RankBrain, però sappiamo alcune cose importanti. Il suo lancio non è stato accompagnato da un post ufficiale sul blog, ma tramite organi di stampa dai quali abbiamo saputo che: • nell’algoritmo della ricerca interviene, nel 15% delle ricerche, un sistema di intelligenza artificiale che prende il nome di RankBrain; • interviene sulle ricerche nuove, su cui Google non ha dati, per cercare di capire che vuole l’utente; • RankBrain, in pochi mesi dal lancio, sarebbe diventato il terzo segnale più importante per il ranking fra i centinaia presenti; • RankBrain valuta meglio degli ingegneri di Google. Nel tentare di indovinare cosa ranka meglio nella ricerca fra alcuni siti proposti per test, gli ingegneri della ricerca indovinano la risposta corretta meno frequentemente di questo sistema (su questa affermazione ritorneremo fra poco); • RankBrain adesso è sviluppato da dozzine di ingegneri. Da comunicazioni successive abbiamo inoltre saputo cosa RankBrain NON è. Ovvero: • non serve per la lotta allo spam; • non è implicato nel crawling; • non è usato nell’indicizzazione; • non si occupa direttamente del crawling. Ma allora a che serve? Serve a migliorare la comprensione di query su cui Google non ha dati statistici. Se state cercando “Come si calcola la percentuale”, su questo RankBrain non interviene. È una query molto frequente (data l’ignoranza matematica nel nostro paese), e Google ha un sacco di dati, per capire che l’utente sta facendo una ricerca nel campo del calcolo aritmetico. Ricordiamo che Google cerca di andare al significato semantico dell’intenzione di ricerca dell’utente, e non sul semplice match di parole chiave. E quindi in questa query dovrebbe

escludere tutti quei documenti in cui si parla di calcolo e percentuale che non sono connessi all’aritmetica, come potrebbero essere il calcolo della percentuale di massa grassa, o il calcolo della percentuale di quote societarie. Se invece state cercando “l’insostenibile rilevanza nullentropica dei link esterni” (frase senza senso che mi sono inventato) è qualcosa di cui Google non ha dati statistici, non ha assolutamente idea di cosa si tratti e quale sia l’intenzione dell’utente. Il 15% delle ricerche poste al motore di ricerca sono così. RankBrain permette a Google di capire quale sia l’ambito della richiesta dell’utente e quali siano le query di cui ha dati statistici che sono più somiglianti semanticamente alla domanda posta al motore di ricerca. In ulteriori notizie comunicate successivamente. http://www.thesempost.com/rankbrain-everything-we-know-about-googles-ai-algorithm/ si è venuto a sapere che RankBrain è una tecnica di word embedding, ovvero una tecnica che serve a mappare una parola o un concetto in uno spazio matematico a basso numero di dimensioni. In parole povere, serve a posizionare ad esempio la parola Re in delle coordinate (supponendo che lo spazio dimensionale scelto sia a tre dimensioni) tridimensionali. In questo modo, potremmo scoprire che le parole Regina, Principe e Principessa si trovano molto vicine come coordinate e quindi come significato. Mentre la parola Reo si trova molto distante. In questo modo si può usare la matematica per scoprire quali sono i concetti più vicini alla query dell’utente di cui non si hanno altri dati statistici. Tutto questo ci dovrebbe far capire che se qualcuno ci consigliasse di ottimizzare il nostro sito per RankBrain, starebbe dicendo una cosa assolutamente senza senso. RankBrain serve per capire cosa chiede l’utente al motore di ricerca e non per estrarre e capire le informazioni dai siti.

Gli altri motori di ricerca Abbiamo visto le strategie off page e preso in considerazione i principali servizi offerti da Google; ora faremo una breve panoramica dei servizi più importanti offerti dai principali motori di ricerca.

Yahoo! Fornisce diversi servizi, molti dei quali rivolti al mondo dei social network, che saranno analizzati in dettaglio nel Capitolo 11. Di seguito ne elenchiamo alcuni tra i più importanti, che potremmo sfruttare per le nostre campagne SEO off page. Yahoo! Answers (http://it.answers.yahoo.com). Come vedremo, è importante instaurare conversazioni e discussioni in questo canale, in cui vengono fornite soluzioni a domande poste dagli utenti. www.kelkoo.it. Abbiamo già visto in precedenza servizi simili, con i quali è possibile

promuovere i propri prodotti, utili quindi per siti di e-commerce e vendita online. Yahoo! Gruppi (it.groups.yahoo.com). In questa sezione possiamo creare gruppi di discussione, utili per aumentare la nostra popolarità. Flickr (www.flickr.com). Utile per condividere foto e video. Yahoo! Local (local.yahoo.com). Attualmente disponibile solo per gli USA, permette di inserire e ricercare attività commerciali.

Bing Il motore di ricerca di casa Microsoft si sta facendo spazio con forza all’interno dei motori di ricerca, aggiudicandosi una buona fetta di mercato. Come abbiamo già menzionato nel Capitolo 1, grazie a un accordo, ora le ricerche in Facebook forniscono ulteriori risultati provenienti proprio dal motore di ricerca Bing. Ultimamente Bing ha implementato nuove feature per migliorare il motore di ricerca (utilizzo dei microdati, aggiornamento degli algoritmi e modifica in direzione di un nuovo layout minimalista con integrazione a Facebook) al fine di contrastare Google. Di seguito sono elencati i principali servizi offerti da Bing che possiamo sfruttare per le nostre campagne di promozione offline. Bing Places (https://www.bingplaces.com/), il nuovo servizio per gestire e inserire la propria attività nelle Mappe di Microsoft. Ciao.it (www.ciao.it). Portale in cui è possibile scambiare pareri e opinioni su prodotti e servizi (in base alle diverse nazionalità, i servizi possono variare e assumere brand diversi). Mappe (http://www.bing.com/maps). Ancora in versione beta; è possibile consultare mappe o aggiungere i propri segnaposti. Notizie (www.bing.com/news). Permette la ricerca all’interno delle ultime notizie provenienti da tutto il mondo.

NOTA Come abbiamo già accennato esistono altri motori di ricerca da sfruttare per campagne SEO e SEM internazionali ad esempio yandex e il suo tool metrica, oppure ask, baidu o DuckDuckGo.

Conclusioni e punti salienti del capitolo

In questo capitolo abbiamo fatto un’analisi dei principali servizi forniti da Google e sulle novità dei suoi algoritmi. Questo ci rende consapevoli di come un motore di ricerca sia altamente complesso e gestito da algoritmi raffinati. La SEO è un’arte da applicare tenendo conto di diversi aspetti ma per non commettere errori è opportuno un aggiornamento continuo. SearchMetrics nel 2016 ha illustrato uno studio sulla Universal Search, prendendo in considerazione oltre 500 mila SERP derivanti da altrettante keyword. Vi consiglio di leggere lo studio completo in: http://pages.searchmetrics.com/UniversalSearch_EN.html. Ricerca SearchMetrics su oltre 500 mila SERP. Type

% of keywords with at least 1 integration

Universal Search

Desktop

Mobile

Images Videos News PLA Maps

34,09 23,99 11,41 10,42 1,60

14,84 25,25 11,26 7,08 9,99

Extended Search

Desktop

Mobile

Knowledge Graph Direct Answer Fact Box Related Question Box Twitter Cards Carousel App Packs (Mobile only)

19,19 10,90 3,06 2,94 2,14 0,17 n/a

20,83 4,40 0,02 0,73 6,13 n/a 9,76

Quello che è emerso da questo studio è davvero interessante e credo che ci possa far riflettere sul futuro della SEO e in particolar modo sulla Local Search. Se effettuiamo una ricerca da mobile circa il 10% delle SERP mostrano delle mappe: il contesto è importante. Inoltre il Knowledge graph compare circa il 20% delle volte sia su SERP desktop sia su quelle mobile. I risultati puramente organici in questi contesti passano dai “vecchi” 10 a 8 per pagina. Questi concetti, abbinati a quello che abbiamo visto nei precedenti capitoli, ci deve fare riflettere sull’evoluzione della SEO abbinata sia alle ricerche locali che al Knowledge graph.

“Il cambiamento non avviene chiedendo il permesso; caso mai chiedendo scusa, dopo.” (Seth Godin)

Capitolo 11 SEM e SMO: l’evoluzione del posizionamento Campagne SEM Abbiamo già avuto modo di analizzare il Search Engine Marketing (o SEM) nel Capitolo 2; ora esamineremo alcune strategie a disposizione per aumentare la nostra popolarità attraverso sistemi Pay Per Click o campagne a pagamento. Il Search Engine Marketing è una disciplina molto vasta, che tocca diversi settori, dal marketing moderno al Web Marketing. Le attività di SEM si dividono principalmente in: • posizionamento mediante Ottimizzazione Organica (SEO, Search Engine Optimization); • posizionamento a pagamento (SEA, Search Engine Advertising). L’attività del SEM è rivolta principalmente alla possibilità di sfruttare la pubblicità all’interno dei motori di ricerca, con lo scopo di generare traffico qualificato verso il nostro sito web. Per fare ciò, è necessario capire il proprio target di riferimento, analizzando non solo le richieste esplicite degli utenti (come ad esempio le parole chiave utilizzate durante le ricerche) ma comprendere anche il “momento”, ovvero la fase del processo di acquisto in cui si trova. L’analisi delle parole chiave è solo una minima parte del processo che porterà alla creazione di una campagna efficace per promuovere e/o lanciare una attività e i suoi prodotti/servizi sulla rete. Il Search Engine Marketing rientra nel più ampio gruppo di strumenti di Web Marketing, tra cui annoveriamo: • e-mail marketing (DEM o Direct Email Marketing, Newsletter, Strumenti di Email Automation); • campagne PPC (Pay Per Click) non solo sui motori di ricerca, ma anche all’interno di social media come LinkedIn e Facebook; • SMO; • SEO off page; • Display o Online Advertising, cioè pubblicità sui canali online (principalmente banner/annunci illustrati), attraverso canali diretti di acquisto, la Rete Display di Google Adwords o piattaforme di Real Time Bidding.

Gli obiettivi L’attività di Web Marketing è studiata per il perseguimento di obiettivi diversi e spesso complementari, come:

• • • • •

brand awareness; lead generation; database building; vendita; fidelizzazione.

Spesso si parla dell’importanza di definire degli obiettivi anche se, in verità, essi non vengono mai fissati in modo corretto. Il motivo di base è che le aziende approcciano il (web) marketing in modo astratto, chiedendo a chi si occupa dell’operatività di risolvere problemi che, in verità, con il web marketing non hanno nulla a che fare. Tutte queste attività, senza un’organizzazione coerente e un’attenta strategia, possono portare a risultati scadenti e non misurabili.

NOTA Si ringraziano Andrea Venturi e Mattia Soragni per il supporto dato per la parte relativa al Search Engine Marketing.

Search Engine Marketing Ovviamente l’esperienza, la tenacia e un giusto piano organizzativo sono le basi fondamentali per creare una campagna SEM di successo. In questo contesto si intrecciano quindi azioni e operazioni molto simili tra loro, ma che coinvolgono, talvolta, anche discipline molto differenti. Per esempio, una campagna di Search Engine Marketing può essere studiata per attrarre traffico mirato verso una singola pagina del sito web (ad esempio, che descriva un prodotto, un servizio, un’iniziativa) oppure un mini-sito studiato ad hoc, o ancora una landing page con un invito all’azione specifica. Queste ultime, in particolare, stanno riscuotendo un sensibile successo nel web, ma, per essere realmente vincenti, devono: • dare una risposta a un problema, dubbio, necessità dell’utente; • evidenziare i punti di forza, vantaggi, benefici della soluzione che stiamo offrendo; • offrire qualcosa di interessante all’utente così da incentivare una sua azione, come ad esempio compilare un modulo di contatto, scaricare un ebook, richiedere un prodotto in prova ecc.; • avere una grafica curata. L’ordine dei punti qui sopra non è casuale: essi infatti rappresentano in forma molto semplificata le domande che gli utenti si pongono nel momento in cui effettuano una ricerca. Spesso le aziende pensano che il proprio sito web sia sufficiente, ma la maggior parte dei siti che vediamo tutti i giorni non sono “ottimizzati” per l’utente.

“Cosa vuole l’utente e come possiamo essergli utili e/o risolvere il suo problema?” Questa dovrebbe essere la domanda che muove tutte le nostre attività di web marketing, indipendentemente dal “cosa” facciamo. Se per un attimo torni al punto elenco di prima, puoi osservare che la componente grafica si trova solo all’ultimo posto. Questo ovviamente non significa che non abbia la sua importanza, ma troppo spesso le aziende considerano questo come unico punto fondamentale, dimenticando totalmente il motivo per cui una persona sta effettuando una ricerca e, di conseguenza, i suoi bisogni. Questo dimostra come la fusione e l’integrazione anche di più figure professionali possa produrre un risultato vincente. Tutto questo si traduce in un beneficio competitivo. Ma quali sono realmente i vantaggi che si riflettono positivamente sulla nostra attività nell’applicazione di una strategia SEM? • monitoraggio dei clic e quindi delle visite e delle conversioni: una campagna SEM consente di tenere sotto controllo i visitatori e di produrre azioni atte a colpire un target mirato; • controllo sui costi e sul budget: è possibile monitorare le visite, le conversioni e i costi e agire in modo da avere un maggiore o minore feedback sulla nostra attività di marketing; • tipicamente, minor tempo per ottenere i primi risultati significativi; • possibilità di integrazione e coesistenza con altre attività nel web, come la SEO. Abbiamo accennato alle principali azioni SEM (o marketing desiderato) quando abbiamo trattato le attività di promozione off page. Altre tipologie di azioni inerenti e applicabili in questo contesto sono l’acquisto di pubblicità sul web e i sistemi Pay Per Click. Per quanto concerne l’acquisto di pubblicità sul web, non c’è molto da dire; è fondamentale scegliere i giusti canali di promozione in linea con il proprio sito e con il target di riferimento e monitorare l’evoluzione nel breve periodo. Per quanto riguarda l’online (o display) advertising, ci sono oggi sistemi molto interessanti per l’acquisto profittevole degli spazi degli inserzionisti. Il Real Time Bidding, in particolare, consente l’acquisto di spazi pubblicitari rimasti inevasi a costi più bassi, permettendo di perseguire obiettivi di branding o lead generation, principalmente con sistemi di pagamento a cpm (cost per mille impressions) e un puntuale tracciamento delle visite con strumenti di web analytics. Un discorso ben diverso avviene con i sistemi Pay Per Click, sempre più utilizzati e sfruttati dalle aziende e dalle agenzie di marketing per pubblicizzare un’attività sul web.

Search Engine Advertising È fondamentale realizzare le attività di Web Marketing, e soprattutto quelle di Search Engine Advertising, partendo da obiettivi ben precisi, per comprendere e analizzare i risultati ottenuti in modo oggettivo. Tra le caratteristiche positive delle attività di Web Marketing troviamo, infatti, la tracciabilità: tutte le azioni possono essere tracciate, il che permette all’azienda di comprendere in modo preciso e con un grande livello di dettaglio cosa funziona, cosa va migliorato e cosa, non

ottenendo riscontri positivi, deve essere modificato o sospeso. Con i sistemi di advertising a pagamento, il livello di informazioni che possiamo ottenere è ancora maggiore ed è quindi possibile analizzare in profondità ogni singolo aspetto delle nostre campagne. Come vedremo tra poco, avere i numeri e saperli leggere correttamente ci permetterà di capire in modo preciso cosa non sta funzionando della nostra strategia. È fondamentale, quindi, definire “cosa vogliamo ottenere”, per stabilire le metriche di misurazione (KPI-Key Performance Indicators) che ci permetteranno di analizzare i risultati ottenuti.

Gli obiettivi Possiamo raggruppare le esigenze aziendali nei seguenti macro-obiettivi: • visibilità; • traffico; • conversioni; • vendite. Andiamo ad analizzare, per i diversi obiettivi che vogliamo raggiungere, quelli che possono essere dei parametri di misurazione utili a capire se i risultati che stiamo ottenendo sono positivi o negativi, e quindi ad agire di conseguenza. Nella tabella che segue riportiamo degli elementi di base dai quali possiamo iniziare a ragionare.

Obiettivo

Parametri di controllo

Visibilità

Numero di Impression Costo per Impression

Traffico

Numero di Impression Numero di Clic Costo per Clic

Conversioni (es. Lead)

Numero di Impression Numero di Clic Numero di Conversioni Costo per Clic Costo per Conversione Tasso di Conversione

Vendite

Numero di Impression Numero di Clic Numero di Vendite Costo per Clic Costo per Vendita Tasso di Vendita Valore medio per Vendita Valore medio per Cliente

Come possiamo osservare dalla tabella, con l’aumentare dell’importanza del nostro obiettivo, maggiori saranno le informazioni di cui avremo bisogno per capire l’efficacia delle nostre campagne. Questo tuttavia non deve essere un incentivo a scegliere degli obiettivi più semplici, in quanto i risultati che otterremo con “poco controllo” saranno sempre inferiori a quelli che potremmo ottenere monitorando l’obbiettivo successivo.

Scegliere gli obiettivi corretti Le aziende che sono al loro primo approccio con le attività di promozione online spesso hanno dei problemi nel definire quelli che sono gli obiettivi adatti, e non è una semplice questione di budget o di capacità tecnica. Entrano in campo una serie di fattori che vanno a incidere indirettamente sul buon andamento delle campagne, e che spesso sono altamente sottovalutati. Immaginiamo una piccola azienda, in cui il budget marketing è ridotto, il sito web è lasciato alla gestione della persona più “tecnica” dell’azienda ma senza una precisa specializzazione e/o funzione, senza un’allocazione di tempo dedicato al miglioramento e all’analisi dei risultati. In un contesto di questo tipo è abbastanza certo che il sito non sarà stato realizzato in modo ottimale, e che la profondità di analisi e la capacità di adattamento siano superficiali e poco funzionali alle reali esigenze. Un’azienda in questa

situazione non ha le risorse economiche, di competenza e di tempo per realizzare una strategia vincente. Ma non solo: cosa accade se un’azienda ha tutte le competenze tecniche necessarie (è indifferente che siano interne o esterne), ma non ha le risorse per valorizzare i risultati ottenuti, come ad esempio una struttura commerciale che sia in grado di prendere i contatti generati dal sito web e trasformarli in opportunità e quindi vendite? Oppure, il caso di un’azienda con reparto commerciale strutturato, ma che non riceve lead in quanto le attività di Web Marketing non sono performanti secondo le effettive esigenze aziendali. Nelle attività di Web Marketing entrano in gioco anche elementi di processo e organizzazione aziendale, non solo aspetti tecnici, ed è pertanto fondamentale capire dove si collocano le persone dedicate a queste attività. Per semplificare al massimo questo concetto e fornirti fin da ora un primo strumento di valutazione delle tue campagne, il consiglio è quello di analizzare tutte le attività promozionali che fai partendo dal livello di obiettivo “Conversioni (Lead)” della tabella precedente. Il motivo è semplice e risponde alla seguente domanda: Qual è l’output minimo che dà valore alla mia azienda? La risposta a questa domanda, in modo trasversale a tutte le aziende, indipendentemente che la tua azienda sia una multinazionale o una piccola impresa artigianale, il valore minimo senza il quale non ha senso fare alcuna attività è il nominativo e i dati di contatto di una persona interessata a ciò che tu offri. Pensaci: portare traffico sul sito non ha alcun valore se questo traffico non si trasforma in qualcosa che tu possa usare per generare altro business. Provo a semplificare ancora di più il concetto: sapere che il tuo annuncio pubblicitario è stato visto da 1000 persone, quanto ti ha portato in tasca? Nulla. E sapere che il tuo sito è stato visto da 1000 persone, quanto ti ha portato in tasca? Nulla. Un nominativo (lead) è una manifestazione di interesse molto importante poiché, seppur debba essere lavorato, ha un valore intrinseco: se è interessato alla tua soluzione al punto di voler essere ricontattato, molto probabilmente ha dei soldi da spendere. Quindi, se sei ancora all’inizio cerca di focalizzarti sul lead come valore minimo per analizzare i risultati delle campagne che stai facendo o che altri stanno facendo per te. Definire in modo chiaro con i tuoi collaboratori e/o con le agenzie/consulenti con cui stai lavorando che questo è il tuo obiettivo, renderà tutto molto semplice. Se invece la tua azienda è già strutturata e stai monitorando i risultati in termini di lead, puoi iniziare a fare qualche considerazione sul livello successivo della nostra classifica degli obiettivi: Vendite. Se il tuo sito è un ecommerce i principali sistemi di web analytics (Google Analytics tra i principali e gratuiti), ti consentono di monitorare in modo molto preciso le tue vendite. Monitorare le vendite è più complesso, sopratutto se la transazione con il cliente avviene off-

line, ad esempio attraverso una rete commerciale. A questo punto dovrai monitorare non solo i lead generati, ma anche le performance di vendita della tua rete commerciale così da avere sotto controllo tutti i parametri necessari alla corretta analisi e valutazione dei risultati delle campagne.

Qualità vs quantità L’esperienza ha un forte impatto sui risultati che si possono raggiungere con le attività online, ma non tutte le aziende sono in grado di avere fin dall’immediato il budget, le persone e le competenze necessarie. È quindi importante, ancora una volta, capire di cosa si ha bisogno e ottimizzare al massimo le risorse disponibili. Abbiamo già indicato come la tracciabilità sia uno dei valori aggiunti del web marketing: siamo in grado di capire cosa funziona, cosa va migliorato e cosa ci porta più valore. Concentrarsi sulla “quantità” senza considerare la qualità dei risultati ottenuti è molto rischioso, in quanto vi è il pericolo che i nostri investimenti non siano efficaci. Dall’altra parte, un approccio qualitativo, anche se produce potenzialmente minori risultati quantitativi, è da preferire in quanto permette di avere sotto controllo in modo preciso i costi e il ritorno economico di ogni singola azione. Per questo motivo nel capitolo precedente è indicato il lead come “oggetto” minimo per analizzare i risultati di tutte le campagne che farai, in quanto ti consentirà di fare ragionamenti collegati al tuo business senza entrare in troppi tecnicismi: ovviamente se vorrai approfondire tutte le metriche dei vari strumenti che andrai a utilizzare la qualità e i risultati che potrai ottenere saranno maggiori, ma quello è l’elemento minimo senza il quale tutto ciò che stai facendo è (quasi) inutile.

I fondamenti del SEA Le attività SEA (Search Engine Advertising) portano a un livello superiore – e più veloce – tutto ciò che si può realizzare con altre azioni di SEM. Proviamo a confrontare le attività di posizionamento naturale (SEO) con le attività di advertising nei motori di ricerca (SEA). SEO

SEA

Tempi di avvio

Medio/Lungo Periodo

Immediato/Breve

Budget

Medio/Basso

Medio/Alto

Ottimizzazione

Medio/Lungo Periodo

Breve/Medio Periodo

Analisi dei risultati

Medio/Lungo Periodo

Breve/Medio Periodo

Persistenza della visibilità

Lungo Periodo

Nulla

Quali considerazioni possiamo ricavare dal confronto tra le attività organiche e quelle a

pagamento? Innanzitutto, il tempo necessario per effettuare una qualsiasi azione è maggiore nel SEO: se da queste attività è necessario attendere alcune settimane, se non mesi, nei settori più competitivi, con l’advertising i tempi di risposta sono molto più veloci, tendenti all’immediato. Proviamo ad analizzare questa tabella con dei casi concreti. Budget limitato • SEO: il budget viene convertito in tempo/uomo e i risultati restano validi nel lungo periodo. Al termine del budget, l’azienda continua ad avere visibilità. • SEA: il budget, a seconda del mercato, verrà consumato più o meno velocemente e la sua persistenza nel tempo è praticamente nulla. Al termine del budget, le campagne si interrompono e l’azienda perde ogni possibilità di visibilità. Mercato competitivo • SEO: i tempi necessari per ottenere visibilità, traffico e risultati sono mediamente lunghi e difficili da ottenere. • SEA: ci consente di ottenere visibilità immediata come il leader di mercato (ammettendo di non avere, ovviamente, problemi di budget). Mercato di nicchia • SEO: il tempo necessario per ottenere visibilità è tendenzialmente poco, permettendo di ottenere visibilità nel breve periodo e con uno sforzo relativamente basso. Il risultato generalmente è persistente e, se non vi sono grosse variazioni nel mercato, le posizioni e la visibilità ottenute vengono mantenute nel tempo. • SEA: il tempo necessario per ottenere visibilità è nullo, tuttavia, date le caratteristiche del mercato, i numeri potrebbero essere troppo bassi per ottenere una quantità di informazioni da analizzare. A volte, data la scarsità di ricerche, le campagne vengono sospese dai sistemi di advertising stessi, riducendo quindi a zero la visibilità. Realizzazione di test • SEO: data la sua natura, il test necessita di reattività e, come abbiamo visto, i risultati delle attività SEO sono raggiungibili nel lungo periodo. I test sono ovviamente possibili, ma i tempi necessari per vedere dei risultati sono molto dilatati e il rischio è di non ottenere dati attendibili e di non avere alcun vantaggio dalla modifica effettuata. • SEA: i test possono essere realizzati in pochissimo tempo, ottenendo in altrettanto breve tempo dati utili all’analisi dei risultati. Può essere utilizzato come strumento per valutare variazioni che portano a risultati positivi per poi riapplicarli alle ottimizzazioni SEO. Variazioni in corso d’opera • SEO: come per la realizzazione di test, le variazioni sono possibili, ma con un conseguente risultato solo nel medio/lungo periodo. • SEA: qualsiasi variazione è applicabile nell’immediato e visibile agli utenti a cui è stata

indirizzata in pochissimo tempo. Incremento dei risultati (es. conversioni) • SEO: la richiesta di aumento di risultati è possibile, ma necessita di tempi molto lunghi, sia in termini di realizzazione delle modifiche necessarie sia di variazione dei risultati. • SEA: attivare una nuova campagna richiede relativamente poco tempo e i risultati sono visibili nel breve periodo.

Le landing page Come per il posizionamento organico, il sito web deve avere delle caratteristiche ben precise in base all’obiettivo che si vuole raggiungere. Attivare una campagna ben ottimizzata non è, pertanto, sufficiente per poter ottenere dei risultati soddisfacenti. Il sito web ha una importanza fondamentale per la buona riuscita di qualsiasi attività online ed è quindi il momento di introdurre il concetto di landing page. Le landing page sono pagine ottimizzate per il raggiungimento di un obiettivo specifico: il compimento di un’azione. In questo caso stiamo parlando di landing page per la generazione di lead, richieste di preventivo, richiesta di informazioni, iscrizione a un servizio, download di materiale. In genere non si parla di landing page in siti di e-commerce, anche se il concetto può essere applicato anche in questo contesto, in quanto l’obiettivo di una pagina prodotto è quello del suo inserimento nel carrello per portare l’utente alla conclusione di un ordine. Caratteristiche fondamentali di una landing page sono: • titolo e sottotitolo: un titolo esplicativo del contenuto, che invogli l’utente a proseguire nella lettura della pagina e che anticipi o descriva il suo bisogno/problema e gli faccia percepire ciò che troverà nella pagina; • elementi che diano fiducia: come case histories e referenze di clienti, aiutano l’utente a capire che di questa azienda e prodotto/servizio ci si può fidare; • call to action: è rappresentata dall’azione che vogliamo che l’utente compia sulla nostra pagina; • immagini e video: in base al prodotto/servizio che stiamo promuovendo, l’inserimento di immagini e/o video che consentano di capire in modo preciso di cosa stiamo parlando e come risolveremo il problema del nostro utente.

Figura 11.1 - Esempio di landing page.

I vantaggi del SEA Abbiamo già avuto modo di vedere le differenze tra SEO e SEA, e in questo paragrafo andremo a fissare i punti principali: • costi e valore: gli strumenti di SEA permettono di avere sotto controllo tutti i costi delle nostre campagne, di aumentare e ridurre il budget in base all’occorrenza, alla necessità o ai risultati, e di comprendere in modo esatto la porzione di budget che sta portando più valore; • copertura mirata: dipende dalle potenzialità dello strumento, ma in genere possiamo controllare e decidere qual è il target di utenti che vogliamo raggiungere; • dati e KPI: le performance possono essere sempre sotto controllo e permetteranno di analizzare i risultati attraverso la reportistica fornita dallo strumento stesso o di intrecciare i dati di campagna con altri dati aziendali; • tracciamento: tutto ciò che è realizzato da campagne SEA è tracciabile con un livello di dettaglio molto alto; • tempo reale: tutte le operazioni realizzate sono pubblicate in tempo reale con la possibilità di controllare fin nei minimi dettagli sprechi e campagne poco efficaci.

Sistemi Pay Per Click (PPC)

I sistemi Pay Per Click consentono di creare una campagna pubblicitaria a pagamento sui motori di ricerca e su altre piattaforme (ad esempio, Social Network come Facebook, Twitter, LinkedIn, Instagram). Attraverso tale sistema è possibile acquistare traffico verso il nostro sito web a fronte del pagamento di una cifra per ogni singolo clic. Il Pay Per Click sui motori di ricerca (o keyword advertising, perché parte dall’individuazione di una keyword o parola chiave), è un sistema che consente, sulla base di determinate keyword e di un budget prefissato, di posizionare il nostro annuncio in sezioni di ottima visibilità all’interno dei risultati di ricerca e di intercettare in questo modo le ricerche di potenziali clienti. Il meccanismo che regola il costo del clic e che stabilisce la priorità di visualizzazione dell’annuncio varia da sistema a sistema e tipicamente si basa su un’asta. Fattori importanti da tenere presenti per l’asta sono l’offerta massima CPC e il punteggio di qualità di ogni singola parola chiave (legato, a sua volta, alla qualità degli annunci e della pagina di destinazione). Il più famoso e usato sistema di keyword advertising è Google AdWords, che ci permette di far apparire in poco tempo il nostro annuncio tra i risultati di ricerca a pagamento di Google. Uno degli ulteriori vantaggi di Google Adwords è la possibilità di operare, oltre che sul motore di ricerca (Rete di Ricerca), anche sul network di siti parte del programma conosciuto con il nome Google AdSense: attraverso Google AdWords è possibile far visualizzare i propri annunci su siti che rispondono a determinati requisiti (ad esempio che trattano di un argomento X) o in base agli interessi degli utenti (ad esempio, su tutti i siti navigati dagli utenti con l’interesse Y). Questa rete di siti è accessibile da Google AdWords attraverso l’opzione “Rete Display”. Quali sono i pregi di una campagna Pay Per Click? Senza ombra di dubbio, il principale vantaggio che deriva dall’utilizzo ponderato di questa tipologia di servizio è quello di posizionare un annuncio e quindi un sito tra i risultati a pagamento dei motori di ricerca in un lasso di tempo molto breve. Quali sono gli svantaggi di una campagna Pay Per Click? Generalmente, basandosi su un sistema di asta, il costo dei clic è spesso elevato e soggetto a variazione. Tutto ciò contribuisce ad aumentare i costi generali relativi alla pubblicità di un sito web. Esistono diverse tipologie di servizi Pay Per Click: sicuramente Google AdWords è uno dei principali, ma non l’unico. Possiamo citare, per esempio: • Microsoft advertising su Yahoo! e Bing • Cpxinteractive (http://www.cpxinteractive.com) • Ask.com Sponsored Listings • Miva (http://miva.com) • 7Search (http://7search.com) • Facebook Ads • Adbrite (http://www.adbrite.com) • Looksmart (http://www.looksmart.com)

LinkedIn Ads

NOTA Esistono diverse tipologie e metodi di pubblicità oltre a quelli citati, come i Pay Per Impression (CPM) e i Pay Per Conversion.

Come funziona l’asta Il keyword advertising si basa su un sistema di asta in tempo reale in cui l’inserzionista individua una serie di parole chiave che ritiene possano essere ricercate dai potenziali clienti dei suoi prodotti/servizi. Per ogni parola chiave l’inserzionista definisce un’offerta massima. Il vincitore virtuale di questa asta (basata anche sul punteggio di qualità o Quality Score, sullo storico CTR e su una serie di altri fattori, tra cui la qualità della pagina di destinazione) ottiene maggiore visibilità per la keyword scelta attraverso un migliore posizionamento nei risultati di ricerca. Il Punteggio di qualità, o Quality Score, si basa sulla qualità dell’annuncio e della pagina di destinazione (LPD, Landing Page Quality) rispetto alla parola chiave e sul Click Through Rate (rapporto tra clic e impression o visualizzazione degli annunci). Lo scopo è quello di influenzare il meccanismo dell’asta per la determinazione del ranking dell’annuncio stesso e sull’effettivo CPC. Il ranking dell’annuncio è dato dal Quality Score moltiplicato per la massima offerta dell’inserzionista. Il CPC effettivo è invece dato dal rapporto fra il proprio Quality score e il ranking dell’inserzionista che è “sotto” di noi. La Tabella 11.1 mostra un ipotetico caso per il calcolo del CPC effettivo basandosi sui fattori precedentemente illustrati. Ovviamente, dobbiamo tenere ben presente che gli annunci di maggiore qualità avranno un valore superiore; per tale motivo, i gestori dei sistemi Pay Per Click tenderanno a spingerli in alto. Tabella 11.1 - Esempio di calcolo del CPC effettivo.

NOTA Ricordiamo che gli annunci, per essere più in linea con le esigenze degli utenti, sfruttano tecniche di Geo Targeting. Questo consente alle campagne di essere maggiormente efficaci.

Google AdWords Con circa 12.500 miliardi di ricerche al mese (dati ComScore 2013), Google è il motore di ricerca più conosciuto al mondo; esso ha avuto la capacità di rivoluzionare non solo le modalità di ricerca degli utenti nel web, ma anche di trovare nello stesso una fonte di business non indifferente. Google AdWords è lo strumento che Google mette a disposizione degli inserzionisti per realizzare campagne basate sui risultati di ricerca degli utenti ma anche per indirizzare messaggi pubblicitari ai suoi partner di ricerca (altri motori di ricerca che basano i propri risultati o advertising sui sistemi di Google) o al network di siti che utilizzano il circuito Google AdSense. Google AdWords ci permette, quindi, di creare annunci pubblicitari e di pubblicarli in tutta la rete di Google: non solo all’interno dei risultati di ricerca, ma anche nei siti partner, negli strumenti proposti da Google (Gmail ecc.), sul principale canale video al mondo, YouTube, e all’interno del circuito di Google AdSense. In tal modo, le nostre campagne potranno essere mirate al target di utenti prescelto e sarà più facile convertire i visitatori in potenziali clienti. Creare una campagna con Google AdWords è relativamente semplice: il percorso guidato è sufficientemente chiaro per essere utilizzato da chiunque. Il sistema è, tuttavia, particolarmente complesso e questo comporta la necessità di avere conoscenze approfondite per evitare che le campagne escano dal controllo dell’azienda, trasformando le opportunità sopra descritte in svantaggi economici. In questo breve paragrafo vi mostreremo le basi per creare una campagna AdWords e iniziare a far funzionare il vostro business anche online. Google AdWords, come tutte le altre piattaforme di advertising, è in continua evoluzione e mese dopo mese introduce e modifica funzionalità a disposizione degli inserzionisti, aumentando la possibilità di rendere sempre più precise ed efficaci le nostre campagne. Per fare un esempio pratico, più avanti nelle prossime pagine parleremo degli annunci della rete di ricerca di Google. Fino a luglio 2016 gli annunci erano costituiti da un titolo e una descrizione per un totale di 95 caratteri utilizzabili. A partire dal mese di agosto, un nuovo aggiornamento ha portato diverse variazioni nei limiti e caratteristiche degli annunci, introducendo due titoli da 30 caratteri ciascuna e una descrizione da 80, per un totale di 140 caratteri utilizzabili in ogni annuncio. Come è facile immaginare, al di là del numero di caratteri, la logica alla base della creazione di un annuncio efficace non cambia: abbiamo semplicemente più spazio per scrivere i nostri messaggi, con la possibilità di renderli ancora più efficaci. Invitiamo pertanto i lettori, qualora dovessero riscontrare differenze tra quanto presentato in queste pagine e quanto applicabile in piattaforma, a non soffermarsi eccessivamente su questi

dettagli ma a cogliere le informazioni e i consigli fondamentali che saranno indicati nelle prossime pagine, trasferendoli alle proprie campagne.

Metodi di bidding: CPC, CPM, CPA Il modello Google AdWords si basa fondamentalmente su tre modalità di bidding. Indipendentemente dalle modalità, di cui vedremo in seguito i dettagli, il prezzo viene fissato attraverso un’ asta, considerando, tra gli altri fattori, la qualità della campagna e del sito/landing page, e quanto stanno pagando i competitors per la stessa parola chiave o posizionamento.

CPC (Costo per Clic) È il metodo più utilizzato e conosciuto nell’advertising online e rappresenta il costo che l’inserzionista paga per ogni singolo clic effettuato dagli utenti.

CPM (Costo per Mille) Conosciuto anche con CPI (Cost per Impression) è la modalità di advertising in cui il prezzo è definito in base al costo di 1000 visualizzazioni dell’annuncio. Questa modalità è utilizzabile solo nella Rete Display di Google.

CPA (Costo per Azione) Consente all’inserzionista di definire il prezzo massimo che è disposto a pagare per il completamento dell’azione prevista dal sito/landing page. È probabilmente la modalità più interessante, in quanto permette di mantenere sotto controllo il costo del risultato che si vuole ottenere, lasciando a AdWords stesso la gestione dei costi. Il vincolo per poter utilizzare questa modalità di bidding è che vi siano state almeno 15 conversioni nei 30 giorni precedenti l’attivazione. Nonostante sia una modalità prevista in Google AdWords, questo metodo di bidding non dà la garanzia all’inserzionista che il prezzo pagato per l’azione specificata sarà al massimo quello impostato nel sistema. Questo punto è da tenere in considerazione in quanto lo stesso Google indica che quando un inserzionista utilizza questo modello, il sistema cercherà di restare entro i limiti impostati, ma non dà alcuna garanzia. Per fare un esempio, se l’inserzionista indica che il costo massimo per conversione (azione) deve essere di 5€ (quindi 1 conversione = 5€), il sistema AdWords cercherà di visualizzare a quegli utenti che hanno maggiore probabilità di convertire, ma se questo non accade, il costo sarà comunque maggiore. Dobbiamo porre quindi particolare attenzione a questo metodo che è molto interessante per il controllo dei costi, ma al contempo è da tenere monitorato e verificare che quanto previsto sia rispettato dal sistema.

Il Quality Score Uno dei concetti principali introdotti da Google AdWords nella gestione delle campagne è stato il Quality Score, ovvero una stima della pertinenza tra parole chiave, annunci, pagina di destinazione e performance. Il punteggio di qualità rappresenta, quindi, la valutazione che Google AdWords associa alle nostre campagne. Maggiore sarà il punteggio di qualità, maggiore sarà la probabilità che il nostro annuncio compaia in una posizione migliore a un prezzo inferiore. Il concetto di Quality Score è interessante poiché consente a un inserzionista che abbia ottime performance e un budget basso di ottenere posizionamenti migliori rispetto agli inserzionisti che, nonostante un budget superiore, hanno performance scadenti. La formula per il calcolo del posizionamento di un annuncio è la seguente: POSIZIONAMENTO ANNUNCIO = COSTO CLIC x QUALITY SCORE

Il calcolo del QS Il Quality Score è un parametro che va da 1 a 10 e viene calcolato in tempo reale da un algoritmo che tiene in considerazione, tra gli altri, i seguenti elementi: • CTR%: in base alla previsione del click-through rate della nostra parola chiave, ovvero la probabilità che la nostra parola chiave riceva un clic da parte dell’utente; • cronologia account: rappresenta la performance generale dell’account: maggiore è la qualità dell’account, maggiori saranno le probabilità che il nostro QS sia elevato; • qualità della pagina di destinazione: la qualità della pagina di destinazione ha una grande importanza: deve essere chiara, semplice, di facile accesso e navigazione; • pertinenza parola chiave/pagina di destinazione: è la pertinenza tra la parola chiave e la pagina di destinazione visualizzata dall’utente. Una pagina di destinazione pertinente alla parola chiave sarà considerata qualitativamente migliore rispetto a una più generica; • pertinenza parola chiave/annunci: è la pertinenza tra la parola chiave e gli annunci che vengono visualizzati. Un annuncio pertinente alla parola chiave sarà considerato qualitativamente migliore rispetto a uno più generico; • pertinenza parola chiave/query di ricerca: è la pertinenza tra la parola chiave acquistata e quella effettivamente ricercata dall’utente. Una parola chiave molto vicina alla ricerca reale dell’utente sarà considerata qualitativamente migliore rispetto a una più generica.

Le parole chiave Tra gli elementi fondamentali di Google AdWords troviamo le parole chiave con cui l’inserzionista desidera comparire nei risultati di ricerca o nei siti del network AdSense. Esse consentono all’inserzionista di attivare delle campagne ottenendo visibilità per quelle che sono le ricerche effettuate dall’utente o di ottenere visibilità in quei siti che trattano gli argomenti definiti dalle parole chiave selezionate, nel caso della Rete Display. Il sistema permette di selezionare cinque tipologie di corrispondenze: generica, generica

modificata, a frase, esatta, inversa. L’utilizzo delle corrispondenze ci consente di aumentare e diminuire la visibilità e il controllo che abbiamo sulla parole chiave stesse. Nonostante Google suggerisca di iniziare con parole chiave a corrispondenza generica, proviamo a capire il significato delle singole corrispondenze con casi e metodi di utilizzo reali.

Corrispondenza generica I vostri annunci vengono pubblicati automaticamente in associazione a varianti pertinenti delle parole chiave, anche se tali termini non sono inclusi nell’elenco delle parole chiave. https://support.google.com/adwords/answer/2497828?hl=it La corrispondenza generica è quella che ci consente di avere la maggiore visibilità, ma, al contempo, il minore controllo sulla visualizzazione degli annunci. Nella pratica stiamo lasciando a Google il controllo delle nostre campagne e deleghiamo a lui ogni decisione per la quale il nostro annuncio deve essere visualizzato. L’utilizzo di questa corrispondenza è potenzialmente adatto nei casi in cui non si conoscano bene le parole chiave utilizzate dal nostro target. Questa corrispondenza risulta essere molto utile anche nel momento in cui si vogliano effettuare delle analisi sulle modalità di ricerca da parte degli utenti o sulle associazioni che Google fa tra le nostre parole e quelle che ritiene essere simili. Nel primo caso, ad esempio, possiamo acquistare una parola chiave a corrispondenza generica e vedere modi alternativi con cui le persone cercano il nostro prodotto/servizio, esplicitino un problema, o manifestino un loro bisogno. Nel secondo caso, quello dell’analisi del sistema “Google”, possiamo acquistare parole chiave a corrispondenza generica così da capire le associazioni che Google dà alle diverse parole, trovando alternative, sinonimi o parole simili che non avevamo considerato. Da qui si può capire molto bene il motivo per cui Google imposta di default tutte le parole chiave con corrispondenza generica: non essendovi particolari limiti, cercherà di espandere la visualizzazione dei nostri annunci in modo da raggiungere un numero sempre maggiore (e tendenzialmente sempre meno qualificato) così da generare impression e clic, ovvero il suo metodo di guadagno. A meno che non vi sia una strategia ben definita e consapevole nell’uso di questa corrispondenza, l’invito è quello di evitarla fintanto che non si avrà una buona padronanza delle campagne. Un uso alternativo della “corrispondenza generica” lo troveremo più avanti, quando affronteremo la “corrispondenza inversa”, come metodo per trovare parole chiave totalmente fuori target con quanto di nostro interesse, così da escluderle in quei casi in cui, ad esempio, una stessa parola possa avere diversi significati, oppure non qualifichi in modo corretto le persone che effettuano le ricerche con le nostre parole chiave. Vantaggi:

grande varietà di suggerimenti per nuove parole chiave.

Svantaggi: • rischio di esaurire il budget velocemente; • scarso controllo sulle performance delle singole parole chiave; • basso CTR; • traffico poco qualificato; • tempo di gestione elevato (se si vuole migliorare); • i nostri annunci compariranno in tutti i casi in cui vi sia un collegamento, diretto o indiretto, tra la ricerca dell’utente e le nostre parole chiave. Esempio Parola chiave acquistata

Descrizione

Esempio ricerca dell’utente

Cappelli da donna

Include errori di ortografia, Acquista cappelli per signora sinonimi, ricerche correlate e altre varianti pertinenti Copricapo da donna

Corrispondenza generica modificata Potete aggiungere un modificatore alle parole chiave a corrispondenza generica per specificare che determinate parole devono essere incluse nel termine di ricerca di un utente per attivare i vostri annunci. https://support.google.com/adwords/answer/2497702?hl=it Una variante della “corrispondenza generica” è rappresentata dall’aggiunta di quello che viene definito “modificatore della corrispondenza generica”: attraverso l’uso del carattere “+” prima di una parola, vincoliamo il motore di ricerca ad attivare il nostro annuncio solo se quella specifica parola è presente nella ricerca effettuata dall’utente. La “corrispondenza generica modificata” consente di sfruttare quindi il potenziale della “corrispondenza generica”, vincolando comunque il motore di ricerca a visualizzare il nostro annuncio solo se la parola chiave preceduta dal simbolo “+” è effettivamente presente nella ricerca effettuata dall’utente. In questo modo, pur lasciando il potenziale della corrispondenza generica, andiamo a qualificare meglio il traffico, escludendo quella porzione di ricerche che non sono di nostro interesse. Vantaggi: • grande varietà di suggerimenti per parole chiave; • vincoliamo le ricerche per le parole che ci interessano; • maggiore controllo rispetto alla corrispondenza generica.

Svantaggi: • rischio di esaurire il budget velocemente; • poco controllo sulle performance delle singole parole chiave; • basso CTR; • tempo di gestione elevato (se si vuole migliorare). Esempio Parola chiave acquistata

Descrizione

Esempio ricerca dell’utente

+ cappelli da donna

contiene il termine modificato (o varianti simili ma non sinonimi), in qualsiasi ordine

Acquista cappelli per signora Cappelli da donna

Corrispondenza a frase Potete mostrare il vostro annuncio ai clienti che nelle ricerche utilizzano la vostra parola chiave esatta e varianti simili della vostra parola chiave esatta con ulteriori parole prima o dopo. https://support.google.com/adwords/answer/2497584?hl=it La “corrispondenza a frase” ci consente di avere un controllo maggiore sulle parole chiave, vincolando il motore di ricerca a visualizzare i nostri annunci quando le parole ricercate dall’utente è molto simile a quella da noi acquistata, introducendo solo piccole varianti, come, ad esempio, singolari e plurali e altre parole prima e dopo la nostra parola chiave. Se non si ha particolare esperienza con il tool, il consiglio è quello di iniziare da questa corrispondenza così da raccogliere visitatori che utilizzano parole chiave molte simili a quelle di nostro interesse. Seppur limitato come bacino, questo ci consente di ridurre al minimo gli sprechi in quanto con l’utilizzo attento della corrispondenza inversa, raggiungeremo solo coloro che cercheranno le parole chiave da noi acquistate. Vantaggi: • controllo sulle parole chiave; • CTR maggiore rispetto alle corrispondenze generiche; • parola chiave e ricerca dell’utente sono molto simili; • possibilità di creare annunci mirati; • gli utenti raggiunti sono più interessati a quanto offriamo. Svantaggi: • minore visibilità rispetto alle corrispondenze generiche; • bisogna conoscere le parole ricercate dai nostri utenti.

Esempio Parola chiave acquistata

Descrizione

Esempio ricerca dell’utente

“Cappelli da donna”

Una frase e le varianti simili di tale frase

Acquista cappelli da donna Cappelli da donna Cappelli da donna alla moda

Corrispondenza esatta Potete mostrare il vostro annuncio ai clienti che utilizzano nella ricerca la vostra parola chiave esatta o varianti simili. https://support.google.com/adwords/answer/2497825?hl=it La corrispondenza esatta ci permette di avere un controllo pressoché assoluto della visualizzazione dei nostri annunci, in quanto Google AdWords li visualizzerà solo nel caso in cui la parola chiave da noi acquistata e quella utilizzata dall’utente risultino essere identiche. In verità anche con questa corrispondenza gli annunci possono essere visualizzati quando l’utente effettua una ricerca con parole chiave molto simili alle nostre parole chiave, come ad esempio nel caso di errori e singolari o plurali. Nonostante queste piccole variazioni possiamo tenere a mente, come linea guida generale, che se esistono parole chiave molto ricercate, le possiamo inserire nella nostra campagna con una corrispondenza esatta così da tenere molto alta la qualità e pertinenza: come indicato nei capitoli precedenti, la vicinanza tra quanto ricercato dall’utente e quanto da noi acquistato come parola chiave è uno dei fattori principali utilizzati da Google: più saremo in grado di raggiungere utenti con questa forma, maggiore sarà la qualità intrinseca delle nostre campagne. Vantaggi: • controllo assoluto sulle parole chiave; • CTR maggiore rispetto a tutte le altre corrispondenze; • parola chiave e ricerca dell’utente sono uguali; • possibilità di creare annunci mirati; • gli utenti raggiunti sono più interessati a quanto offriamo. Svantaggi: • i volumi di ricerca sono inferiori rispetto a tutte le altre corrispondenze; • bisogna conoscere esattamente le parole ricercate dai nostri utenti.

Esempio Parola chiave acquistata

Descrizione

Esempio ricerca dell’utente

[Cappelli da donna]

Un termine esatto e le varianti simili del termine esatto

Acquista cappelli da donna Cappelli da donna Cappelli da donna alla moda

Corrispondenza inversa Un tipo di parola chiave che impedisce che il vostro annuncio venga attivato da una determinata parola o frase. https://support.google.com/adwords/answer/105671?hl=it La corrispondenza inversa, diversamente dalle altre, permette di escludere delle parole chiave per cui non vogliamo comparire se queste dovessero essere utilizzate dagli utenti durante una ricerca. Risulta utile quindi, escludere il traffico poco qualificato o che non ci interessa raggiungere in quanto non ritenuto utile al raggiungimento del nostro obiettivo. Ad esempio, se non vogliamo raggiungere persone che cercano il nostro prodotto a “basso prezzo” oppure “gratis”, possiamo utilizzare questa corrispondenza per escludere dalla visualizzazione del nostro annuncio, tutti coloro che appunto utilizzano nelle loro ricerche queste due terminologie. Vantaggi: • riduce il traffico poco qualificato; • aumenta il CTR delle parole chiave; • ottimizza e riduce i costi, aumentando il ritorno sull’investimento. Svantaggi: • riduce la visibilità delle nostre campagne; • se utilizzato in modo scorretto, elimina porzioni di traffico utile. Esempio Parola chiave acquistata

Descrizione

Esempio ricerca dell’utente

Cappelli da donna – copricapo

Ricerche senza il termine specificato con il simbolo “-”. Negli esempio qui a lato, tutte le ricerche utente non contengono tale parola

Acquista cappelli da donna Cappelli da donna Cappelli da donna alla moda

Gli annunci Definite le parole chiave e le relative corrispondenze, dobbiamo realizzare gli annunci, ovvero i messaggi che i nostri utenti visualizzeranno nel momento in cui il sistema troverà corrispondenza tra le loro ricerche e le nostre parole chiave. Gli annunci hanno delle caratteristiche ben precise e devono rispettare alcuni criteri imposti da Google AdWords. Nella tabella che segue sono indicati i vincoli di lunghezza con un esempio di annuncio. Esempio annuncio

Lunghezza max

Titolo 1

Occhiali da Sole

30

Titolo 2

Saldi Estate 2016

30

Descrizione

Arrivano i saldi 2016: acquista online i tuoi Occhiali e Risparmia fino al 50%

80

URL Finale

http://www.occhialaio.ext/saldi.php

Percorso Visualizzato

/Saldi/Occhiali

15 + 15

Nella fase di creazione degli annunci, hai la possibilità di vedere un’anteprima in tempo reale dei tuoi annunci per capire come verranno visualizzati dagli utenti. Di seguito l’anteprima del nostro annuncio appena creato nelle versioni Desktop e Mobile:

Figura 11.2 – Anteprima dell'annuncio su dispositivo desktop.

Figura 11.3 – Anteprima dell'annuncio su dispositivo mobile.

Ogni settore ha le sue caratteristiche e ogni azienda ha i suoi punti di forza e di debolezza, e gli annunci devono essere creati tenendo conto di quelli che possono essere gli interessi reali delle persone rispetto alla ricerca che hanno effettuato. Per questo motivo, la creazione di annunci efficaci è un percorso basato su test continui: man mano che verranno raccolti dati, scopriremo cosa funziona meglio e cosa non funziona, aggiungeremo e elimineremo annunci sulla base dei risultati ottenuti rispetto agli obiettivi che ci eravamo prefissati inizialmente. L’esperienza di certo può aiutare a creare una base di partenza molto buona, tuttavia solo le performance potranno stabilire se e quali annunci funzionano meglio rispetto agli altri. Ecco alcuni consigli da tenere presenti.

Valorizzate la vostra azienda Perché siete diversi dai vostri competitors? Gli annunci non vi permettono di scrivere dei poemi, ma dovete cercare di evidenziare la differenza che c’è tra voi e un qualsiasi altro competitor.

Offerte Se avete o potete promuovere delle offerte, questo è il momento di farlo: un annuncio con offerte specifiche, sconti, promozioni è un metodo molto efficace per attirare utenti sul vostro sito con una maggiore probabilità di raggiungere gli obiettivi prefissati.

Call to action Non date per scontato che le persone sappiano cosa devono fare: inserite sempre nei vostri annunci un invito all’azione chiaro, in modo che gli utenti siano in grado di portarlo a termine senza tanti pensieri.

Rendete pertinenti gli annunci Come far capire all’utente che ciò che offrite è ciò che sta cercando? Cercate di inserire le

parole chiave nei vostri annunci in modo da chiarire a chi sta leggendo che il vostro annuncio parla proprio di ciò che stava cercando e che risolverete il suo problema.

Rendete pertinente la pagina di destinazione Cosa accade se l’utente che ha cliccato su un annuncio arriva in una pagina che non corrisponde alla sua ricerca? Probabilmente uscirà, ma la vostra azienda ha già sostenuto il costo del clic. Inserite nella vostra pagina dei “punti di aggancio” per far capire all’utente che si trova nel posto giusto: titoli e immagini sono gli elementi giusti per evidenziarlo.

Ottimizzate la landing page Una volta ottenuto il clic dall’utente e portatolo sul vostro sito web/landing page, siete solo a metà strada. Il vostro obiettivo non è solo quello di portare traffico, ma anche di generare valore. Testate e ottimizzate la vostra landing page in modo da trarre il massimo valore possibile dall’utente, aumentando i tassi di conversione.

Test, test, test Non si finisce mai di imparare e l’advertising online non fa eccezione. Provate sempre cose nuove e valutate i risultati ottenuti nel loro insieme. Imparate e modificate annunci, landing page, parole chiave in modo da raggiungere i vostri obiettivi a un costo inferiore e più velocemente.

Le conversioni Abbiamo già visto come l’online sia un canale che ci consente di tracciare praticamente tutto, ma vale la pena soffermarsi un po’ di più sulle conversioni. Il monitoraggio delle conversioni è lo strumento che indica che cosa accade dopo il clic dell’utente sui vostri annunci. https://support.google.com/adwords/answer/1722022?hl=it Conoscere le conversioni non è una questione puramente numerica. Dipende, ovviamente, dal livello di profondità che vogliamo raggiungere e dal tipo di conversione che stiamo monitorando, tuttavia possiamo tradurre una conversione in un concetto economico che si posiziona in modo ben preciso nella vita e nei processi della nostra azienda.

Il valore delle conversioni Definire una conversione significa pensare a due elementi importanti: • l’azione che vogliamo l’utente compia; • il valore dei clienti per ogni “segmento di mercato”; • il valore che questa ha per la nostra azienda.

Gli utenti possono compiere molte azioni sul nostro sito web, dalla navigazione alla registrazione alla newsletter, alla richiesta di un preventivo o all’aggiunta di prodotti nel carrello e acquisto, nel caso di un sito di e-commerce. Come si può facilmente comprendere, non tutte le azioni qui indicate hanno lo stesso valore. Alcune creano un fatturato diretto (vendita), altre indiretto (richiesta preventivo), altre ancora non hanno un valore diretto (iscrizione alla newsletter). Eppure ogni azione è riconducibile alla generazione di un valore economico per la nostra azienda: questo ci consentirà di ottenere informazioni molto importanti sull’andamento delle nostre campagne, non solo da un punto di vista numerico ma anche di potenziale fatturato derivante dalle azioni che stiamo facendo. Potremo misurare il ritorno sull’investimento, capire cosa porta più valore e quindi ottimizzare le campagne non solo in base ai clic e al CTR, ma anche agli effettivi risultati economici che queste stanno portando alla nostra azienda. In base alla tipologia di obiettivo e all’esperienza che abbiamo, possiamo definire il valore delle conversioni in modi diversi. Di seguito i due principali sistemi che per una azienda che non ha mai ragionato in questi termini, posso risultare utili per iniziare a fare delle valutazioni in questi termini.

Metodo #1: Storico di fatturato Il metodo probabilmente più semplice è quello di partire dai dati storici di vendita e fatturato. Per poter calcolare il valore di una singola conversione (Lead) abbiamo quindi bisogno delle seguenti informazioni: fatturato generato e numero di conversioni e/o richieste ricevute in un dato periodo di tempo (ad esempio ultimi 12 mesi). Il problema di base di questo metodo è dato dal fatto che se l’azienda non ha provveduto a mantenere traccia delle singole richieste, attraverso un CRM ad esempio (o molto più semplicemente un elenco di email di richiesta informazioni ricevute o un file excel): questo metodo quindi è utile sopratutto a chi ha uno storico di dati sufficiente e abbastanza preciso. In caso contrario il valore che ne deriva sarà totalmente sbagliato. Se questo dovesse essere il nostro caso, possiamo procedere con il seguente calcolo: Fatturato Generato / Numero Lead = Valore per Lead Facendo un esempio pratico, se la nostra azienda ha avuto un fatturato di 50.000€ nello scorso anno e ha ricevuto 1500 richieste di informazione, il valore di ogni singola richiesta è di 33€: 50.000€ / 1.500 = 33€ È facile intuire come la realizzazione di qualsiasi campagna (indipendentemente dal mezzo /strumento utilizzato) che generi una richiesta di informazione e che costi meno di 33€ abbia un impatto positivo per la nostra azienda: a parità di budget saremmo infatti in grado di generare molte più richieste, e quindi un fatturato maggiore.

Questo presuppone che la qualità dei lead ricevuti sia ovviamente costante: ma questo metodo può essere utilizzato con un minimo adattamento anche al singolo canale/strumento di generazione dei contatti tenendo sempre a mente la regola generale: Fatturato Generato / Numero Lead = Valore per Lead.

Metodo #2: Acquisto del risultato Il secondo metodo non ha basi scientifiche come il precedente, e può risultare utile per tutti coloro che non hanno dati storici a sufficienza o stiano partendo in questo momento con una nuova azienda, e si basa su una domanda: Quanto sono disposto a spendere per ottenere questo risultato? La risposta a questa domanda presuppone una motivazione, ovvero perché si è disposti a pagare proprio quella cifra? Se la risposta che ci diamo è motivata, ad esempio da un business plan, possiamo considerare questo il valore di ogni singola richiesta di informazioni. Questo è il valore del nostro obiettivo, che nel tempo potrà essere modificato in base alle informazioni raccolte e al reale impatto che questi risultati hanno nella nostra azienda. Ovviamente in questi esempi abbiamo preso in considerazione la generazione di un lead /richiesta di informazioni, ma lo stesso ragionamento lo potremmo fare considerando qualsiasi altro obiettivo vogliamo raggiungere con le nostre campagne e attività di Web Marketing più in generale.

Struttura e organizzazione di una campagna Abbiamo affrontato gli elementi fondamentali di una campagna Google AdWords in modo distinto, ed è giunto il momento di avere una visione totale di quello che stiamo facendo. Una campagna AdWords ha una struttura ben precisa e la sua organizzazione ci consente di avere risultati migliori. La struttura e l’organizzazione sono, infatti, un altro degli elementi principali per giungere a ottimi risultati.

Figura 11.4 - Organizzazioni di elementi in una campagna ADWords.

Una buona organizzazione ci permette di controllare non solo i costi di una campagna, ma anche i risultati, consentendoci di ottimizzarla in base agli obiettivi ottenuti. Possiamo seguire questa semplice regola per iniziare a impostare una campagna efficace: Campagna => Gruppo => Parola Chiave => Annuncio => Landing Page Tutti gli elementi devono essere organizzati in modo tale che quello che si trova al livello inferiore sia per tematicità e corrispondenza legato all’elemento superiore. Per spiegare i singoli elementi e la loro importanza all’interno di una struttura organizzata, utilizzeremo un esempio concreto.

Esempio Un negozio di arredamento vende diverse tipologie di prodotto, in base alla loro destinazione: ufficio e casa. Ha un catalogo di circa 30 prodotti, suddivisi in 3 categorie per destinazione d’uso.

Campagne Le campagne rappresentano il macro-elemento del nostro account e saranno il contenitore tematico di tutti gli elementi che andremo a inserire al suo interno (annunci, parole chiave, impostazioni). La campagna rappresenta la categoria di prodotto o servizio offerto.

Esempio L’account potrà essere strutturato utilizzando due campagne, in base alla destinazione d’uso dei prodotti commercializzati dalla nostra azienda: • Campagna 1: Prodotti per l’ufficio • Campagna 2: Prodotti per la casa

Organizzare le campagne in questo modo ci consentirà di creare dei gruppi specifici per ogni tipologia di utente e bisogno. Inoltre, i prodotti hanno mercati completamente diversi ed è ipotizzabile anche un diverso volume di acquisto e di margine per l’azienda. Dividere i prodotti in questo modo consentirà all’azienda di definire budget specifici per i due mercati, in modo da ottimizzare i ritorni sull’investimento.

Gruppi di annuncio All’interno delle campagne andremo a definire dei gruppi, ognuno relativo a una tipologia di prodotti specifici, legati alla stessa destinazione d’uso.

Esempio All’interno di ogni campagna, andremo a dividere in gruppi le diverse tipologie di prodotto disponibili: • Campagna 1: Prodotti per l’ufficio – Gruppo 1: Scrivanie – Gruppo 2: Sedie – Gruppo 3: Armadi da ufficio • Campagna 2: Prodotti per la casa – Gruppo 1: Tavoli – Gruppo 2: Letti – Gruppo 3: Divani

I gruppi consentono di raggruppare al loro interno parole chiave molto simili, in modo da poter analizzare le performance di parole omogenee e procedere alla loro ottimizzazione in base ai risultati ottenuti.

Parole chiave All’interno del singolo gruppo di annunci, andremo a definire, quindi, una serie di parole chiave legate al gruppo stesso; in questo modo creeremo una struttura lineare e di facile ottimizzazione.

Esempio All’interno di ogni gruppo andremo a inserire le parole chiave collegate: •

Campagna 1: Prodotti per l’ufficio – Gruppo 1: Scrivanie • scrivanie per ufficio • scrivanie da ufficio • vendita scrivanie per ufficio – Gruppo 2: Sedie • sedie da ufficio • sedie per ufficio • vendita sedie per ufficio – Gruppo 3: Armadi • armadi da ufficio • armadi per ufficio • vendita armadi per ufficio

Campagna 2: Prodotti per la casa – Gruppo 1: Tavoli • vendita tavoli • tavoli in vendita • tavoli su misura – Gruppo 2: Letti • letti in legno • letti su misura • letto matrimoniale – Gruppo 3: Divani • divani in tessuto • divani moderni • vendita divani

Questo è un esempio molto semplificato dell’organizzazione di base di una campagna di Google AdWords. In base alle performance e al budget disponibile, si potrà proseguire con l’ottimizzazione e il miglioramento della struttura, cercando di dividere in ulteriori sottoinsiemi le parole chiave simili. Riportiamo, a titolo esemplificativo, quella che potrebbe essere l’evoluzione della nostra campagna di “Prodotti per la casa”.

Esempio •

Campagna 2: Prodotti per la casa – Gruppo 3a: Divani in Vendita • divani in vendita • vendita divani – Gruppo 3a: Divani in Tessuto • divani in tessuto • vendita divani in tessuto – Gruppo 3b: Divani Moderni • divani moderni • vendita divani moderni • vendita divani design moderno

Il risultato finale è chiaro: per ogni gruppo andremo a creare ulteriori sottoinsiemi di parole chiave ancora più specifiche, in modo tale da indirizzare i messaggi giusti alle persone che cercano un prodotto specifico. Strutturando una campagna in questo modo, saremo in grado di capire non solo cosa funziona, ma anche qual è il budget da investire per tipologia di prodotto e quindi le possibilità di miglioramento ulteriore dei nostri risultati, in termini sia di conversione sia di ritorno sull’investimento.

Selezione delle parole chiave Google AdWords mette a disposizione un utile tool per la ricerca, analisi e selezione delle parole chiave: il suo nome è Keyword Planner altresì nominato “Strumento di pianificazione delle parole chiave” ed è raggiungibile accedendo al proprio account Google AdWords, dal menù in alto “Strumenti”.

Figura 11.5 – Accesso al tool per la selezione delle parole chiave.

Entrati in questa sezione, ci troveremo di fronte ad un form con diversi campi (vedi immagine

successiva): • Parole Chiave: nel primo campo andremo a inserire le parole chiave di nostro interesse e per cui desideriamo ricevere da parte di Google dei suggerimenti di altre parole simili, sinonimi, e tutto ciò che Google, grazie alle ricerche degli utenti, ritiene coerente con quanto da noi inserito. • Pagina di Destinazione: Google ci consente di ricavare parole chiave anche partendo da una pagina che possiamo indicare in questo campo. Questa funzionalità può essere utile se vogliamo capire come una pagina viene “vista” dal motore di ricerca e quali parole chiave percepisce coerenti con i contenuti in essa presenti. • Targeting: La sezione Targeting si divide in più opzioni, ognuna delle quali andrà a ridefinire in modo più preciso il nostro pubblico di riferimento: – Nazione: indica la nazione in cui il navigatore si trova nel momento in cui effettua la ricerca; – Lingua: possiamo chiedere al motore di ricerca di estrapolare suggerimenti di parole chiave e stime di ricerca delle sole persone che parlano (o hanno impostato il loro browser) in una determinata lingua; – Rete: possiamo decidere se includere nella nostra analisi le ricerche che vengono effettuate sul solo motore di ricerca Google (e sue declinazioni nazionali) oppure anche sui partner di ricerca, ovvero quei motori di ricerca che si appoggiano a Google per offrire ai loro utenti risultati di ricerca. • Parole Chiave a Corrispondenza Inversa: qui possiamo indicare al sistema di escludere dalla ricerca tutte quelle parole chiave che non sono di nostro interesse. Già con i primi tentativi che andrete a fare, scoprirete che lo strumento si “allarga” molto rispetto alle parole chiave inserite e grazie a questo campo, lo potete obbligare a non fornire risultati per una o più parole chiave specifiche. • Parole Chiave da includere: questo campo consente di fare esattamente il contrario del precedente, ovvero obbligare il sistema a fornire solo risultati che contengono determinate parole chiave indicate. Questo sistema vi consente di filtrare tutti quei suggerimenti che non sono di vostro interesse, evitando di ricevere suggerimenti “extra”.

Figura 11.6 – Il form per la ricerca delle parole chiave.

In questo form esistono altre opzioni aggiuntive, ma per lo scopo di questo capitolo questi sono i campi fondamentali per consentirti di effettuare le prime analisi in modo efficace.

Analisi e selezione delle parole chiave Inserite le parole chiave di nostro interesse, e cliccato sul tasto “Trova Idee”: il sistema restituirà un elenco più o meno lungo di parole chiave correlate, simili, sinonimi e tutto ciò che Google ritiene collegato a quanto da noi inserito, oltre a un grafico che presenta in modo visivo il trend dei volumi di ricerca di tutte le parole chiave estrapolate.

Figura 11.7 – I risultati di ricerca dello strumento per la selezione delle parole chiave.

Il fatto che Google suggerisca parole chiave più o meno collegate a quelle da noi inserite non significa che dobbiamo utilizzarle tutte in modo indiscriminato. L’obiettivo in questo caso è quello di rispondere a quelle che sono le domande degli utenti che vogliamo raggiungere, ovviamente con una risposta che possiamo soddisfare. Ad esempio, per la ricerca “occhiali da sole”, il tool restituisce oltre 580 idee di parole chiave, ma tra queste molte non hanno nulla a che fare con quanto da noi offerto e di interesse. Quella che segue è una tabella che rappresenta solo alcuni dei suggerimenti forniti dallo strumento per la ricerca “occhiali da sole”:

Lente di ingrandimento

Occhiali da sole persol

Ottica milano

Lenti a contatto

Occhiali da lettura

Occhiali da sole ray ban uomo

Occhiali

Occhiali da sole dolce e gabbana

Occhiali vintage

Occhiali ray ban

Occhiali carrera

Salice occhiali

Lenti a contatto colorate

Carrera occhiali

Ortocheratologia

Donne sole

Occhiali dolce e gabbana

Occhiali ray ban da sole

Ottica

Occhiali polarizzati

Occhiali da sole tondi

Occhiali da sole uomo

Lenti fotocromatiche

Ray ban da sole

Occhiali da sole ray ban

Ray ban occhiali da sole

Lenti progressive prezzi

Montature occhiali

Lenti a contatto online

Occhiali da sole rotondi

Occhiali da sole donna

Occhiali cartier

Occhiali super

Lenti progressive

Occhiali da riposo

Occhiali da sole carrera

Occhiali persol

Ray ban donna

Occhiali da sole polarizzati

Ray ban occhiali

Lenti a contatto progressive

Occhiali silhouette

Lenti polarizzate

Lenti transition

Occhiali da sole outlet

Persol occhiali

Occhiali ciclismo

Occhiali police

Lenti a contatto giornaliere

Lenti

Ottica roma

Lente ingrandimento

Ray ban prezzi

Spaccio occhiali

Lenti a contatto mensili

Occhiali uomo

Occhiali web

Tom ford occhiali

Police occhiali

Occhiali da sole graduati

Come è facile comprendere, Google cerca di fornire moltissime idee anche se molte di queste hanno poco o nulla a che fare con il nostro business. È possibile tuttavia sfruttare questo comportamento a nostro vantaggio, in due modi: • per trovare idee di parole chiave a cui non avevamo pensato; • per trovare parole chiave (o semplicemente parole) che NON vogliamo utilizzare perché non rappresentano il nostro target o quanto da noi offerto (ad esempio: ottica). Da questi risultati dobbiamo quindi selezionare solo le parole chiave di nostro interesse, e segnare le parole che viceversa, andremo a escludere dalle nostre campagne, per evitare che persone che stanno cercando altri prodotti arrivino alle nostre pagine attraverso Google AdWords, con conseguente spesa di budget pubblicitario che difficilmente avrà un ritorno economico positivo.

A questo punto, con la nostra lista delle parole chiave, possiamo procedere alla creazione delle diverse campagne, gruppi e annunci seguendo gli accorgimenti indicati in questo capitolo.

NOTA Attenzione: lo strumento per la selezione delle parole chiave è stato recentemente depotenziato e le informazioni fornite non sono più precise come lo erano in passato. Tra le modifiche si segnala la riduzione dei suggerimenti per varianti simili e sono stati introdotti dei range nei volumi di ricerca. Lo strumento risulta essere comunque valido per essere utilizzato in una fase iniziale e per lanciare le prime campagne. Successivamente, con una analisi delle query di ricerca derivanti dalle interazioni delle persone con i nostri annunci, avremo ulteriori possibilità di espansione delle campagne con nuove parole chiave, sempre più precise e di cui avremmo già raccolto uno storico di performance.

Creare la campagna Google AdWords è uno strumento potente e in continua evoluzione e quanto presentato in queste pagine rappresenta solo una infarinatura generale. Informiamo che le immagini e le istruzioni di seguito riportate sono state aggiornate alla pubblicazione del libro; tuttavia, essendo il tool in continuo aggiornamento, sono possibili differenze tra il processo qui presentato e quello reale.

Aprire un account Il primo passo per avviare una campagna Google AdWords è quello di creare un nuovo account. La procedura di creazione di un nuovo account è molto semplice ed è possibile seguire un percorso guidato che ci permetterà di attivare in poco tempo la nostra nuova campagna. Basta andare alla pagina http://adwords.google.com e aprire un nuovo account cliccando sul bottone in alto a destra. Il sistema chiederà di lasciare una serie di informazioni sulla propria azienda, innanzitutto un indirizzo email e il dominio sul quale saranno attivate le campagne, nonché i dati di contatto e di accesso all’account. È possibile che venga richiesta la verifica dei dati inseriti con una email di conferma o con un sms al numero di telefono inserito. Le istruzioni sono comunque molto semplici e la loro spiegazione risulta essere comprensibile anche per chi non ha mai utilizzato Google AdWords.

Figura 11.8 - Apertura di un account AdWords.

Creazione della prima campagna Terminato il processo di creazione dell’account, il sistema AdWords ci permetterà di creare la prima campagna. Reti: come abbiamo avuto modo di vedere all’inizio di questo capitolo, Google AdWords permette di promuovere la nostra azienda non solo attraverso il motore di ricerca, ma anche in base al network dei siti che rientrano nel circuito Google AdSense. È possibile togliere la rete display semplicemente cliccando sul checkbox relativo. Se siete alla prima campagna, vi consigliamo di non utilizzare questa funzionalità.

Figura 11.9 - Impostazione della tipologia di reti.

Budget: il budget rappresenta l’importo massimo che siamo disposti a spendere ogni giorno per questa campagna. Il valore inserito sarà quindi utilizzato dal sistema per effettuare l’asta tra le nostre parole chiave e quelle dei competitors e verrà consumato in base alla modalità di bidding preferita. Possiamo definire un costo massimo per click che pagheremo a ogni click degli utenti. Da sottolineare che il CPC è un valore massimo, pertanto il sistema potrà addebitarci un valore inferiore se la qualità della campagna dovesse risultare ottimale. Da tenere a mente anche che i valori di costo vengono considerati valori medi dal sistema Google AdWords; nel corso del tempo ci potremmo accorgere che, ad esempio, in alcuni giorni il budget massimo definito viene superato: non c’è da preoccuparsi in quanto sarà Google stesso a modificare i budget e i costi dei giorni successivi così da rientrare entro i limiti da noi definiti. Strategia di offerta: come abbiamo visto precedentemente, Google ADWords ha diverse modalità di “addebito”: possiamo pagare per i clic ricevuti sugli annunci (CPC), per le impressioni (CPM) o le conversioni (CPA). Per iniziare il consiglio è quello di restare su una strategia CPC, così da pagare solo per l’effettivo click ricevuto sui nostri annunci. Potremmo poi, con un po' di esperienza, procedere all’attivazione di campagne con modalità di pagamento alternativo, in base ai risultati e alle ottimizzazioni che riusciamo a fare.

Figura 11.10 - Selezione della strategia di offerta e del budget.

Località: è possibile indirizzare una campagna a un target specifico, non solo in base alle parole chiave, ma anche alla località in cui quella persona si trova. In base alle esigenze dell’azienda, al prodotto e/o servizio offerto, gli annunci potrebbe essere indirizzati solo a coloro che si trovano in una determinata area geografica.

Figura 11.11 - Selezione avanzata della località di campagna.

Lingua e target geografico Abbiamo già parlato della possibilità di indirizzare i nostri annunci a persone che si trovano in una determinata località, ma la funzionalità non finisce qui: abbiamo la possibilità di indicare non solo località specifiche, ma anche un raggio entro il quale i nostri annunci saranno attivi. Similmente alla corrispondenza inversa delle parole chiave, abbiamo anche la possibilità di escludere determinate zone geografiche dalle nostre campagne, in modo tale da indirizzare gli annunci solo agli utenti di nostro effettivo interesse.

Figura 11.12 - Selezione avanzata della lingua.

Infine, possiamo indirizzare i nostri annunci anche a coloro che parlano una lingua specifica o una combinazione tra lingua e località. In questo modo saremo in grado, ad esempio, di indirizzare i nostri annunci solo alle persone che si trovano in una determinata città (Milano) e che parlano una determinata lingua (inglese), migliorando ulteriormente la comunicazione e l’efficacia delle nostre campagne. Annuncio: definiti i parametri di targeting e di budget, possiamo procedere con la creazione del nostro primo annuncio. Si faccia riferimento al capitolo specifico per avere tutte le indicazioni per la creazione di un annuncio per Google AdWords (Figura 11.13).

Figura 11.13 - Creazione di un annuncio testuale.

Parole Chiave: in questo spazio abbiamo la possibilità di inserire le parole chiave di nostro interesse con le rispettive corrispondenze. Da ricordare che di default il sistema Google AdWords considera tutte le parole chiave con “corrispondenza estesa” se non diversamente specificato. Per questo motivo il consiglio è quello di utilizzare la “corrispondenza a frase” (aggiungendo il carattere “parola chiave”) così da limitare la diffusione degli annunci a un target poco interessato.

Figura 11.14 - Inserimento delle parole chiave.

Dati di Fatturazione: completata la fase di creazione di un annuncio, il sistema richiede i dati di fatturazione e di pagamento. In questo step possiamo decidere di effettuare i pagamenti con conto bancario o carta di credito.

Figura 11.15 - Inserimento dati di fatturazione.

Completato anche questo passaggio, la nostra prima campagna è pronta per ricevere impression e clic.

Opzioni avanzate Le funzioni qui presentate sono solo alcune delle opzioni e funzioni aggiuntive a disposizione degli inserzionisti. Durata delle campagne Possiamo definire un periodo di attivazione delle nostre campagne, in maniera tale che, al termine del periodo indicato, si interrompano automaticamente. Metodo di pubblicazione Esistono due metodi di pubblicazione degli annunci: Standard e Accelerato. Con il metodo di pubblicazione Standard, l’opzione di default, Google AdWords cercherà di distribuire i nostri annunci nell’arco dell’intera giornata. Se il nostro budget non è sufficiente per coprire tutte le ricerche e quindi i clic, sarà il sistema a decidere, in base ai risultati ottenuti, gli

orari migliori di pubblicazione dei nostri annunci, nel tentativo, dichiarato da Google stesso, di migliorare il ritorno sull’investimento. Con il metodo di pubblicazione Accelarato, invece, vincoliamo Google AdWords a pubblicare in modo continuo i nostri annunci fintantoché il nostro budget non sarà terminato; ciò significa che, se il nostro budget non è sufficiente per coprire tutte le ricerche e i clic, i nostri annunci smetteranno di essere visualizzati al termine del budget stesso. Pianificazione degli annunci Uno dei vantaggi delle attività di Web Marketing è la raggiungibilità delle proprie campagne 24 ore al giorno, 7 giorni su 7. Anche gli annunci di Google AdWords seguono questa regola, a meno che non si decida di limitare la loro visualizzazione a determinati orari, giorni o a una combinazione di questi. Limitare la visualizzazione degli annunci nei soli giorni e orari di nostro interesse aumenta le probabilità di un ritorno dell’investimento positivo, permettendoci di variare i costi nei diversi giorni e orari in base al comportamento dei nostri utenti e al ritorno che abbiamo nei diversi momenti della settimana. Targeting Demografico nella Rete di Ricerca La rete di ricerca storicamente è stata caratterizzata dalla possibilità di indirizzare i propri annunci fondamentalmente su un unico elemento: le parole chiave. Con la continua evoluzione della piattaforma Google AdWords le informazioni a disposizione degli inserzionisti sono sempre maggiori e nel tentativo di raggiungere nel modo migliore ed efficace possibile gli utenti, Google ha introdotto la possibilità di targeting demografico anche per la rete di ricerca (prima disponibile solo sulla Rete Display); questa è una fondamentale evoluzione nel metodo di pubblicazione degli annunci e creazione delle campagne per la rete “storica”. Come è facile immaginare, una parola chiave cercata da due persone “demograficamente” diverse può far presupporre due esigenze o obiettivi diversi. Fino a oggi l’unica possibilità era quella di realizzare report di performance basati su informazioni demografiche, come l’età (nei range 18-24, 25-34, 35-44, 45-54, 55-64, 65+) e dal genere (maschio, femmina, unknown). Se conoscere queste informazioni è sempre stato utile per capire il bacino delle persone che riuscivamo a raggiungere, restavano comunque inutilizzabili per il miglioramento delle performance delle proprie campagne. Google ha quindi introdotto la possibilità, dalla fine del 2016, di creare ulteriori sottosegmentazioni delle campagne, ampliando ancor di più la possibilità di comunicare il proprio messaggio alle persone giuste, nell’esatto momento in cui ne hanno bisogno. Per fare un esempio concreto, immaginiamo un negozio di fiori che per la festa di San Valentino vuole realizzare una campagna per aumentare le proprie vendite. Prima dell’introduzione di questa nuova modalità di targeting, l’unica possibilità era quella di decidere le parole chiave migliori, creare annunci accattivanti, e lanciare le campagne. Da oggi, la persona responsabile delle campagne, potrà creare dei messaggi specifici per tutti gli uomini che desiderano regalare

dei fiori. Non solo: potrà decidere di creare annunci specifici per un target femminile, modificando i messaggi in modo specifico per questo target. Oppure – se lo ritiene opportuno – potrà filtrare ed escludere le ricerche di chi risulta fuori target per questa iniziativa promozionale, allo stesso modo con cui si esclude una parola chiave in “corrispondenza inversa”: questo permette ad esempio di risparmiare sui budget che potranno essere reinvestiti in attività diverse. Dispositivi Google AdWords ci permette di indicare non solo le parole chiave e le località e altre modalità di targeting delle nostre campagne, ma ci consente anche di indirizzare gli annunci a dispositivi specifici. Una delle possibilità a disposizione degli inserzionisti è quella di differenziare le offerte sulla base dei dispositivi degli utenti. Questa funzione è sempre stata presente nel sistema Google AdWords ma nel tempo è stata depotenziata, impedendo di creare campagne dedicate a dispositivi specifici, obbligando l’inserzionista a creare campagne multi-device, con conseguenti problemi di ottimizzazione delle performance su dispositivi diversi che hanno, per ovvi motivi, bisogno di approcci totalmente diversi: un utente che naviga da desktop ha modalità di navigazione ed esigenze diverse da chi naviga da mobile o tablet. Google ha fatto quindi un passo indietro, introducendo nuovamente la possibilità di ottimizzare le campagne in modo più efficace a livello di dispositivo. È possibile “aggiustare” le offerte in base al dispositivo sia a livello di campagna che di gruppo di annunci: possiamo quindi decidere, rispetto alla nostra offerta iniziale, di quanto la nostra offerta verrà aumentata o diminuita per ogni tipologia di dispositivo. Facciamo un esempio: per la nostra campagna abbiamo impostato una offerta base di 1€ a click. Grazie all’aggiustamento delle offerte, possiamo aumentare o ridurre questo valore per le diverse tipologie di dispositivi. Inserendo un valore di aggiustamento delle offerte di “–80%” per i dispositivi mobile, andremo a ridurre l’offerta dell’80% rispetto all’offerta originale. Questo nella pratica si traduce in un’offerta pari al 20% di quella originale, ovvero a 0,20 €. Similmente, potremmo decidere di aumentare l’offerta per una tipologia di dispositivi. Ad esempio, inserendo un valore di aggiustamento delle offerte di “+100%” andremo a raddoppiare il valore di offerta per quella tipologia di dispositivi, pari a 2€ per click. Esperimenti Come sappiamo, ogni modifica apportata alle nostre campagne, gruppi di annunci, parole chiave, annunci, targeting, offerte, ecc. cambia in modo irreversibile le nostre campagne. Come possiamo quindi effettuare dei piccoli test per capire se e cosa funziona prima di renderlo definitivamente operativo nel nostro account? Google AdWords ci viene in aiuto grazie alla funzionalità avanzata “Esperimenti” che ci consente di realizzare dei test senza cambiare le configurazioni delle nostre campagne, con la possibilità di eliminare gli esperimenti che dovessero risultare inefficaci, senza pregiudicare lo storico e le performance originali.

Gli esperimenti permettono di capire come variano i risultati della nostra campagna al variare di alcuni elementi della campagna stessa. È possibile effettuare dei test sulle parole chiave, sui testi degli annunci e sulle offerte dei gruppi di annunci. Nell’immagine che segue, tratta direttamente dal blog ufficiale di Google AdWords, possiamo notare la comparazione dei risultati tra la configurazione originale e l’esperimento.

Figura 11.16 – Una tabella comparativa dei risultati di esperimento Google AdWords.

L’esperimento è stato impostato per raggiungere il 40% del traffico (è possibile aumentare o diminuire questa configurazione nel pannello di controllo, da un minimo del 10% a un massimo del 90%). Come si può notare, le performance di campagna sono migliorate con l’introduzione dell’esperimento, raggiungendo ben tre traguardi: • il CTR% è aumentato (da 5,17% dell’originale al 6,64% dell’esperimento); • il CPC medio è diminuito (da $1,26 dell’originale a $1,15 dell’esperimento); • il Costo Conversione è diminuito (da $17,74 dell’originale a $14,58 dell’esperimento). Le modifiche introdotte hanno quindi tutte le carte in regola per poter essere applicate definitivamente alle nostre campagne con pochi click. Remarketing Il remarketing è una funzione aggiuntiva a disposizione degli inserzionisti: consente di tracciare gli utenti che hanno visualizzato le pagine del nostro sito web e seguirli nella loro navigazione. Si applica soprattutto alla Rete Display e consente di visualizzare annunci in linea con quanto precedentemente visto dall’utente. Lo strumento è molto potente e consente di ottenere un ritorno degli investimenti maggiore: spesso le persone navigano sul web cercando ciò che a loro serve, ma non sono pronte o disposte a completare le azioni richieste. Attraverso il remarketing possiamo raggiungerli, ovunque essi si trovino, con messaggi specifici in base al loro precedente comportamento di navigazione, invitandoli a concludere l’azione richiesta con offerte alternative o particolarmente incentivanti.

Ottimizzare la campagna Ora che abbiamo completato il processo di creazione della nostra campagna, la fase successiva è quella di ottimizzarla: ciò significa metterla a punto in modo che siano massimizzati gli obiettivi

con il minimo costo/sforzo. Google ci mette a disposizione strumenti che ci permettono di monitorare le keyword scelte e gli annunci proposti, e di mettere in pausa una campagna, un gruppo di annunci, un annuncio o una parola chiave o di inserirne di nuove. E, soprattutto, di gestire le conversioni. Il costo per conversione è un parametro molto importante, che ci consente di stabilire l’andamento della nostra campagna e di agire in base alle policy di marketing scelte. Quanto analizzato serve a fornire le basi per iniziare a instaurare una campagna e analizzare i primi risultati. Per gestire correttamente campagne AdWords, è opportuno pianificare un piano in base agli obiettivi che si vogliono raggiungere e al corrispettivo budget a disposizione.

La Rete Display di Adwords e altri temi La Rete Display di Google è composta da oltre un milione di siti web, video e applicazioni in cui è possibile pubblicare i propri annunci, testuali e illustrati. La Rete Display era in precedenza conosciuta con il nome di Rete di Contenuti. Gli annunci possono essere automaticamente abbinati a siti web e altri posizionamenti, come le app per cellulari, quando le parole chiave selezionate sono correlate ai contenuti dei siti. Inoltre, è possibile scegliere di indirizzare gli annunci a siti specifici, a pagine che contengono argomenti specifici o a gruppi demografici definiti per età, sesso o in base alle preferenze di navigazione (gli interessi). Per pubblicare gli annunci sulla Rete Display, al momento della creazione della campagna si deve selezionare “Solo Rete Display” o “Rete di ricerca con selezione Display”.

Le campagne potenziate Nella prima parte del 2013 Google ha implementato una nuova impostazione che consente di semplificare la pubblicazione degli annunci. Ora è possibile scegliere assieme tipologie diverse di dispositivi, località e ora e giorno della settimana di pubblicazione. Una differenza rispetto al passato è che questa nuova impostazione consolida le offerte per tablet dotati di browser completi e computer/desktop. Ora non è più possibile evitare la pubblicazione su questi dispositivi o sceglierli separatamente. L’unica differenza è rappresentata dalle campagne su dispositivi mobili dotati di browser completi (smartphone), che sono ancora a parte rispetto agli altri e su cui si possono impostare l’aggiustamento delle offerte (ad esempio, inserendo -100% gli annunci non saranno pubblicati).

Google AdWords Editor Al momento della creazione di un nuovo account possiamo decidere se creare la prima campagna direttamente online, come illustrato in precedenza. Esiste, tuttavia, uno strumento più efficace, che ci consente di creare una campagna AdWords in poco tempo e in modo più flessibile. Il nome di questo tool è Google AdWords Editor, disponibile per il download all’indirizzo: http://www.google.it/intl/it/adwordseditor/. Una volta scaricatolo e installatolo, ci troveremo una interfaccia software completa di tutte le

funzionalità di creazione e gestione delle nostre campagne. I vantaggi di AdWords Editor sono molteplici e li possiamo riassumere nei seguenti punti: • velocità: creare, gestire e modificare una campagna con questo tool è molto più veloce. Adwords Editor è dotato di funzioni base e avanzate, come ad esempio il copia/incolla e il trascinamento di qualsiasi elemento della nostra campagna. Inoltre tutte le opzioni sono raggruppate sotto le voci corrispondenti; • errori e correzioni: attraverso il tool è possibile scaricare le nostre campagne senza il rischio di modificarle inavvertitamente. Possiamo effettuare le modifiche anche offline, e solo al termine caricarle e renderle attive. Lavorare online significa aumentare la probabilità di commettere degli errori e di modificare ciò che non volevamo cambiare: in questo AdWords Editor ci viene in aiuto; • gestione multipla: nel caso di gestione di più account, possiamo utilizzare lo stesso strumento, aumentando la velocità e il controllo delle operazioni che stiamo facendo su più account contemporaneamente; • sistemi di controllo e ottimizzazione: esistono una serie di funzioni specifiche, alcune presenti solo nel tool, che consentono di verificare il lavoro fatto e di ottimizzare in modo automatico le nostre campagne.

Figura 11.17 - AdWords Editor.

Esistono anche degli aspetti negativi nell’utilizzo del tool, che tuttavia sono minori o limitati rispetto ai vantaggi reali che esso porta. Ad esempio, l’utilizzo di AdWords Tool necessita di un account già aperto (non è possibile aprire un account direttamente dal software), non si possono impostare le conversioni e i dati di fatturazione, la reportistica è limitata (anche se di base fornisce tutte le informazioni per una corretta gestione delle campagne) e, infine, alcune opzioni non sono presenti o non sono ben implementate, obbligandoci a effettuare delle modifiche online, sul nostro account AdWords. Ciononostante, Adwords Editor risulta essere un tool molto efficace, capace di accelerare e

semplificare la gestione e il monitoraggio delle nostre campagne.

Non solo Google AdWords Il motore di ricerca più conosciuto e utilizzato a livello mondiale è quello che fornisce lo strumento di advertising più avanzato in termini di funzionalità e potenzialità. Tuttavia non è l’unico, e sistemi simili sono offerti anche da altri player di mercato. Tra i principali citiamo Microsoft Advertising, che consente di realizzare campagne sui motori di ricerca Yahoo! e Bing. In base al mercato di riferimento e quindi ai motori di ricerca maggiormente utilizzati nei singoli Paesi, possiamo trovare soluzioni specifiche, come ad esempio il servizio offerto da Baidu per la realizzazione di campagne pubblicitarie sul suo motore di ricerca e network di siti, similmente a quanto già descritto per Google AdWords. Tolti gli aspetti tecnici di creazione, la prima parte di questo capitolo risulta essere comunque utile, in quanto non parla degli aspetti del singolo strumento, ma di un approccio più strategico di una qualsiasi campagna di web advertising.

Come gestire una campagna SEM Le campagne atte a promuovere un sito web online vanno, come abbiamo più volte sottolineato, monitorate e pianificate. Anche una campagna SEM va opportunamente gestita al fine di individuare i costi, misurare il ROI e analizzare i feedback misurabili in conversioni (acquisti di prodotto o nuovi visitatori). Quello che proponiamo è ovviamente uno schema di massima; tipicamente, una campagna di marketing sul web ingloba in sé strategie molto complesse, che abbracciano diverse discipline e svariati settori. I passi da analizzare sono i seguenti: • analizzare il mercato, identificare i competitors, scegliere la strada da perseguire. In poche parole, pianificare la campagna; questo vuol dire segnare ogni azione svolta per poter vedere eventuali progressi riscontrabili nel tempo; • produrre i contenuti: una volta scelta la via da percorrere, dobbiamo produrre i contenuti. Per esempio, dobbiamo implementare, in base al piano stabilito: – landing page; – siti web; – blog; – forum; – banner; – video; – SMO; • attuare la campagna: dobbiamo mettere in gioco le strategie scelte e pianificate; • monitorare le azioni: ogni azione eseguita va opportunamente monitorata e contrassegnata. Questo perché, nel caso di problemi o in situazioni favorevoli, dobbiamo sapere esattamente dove intervenire per ottimizzare i risultati; • infine, è necessario un feedback costante tra pianificazione e analisi delle azioni per migliorare nel tempo i comportamenti ed essere costantemente aggiornati sulle evoluzioni del web moderno.

Queste, a nostro avviso, sono le fasi basilari per gestire in modo completo e costante nel tempo una campagna SEM di successo. Ovviamente, questo schema può essere incrementato inserendo maggiori dettagli fra i vari step. La cosa fondamentale è mantenere una costante correlazione fra azioni compiute e pianificazione, in modo tale da migliorare nel tempo la campagna SEM.

Figura 11.18 - Gestione di una campagna SEM.

Google AdSense La SEO è uno strumento che ci consente di aumentare la visibilità del nostro sito web, del nostro marchio, dei nostri prodotti. A volte è possibile sfruttare la SEO per guadagnare: questo attraverso società che offrono strumenti Pay Per Click o simili. Noi ci offriremo di ospitare sul nostro sito web annunci o banner di altre aziende, o società che hanno aderito a tali circuiti, e guadagneremo una percentuale in base ai clic effettuati sui banner o una determinata royalty in base alle conversioni. Ovviamente, i circuiti più seri analizzeranno preventivamente il nostro sito web in modo tale che esso segua in modo scrupoloso le loro linee guida. Per esempio, le principali regole da seguire per essere approvati in questi circuiti, in cui si verrà pagati in base a

una percentuale dei clic, sono le seguenti: • non fare clic sui banner: in ambito informatico, l’espressione Click Fraud sta a indicare un’azione non legale da parte di chi è in possesso di siti associati a programmi di affiliazione e Pay Per Click. Sul sito vengono inserite pubblicità che, se cliccate, fanno ottenere un ricavo. Il Click Fraud consiste nel cliccare su questi annunci per simulare la visita di utenti, che nella realtà non ci sono, verso tali messaggi sponsorizzati; • non avere più campagne di pubblicità attive contemporaneamente; • essere in linea con le direttive del circuito (tipicamente, il sito non deve avere contenuti per adulti o proporre argomenti illegali); • non mascherare gli annunci come se fossero parte integrante del sito web. Gli annunci, tipicamente quelli del circuito di Google AdSense, devono essere “distaccati” dal resto del sito, cioè deve essere visibile la scritta: “Annunci Google”; • non manomettere il codice sorgente degli annunci. Tutte queste pratiche sono da evitare per essere accettati all’interno di questi circuiti. Esistono diversi sistemi che offrono compensi in base alla percentuale dei clic provenienti dal nostro sito web verso gli annunci pubblicitari che abbiamo inserito. Il più famoso è Google AdSense. Questo perché, avendo un ampio numero di clienti, esso riesce a fornire compensi più elevati. È altresì vero che, per essere ammessi a questo circuito, bisogna rispettare regole ferree e il minimo sgarro comporterà l’esclusione. La SEO può essere di grande aiuto in questo scenario, al fine di aumentare le visite al nostro sito web e quindi accrescere le probabilità che i nostri visitatori facciano clic sugli annunci. Ovviamente, il nostro consiglio è quello di partecipare a tali circuiti solamente per siti web non aziendali. Un cliente non gradirà vedere della pubblicità mentre visita un sito web aziendale; inoltre, potrebbero comparire annunci in linea con il nostro target, con la conseguente possibilità di perdere potenziali clienti. Ora che abbiamo le idee più chiare, vediamo alcuni consigli utili per iniziare a guadagnare con la SEO attraverso l’uso di Google AdSense: • prima di tutto, leggere attentamente il contratto stipulato e le regole imposte per evitare di essere esclusi; • inserire gli annunci in posizioni facilmente accessibili all’utente; • usare colori in linea con il tema del nostro sito web e blog; • posizionare gli annunci alla fine di un testo o di un articolo: potrebbero essere utili all’utente per trovare argomenti in linea.

NOTA Altri trucchi saranno illustrati nel capitolo relativo al Black Hat SEO.

Ora vediamo come iniziare a utilizzare Google AdSense. Per prima cosa, registriamo il nostro sito web su www.google.com/adsense. Una volta completata la registrazione, il sito web sarà

analizzato dal personale preposto per vedere se rispetta le direttive imposte da Google. Quando il nostro sito web risulterà approvato, potremo iniziare a inserire gli annunci.

Figura 11.19 - Interfaccia di Google AdSense.

NOTA Recentemente Google AdSense ha rinnovato l’interfaccia grafica; potremo scegliere se utilizzare la grafica “nuova” o quella “vecchia”.

Facendo clic sulla voce I Miei annunci, possiamo vedere l’elenco delle unità pubblicitarie presenti e crearne di nuove. È consentito creare annunci per Feed RSS, siti web, unità di ricerca o per dispositivi mobile. Durante la creazione dell’unità pubblicitaria possiamo selezionare le dimensioni e i colori e definire un canale. Attraverso i canali possiamo monitorare in modo ottimale i clic. È altresì possibile collegare l’account di Google AdSense con quello di Google Analytics per gestire al meglio le visite e i clic. Facendo clic su Salva e ottieni il codice, verrà prodotto uno script da inserire all’interno del nostro sito web e in tal modo iniziare a guadagnare con gli annunci pubblicitari di Google AdSense. Dobbiamo precisare che è possibile scegliere se creare annunci solo testo, misti o con immagini e testo. Inoltre, abbiamo la possibilità di specificare se gli annunci possono essere pubblicati solamente sul dominio inserito o anche in siti satellite.

Figura 11.20 - Esempio di unità pubblicitaria generata con Google AdSense.

Abbiamo visto, sintetizzando i passaggi, come sia realmente semplice provare a guadagnare online. Attraverso la SEO, queste attività potrebbero ottenere feedback realmente interessanti, soprattutto se seguiamo scrupolosamente i consigli e le indicazioni forniti in questo libro.

SMO (Social Media Optimization) e SMM (Social Media Marketing) I social network stanno diventando sempre più uno strumento di comunicazione e promozione online, utili alle imprese: se utilizzati efficacemente e professionalmente, infatti, consentono di incrementare nuove visite verso il nostro sito web e migliorare la nostra reputazione. Il concetto su cui si basa questa ottimizzazione è: “Essendo presenti in più luoghi, avremo più probabilità di attirare nuovi clienti”. Per esempio, se la nostra azienda è presente con cartelloni pubblicitari all’interno di cinema, teatri, aziende partner, giornali e via dicendo, avrà maggiori probabilità di attirare nuovi clienti di una che è pubblicizzata solamente su dépliant pubblicitari. Ovviamente, per rendere maggiormente veritiero tale assioma, la pubblicità andrà fatta ad hoc per diverse funzionalità, come il target, il luogo in cui andremo a operare, gli interessi dei destinatari. Tuttavia, pensare di fare leva solo ed esclusivamente sul social advertising, sarebbe follia pura, poiché i social network fondano la loro esistenza sul dialogo diretto tra persone e tra persone e azienda, facendo leva su contenuti utili e interessanti, che devono essere costantemente curati e

diffusi. Infatti, a differenza di un sito web, che potrebbe rimanere invariato anche per settimane o mesi, i social network si aggiornano rapidamente, perciò richiedono uno sforzo maggiore. Se vogliamo lanciarci in questo nuovo mercato comunicativo, dobbiamo essere consapevoli che esso richiederà tempo e risorse per ottenere risultati significativi. È in questo scenario che viene ad affermarsi una nuova e interessante disciplina: il Social Media Optimization, atto a promuovere il proprio brand, la propria azienda o i propri servizi all’interno dei principali canali di social network. Per creare canali vincenti all’interno dei social network, dobbiamo: • produrre contenuti diversificati; • far parlare di noi; • incuriosire i visitatori; • creare contenuti multimediali; • stare in ascolto; • essere presenti costantemente. L’approccio moderno al marketing collegato ai social media si appoggia quindi pesantemente sulle 4 C!*, cioè: Contenuto + Contesto + Connettività + Community = Social Media Marketing Jason Jantsch definisce così il marketing applicato ai social media come le 4 C!*: “Tons of relevant, education based, and perhaps ‘user generated’ content that is filtered, aggregated, and delivered in a context that makes it useful for people who are starving to make connections with people, products, and brands they can build a community around”. Per capire quanto possano influire i social media e i social network, prendiamo in considerazione un’interessante ricerca condotta da We Are Social, “Digital in 2016”: • sono 2307 miliardi gli utenti attivi sui social media al mondo con un aumento del 10% da gennaio 2015; • in Europa gli utenti attivi lato social sono pari a 393 milioni; • i social network più usati al mondo sono, in ordine, Facebook, Tumblr, Instagram, Twitter, Pinterest e LinkedIn, come mostra la Figura 11.21.

Figura 11.21 - Grado di penetrazione dei social network a livello mondiale.

Questo ci dovrebbe invogliare ancora di più a prendere in considerazione i social network come canale comunicativo per promuovere la nostra attività o quella dei nostri clienti (nel caso fossimo SEO professionisti). Il Social Media Marketing e l’ottimizzazione dei social network prevedono l’ascolto, la presenza e la creazione di contenuti di qualità, ma anche la gestione delle community social, il dialogo con gli utenti, la costante presenza aziendale.

NOTA L’argomento trattato è molto vasto. Cercheremo di analizzare temi di attualità in linea con le argomentazioni di questo libro. Per maggiori dettagli, vi consigliamo la lettura del blog www.seobuzz.it, dove troverete approfondimenti e curiosità sul mondo Social.

Gestire i social network Prima di addentrarci e vedere come gestire i principali canali di social network, daremo una

serie di consigli applicabili in vari contesti. Ovviamente, queste linee guida dovranno essere adattate e personalizzate in base al proprio contesto (azienda, libero professionista ecc.) e al canale di comunicazione scelto (Twitter, Facebook ecc.).

Scegliere il nome Il primo passo è quello di scegliere un nome che ci identifichi all’interno dei canali in cui ci iscriveremo. Il nome è importante, perché in molti social network andrà a comporre l’URL al quale un utente ci potrà raggiungere (per esempio, in Twitter http://twitter.com/@nomeutente). Il nome andrà quindi scelto rispettando le regole viste nel Capitolo 3: • dovremo inserire in esso il nostro marchio; • dovremo inserire in esso keyword attinenti; • dovremo usare un nome utente che ci identifichi in maniera univoca. Per esempio, la ditta DN Levat produce gru idrauliche: quale potrebbe essere un nome da scegliere per i social network? Cranes DN Levat (Cranes, in inglese, vuol dire “gru”) identificherà la società all’estero. Oppure Gru Idrauliche DN, o nomi che permettano di identificare al volo di cosa si occupa la società. Tutti gli assiomi e gli esempi fatti per la scelta di un nome di dominio in ambito SEO possono essere sfruttati in questo contesto per scegliere un ottimo nome di profilo che identifichi la nostra attività anche all’interno dei social network.

Coordinare il profilo Quando ci iscriviamo a un qualsiasi canale di comunicazione online, sia esso un forum, un blog o un social network, ci verrà richiesto di compilare un profilo. Questo è un primo biglietto da visita sul web, quindi dovrà essere curato in ogni dettaglio. Per prima cosa, onde evitare problemi o possibili penalizzazioni, usiamo descrizioni differenti. Non copiamo e incolliamo un’unica descrizione in tutti i canali in cui ci iscriviamo. È utile creare profili simili ma non uguali e svilupparli in base al target di riferimento (per esempio, LinkedIn è rivolto ad aziende e professionisti, Facebook è invece un social network di fascia ampia, che racchiude diverse tipologie di utenze). Quello che scriviamo nel profilo deve essere sviluppato pensando di attirare nuovi clienti o visitatori; dobbiamo suscitare in loro curiosità e interesse. Nel caso di particolari social network, è possibile inserire un proprio profilo professionale, quindi dobbiamo prestare attenzione nella redazione del nostro CV online. Nel campo “foto” o “avatar” è buona norma inserire il logo aziendale o costruirci un’icona che ci identificherà sul web. Nel caso vi sia la possibilità di inserire una “firma”, che tipicamente verrà apposta alla fine di una discussione o di un post, prestiamo attenzione a includere keyword e link al nostro sito web. Infine, è sempre buona norma tenere aggiornato il profilo, in base a esperienze lavorative, novità aziendali o partecipazioni a eventi e fiere.

Organizzare e trovare i contatti La parte più difficile consiste nel trovare contatti e gestire quelli che abbiamo trovato con il

tempo. Per fare questo, è necessario avere un buon profilo e scegliere con cura i nostri “amici” nei social network. Se produciamo contenuti interessanti e promuoviamo il nostro business in canali verticali, dovremmo aspettarci di ricevere nuove visite e la richiesta di nuovi contatti. Ma anche noi ci dobbiamo dare da fare, perciò è opportuno preparare richieste di amicizia per invogliare nuove persone ad aggregarsi nel nostro network. Durante la fase di preparazione della richiesta di contatto è opportuno definire: • chi siamo e cosa facciamo; • perché vogliamo stringere amicizia; • cosa possiamo offrire. Inoltre, è cosa assai gradita non mandare richieste “a raffica”, ma diluirle nel tempo onde evitare di subire limitazioni o penalizzazioni da parte dei social network (che ci potrebbero catalogare come profilo di spam). Nel caso ricevessimo una richiesta spontanea di contatto, è sempre bene approfondirla per evitare di iscriverci a network a cui siamo estranei o che ci potrebbero penalizzare a livello di immagine.

Personal Branding Buttarsi nel web e nei social media senza avere un giusto piano di marketing potrebbe essere a volte “devastante” per la nostra attività. Basta un commento negativo su di noi per generare un passaparola (FEEDBACK LOOP) che in poco tempo sarà in grado di mettere in ginocchio il nostro marchio. Il web, infatti, è una vetrina che ci potrà mettere in luce e regalare maggiore visibilità, ma dovrà essere gestita con cura per evitare spiacevoli inconvenienti. Dobbiamo costantemente monitorare i canali a cui abbiamo aderito e analizzare il web per essere in grado di rispondere a commenti negativi o a situazioni che potrebbero far vedere la nostra azienda sotto una “cattiva luce”.

Misurare la reputazione nei social network Come abbiamo già visto per la SEO e il SEM, è fondamentale anche per il SMO/SMM avere strumenti in grado di analizzare il traffico ed eventuali progressi nel tempo. Per iniziare a monitorare la nostra reputazione all’interno dei social network, ci basterà effettuare una ricerca nei principali motori di ricerca affiancando il nostro nome o quello della nostra azienda al network da monitorare: per esempio, “fiat twitter”. Un’altra possibilità è quella di sfruttare strumenti di statistiche come Google Analytics o ShinyStat. Esistono, inoltre, altri servizi che ci permettono di recuperare informazioni sparse nella rete associandole a quelle dei social network, come: • www.peekyou.com • www.pipl.com • www.zabasearch.com Un’applicazione a nostro avviso molto utile è http://www.onlineidcalculator.com/, che ci

permette di verificare la nostra reputazione online.

NOTA Secondo un’indagine condotta da Adecco, da 123people e da Digital Reputation, spesso i profili mal impostati sui social network possono influenzare l’esito di un colloquio.

Figura 11.22 - Esempio di ricerca su Peekyou.com.

Si è quindi compreso che la presenza nei social network è sì importante, ma va gestita con cura, dedizione e costanza per ottenere risultati che altrimenti potrebbero risultare penalizzanti per la nostra immagine.

NOTA Il Reputation Management è un processo molto importante nel web e, soprattutto con l’avvento dei social network, sta assumendo un ruolo sempre più rilevante. Il Reputation Management è una professionalità in grande ascesa e vi sono agenzie specializzate che agiscono attraverso strumenti SEO e SEM per “far scomparire” o arretrare di posizioni, nei motori di ricerca, i commenti negativi che potrebbero danneggiare la reputazione aziendale (o personale).

LinkedIn È una sorta di networking professionale che raggruppa milioni di iscritti in tutto il mondo. È un social network rivolto a professionisti e aziende che vogliono acquistare visibilità all’interno del web moderno. Lo scopo di LinkedIn è quello di realizzare una rete basata sulla fiducia: è possibile chiedere raccomandazioni a persone con cui si ha collaborato o presso le aziende in cui si ha lavorato. Le aziende possono inoltre instaurare un proprio network e, attraverso i servizi messi a disposizione, creare annunci mirati per offerte di lavoro o opportunità di collaborazione con partner. Per cercare di posizionare il nostro profilo, migliorare la visibilità nei motori di ricerca e quindi farci trovare più rapidamente, possiamo mettere in pratica queste semplici indicazioni: • aggiornare costantemente il nostro status; • creare un profilo pubblico coerente e professionale; • chiedere raccomandazioni/segnalazioni a persone o aziende con cui si ha collaborato; • inserire i link ai propri siti web o blog. Essendo un social network dedicato a professionisti, è bene curare ogni aspetto e sollecitare l’attenzione di chi ci visita proponendo documenti o slide di nostri interventi in convention o corsi. I servizi messi in atto da LinkedIn sono potenti e, se riusciamo a instaurare una serie di rapporti basati sulla fiducia, saremo in grado di migliorare la nostra reputazione e di portare nuovi visitatori verso i nostri siti web.

Figura 11.23 - Esempio della pagina Ducati su LinkedIn.

Una nuova funzionalità di LinkedIn è Pulse, il blog di LinkedIn, molto utile per accrescere e rafforzare il proprio Personal Branding. Si può accedere a Pulse, scegliendo la lingua inglese e selezionando, dall’homepage, “Publish a post”: si comparirà un vero e proprio layout di articolo composto dal titolo, dal corpo del testo e dalla possibilità di inserire un contenuto multimediale e un’immagine di copertina al post. Scrivendo articoli su Pulse si ha l’opportunità di esporsi in prima persona mostrando le proprie competenze, la propria expertise, il proprio know-how, diffondendo le proprie conoscenze in uno specifico settore e aumentando, così, la possibilità di instaurare nuove partnership di lavoro, trovare nuove opportunità professionali, essere contattati da nuovi clienti e/o collaboratori. Se da un lato LinkedIn risulta essere uno strumento molto importante, sia per il privato che per l’azienda, dall’altro può diventare anche “pericoloso”, se gestito senza consapevolezza. Ecco, allora, cinque consigli per non commettere alcuni dei più banali (ma presenti!) errori su LinkedIn: • scegliere un’immagine del profilo consona: non sono idonee fotografie in costume o con gli occhiali da sole in testa (siamo su un social professionale!); • mantenere vivo e aggiornato il profilo con news e update; • non dimenticarsi mai di inserire i propri contatti: scopo di LinkedIn è “fare rete”; • non falsificare le informazioni: inserire solo la verità, evitando di scrivere che si è “Manager”, ad esempio, se non lo si è effettivamente. L’onestà e la trasparenza ripagano sempre. Anche e soprattutto sul Web; • usare LinkedIn per quello che è e non come fosse un sito di incontri (pratica assai odiata quanto diffusa recentemente). Sui Social l’advertising è oramai diventata fondamentale se si vuole aumentare la reach, quindi raggiungere più utenti possibili con i nostri contenuti. Anche LinkedIn, come Facebook ad esempio, consente di creare, gestire e monitorare campagne a pagamento, grazie alla piattaforma di LinkedIn Ads, che risultano essere tuttavia molti dispendiose, dato che l’offerta minima

corrisponde a 2 euro a clic. Un volta entrati con il proprio account su LinkedIn, è sufficiente selezionare, dal menù di destra, “Pubblicità” e la piattaforma mostrerà due possibilità: aggiornamenti sponsorizzati (l’equivalente dei post sponsorizzati su Facebook), che compaiono su desktop, mobile e tablet, utili se si desiderano promuovere determinati post, quindi attirare l’attenzione su contenuti ed engagement da parte dell’utenza; annunci di testo, utili per notizie flash e aumentare lead e visite al sito web (sono collocati in alto e nella tab a destra di LinkedIn). Proseguendo step by step, dopo aver selezionato la lingua, è possibile procedere alla targetizzazione per location, demografia, interessi, ma anche job position e altre numerose variabili. Il vantaggio di LinkedIn Ads consiste nella specificità del target: risulta vincente poiché, se si conosce bene il proprio target e si sa che è un target specialistico, mediante LinkedIn si raggiunge la nicchia di mercato di interesse. Lo svantaggio, invece, risiede nel fattore economico: costa tanto.

Figura 11.24 - Esempio LinkedIn ADS.

Xing Xing è un network americano nato nel 2003 e a oggi conta oltre 10 milioni di iscritti. L’idea originaria del fondatore era quella di mettere a disposizione di amici e conoscenti i contatti professionali, in modo da creare una rete di business utile ed efficace. Xing è quindi un portale molto simile a LinkedIn, che permette di inserire il proprio profilo professionale e di creare una serie illimitata di connessioni tra noi e i nostri colleghi, così come tra collaboratori e consulenti di lavoro. Il servizio ha lo scopo di far conoscere il proprio profilo professionale alle aziende che cercano consulenti o nuove assunzioni ed è soprattutto utilizzato dalle società di job recruiting online. Per generare business attraverso questo social network dobbiamo utilizzare i consigli già illustrati per LinkedIn e ricordarci che è importante una presenza costante e collaborativa.

Twitter Twitter è un servizio di microblogging che ci consente di rimanere in contatto con chi ci segue. In pratica, è possibile inserire piccoli messaggi di testo di, al massimo, 140 caratteri per dar vita al proprio network. Ogni persona che ci seguirà sarà un contatto di Follow. Più contatti avremo, più risonanza riscuoteranno i nostri post. Ovviamente, come per ogni social network, bisogna prestare una cura particolare nella compilazione del proprio profilo, scegliendo opportunamente il proprio nome utente e proseguendo con l’inserimento di link verso i propri siti web.

NOTA Se abbiamo un sito web è importante far conoscere alle persone che ci visitano la nostra presenza sui social network; è quindi opportuno inserire un link verso i nostri account (per esempio, Twitter, Facebook ecc.).

Attraverso Twitter potremo sfruttare etichette che aiuteranno gli utenti a scoprire contenuti simili o fruire di tip aggiuntivi: tale funzionalità prende il nome di hashtag.

NOTA Attraverso il sito web http://hashtags.org possiamo scoprire nuovi hashtag da utilizzare.

Per esempio, per rispondere a un utente è sufficiente inserire @username all’inizio del post oppure usare il retweet, una funzione che consente la condivisione di un tweet interessante con tutti i propri follower.

NOTA La sintassi per postare un retweet è:

In ambito SEO, oltre ai consigli comuni indicati nel corso di questo libro, è fondamentale creare post efficaci. Per farlo dobbiamo ricordare che abbiamo un numero limitato di caratteri; per tale motivo: • se abbiamo “URL lunghi”, dobbiamo utilizzare servizi come TinyUrl, che ci consentono di abbreviare la lunghezza dei link; • dobbiamo scegliere adeguatamente le keyword che compariranno anche nel title della pagina per lo specifico tweet; • dobbiamo creare tweet che suscitino curiosità. È altresì consentito collegare Twitter a Facebook, Flickr e altri social network per diffondere i propri tweet nella rete in maniera del tutto automatica. Esistono numerosi plug-in e siti che offrono servizi in grado di arricchire la nostra pagina Twitter: • mashable.com, ricco di consigli e plug-in per ottimizzare il nostro profilo; • twittercounter.com, un widget che ci permette di conoscere chi ci ha visitato recentemente; • www.twellow.com, una directory dedicata a Twitter; • www.hootsuite.com, che ci offre la possibilità di gestire in maniera centralizzata più profili di Twitter. Twitter è diventato ormai uno strumento trendy nel web moderno: offre funzionalità semplici e intuitive e permette alle persone di restare sempre in contatto. Viene spesso usato come fonte di informazione per sapere cosa accade online, anche in un determinato settore: inserendo nel campo di ricerca l’hashatg seguito da una keyword di interesse (#socialmedia), usciranno tutti i risultati presenti. Il passaparola generato da questo social network può essere coinvolgente e utile per scalare posizioni in classifica all’interno dei principali motori di ricerca.

Figura 11.25 - Profilo Twitter del Corriere della Sera.

NOTA Esistono numerosi casi di successo di aziende che, anche in un periodo di forte crisi, sono riuscite a far emergere il loro brand attraverso Twitter. Per esempio, il caso Comcast, azienda che ha lavorato con successo per gestire il servizio clienti su Twitter.

Perché un’azienda dovrebbe utilizzare Twitter? • per gestire eventi in diretta (es. fiere di settore); • per comunicare offerte e promozioni; • per esercitare un efficace servizio di Customer Care.

NOTA Vine è una app gratuita di Twitter che consente di creare microvideo di sei secondi e di condividerli su Twitter.

Twitter Ads è la piattaforma di Twitter che consente la creazione di campagne a pagamento. Non molte aziende riescono ad utilizzare Twitter Ads in modo efficace, anche perché non è semplice veicolare un messaggio in 140 caratteri e promuoverlo al giusto target di riferimento. Le campagne su Twitter si realizzano selezionando, dal menù a destra, “Twitter Ads” e decidendo quale obiettivo voler raggiungere tra: • aumento dei follower; • incremento dei click al sito web o conversioni; • interazioni con i tweet (engagement); • installazione di app o interazioni con esse; • lead; • visualizzazioni video; • obiettivo personalizzato. La piattaforma procede poi all’impostazione vera e propria della campagna: • nome; • timing; • targetizzazione (località, sesso, lingue, dispositivo usato, keyword, follower, interessi, comportamenti e così via). Segue la scelta del budget (sia giornaliero che totale) e la scelta della creatività, come la scrittura di un nuovo tweet (e l’inserimento di un’immagine) o la selezione di un tweet già esistente. La figura 11.26 mostra come come si presenta la piattaforma Twitter Ads.

Figura 11.26 - Twitter Ads.

Una recente novità in merito alla pubblicità su Twitter è relativa a un nuovo formato pubblicitario riservato agli inserzionisti (degli USA ora e del resto del mondo a breve): First View. Si tratta di un’allocazione privilegiata in alto nella timeline del social network: gli inserzionisti potranno sponsorizzare un video collocato subito sotto il primo tweet “organico” presente nella timeline. Il grande vantaggio di questa location consiste nell’immediata visibilità dello sponsored video da parte degli utenti; la grande sfida, invece, risiede nel saper creare video davvero utili, efficaci e coinvolgenti da parte degli inserzionisti. Per maggiori informazioni su First View, si rimanda al blog di Twitter: https://blog.twitter.com/2016/introducing-first-view.

NOTA Google sta apportando numerose modifiche al layout grafico nelle SERP integrando sempre più informazioni “social”. Secondo le ultime indiscrezioni Twitter e Google avrebbero trovato un accordo per fare in modo che i tweet possano comparire all’interno di Google come accadde nel 2011.

Facebook

Facebook è uno dei social network più utilizzati. Consente di condividere informazioni personali, ma non solo: è infatti possibile creare gruppi o fanpage. L’evoluzione di tale network è stata impressionante; molte persone che non avrebbero mai pensato di utilizzare il computer si sono avvicinate al mondo di Internet con il solo scopo di utilizzare Facebook per instaurare nuove relazioni sociali o trovare vecchi compagni di scuola. Attraverso Facebook possiamo: • creare un profilo personale; • creare gruppi o comunità; • creare pagine; • promuovere pagine attraverso un sistema PPC. Per prima cosa è importante sapere che Facebook (FB) ha clausole importanti sulla privacy (il materiale che verrà pubblicato al suo interno diventerà di sua proprietà): per tale motivo consigliamo di leggere attentamente ciò che andremo a sottoscrivere. Ciò sarà utile soprattutto quando dovremo creare una pagina aziendale o promuovere il nostro brand; questo social network è informale, divertente e spontaneo, e, perciò, se vogliamo sfruttarlo appieno, dobbiamo usare un approccio comunicativo differente da quello utilizzato tipicamente nelle campagne di marketing. Allegria, istintività e divertimento dovranno essere i nostri cavalli di battaglia per emergere (e questo vale anche per altri social network con caratteristiche affini). Ora che siamo pronti a utilizzare Facebook, vediamo qualche piccola accortezza per ottimizzarlo lato SEO.

Personalizziamo il nostro URL Quando creiamo un account su Facebook, il nostro nome utente sarà composto dalla combinazione nome.cognome.

Figura 11.27 - Personalizzazione URL del profilo.

Nelle impostazioni Account > Impostazioni Account > Nome utente abbiamo la possibilità di variare l’URL del nostro account. Questo permetterà alle persone di raggiungerci più facilmente e di essere meglio indicizzati in Google. Per esempio, un possibile URL sarà:

http://www.facebook.com/vostronome.vostrocognome È importante sottolineare come tale modifica possa essere effettuata solo poche volte, previa richiesta a Facebook stesso.

Ottimizzare il profilo Un profilo dettagliato e scritto in un ottimo italiano sarà sicuramente interessante. Ricordiamoci che il campo interesse sarà utilizzato dai motori di ricerca e dal search engine interno di Facebook per rintracciare il nostro profilo. Non dimentichiamo, inoltre, che Facebook ha diverse impostazioni di privacy. Per esempio, se in una conversazione pubblica, o magari sulla nostra bacheca, stiamo parlando male del nostro capo con amici o colleghi, ciò potrebbe risultare visibile anche ad altre persone. Per questo motivo è importante: • stare attenti a ciò che scriviamo e soprattutto impostare correttamente le policy di privacy; • non rendere visibili nel profilo orientamenti politici o religiosi: molte aziende, prima di assumere una persona, possono sfruttare la rete e soprattutto i social network per reperire informazioni sul candidato; • non essere volgari e non lasciarsi andare a confessioni piccanti.

NOTA Negli ultimi anni sono apparsi sul web diversi articoli in cui si sostiene che i social media e i relativi segnali Social sono la nuova SEO. Questo è molto lontano dalla realtà. Ovviamente avere un’ottima strategia Social aiuterà la visibilità della propria azienda sul web, ma questo non influirà minimamente (salvo ripensamenti di Google) sul ranking del proprio sito: • Google’s Matt Cutts: Are pages from social sites ranked differently? • The Totally Mathematical Reason Social Matters to SEO. Google ha ripetutamente negato qualsiasi uso di segnali sociali come un fattore di ranking (da non confondere con le ricerche personalizzate su Google Plus) e Bing ha abbandonato anche gli aspetti di personalizzazione dei segnali sociali e ha invece deciso di mostrare le informazioni sui social media nella loro barra laterale destra.

Le pagine di Facebook Lo strumento più utilizzato per fare marketing su Facebook è costituito dalle cosiddette “Pagine”, vere e proprie pagine in cui promuovere i propri prodotti o servizi o la propria attività. È possibile scegliere tra oltre 60 categorie da cui iniziare per creare la propria pagina su Facebook. È altresì consentito creare pagine sociali o pagine ufficiali. L’URL da cui partire per creare una pagina è il seguente: http://www.facebook.com/pages/create.php

NOTA Facebook, così come Google, è in continua evoluzione. Nel 2011 ha apportato diverse modifiche alle fan page: • nel marzo 2011 vi è stato un primo restyling grafico delle fan page in cui è stata abolita l’adozione di FBML; • nell’ottobre 2011 è stato messo in atto un ulteriore upgrade in cui tutte le applicazioni (o tab) delle pagine Facebook devono avere un URL sicuro in HTTPS. Ma le modifiche non sono terminate. Nel marzo 2012 è stato messo a punto un ulteriore aggiornamento: anche le pagine FB, così come è accaduto per i profili personali, sono state strutturate come un diario (timeline).

Figura 11.28 - Le nuove dimensioni di Facebook (2016).

Figura 11.29 - Le nuove dimensioni di Facebook (2016).

Ovviamente, dobbiamo essere accorti nel completare tutte le informazioni, allo scopo di rendere la pagina unica e interessante, soprattutto per i visitatori e i motori di ricerca. Attraverso le API fornite da Facebook e le numerose applicazioni disponibili, siamo in grado di personalizzare la nostra pagina a piacimento. La cosa più banale, ma anche la più importante, è la scelta del nome da dare alla nostra pagina, il nostro username: esso, infatti, apparirà come title, come H1 della pagina e in tutti gli elenchi e liste dove verrà mostrata la nostra fan page. Una volta scelto, esso potrà essere modificato solo su richiesta a Facebook. Facebook ha introdotto la possibilità di scegliere una “vanity URL” per le pagine che hanno almeno 25 fan. Anche in questo contesto, prima di scegliere l’URL che identificherà in modo permanente la nostra pagina, è necessario fare una piccola riflessione e decidere in maniera ponderata. Per impostare la “vanity URL” della nostra pagina, dobbiamo andare in Modifica Pagina > Modifica Impostazioni > Informazioni sulla Pagina.

Figura 11.30 - Personalizzazione del nome della pagina.

NOTA Attraverso Facebook, come abbiamo già avuto modo di vedere, è possibile pubblicizzare la propria attività a pagamento (www.facebook.com/business). Con alcuni semplici passi potremmo comparire tra la pubblicità di Facebook avendo a disposizione svariati filtri personalizzabili.

Gruppi Un altro modo per raggruppare utenti è la creazione di un gruppo. Essi, a differenza delle pagine, sono più semplici da creare e da gestire, ma hanno più limitazioni: per esempio, non è possibile aggiungere applicazioni, le interazioni sono possibili solo sulla bacheca, e via dicendo. Il nostro consiglio è quello di preferire le pagine ai gruppi se vogliamo promuovere la nostra attività anche su Facebook, oppure di utilizzarli entrambi per migliorare la nostra visibilità.

Facebook e i motori di ricerca e ADS Recentemente, grazie a un accordo tra Facebook e Bing, attraverso il motore di ricerca interno di

Facebook è possibile visualizzare risultati provenienti dal motore di ricerca di casa Microsoft. Per migliorare il posizionamento della nostra pagina Facebook all’interno dei motori di ricerca possiamo mettere in pratica qualche accorgimento: • usare il box “About” per inserire contenuto ottimizzato; • impiegare il Tab “Info” per inserire contenuti e link di utilità; • creare link ai migliori fan e ai nostri siti web; • implementare una pagina in FBML (Facebook Markup Language); • aggiungiamo le foto con le didascalie, gli eventi con le opportune descrizioni e inseriamo un forum di discussione nella pagina; • sfruttare i tag open graph; • implementare Tab personalizzati.

NOTA Non ci resta che fare un piccolo accenno ai “vecchi” (se così li possiamo definire) linguaggi di programmazione, sfruttati per creare applicazioni Facebook: FBML e FBJS. Dall’11 marzo 2011, essi sono considerati deprecati e per tale motivo non potranno essere sfruttati per creare TAB personalizzati. Avremo però una maggiore libertà grazie al supporto degli iframe: per tale motivo la nostra pagina Facebook potrà sfruttare HTML o JavaScript senza limitazioni.

Tra le recenti novità introdotte da Facebook è doveroso segnalarne almeno due: le Reaction e il Carosello. Le Reaction sono dei pulsanti, riconducibili a icone, che permettono di mostrare emozioni e stati d’animo dell’utente in merito a un contenuto che ha appena visto/sentito, come gioia, stupore, divertimento, rabbia, tristezza. Essi si azionano passando con il cursore sopra la dicitura “Mi Piace” e la scelta è tra: “Mi Piace”, “Love”, “Ahah”, “Wow”, “Sigh”, “Grr”, come mostra la figura seguente.

Figura 11.31 - Reaction di Facebook.

Il Carosello, invece, è una modalità di inserimento della immagine di accompagnamento a un post testuale che permette di ricavare le immagini immettendo direttamente l’URL del sito che si desidera che gli utenti visualizzino e sul quale atterrino. È valido per le pagine business, ma non, per esempio, per gli account personali. Il Carosello, come formato, è presente anche nella piattaforma di Facebook Ads: invece di caricare una sola immagine per le inserzioni, è possibile scegliere immagini multiple quando l’obiettivo della campagna è, ad esempio, “Clic su sito web”.

Figura 11.32 - Carosello di foto su Facebook.

Facebook è senza dubbio uno dei social network più utilizzati; a nostro avviso è fondamentale essere presenti su di esso e applicare tutte le buone regole di Web Marketing e SEO viste finora. Essere presenti su Facebook lato business e pensare di vivere di soli contenuti “organici” è però pura illusione: Facebook stesso, infatti, ha più volte ribadito come si necessario muoversi sul fronte dell’advertising per fare attività di comunicazione e promozione online in modo efficace. Detto in altri termini… “Dove vai se Facebook Ads non hai!”. Ogni azienda che si accinge a presenziare Facebook, quindi, dovrebbe sempre prevedere e destinare un budget specifico per realizzare attività di advertising su Facebook. Il punto di partenza risiede sempre negli obiettivi che ci si pone: aumento visite al sito web? Aumento delle conversioni? Engagement? Sponsorizzazione di un evento? In base ai goal preventivati, si sceglierà la tipologia di campagna più adatta o scegliendo dal menù a destra del nostro account personale “Crea inserzioni” o accedendo al Power Editor (tool professionale di creazione e gestione di campagne Facebook

Ads - https://www.facebook.com/business/help/162528860609436) o ancora usando il Business Manager (sistema che raggruppa tutte le pagine e gli account pubblicitari creati o che si vogliono creare, utile soprattutto alle aziende o a chi gestisce multiaccount e vuole avere sempre tutto sott’occhio - https://www.facebook.com/business/help/162528860609436).

Figura 11.33 - Scelta dell'obiettivo in Facebook Ads.

Una volta scelto l’obiettivo, si procede alla creazione della campagna selezionando: • geolocalizzazione del target; • caratteri socio-demografici e interessi del target; • budget della campagna; • contenuti creativi per l’inserzione (testo e immagini o video). La piattaforma consente poi di monitorare ogni istante l’andamento della campagna, potendo anche personalizzare le colonne dei KPI, e scaricare i report. Nella figura 11.34 un esempio di campagna all’attivo come si presenta su Facebook Ads:

Figura 11.34 - Piattaforma Facebook Ads.

Tra le più recenti novità introdotte su Facebook Ads annoveriamo: • il punteggio di pertinenza, visibile anche nell’immagine sovrastante. Esso spazia da 1 a 10 in base alle risposte del target in relazione all’inserzione e viene mostrato dopo che essa riceve 500 visualizzazioni; • i Lead Ads o “Raccogli contatti per la tua azienda”, visibile nella Figura 11.33. Si tratta di un nuovo obiettivo di campagna che vuole aiutare gli inserzionisti a raccogliere lead profilati verso cui poi mettere in moto specifiche campagne di lead generation o content marketing o conversion acquisition (come DEM, promozioni personalizzate e così via). Per mggiori informazioni: https://www.facebook.com/business/a/lead-ads; • il Carosello o “Multi Product Ads”, di cui abbiamo precedentemente parlato; • l’Audience Network: è un nuovo posizionamento per le inserzioni, oltre alla location “Notizie del computer”, “Notizie dei dispositivi mobili”, “Colonna destra” e su Instagram. Flaggando questo posizionamento, la pubblicità arriverà su App mobile in partnership con Facebook; • “raggiungi le persone vicine alla tua azienda”: altro nuovo obiettivo, molto utile alle aziende che hanno un esercizio commerciale, poiché consente di inserire forti call-toaction basate sulla geolocalizzazione come “Ottieni indicazioni”; • il pixel unificato per tracciare e monitorare le conversioni. Per approfondimenti: https://www.facebook.com/business/help/1686199411616919; • la generazione automatica dei sottotitoli nei video. Nell’ultimissimo periodo, infine, si sta parlando molto di Canvas, una forma pubblicitaria fullscreen ad alto potenziale interattivo. Rumors vociferano come sarà decisamente meno invasivo della classica Adv poiché Canvas Adv sarà visualizzato solo dagli utenti che lo vorranno: https://www.facebook.com/help/contact/162497704112958.

Facebook Instant Articles Facebook Instant Articles è la nuova piattaforma che offre il caricamento immediato degli articoli senza necessità di abbandonare Facebook (instantarticles.fb.com). Facebook vuole offrire agli editori un meccanismo per caricare in modo veloce e rapido le news

senza uscire dalla piattaforma stessa. Secondo una prima analisi gli Instant Articles permettono di generare il 18% di clic in più rispetto ai link verso siti esterni alla piattaforma, con il 35% in più di successive condivisioni. La piattaforma è in grado di supportare tutti i contenuti editoriali sponsorizzati come ad esempio i Branded Content. Siamo solo agli inizi e vedremo se questo nuovo modo di concepire gli articoli avrà il successo sperato. Per iniziare a provare la piattaforma andate su instantarticles.fb.com.

Figura 11.35 - Esempio di Instant Article.

NOTA Google ha risposto con AMP, pagine pensate per gli editori, che si caricano in modo “veloce” grazie a meccanismi di cache (le abbiamo già analizzate nel capitolo sul Mobile).

Google Plus Dopo il fallimento di Google Buzz, il colosso di Mountain View ha sviluppato un nuovo social network al fine di “rubare” quote di mercato a Facebook. Google Plus (+) cerca di integrare le funzionalità principali di un social network: condivisione di foto, chat, messaggistica e contatti grazie al concetto di cerchio sociale. Per accedere a Google Plus, è necessario iscriversi al link https://plus.google.com e inserire i

dati richiesti. Una volta registrati, potremo sfruttare tutte le novità e le peculiarità messe a disposizione (tra cui i social markup, già menzionati quando abbiamo parlato di html 5 e SEO).

Pagine Business Google Plus e aspetti SEO Nel novembre 2011, Google ha reso disponibili le nuove pagine business dedicate ad aziende, associazioni o semplici fan club e comunità online. Per iniziare a creare una pagina business, dobbiamo andare al link https://plus.google.com/pages/create: da qui potremo scegliere di definire la categoria di appartenenza tra quelle messe a disposizione: • attività locale o luogo; • prodotto o marca, per i brand; • azienda, istituzione, organizzazione o organismi no-profit; • arte, sport e intrattenimento per film, TV, libri; • altro. Gli step successivi ci permettono di inserire un’immagine personale, tag line, descrizione dell’attività, link al sito personale o a siti di interesse e di caricare cinque immagini per il profilo. La Figura 11.36 mostra la pagina business su Google Plus di Toyota:

Figura 11.36 - Pagina Business Toyota su Google Plus.

Quali sono le principali differenze tra i profili Google+ e le pagine business? • le pagine business sono dedicate a marchi, aziende, organizzazioni, mentre i profili solo a persone; • le pagine business, così come avviene per quelle di Facebook, non possono aggiungere persone alle cerchie, ma dispongono del pulsante +1 (inseribile come gadget al sito web);

le pagine business non hanno la possibilità di condividere contenuto con le proprie cerchie estese di Google Plus.

NOTA Vogliamo segnalarvi la funzionalità Google+ Direct Connect. Essa ci permette, attraverso l’uso delle funzioni di ricerca di Google, e utilizzando la stringa di ricerca +nomepagina, di connetterci direttamente alla pagina Google Plus ricercata. Google sta “dando” molto peso alle pagine Google+ che in alcuni contesti risultano ottimamente posizionate.

Quali sono gli aspetti SEO da considerare per le pagine business Google Plus? • Titolo della pagina: il titolo della pagina coincide con il Tag Title. • Meta Description: è invece dato dal Motto in combinazione con il campo “Mi presento” (se il “Motto” risulta “corto”).

NOTA Per i profili personali attualmente il tag description è dato dalla combinazione dei campi: • nome e campo Tagline/Motto; • sezione campo lavorativo; • datore di lavoro.

Immagini: le immagini presenti nello Scrapbook e negli album hanno alte probabilità di apparire su Google Image se opportunamente ottimizzate; è quindi necessario aggiungere una descrizione e usare nomi coerenti.

NOTA Bing non sta certamente a guardare: con l’introduzione di New Bing è possibile integrare i risultati di ricerca direttamente con Facebook. Il nuovo motore di ricerca sociale di casa Microsoft promette interessanti novità: sarà possibile avere suggerimenti automatici sui nostri amici più preparati su un determinato argomento in base a specifiche query. Non solo, i risultati potranno essere più pertinenti in base a filtri automatici influenzati da esperti del settore.

Figura 11.37 - Pagina Business Google Plus: come vengono impostati i Meta Tag.

Possiamo quindi affermare che Google Plus è, sia per i profili personali sia per le pagine business, un social network da tenere in considerazione soprattutto per le potenzialità di posizionamento e visibilità nella SERP.

NOTA Per capire le diversità e le strategie differenti adottate da Bing e da Google per gestire la sfera sociale, vi consigliamo la lettura del seguente articolo: http://tinyurl.com/socialconfronto.

Si ricorda ulteriormente la possibilità di collegare un profilo personale di Google Plus a un blog con rel=”author” attraverso l’Autorship Markup per la gestione della sfera social di Google. È possibile, inoltre, collegare una pagina di Google Plus con il sito web aziendale attraverso il

collegamento rel=”publisher”.

MySpace MySpace (http://www.myspace.com) è uno dei primi social network: la sua nascita risale al 2004 e oggi conta ancora migliaia di sostenitori. A differenza di Facebook, le pagine sono ampiamente personalizzabili, è possibile aggiungere un blog, condividere musica e opinioni. Tipicamente, questo social network è utilizzato dai giovani (dai 14 fino ai 25 anni); per questo motivo le aziende, che hanno poco a che fare con questo target di età, generalmente destinano poche risorse a tale network. Infatti MySpace, secondo gli esperti di marketing, è uno degli strumenti meno validi cui affidarsi, questo perché la sua evoluzione negli anni è stata rallentata dall’avvento di Facebook. Nonostante ciò, MySpace risulta essere uno degli strumenti indicati per specifiche tipologie di marketing, per esempio: • marketing musicale; • marketing dedicato a adolescenti (jeans, vestiti alla moda, giochi per console e via dicendo). Lato SEO, per iniziare la propria attività di marketing su MySpace, le regole per la “scrittura sul web” e la gestione di un blog viste in precedenza sono tutte valide e si sposano perfettamente con questo social network. I nostri consigli per aumentare la propria visibilità sono i seguenti: • creare un profilo con il nome del proprio brand seguito da una keyword; • creare un blog e tenerlo aggiornato; • invitare gli amici a iscriversi nel proprio network.

Figura 11.38 - Esempio di profilo su MySpace.

NOTA Per suscitare la curiosità dei visitatori, una buona idea di marketing potrebbe essere quella di fornire un widget o un regalo direttamente dal social network: per esempio, “Sconto del 5%, accedi alla nosta pagina di MySpace per usufruirne”. In tal modo cerchiamo di fidelizzare il cliente al nostro network regalandogli “qualcosa”.

YouTube Nei capitoli precedenti abbiamo visto come ottimizzare un video lato SEO. Ora ci occuperemo di YouTube, uno strumento potentissimo per aumentare la visibilità e accrescere la reputazione sul web. Il funzionamento è semplice e immediato: dopo l’iscrizione (possiamo sfruttare quella dei servizi di Google) iniziamo a creare un canale personalizzato in cui inserire video, invitare amici e colleghi a iscriversi e commentare altri video caricati all’interno del network di YouTube. Per incominciare la nostra avventura su YouTube, i passi da seguire sono molto semplici: • per prima cosa, dobbiamo scegliere un nome utente e compilare opportunamente il profilo inserendo una descrizione e il collegamento al proprio sito web, e personalizzare graficamente il layout del canale; • scegliere un titolo contenente una keyword per la quale vogliamo essere indicizzati e inserire una descrizione esaustiva e appropriata; quindi è opportuno applicare

• • •

l’ottimizzazione SEO vista nei capitoli precedenti anche in questo contesto; completare i tag e sceglierli in modo che siano direttamente correlati al video che stiamo inserendo; usare le annotazioni senza abusarne; condividere il video sui principali social.

NOTA Attraverso https://ads.youtube.com/keyword_tool possiamo analizzare le migliori keyword e ottimizzare il target di ricerca.

Una volta creato il nostro canale e ottimizzato il video, il passo successivo è quello di pubblicizzarlo (seguendo i consigli SEO già forniti) sul nostro sito web, affiancandolo a keyword di cui vogliamo migliorare l’indicizzazione (ovviamente coerenti con il contenuto del video). Ricordiamoci che YouTube è un mezzo di comunicazione molto potente, in grado di determinare un aumento significativo di visite al nostro sito web, ma questo solamente se riusciamo a produrre contenuti video coinvolgenti e a suscitare la curiosità dei visitatori. È inoltre possibile fare advertising su YouTube attraverso video sponsorizzati, il che ci consente di sfruttare campagne SEM ad ampio raggio e con alte probabilità di diffusione.

Figura 11.39 - Canale Fiat su YouTube.

NOTA Sono numerose le piattaforme di condivisione di video che potrebbero esserci utili nella nostra campagna di marketing; tra queste possiamo citare: • GoogleVideo (video.google.it) • MySpaceVideo (www.myspace.com/video) • Yahoo! Video (it.video.yahoo.com) • Bilp.tv (blip.tv)

Flickr È un social network in cui è possibile pubblicare e condividere album fotografici (ma anche video). Attraverso Flickr e le sue API, si riesce a creare un network altamente potente, molto utile per agenzie grafiche, fotografi e aziende che hanno la necessità di condividere foto e archiviarle sul web. L’attività di marketing su Flickr va eseguita con cura, e non deve essere sfacciata né aggressiva.

NOTA Ecco le linee guida di Flickr (http://www.flickr.com/guidelines.gne): “Non usate Flickr per scopi commerciali. Flickr è destinato esclusivamente all’utilizzo personale. Se scopriamo che, attraverso il vostro album, vendete prodotti o servizi oppure promuovete voi stessi, bloccheremo il vostro account. Qualsiasi altro utilizzo commerciale di Flickr, delle tecnologie di Flickr (comprese API, FlickrMail e così via) o degli account di Flickr deve essere approvato da Flickr”.

Per prima cosa organizziamo le nostre foto in album o set aggiungendo opportunamente una descrizione e inserendo per ogni foto un titolo che la identifichi. È possibile fornire una descrizione anche per il singolo set costruito; per questo motivo dobbiamo scegliere con cura il testo da inserire. Per il resto è sufficiente seguire le buone regole della SEO e iniziare a condividere le proprie foto nei social network per diffondere il proprio brand sulla rete.

NOTA Tra gli altri siti web di condivisione di fotografie possiamo citare: • smugmug: http://www.smugmug.com • pbase: http://www.pbase.com • picasa: picasaweb.google.com

Figura 11.40 - Esempio di azienda presente su Flickr: Fiat.

SlideShare È uno strumento molto potente con cui possiamo condividere documenti o presentazioni sul web. Se il nostro documento è ritenuto interessante dalla comunità, sarà certamente condiviso su altri siti web o all’interno dei principali network. Per tale motivo, questo social network non deve mancare nella nostra campagna di SMO. Da diversi test che abbiamo potuto effettuare, si è notato come i contenuti dei documenti si indicizzino rapidamente all’interno dei motori di ricerca e influiscano, inoltre, direttamente sul posizionamento del nostro sito web. Abbiamo effettuato un test molto banale: per la keyword “libro windows 7” volevamo migliorare il posizionamento di una pagina web www.ingegneridelweb.com/windows7 (non ottimizzata lato SEO). Per fare questo, abbiamo creato un utente su SlideShare, “librowindows7”, raggiungibile quindi dall’URL: http://www.slideshare.net/librowindows7 In esso abbiamo completato opportunamente tutti i campi, inserito tag adeguati e link alla pagina da indicizzare. Inoltre, è stata preparata una presentazione che è stata caricata e corredata di keyword inerenti al tema.

Figura 11.41 - Pagina su SlideShare.

Già dopo poche ore abbiamo notato che la pagina di SlideShare si era posizionata in seconda pagina in Google. A oggi, la pagina che volevamo indicizzare, senza avere applicato nessuna regola SEO, è stata collocata nelle prime quattro posizioni su Google, Yahoo! e Bing, mentre la pagina di presentazione di SlideShare si è posizionata in prima pagina per Google e Yahoo!. Questo banale test ha voluto dimostrare la potenza di questo strumento, che può influire positivamente sul posizionamento e migliorare la nostra visibilità sul web.

FriendFeed FriendFeed (http://blog.friendfeed.com) è un servizio gratuito che ci permette di seguire tutto ciò che i nostri contatti o amici hanno deciso di condividere, dai post del blog, alle foto di Flickr, ai video di YouTube, ai messaggi di Twitter sia dal sito web, sia da un Feed RSS. La velocità di indicizzazione dei contenuti è davvero impressionante, inoltre nel tag title compaiono le prime parole prelevate dai singoli contenuti. È una maniera semplice e interessante di promuovere la propria rete sociale e, allo stesso tempo, di migliorare l’indicizzazione dei contenuti.

Wikipedia Wikipedia si colloca nella sfera dei social network di informazione in cui trovare documenti, testi e recensioni. Al momento Wikipedia è la più grande enciclopedia esistente, tradotta in oltre 260 lingue. La struttura di Wikipedia è data dall’articolo, suddivisibile in più parti e sottosezioni, dalle discussioni e dalla cronologia in cui vedere le modifiche apportate nel tempo a una pagina. I moderatori di Wikipedia sono molto attivi e osservano le modifiche apportate per evitare spam o l’inserimento di notizie o informazioni non conformi. Wikipedia offre quindi un’importante opportunità per accrescere la propria reputazione online, ma va gestita in modo consapevole.

Infatti, non possiamo inserire link verso pagine promozionali: questi verranno rimossi; se vogliamo creare un profilo aziendale efficace, dobbiamo: • rispettare comportamenti e regole della comunità Wikipedia; • inserire dati attendibili e verificabili sulla propria azienda o attività; • contribuire a eventuali discussioni sull’azienda ed essere attivi nella comunità. Wikipedia è uno strumento alternativo per promuovere la propria attività, ma è molto delicato e occorre prestare attenzione alle azioni messe in atto; il risultato di un duro lavoro può essere vanificato in un attimo se non si rispettano le regole imposte da questo social network.

NOTA Mahalo (http://www.mahalo.com, servizio dismesso) era uno dei concorrenti più accaniti di Wikipedia; fondato nel 2007, è definito “human-powered search engine”. Mahalo fornisce i risultati delle ricerche effettuate tramite un lavoro consistente e continuo di un team di redattori che individua i link più interessanti per ogni singola richiesta.

Figura 11.42 - Pagina di Wikipedia di Fiat.

Pinterest Pinterest è un social media basato sulle immagini, nato come startup nel 2010 in California, con sede operativa a Palo Alto; nel 2012 ha riscosso grande successo nel mondo web. La sua struttura si basa su un insieme di bacheche, che rappresentano ciascuna un singolo argomento scelto dall’utente, all’interno delle quali è possibile classificare immagini e video, quindi i propri interessi.

NOTA Qualche dato interessante: Pinterest ha superato i 10 milioni di utenti dopo soli nove mesi dal suo debutto in rete. Nel gennaio 2012 ha generato 11,7 milioni di visitatori unici negli USA. I principali settori di interesse sono la moda, il food e il design.

Questo nuovo social network cerca di combinare l’impatto emotivo della condivisione di immagini alla Instagram e la possibilità di selezionare, organizzare e condividere i contenuti online tipica della Content Curation.

Figura 11.43 - Pinterest.

È uno strumento da tenere in considerazione poiché potrebbe rivelarsi molto utile per scopi di social media marketing e per accaparrarsi nuovi visitatori.

Foursquare Foursquare è un social network fondato nel 2009 da Dennis Crowley e Naveen Selvadurai. Il suo funzionamento si basa sulla geolocalizzazione di utenti, luoghi e attività commerciali, vale a dire sulla condivisione della posizione geografica via gps attraverso un dispositivo mobile. Per iniziare a utilizzare Foursquare, occorre iscriversi all’indirizzo https://it.foursquare.com/ e scaricare l’applicazione dedicata per il proprio cellulare. A livello personale, è possibile trovare amici, vedere dove essi si trovino in un determinato momento e avere la possibilità di fare check-in in luoghi, posti o strutture commerciali.

NOTA Se siamo la persona che ha effettuato più volte check-in in un determinato luogo, saremo insigniti del titolo di sindaco (mayor).

Per quanto concerne la sfera delle opportunità commerciali, vi è la possibilità di fare offerte speciali per gli utenti che fanno più check-in (quindi che visitano il negozio più spesso), oppure per chi diventa mayor (sindaco) in quel luogo. Tali attività vanno ovviamente studiate e integrate con il proprio piano di marketing, ma sicuramente rappresentano un modo alternativo per catturare nuovi clienti verso la propria attività.

NOTA Gowalla è uno dei principali concorrenti di Foursquare. La logica e i meccanismi di funzionamento sono pressoché identici.

Instagram È un social network dedicato alle fotografie: esso consente di scattare in tempo reale (istantaneo) foto, applicarvi eventualmente filtri (come effetti di luce, cornici e così via) e condividerle con i follower. Instagram sta conoscendo un successo incredibile grazie alla facilità di utilizzo e alla rapidità di esecuzione, soprattutto tra i giovani. Basti pensare che ogni giorno vengono caricati oltre cinque milioni di foto. Anche Instagram, come Twitter, funziona mediante TAG (@nomeutente) e Hashtag (#parolachiave). Di seguito, qualche consiglio di utilizzo di Instagram per le aziende: • scattare immagini in tempo reale; • coinvolgere celebrities/VIP; • coinvolgere blogger; • organizzare contest fotografici; • focalizzarsi sui settori vincenti: fashion, beauty, food; • dedicare attenzione alla continua gestione della community; • valutare la possibilità di utilizzare le foto con maggiore successo su altri social, come Facebook.

NOTA Instagram Direct: possibilità di inviare foto solo a una selezione di follower.

Nell’ultimo periodo sono state introdotte alcune novità su questo social che piace sempre di più, quali: • il multiaccount: mentre prima era necessario procedere con il logout per poi effettuare un nuovo login con un altro account, ora si evita lo switch continuo poiché si può passare da un account all’altro con estrema facilità. Si tratta di un grande vantaggio per professionisti e web agency, community manager, web marketer che, oltre al proprio account personale, gestiscono numerosi account clienti; • il conteggio dei like: fino a qualche tempo fa, se i like all’immagine erano inferiori a 11, il social mostrava tutti i singoli nomi delle persone che avevano espresso il proprio apprezzamento. Ora, invece, su mobile compare il numero quantitativo sempre, anche quando i like sono pari a 3 o comunque inferiori a 11; • il conteggio delle visualizzazioni: il numero delle visualizzazioni totali di un video è ben visibile subito sotto il contenuto multimediale.

NOTA Snapchat è un recente social network molto apprezzato dai giovani e giovanissimi per la sua facilità di utilizzo, perché consente di scambiarsi foto (e video di massimo 10 secondi) che si cancellano automaticamente dopo essere stati visualizzati.

Anche su Instagram è ora possibile fare pubblicità, ma è opportuno ricordare come Instagram, in realtà, non sia una piattaforma di Adv a se stante, ma rappresenti un posizionamento di Facebook Ads. Infatti, per creare sponsorizzazioni su Instagram, è necessario entrare in Facebook Ads. Ecco come fare: https://www.facebook.com/business/help/1634705703469129. Una delle novità recenti di Instagram Ads concerne i video: ora, infatti, essi hanno una durata di 60 secondi, il doppio rispetto a qualche tempo fa.

NOTA WhatsApp, Telegram e altre APP mobile sono strumenti da prendere in considerazione perché possono diventare ottimi alleati in diverse strategie di marketing.

Figura 11.44 - Formati pubblicitari su Instagram Ads.

Social bookmarking Abbiamo già visto, molto brevemente, cosa sia il social bookmarking, ossia siti nati per consentire agli utenti di salvare i propri siti preferiti e renderli disponibili da qualsiasi postazione di lavoro. Attraverso questi strumenti è altresì possibile condividere e organizzare i propri bookmark (segnalibri) con altri amici e quindi aumentare la popolarità dei siti presenti in essi. In questo contesto vi proponiamo i principali siti di social bookmarking che riteniamo importanti per le nostre campagne di marketing, ricordando che sul web ne esistono molti altri che potrebbero essere di nicchia e utili per promuovere determinate attività o servizi.

NOTA A volte la differenza tra social bookmarking e social news può essere minima: questo perché gli uni o gli altri si evolvono nel tempo verso specifici servizi che ne rendono difficile l’identificazione precisa. Per questo motivo potete trovare sul web siti categorizzati in modo differente rispetto alla trattazione proposta.

Cosa vuol dire folksonomy? Una folksonomy è una metodologia atta al reperimento e all’organizzazione di risorse web; essa consente di categorizzare queste ultime mediante etichette, definite tag, che possono essere scelte liberamente dagli utenti. Tipicamente, le folksonomy sono mantenute da siti specializzati come quelli di social bookmarking, che andremo di seguito ad analizzare. I tag sono selezionati da un namespace, senza gerarchia, che indica il termine ritenuto appropriato da un utente per descrivere una risorsa. Il namespace di tag è creato dall’utente e solitamente non controllato. Le folksonomy soddisfano due bisogni degli utenti: • find-ability: capacità di tornare a ciò che è stato memorizzato in precedenza; • knowledge organization: capacità di organizzare i contenuti che si ritengono interessanti (Al-Khalifa, 2007). Attraverso le folksonomy, inoltre, è possibile condividere sia le risorse, sia lo schema in base al quale esse sono organizzate. Secondo Al-Khalifa (Al-Khalifa, 2007), le folksonomy possono essere in grado di produrre metadati semantici. I partecipanti a una folksonomy mettono i contenuti in relazione tra loro attraverso i legami che si creano tra parole chiave identiche. Inoltre, “le relazioni semantiche che si generano, in seguito alle combinazioni di diversi tag, danno vita a grappoli di significati che selezionano in modo spontaneo gruppi di contenuti all’interno del web” (Maistrello, 2006). I sistemi di “tagging” non rappresentano un’alternativa ai tradizionali sistemi di classificazione gerarchica, ma introducono nuove modalità di categorizzazione e nuove applicazioni per organizzare e condividere conoscenza (Quintarelli, 2005).

NOTA Fonti e riferimenti: http://www.scribd.com/doc/27375092/Folksonomy-e-Delicious

Technorati Technorati (http://technorati.com) ha un grande afflusso di visite, e per questo motivo può essere

un ottimo mezzo per migliorare la visibilità dei propri Feed RSS e blog. Infatti, è possibile inserire più siti web o blog che abbiano un Feed RSS per iniziare a partecipare a questo interessante network. Vediamo i passi per aggiungere un blog a Technorati: • innanzitutto dobbiamo creare un account e aggiungere un nuovo blog, specificando il Feed RSS e altre informazioni, tra cui tag e categoria; • successivamente dobbiamo aggiungere il codice di Claim in un post sul blog. Tale codice avrà una forma del tipo “W7X2YRGAU2S4”: dovremo quindi creare un post sul blog contenente nel titolo e nel corpo il codice specifico, in maniera tale che il nostro Feed RSS venga correttamente aggiornato; • infine, dobbiamo verificare il nostro token di richiesta, quindi, dopo aver pubblicato il post sul blog con esso, dobbiamo loggarci e dal nostro profilo fare clic sulla voce Check Claim per il nuovo blog e successivamente su Verify Claim Token. A questo punto, entrati nel circuito, potremo cercare di aumentare la nostra popolarità con questo interessante social bookmarking.

Del.icio.us Delicious (http://www.delicious.com/) ci consente di salvare e condividere i nostri siti preferiti. Ultimamente, sono sorti diversi imprevisti e difficoltà per questo social network, infatti nel dicembre 2010 il product team di Yahoo! ha esposto le strategie per il futuro prossimo. La cessione di Delicious fa presumere che l’azienda di Sunnyvale sia in difficoltà. MyBlogLog, piattaforma di blogging offerta da Yahoo!, ha chiuso qualche mese fa; le ricerche di Yahoo! sono ora gestite da Bing di casa Microsoft. Nei piani di Yahoo! al momento non rientrano più MyBlogLog, Yahoo! Buzz e Delicious, che probabilmente verranno venduti o dati in concessione.

StumbleUpon Questo strumento (http://www.stumbleupon.com/) è un ibrido tra un social network e il social bookmarking. Dopo la registrazione è fondamentale completare il campo interessi e installare l’apposita toolbar. Quest’ultima ci consente, durante la normale navigazione, di eseguire svariate operazioni, tra cui: • segnalare il gradimento (attraverso il pulsante “I like it”) o il non gradimento (attraverso il pulsante “pollice verso”) di un sito web che stiamo visualizzando; • recensire, dopo aver approvato o disapprovato, i siti della nostra navigazione; • visualizzare i siti che il sistema considera rilevanti per le nostre ricerche. Attraverso StumbleUpon possiamo scoprire nuovi siti o blog che parlano degli argomenti che ci interessano e allo stesso tempo segnalare nuove pagine.

Diigo

Diigo (www.diigo.com) è un sito che viene tipicamente classificato come social bookmarking, ma, in realtà, le funzionalità che esso offre sono veramente molte e varie. Per utilizzare a pieno i servizi di Diigo, come avviene anche per StumbleUpon, è necessario registrarsi e installare la Diigo Toolbar. Tra le varie opzioni a disposizione annoveriamo: • gestione del profilo; • inserimento di URL di risorse web; • inserimento di annotazioni; • gestione e condivisione di bookmark e annotazioni; • creazione di una rete di amici e gruppi. Questo social network, a nostro avviso, è veramente interessante e non dovrebbe mancare in una campagna SEM e SMO.

NOTA Tra gli altri social bookmarking possiamo citare: • Google Bookmarks (https://www.google.com/bookmarks) • Pinboard (http://pinboard.in) • Historio.us (http://historio.us) • Evernote (www.evernote.com) • Xmarks (www.xmarks.com) • Instantpaper (http://www.instapaper.com)

Social news I siti di social news permettono ai webmaster di condividere i propri contenuti all’interno di network con ampia visibilità. Questo consente di aumentare il traffico verso il nostro sito web e quindi di sperare anche in un miglioramento nell’indicizzazione se il nostro articolo sarà diffuso e condiviso nella rete.

Digg Digg (digg.com) fa parte della categoria dei siti di social news; attraverso questo strumento possiamo inserire una news o un post semplicemente digitando il suo URL. Possiamo inoltre associare il Feed RSS del nostro sito web o del nostro blog al fine di automatizzare il processo di diffusione delle informazioni. Più voti otterremo, più probabilità avremo che il nostro post venga letto e compaia nella home page di Digg. Questo ci consentirà di aumentare sensibilmente le visite, il che si dimostra particolarmente utile per il lancio di un nuovo prodotto o di un nuovo brand.

Reddit Reddit (http://www.reddit.com/) funziona come tutti i siti di social news: basta inserire l’URL di una pagina o di un video da condividere e, se questo è ritenuto interessante dalla comunità, potremo aumentare sensibilmente le visite verso il nostro sito web.

Newsvine Newsvine (http://www.newsvine.com) è un social news che aggrega notizie degli editori e quelle inserite dagli utenti ed è gestito da un valido sistema di votazione.

Scoop.it! Scoop.it! (http://www.scoop.it/) consente di raccogliere e condividere online materiali rilevanti per le persone interessate all’ambito di attività della nostra azienda.

I migliori social news italiani Se abbiamo articoli in italiano, esistono social news molto validi, che ci permetteranno di aumentare in maniera significativa il traffico verso il nostro sito web. Tra questi, elenchiamo quelli che, a nostro avviso e in base ai test effettuati, risultano essere i migliori: • Diggita.it • Fai.informazione.it • FaiNotizia.it • OkNotizie.virgilio.it • UpNews.it • ZicZac.it • liquida.it

Altri social network Quelli che abbiamo esaminato sono solo una minima parte dei social network presenti sul web. Quando lanciamo una campagna SEM orientata all’SMO, dobbiamo prendere in considerazione diversi aspetti, tra cui il target di mercato, l’internazionalizzazione e la tipologia di prodotto o servizio da promuovere. Per questo, è utile conoscere anche social network di nicchia o più propensi a promuovere determinate tipologie di prodotti o di attività. Illustreremo di seguito altri social network che potrebbero risultare utili per le nostre campagne di promozione sul web.

Hi5 Hi5 (hi5.com) è molto diffuso in America Latina, Asia, Africa, ma anche in Europa, e conta oltre 90 milioni di utilizzatori. Questo ci fa capire come sia utile sfruttare tale network per promuovere la propria attività in specifiche nazioni, dove esso è più utilizzato. Il layout di Hi5 è poco personalizzabile; ampio spazio viene dato alla semplificazione e alla facilità di utilizzo.

DeviantArt Un portale dedicato agli artisti, ai fotografi e a chi ama l’arte. DeviantArt (http://www.deviantart.com) è un ottimo social in cui mostrare le proprie opere e accrescere la propria reputazione online, dedicato a specifici settori (musei, artisti, fotografi ecc.).

Yelp Yelp (http://www.yelp.com) è diventato il leader statunitense in “guide locali informative”. È possibile promuovere attività locali attraverso questo potente strumento, particolarmente indicato per i locali di ristorazione.

Scribd Scribd (http://www.scribd.com) è un ottimo strumento per realizzare documenti, ebook o altri contenuti condivisibili. Il suo stile è molto vicino a quello di SlideShare, anche se Scribd risulta al momento meno popolare e non ancora molto diffuso (benché le sue pagine e i suoi contenuti vengano perfettamente indicizzati dai principali motori di ricerca).

Epinions Epinions (http://www.epinions.com) è un sito attualmente in lingua inglese in cui è possibile recensire prodotti. Risulta essere un ottimo strumento con cui ottenere traffico qualificato e riveste una notevole importanza per quanto concerne il Brand Marketing e la reputazione online. Va usato con cautela e devono essere opportunamente gestiti eventuali commenti o recensioni negative.

Hubpages Hubpages (http://www.squidoo.com) è un portale web che consente di creare in modo rapido e intuitivo pagine web, sfruttando modelli standard. Il servizio consente di inserire contenuti con estrema facilità, creando per ognuno di essi una pagina, chiamata “lente”. Il suo successo deriva dal fatto che Squidoo permette di inserire pubblicità nei propri articoli e quindi di guadagnare dalla pubblicazione degli stessi. I principali vantaggi derivanti dall’utilizzo di Squidoo sono: • possibilità di aumentare la popolarità nei motori di ricerca; • indicizzazione delle nostre lens; • nessun limite sul contenuto e possibilità di inserire pubblicazioni illimitate; • facilità di creazione e utilizzo delle lens. A nostro avviso, Squidoo è uno strumento che non dovrebbe mancare in una campagna di Web Marketing.

Viadeo Viadeo è un business social network (http://www.viadeo.com) utilizzato da coloro che vogliono aumentare le opportunità di business, la reputazione online, e gestire e sviluppare una rete di contatti professionali. La piattaforma è multilingua e si prefigge, tra i principali obiettivi: • la possibilità di migliorare le opportunità di business dei propri membri; • l’aumento della visibilità e della reputazione in rete dei propri iscritti, consentendo loro anche lo sviluppo della propria rete di contatti professionali. La sede principale di questo network è a Parigi, ma la cosa interessante è la presenza di un team per ogni Paese in cui esso opera (tra cui anche l’Italia). Principale concorrente di LinkedIn, Viadeo è un business social network da tenere in considerazione per migliorare la propria reputazione professionale sul web.

NOTA Ovviamente non possiamo citare tutti i principali social esistenti anche perché nascono e muoiono in maniera molto veloce e mutano anche le loro funzionalità in base agli aspetti di mercato; tra gli altri possiamo annoverare: • ello.co • Peach • Snapchat • Venmo • Shots • Telegram

Conclusioni e punti salienti del capitolo In questo capitolo abbiamo visto sia concetti di Search Engine Marketing in particolar modo focalizzando l’attenzione su AdWords e abbiamo introdotto concetti basilari sul mondo dei Social Media. Cosa ricordarsi? • Le campagne SEA vanno impostate con cura per ottenere risultati soddisfacenti. • È importante analizzare il target di riferimento e impostare delle landing page ad hoc per massimizzare le conversioni. • I Social Media sono strumenti di marketing potenti. • È opportuno gestire in modo appropriato la propria reputazione online o quella aziendale. • È fondamentale integrare Social Media, ADV e SEO in un processo strategico globale e strutturato per ottenere il massimo.

“Una delle strategie di marketing più potenti del Novecento è regalare una cosa per far sorgere la domanda di un’altra.” (Chris Anderson)

Capitolo 12 SEO: come gestire le penalizzazioni Per combattere contro lo spam e le tecniche di ottimizzazione aggressive, i motori di ricerca hanno migliorato e aggiornato i loro algoritmi. In questo capitolo vedremo cosa potrebbe portare a una penalizzazione, le tecniche che bisognerebbe evitare per condurre un progetto SEO “pulito” e i principali filtri applicati dai motori di ricerca (alcuni solo “teorici”, di cui non si ha una conferma matematica) che potrebbero sfociare in una penalizzazione, cioè un declassamento di posizione di un sito web nella SERP, o addirittura nella rimozione dall’indice di ricerca. Possiamo individuare tre concetti molto simili tra loro in questo scenario: • penalizzazioni: comportano tipicamente un declassamento in SERP del nostro sito web; • sito bannato: esclusione totale nella SERP del motore di ricerca del nostro sito web; • filtri: molto simili alle penalizzazione; il sito non viene mostrato nella SERP in base a determinate ricerche o combinazioni di keyword.

Tipi di penalizzazioni per Google: manuali o algoritmiche? Dopo gli ultimi aggiornamenti in materia, tra cui Hummingbird, è bene sottolineare che esistono due tipologie differenti di penalizzazioni: manuali e automatiche o algoritmiche: • le penalizzazioni manuali, che denotano una perdita di posizioni all’interno delle SERP di Google, derivano da un’azione manuale effettuata generalmente dai Quality Rater di Google. Se siamo in questo scenario, lo possiamo notare grazie a una segnalazione diretta che arriva nel Google Webmaster Tools; • le penalizzazioni automatiche sono il frutto di situazioni anomale intercettate dagli algoritmi di Google. Questo fa sì che il nostro sito web perda visibilità nella SERP per determinate parole chiave. C’è differenza tra ban e penalizzazioni e tra azioni manuali e algoritmiche, anche se spesso tali termini vengono usati come sinonimi. Per esempio, un update di sistema può essere inteso come una modifica alle strutture fisiche o ai meccanismi interni di funzionamento del motore. Un update di sistema può comportare oscillazioni in SERP che, tuttavia, dovrebbero essere difficilmente percepite. Per update algoritmico si intendono invece modifiche agli algoritmi. Gli update algoritmici comportano oscillazioni nei risultati di ricerca, come nel caso di Penguin e Panda.

NOTA Nei casi di Penguin e Panda alcuni ritengono che si possa trattare di filtri algoritmici (classificatori di risorse) e questo li qualificherebbe come una sottospecie di update algoritmici. In realtà l’espressione “penalizzazione algoritmica” è impropria. Infatti, Matt Cutts in un’intervista a Search Engine Land ha dichiarato che il team web spam di Google usa la parola “penalty” solo nel caso di azioni manuali. Nonostante questo, nella nostra trattazione useremo spesso l’espressione “penalizzazione algoritmica”.

Link spamdexing Tra le prime pratiche utilizzate per creare spam al fine di manipolare artificialmente il posizionamento, vi sono quelle basate sui link. Esse sono nate prima, nella fase di decollo dei motori basati sulla link popularity, e tramontate prima, con il subentrare di altri parametri nel calcolo della rilevanza e l’introduzione di appositi filtri. La tecnica principale si chiama link farm e consiste nella creazione, per lo più automatizzata, di un gruppo di siti che si linkano reciprocamente con migliaia di collegamenti. I motori di ricerca hanno debellato le link farm, identificando specifici attributi associati alle loro pagine ed escludendo queste ultime dall’indice e dalle SERP. Esiste poi un’altra pratica, la compravendita di link, sul cui funzionamento c’è poco da dire: la facilità di identificazione è qui data dalla frequente decontestualizzazione dei link acquistati rispetto al tema del sito e alla loro conseguente svalutazione.

Shadow domain Tale tecnica consiste nello sfruttamento dell’alta rilevanza assegnata da Google alla descrittività del nome del dominio. Viene registrato un dominio ombra, creato appositamente per attirare traffico, grazie alle keyword presenti sul nome del dominio stesso. Tale traffico viene rediretto su un altro sito; talvolta i contenuti dello shadow domain sono interamente replicati da quelli del dominio principale; in questo caso si parla di mirror domain. In entrambi i casi le sanzioni variano da forti penalizzazioni di ranking all’esclusione dall’indice.

Cloaking Si tratta di un metodo per presentare contenuti differenti a seconda dello user agent che ne fa richiesta. Questa tecnica non sarebbe teoricamente da considerare spam, dal momento che forme minori di cloaking vengono messe in atto, per esempio, per far visualizzare versioni diverse dello stesso sito a seconda del browser dell’utente, o della risoluzione del monitor. Tuttavia, ne è nato anche un utilizzo fraudolento, che consiste nella presentazione agli spider della versione ottimizzata di un sito, che, quando visionato dall’utente, appare completamente diverso. Tale tecnica viene considerata in maniera molto rigida e la sua scoperta comporta l’immediata cancellazione dall’indice. Per vedere se stiamo procedendo nella maniera corretta, possiamo

utilizzare la cache di Google per analizzare se ciò che vediamo è realmente visto anche dallo spider del motore di ricerca.

NOTA Per esempio, un redirect JavaScript è una pratica molto pericolosa e ritenuta deprecabile per svariati motivi: accessibilità, non conformità a W3C ecc.:

Keyword stuffing Già incontrata in precedenza, consiste, in sostanza, nell’eccessivo ricorso alle parole chiave. Tale abuso è attualmente caduto in disuso rispetto al passato, quando le parole chiave venivano ripetute ossessivamente in ogni punto della pagina al fine di aumentare la rilevanza, o addirittura venivano create pagine (doorway page) con testo invisibile e contenuto composto dalle sole keyword. Un esempio di testo con un elevato uso di keyword stuffing è il seguente:

Un freno a tale pratica è stato posto dall’introduzione, negli algoritmi, di elementi che calcolano un keyword pattern: che sono cioè in grado, durante l’analisi testuale di un documento, di valutare la normale distanza che le keyword devono avere l’una dall’altra per formare un testo coerente: in questo modo si riesce a stabilire, con buona probabilità, se un documento è stato scritto in modo naturale o se sono state messe in atto tecniche di stuffing. Ogni pratica di creazione di testi che porti un documento ad allontanarsi significativamente da questa coerenza provoca la penalizzazione e la potenziale esclusione dalle pagine dei risultati.

Doorway Page Un sunto di tutte le tecniche di spamdexing è costituito dalle Doorway Page.

NOTA L’utilizzo di tale tecnica nel passato ha fatto vittime illustri: nel 2006 il sito Bmw.de è stato temporaneamente escluso dall’indice, salvo essere poi reintegrato in brevissimo tempo tra le polemiche, per la percezione popolare di un trattamento preferenziale da parte di Google.

Tale pratica consiste nella costruzione di pagine web ottimizzate per i motori di ricerca e non per gli utenti, con lo scopo di aumentare il traffico verso un determinato sito, come avviene nel caso dello shadow domain. Il meccanismo prevede, nella maggior parte dei casi, la creazione, tramite appositi tool, di pagine autogenerate, focalizzate su un’unica keyword o frase keyword, dunque prive di senso logico e di utilità alcuna, oppure pagine con contenuti duplicati (si veda mirror domain), che, se cliccate, redirigono alla pagina del sito sul quale si vuole creare traffico. L’utilizzo del termine doorway ha ormai assunto questa accezione negativa per via della sua quasi identificazione con il cloaking, prerogativa non totalmente priva di fondamento. Bisogna, tuttavia, riconoscere che è possibile lavorare sulle doorway page in maniera limpida, senza essere ingannevoli per l’indice né per l’utente: attraverso, cioè, la creazione di landing page in numero limitato, di reale utilità per l’utente, di argomento attinente al sito principale, che colleghino tramite link allo stesso. In questo modo si può aumentare la link popularity del proprio sito, essere presenti sui motori in base a più keyword, risparmiando agli utenti aspettative fuorvianti rispetto ai reali contenuti, permettendo loro di scegliere se atterrare o meno sul sito principale (possibilità impedita dalla redirezione automatica), evitando infine di ibridare tale tecnica con il cloaking, il che porterebbe all’accusa di spam e a penalizzazioni varie.

Testo nascosto Sono ormai passati molti anni da quando, senza conoscere le basilari regole della SEO, costruii un sito web ludico. Nella sua home page avevo inserito un elenco interminabile di keyword, dando al testo lo stesso colore dello sfondo. Il sito si è posizionato in Google e tutto procedeva correttamente. Dopo qualche settimana ho ricevuto un’e-mail da Google in cui mi veniva spiegato il motivo della mia esclusione dall’indice di ricerca di Google: avevo utilizzato del testo nascosto. Da allora compresi l’importanza della SEO e di condurre campagne ad hoc onde evitare sgradevoli penalizzazioni.

Figura 12.1 - E-mail di Google che notifica una penalizzazione per testo nascosto.

Le penalizzazioni per testo nascosto vengono date quando: • il colore del testo risulta uguale o molto simile a quello dello sfondo; • la dimensione dei font è uguale a zero (o molto prossima); • si ha una sovrapposizione di immagini; • si ha un utilizzo di CSS o di JavaScript per non far comparire il testo (per esempio, con l’utilizzo di DIV nascosti: “visibility: hidden”).

NOTA L’elemento è pensato per essere utilizzato come contenuto alternativo nei casi in cui lo scripting non è attivato per il browser web o in situazioni in cui il browser non supporta lo scripting (www.w3.org/TR/REC-html40/interact/scripts). Per questo motivo non è da considerarsi testo nascosto, anche se non dobbiamo mai abusare di pratiche “sporche” all’interno di questo tag.

Il consiglio è quindi molto semplice: evitare l’utilizzo di testo nascosto per scalare in modo inappropriato le posizioni nella SERP: prima o poi Google ci troverà e ci penalizzerà con l’esclusione dall’indice dei risultati di ricerca.

NOTA Alcune tecniche utilizzate per la gestione di menu con animazioni o la creazione di particolari effetti potrebbero sfruttare stratagemmi non molto graditi ai motori di ricerca e quindi soggetti a probabili penalizzazioni. Questo è vero in casi eclatanti in cui l’utilizzo delle pratiche menzionate porta un reale vantaggio a chi le attua. Negli altri casi non dovrebbero esserci problemi, ma, in caso di penalizzazioni, sappiamo che esse potrebbero essere scaturite da una errata interpretazione delle tecniche (per esempio, sovrapposizione di immagini) usate per la creazione di tali menu o animazioni.

Testo duplicato: misure contro Google Panda Per contenuti duplicati intendiamo la possibilità di avere nel web porzioni di testo molto simili o addirittura identiche consultabili da URL o domini differenti. Questo è uno dei problemi principali che affliggono i motori di ricerca perché, grazie ai ping e a quelli che definiamo “veicolatori di notizie”, è molto probabile che un documento o un testo risulti presente sul web nella stessa forma. Per combattere questo malcostume, i motori di ricerca utilizzano appositi filtri che consentono di individuare l’origine del testo, la sua “età” e quindi di stabilire se si tratta o meno di un contenuto duplicato.

NOTA Google mette a disposizione una guida molto dettagliata in cui vengono spiegate le principali tecniche da adottare nel caso di contenuti duplicati: http://tinyurl.com/google-contenuto-duplicato Anche Yahoo! e Bing hanno le loro linee guida consultabili: http://tinyurl.com/yahoo-contenuto-duplicato e: http://tinyurl.com/bing-contenuto-duplicato

Cadere in una pratica di contenuto duplicato è molto semplice; quelle che elencheremo sono solo alcune situazioni che potrebbero portare a produrre contenuti duplicati: • copiamo i contenuti riportati in un altro sito citandone solo la fonte (o con violazione del copyright), senza apportare modifiche a questi ultimi; • il medesimo contenuto è presente all’interno di più pagine del medesimo sito. In questo caso, se si tratta di pagine create per migliorare l’accessibilità o per consentirne la stampa, i motori di ricerca indicizzeranno solo una versione. Nel caso, invece, si tratti di contenuto duplicato senza giusta causa, potremmo subire penalizzazioni nella SERP nei casi eclatanti; • il nostro contenuto viene utilizzato da altri siti web. Questo non provoca nessuna penalizzazione, ma l’eventuale contenuto duplicato verrà filtrato e non apparirà direttamente nella SERP; • forum e gruppi di discussione: in questi casi è molto probabile la presenza di citazioni o di testi duplicati. Tipicamente, i motori non penalizzano (o filtrano) tali situazioni se esse rientrano nei canoni consentiti; • siti con cataloghi di prodotti o di e-commerce in cui alcuni commercianti riportano le schede tecniche dei produttori. Ovviamente tale pratica è molto utilizzata anche da siti famosi, e le penalizzazioni o i filtri applicati da parte dei motori di ricerca sono molto

• •

improbabili. Più che altro, sono pratiche che portano a produrre contenuti duplicati, ma, a nostro avviso, non sono identificabili come improprie; siti di annunci: molto spesso un utente inserisce il medesimo testo in più siti per avere un maggior riscontro (è sempre preferibile variare il contenuto del testo); URL con caratteri minuscoli e maiuscoli linkati in modo diverso possono essere interpretati in maniera differente dai motori di ricerca, generando URL duplicati. Per esempio, richiamare L’URL www.miosito.it/progetto-seo.html da un link interno e utilizzare il link www.miosito.it/Progetto-Seo.html da un’altra posizione potrebbe portare i motori di ricerca a pensare che gli URL siano differenti anche se puntano al medesimo contenuto.

NOTA Per evitare di incappare in contenuti duplicati, possiamo in alcuni casi sfruttare la canonizzazione degli URL, come analizzato nei precedenti capitoli.

Per cercare di capire come evitare di incappare nel filtro dei contenuti duplicati, analizzeremo alcuni brevetti: • Methods and apparatus for estimating similarity (www.google.com/patents/US7158961); • Document detection in a web crawler system (http://www.seobythesea.com/?p=3114).

NOTA Esistono svariati brevetti rilasciati dai motori, per esempio Yahoo! (patents: 5.970.497 e 6.138.113 ecc.), Google (6.615.209 e 6.658.423 ecc.) e Bing (20060248066 e 20050210043 ecc.): http://tinyurl.com/test-google-dup.

Figura 12.2 - Schema di base per l’individuazione dei contenuti duplicati.

Dobbiamo capire che il rilascio di un brevetto o di una feature non implica che tali funzionalità siano state utilizzate dai motori di ricerca o siano ancora in uso. Solitamente i brevetti pubblicati sono “vecchi” di alcuni anni e quindi potrebbero risultare attuali. L’analisi di questi brevetti ci serve per cercare di capire eventuali comportamenti riscontrati nei principali motori di ricerca. Detto ciò, riportiamo alcuni spezzoni che riteniamo significativi per cercare di capire come si potrebbero comportare i motori di ricerca nel caso di contenuti duplicati; ecco uno spezzone di un brevetto di Google:

Sono state implementate tecniche di rilevazione per l’individuazione di contenuti duplicati; esse possono assegnare un numero di impronte digitali (fingerprint) a un documento dato da: i. estrazione di particolari parti o spezzoni di testo da un documento; ii. assegnazione delle parti estratte da una o più liste di documenti predeterminate; iii. generazione di un’impronta digitale per ciascuna delle liste popolate. Due documenti possono essere considerati near-duplicate (duplicati) se una delle loro impronte digitali combacia. Tra le altre parti rilevanti tra i brevetti troviamo: Una delle tecniche per rilevare la presenza di contenuti duplicati consiste nell’utilizzo di query rilevanti da utilizzare per confrontare parti dei documenti che sembrano avere somiglianze. Quindi, prima di procedere al confronto di due documenti somiglianti, si può procedere in base all’utilizzo di query. Le informazioni ritenute rilevanti per una determinata query vengono estratte dal documento al fine di confrontarle per scopi di somiglianza con altri testi.

NOTA Tra i brevetti è interessante anche quello di Yahoo! sul problema dei siti basati su “template”. Secondo tale brevetto, sarebbero possibili il riconoscimento di duplicati “falsi positivi” per quelle pagine che hanno pochi contenuti ma template identici, e la classificazione in “testi duplicati non rilevati” per quelle pagine con lo stesso contenuto, ma che utilizzano template differenti.

Infine, analizziamo più nel dettaglio il brevetto “Duplicate document detection in a web crawler system”. Il motore di ricerca, in fase di scansione, individua una serie di documenti con il medesimo contenuto. In funzione di opportune metriche, indipendenti dal tipo di query, viene stabilito quali documenti devono essere inclusi nell’indice e quali devono essere filtrati. Il motore di ricerca assegna a una classe di documenti duplicati un fingerprint, una sorta di codice identificativo che, in sostanza, individua un contenuto comune a tutte le pagine in questione. Tutte le informazioni relative al set di documenti duplicati vengono memorizzate in forma di dati strutturati. Quando il motore di ricerca individua un nuovo documento, prima di processarlo effettua un confronto con gli altri documenti già memorizzati. Nel caso vi sia una coincidenza di dati, il nuovo documento viene marcato con il fingerprint relativo a una specifica classe di duplicati. In poche parole, il motore di ricerca classifica i contenuti con un codice identificativo: pagine con lo stesso

contenuto possono condividere lo stesso codice. Un aspetto molto interessante sono i crawling layer. Google classifica gli URL usando tre livelli di scansione: • livello base: contiene gli URL delle pagine che vengono scansionate periodicamente; • livello daily: contiene gli URL delle pagine che richiedono una scansione giornaliera; • livello real-time: contiene gli URL di risorse che devono essere scansionate più volte al giorno, anche a intervalli di pochi minuti (per esempio, Tweets). Una pagina viene assegnata a uno specifico layer in funzione della frequenza di aggiornamento e di altri indicatori (PageRank in primis). Per ciascuna pagina, inoltre, viene calcolato il PageRank e viene generata una mappa dei link e degli anchor text. A questo punto la domanda è: quali documenti appariranno nei risultati di ricerca? I componenti fondamentali in gioco sono due: il modulo Content Filter e il DupServer (il server che contiene le informazioni relative ai duplicati). Quando viene individuata una nuova risorsa, il Content Filter consulta il DupServer per capire se il documento sia o meno un duplicato. Il criterio che Google utilizza per filtrare i documenti duplicati sembra essere fondamentalmente basato sul PageRank, ma le caratteristiche dell’algoritmo, se non altro, ci garantiscono che a parità di PR viene privilegiata, di fatto, la pagina indicizzata prima. Quindi, dall’analisi dei brevetti, emerge come Google, per combattere lo spam e i contenuti duplicati, combini più filtri assieme in modo da individuare la fonte principale. I criteri di scelta prevedono: • la data di creazione del documento; • una metrica basata sul ranking della pagina contenente il documento; • informazioni sull’anchor text; • informazioni sui link in entrata e in uscita; • la struttura sull’URL della pagina; • informazioni sulla popolarità; • qualità del sito; • età del sito; • altre informazioni correlate. Ovviamente, queste sono solamente deduzioni e non è detto che i motori di ricerca si comportino realmente così. Concludendo, vogliamo sottolineare che il contenuto duplicato, nella stragrande maggioranza dei casi, di per sé non è una penalizzazione, bensì un filtro applicato per fornire risultati migliori; lo afferma anche Google (http://googlewebmastercentral.blogspot.com/2008/09/demystifying-duplicate-contentpenalty.html). La penalizzazione da contenuti duplicati è uno dei falsi miti della SEO (può essere applicata solo in casi estremi), altrimenti tutti gli aggregatori di notizie e di comunicati stampa sarebbero esclusi dai motori di ricerca e non avrebbero motivo di esistere (caso eclatante in Italia è liquida.it). Ovviamente è un aspetto a cui prestare attenzione per evitare di “cadere” in questo spiacevole filtro.

Individuare e gestire i contenuti duplicati Abbiamo illustrato, con l’aiuto anche di esperti del settore, il problema dei contenuti duplicati; ora prenderemo in considerazione azioni da mettere in atto per gestire e individuare tali scenari. Come è possibile individuare i contenuti duplicati? Esistono diverse tecniche; quelle che noi consigliamo sono le seguenti: • Copyscape (www.copyscape.com): è un tool gratuito che ci permette di vedere se il contenuto di una pagina web è presente anche in altre pagine o documenti sul web; utilizzando la versione a pagamento, si ha la possibilità di sfruttare strumenti avanzati e di monitorare in maniera automatica i contenuti di un determinato sito web; • Virante (http://www.virante.com/seo-tools/duplicate-content): effettua un’analisi di contenuti duplicati sul proprio sito web; • Plagium (www.plagium.com): basta inserire il testo del documento per vedere se esso è stato utilizzato in rete; • Plagiarisma (http://plagiarisma.net): possiamo scegliere se inserire l’URL o il corpo del documento per verificare se vi sono state copie dei nostri contenuti; • Duplichecker (www.duplichecker.com): offre all’utente innumerevoli funzioni di ottimizzazione per la verifica dei contenuti duplicati; • sfruttare i motori di ricerca: è sufficiente inserire una parte del testo, di cui vogliamo verificare la provenienza, tra virgolette (per esempio, “la nostra azienda DN Levat produce gru“) per vedere se è stato utilizzato in rete da altri siti web; • vedere su Search Console la presenza di segnalazioni di title duplicati; • utilizzare il software Xenu e lavorare con i filtri di Excel per individuare la presenza di testo duplicato o di URL “doppi”. Infine, per proteggere i propri contenuti è sempre opportuno pubblicarli sotto una specifica licenza. Per esempio, la più utilizzata sul web è la Creative Commons. Come possiamo evitare i contenuti duplicati? Per evitare i contenuti duplicati ci sono diverse tecniche; cercheremo di mostrare quelle che, secondo noi, hanno maggiore rilevanza: • usare il file robots.txt o il metatag per escludere pagine o documenti che potrebbero risultare duplicati; • utilizzare in modo coerente gli URL: come già illustrato, URL con caratteri maiuscoli e minuscoli, che portano a una medesima pagina, possono essere interpretati in maniera errata; • implementare la tecnica del tag canonical, che ci permette di comunicare allo spider del motore di ricerca quale degli URL che puntano a un contenuto duplicato deve essere indicizzato; • sfruttare lo strumento per webmaster per verificare la presenza di possibili contenuti duplicati provenienti da siti non collegati al nostro o per verificare i suggerimenti forniti da Google;

• •

• •

nel caso di spostamento di una pagina, usare il redirect 301, come illustrato nei precedenti capitoli; in situazioni in cui vogliamo rimuovere definitivamente un URL precedentemente indicizzato, utilizzare gli strumenti messi a disposizione dai rispettivi motori di ricerca (per esempio, lo strumento per webmaster di Google); nel caso si utilizzino blog o CMS, verificare che non vengano archiviati in maniera errata i post o che non si generino contenuti complicati; nel caso di violazione di copyright, possiamo segnalarla a Google dal seguente link: http://www.google.it/dmca.html.

Ora che abbiamo ben chiari i principi che regolamentano i contenuti duplicati e le tecniche per evitarli, saremo più consapevoli delle nostre azioni sul web.

Le principali pratiche da evitare Durante la fase di progettazione e di ottimizzazione di un sito web, come abbiamo già potuto osservare nei precedenti capitoli, vi sono una serie di pratiche che sarebbe opportuno evitare o limitare per indicizzare meglio il proprio sito web.

Evitare le tabelle nidificate se non strettamente necessarie Abbiamo ampiamente compreso l’importanza di avere pagine leggere e ben strutturate. L’utilizzo di tabelle nidificate rende difficile il compito di individuare i nostri contenuti e le relazioni di link al crawler dei motori di ricerca. Inoltre, lo stesso layout sviluppato con DIV + CSS risulterebbe più snello e “meno pesante”.

Limitare l’uso di frame I frame sono ormai una tecnologia obsoleta e passata (un frame è da considerarsi come una pagina a sé stante). Con l’avvento di HTML 5 è possibile creare siti web multimediali mantenendo una struttura semplice e immediata. L’uso improprio dei frame potrebbe portare a una non corretta indicizzazione delle nostre pagine web e dei nostri contenuti. Il nostro consiglio è quello di abbandonare questi costrutti e di utilizzare tecnologie “più all’avanguardia” per creare un layout grafico accattivante.

Gestire correttamente i redirect automatici Il redirect, se non fatto ad hoc, potrebbe essere considerato come una tecnica di cloaking. Per questo motivo dobbiamo prestare attenzione e, nel caso dovessimo utilizzarlo, dobbiamo preferire redirect 301 o 302 a quelli sviluppati con JavaScript o meta tag (come già illustrato nei precedenti capitoli).

Limitare l’utilizzo del visibility:hidden Attraverso l’utilizzo dei CSS, è possibile nascondere del testo. Tipicamente tali tecniche vengono implementate per far apparire pop-up o menu a piacimento. Per esempio, con display:none un elemento non verrà reindirizzato e quindi non occuperà spazio nella pagina. Con visibility:hidden un elemento non verrà mostrato visivamente, ma occuperà lo spazio di pagina proprio come se fosse visibile. Esistono tecniche di programmazione frontend abbinate a JavaScript o Ajax, che fanno uso di queste direttive senza problemi di sorta. È però buona norma limitare l’utilizzo di questi “tag CSS” e sapere che, nel caso subissimo una penalizzazione (non riconducibile ad altri casi), la causa potrebbe derivare anche da questi ultimi.

Anche i motori di ricerca possono sbagliare I motori di ricerca si basano su algoritmi a volte molto complessi e, anche se predicano bene, a volte razzolano male. Nelle precedenti edizioni del libro avevamo mostrato un test effettuato sul sito www.idueoscar.it (oggi chiuso), il quale era posizionato in prima pagina sui principali motori di ricerca. Analizzando il sito web, avevamo notato che aveva pochi backlink, ma era “pieno” di testo nascosto.

Figura 12.3 - Analisi della pagina www.idueoscar.it del 2010.

Nel 2014, dopo gli aggiornamenti di Google, il sito era stato penalizzato e non risultava più posizionato nella SERP di Google. Purtroppo esistono ancora casi in cui Google non è infallibile; prendiamo quello del sito web www.poltronerelaxbrescia.it/ posizionato in prima pagina e prima posizione per la keyword “poltrone relax anziani”. Questo non dovrebbe sorprenderci se fossero state applicate correttamente tutte le tecniche SEO naturali e seguite le direttive di Google… ma non nel nostro

caso. Infatti notiamo che numerosi link che puntano al sito web www.poltronerelaxbrescia.it/ arrivano da siti non attinenti, con keyword esatte, ma soprattutto da link “nascosti”, come mostrato dalla Figura 12.4.

Figura 12.4 - Link nascosti verso www.poltronerelaxbrescia.it.

Ma non solo, entrando nel dettaglio notiamo che altri siti, tra cui http://www.beo-tech.it/ puntano al sito web www.poltronerelaxbrescia.it con link nascosti e anchor text esatti. Tutto ci porta a dire che in questo contesto non sono state applicate le regole SEO: il sito web utilizza tecniche che potrebbero portare a una pesante penalizzazione. Il succo della questione? Anche i motori di ricerca possono sbagliare.

NOTA Per vedere se realmente si tratta di un bug o semplicemente di una svista, proveremo a utilizzare la medesima struttura su un sito web satellite e vedremo come si comporterà. I risultati saranno pubblicati su www.libro-seo.it.

Le penalizzazioni e i filtri di Google Google, come tutti i principali motori di ricerca, penalizza i siti che implementano azioni

scorrette per migliorare il posizionamento nella SERP dei risultati. Gli effetti di una penalizzazione dipendono dalla gravità dell’infrazione e tipicamente sfociano in un declassamento nei risultati di ricerca.

Filtro -6 -30 -60 -80 -950 Questo filtro è applicato alle pagine che applicano più o meno sfacciatamente tecniche di spam. Se vengono rilevate pagine che fanno uso di doorway page, java redirect, testi nascosti o keyword stuffing, queste ultime verranno retrocesse di 30 posizioni nei risultati di ricerca. In base alla gravità della tecnica di spam usata, il nostro sito web potrebbe retrocedere da 80 fino, nei casi più estremi, a 950 posizioni all’interno della SERP. Per risollevare il sito da tale penalizzazione, è necessaria una correzione a livello di contenuti e di keyword, al fine di evitare pratiche considerate scorrette da parte dei motori di ricerca. Il riposizionamento sarà graduale e i risultati potranno risultare apprezzabili dopo due-tre mesi dalle nuove modifiche.

Filtro Boilerplate Boilerplate è un nuovo algoritmo sviluppato da Google per filtrare i dati nelle pagine web, in particolare quelli con un elevato tasso di ripetizione, quindi identificabili come parte estranea al contenuto da indicizzare nella pagina. Boilerplate è la penalizzazione dei cloni. Questo tipo di penalizzazione è determinata spesso da un errore di progettazione dei siti. La presenza eccessiva di elementi può essere percepita come spam o come un tentativo di migliorare il posizionamento delle pagine interne. Potete visionare il brevetto rilasciato da Google al link http://tinyurl.com/google-boilerplate. Risultato: questa è una penalizzazione algoritmica che ha tempi di recupero quasi immediati (entro le 48 ore). Per recuperare le posizioni è sufficiente eliminare le ripetizioni nelle pagine incriminate.

Filtro sui tag Questo filtro viene applicato ai blog e ai CMS che sfruttano il meccanismo dei tag. Essi vengono usati tipicamente in automatico dai blog per categorizzare e per creare diverse pagine da indicizzare nei motori di ricerca. Il principale problema sta nel fatto che questo meccanismo genera contenuto duplicato e la regola indica che bisogna evitare di superare il 20% di tag rispetto al resto del contenuto del sito. Nel caso in cui tale assioma non sia rispettato, può accadere di incorrere in tale penalizzazione. Per risolvere il problema è quindi consigliato limitare il meccanismo di indicizzazione dei tag semplicemente inserendo la seguente regola all’interno del file robots.txt:

Filtro sulla navigabilità del sito web

Nel caso in cui il nostro sito web sia poco “navigabile” e quindi di difficile scansione da parte del robot di Google, potremmo cadere in questo filtro, che tipicamente si applica quando il menu di navigazione è complesso e non ben organizzato e in esso si ripetono keyword in modo non opportuno. Per evitare di cadere in tale penalizzazione, che potrebbe portare a un declassamento di posizioni nella SERP, è opportuno: • organizzare i menu per una facile consultazione; • collegare le pagine web; • utilizzare le tecniche di usabilità viste nei precedenti capitoli; • organizzare e catalogare le informazioni “vecchie”.

Google Sandbox La Sandbox di Google è un fenomeno da tempo studiato, ma a oggi non si ha la certezza della sua reale esistenza. Tale filtro sembra essere applicato in alcuni casi a: • siti Internet ottimizzati con parole chiave molto competitive; • siti web che si indicizzano molto velocemente; essi sembrano essere messi in un limbo: il sito esiste nell’indice di Google, ma ottiene pochi risultati. Passato il periodo di “standby”, il sito inizia ad apparire nella SERP e a venire indicizzato correttamente. Tale effetto, che ha preso il nome di Sandbox, pare sia causato da una serie di concomitanze che affliggono l’algoritmo di Google e che scaturiscono da una sinergia tra diversi fattori. Nel caso che il nostro sito entri in questo limbo, l’unica via percorribile per uscirne è quella di un aumento di traffico qualificato applicando le tecniche viste nel capitolo inerente all’ottimizzazione off page.

NOTA Il brevetto del 2005, 20050071741 “Information retrieval based on historical data”, confermerebbe l’esistenza della Sandbox, anche se Google ufficialmente ha sempre smentito tale notizia. Inoltre, con i recenti aggiornamenti degli algoritmi, questo effetto potrebbe essere stato eliminato in maniera del tutto automatica.

Filtro Bombing Questo filtro è applicato alle pagine con un alto numero di backlink aventi lo stesso identico anchor text. Tale situazione fa accendere una spia di allarme: il motore di ricerca potrebbe penalizzare il sito, perché tale contesto risulterebbe estremamente innaturale in una struttura di scambio link naturale. Attualmente sembra non venire applicata nessuna penalizzazione per il sito linkato, ma i link verrebbero privati del loro valore.

Filtro Bowling Non si tratta di un filtro, bensì di tecniche di spam atte a penalizzare siti dei rivali. Tale pratica ha avuto inizio quando Google ha creato un filtro per penalizzare i collegamenti a pagamento o creati troppo in fretta. In pratica, viene usato in modo indiscriminato il sito del rivale, collegandolo in forma non opportuna nel web per causarne la penalizzazione. Google afferma come non sia possibile, da parte di concorrenti sleali, influire sui risultati di ricerca nella SERP. Al contrario, molti esperti SEO non credono in questa affermazione e il nostro consiglio è, nel caso ci accorgessimo di una penalizzazione causata da tale tecnica, di contattare il supporto di Google per il reinserimento nel motore di ricerca.

L’ex filtro per i risultati supplementari Questo filtro prendeva le pagine già indicizzate dal motore di ricerca e le inseriva in un database supplementare. Si trattava delle pagine di cui il motore non si fidava troppo per svariati motivi. Solitamente, queste pagine non erano ben posizionate sul motore di ricerca e secondo Google venivano estratte quando il motore di ricerca non trovava altri risultati attinenti a quella determinata ricerca. Questo voleva dire che le pagine del nostro dominio venivano inserite nel database supplementare e non erano quindi indicizzate correttamente. Per scoprire le pagine di un sito inserite da Google nei risultati supplementari, bastava utilizzare questa query:

Google ha recentemente affermato di aver rimosso l’etichetta “risultato supplementare” dalle pagine dei risultati di ricerca. Nella dichiarazione afferma: “I risultati supplementari permettevano agli utenti di trovare risultati fuori dall’indice principale. Trattandosi di risultati supplementari, tuttavia, questi URL non erano sottoposti a scansione e aggiornati con la stessa frequenza degli URL inclusi nel nostro indice. Nel frattempo, la tecnologia di Google è stata perfezionata e oggi siamo in grado di eseguire la scansione e l’indicizzazione dei siti con maggiore frequenza. Dal momento che l’intero indice web di Google è oggi sempre costantemente aggiornato, l’etichetta “risultati supplementari” ha perso la propria utilità. Tale filtro, quindi, è caduto in disuso.

Over Optimization Penalty: filtro per sovraottimizzazione Questo filtro è stato inserito quando Google si è accorto che blog e CMS includevano strumenti SEO che portavano a una sovraottimizzazione. L’avvento di tale filtro può essere collocato nel novembre del 2003, con l’ormai noto Florida Update. In tale occasione, migliaia di siti web persero in brevissimo tempo molte posizioni; cosa strana, i principali siti colpiti furono proprio quelli apparentemente ottimizzati per la SEO. L’applicazione di tale penalizzazione consiste in una retrocessione di qualche posizione nella SERP.

NOTA L’applicazione di tale filtro sembra non essere automatizzata (ma, dopo le dichiarazioni di Cutts, potrebbero esserci dei cambiamenti), il che molto spesso può essere la causa di un periodo prolungato nella cosiddetta Sandbox.

Se ottimizzo il mio sito per la SEO, posso essere penalizzato? No, la penalizzazione viene applicata nel caso vi sia una forte sovraottimizzazione con pratiche spam, tra le quali la keyword stuffing (ripetizione continuata delle parole chiave). Se analizziamo alcuni casi che potrebbero portare a una sovraottimizzazione delle pagine, troviamo: • l’utilizzo delle stesse parole chiave nel titolo, nella descrizione, nei meta tag, nei tag H1, H2… nell’Alt delle immagini e nell’anchor text; • l’inserimento di troppi caratteri nei meta tag title, description e keyword; • l’elevato numero di inbound link recanti tutti lo stesso anchor text (come abbiamo già visto). Matt Cutts, durante un suo intervento allo SXSW Interactive del 2013, ha rivelato una nuova strategia di Google (“overly SEO ed”) che penalizzerebbe tutti quei siti che abusano di tecniche SEO. Di seguito, un estratto del suo intervento: Normalmente non facciamo mai annunci sui cambiamenti che stiamo per adottare, ma c’è qualcosa su cui abbiamo lavorato negli ultimi mesi e che speriamo, nelle prossime settimane, di rilasciare. Stiamo cercando di livellare il campo di gioco a favore di chi lavora per creare ottimi contenuti e ottimi siti, rispetto a chi eccede con l’ottimizzazione e con la SEO. Stiamo cercando di rendere il Googlebot più intelligente, di migliorare la rilevanza e anche di cercare coloro che esagerano con le parole chiave all’interno di una pagina o con lo scambio link, andando oltre ciò che normalmente ci si aspetterebbe. Molti ingegneri del mio team ci stanno lavorando. Il nostro consiglio, per evitare di cadere in questa penalizzazione, è quello di ottimizzare sì le pagine per la SEO, come abbiamo visto nel corso di questo libro, ma anche di pensare sempre che i contenuti che forniamo devono essere letti e appresi da esseri umani. Per questo, scrivere buoni contenuti, variare le keyword e progettare siti web utili ai propri clienti è un buon inizio per sviluppare un progetto SEO di sicuro successo.

Filtro contro link farm ed eccesso di backlink Le link farm sono pagine nelle quali sono ammucchiati centinaia di link di ogni tema e specie. Molte di esse sono conosciute e identificate dal motore di ricerca, che le penalizza. L’acquisto di link e la partecipazione massima a questo scambio di link non naturale conducono inevitabilmente a essere penalizzati da questo filtro. Infatti, un eccesso di backlink in breve

tempo potrebbe risultare innaturale per il motore di ricerca. La penalizzazione inizialmente può essere semplicemente un “non riconoscimento” del valore dei link, fino a una declassazione delle pagine web linkate in maniera eccessiva dalle link farm. Per quanto concerne la vendita di link, sono state fatte dichiarazioni, da parte di Google, nelle quali si afferma che: Google non vuole imporre ai webmaster le sue regole, vuole solo dare loro consigli. I webmaster possono gestire il loro sito come meglio credono, ma Google si riserva il diritto di tutelare qualità e pertinenza del suo indice. Anche gli altri motori di ricerca sono sulle stesse posizioni. • Google non sta cercando di eliminare forme di pubblicità online diverse da AdSense. È infatti possibile utilizzare i link a pagamento come mezzo per ottenere traffico targettizzato, ma tali link non devono contribuire a falsare la qualità degli indici di Google (ovvero: è necessario utilizzare l’attributo rel="nofollow"). • Un banner pubblicitario dovrebbe essere trattato come un link a pagamento: si consiglia, pertanto, di fare in modo che il banner non abbia influenza sul motore (ovvero: non passi PageRank), anche se Google è in grado di identificare e gestire i banner piuttosto bene. Quindi è meglio usare, anche per i banner, il rel="nofollow". Ulteriori informazioni possono essere reperite al link http://tinyurl.com/venditalink.

NOTA Anche Google si è autopenalizzato. Andando a questo link potrete capire il perché: http://tinyurl.com/google-japan

Quindi, da quanto emerso, nel caso linkiamo siti web di cui non abbiamo il controllo o siti di pubblicità, è sempre opportuno inserire il link rel="nofollow".

NOTA Qui troverete un ulteriore chiarimento su tale tema: http://tinyurl.com/linksito

Filtro di co-citazione dei backlink Questo filtro è abbastanza popolare. Google considera con attenzione la struttura dei link riferenti. Abbiamo già visto come sia importante ottenere link in entrata, ma questi, per produrre valore aggiunto, devono provenire da siti web non penalizzati e in linea con le tematiche del nostro sito web. Se abbiamo link in uscita verso pagine non in tema, o verso siti di “spam” o non idonei, come “siti per adulti” o “di giochi online”, il motore di ricerca inizierà ad accendere un

campanello di allarme. La creazione di pagine web atte a contenere sul nostro dominio link di scambio senza una logica precisa potrebbe quindi influenzare negativamente il nostro TrustRank.

NOTA Abbiamo già analizzato precedentemente il problema dei cross linking e dei network di siti web. Se i nostri siti sono gestiti da un unico hosting e condividono la stessa classe di indirizzi IP, e sono collegati tra loro senza avere correlazioni effettive, i motori di ricerca potrebbero interpretarli come schemi ingannevoli e non dare il giusto peso ai link che intercorrono fra di essi.

Filtro sul tempo di caricamento della pagina Questo filtro ha assunto molta importanza grazie all’avvento dell’algoritmo Caffeine. Se la pagina è troppo lenta a caricarsi, lo spider incorrerà in un Time Out e abbandonerà l’indicizzazione. Abbandonare l’indicizzazione significa che in alcuni casi il robot non passerà più con la stessa frequenza su quella pagina. Per evitare che esso “lasci” anticipatamente la nostra pagina prima di averla completamente analizzata, si consiglia di seguire le linee guida proposte nei precedenti capitoli: utilizzare CSS, evitare le tabelle annidate, file JavaScript esterni e via dicendo.

Google Pirate Update Google Pirate Update è un filtro introdotto ad agosto 2012 progettato per evitare che i siti con segnalazioni di violazione del copyright (DMCA di Google) si posizionassero in modo ottimale nei risultati di ricerca. Questo filtro è in continuo aggiornamento per verificare i falsi positivi e ottimizzare al meglio le SERP.

Google Top Heavy Update Si tratta di un aggiornamento che colpisce tendenzialmente i siti che hanno annunci e banner in eccesso nella parte alta del sito o dove è difficile identificare subito i contenuti (magari perché sommersi dai troppi banner). Questo update rilasciato nel 2012, in continuo aggiornamento, è stato messo in opera in quanto Google ha ricevuto numerose lamentele da parte degli utenti: Abbiamo sentito lamentele da parte di utenti che, se cliccano su un risultato e poi hanno difficoltà a trovare il contenuto non sono soddisfatti dell’esperienza. Invece di scorrere la pagina sorpassando un gran numero di annunci, gli utenti vogliono vedere i contenuti immediatamente. Quindi i siti che non hanno molto contenuto “above the fold” possono essere toccati da questo aggiornamento.

Si tratta di un update che ha un impatto minimo sui risultati in SERP (inferiore al 2%) ideato e concepito per migliorare l’esperienza utente sul motore di ricerca.

EMD Update Google EMD Update (exact-match domain): ne abbiamo già parlato, è un aggiornamento dell’algoritmo che “dà meno peso” a quei siti che hanno nel nome del dominio la parola chiave esatta. Ad esempio, un sito come www.venditaauto.it che ha contenuti di scarsa qualità e non segue le linee guida di Google non verrà premiato in SERP come accadeva prima di questo aggiornamento. Rilasciato nel 2012 EMD ha conosciuto diversi update per uniformarsi alle evoluzioni del Search Engine.

Fluttuazioni casuali È un fenomeno alquanto strano che colpisce i siti web e che non sembra avere una spiegazione matematica. Grazie alla concomitanza di una serie di fattori, il sito web potrebbe essere penalizzato nell’arco di poche ore per poi ritornare correttamente indicizzato entro breve tempo. Tali fluttuazioni possono continuare nel tempo e apparentemente non avere una spiegazione logica. L’unico modo per uscire da tale limbo è quello di aumentare la popolarità e migliorare la qualità dei link sia in entrata sia in uscita. A supporto di questa tesi troviamo un interessante intervento di Angelo Palma, supporter nel gruppo Google per webmaster: Google sta filtrando meglio negli ultimi tempi i domini che non hanno una serie di backlink stabili e importanti per una determinata parola chiave, per regolarne il traffico. Potrebbe quindi accadere che una richiesta per una determinata parola chiave effettuata la prima volta nell’arco della giornata produca un risultato migliore (in termini di posizionamento nella SERP per quel determinato dominio) rispetto a una ricerca effettuata anche a pochi minuti di distanza. Si è potuto notare, infatti, che alla seconda richiesta la pagina data in precedenza, per esempio, nella posizione 5, si era spostata alla posizione 14, e da quella posizione non si è più mossa per almeno sei ore. Dopo circa sei ore, abbiamo potuto notare nuovamente che il sito era nella posizione 5 e subito dopo, alla seconda richiesta, tutto si ripeteva e la posizione diventava la 20, che manteneva anche dopo una terza, quarta e quinta query. In questo modo Google regola il traffico da inviare ai domini facendoli ruotare come risultati alternativi nella prima pagina o nelle seguenti. Si è potuto infatti osservare come questa fluttuazione possa partire anche da posizioni come la 20 o la 40, per trovarsi alla posizione 35 o alla 60, alla seconda richiesta.

NOTA La situazione si è verificata per la richiesta effettuata da un determinato indirizzo IP (geolocalizzazione), con uno specifico browser e via discorrendo. Non è detto che da “postazioni” geolocalizzate in modo differente si ottenga il medesimo risultato.

Google sembra quindi ruotare in base alla popolarità e all’importanza dei contenuti i siti che non hanno un valore stabile nella catena di backlink, in modo tale da valorizzare la pagina o il singolo dominio per quella precisa parola chiave. Si spiegano così le famose fluttuazioni e il numero a volte basso di ingressi, anche se il tema del dominio è popolare.

NOTA Per ultimo, menzioniamo il servizio Abuse di Google, che permette la segnalazione, da parte degli utenti, del sito o dei siti che sono sospettati di agire in maniera scorretta. Il sito verrà analizzato dal Google antispam team ed eventualmente penalizzato. Tradizionalmente, le segnalazioni che pervengono al servizio Abuse non implicano una cancellazione diretta, poiché Google preferisce agire sugli algoritmi, applicando ulteriori filtri agli spider, piuttosto che eliminare manualmente le manipolazioni.

Google Panda e Penguin Update Ultimamente Google ha elaborato algoritmi per cercare di colpire i siti di dubbia qualità o che applicano tecniche di spam. Proprio attraverso Google Panda, come abbiamo avuto modo di vedere, BigG ha attuato la sua lotta personale contro i siti “di spam” e di bassa qualità (si veda il Capitolo 10). Uno degli ultimi provvedimenti adottati in ordine di tempo, annunciato nell’aprile 2012 da Matt Cutts, è il Penguin Update. Il nuovo algoritmo punta a colpire il black hat webspam, ovvero i siti web che sfruttano tecniche ingannevoli per posizionare un sito web nella SERP di Google senza offrire contenuti o informazioni di utilità per l’utente. Per spiegare il concetto di link spam possiamo prendere in considerazione la Figura 12.5, in cui si nota un uso eccessivo di anchor text a chiave esatta con link “in uscita” dall’articolo. Google tiene a precisare che si è in presenza di link spam quando, leggendo ad alta voce il testo dell’articolo, si nota che i link in uscita sono completamente estranei al resto del contenuto. In poche parole, se il contenuto di un articolo o di un sito web è di basso livello e i link al suo interno sono costruiti solo per “favorire” il link building organico verso siti di scarsa qualità, allora dovremmo iniziare a preoccuparci della nuova penalizzazione di Google. Google ha rilasciato anche un altro algoritmo, PayDay Loan Algorithm 2.0: l’aggiornamento mira a penalizzare le query considerate molto “spammose”, un altro passo verso la “pulizia” dei risultati indesiderati in SERP.

Figura 12.5 - Esempio di sito di link-spam.

Ecco come devono essere i link in ingresso a un sito web secondo Google: • tutti i tipi di annunci - pubblicitari, testuali o banner, widget o infografiche - devono avere l’attributo rel="nofollow"; • articoli o publiredazionali a pagamento devono avere la dicitura (articolo sponsorizzato) ed eventuali link presenti devono essere nofollow; • per evitare penalizzazioni, negli articoli distribuiti su siti di comunicati stampa con anchor text ottimizzati, questi devono essere nofollow; • link nei footer di siti web non devono “passare” PageRank e quindi devono essere nofollow. Anche per l’Italia Google ha ribadito come l’abuso di link artificiali per aumentare la visibilità online possa essere una tecnica controproducente che potrebbe far scattare una penalizzazione (filtro) algoritmica.

NOTA Si è parlato molto negli ultimi periodi di Google Panda e del suo rilascio “continuo” da quando è stato integrato nel “core” di Google. Questo aggiornamento, ha spiegato Illyes (Portavoce di Google), non è real time, ma è un processo lento e, in alcuni casi, dura anche mesi. Chiarito questo, è sempre opportuno verificare i contenuti o pagine che potrebbero produrre contenuti di bassa qualità o duplicati. Stessa sorte è accaduta a Google Penguin: ora è real time!

Penalizzazione per gli altri motori di ricerca Abbiamo visto le principali penalizzazioni messe in campo da Google, ma gli altri motori di ricerca come si comportano? Le tecniche viste precedentemente sono da considerarsi spam per la maggior parte dei motori di ricerca. Di seguito mostreremo un breve elenco di cosa principalmente venga considerato spam da Yahoo! e Bing.

Lo spam per Yahoo! Il seguente elenco mostra le principali tecniche riconosciute come spam da parte di Yahoo!: • testo nascosto; • abuso dei nomi di competitors; • pagine che sostanzialmente sono la replica o la copia di altre; • siti multipli che offrono gli stessi contenuti; • pagine di redirect in JavaScript; • pagine che mostrano risultati differenti a seconda dei diversi browser; • pagine con uso eccessivo di pop-up; • pagine che usano metodi ingannevoli per aumentare il proprio PageRank; • eccessivi cross-link per aumentare la propria link popularity; • pagine con contenuti non idonei per i visitatori.

Lo spam per Bing Il seguente elenco mostra le principali tecniche riconosciute come spam da parte di Bing: • stuffing: pagine con parole chiave pertinenti al fine di aumentare la densità di parole chiave della pagina, Alt tag; • utilizzo di collegamenti o testi nascosti; • utilizzo di tecniche quali la creazione di link automatici, in modo da aumentare artificialmente il numero di collegamenti alla propria pagina; • tecniche di duplicazione dei contenuti.

NOTA Potete trovare una serie di linee guida per Bing al link http://tinyurl.com/guida-bing.

Gestire e recuperare una possibile penalizzazione (filtro) Individuare se un sito è stato penalizzato a volte non è semplice. Prima di tutto vi consigliamo vivamente di inserire il vostro sito web nei circuiti per webmaster proposti dai vari motori di ricerca, per esempio Bing WebMaster Tool, e Google Search Console. In tal modo è possibile monitorare il proprio sito web, conoscere eventuali cali nell’andamento delle visite per una determinata keyword e, cosa più importante, essere avvisati (in alcuni casi) per e-mail dal team

dello specifico motore di ricerca in caso di penalizzazioni.

NOTA Per monitorare le nostre campagne SEO è anche fondamentale utilizzare strumenti avanzati di statistiche. Potremo percepire tempestivamente un calo improvviso delle visite o situazioni anomale analizzando l’andamento del nostro sito web.

Detto ciò, per individuare una penalizzazione più o meno grave, oltre a utilizzare gli strumenti sopra citati, possiamo: • digitare nel motore di ricerca il comando “site:www.miosito.com” (si veda l’appendice A): in questo modo dovrebbero comparire tutte le pagine indicizzate; nel caso non ottenessimo risultati, dovremo insospettirci; • inserire nel campo di ricerca del motore di ricerca il nome o il brand della nostra azienda; se essa non compare tra i risultati con riferimento al nostro sito, dobbiamo insospettirci; • ricercare il nome del nostro dominio seguito da una keyword, ad esempio www.miosito.com keyword; se il nostro sito non compare nella prima pagina nella SERP, è molto probabile che abbia subito una penalizzazione; • monitorare costantemente le nostre keyword con strumenti appositi (ad esempio, Rank Checker); un calo di qualche posizione nell’arco di una settimana è una cosa normale. Il declassamento di molte posizioni ci dovrà far accendere un campanello di allarme; in questo caso ci sarà utile tenere un documento dove annotare periodicamente le posizioni della SERP per le keyword che riteniamo importanti per il nostro sito web; • notare che il declassamento di PageRank è sintomo di una penalizzazione; • notare che un calo significativo delle visite (dal 40% al 99%) è sintomo di una possibile penalizzazione; • controllare se le pagine indicizzate sono sempre le stesse col comando avanzato [site:tuosito.com]; • verificare che il nostro sito non sia nella lista nera dei siti potenzialmente dannosi per la navigazione (digitare http://www.google.com/safebrowsing/diagnostic?site=tuosito.com); • come spiegato nel Capitolo 3, verificare di non avere “cattivi vicini” sullo stesso IP. Per verificare se siamo stati colpiti da Google Panda o Google Penguin esiste un tool davvero interessante che confronta i cali di visite rispetto all’uscita di un aggiornamento di Google: http://www.barracuda-digital.co.uk/panguin-tool/. Come si può notare nella Figura 12.6, è facile individuare se il calo di visite possa essere correlato a un nuovo aggiornamento di Google.

Figura 12.6 - Esempio di utilizzo del Panguin Tool.

Ora che abbiamo ben chiare le tecniche possibili per individuare una penalizzazione, vediamo come uscire da una situazione di penalizzazione. Le principali azioni sono illustrate di seguito. • Se abbiamo text link a pagamento: eliminiamoli dalla home page. L’ideale sarebbe non averli proprio. • Se utilizziamo servizi per scrivere dei post a pagamento (servizi tipo Pay Per Post come Marqui, ReviewMe ecc.) dobbiamo scrivere i contenuti inserendo l’attributo “no-follow” in tutti i link in uscita (tag rel="nofollow"). • Ripulire il nostro sito web da strutture o da azioni che potrebbero essere la causa di una penalizzazione, quindi, come abbiamo già potuto illustrare, evitare di: – applicare tecniche “SEO estreme”; – nascondere parti di testo usando colori particolari o DIV hidden; – fare compravendita di link; – linkare siti spammosi, contenenti malware o bannati; – inserire troppe keyword o keyphrase; – creare pagine apposite in cui inserire pubblicità; – copiare testo o contenuti da altri siti o blog senza mettere un link alla fonte originale. Nel caso che il nostro sito web abbia ricevuto numerosi link da siti di bassa qualità o da link con anchor text esatti, possiamo sfruttare il nuovo tool di Google per rinnegare tali link, fruibile all’indirizzo https://www.google.com/webmasters/tools/disavow-links-main. È necessario caricare un file di testo indicando i link da rimuovere (uno per riga) o con la dicitura domain per bloccare tutti i link che arrivano da un determinato dominio. Ecco un esempio di file per il disavow tool:

Figura 12.7 - l disavow Tool.

NOTA Se il vostro sito è stato colpito dal Penguin e credete che la causa sia da ricercarsi in link spammosi o di bassa qualità, Google consiglia di verificare i backlink e di rifiutare i link derivati da schemi di link che violano le linee guida. Consigliamo, in caso di penalizzazione da “abuso di link”, di rimuovere, ove possibile, i link manualmente o di aggiungere l’attributo rel="nofollow".

Se è passato almeno un mese da quando abbiamo “ripulito” il nostro sito web da una potenziale penalizzazione, ma non abbiamo riscontrato alcun risultato, è consigliabile inviare una richiesta di riammissione (solo per le penalizzazioni manuali): • per Google: http://tinyurl.com/google-riamissione (verifica di presenza di azioni manuali); • per Yahoo!: http://tinyurl.com/yahoo-riamissione; • per Bing: http://www.bing.com/toolbox/submit-site-url.

Una volta eseguite queste operazioni, dobbiamo continuare a esaminare la situazione per verificare che le cose siano tornate alla normalità.

NOTA A seguito della nota sentenza della Corte di giustizia dell’Unione europea del 13 maggio 2014, Google ha pubblicato un modulo che permette di richiedere la rimozione dai risultati di ricerca ai sensi della legislazione europea per la protezione dei dati personali. Il modulo, raggiungibile all’URL http://bit.ly/rimozione-risultati, consente di eliminare dalle query i risultati che includono il nome dell’utente e che puntano a contenuti da questo ritenuti “inadeguati, irrilevanti o non più rilevanti, o eccessivi in relazione agli scopi per cui sono stati pubblicati”. Ovviamente l’eliminazione di un link nei risultati di ricerca NON comporta l’eliminazione del contenuto linkato: Google toglie il link dai risultati, ma non ha ovviamente il potere di cancellare il contenuto presente su un server non suo.

Conclusioni e punti salienti del capitolo In questo capitolo abbiamo cercato di riassumere i principali filtri e aggiornamenti di Google per evitare di sviluppare progetti di visibilità errati. È importante sapere che se inseriamo testo nascosto, contenuti duplicati o effettuiamo azioni di link building massive e che vanno contro le linee guida di Google (e dei principali motori di ricerca) potremmo “rischiare di essere penalizzati”. Per questo motivo è importante: • conoscere i principali sistemi di penalty e filtri del motore di ricerca su cui andremo ad operare; • evitare di creare contenuti duplicati; • rendere il sito facilmente “scansionabile” dai boot/crawler dei vari motori di ricerca; • evitare di effettuare strategie di link building massivo che violino le regole. In definitiva dobbiamo: • acquisire link in modo naturale; • creare sempre contenuti unici e in tema con il sito; • avere un sito web che si adatti alle esigenze degli utenti e sia mobile friendly.

“Google vuole che i link arrivino naturalmente, ogni altra congettura è una cagata pazzesca!” (Maltra)

Capitolo 13 Black Hat SEO e Tool SEO Nel Capitolo 12 sono state illustrate le principali policy applicate dai motori di ricerca per combattere lo spam; ora vedremo alcune pratiche molto rischiose di Black Hat SEO utilizzate per migliorare la visibilità all’interno dei motori di ricerca.

Black Hat SEO Il Black Hat SEO è una disciplina che va contro la normale deontologia praticata dagli esperti SEO: in pratica, si mettono in campo tecniche estreme per migliorare il posizionamento nei motori di ricerca rischiando di incappare in penalizzazioni. Perché, allora, si applicano queste tecniche? Vi è un enorme business dietro ciò che porta persone meno preparate ad affidarsi a questi trucchi, sperando in poche ore di posizionare e indicizzare le proprie pagine web ai primi posti nella SERP senza sforzo e senza essere penalizzati da parte dei motori di ricerca. Ovviamente, quello che deve essere ben chiaro è che le pratiche illustrate sono altamente “pericolose” e possono compromettere ore e ore di lavoro SEO pulito. Tecniche e strumenti Black Hat SEO vanno applicati sapendo che è molto più probabile incappare in una penalizzazione piuttosto che ottenere risultati brillanti nel breve periodo. Durante la trattazione di questo capitolo illustreremo alcune pratiche derivate da applicazioni di nozioni apprese da forum italiani e stranieri e da numerosi test effettuati sempre nell’ambito del Black Hat SEO.

NOTA Ricordiamo che generalmente chi applica Black Hat SEO rilascia le informazioni dopo mesi o anni dalla scoperta, e spesso esse risultano obsolete. Nessuno vi regalerà informazioni che possono produrre guadagno; per questo, bisogna usare conoscenza, passione e accortezza quando si esplora questa interessante, ma azzardata, disciplina.

Ora siamo pronti per iniziare a esplorare questo mondo; esamineremo alcune tecniche rischiose, ma che potrebbero migliorare la nostra visibilità.

Social news explosion: una tecnica gray piuttosto diffusa Quello che ora andremo a illustrare è l’applicazione di un insieme di pratiche che ci permettono

di veicolare un alto numero di visite nel breve periodo sfruttando eventi che sicuramente avranno una certa risonanza nel web. In pratica, sfrutteremo un evento, come potrebbe essere il lancio dell’iPhone o la finale dei mondiali di calcio, per veicolare visite verso il nostro sito web. Per fare questo, dobbiamo preparare post ad hoc sul nostro blog, che potrebbe trattare argomenti completamente diversi, e pubblicizzarli nei siti di social news, visti nel Capitolo 11. Questa pratica, se applicata correttamente, potrebbe veicolare numerose visite sul nostro sito web per quella particolare data. Vediamo un esempio pratico applicato e testato su un sito web sportivo (che ovviamente non citeremo) durante la partita di campionato di lunedì 29 novembre 2010 tra Barcellona e Real Madrid. Sono stati creati due post pochi giorni prima dell’evento, che parlavano della partita con curiosità, video e interviste: tali post sono stati diffusi in rete attraverso social news come diggita.it, fai.informazione.it, ziczac.it e digg (seguendo le normali regole SEO, creando titoli diversi e descrizioni in grado di suscitare l’interesse del lettore); in questo modo la notizia si è diffusa in rete e, grazie alla popolarità dell’evento, il sito web in questione (che aveva 3000 visite giornaliere) ha ottenuto 42.000 visite uniche durante la data dell’evento (come si evince dalla Figura 13.1).

Figura 13.1 - Statistiche di Google Analytics durante l’evento.

Queste visite, ovviamente, sono calate nei giorni dopo l’evento e si sono assestate sui normali canoni per quel sito web dopo due giorni. Nonostante ciò, a nostro avviso, questa è una delle tecniche che possono portare visite interessanti verso il nostro sito web. Se avessimo un portale di informatica, potremmo sfruttare il lancio di applicazioni tecnologiche come Windows 8, iPhone 5 e via dicendo per portare visitatori curiosi e interessati verso il nostro sito web. Sarà poi la nostra abilità che ci porterà a catturare i visitatori e a convincerli della validità del nostro sito.

NOTA Possiamo usare siti come Slashdot, StumbleUpon e Digg, che hanno un’elevata popolarità, per pubblicizzare i nostri post. Per aumentare le probabilità di far apparire i nostri articoli in prima pagina su questi social network, dobbiamo instaurare rapporti e chiedere ad amici e parenti la condivisione e la votazione positiva in modo da aumentare la visibilità di quanto proponiamo. Il passaparola virale deve essere mirato e portato all’estremo per risultare vincente.

Promuoversi con Yahoo! Answers Durante le vostre ricerche nei principali motori di ricerca, sarete sicuramente capitati su siti quali Yahoo! Answers, in cui utenti rispondono a specifiche domande poste da altri utenti. Il più delle volte tali pagine vengono posizionate in breve tempo ai primi posti nei motori di ricerca e possono essere una fonte di traffico promettente per il nostro business. Infatti, gli utenti usano i motori di ricerca per trovare risposte a specifiche domande, quali: “Qual è miglior libro sui CSS?”, “Che rimedio usare per la tosse?” e via dicendo.

Figura 13.2 - Esempio di risposte fornite da Yahoo! Answers posizionate ai primi posti.

Yahoo! Answers è un social network in cui i partecipanti postano domande e altri membri della comunità forniscono risposte. Esso si basa su un sistema a punti: più risposte forniamo, più punti accumuleremo; inoltre, se la nostra risposta risulterà la migliore, ci verranno forniti più punti. Per iniziare a votare le proprie domande, è prima necessario aver risposto ad almeno dieci quesiti di altri utenti. Guadagnando più punti, si aumenterà la propria popolarità all’interno del network. Yahoo! Answers è una community molto attiva: ogni giorno vengono archiviate e indicizzate migliaia di domande, quindi dobbiamo sfruttare questa opportunità a favore del nostro business. Tutti i portali di questo genere sono monitorati: se veniamo sorpresi in azioni di spam, saremo facilmente espulsi o bannati. Ma allora cosa dobbiamo fare per promuoverci all’interno di Yahoo! Answers? Tipicamente i modi sono due: • il primo consiste nell’iniziare a rispondere a domande in linea con la nostra attività, inserendo un link diretto al sito web o blog aziendale; • il secondo, invece, è quello di creare più account e postare domande ad hoc, fornendo noi stessi la migliore risposta.

NOTA Dai vari test che abbiamo effettuato si è riscontrato che, se non si fa attenzione e non si adottano accorgimenti, è molto probabile essere penalizzati ed esclusi da Yahoo! Answers, con relativo blocco dell’account.

1° Esempio. È sufficiente registrarsi, scegliere la categoria più appropriata e selezionare la domanda a cui rispondere. Quando rispondiamo, dobbiamo essere esaustivi, fornire il maggior numero possibile di informazioni e inserire un link alla nostra pagina. 2° Esempio. Nel secondo caso proposto dobbiamo invece registrare più account su Yahoo!, iniziare a postare una domanda scegliendo un titolo che potrebbe facilmente posizionarsi nei motori di ricerca e con un altro account rispondere alla domanda, inserendo informazioni sulla propria attività. In questo modo saremo noi stessi a poterci attribuire una miglior risposta (ricordiamo che Yahoo! verificherà la provenienza da medesimi IP, per questo è necessario usare proxy per camuffare la nostra identità). Postiamo, per esempio, la domanda: “Qual è il miglior panificio a Parma?”. Rispondiamo: “Il miglior panificio a Parma, a mio avviso, è in via 20 settembre, ‘L’arte del Pane’, www.artepane.it. Il pane è ottimo e preparano delle torte che sono la fine del mondo”. In questo modo saremo noi stessi a promuovere la nostra attività.

Figura 13.3 - Risposta a una domanda su Yahoo! Answers.

La cosa interessante è che l’autopromozione in Yahoo! non viene condannata a priori, come si evince dalle linee guida: Pagine web ed e-mail commerciali. Vi sono molti operatori professionali e commerciali che possono condividere le proprie esperienze su Answers. Se sei uno di questi, identificandoti e rispondendo alle domande in maniera corretta ed esaustiva, potrai accrescere la tua credibilità e costruire un’immagine positiva del tuo marchio. Potresti, inoltre, inserire l’URL del tuo sito ufficiale e il tuo indirizzo e-mail nella pagina del tuo profilo. Tuttavia, ti invitiamo a non linkare pagine commerciali nelle tue risposte o includere siti web o informazioni commerciali in tutti i contenuti inviati. Questo ci permette, se usiamo il buon senso, di promuovere la nostra attività in modo naturale, aumentando la popolarità del sito web inserito tra le risposte di Yahoo! Answers.

NOTA Esistono altri siti che offrono strumenti di question and answer che potremmo sfruttare; i principali sono: • Wiki Answers.com (www.wiki.answers.com/Q/) • Ask Metafilter (ask.metafilter.com) • LinkedIn answers (www.linkedin.com/answers) • Askville (askville.amazon.com)

Trovare informazioni nascoste con Google Google può essere utilizzato per reperire informazioni nascoste sulla rete; questo tema si discosta di molto dal posizionamento nei motori di ricerca, in quanto tali tecniche non ci permetteranno di aumentare la nostra popolarità. Per tale motivo, ci limiteremo a fornire alcune informazioni di base che speriamo suscitino la curiosità del lettore. In primo luogo, dovranno essere ben chiari i comandi che utilizzeremo in questa trattazione, presenti nell’appendice A.

Vulnerabilità web server Attraverso specifiche chiavi di ricerca, potremo scoprire alcune vulnerabilità dei web server per accedere a documenti o risorse presenti in essi; per esempio, per Apache 2.0 potremo digitare la seguente stringa nel campo di ricerca di Google:

Figura 13.4 - Esempio di risultato alla query “Apache/2.0 Server at” (intitle:index.of).

Altre query di ricerca da sfruttare per scoprire le vulnerabilità dei web server sono: • “Apache/1.3.28 Server at” intitle:index.of • “Apache/2.0 Server at” intitle:index.of • “Apache/* Server at” intitle:index.of • “Microsoft-IIS/4.0 Server at” intitle:index.of • “Microsoft-IIS/5.0 Server at” intitle:index.of • “Microsoft-IIS/6.0 Server at” intitle:index.of • “Microsoft-IIS/7.0 Server at” intitle:index.of • “Microsoft-IIS/* Server at” intitle:index.of • “Oracle HTTP Server/* Server at” intitle:index.of • “IBM _ HTTP _ Server/* * Server at” intitle:index.of • “Netscape/* Server at” intitle:index.of • “Red Hat Secure/*” intitle:index.of • “HP Apache-based Web Server/*” intitle:index.of

Ricerca di password e username Attraverso semplici ricerche è possibile scoprire file contenenti password e username, sia in chiaro, sia codificati. Per esempio, digitiamo in Google:

Questi due hack forniscono l’elenco di siti che hanno lasciato scoperti questi due tipi di file. In

pratica, le tecniche analizzate ci permettono di scoprire dimenticanze o inaccortezze dei webmaster e, in tal modo, ci consentono di porre rimedio a bug o errori presenti nei nostri siti web. Altre query di ricerca da sfruttare per scoprire password o username sono:

Ricerca di e-mail e informazioni personali Sempre sfruttando vulnerabilità e indicizzazioni non corrette di informazioni personali, possiamo facilmente scoprire repository di e-mail o indirizzi web. Per esempio, le seguenti query:

ci consentono di reperire utili informazioni nel web.

NOTA http://johnny.ihackstuff.com/ghdb/ è l’URL del sito nel quale si trova il Google Hacking Database, un’enciclopedica raccolta di stringhe di ricerca di Google del tutto simili a quelle precedentemente analizzate.

Fingersi Google per reperire informazioni In alcuni casi, per inesperienza dei webmaster o per indicizzare pagine protette, si ricorre a tecniche che consentono di inibire la visualizzazione agli utenti, ma non ai motori di ricerca, agendo sullo user agent. In poche parole, se, per esempio, lo user agent è Google, la pagina viene mostrata; in caso contrario, ne viene proibita la visualizzazione. Alcuni siti, quindi, sniffano lo user agent e, a seconda del browser in uso, rimandano l’utente a una pagina personalizzata. Si tratta di una tecnica facilmente bypassabile e utilizzata generalmente nei forum o in siti web di basso profilo. Quello che andremo a illustrare è uno stratagemma per accedere a tali contenuti protetti; ovviamente, se fosse richiesto un ulteriore username o password, tale tecnica non risulterebbe applicabile. Come primo passo, dobbiamo scaricare un’estensione di Firefox chiamata User Agent Switcher (https://addons.mozilla.org/it/firefox/addon/59). A questo punto, selezionando Strumenti > Default user agent > Search Robots, possiamo selezionare lo user agent da utilizzare per la simulazione.

Figura 13.5 - Utilizzo di User Agent Switcher.

In questo modo saremo in grado di accedere facilmente a quelle pagine che sfruttano stratagemmi per fornire contenuti differenti in base allo user agent. Per esempio, sul forum http://www.worldlivetv.org, alcune stanze, come quella dedicata alle TV italiane, erano visibili solo se impostiamo lo user agent di Google. Diversamente, verrà visualizzata una pagina che vi chiederà le credenziali di accesso, come si evince dalla Figura 13.6.

Figura 13.6 - Utilizzo di User Agent Switcher per visualizzare pagine nascoste.

Commenti Black Hat Abbiamo già visto, nei precedenti capitoli, come siano importanti le tecniche off page. Qui mostreremo alcuni esempi Black Hat SEO per inserire commenti ingannevoli allo scopo di aumentare il page rank del nostro sito web e portare nuovi visitatori. Molti siti web consentono di inserire commenti, ma i link inseriti in essi vengono postati con il rel= “nofollow”. Potremmo, tuttavia, sfruttare piccoli bug, cioè il link “dofollow” sostituisce “nofollow”. Per tale motivo, se inseriamo un link così strutturato nei commenti, esso dovrebbe avere la seguente forma:

Quindi, dobbiamo inserire l’attributo rel=”dofollow “ in qualunque collegamento postato nei commenti. In particolari siti web, inoltre, è possibile utilizzare un redirect direttamente all’interno di immagini. Per esempio, inserendo un’immagine così fatta:

oppure:

rimanderemo la pagina direttamente al sito web www.miapagina.com.

Commenti nei blog senza àncora Una delle tattiche White Hat più interessanti per ottenere dei link puliti e in tema con il nostro sito è utilizzare i commenti nei blog. Spesso però i nostri competitor non sono contenti di offrirci la possibilità di inserire un link all’interno dei loro post, in particolare verso il sito di un concorrente. Per riuscire a ovviare a questo problema in maniera non del tutto lecita, si può decidere di fare un commento con un link senza àncora. In questo caso, molte delle persone che gestiscono un blog non vedranno il vostro link, ma solo il vostro commento. In un test che ho condotto nel settore immobiliare, dopo aver eseguito 25 commenti, ho ricevuto 9 link senza àncora. Tutti questi link provengono da blog perfettamente in linea con il sito del mio cliente. Eccovi un esempio, sviluppato per un ipotetico cliente nel settore dell’immobiliare: “L’articolo che hai scritto è molto interessante, vorrei puntualizzare che per ottenere le agevolazioni per la prima casa bisogna verificare con attenzione che l’abitazione sia idonea…” Il nostro link, anche se non ha nessuna àncora, è inserito in un contesto molto in tema con il nostro sito. Inoltre, bisogna avere cura di inserire questo “ghost link” nelle vicinanze della parola

chiave che meglio identifica la pagina di atterraggio sul nostro sito Internet.

Brand jacking Questa tecnica consiste nello sviluppo di contenuti su forum, siti e portali verticali per incrementare le recensioni negative e quindi diminuire la reputazione di un marchio/azienda online. In particolare, nel settore turistico o della ristorazione è tipico fare false recensioni e/o prenotazioni o attraverso tool automatizzati bloccare il sistema di prenotazioni del soggetto attaccato.

Falsificare il PageRank Quella che illustreremo di seguito è una tecnica ormai sorpassata. In pratica, per falsificare il PageRank di una pagina, si effettuava un redirect (301 o 302) verso un sito web con un alto PageRank fino a quando anche il punteggio della pagina di base assume il medesimo valore. Una volta ottenuto il punteggio di PageRank desiderato, si rimuove il redirect e si iniziano a inserire i contenuti nella pagina ospite. I passi sono i seguenti: 1. acquistiamo un dominio; 2. utilizziamo il redirect 301 verso un sito con un elevato page rank. Ovviamente, è preferibile che il sito verso il quale stiamo effettuando il redirect tratti argomenti simili a quelli del nostro sito web; 3. attendiamo l’aggiornamento del PageRank da parte di Google (monitorandolo attraverso l’utilizzo della Google toolbar), che dovrebbe avvenire ogni tre mesi; 4. ad aggiornamento avvenuto, rimuoviamo il redirect e prepariamo le nostre pagine di contenuti. Questi quattro passi potranno fornire un PageRank fasullo al nostro sito web o alle pagine in cui abbiamo applicato tale tecnica. Per verificare se una pagina ha un PageRank falso, è sufficiente digitare in Google:

o:

e, se ci accorgiamo che i risultati corrispondenti appartengono a un sito rediretto (quindi non a quello inserito), abbiamo scoperto il trucco.

NOTA Altre tecniche atte ad aumentare la popolarità consistono nell’individuare forum, blog o siti web con un PageRank elevato e nell’inserire in essi commenti, post o articoli. Per esempio, HappyNews.com (PageRank 6) è un portale in cui gli utenti possono diventare giornalisti inserendo la propria storia. Ricordiamo che il valore del Page Rank non viene aggiornato da diverso tempo da Google e sotto alcuni aspetti risulta essere un concetto superato.

Post diffusion Chi ha un blog o un sito web con Feed RSS sicuramente avrà già sentito parlare di Ping. Di cosa si tratta? È semplicemente l’invio di un impulso, un segnale, da un server a un altro server per avvertire i motori di ricerca e le maggiori blog directory che il nostro portale/blog è stato aggiornato. Questo permette la diffusione capillare dei nostri post e quindi un aumento della visibilità. I maggiori software e servizi di blogging (come, per esempio, WordPress) mettono a disposizione appositi campi in cui inserire i servizi di Ping, per esempio: • http://rpc.pingomatic.com • http://ping.myblog.jp • http://xmlrpc.blogg.de

NOTA Questa tecnica, in realtà, non è una vera Black Hat, ma, se utilizzata in maniera eccessiva e senza controllo, può risultare “pericolosa”, perciò abbiamo preferito indicarla in questa sezione del libro.

Esistono, inoltre, svariati siti che ci permettono di pingare il nostro sito web semplicemente inserendo: • il nome del sito; • l’URL; • l’indirizzo RSS dei Feed. Portali che forniscono tali servizi sono, per esempio: • http://pingomatic.com • http://www.pingoat.com • http://www.pingmyblog.com • http://pingler.com

Un altro stratagemma per diffondere i propri post in maniera del tutto automatizzata è quello di collegare i vari social network (per esempio, Facebook a Twitter, Flickr a Twitter e via dicendo) e sfruttare i servizi per la diffusione delle informazioni all’interno di essi. Uno di questi servizi è https://ifttt.com/: è sufficiente registrarsi al sito web, collegare gli account dei diversi social network a cui siamo iscritti e postare una notizia direttamente da https://ifttt.com/. In questo modo il post verrà replicato in streaming su tutti i newtwork a cui siamo iscritti. In alternativa, è possibile sfruttare le API messe a disposizione da tale servizio per implementare applicazioni per il proprio sito web o blog in grado di diffondersi in maniera del tutto automatizzata.

Figura 13.7 - Esempio di utilizzo del servizio Pingomatic.com.

Figura 13.8 - Il servizio https://ifttt.com/.

In questo modo inseriremo un post che verrà replicato sui social network in cui siamo iscritti (per esempio, Twitter, Facebook ecc.). Semplice, veloce e centralizzato.

Automatizzare le operazioni Le strategie e le pratiche Black Hat SEO sono molteplici; come ultimo tip vi mostreremo alcune tecniche per creare operazioni automatizzate da sfruttare durante le fasi di ottimizzazione Black Hat. Per prima cosa, dobbiamo sfruttare un plug-in per Mozilla Firefox: iMacros, scaricabile dal seguente URL: https://addons.mozilla.org/en-US/firefox/addon/3863/ Questo software ci permetterà di creare script automatizzati da utilizzare direttamente all’interno di applicativi web. A questo punto possiamo sfruttare file JavaScript per eseguire specifiche operazioni o registrare azioni (come le macro di Excel, per intenderci) da rieseguire in modo automatico tutte le volte che vorremo. Al link http://wiki.imacros.net/Tutorials è possibile consultare una guida per creare script e sfruttare al massimo le potenzialità di questo software. Per esempio, potremo creare procedure in grado di inviare richieste di amicizia su Facebook in maniera del tutto indipendente, oppure registrare operazioni in grado di registrarci su forum o di apportare commenti automatizzati e via dicendo.

NOTA Se dobbiamo bypassare immagini Captcha, ci appoggeremo a servizi online come http://decaptcher2.com/.

Per esempio, questo è uno script di demo per iMacros:

La nostra creatività ci potrà portare a creare procedure automatizzate interessanti in ottica Black Hat SEO.

NOTA Quelle viste finora sono pratiche che possono essere classificate o meno come Black Hat SEO, a seconda dei vari punti di vista.

.EDU Website Nonostante l’evoluzione dei motori di ricerca, è plausibile pensare che i link provenienti da domini .edu abbiano ancora un discreto valore. Vogliamo quindi mostrarvi come procedere per creare un blog del tutto gratuito su domini .edu e poter così linkare il vostro sito web. Per prima cosa, dobbiamo individuare un elenco di siti web .edu su cui agire e, per fare questo, basta una semplice ricerca in Google.

NOTA Ecco un elenco di siti web da cui partire (alcuni link potrebbero non essere più attivi): • Ashworth Community Jive Blogs http://community.ashworthcollege.edu/index.jspa • Monroe.edu TechHelp wiki http://wiki.monroe.edu/index.php • Cosmology@UCI http://cosmology.uci.edu/Wiki/index.php

A questo punto non resta che registrarsi, compilare opportunamente i campi richiesti e creare il nostro blog o wiki inserendo link di ritorno verso il nostro sito web, come mostrato nella Figura 13.9.

Figura 13.9 - Esempio di post su siti .edu.

Analogamente, possiamo procedere creando profili su siti con TLD .edu, inserendo e pubblicizzando i nostri contenuti.

NOTA Molti siti web .edu, prima dell’approvazione di un post, necessitano di una validazione; per tale motivo invitiamo a scrivere nella lingua originaria del sito web e a creare post interessanti, mascherando il più possibile il loro “carattere promozionale”.

PBN (Private Blog Network) I PBN (Network di Blog Privati) sono un insieme di domini che una o più persone utilizzano per

sviluppare dei backlink verso i propri siti o quelli dei propri clienti. Per sviluppare un PBN, si può utilizzare sia domini di primo livello che blog su servizi come wordpress.com, tumblr.com o livejournal.com. Di norma, i domini di primo livello sono in grado di generare dei backlink di qualità migliore, se paragonati ai blog creati su domini di secondo livello su servizi gratuiti. Nella maggior parte dei casi, un PBN è sviluppato grazie a una serie di domini scaduti (dropped in lingua inglese). Un dominio già scaduto, ha il pregio di avere un profilo backlink già esistente di qualità e spesso pure dei contenuti in tema già sviluppati dai precedenti proprietari. Per recuperare i contenuti di un sito scaduto, si può utilizzare www.archive.org, un enorme enciclopedia dove sono raccolte le copie di quasi tutti i siti presenti nel world wide web.

Quali sono i vantaggi di avere un PBN? Avere un network di blog a propria disposizione, vi permette di avere il totale controllo su quello che state facendo e in che modo questo viene fatto. Così, anche in caso di una penalizzazione, avete la possibilità di intervenire e rimuovere i link che hanno portato a quella penalizzazione.

Come trovare domini scaduti Una delle operazioni più complicate nella creazione di un PBN è quella di trovare dei domini scaduti di qualità, inerenti la nicchia di nostro interesse. Idealmente, un PBN è sviluppato da circa una decina di domini che sono utilizzati per lo sviluppo di link e/o anche per scambiare link con altri siti nella stessa nicchia. Per esempio, se il nostro dominio parla di case è interessante ottenere dei link da siti che parlano di manutenzione delle case, assicurazioni sulle case e così via. L’importante è che quando inseriremo un link in questi domini il tutto risulti credibile agli occhi di Google. Anche se stiamo utilizzando una tattica Black Hat per ottenere dei link, il risultato finale dovrà sembrare il più White Hat possibile. Vediamo due tools che possono fare al caso nostro. Expireddomains.net Quando si lavora su mercati internazionali, expireddomains.net è un ottimo tool online che fornisce una serie di liste di domini scaduti. Ogni giorno, migliaia di domini vengono abbandonati dai propri proprietari. Tuttavia, solo una piccola parte di questi domini sono di utilità per lo sviluppo di un PBN. Nidoma Se il vostro mercato di riferimento è quello italiano, allora il servizio di backorder di Nidoma è sicuramente uno dei migliori per trovare dei domini scaduti con un buon profilo di backlink. Quando si trova un potenziale dominio interessante, bisogna verificare la sua storia passata. Per avere una veloce panoramica del profilo dei backlink si può utilizzare un account gratuito su Majestic o Ahrefs. Normalmente, analizzando i primi 10 domini è abbastanza per farsi un’idea della qualità e della storia del dominio in esame. Una volta che si trova un dominio con un

profilo backlink discreto, si può procedere ad analizzarlo con Wayback Machine (www.archive.org). Se l’analisi dell’ultimo anno ci mostra un sito normale, allora abbiamo un buon candidato da inserire all’interno del nostro PBN.

Hosting e indirizzi IP Per rendere il nostro network di siti il più reale possibile, è importante che ogni dominio sia residente su un servizio di hosting differente. Avere tutti i domini sulla stessa macchina è un chiaro segno per Google che il proprietario dei siti sia solo uno. Spesso, chi sviluppa dei network di siti si affida ad aziende che offrono hosting sviluppati per PBN. Questa soluzione, se da una parte può semplificare la creazione di un PBN, dall’altra inserisce i vostri siti all’interno di una struttura che ospita già altri siti presenti all’interno di un network di siti. Ottenere indirizzi IP con una classe C è essenziale, per non fornire a Google una traccia del nostro network. Risulta poco credibile che un dominio riceva 10 o più link, da siti differenti ma tutti con la stessa classe IP. O questa situazione è una fortuita coincidenza, o sono tutti gestiti dalla stessa persona. Ottenere backlink da una o poche classi IP può far alzare il campanello di allarme di Google e quindi far avviare una revisione manuale del nostro sito da parte di un addetto di Google.

Contenuto e aspetto grafico Per sviluppare un network credibile si devono creare dei siti reali, purtroppo non ci sono altre soluzioni. Ogni sito internet deve avere un tema differente e contenere dei contenuti unici di qualità. In questo modo, anche se il nostro sito viene sottoposto a un controllo manuale, non farà scattare nessuna penalizzazione. Un altro consiglio che mi sento di offrirvi è di cercare di posizionare alcuni dei contenuti presenti sui siti del nostro network. Avere del traffico organico reale, è un ottimo metodo per “nascondere” agli occhi di Google i domini che utilizziamo per creare backlink. Per fare questo, basta scegliere alcune keyword a bassa concorrenza e con poche pagine indicizzate. La scrittura di un contenuto ben ottimizzato ci permetterà di posizionarci senza troppi problemi. Inserire video e immagini all’interno delle pagine, così come negli articoli, è un’ottima soluzione per rendere più credibile il vostro sito Internet. Su Fiverr, per pochi euro avete la possibilità di trovare delle persone che realizzano dei video su vostre indicazioni. Un canale YouTube con dei video che poi inseriremo all’interno del sito è molto utile per rendere reale il vostro progetto. Se, grazie ad archive.org, trovate i contenuti del precedente proprietario, spesso è opportuno rimaneggiare questi contenuti riscrivendoli o cambiandoli in parte. In questo modo, oltre a migliorare il testo, si evita di violare il copyright sul testo prodotto dal precedente proprietario. In particolare, nel mercato statunitense, alcuni network sono stati individuati proprio grazie a delle segnalazioni di infrangimento del copyright. Prima di inserire un backlink verso il vostro sito, sviluppate almeno 5/6 contenuti di valore e aspettate che questi siano correttamente indicizzati da Google. Se possibile, create un piano editoriale che vi permetta di aggiornare saltuariamente i domini che compongo il network che state sviluppando.

NOTA TIPS: Creare una pagina per la privacy policy, una per i contatti e una con una breve introduzione su chi gestisce il sito. Non è importante che i dati siano veri, servono solo per fare sembrare più reale il vostro sito Internet.

Link in uscita Li tratto come ultimo punto, ma sono la cosa più importante quando si utilizza un PBN per sviluppare una campagna di link building. Quando si creano dei backlink, è importante fare in modo di non inserire dei link verso i nostri siti in tutte le pagine dei siti presenti all’interno del nostro network. Utilizzate con parsimonia questi siti, perché altrimenti potreste ricevere un avviso in Search Console per link non naturali. Quando create gli articoli per il vostro network, dovreste avere cura di inserire un solo link verso il sito che volete posizionare e un link verso un sito autorevole (qui potete scegliere tra Wikipedia, testate giornalistiche o siti nel vostro settore. La cosa importante è che non siano vostri competitor). Ogni articolo dovrebbe anche contenere delle immagini e se possibile un video da YouTube. Sviluppare dei contenuti in questo modo vi permette di avere un buon link da una fonte autorevole di cui avete il pieno controllo.

Parasite site Con il termine Parasite site, si vuole identificare lo sviluppo di siti appoggiandosi a un sito che gode di un forte trust e/o autorevolezza, come per esempio google.com, blogspot. Una volta che si sarà sviluppato il sito, si potranno inserire una serie di backlink verso le pagine che vogliamo posizionare. Vediamo in dettaglio, le due tipologie più comuni di Parasite site che vengono sviluppati. Buffer site I buffer site sono dei siti sviluppati con l’obiettivo di creare il maggior numero di backlink verso una pagina o un sito. Oltre a utilizzare siti con una forte autorevolezza, spesso si acquistano domini scaduti ma con delle buone metriche. In questo modo, si ha la possibilità di sfruttare a proprio piacere tutto il potenziale del sito. Questa tipologia di Parasite site viene sviluppata con obiettivi a breve termine. Molte volte, Google identifica i siti sviluppati per queste attività e li penalizza o elimina totalmente dalle SERP in pochi mesi. Ranking site I ranking site sono dei siti sviluppati con l’obiettivo di portare un traffico di qualità verso la pagina o il sito che vogliamo linkare. Questi siti, che sono sviluppati con domini di terzo livello e/o blog, sfruttando le buone metriche del sito che li ospita per posizionarsi in SERP e convogliare questo traffico verso una pagina di destinazione o una affiliazione.

Questa tipologia di Parasite site, se ben sviluppati, possono essere utilizzati anche con obiettivi a medio termine. Google in molti casi riesce con difficoltà a identificare questi siti.

NOTA Si Ringrazia claudio Marchetti per aver collaborato alla realizzazione di questa parte del libro.

Strumenti automatizzati per la Link Building Tra le varie tecniche Black Hat usate in passato e sempre meno efficaci troviamo l’utilizzo di tool automatici per l’inserimento di siti web in directory o per la generazione di contenuti pseudo-casuali. Su Internet si trovano centinaia di questi tool; uno di essi è, per esempio, Magic Submitter, un software che consente di inviare richieste simultanee di inserimento a svariate directory.

Figura 13.10 - MagicSubmitter all’opera.

Una volta specificato il sito web e la categoria, il software in automatico procede all’inserimento in differenti directory, con i pro e i contro del caso. Altri sistemi utilizzano la tecnica dello SPINTAX per generare testi casuali da utilizzare per attività di article marketing; tra questi, per esempio, No Hands SEO consente di generare testi casuali e di inserirli in siti di article marketing, directory e addirittura in commenti di blog e forum. Sono tutte tecniche di cui i SEO e non hanno abusato in passato e ora possono solo provocare “penalizzazioni”; alcuni stanno pensando di usarle per la Negative SEO.

La Negative SEO, il lato oscuro dell’ottimizzazione Benedetto Motisi ci spiega che cos’è la Negative SEO e come possa funzionare o meno dopo gli aggiornamenti degli algoritmi di Google e dei principali motori di ricerca. Che cos’è la Negative SEO? È una presunta tecnica atta a indebolire il trust e il posizionamento di un sito web duplicandone i contenuti e facendo puntare al sito della vittima centinaia di link con anchor text esatti da siti non autorevoli.

La ragione d’essere della SEO negativa Chi fa SEO negativa ha un solo obiettivo: danneggiare un competitor in maniera diretta; a livello più avanzato si parla di vere e proprie tecniche da cracker. Nel 2013 anche dalle parti di Mountain View si sono resi conto del problema e hanno fornito i webmaster di uno strumento noto come Disavow Tool o Rinnega Link. Google ha poi messo a disposizione vari strumenti di Spam Reporting consultabili all’URL https://support.google.com/webmasters/answer/35265.

Le tecniche base di chi fa SEO negativa Link Building negativa: è la tecnica più comune, a giudicare dall’importanza che Google ha dato e dà ai link e a questa problematica. Di mercati di compravendita link sul web ce ne sono a iosa, e fino a poco tempo fa venivano utilizzati per spingere il proprio sito. Dato che questa tecnica è fortemente penalizzata, perché non comprarli adesso per lanciarli contro il competitor di turno? Piccola postilla sulla Link Building negativa: ho analizzato vari profili di link esterni che puntavano a un sito con anchor text forzatamente black, come “viagra, cialis, xxx, porn”. Qualcuno un po’ più furbo, per sfruttare le caratteristiche di Penguin, inserisce solo anchor text esatti da siti di pessima qualità, che sono anche più difficili da individuare quando si fa un’analisi per il rinnega link. Zombie Network: evoluzione della tecnica precedente: anziché affidarsi a servizi esterni, qualche SEO Black Hat attua questa tecnica negativa comprando domini scaduti di infimo livello (meglio se bannati) e creando blog automatizzati di bassa qualità da cui far partire migliaia di link verso i siti dei competitors. PHP Injection: qui andiamo un filo più sul tecnico: in pratica, si sfruttano le falle di sicurezza del sito di un competitor, in cui vengono inseriti contenuti spammosi ad hoc. Attacco DDoS: si “bombarda” il sito di accessi fasulli per saturare la banda e “farlo cadere”. Lato SEO, i riscontri si possono avere nel caso di attacchi DDoS reiterati che rischiano di “tenere su” il sito a tempo indeterminato, facendolo quindi svalutare agli occhi del motore di ricerca, che lo considera out of service.

La SEO negativa conviene? No. Non conviene fare SEO negativa. Semplicemente perché il risultato non è garantito – come

quello della SEO “buona” – e non costa poco: chi sa farla si fa pagare davvero tanto. In ogni caso, fare SEO negativa contro un sito con un forte trust è poco conveniente: scalfire il muro di fiducia costruito con la buona ottimizzazione sui motori di ricerca o semplicemente perché si è un marchio è come azzeccare un terno al lotto. Ora che Google Penguin è Real Time sarà interessante vedere come Google si comporterà anche con azioni di Negative SEO!

Tool e strumenti SEO L’utilizzo e la conoscenza di software in grado di gestire le operazioni lato SEO è fondamentale per chi opera in questo settore. Molti tool sono stati analizzati e messi in luce in questo libro, durante la trattazione di argomenti specifici; altri, quelli che, secondo il nostro parere, sono i migliori, saranno illustrati di seguito. Prenderemo in considerazione principalmente strumenti gratuiti; vogliamo, però, ricordare che oggi la SEO è una disciplina molto diffusa e quindi anche i tool e i software a disposizione sono svariati, e tra di essi vi sono strumenti anche a pagamento molto utili che, in alcuni contesti, ci potrebbero “facilitare la vita”.

Search Console (ex GWT Google Webmaster Tools) È lo strumento che qualsiasi webmaster, anche alle prime armi, dovrebbe utilizzare: in italiano assume il nome di strumenti per webmaster di Google. Per utilizzare il tool, dobbiamo essere registrati con Google o avere un account gmail; fatto ciò, possiamo accedere dal link www.google.com/webmasters. Il passo successivo è quello di aggiungere un sito web da monitorare attraverso il pulsante Aggiungi sito e inserire il meta tag prodotto all’interno del nostro sito web, per esempio:

oppure caricare un apposito file sul server per verificare che siamo amministratori del dominio. Finita la fase di verifica, siamo pronti a utilizzare questo interessante strumento. Attraverso di esso, possiamo: • inviare le nostre sitemap; • vedere i sitelink prodotti da Google (se presenti); • cambiare indirizzo, cioè reindirizzare il traffico verso un nuovo sito web; • impostare il target geografico e la velocità di scansione; • analizzare le principali query di ricerca; • vedere i link che rimandano al nostro sito web; • studiare le principali parole chiave del sito; • percepire eventuali errori di scansione, malware o scoprire suggerimenti HTML forniti da Google; • sfruttare le funzioni sperimentali per inviare sitemap video, conoscere la velocità di caricamento delle nostre pagine web e vedere come le pagine del sito web vengono visualizzate da Googlebot.

Tutti questi servizi sono gratuiti e gestibili in maniera semplice dal pannello di controllo del sito web. In tal modo possiamo monitorare nel tempo il sito web e percepire miglioramenti o problemi che potrebbero subentrare dopo un’azione di marketing o SEO.

Figura 13.11 - Schermata della Search Console.

NOTA La Search Console di Google è in continuo aggiornamento, possiamo vedere i dati strutturati le informazioni su AMP. È un valido strumento per monitorare il nostro sito Web.

Google Alert Di tutti i servizi che Google ci offre, Alert (http://www.google.com/alerts) è probabilmente quello più sottovalutato. Esso ci offre, invece, un tool molto potente da sfruttare per monitorare i nostri siti web o i nostri competitors.

Figura 13.12 - Schermata di Google Alert.

Per configurare il tool, non dobbiamo fare altro che completare i campi: • creare una query per uno specifico argomento utilizzando la sintassi illustrata nell’appendice A; • indicare la sfera all’interno della quale attivare l’avviso (tra Tutto il web, News, Blogs, Aggiornamenti e Discussioni); • specificare la frequenza di ricezione delle notifiche (tra: Occasionale, Giornaliera e Settimanale); • indicare il volume di ricerca tra tutti i risultati o solamente i risultati migliori; • inserire la tipologia di consegna delle statistiche (è possibile scegliere tra un indirizzo email o un Feed RSS). Completati questi passi, siamo in grado di sfruttare il servizio di Google Alert, che ci avviserà quando vi è un riscontro effettivo con la query introdotta. Per esempio, la query:

recupera tutti i riferimenti al nostro sito web provenienti da Facebook Italia, mentre la query:

verifica i backlink verso il nostro sito web. Proseguendo in tal modo, possiamo facilmente capire le potenzialità dello strumento, utile anche nei casi in cui vogliamo monitorare la reputazione online.

Google Analytics Esistono numerosi strumenti di statistiche online; Google Analytics (https://www.google.com/analytics) è uno di questi, e ci permette di monitorare l’andamento delle visite per i nostri siti web e di gestire report dettagliati.

Figura 13.13 - Google Analytics.

Per iniziare a sfruttare questo tool, dobbiamo preliminarmente inserire in ognuna delle pagine web da monitorare lo script di raccolta dati. Per spiegare appieno le funzionalità di questo strumento servirebbe un libro intero; in questa trattazione illustreremo le funzionalità utili per monitorare le nostre campagne SEO. La cosa interessante è la possibilità di collegare l’account

di Google Analytics con quelli di Google AdSense e AdWords per ottenere statistiche e report dettagliati e correlati. Tra le principali peculiarità di questo strumento, possiamo annoverare le seguenti: • analisi dei visitatori; • target geografico; • gestione avvisi; • sorgenti di traffico; • monitoraggio eventi; • filtri per le parole chiave.

NOTA Grazie all’ultima release di GA, abbiamo a disposizione diversi strumenti per monitorare conversioni, traffico e provenienza dei visitatori. Non solo, possiamo collegare gli strumenti per webmaster con Google Analitycs, in modo da visualizzare i dati SEO direttamente in GA.

NOTA Uno dei parametri utilizzati da Google Analytics è la frequenza di rimbalzo, ossia la percentuale dei visitatori che ha lasciato la navigazione del sito web dopo averne visitato una sola pagina. Per tale motivo, una frequenza di rimbalzo bassa sta a indicare che i visitatori navigano su più pagine del sito web.

Oltre alle funzionalità elencate, ve ne sono molte altre che rendono questo strumento di statistica davvero completo e utile per monitorare le nostre campagne SEO e SEM. Esiste, inoltre, la possibilità di personalizzare statistiche, creare segmenti di analisi e impostare filtri avanzati sulle keyword. Per approfondire questo argomento, vi consigliamo la lettura del blog http://www.goanalytics.info/ e di www.libro-seo.it.

NOTA Tra gli altri servizi di Web Analisi non possiamo non citare http://www.shinystat.com/, uno strumento completo e molto potente, disponibile sia nella versione free, sia a pagamento.

Strumenti Webmaster Bing Anche Bing, come Google, offre un tool per webmaster accessibile da:

http://www.bing.com/toolbox/webmasters Il procedimento è simile a quanto visto in precedenza: è necessario inserire un apposito tag per validare il sito web che si vuole monitorare. Anche questo tool mette a disposizione statistiche basilari per l’analisi di errori del crawler e strumenti per lo studio delle pagine indicizzate e del traffico prodotto da specifiche keyword.

NOTA Recentemente Bing e Yahoo! hanno stretto un accordo commerciale ed è stata completata una transazione algoritmica da Yahoo! verso Bing (http://tinyurl.com/accordoBingYahoo). Per tale motivo, il “vecchio” Yahoo! Site Explorer è stato incluso nelle nuove funzionalità degli strumenti per webmaster di Bing.

Figura 13.14 - Bing Webmaster Tool.

Gli strumenti per webmaster di Bing sono stati recentemente arricchiti con numerose funzionalità, tra cui la ricerca delle keyword e la normalizzazione degli URL: un tool che diventa davvero utile per gestire progetti SEO anche su Bing e Yahoo!.

NOTA Tra gli altri tool possiamo menzionare WebCeo o tools.seobook.com.

Monitorare la posizione delle keyword Dopo aver speso la maggior parte del nostro tempo a ottimizzare e promuovere un sito web,

giunge il momento in cui dobbiamo analizzare i risultati ottenuti e vedere, per specifiche keyword, come il nostro sito risulta posizionato nella SERP. Per fare questo, vogliamo segnalarvi, tra i numerosi tool presenti su Internet, due strumenti che riteniamo particolarmente adatti a tale scopo: • Rank Checker: tools.seobook.com/firefox/rank-checker • Rank Tracker: www.link-assistant.com/download/windows/ranktracker-jre.zip • Advanced Web Ranking: http://www.advancedwebranking.com/purchase.html Rank Checker è un plug-in per Mozilla Firefox: una volta installato, dobbiamo inserire l’URL del nostro sito web e le keyword interessate. Lo strumento ci fornirà la posizione del sito web su Google.com, Bing.com e Yahoo.com, come mostra la Figura 13.15.

Figura 13.15 - Utilizzo di Rank Checker.

Rank Tracker, a differenza di Rank Checker, consente di specificare i motori di ricerca su cui effettuare l’analisi. Per tale motivo, è indicato per verificare la posizione anche su motori internazionali o per specifiche versioni linguistiche. Il procedimento è analogo: si inseriscono l’URL del sito web, le keyword da analizzare e si specificano i motori di ricerca di cui si desidera avere il report. A fine analisi verrà prodotto uno schema, come quello in Figura 13.16, che ci mostrerà come è posizionato il sito web per le keyword specificate.

Figura 13.16 - Utilizzo di Rank Tracker.

Advanced Web Ranking consente di monitorare keyword e competitors all’interno dei principali motori di ricerca anche con scheduling automatizzati. Interessante è la funzionalità che permette di impostare il Browser Emulation per evitare il ban dell’IP. AWR permette, inoltre, la gestione di progetti per diversi clienti e il monitoraggio della posizione nella SERP per specifiche keyword. Uno strumento fondamentale per capire se le azioni SEO intraprese sono andate a buon fine o se siamo incappati in eventuali penalizzazioni.

Figura 13.17 - Esempio di utilizzo di Advanced Web Ranking.

NOTA Per il monitoring delle keyword esistono diversi tool online, ad esempio SemRush: il vantaggio di questi strumenti rispetto alle versioni desktop è che non inibiscono l’indirizzo IP durante l’elaborazione.

NOTA Potete trovare altri interessanti tool su www.libro-seo.it. Vi ricordiamo che oggi ha senso valutare la posizione media, il posizionamento di un risultato è “influenzato” da diversi fattori. Non focalizziamo troppo l’attenzione sul posizionamento preciso e unico di poche keyword ma valutiamo nel complesso un progetto SEO.

Tool per l’analisi dei link Abbiamo visto e analizzato, nel corso del libro, diversi tool e strumenti utili per la SEO e per azioni di Web Marketing. Ora vogliamo dedicare qualche parola agli strumenti per l’analisi dei backlink. Questi tool diventano utili soprattutto nella gestione di progetti di grosse dimensioni e sono indispensabili per monitorare nel tempo scambi di link o link in ingresso che “spariscono”. Ovviamente esistono sul web centinaia di tool differenti che svolgono l’analisi dei backlink: cercheremo di mostrarvi quelli che, secondo la nostra esperienza, possono essere i più interessanti.

Software online per l’analisi dei backlink Ahrefs (http://ahrefs.com): tool con svariate funzionalità, sfruttabili al massimo nella versione professional a pagamento (Figura 13.18).

Figura 13.18 - Ahrefs in azione.

Oltre alla possibilità di analizzare nel dettaglio tutti i link in ingresso di un sito web, ci consente di migliorare le performance del nostro sito segnalandoci problematiche on page o pagine duplicate grazie ai numerosi tool. Linkdiagnosis (http://www.linkdiagnosis.com): interessante strumento installabile anche come estensione di Mozilla. MajesticSeo (http://www.majesticseo.com/): uno degli strumenti per l’analisi dei backlink più usato dai professionisti del settore. Dispone di uno dei più grandi web index della rete (oltre 50 miliardi di pagine). È necessario registrarsi per creare un proprio account gratuito per iniziare a sfruttare i vari servizi: link analysis, identificazione di attributi nofollow e dofollow, redirect e molto altro. MajesticSeo offre un’interfaccia utente molto intuitiva e le statistiche sono aggiornate quotidianamente. La pecca, come per tutti gli strumenti professionali in ambito SEO, consiste nel fatto che la versione gratuita offre dati limitati al proprio sito, mentre, per poter analizzare gli URL dei siti concorrenti, è necessario abbonarsi al servizio. MajesticSeo è uno strumento davvero utile e fondamentale per monitorare i link e le nostre campagne di link building.

Figura 13.19 - MajesticSeo in azione.

Backlinkwatch (http://backlinkwatch.com): tool gratuito utile per avere una visione d’insieme dei principali link in ingresso verso il nostro sito web.

Software per desktop per l’analisi dei backlink WebCEO: software completo utile non solo per l’analisi dei link, ma anche per la verifica dei link in ingresso, il monitoring dei fattori SEO on page e per l’analisi del ranking delle keyword. Advanced link manager: ci consente di monitorare l’andamento nel tempo dei backlink, sia come numero, sia come verifica di link in ingresso non più funzionanti. È uno strumento completo con diverse peculiarità da scoprire. Link Assistant e SEO SpyGlass: software appartenenti al tool SEO Power Suite. Partendo dall’URL di un sito web, mostrano tutti i backlink per quel particolare sito web. Sono presenti, inoltre, interessanti funzionalità di reportistica e strumenti avanzati per la gestione di progetti e dello stato dei link. L’utilizzo di questi tool ci consente di monitorare nel tempo i link in ingresso verso il nostro sito web e quindi di capire le logiche e le strategie da intraprendere per ottimizzare una campagna

SEO di visibilità sul web.

Tool SEO Generici Esistono diversi tool e strumenti SEO: abbiamo visto i principali per l’analisi dei backlink e per l’analisi del posizionamento nelle SERP. Esistono suite SEO che ci consentono di fare diverse attività, gestire progetti complessi e monitorarne l’andamento on-site e off-site. Vediamone alcuni.

SEO ZOOM: una suite italiana SEOZoom è un software online che contiene oltre 30 strumenti adatti a ogni attività di Search Marketing e promozione attraverso i motori di ricerca. Le funzionalità spaziano in ogni ambito della SEO: dall’analisi di domini e delle keyword fino a strumenti per i copywriter e per la keyword research. È possibile monitorare i propri siti web attraverso l’area progetti grazie alla gestione centralizzata che consente di utilizzare degli strumenti dedicati allo sviluppo della propria strategia SEO. Nella dashboard del progetto è possibile monitorare il traffico organico e prendere visione dei posizionamenti delle keyword insieme ai volumi di ricerca e al traffico stimato. All’interno dell’area progetti è disponibile la sezione keyword monitorate: si tratta di un rank tracker attraverso il quale è possibile inserire le proprie top keyword per seguirne il posizionamento organico. Inoltre è possibile constatare sia la distribuzione delle parole chiave del proprio sito web all’interno delle prime cinque pagine di Google che verificare il posizionamento di tutte le keyword di SEOZoom per le quali il dominio è posizionato.

Figura 13.20 - SEO Zoom: gestione di un progetto.

Data l’importanza che ancora oggi è attribuita ai link, non poteva mancare uno strumento di rilevazione dei backlink che puntano verso il nostro sito web. A differenza di altri tool dedicati,

il motore backlink di SEOZoom effettua un’analisi qualitativa del profilo backlink con suggerimenti su possibili scambio link, link provenienti da siti sospetti di spam ed eventuali sbilanciamenti di tutto il profilo. Questa tipologia di informazioni è molto utile e preziosa per evitare penalizzazioni manuali da parte di Google. Nell’area SEO Audit è possibile effettuare l’analisi che valuta tutte le problematiche di natura on-page per verificare se il sito è afflitto da errori di natura tecnica. In questa sezione viene assegnato uno score al sito in base agli errori che sono stati riscontrati e che dovrebbero essere corretti.

Figura 13.21 - SEO Zoom keyword correlate.

In SEOZoom ci sono ben due aree dedicate al content marketing. La prima è quella degli strumenti editoriali: si tratta di una serie di strumenti e funzionalità che ci vengono in aiuto durante la stesura dei contenuti. L’altra, invece, è l’area dedicata alla keyword research che permette di individuare nuove parole chiave da inserire all’interno del testo e costruire la nostra lista di keyword. SEOZoom è uno strumento molto potente che racchiude tutti gli strumenti che un SEO deve avere a disposizione per gestire al meglio le proprie attività.

SemRush SemRush è una suite SEO che permette di gestire i propri progetti e quindi avere sotto controllo l’andamento delle posizioni in SERP multilingua, analisi dei backlink, gestione delle menzioni nei social media e molto altro. Senza entrare nel dettaglio, come illustra la Figura 13.22 è uno strumento completo che ci consente di gestire diversi progetti, avere report personalizzati e monitorare l’andamento delle keyword.

Figura 13.22 - SEMRush Tool SEO.

Ecco il link per provarlo gratuitamente per 30 giorni http://bit.ly/semrush-tool-seo.

ScreamingFrog ScreamingFrog (https://www.screamingfrog.co.uk/seo-spider/) non è una vera suite SEO, ma è uno strumento di analisi SEO del proprio sito web che ci consente in modo rapido e veloce di: • trovare pagine duplicate; • individuare problematiche strutturali (404, http status code errati); • trovare i broken links; • generare XML sitemap; • analizzare lo stato di interconnessione interna dei link; • e molto altro. È possibile collegarlo alla Search Console e Google Analytics per avere una serie di informazioni correlate.

NOTA Il funzionamento è molto simile al tool Xenu, che abbiamo avuto modo di vedere durante la trattazione di questo libro.

Lo strumento prende in ingresso un URL e ne fa l’analisi completa. Nel report generato (come mostra la Figura 13.23) possiamo trovare: indirizzi interni, indirizzi esterni, codici, status code dei server, permalink, title, meta description, H1, H2, immagini, meta & canonical e custom.

Figura 13.23 - Screaming Frog SEO Spider in azione.

È un tool molto utile per monitorare siti web di grosse dimensioni e per avere un’idea globale dell’ottimizzazione di un sito web.

Visual SEO Visual SEO Studio è una suite software dedicata all’analisi SEO dei siti web. Il cuore del prodotto è uno spider SEO che emula il comportamento del crawler di un motore di ricerca, mostrandone in tempo reale i percorsi di esplorazione tipici. Il prodotto è contraddistinto da un approccio visuale nella presentazione dei dati; diverse Viste permettono di individuare facilmente la parti su cui concentrarsi per prime.

Figura 13.24 - Visual SEO: struttura del sito.

Allo spider il software affianca un completo set di strumenti per la generazione, validazione e

auditing delle Sitemap XML. Fiore all’occhiello sono gli strumenti di reportistica ottimizzati per i flussi di lavoro più comuni, che consentono di risparmiare tempo evidenziando e raggruppando le informazioni importanti. Per necessità più specifiche offre un potente motore di interrogazione orientato alla SEO completamente personalizzabile dall’utente.

Figura 13.25 - Visual SEO: crawling di un sito web.

Unico nel suo genere, Visual SEO Studio consente all’operatore di salvare miniature delle pagine web. Prodotta dall’italiana aStonish Studio srl, è disponibile in sette lingue: italiano, francese, inglese, polacco, russo, spagnolo e tedesco. Visual SEO Studio è disponibile nelle edizioni Community (gratuita, con limitazioni) e Professional (a pagamento, con Trial gratuita di 30 giorni) http://visual-seo.com/it/.

NOTA Tra gli altri Tool SEO Possiamo citare: • https://moz.com/tools • www.searchmetrics.com • https://www.sistrix.it/ • http://www.webceo.com • https://www.serpwoo.com/ • https://www.deepcrawl.com/

Altri strumenti e API per analisi SEO Per concludere, vogliamo mostrarvi altri tool SEO (oltre a quelli già illustrati durante la trattazione) a nostro avviso molto utili per monitorare le nostre attività sul web. Woorank (http://www.woorank.com/): ha subito numerosi aggiornamenti nell’ultimo anno ed è diventato un tool davvero potente. È sufficiente inserire l’URL da analizzare per ottenere una serie di informazioni molto utili, come: • dati on page; • whois; • report; • velocità di caricamento. Gaconfig (http://gaconfig.com/): strumento utile per gestire le configurazioni avanzate di Google Analytics. SEO excel plugin (http://nielsbosma.se/projects/seotools/): una serie di strumenti integrati con Excel, estremamente utili e potenti per la gestione di progetti SEO, come: • analisi e debug on page; • domini di ricerca; • string templating; • integrazione Google Analytics. API di Adwords (https://developers.google.com/adwords/api/): API per gli sviluppatori, per integrare ed estendere funzionalità nell’ambito di servizi SEM. Web Sniffer (http://web-sniffer.net/): tool rapido per analizzare gli Header Status del proprio sito web, importante nel caso di redirect 301 per analizzarne il corretto funzionamento.

NOTA Tra gli altri software professionali possiamo menzionare WebCEO (già analizzato) e SEO Power Suite, una serie di tool utili per coprire tutti gli scenari per progetti di Search Engine.

Tutti i tool analizzati rappresentano un valido supporto per ogni campagna SEO e possono rivelarsi davvero utili per gestire progetti web anche di grosse dimensioni.

NOTA Per concludere, vogliamo segnalarvi quattro agenzie SEO leader nel mondo, in termini di innovazione prodotta, qualità delle risorse offerte e livello di eccellenza e vision nel settore: • https://seogadget.co.uk/ • http://www.distilled.net/ • http://www.seomoz.org/ • http://searchengineland.com/

Conclusioni e punti salienti del capitolo Abbiamo analizzato alcuni aspetti della SEO Black Hat per darvi una visione d’insieme di come questa materia sia ampia e piena di sfaccettature. Detto questo, ricordiamo che le tecniche SEO Black sono molto rischiose e quindi se volete provarle, applicatele su progetti di test. Infine abbiamo visionato alcuni dei diversi tool che i SEO possono sfruttare nei loro progetti per facilitarsi il lavoro.

“Il design non è come sembra o come appare. Il design è come funziona”. (Steve Jobs)

Capitolo 14 Esempi e casi studio di alcuni progetti SEO Lo scopo di questo manuale è dare un’idea approfondita sul mondo della visibilità online. Avere alcuni casi studio d’esempio sarà utile per capire meglio alcuni meccanismi e darvi spunti su cui riflettere.

NOTA Grazie ad alcuni colleghi ed amici SEO ho realizzato questo capitolo in cui sono riassunti alcuni esempi di attività di posizionamento strategico all’interno dei motori di ricerca.

Calcolare il ritorno dell’investimento di una ricerca su Google di Benedetto Motisi Il nodo gordiano dell’attività di Search Engine Optimization è il calcolo del Ritorno dell’Investimento (o ROI), giusto dato da fornire al cliente per due motivi fondamentali: 1. dare seguito a una professionalità solida come il granito; 2. evitare di infilarsi in situazioni più scure del giaietto. Insomma, calcolare il ROI delle attività di SEO ti permette di lavorare con successo sia per il cliente, che ricava un profitto dalle attività della consulenza (altrimenti sarebbe poco più di un mecenate), sia per te che salti a piè pari personaggi che chiamare possibili clienti invece di sicure fregature è fin troppo lusinghiero. Tuttavia per sciogliere il nodo non puoi fare come il sagace Alessandro Magno, e tagliarlo di netto con la tua spada, ma ti devi mettere in condizione di venire a capo della matassa in modo sistematico.

Caso studio, e-commerce di articoli sanitari Voglio tirare fuori due numeri di un mio caso studio, un e-commerce di articoli sanitari. Come penso immaginerai, il Ritorno dell’Investimento dalle attività di posizionamento non lo tiriamo fuori dalle visite o dai contatti (anche se possono essere indicatori di performance o KPI collaterali) ma dagli acquisti. Si tratta di un e-commerce quindi deve vendere, bontà divina! Estremizzando sono dell’idea che qualsiasi pagina di qualsiasi progetto online debba avere uno dei tre obiettivi citati poco sopra. Altrimenti rischia di non avere raison d’être. Nel nostro caso, la situazione era la seguente: Il cliente, avendo in mano qualche dato, aveva interesse a posizionarsi sulla query “stampelle” (circa 3600 ricerche mese) rispetto, ad esempio, a “sollevatori per disabili” (720 ricerche mese). Ora, a parità di competizione – i siti del settore sono più o meno gli stessi – se dovessi puntare alle visite, darei ragione da vendere a questo approccio. Ma il funnel di conversione è un po’ più profondo, e quel che devo calcolare è il fatturato che queste attività di SEO possono portare. Inoltre, da Search Console, noto che un ottimo posizionamento su “stampelle” nella top three organica non produce più del 5% dei click (circa 180) a causa di una SERP piena di distrazioni come Google Shopping, ads invasivi e competitor organici come comparatori di prezzo. “Sollevatori per disabili”, anche solo da top ten, genera un CTR maggiore (il 10%) quindi circa 72 click. Se dovessimo restare nell’alveo delle visite, continuano a vincere le stampelle – sorreggendo il progetto di visibilità. Ok, battuta che mi potevo evitare. Spezzami pure le gambine

(davvero, davvero, la smetto!). Vuoi sapere qual è la variabile reale, a parità di una SEO tecnicamente da manuale come su quello dove sto scrivendo, graziosamente ospitato? Il ROI “reale” del singolo prodotto. Mi dirai, grazie al piffero. Certo, ma a conti fatti – con un tasso di conversione intorno al 2,1% - meglio vendere un prodotto come i sollevatori che costano oltre 400 € a pezzo, piuttosto che un paio di stampelle a 40-50 € no? Ed è quest’ultimo elemento, gli ultimi dieci metri prima del gol, a determinare il successo o meno della campagna SEO per questo tipo di cliente.

Appendice: perché condividere con il cliente le informazioni extra SEO Mi dirai che l’obiettivo di un buon SEO, continuando la metafora calcistica, è saper fare un buon assist e non dover prendersi in carico ogni aspetto del business. Giusto, giustissimo ma il posizionamento fine a sé stesso senza tenere conto degli obiettivi non fa altro che ammazzare il ROI e quindi la tua utilità come consulente. Puoi anche fare un lavoro curatissimo ma se al cliente costi “TOT” e non riesci a riportare indietro il tuo valore più un oggettivo surplus, non dai valore aggiunto. Già, quest’ultima famosa chimera del Marketing digitale altro non è che un mero parametro economico. Siamo sul Web, l’utopia anarco-capitalista realizzata, bellezza. In questo regno mitico chi ha più informazioni è il Re. Condividerne il più possibile con il tuo cliente può fare la differenza fra l’essere acclamato o il finire (professionalmente, per fortuna) ghigliottinato. Ad esempio, continuando sulla scia dell’e-commerce di articoli sanitari, un altro prodotto che doveva garantire un buon ROI era una scorta dal prezzo assai competitivo di “pannoloni per adulti”. Non ti affannare a cercare il numero di ricerche mensili o il click-through rate. Qui il problema era diverso, dipendeva da qualcosa che non c’entrava affatto con la SEO: difatti, il fornitore scelto dall’e-commerce soffriva di una cattiva reputazione circa la qualità dei suoi prodotti, il contraltare del prezzo stracciato rispetto alla concorrenza. Quindi, nonostante il buon posizionamento, la ricerca dell’utente non veniva soddisfatta affatto anzi rischiava di essere uno svantaggio essere visibili con una risposta al bisogno così mal riposta. Colpa di chi fa SEO? No, ma si rischia il concorso in delitto senza avvisare il cliente della problematica. L’assassinato? Il rinnovo del prossimo contratto. Le parole sono importanti ma ancora di più il loro ROI. Quel che ti ho mostrato adesso è solo un piccolo esempio estrapolato da un contesto nel quale, con questa tipologia di cliente, ci confrontiamo ogni giorno per migliorare la visibilità per query che possono generare ritorno, mettendo in secondo piano le più lucrative e cercando costantemente nuovi “mari blu” in questa nicchia, come vecchi e affamati pirati. In questo viaggio, il cliente è il più prezioso alleato, perché – in teoria – conosce bene la sua isola di provenienza. Il nostro obiettivo è farlo diventare il Re del ROI. Mi rendo conto che, se

scrivessimo in francese, quest’ultima frase a effetto sarebbe risultata strana. Non mi resta che augurarti una buona SEO consapevole!

L’assassino non è sempre il pinguino di Gaetano Romeo Da quel maledetto (per alcuni benedetto) 24 aprile 2012, tutto è cambiato, la SEO non è più la stessa. Tutte le penalizzazioni sono colpa del celeberrimo update “Google Penguin”, un algoritmo che concentra le sue forze sul controllo dei link di pessima qualità. Qualsiasi penalizzazione sembra che sia sempre colpa di questo simpatico animale, in verità vi dico (quasi biblico) che spesso non è così, il vero assassino sovente è il panda. meglio morire per mano di un panda piuttosto che farsi sbeffeggiare da un pinguino no?

Primi approcci Lo ricordo ancora come se fosse ieri, inizio ottobre 2014 quando verso le 11 squilla il telefono dell’agenzia. Un signore dal forte accento capitolino mi dice se lo posso aiutare, è disperato mi dice che il suo sito è stato penalizzato per link sospetti. Il mio primo pensiero quando un prospect o cliente che sia fa un’analisi è che il più delle volte non è mai vera, quindi a priori scarto l’ipotesi Penguin. Il cliente sostiene che è stato colpito da Google Penguin per due motivi, il primo è che lui stesso ha comprato alcuni link di dubbia e orientale (India) provenienza, il secondo motivo, quello che reputo più grave, è che già alcune altre agenzie avevano rifiutato il lavoro perché il sito era pieno di link di tipo spam impossibili da rimuovere. Io accetto invece la sfida, stabiliamo il fee e partiamo.

Prima analisi del malato La prima domanda che va fatta in questo caso è: siamo in presenza di una penalizzazione o di un filtro? Questa domanda è obbligatoria, perché non tutti sanno che c’è una bella differenza tra le due cose. Parliamo di una penalizzazione manuale o algoritmica? Qui mi fermo per ragionare con voi. Sfatiamo intanto il mito che attraverso il Google Search Console Big G ti avverta solo se sei stato penalizzato da Penguin; niente di più sbagliato: Google ti segnala solo le penalizzazioni di tipo manuale e per qualsiasi tipo di animaletto, invece, non ti viene comunicato nulla se la penalizzazione è di tipo algoritmica. Per forza di cose ti renderai conto che la penalizzazione di tipo algoritmico è la più difficile da debellare in quanto prima devi capire cosa ti ha colpito e poi devi intervenire per guarire. Tornando al mio cliente, la sua era di tipo algoritmica; la prima cosa che faccio è quella di controllare il profilo dei link in entrata ed effettivamente molti sono orrendi e di pessima qualità. La mia ricerca in teoria poteva finire qui, il problema era risolto, ma c’erano due cose che non mi convincevano. La prima era che il cliente è il classico smanettone per eccellenza e la seconda ancora più importante è che 10 giorni prima, esattamente il 25 settembre 2014, era stato rilasciato

un importante update di Google Panda, vuoi vedere che…

Cosa fa il cliente e cosa ha perso esattamente? Il cliente ha un importante catena di negozi che riparano iPhone e Samsung a Roma e prima di quella data era primo con tutte le combinazioni di keywords possibili.

Figura 14.1 - Esempio di penalizzazione.

L’immagine mostra come il sito avese perso quasi il 75% di traffico.

Io dico che la colpa è del Panda Questo calo di posizioni potrebbe essere causato da Google Panda. Decido di intraprendere questa strada, inizio a controllare ai raggi x il sito. Il sito ha tre grosse criticità: 1. contenuti interni duplicati; 2. altri due domini diversi del cliente online, ma tutti con contenuto identico al sito principale; 3. il sito ha un blog che copia le notizie per intero dalle tesate di settore, compreso l’organo ufficiale di Apple. Bisogna correre ai ripari in maniera rapida, quindi decidiamo si risolvere la situazione nei tre seguenti modi: 1. riscrivere tutti i contenuti del sito per renderli unici all’interno del sito stesso; 2. mettere offline tutti i domini inutili, iniziando intanto a deindicizzarli tramite il Noindex Nofollow; 3. il punto tre era la situazione più critica in quanto cancellando, cosa che giustamente andava fatta, tutti gli articoli del blog avremmo praticamente quasi spogliato a nudo l’intero sito; abbiamo optato per l’inserimento del tag rel=canonical da ogni articolo verso il sito esterno.

Cosa abbiamo ottenuto? Dopo 4 settimane il traffico è tornato più o meno lo stesso antecedente alla data del 25 settembre 2014.

Figura 14.2 - Posizionamento in SERP.

L’esempio è soltanto una delle molte “Money Keywords” che grazie al lavoro svolto è tornata nei primi posti permettendo di nuovo al sito di ricevere del traffico profilato. A oggi invece il sito presenta più o meno la situazione rappresentata in Figura 14.3, che possiamo considerare piuttosto rassicurante visto che il traffico perso è quasi del tutto rientrato e Google ha deciso di far uscire il sito in questione dal filtro di penalizzazione.

Figura 14.3 - Search Console di Google.

Quali conseguenze traiamo da questa case history? Per esperienza personale ti consiglio di farti le tue idee e capire tu da solo quali possano essere le problematiche legate a un filtro di penalizzazione. È facile dire subito che si è stati penalizzati per link di pessima qualità, ma in realtà mi rendo conto, soprattutto negli ultimi mesi, che è il panda a fare sempre più male. L’ultima riflessione è che non per forza una penalizzazione si combatte con pozioni magiche o rivolgendosi ai maghi, basta un poco di analisi e tanto buon senso.

La SEO per vivere i propri sogni di Massimo Fattoretto Una delle cose in assoluto che amo di più della SEO è che questa ti offra la possibilità di sfondare con le tue passioni. Senza la passione infatti i risultati importanti difficilmente arrivano. L’unico consiglio che do ai SEO che stanno per iniziare questo lavoro è quello di sviluppare dei propri progetti personali e di testare e misurare continuamente, perché è solo grazie all’abnegazione e ai continui test che migliorerete e che potrete in futuro (se state iniziando ora) vivere la vostra vita dei sogni.

Caso di studio: E-commerce di etichette adesive Il case study di seguito è un case a me caro perché grazie alla sinergie col cliente siamo riusciti ad arrivare in prima pagina per le keyword più competitive del mercato italiano.

Cos’è My Nametags? My Nametags innanzitutto è un’e-commerce di etichette adesive di differenti tipologie. Al suo interno infatti troviamo etichette adesive per quaderni per la scuola, etichette per le scarpe, etichette termoadesive e stirabili per i vestiti e molto altro. In Italia i competitor che tutti conoscete sono Pixartprinting e Vistaprint. Il plus di My Nametags è che ogni singola etichetta è personalizzabile in maniera molto veloce e come ben sappiamo nel web la velocità è tutto. Chi solitamente propone un solo servizio lo fa nel modo migliore apportando qualità al servizio.

Che lavoro è stato fatto? Il lavoro svolto con la consulenza SEO fatta assieme al team marketing di My Nametags ha visto le attività.

Studio dei competitor Sono state analizzati i fattori onsite e offsite oltre che i posizionamenti delle keyword di nostro interesse con particolare attenzione anche all’interlinking interno. Una regola che utilizzo sempre in fase di analisi dei competitor è la seguente: all’interno di Google digitare: “keyword” site: www.nomecompetitor.ext

In questo modo riesco subito a vedere quante pagine hanno i miei competitor per quella determinata keyword e riesco così a scoprire quanta rilevanza hanno dato a quell’argomento. Molte volte i titoli più importanti per i nuovi contenuti da assegnare ai copywriters vengono presi proprio da questa analisi.

Tipologia dei contenuti pubblicati Dall’audit finale dei competitor abbiamo ricavato dei nuovi contenuti da stilare e da inserire all’interno del sito. Contenuti che sono andati ad arricchire l’offerta e soprattutto la coda lunga dello store. I contenuti realizzati sono stati essenzialmente di questa tipologia: • contenuti informativi (guide o ‘come fare’); • contenuti per target di destinatari (etichette per scuola, per tessuti ecc.).

Attività di PR online Sono stati pubblicati degli articoli pensati ad hoc per far conoscere al meglio il prodotto in Italia. Ovviamente all’interno degli articoli veniva trattato un prodotto ben specifico per portare trust e link in ingresso alle singole schede prodotto. Questa attività, parallelamente all’attività offsite, si è dimostrata particolarmente utile.

Nascita di un minisito verticale etichette-adesive.net Al fine di portare sempre più valore al sito principale, ho costruito un mini sito verticale che parlasse di etichette adesive. In questo modo, alla lunga, i contenuti promozionali sponsorizzati all’interno di questo sito avranno molto valore, in quanto trattasi di sito tematico e verticale sulle etichette adesive.

Quali sono stati i risultati? Nel corso della consulenza SEO siamo riusciti a raggiungere la vetta per keyword molto importanti come ad esempio “etichette” o “etichette adesive” che hanno reso di fatto My Nametags un’importante alternativa per il mercato italiano del settore. I risultati SEO si sono visti dopo circa un mese e mezzo grazie alla collaborazione con i referenti. Le Figure 14.4, 14.5 e 14.6 rappresentano i risultati ottenuti.

Figura 14.4 - Stima di crescita – fonte SemRush.

Figura 14.5 - Distribuzione delle keyword monitorate - fonte SeoZoom.

Figura 14.6 - Distribuzione storica delle keyword – fonte SeoZoom.

Guadagnare con un blog e le affiliazioni di Valerio Novelli Quando ho cominciato a scrivere di affiliazioni, nel lontano 2008, in molti non sapevano proprio di cosa stessi parlando, e ancora oggi, sul mondo delle affiliazioni online (o dei programmi di affiliazione) c’è molta disinformazione. Da moltissime persone, infatti, le affiliazioni (e i network di affiliazione), vengono visti come un semplice “ripiego per chi è stato bannato da Google AdSense” per cercare di “guadagnare pochi euro ogni mese”. In realtà, con l’affiliate marketing è possibile guadagnare moltissimi soldi, più di quelli che si riescono a fare con Google AdSense. Tante persone non riescono a guadagnare online con le affiliazioni proprio perché sono abituate al “sistema AdSense”, che tradotto significa: prendi un codice (javascript per AdSense, iFrame, Javascript o HTML di solito per le affiliazioni), lo incolli/incorpori sul tuo sito e aspetti i risultati. Le affiliazioni però non funzionano così: tu vieni pagato solo sulle azioni/conversioni che farai fare ai tuoi utenti: non verrai dunque remunerato per ogni click sul banner ma, in maniera molto semplice, sulla registrazione (a una newsletter, una richiesta di contatto, …) o sull’acquisto di un prodotto/servizio. È davvero possibile guadagnare con un blog e le affiliazioni? Certo che sì, ma bisogna sperimentare e capire come utilizzare le affiliazioni a tuo vantaggio. Prima di tutto non devi utilizzare i banner (a meno che questi non siano molto in target e ben strutturati, integrabili all’interno del tuo sito per contenuti e promozioni) ma sfruttare gli articoli. Generalmente, quando consiglio di sfruttare gli articoli vedo nascere tantissimi articoli che promuovono il “miglior servizio del mondo”, chiaramente con il link in affiliazione.

Introduzione alle affiliazioni online Le affiliazioni online, a differenza dei sistemi Pay Per Click, ti permettono di guadagnare in base alle azioni che gli utenti compiono all’interno del sito – inserzionista. Banalmente, un network di affiliazione, vede tre figure principali: • il network di affiliazione: è la piattaforma che racchiude le campagne dei vari inserzionisti e le offre ai publisher, ovvero ai proprietari di siti Internet tramite un pannello più o meno avanzato/professionale. Il network si occupa di mettere in contatto Merchant (inserzionisti) e Affiliati (publisher/proprietari di siti Internet). Generalmente fa anche una prima verifica dei leads che i publisher portano al merchant e si fa carico del pagamento della commissione agli affiliati; • il merchant (o inserzionista): è l’azienda che vuole creare una campagna “a performance”, ovvero vuole pagare solamente in base ai risultati che ottiene e avere pieno controllo sulla campagna, approvando/rifiutando leads (iscrizioni false) e sales (vendite) non concluse;

l’affiliato (o publisher) è colui il quale si registra e può prelevare i codici per promuovere le campagne presenti all’interno del network tramite il suo sito Internet.

Bisogna precisare anche che oggi molte affiliazioni permettono di guadagnare online anche senza un sito Internet o blog ma direttamente dai social network (pensiamo ai proprietari di grandissime pagine Facebook che riescono a guadagnare online proprio grazie alle affiliazioni: sì, anche tramite Facebook si può guadagnare online).

Credenze sulle affiliazioni e i programmi di affiliazione Il primo mito da sfatare, riguardo le affiliazioni online, riguarda il fatto che “con le affiliazioni non si guadagna niente”. In realtà le affiliazioni permettono di guadagnare online molto più dei sistemi Pay Per Click, a patto che si sappia esattamente come usare le affiliazioni. Capire che le affiliazioni permettono di guadagnare più dei sistemi Pay Per Click è abbastanza intuitivo: ipotizziamo un guadagno per click di 1 euro (è un valore piuttosto alto, considerata la media del web), per guadagnare 100 euro avrò bisogno di 100 click da un euro (sappiamo benissimo, in realtà, che i click hanno un valore diverso a seconda della campagna mostrata e numerosi altri fattori, fra cui il tempo di permanenza sul sito post click, il posizionamento dell’annuncio, …). Confrontiamo ora una campagna di richiesta finanziamento, che generalmente paga fra i 15 ed i 25 euro a lead (ovvero richiesta di finanziamento/compilazione del preventivo): basterà effettuare, nella peggiore delle ipotesi, 7 leads per aver guadagnato 100 euro (per la precisione 105 nella peggiore delle ipotesi): se io ho una pagina ben posizionata sui motori di ricerca in cui spiego che è possibile, grazie a un nuovo strumento, fare un confronto per richiedere il finanziamento migliore, e la pagina offre un contenuto utile, sarà davvero così complicato generare leads e richieste di finanziamento?

Come guadagnare con le affiliazioni Come hai visto nei paragrafi precedenti, più riesci a intercettare un bisogno preciso dell’utente e più sarà facile integrare una campagna in affiliazione e generare dei guadagni (leads, sales, downloads, …). È chiaro che, teoricamente, ci sono settori in cui guadagnare con le affiliazioni è più semplice, e settori in cui invece è più complicato perché “sembra che non ci siano campagne interessanti o remunerative”: nel caso di settori più “complessi” dovresti aiutarti cercando di allargare i tuoi orizzonti e pensare in maniera originale ai prodotti che potresti integrare all’interno del tuo sito. Supponiamo ad esempio che tu abbia un sito dedicato al giardinaggio: potrai vendere dei semi di piante tramite il tuo e-commerce, oppure dovrai cercare una affiliazione legata ai “semi per piante”. Ma di affiliazioni dedicate al mondo del giardinaggio non ce ne sono moltissime, quindi cosa fare? Oggi, a differenza di parecchi anni fa, esiste una affiliazione che può tornarti utile praticamente in ogni nicchia e business, grazie al suo immenso catalogo prodotti: sto parlando dell’affiliazione Amazon, all’interno della quale potrai trovare:

• • •

libri sul giardinaggio; accessori da giardinaggio; prodotti correlati e già suggeriti da Amazon! (Alcuni dei quali non avresti mai pensato potessero essere utili o “indispensabili”, ma dopo aver visto che “chi ha acquistato questo prodotto ha acquistato anche …” ti sei convinto che sì, è una buona idea consigliare anche quel prodotto!

Impara a creare un piano editoriale e trattare gli argomenti in maniera sistematica: non limitarti ad esempio a un articolo che promuove un determinato prodotto o servizio, ma pensa piuttosto a quanti contenuti potresti creare intorno a quel prodotto: ad esempio una presentazione generale, un “how to” (come fare) sfruttando quel prodotto, una recensione (magari una video recensione da pubblicare su YouTube, dove inserirai, in descrizione, il tuo link all’articolo per approfondimenti o al prodotto tramite affiliazione per spingere all’acquisto) e poi potresti anche ricordare quell’articolo in altri articoli “correlati” che tratterai. In pratica: non lasciare mai “isolato” un articolo dedicato a un prodotto in affiliazione, ma sfrutta l’internal linking e crea altri contenuti intorno a quel prodotto/servizio: ti aiuteranno nel posizionamento e nell’incrementare le tue vendite.

Guadagnare con le affiliazioni di infoprodotti? È possibile guadagnare con gli infoprodotti e le affiliazioni? La mia risposta, secca, è sì, puoi guadagnare con le affiliazioni di infoprodotti, ma spesso è difficile. Se l’infoprodotto che scegli di promuovere non è davvero di qualità, e tu vuoi promuoverlo per “fare soldi facili e veloci”, ti brucerai, ovvero darai agli utenti una impressione sbagliata del tuo lavoro e di ciò che offri. Ci vorrà poco tempo per essere considerato “uno di quelli che promette soldi facili e poi invece fa soldi vendendo aria fritta”: seleziona con cura gli infoprodotti che vuoi promuovere, oppure, se vuoi dedicarti esclusivamente agli infoprodotti, pensa a una sezione dedicata alle tue “recensioni”: sii onesto con l’utente, se un infoprodotto non ti piace, scrivilo e motiva perché non hai trovato utile quel contenuto, inserendo comunque il tuo “link di affiliazione” per chi vuole ugualmente sperimentare in prima persona la qualità: ti stupirai nel vedere che ci sarà gente che acquisterà per capire “se avevi ragione o torto”.

Guadagnare con Facebook e le affiliazioni È possibile guadagnare con le affiliazioni tramite Facebook. Sempre più network di affiliazione offrono oggi la possibilità di veicolare link in affiliazione o messaggi tramite Facebook e i social network. Non pensare però che sia semplice: chi riesce a guadagnare con le affiliazioni e i social utilizza principalmente due strumenti: • Facebook Ads: acquista pubblicità a basso costo per avere un ricavo dalle affiliazioni (devi saper usare bene questo strumento); • pagine e gruppi molto popolari: sono proprietari di gruppi e pagine considerate “di scarsa qualità” per i titoli (es. “Scommetto che questa matita …”), ma che sfruttate in maniera

intelligente possono portare molto traffico (e conversioni) verso varie tipologie di campagne. Alcuni suggerimenti molto importanti per guadagnare con le affiliazioni sui social: • evita di fare spam sui gruppi, verrai espulso in pochissimo tempo e perderai credibilità; • fai parecchi test con piccoli budget per molte campagne (per piccolo budget non intendo 1 euro, ma almeno 10/15 euro al giorno) per capire quali sono quelle che convertono (e una volta trovata quella che sembra convertire “pompa” la campagna prima che lo faccia qualcun altro); • impara a segmentare e conoscere quali sono i target più reattivi all’interno di Facebook (variano a seconda dei prodotti, considera ad esempio tutti i ragazzi under 18 che popolano Facebook: saranno più interessati a comprare un prodotto o a scaricare un videogame e giocare gratuitamente?).

Case history: guadagnare con i template WordPress Marco mi ha chiesto di raccontare una case history sul mondo del guadagno con le affiliazioni, e ho scelto una case history un po’ diversa dal solito, per dimostrare come è possibile guadagnare con le affiliazioni di cui moltissime persone ignorano l’esistenza. Chi lavora nel web conosce benissimo Themeforest: si tratta di una piattaforma (marketplace) all’interno della quale si trovano principalmente i creatori di template e gli acquirenti. Fra questi un grandissimo business è mosso dai template per WordPress. Io non ho mai imparato a realizzare template per WordPress, ma riesco a guadagnare dai template per WordPress grazie a Themeforest: esiste infatti una affiliazione che permette a tutti gli affiliati di guadagnare sui “primi depositi” generati dagli utenti per l’acquisto del loro template. Ci troviamo quindi di fronte a una situazione tipo: • i template sono già pronti (e alcuni molto ben realizzati); • gli utenti vogliono template (ma non hanno tempo di sfogliarli e vedere quali sono i migliori); • gli sviluppatori di template vogliono incrementare le loro vendite (e promuovere i loro template); • tu puoi dedicare un po’ del tuo tempo a guardare i template per WordPress, selezionare i migliori e consigliarli ai tuoi utenti (e non solo). Cosa ho fatto per guadagnare con i template WordPress? Ho creato una rubrica all’interno del mio piano editoriale che prevede la pubblicazione di diversi articoli, durante il mese, dedicati ai template per WordPress: ogni articolo parla di un solo template (cerco così di evitare distrazioni nell’utente: o ti piace questo template oppure non ti piace) e ne elenco le caratteristiche e i motivi per cui lo consiglio. Vuoi vedere l’anteprima del template o acquistarlo? Clicchi sul mio link e se ti piace lo compri. In questo modo sono riuscito a incrementare (e mese per mese incremento) i miei guadagni con l’affiliazione Themeforest: ampliando il numero di articoli dedicati ai template per WordPress ho

infatti sempre più possibilità di intercettare nuovi utenti. Questo è solo un piccolo esempio, grazie per aver dedicato il tuo tempo nella lettura di questo paragrafo.

NOTA Grazie a tutti gli amici e colleghi SEO che hanno illustrato casi studio interessanti per dare spunti utili ai lettori.

Da 0 € a 16.000 € con un sito partendo da 0 in un mese di Marco Maltraversi Abbiamo visto alcuni casi studio e anche qualcosa sul mondo delle affiliazioni. L’esempio che voglio portarvi (con un titolo molto marchettaro) è la creazione e lo sviluppo di un sito partendo dal nulla (quindi non siti scaduti o presenti online da anni) per portarlo a fatturare dopo poco dal lancio 16 mila euro grazie ad Amazon. Bisogna fare alcune premesse: si tratta di un caso studio e il mondo delle affiliazioni è ampio e vario. Il tempo speso sul progetto è stato limitato e quindi sì, si sarebbe potuto fare molto di più o adottare strategie differenti. Lo scopo di queste case history non è elogiare chi le ha illustrate ma mostrarvi una delle possibili strade applicabile alle tematiche della SEO. Iniziamo con l’analisi: • prima di tutto è stato registrato un dominio su hosting dedicato e con indirizzo IP italiano; • è stato sviluppato un sito web sui condizionatori portatili; • il sito è stato messo online i primi giorni di maggio 2016. Quindi è chiaro che è stato sviluppato un sito verticale con una tematica precisa, i condizionatori portatili. All’interno di questo sito le persone che acquistano un condizionatore verranno rimandate su Amazon che ci darà una percentuale per ogni singola vendita.

Figura 14.7 - Esempio del sito sviluppato.

Il sito non ha moltissime pagine (al momento in cui vi sto illustrando questo caso studio solamente 10), ma le pagine sono curate sotto ogni aspetto SEO (o quasi…): • le pagine sono ricche di testo; • contengono microformati; • analizzano il comportamento dell’utente. In particolar modo non avendo molto tempo da spendere per questo progetto di test, si è optato per fare poche pagine ma ben curate in termini di contenuti. L’altro passo è stato quello di studiare il comportamento dell’utente per vedere come navigava le pagine del sito e dove e come faceva clic per adattare la grafica e i contenuti alle esigenze del visitatore. Quindi: 1. contenuti unici; 2. grafica responsiva;

3. monitoraggio dei visitatori. Nulla di nuovo o di eccezionale. Poi c’è la famosa parte SEO off-page, link earning o chiamatela come volete di digital PR. Sì, è stato fatto qualcosa ma il minimo indispensabile ovvero siamo riusciti a pubblicare (come a pubblicare?? Google non vuole link naturali??) su tre siti a tema articoli di approfondimento con un link pulito (www.nomesito.it) verso il nostro sito. La seguente immagine mostra l’andamento del posizionamento delle keyword nella SERP di Google Italia a un mese dal lancio del sito. Diverse keyword si sono posizionate e hanno portato un aumento del traffico organico sul sito.

Figura 14.8 - Risultati ottenuti dopo un mese dal lancio, SemRush.

Grazie alla SEO, il sito è riuscito a fatturare nel mese di giugno 16 mila euro. Questo è stato possibile grazie a piccoli accorgimenti e applicando le basi della SEO.

Figura 14.9 - Fatturato di giugno 2016 su Amazon.

Cosa possiamo portarci a casa con questo caso studio? • Si poteva fare di meglio? Ovviamente sì! • I contenuti hanno un enorme valore per Google ma soprattutto per i tuoi futuri clienti. • La grafica di un sito deve adattarsi alle esigenze dei clienti, ogni sito può avere clienti con caratteristiche differenti. Ovviamente bisogna anche dire che il periodo si adatta molto alla vendita dei prodotti del sito e

ovviamente dopo l’estate ci sarà un calo naturale. Inoltre tra le altre cose che si potrebbero fare per migliorare e consolidare il posizionamento di questo sito ci sono: • inserire contenuti di approfondimento e rubriche; • sfruttare https; • studiare campagne di digital PR ad hoc. Insomma il lavoro fatto è stato basilare e ha portato a risultati inattesi, ma se applicassimo tutte le strategie SEO illustrate in questo libro potremmo ottenere sicuramente risultati ancora migliori. Quindi la SEO è morta, la visibilità sui motori di ricerca no :)

Audit SEO: il caso Chicco di Marco Maltraversi Prima di concludere questo capitolo vorrei illustrarvi un piccolo caso studio di analisi SEO. Abbiamo visto diversi progetti da cui prendere spunto per la SEO, ora vorrei mostrarvi come analizzare un sito web in essere e trovare alcune criticità. Per prima cosa, quando dobbiamo analizzare un sito web, dobbiamo prendere in considerazione numerosi aspetti, tra cui: 1. analisi dei log per individuare le criticità; 2. test con software di crawling (Deep Crawl o ScreamingFrog ad esempio); 3. analisi degli stati delle pagine; 4. analisi delle visite; 5. analisi del profilo dei link. Quindi per fare un’analisi approfondita ci vuole tempo, tools (che ci aiutano nel compito) e soprattutto esperienza per capire problematiche o individuare potenziali problemi. Analizziamo ad esempio il sito chicco.it per individuare criticità (se ci sono) e vederne l’andamento.

NOTA Le immagini si riferiscono a quando è stato scritto il libro (giugno 2016) quindi alcune cose potrebbero essere state modificate e migliorate (si spera :)).

Per prima cosa possiamo notare che il sito chicco.it ha un file robots.txt molto inusuale:

Figura 14.10 - Chicco.it - file robots.txt non corretto.

Un altro difetto che possiamo evidenziare subito sono le pagine http://www.chicco.com/it.html e http://www.chicco.it che hanno i medesimi contenuti e non sfruttano né i tag ahrflang né i tag canonical.

Figura 14.11 - Chicco.it e chicco.com/it.html duplicate senza tag hrflang.

Figura 14.12 - Questo lo possiamo notare anche nelle SERP di Google.

Questi problemi di contenuti duplicati sembra che abbiano portato a un calo di visibilità del sito chicco.com che ha perso posizioni sulle SERP italiane e americane.

Figura 14.13 - Down delle ricerche organiche su US dovute a contenuti duplicati.

Infine, per concludere, si è notato che il sito web rispondeva in modo “lento”. La lentezza era causata da problemi strutturali del sito e inficiava anche il tempo di caricamento delle singole pagine percepito dall’utente.

Figura 14.14 - Tempi di caricamento.

Tutte queste problematiche causate da contenuti duplicati e dalla lentezza del sito hanno compromesso la visibilità del sito chicco.com. Ma nulla è perso: 1. è possibile sistemare il tutto con opportuni redirect o sfruttando in modo sapiente i tag canonical e ahrflang; 2. è possibile migliorare il contenuto delle pagine inserendo testi nuovi e originali; 3. è possibile ottimizzare il caricamento delle singole pagine sfruttando la cache o accorgimenti tecnologici sul sito web. Insomma come abbiamo potuto vedere, anche se con un audit SEO molto ridotto, è possibile individuare problematiche e produrre un piano di lavoro per arginarle. La SEO è un lavoro di minuzia, astuzia e pazienza; non bisogna mai demoralizzarsi ma trovare spunti e energie per ritornare visibili in SERP.

La SEO Magica: il caso sconosciuto di Marco Maltraversi Come ultimo caso studio vorrei attirare la vostra attenzione su una riflessione. Anche oggi che stiamo per entrare nel 2017 molta gente che effettua ricerche su internet pensa: • nessun SEO ti dirà la sua strategia magica per posizionare un sito; • i libri e i corsi non servono a nulla. Ragazzi è ora di svegliarsi: se nel 2002 era possibile fare trucchetti SEO, matrici di link per schizzare in alto e fare ottimi guadagni ora è tutto più complesso. Non esiste la bacchetta magica o il trucco nascosto. Una strategia vincente in un caso non è detto che, replicata su un altro sito, in un altro contesto, con altri volumi di keyword possa portare gli stessi risultati. Se prendiamo in considerazione Google lato tecnico esistono davvero tantissimi fattori da prendere in considerazione; citandone alcuni AMP, Schema.org e Jason, https, http2, Penguin real time, Panda (non la macchina), Rank Brain… Insomma fare un progetto SEO che sia ben strutturato e risponda ai canoni di Google e dei principali motori di ricerca è un ottimo punto di inizio. Se sei un cliente che vuole capire il mondo della SEO: il lavoro del SEO non è stare tutto il giorno a trovare il modo per fregare Google o pensare a mitologie semantiche per indicizzare pagine. Il SEO deve studiare il contesto, i fattori correlati al Web Marketing online e analizzare keyword e struttura del sito al fine di produrre delle attività che siano in linea con le direttive dei motori di ricerca. Non solo: tutto questo va monitorato nel tempo. Se sei un appassionato o un SEO: saprai bene come non esistano trucchi o segreti nascosti, ma solo con la pratica, la ricerca e la sperimentazione sarai in grado di avere occhio critico e fare le scelte giuste per portare al successo un sito web. Dopo questa prima introduzione per chiarire un aspetto a me molto caro, vediamo alcune peculiarità SEO. La struttura di un sito web: organizzare le idee, costruire a mano l’albero di navigazione di un sito è un’arma vincente. Abbiamo analizzato questo aspetto ma ritengo che sia un punto fondamentale in una strategia. La keyword research abbinata alla struttura di un sito in grado di portare l’utente dove si vuole: è la magia che cerchi :) Sono arrivati Penguin 4.0 real time e AMP e seguiranno anche dopo la pubblicazione di questo libro moltissimi aggiornamenti: come affrontarli? Le novità vanno affrontate con la consapevolezza che, se abbiamo fatto sempre le cose per bene, non dobbiamo preoccuparci. Quindi con AMP abbiamo nuovi strumenti per intercettare traffico mobile e Penguin 4.0 dovrebbe essere più granulare e quindi dare meno peso ai link di pessimo

valore. Tutti questi aggiornamenti serviranno ai motori di ricerca per produrre query più pulite e in grado di rispondere ai bisogni degli utenti. In questo libro ho cercato di raccontarvi le principali azioni per ottimizzare un sito web per i motori di ricerca dedicando alcuni capitoli alla scrittura creativa e alla SEM. Ovviamente sono stati tralasciati altri aspetti come l’e-mail marketing, la segmentazione e l’analisi dei visitatori e le chat bot. Se siamo stati bravi a costruire un sito web su cui atterrano visitatori, e abbiamo visto negli esempi pratici sopra alcuni casi, è importante sapere “monetizzare” dal sito. L’e-mail marketing è uno strumento molto potente che, se adottato nella maniera corretta, può portare ottimi risultati. Conoscere i propri visitatori, sapere comportamenti e usi e mandare messaggi mirati e non solo promozionali è un’ottima arma di marketing. Un altro aspetto cruciale è conoscere i comportamenti degli utenti che ti visitano. Dove cliccano, perché il tuo sito non converte? Esistono strumenti come Inspectlet o Yandex Metrica che sono in grado di rispondere a queste domande. Una volta inseriti sul sito possono tracciare il comportamento dell’utente e darti numerose informazioni che potrai sfruttare nelle tue strategie. Infine e non meno importante sono le chat di assistenza al cliente e la diffusione dei chat bot automatici per potere rispondere a domande dei visitatori anche in orari non di ufficio. Insomma tutto questo per darti un’idea di come NON ESISTE SOLO LA SEO ma ci sia un mondo davvero articolato e complesso per ottenere risultati. Prova, esperimenta e riprova e soprattutto non avere mai l’arroganza di sentirti arrivato o un guru. Non esistono in questo campo i guru ma solamente persone brave e capaci che sanno raffrontarsi e scambiare idee per rafforzare il proprio bagaglio di conoscenze.

Conclusioni e punti salienti del capitolo In questo capitolo conclusivo ho cercato di raggruppare casi studio utili per darti spunti e idee per intraprendere un’attività di visibilità online appropriata. Ovviamente la SEO essendo una scienza astratta (o forse no), ha diversi punti di vista e in alcuni argomenti potrebbe avere interpretazioni differenti. Ti consiglio solamente di: • verificare sempre un’affermazione o una notizia, anche se arriva da Google; • avere occhio critico; • testa sempre: creati dei mini progetti su cui testare le tue convinzioni. Spero che il libro sia stato di tuo gradimento, mi puoi trovare su: • www.libro-seo.it con aggiornamenti e spunti; • www.seothatworks.it: l’appuntamento annuale con un corso SEO tecnico avanzato; • www.mbsummit.it: l’evento di marketing e digital con importanti aziende.

“La forza non consiste nel colpire forte o spesso, bensì nel colpire al momento giusto.” (H. De Balzac)

Appendice A Funzionalità e nomenclature Tutti i link, gli esempi e la documentazione aggiuntiva del libro sono disponibili per una consultazione immediata sul sito web www.libro-seo.it.

Query per motori di ricerca? Vedremo ora i principali comandi per effettuare interrogazioni complete verso i motori di ricerca.

I principali operatori di ricerca per Google I vari motori di ricerca permettono di effettuare ricerche utilizzando appositi comandi per filtrare i risultati e ottenere query più precise. Google mette a disposizione diversi comandi e simboli nati con tale scopo. In questa trattazione cercheremo di analizzare i comandi principali che potrebbero esserci utili anche per i nostri scopi SEO e SEM, soprattutto per verificare la corretta indicizzazione del nostro sito web. Google non fa distinzione tra lettere minuscole e maiuscole, inoltre l’algoritmo di ricerca limita le query a un massimo di 32 parole (il limite precedente era di 10 parole). L’utilizzo di due puntini (..) serve per specificare un range di date; per esempio, se cerchiamo: coppa del mondo 1976..2006 i puntini dicono: ricerca “coppa del mondo” nel range di date che va dal 1976 al 2006. Il campo di ricerca di Google può inoltre essere utilizzato come una normale calcolatrice, basta scrivere come query di ricerca una qualsiasi espressione matematica e il gioco è fatto. Ognuna delle query elencate di seguito produce un risultato generato dalla calcolatrice di Google: • 16+7*4-33 • 123 km in miglia • mesi in 12 anni

NOTA È importante ricordarsi che: Google dà maggiore priorità alle pagine che contengono entrambi i termini nello stesso ordine utilizzato nella query (per esempio, milano hotel o hotel milano possono produrre risultati differenti); Google non è case sentitive: mostra i medesimi risultati, che si utilizzino lettere maiuscole o minuscole; ignora alcuni segni di punteggiatura e caratteri speciali, tra cui ! ? . , [ ] @ / # < >; un termine di ricerca che utilizza l’apostrofo non coincide con il termine senza un apostrofo; Google ignora le parole e i caratteri comuni, denominati anche “stop words” (per esempio: such as, the, on, where, how, de, la, as well as, tra, fra, al, allo, alla, ai, agli, alle, dal, dallo, dalla, dai, dagli, dalle, del, dello, della, dei, degli, delle, nel, nello), scartando automaticamente termini come “del” e “e”, nonché alcune singole cifre e lettere, dal momento che questi termini non aiutano a restringere il campo di ricerca, ma, anzi, contribuiscono a rallentare i tempi di ricerca.

Analogamente, si può utilizzare il comando di conversione valuta: • 45 USD in EUR • 10 euro in yen Analizziamo ora brevemente i principali operatori utilizzati da Google.

Or L’operatore Or funziona come l’Or logico: è possibile ricercare un termine oppure un altro. Per esempio, la query ristoranti parma or ristoranti mantova cercherà i ristoranti sia a Parma sia a Mantova, indistintamente.

And L’operatore And viene immesso automaticamente da Google (e da altri motori di ricerca) nel momento in cui si scrivono due parole nella casella di testo, tipo: alberghi milano; quindi si otterranno risultati riguardanti pagine web che contengono sia il termine albergo, sia il termine milano, non necessariamente legati tra loro.

NOTA I motori di ricerca supportano diverse combinazioni di operazioni booleane: è quindi possibile allargare e creare query complesse. È bene ricordare che i motori di ricerca sono in continua evoluzione, quindi verranno introdotti nuovi operatori e nuove logiche con il passare del tempo.

L’operatore più + L’operatore “+” viene usato per includere parole comuni nella ricerca (il termine posto dopo il simbolo deve essere presente nella pagina ricercata). È necessario lasciare uno spazio prima del segno “+” e aggiungere la parola subito dopo senza spazi (il segno “+” può essere utilizzato anche per la ricerca di frasi utilizzando le virgolette). Esempio:

L’operatore meno L’operatore “-” ha l’effetto contrario dell’operatore “+”: serve per escludere un termine dalla ricerca. Per esempio, ricercando +partita +milan -inter si trovano tutte le pagine che contengono contemporaneamente le voci “partita” e “milan”, ma non includono il termine “inter”.

Le virgolette “” Le virgolette indicano al motore di ricerca di cercare la query esattamente come è stata formulata. Per esempio, ricercando "vacanze sardegna" avremo risultati ristretti a questi due termini. È quindi consigliato utilizzare questo sistema solo per ricerche precise e mirate.

Ricerca di radici di parole (Stemming) La query casco bambino bicicletta trova le pagine che contengono parole simili ad alcuni o a tutti i termini di ricerca, per esempio: "bambino,""bambini,"O"bambini,""bicicletta,""biciclette,""biciclettaciclismo,"O"ciclisti,"E"casco"O"caschi.". Google definisce questa caratteristica Stemming, una tecnica per effettuare una ricerca anche su parole che hanno la stessa radice linguistica.

NOTA Quando si desidera ricercare sinonimi o varianti che Google non trova, è possibile utilizzare gli operatori Or o tilde (~).

L’operatore asterisco * L’operatore asterisco permette di ricercare vocaboli non conosciuti all’interno di una frase. Per esempio, ricercando la query "Google * la mia vita", viene suggerito al motore di ricerca di trovare pagine che contengano una frase che inizia con “Google” seguita da una o più parole (interpretate dal simbolo asterisco), seguita dalla voce “la mia vita”. È un operatore utile per ricercare le prossimità di una parola e può risultare utile quando si desidera trovare le pagine che includono il nome di qualcuno in una delle possibili combinazioni. Per esempio, per ricercare le combinazioni che includono il nome Francesco Coppola, saranno necessarie quattro query

distinte o concatenate:

L’operatore tilde ~ (deprecato) L’operatore tilde (~), posto prima di una parola da ricercare, permette di trovare i sinonimi della parola o termini simili. Per esempio, cercando prodotti ~basso costo, si troveranno anche i sinonimi, come offerte a buon mercato e così via.

NOTA Nel giugno 2013 tale operatore risultava deprecato e non più utilizzato da Google.

Site Il comando Site serve per determinare se un sito web o una particolare pagina risultano correttamente indicizzati all’interno dei motori di ricerca; l’istruzione da eseguire è la seguente:

Per esempio, digitando site:www.ingegneridelweb.com, vedremo l’elenco delle pagine indicizzate. È altresì possibile ricercare termini o keyword presenti all’interno del dominio con una sintassi del tipo: site: seo www.ingegneridelweb.com: ricercheremo qui le pagine che contengono la parola SEO.

NOTA Questo comando è tipicamente comune a tutti i motori di ricerca, come, per esempio, Bing, Yahoo! e Google.

Figura A.1 - Digitando site:www.ingegneridelweb.com, si ottiene l’elenco delle pagine indicizzate.

Link È possibile verificare i backlink, cioè i link che rimandano al nostro sito web. La sintassi da utilizzare è link:nomedelsitoweb, per esempio link:www.ingegneridelweb.com.

Allintext Questo comando ci permette di verificare le pagine indicizzate contenenti specifiche parole. La sintassi è semplice: è necessario far seguire all’istruzione Allintext un elenco di parole da ricercare:

Nel nostro caso, se dovessimo trovare le pagine che contengono la parola “cane”, la query di ricerca sarebbe:

Analogamente funzionano i seguenti comandi: • Allintitle: paroladacercare ricerca la parola specifica all’interno del tag title; • Allinanchor: paroladacercare ricerca la parola specifica all’interno dell’anchor; • Allinurl: paroladacercare ricerca la parola specifica all’interno dell’URL.

Cache Generalmente, i motori di ricerca tengono traccia delle informazioni in un archivio di memoria chiamato cache. Attraverso il comando cache:nomedellapagina è possibile sapere come risulta memorizzata la nostra pagina nel database del motore di ricerca.

Filetype Ci consente di ricercare tipologie di file differenti fornendo anche un argomento di ricerca. Per esempio, se vogliamo ricercare un file word (con estensione .doc) che abbia come argomento SEO, dobbiamo inserire la seguente query di ricerca:

NOTA Queste sono le principali estensioni supportate: Adobe Portable Document Format (PDF), Adobe PostScript (PS), Lotus 1-2-3 (WK1, WK2, WK3, WK4, WK5, WKI, WKS, WKU), Lotus WordPro (LWP), MacWrite (MW), Microsoft Excel (XLS), Microsoft PowerPoint (PPT), Microsoft Word (DOC), Microsoft Works (WDB, WKS, WPS), Microsoft Write (WRI), Rich Text Format (RTF), Text (ANS, TXT).

Define Permette di trovare la definizione (tipo vocabolario) del termine cercato; la sintassi è define: terminecercato. Se dovessimo cercare la definizione di “sistema operativo”, la query di ricerca sarebbe:

Related Comando utile per trovare siti di competitors che hanno affinità di keyword con l’URL ricercato. La sintassi è: related:nomesito. Per esempio, Related:www.ingegneridelweb.com.

Info

Il comando Info restituisce il frammento di descrizione e il link preferito per un determinato URL se esso risulta inserito nell’indice del motore di ricerca. La sintassi è: info:nomesito. Per esempio, info:www.ingegneridelweb.com.

Group Usato solo in Google Group per restringere la ricerca a un determinato gruppo o a una determinata area. Per esempio, group:seo.

Inanchor Simile ad Allinanchor, ma con le seguenti peculiarità: • può essere usato insieme ad altri operatori; • solo la prima parola dopo il comando fa parte della ricerca del comando.

NOTA Seguono la stessa logica i comandi insubject:, intext:, inurl:.

Location Riservato alla sfera Google News, limita la ricerca a una determinata area geografica. Per esempio, amore location:it restituirà tutti gli articoli contenenti la parola chiave amore e provenienti da siti italiani.

Movie Seguito dal titolo di un film, restituisce una serie di informazioni dettagliate. Per esempio, movie: saw 5.

Msgid In Google Gruppi limita la ricerca a messaggi contenenti il Msgid indicato.

Phonebook Effettua una ricerca nelle white pages; allo stato attuale non funziona per l’Italia.

Rphonebook Effettua una ricerca nelle residential white pages; allo stato attuale non funziona per l’Italia.

Safesearch Usato come prefisso, consente l’esclusione di contenuti per adulti. Per esempio, safesearch: girls ci

fornirà risultati attendibili escludendo tutti quei siti che avranno contenuti espliciti per adulti.

Source In Google News limita la ricerca di un articolo a una determinata fonte autorevole.

Stocks Si usa per monitorare gli andamenti dei titoli in borsa.

Store Limita la ricerca a un negozio. Per esempio, seo store:amazon limita la ricerca della parola SEO sul sito di Amazon.

Weather Tale comando ci restituisce le condizioni climatiche. Per esempio: weather: parma.

Daterange Viene utilizzato per determinare una query all’interno di un determinato range di date e deve essere utilizzato con questa sintassi: daterange:startdate-enddate. Per ulteriori informazioni consigliamo di consultare la guida ufficiale di Google: http://www.google.com/support/websearch Tabella A.1 - I principali comandi di Google. Servizi Comandi di ricerca

Operatori allinanchor:, allintext:, allintitle:, allinurl:, cache:, define:, filetype:, id:, inanchor:, info:, intext:, intitle:, inurl:, link:, phonebook:, related:, site:

Ricerca di immagini

allintitle:, allinurl:, filetype:, inurl:, intitle:, site:

Google Gruppi

allintext:, allintitle:, author:, group:, insubject:, intext:, intitle:

Google Directory

allintext:, allintitle:, allinurl:, ext:, filetype:, intext:, intitle:, inurl:

Google News

allintext:, allintitle:, allinurl:, intext:, intitle:, inurl:, location:, source:

I principali operatori di ricerca per Yahoo! Yahoo! ha degli operatori simili a quelli di Google; per esempio, gli operatori "+", "-", "and" e "or" hanno le stesse caratteristiche. Analizziamo i principali operatori di Yahoo!: • link:nomedelsitoweb (riferito all’URL) o linkdomain: nomedelsitoweb (riferito all’intero dominio): hanno funzioni analoghe a quanto visto in precedenza;

• • • • • • • • • • •

site: restringe la ricerca a un determinato sito; hostname: restringe la ricerca a un determinato sito; url: trova l’URL specifico nel database di ricerca di Yahoo!; inurl, intitle, weather, define: hanno le medesime funzionalità viste per il motore di ricerca Google; airport, area code, facts: sono comandi di utilità, che in base ad aggiornamenti vengono attivati o abilitati; convert: viene utilizzato per determinare diverse tipologie di conversione, per esempio convert 1 kn; gas: elenca link con i prezzi per distributori di gas dell’America; hotels: è un elenco di link degli hotel per quella determinata area; news: è un elenco delle news per un particolare termine di ricerca, per esempio: news world cup fifa fa apparire le ultime news inerenti ai mondiali di calcio; feature: limita la ricerca alle pagine che includono un elemento dato; region: limita la ricerca a una determinata regione. Per esempio, (region: ) region:europe Seo, per ricercare la parola SEO tra i siti europei.

Altri operatori di ricerca sono: patent, quote, symbol, synonym, scores, time, traffic e zip code.

I principali operatori di ricerca per Bing • •

filetype: è analogo a quanto visto in precedenza, permette di filtrare le ricerche per determinate tipologie di file; link: e linkdomain: sono uguali a quanto visto per Google e Yahoo!; per esempio, link: ingegneridelweb.com;

NOTA Recentemente Bing ha introdotto un nuovo operatore di ricerca molto utile, chiamato “linkfromdomain”. In pratica, esso ci consente di trovare tutte le pagine web che hanno un collegamento a un determinato dominio. Per esempio, linkfromdomain: microsoft.com ci permette di trovare tutte le pagine che hanno un collegamento a microsoft.com. È inoltre possibile aggiungere parametri di ricerca per renderlo più specifico. Per esempio, linkfromdomain: microsoft.com windows 7 ci permette di trovare tutte le pagine che sono collegate al dominio microsoft.com e che contengono la parola windows 7 al loro interno.

• • •

contains: ci fornisce un elenco di pagine che hanno un collegamento a un determinato tipo di file; IP: permette di ottenere la lista dei siti hostati con quel particolare IP, filtrati anche per keyword, per esempio ip: 223.234.122.1; language: e location: ci consentono di restringere la ricerca per una determinata lingua o

• •

regione; prefer: migliora la ricerca per dare enfasi alla parola ricercata; | ci fornisce l’elenco delle pagine che hanno almeno una delle parole chiave; per esempio, la query casalmaggiore | comune cercherà le pagine che contengono almeno o la parola casalmaggiore o la parola comune.

Tutti gli operatori inurl, inanchor:, intitle:, inbody:, site:, +, -, and, or, "" accomunano i diversi motori di ricerca con lievi differenze.

Appendice B I principali motori di ricerca I motori di ricerca sparsi in tutto il mondo sono migliaia. Alcuni risultano originali e innovativi, in quanto implementano funzionalità nuove e sperimentano algoritmi matematici di ultima generazione; altri sono solo dei banali aggregatori di risultati provenienti da motori di ricerca o da fonti presenti sul web. In questa appendice mostreremo una tabella che racchiude quelli che sono, a nostro avviso, i motori di ricerca più comuni e più utilizzati nel web moderno.

NOTA Rimandiamo il lettore a una ricerca approfondita sul web per il reperimento di ulteriori informazioni dettagliate. Per esempio, se vogliamo attivare la nostra campagna di promozione SEO nel mercato russo, dovremo prendere in considerazione anche le attività di visibilità e i motori di ricerca più utilizzati in questo Stato.

Tabella B.1 - Elenco dei principali motori di ricerca sul web. Nome About.com

URL www.about.com

Abrahamsearch www.abrahamsearch.it

URL Submit Non è propriamente definibile come un motore di ricerca a 360°, in quanto organizza e raccoglie news e guide http://www.abrahamsearch.it/inserimento.php?ul=it

Acoon

www.acoon.de

http://www.acoon.de/addurl2.asp

AllTheWeb

www.alltheweb.com

Risultati forniti da Yahoo!

Altavista

www.altavista.com

Risultati forniti da Yahoo! Search Technology

AOL

www.aol.com

Enhanced by Google

Arianna

http://arianna.libero.it/

Powered by Google

AsK

www.ask.com

Attraverso sitemap

Baidu

www.baidu.com

http://www.baidu.com/search/url_submit.html

Bing

www.bing.com

http://www.bing.com/webmaster/SubmitSitePage.aspx

http://www.bing.com/webmaster/ping.aspx?siteMap=url_my_sitemap blekko

http://blekko.com/

Un nuovo motore di ricerca interessante

Clusty.com

http://clusty.com

Aggregatore di risorse

Dogpile

www.dogpile.com

Risultati da Yahoo!, Google, Bing e ASK

duckduckgo

http://duckduckgo.com

http://duckduckgo.com/zero.html

Entireweb

www.entireweb.com

http://www.entireweb.com/free_submission

Euroseek

www.euroseek.com

Non pervenuto

Excite

www.excite.com

Risultati da Yahoo!, Google, Bing e ASK.

Faroo

www.faroo.com

http://www.faroo.com/bookmarklet.html

GigaBlast

http://www.gigablast.com

http://www.gigablast.com/addurl

Google

www.google.com

http://www.google.com/addurl/?continue=/addurl

http://www.google.com/webmasters/sitemaps/ping?sitemap=url_my_sitemap HotBot

www.hotbot.com

Il trovatore

http://www.iltrovatore.it/

Imhalal

www.imhalal.com

Risultati sperimentali in versione beta

Infospace

www.infospace.com

Risultati da Yahoo!, Google, Bing e ASK

iStella

http://www.istella.it/

IWon

www.iwon.com

Powered by Ask

Joeant

http://www.joeant.com

http://www.joeant.com/suggest.html a pagamento

Kataweb

www.kataweb.it

Aggregatore di notizie e argomenti

Looksmart.com www.looksmart.com

Risultati da Google, MSN e lyGo.com

Non pervenuto

Lycos

www.lycos.com

I risultati provengono da diversi fornitori

Mamma

www.mamma.com

http://www.bing.com/webmaster/SubmitSitePage.aspx

Middlespot

www.middlespot.com

Risultati sperimentali visuali

Monstercrawler www.monstercrawler.com

Risultati da Yahoo!, Google, Bing e ASK

Naver.com

http://www.naver.com

http://help.naver.com/customer/etc/webDocument.nhn

Naver.jp

www.naver.jp

Motore di ricerca giapponese

Nextag

www.nextag.com

Ricerca di articoli

Omgili

www.omgili.com

http://omgili.com/forum_owners.html

Peeplo

www.peeplo.com

Aggregatore di informazioni

Pepesearch

www.pepesearch.com

Risultati prelevati dai più importanti motori di ricerca

Quintura

www.quintura.com

Risultati sperimentali visuali

Rambler.ru

www.rambler.ru

Scrubtheweb

www.scrubtheweb.com

http://www.scrubtheweb.com/addurl.html

Search.ch

www.search.ch

http://www.search.ch/addurl.html

Searchhippo

www.searchhippo.com

http://www.searchhippo.com/addlink.php

Secrets

www.secretsearchenginelabs.com

http://www.secretsearchenginelabs.com/add-url.php

Seznam

www.seznam.cz

http://search.seznam.cz/pridej-stranku

Sogou

www.sogou.com

http://www.sogou.com/feedback/urlfeedback.php

Spenki.it

www.spenki.it

http://www.spenki.it/?mode=Indicizza

Spezify.com

www.spezify.com

Reperisce le informazioni da diverse fonti

Stinkyteddy

www.stinkyteddy.com

Aggregatore di news, social network e risultati esterni

Surfcanyon

www.surfcanyon.com

Aggregatore

TagGalaxy

www.taggalaxy.de

Motore di ricerca innovativo

Tiscali

http://search.tiscali.it

Trovit.it

http://www.trovit.it

Motore di ricerca per case, auto, lavoro

Virgilio

www.virgilio.it

Aggregatore di informazioni

Webcrawler

www.webcrawler.com

Risultati da Yahoo!, Google, Bing e ASK

Webwombat

www.webwombat.com.au

http://www.webwombat.com.au/submit/

Whatuseek

www.whatuseek.com

http://www.whatuseek.com/addurl.shtml

Wolframalpha

www.wolframalpha.com

No

Yahoo!

www.yahoo.com

http://search.yahoo.com/info/submit.html

Yandex

www.yandex.ru

http://webmaster.yandex.ru/site/add.xml

Le principali directory Nella SEO moderna l’utilizzo delle directory per attività di promozione online è una tecnica deprecata. In ogni modo, vogliamo fornirvi un breve elenco di directory per i vostri test SEO personali (visto la frequenza con cui chiudono questi portali alcuni link potrebbero essere non più attivi!). Tabella B.2 - Elenco delle principali directory italiane e straniere. www.qualeazienda.it

www.moscabianca.biz

www.reteimprese.it

promozione-aziende.net

news-aziende.net

promozione-italia.net

Yelp.com

Local.com

yellowpages.com

Infousa.com

Citysearch.com

superpages.com

www.citysquares.com

www.mojopages.com

www.insiderpages.com

www.SuperPages.com

www.switchboard.com

www.yellowbook.com

www.directoryannunci.com

www.sititalia.it

www.aziende-italiane-siti.it

www.sapo.pt

www.vetrinaditalia.it

www.hotfrog.it

www.nelweb.biz

www.esploratore.it

www.dmoz.org

dir.yahoo.com

www.lamiadirectory.com

www.directory.adv-media.it

www.reiseinformationenitalien.de

JoeAnt.com

www.about.com

Business.com

www.bbb.org

makezine.com

I principali siti di article marketing e di comunicati stampa

Come ben sappiamo, per migliorare la nostra reputazione nel web o promuovere un nostro prodotto è fondamentale produrre contenuti originali e non promozionali che viaggino sulla rete attraverso i principali network. Vi forniremo un breve elenco dei siti che offrono servizi di article marketing e di comunicati stampa. Abbiamo più volte ribadito, in questo libro, come le azioni di guest post e article marketing abbiano perso valore nel corso degli anni grazie all’evoluzione naturale dei motori di ricerca. Per questo motivo, consigliamo, per evitare penalizzazioni, di utilizzare questi servizi con cognizione di causa.

NOTA Esistono anche servizi che funzionano come aggregatori e propagatori di notizie (come, per esempio, oknotizie, fai informazione e cosi via). Sono molto utili nella fase di promozione di un prodotto o di un sito, ma vanno usati con cautela per evitare la duplicazione dei contenuti.

Tabella B.3 - Elenco dei principali servizi di article marketing, di comunicati stampa e di aggregatori di notizie (social news). www.comunicati-stampa.net

www.informazione.it

www.businessportal24.com/it

www.nellanotizia.net

www.comunicati-stampa.com

www.comunicati.net

www.faiinformazione.it

www.intopic.it

oknotizie.virgilio.it

www.comunicati-stampa.ws

marketing-news.biz

www.wazit.it

comunicati.net

www.fainotizia.it

digg.com

www.diggita.it

article-marketing.eu

www.upnews.it

www.notizieflash.com

www.pompinotizie.it

www.technotizie.it

www.ziczac.it

www.lamianotizia.com

www.newsvine.com

buzz.yahoo.com

www.fark.com

www.badzu.net

www.kirtsy.com

www.tipd.com

www.sphinn.com

www.slashdot.org

www.designfloat.com

NOTA I siti e i link presenti in questa appendice sono soggetti a rapide variazioni e quindi è “normale” se alcuni di essi fossero non attivi.

Bibliografia Per scrivere questo libro sono state fondamentali la lettura di testi specifici, documenti e articoli presi dalla rete, e l’analisi di test pratici “effettuati sul campo”, per verificare i risultati ottenuti. Di seguito riportiamo alcuni link e titoli bibliografici che hanno aiutato più o meno indirettamente gli autori nella stesura di questo libro: Tesi di Andrea Sardo: Search Engine Optimization nel percorso evolutivo dei motori di ricerca e nel Web semantico (a.a. 2007/2008). Nazzareno Gorni, Marco Maglio, E-mail marketing, Hoepli, Milano 2009. Antonio Ferrandina, Web Marketing, Edizioni Fag, Milano 2007. Roberto Marmo, Promuoversi con i business social network, Edizioni Fag, Milano 2009. Tamar Weinberg, Il marketing nel social web, Tecniche Nuove, Milano 2009. Emiliano Carlucci, Search Engine Marketing, Hoepli, Milano 2010. Francesco Busolini, Giovanni Lesa, Persuasione sui siti web.

Ringraziamenti speciali Davide Pozzi: http://blog.tagliaerbe.com/ Valentina Turchetti: http://www.seobuzz.it Simone Righini: http://www.goatseo.com Benedetto Motisi: http://www.seojedi.it/ Paolo Dello Vicario: http://www.seopoint.org Mattia Soragni: http://soragni.it Omar Campanella: http://www.thelayout.it Davide Prevosto, Ivan Cutolo, Gaetano Romeo, Riccardo Mares, Maurizio Ceravolo, Massimo Fattoretto, Claudio Marchetti.

Sitografia http://searchenginewatch.com http://www.mondodigitale.net http://it.wikipedia.org http://www.googleguide.com/ http://googleblog.blogspot.com http://technotizienews.it http://www.davidecobelli.it/ http://blog.tagliaerbe.com/ http://www.andreavit.com/blog/ http://www.regole-seo.com/ http://www.masternewmedia.org http://www.silverlight.net/learn/whitepapers/seo-for-silverlight/ http://www.slideshare.net http://www.slideshare.net/marketingarena/ http://www.giorgiotave.it/ http://www.mattcutts.com/blog/ http://www.magnificaweb.it/ http://www.googlerank.com/ http://www.google.com/support/forum/ http://www.posizionamentozen.com/ http://webmarketing.html.it/ http://www.insidefacebook.com/ http://www.web-marketer.it http://www.scribd.com/doc/27375092/Folksonomy-e-Delicious http://www.lowlevel.it

SEO E SEM Guida Avanzata Al Web Marketing - Marco Maltraversi - PDFCOFFEE.COM (2024)

References

Top Articles
Latest Posts
Recommended Articles
Article information

Author: Nicola Considine CPA

Last Updated:

Views: 6257

Rating: 4.9 / 5 (49 voted)

Reviews: 80% of readers found this page helpful

Author information

Name: Nicola Considine CPA

Birthday: 1993-02-26

Address: 3809 Clinton Inlet, East Aleisha, UT 46318-2392

Phone: +2681424145499

Job: Government Technician

Hobby: Calligraphy, Lego building, Worldbuilding, Shooting, Bird watching, Shopping, Cooking

Introduction: My name is Nicola Considine CPA, I am a determined, witty, powerful, brainy, open, smiling, proud person who loves writing and wants to share my knowledge and understanding with you.