Seo, questo sconosciuto

Visto che di informazioni a riguardo il blog risulta veramente povero, mi sono preso la briga di redigere questo articolo in cui riassumo quel che sono le mie conoscenze in merito all'argomento acquisite sia per esperienza diretta che frequentando diversi convegni in giro per l'Italia e mettendo a confronto le mie conoscenze con quelle di altre figure esperte nel settore, spero sia di vostro gradimento e che possa tornarvi utile;-)

Che Cos'è ?

Con il termine SEO (Search Engine Optimization) usiamo indicare tutte le operazioni compiute su di un determinato sito web al fine di aumentare il suo volume di traffico derivante dai motori di ricerca. Esso è diventata una pratica fondamentale al giorno d'oggi nel web, poichè è l'unica maniera con cui possiamo sperare di far meglio catalogare la nostra risorsa nel cyberspazio al fine di essere di utilità e di facile individuazione per tutti coloro che la ricercano.

Perchè Farlo ?

Perchè il web nasce secondo il filosofico concetto "da tutti per tutti in qualsiasi momento", in altre parole le risorse di chiunque sul web devono essere disponibili con rapidità verso tutti in ogni istante ed è inutile quindi creare qualcosa nella rete se poi resta isolata e pertanto non condivisibile col resto della società di Internet. Siccome nel mondo le persone che hanno accesso al web sono sempre più numerose, anche la mole di contenuti presenti sulla rete è in esponenziale aumento, divenendo pertanto necessario catalogare al meglio le informazioni cosìcchè l'utente medio possa raggiungerle e trarne beneficio. Grazie al SEO riusciamo a far emergere in parole povere la nostra risorsa nelle pagine di risultati dei motori di ricerca ( note come SERP: Search Engine Result Page ) e tanto più la risorsa risulterà utile tanto più il traffico aumenterà e questo, ponendo ad esempio il caso di un azienda o di chi si occupa in generale del commercio online, può risultare anche economicamente vantaggioso in quanto può portare una miriade di nuovi clienti; altro dei motivi per cui una figura che si occupi di questo aspetto è spesso molto ricercata.

Buone Pratiche per fare SEO

Premetto che non pretendo di svelare ogni singolo mistero sul SEO, anche perchè non ne sarei ingrado, l'obiettivo è piuttosto quello di svelare e condividere i consigli più utili e comunemente adottati per l'ottimizzazione di un sito web.

> Utilizzare URL statiche

Anche se google stesso afferma di aver superato i problemi nell'indicizzare url dinamiche, la pratica non è mai sconsigliata soprattutto perchè questa tecnica ci consente di introdurre nell'indirizzo della pagina numerose informazioni utili ai fini dell'indicizzazione come il titolo dell'articolo, la data e la sua categoria (tutte queste informazioni vengono confrontate dagli spider, ed è come un ulteriore controllo di qualità sulla coerenza dei contenuti di quella specifica pagina).

Per capire meglio la differenza, vi mostro un esempio di url dinamica e statica:

dinamica: miosito.com/articolo.php?id=40
statica: miosito.com/40/articoli/giochi/PES_piu_brutto_gioco_di_sempre/


Come potete notare voi stessi, nel primo caso non esiste nessuna informazione specifica insita nell'url del sito, mentre nella seconda elenchiamo sia categoria che titolo e se ci fate caso, spesso google nelle sue SERP evidenzia le keyword presenti proprio nelle url di siti che si avvalgono di questa tecnica. Tale tecnica di riscrittura dell'url, ad ogni modo, si ottiene avvalendosi del mod_rewrite.

Naturalmente, nel caso di paginette statiche di puro HTML, tutto questo è superfluo in quanto, per forza di cause, il link alla risorsa è già considerato come statico, motivo per cui potete agire direttamente rinominando voi stessi il file html al fine di inserire nell'url tutte le informazioni che desiderate.

> Utilizzare markup HTML valido agli standard W3C

Utilizzare del markup valido è senz'altro sintomo di qualità nella produzione della risorsa in primis, ma ciò che è veramente importante è l'ordinamento semantico dei contenuti della pagina: usare <h1> per individuare il titolo del sito, usare le <p> per individuare i paragrafi o le zone testuali, avvalersi delle anchor <a> per i collegamenti verso le altre pagine (da evitare sempre javascript per questo fine o usare soluzioni accessibili, in quanto i bot non eseguono nessuna tecnologia di scripting client side), sfruttare gli attributi alt per inserire una breve descrizione alle immagini e tante altre buone norme di accessibilità che potete reperire nelle Web Content Accessibility Guidelines guadagnando, per altro, anche la facoltà di creare, in questa maniera, un sito web accessibile a utenti con particolari handicap visivi ;-) .

> Differenziare il <title> e la meta description del sito a seconda della pagina

Per ogni pagina del sito, si può assegnare un titolo ed una possibile descrizione alternativa al fine di impostare in maniera più immediata i contenuti di una data pagina. La pratica è piuttosto importante dal momento che quando il bot non riesce a reperire nel sorgente un contenuto utilizzabile nella descrizione dei risultati di ricerca, include la descrizione del meta tag description della pagina che deve quindi dimostrarsi un valido sostituto.

> Non allestire mai una pagina col palese intento di proporre keywords

Ricordate che keywords e risorse linkate vanno sempre integrate furbescamente nei naturali contenuti della pagina: deve tutto essere una risorsa spontanea, in quanto google in primis ha preso delle contromisure per individuare simili tentativi dal momento che bisogna privilegiare l'utente e non lo spider del motore di ricerca.

State facendo riferimento ad una risorsa sul web ? Linkatela.
Avete una pagina di anteprima degli articoli ? Usate parole chiave nei titoli attinenti e che sembrino naturali.


Esempio di keywords innaturali: programmazione, informatica, web, software per voi !
Esempio di keywords naturali: Nuovo software informatico per la programmazione di siti web dinamici !


Infine non inserite mai keywords nascoste nella pagina, ad esempio dello stesso colore dello sfondo o occultate in altro modo via css, in quanto la pratica può comportare facilmente penalizzazioni sull'indicizzazione.

> Contenuti Duplicati

Mai prendere dal web dei contenuti e copia-incollarli integralmente senza linkare la risorsa di origine dalla quale essi sono stati prelevati, in caso contrario google e altri motori di ricerca potrebbero penalizzare la nostra pagina perchè classificata inutilmente ridondante per l'utente che effettua la ricerca: Google promuove l'originalità dei contenuti.

> Metatags, affidabili ?

Passeremo ora al vaglio di alcuni metatags parecchio diffusi in ambito svelando quali utilizzare, come farlo al meglio e quali da scartare invece.

Meta Description:
Indispensabile, google e altri motori di ricerca spesso e volentieri usano la descrizione indicata in questo metatag (che non deve contenere un sunto più lungo di 250 caratteri) per indicare il possibile contenuto che l'internauta potrebbe trovare, è importante quindi essere sintetici e chiari nel descrivere brevemente il contenuto di quella pagina cercando, dove possibile, di evitare di duplicarlo: meglio se ogni pagina ne ha una sua.
Citazione:<meta name="description" content="Iron Maiden Fans, sito dove incontrare altri fans, scaricare extra e restare sempre informati sulle vicende della epica band heavy metal !">

Meta Keywords:
Google ha dichiarato di non tenere più conto di questo metatag, ricetta non valida altrettanto per gli altri motori di ricerca.
In questo tag viene inserito un eslenco di keyword, separate da virgola, da proporre ai bot come descrizione in parole povere del documento.
Si consiglia di usarlo con cautela e di non andare mai oltre le 4 o 5 keyword attinenti da proporre tramite questo metodo perchè il suo abuso può causare più penalizzazioni nelle liste dei risultati di ricerca dei motori anzichè benefici.
Citazione:<meta name="keywords" content="Iron Maiden, fansite, news, extra">

Meta Robots:
Serve a controllare il comportamento dei bot limitatamente alla pagina in cui è visualizzato, può specificare di indicizzare la pagina in questione e di seguire i link presenti nella pagina (come riportato nell'esempio) o viceversa non fare nessuna delle due cose o in maniera alternata.

I possibili contenuti impostabili sono pertanto:

- index,follow per "indicizza pagina corrente e segui links";
- index,nofollow per "indicizza pagina corrente ma non seguire i links";
- noindex,follow per "non indicizzare la pagina corrente ma segui i links";
- noindex,nofollow per "non indicizzare la pagina corrente e non seguire nessun link".
Citazione:<meta name="robots" content="index,follow">

Ad ogni modo consiglio l'uso del robot.txt, pratica che esplicherò poco più avanti nell'articolo, per regolare gli accessi degli spider.


Meta Revisit-After:
Se avete usato questo tag credendo di poter scegliere voi ogni quando uno spider deve venire a farvi visita mi spiace infrangervi i sogni di gloria ma nessuno lo rispetta più in quanto i search engine non hanno di certo i bot privati per ogni sito e comunque oggi si affidano ad altre tecniche per capire con che frequenza visitare un particolare sito web.
Citazione:<meta name="Revisit-After" content="10 days Days">

Qualsiasi altra tipologia di metatags è inutile ai fini dell'indicizzazione, con questo non si vuole però affermare che quelli che non abbiamo preso in esame non vadano adoperati per nulla, come ad esempio il meta content-type che consente di inserire la codifica dei caratteri utilizzati per quel documento web, al fine di comunicare al browser come meglio visualizzare la pagina.

Assolutamente da evitare invece qualsiasi tipo di metatag in cui vi è consentito introdurre indirizzi e-mail o contatti di vario genere in quanto gli spider dei motori di ricerca potrebbero si ignorarli, ma i crawler creati a scopo di spam no ;-) .

> Utilizzare `robots.txt` e `sitemap.xml`

Questi file sono i primi che un googlebot va a ricercare su un dominio quando decide di analizzarne uno, essi contengono specifiche importanti che i webmaster possono fornire riguardo l'indicizzazione del sito e, in particolare:

- `robot.txt` contiene istruzioni per il robot di google o di un qualsiasi altro motore di ricerca, in queste istruzioni possiamo specificare diverse cose come quali pagine non indicizzare del sito, per di più possiamo indicare l'url della sitemap se questa non usa quello di default. Per maggiori dettagli prendere visione delle informazioni di google in merito al file.

- `sitemap.xml` è un foglio in xml che contiene la mappa del sito e in cui è possibile specificare anche la frequenza di aggiornamento di determinate pagine o istruzioni utili per far capire ad uno spider che deve visitare più frequentamente determinate pagine del sito al posto di altre. Per maggiori informazioni, consiglio di prendere visione del sito ufficiale in merito al markup xml per la creazione di una sitemap valida.

> Link popularity

E' molto importante per l'indicizzazione anche l'aspetto della link popularity.
Essa fa capire a google quanto gli utenti hanno trovato utile una nostra risorsa sul web e ciò si basa sul conteggio dei link esterni che puntano alla risorsa.
A seconda della tipologia di links, essi hanno differenti valori di considerazione per google ma i più importanti sono i links spontanei, quelli che nascono cioè dai contenuti di una pagina (quando si linkano risorse esterne in un articolo, come ad esempio ho fatto io fino ad ora), in quanto evidentemente la risorsa è stata trovata particolarmente utile per quell'utente che ha deciso di condividerla senza costrizione.

Subito dopo, in scaletta di importanza, ci sono i link ricambiati (molto banalmente conosciuto come "scambio links"); la pratica non è inutile tutt'anzi è importante fare scambio links in modo razionalizzato cercando siti e directory che trattino le nostre medesime aree tematiche, sicuramente è un modo per far capire che la risorsa sul web esiste ed è estesa.

I meno importanti invece sono i link che riconducono all'interno del nostro stesso sito ma, come per lo scambio links, anche questi sono importanti in quanto -se usati coscenziosamente proponendo pagine dove reperire eventuali tematiche attinenti a ciò che l'utente visualizza in quel momento- sono considerati da google.

Una cosa invece sbagliatissima da fare è quella di linkare il proprio sito su altri siti di cui siete i possessori senza che tutto ciò risulti tematicamente sensato o che sia palese la forzatura nel linkare a tutti i costi la risorsa ! Di fatti google e altri motori di ricerca oltre a scandagliare le pagine del vostro sito web leggono anche i dati dati del proprietario del dominio e quindi capiscono se si tenta di falsificare la link popularity sganciando di conseguenza penalizzazioni se non direttamente la blacklist con la permanente esclusione dalle SERP.

> Strumenti per i webmaster, by Google

Avrete senza dubbio sentito parlare delle tools per i webmaster offerte da google, no ? (in caso contrario, era ora !) Ebbene, esse raccolgono buona parte delle informazioni che google ha del vostro sito sul web, dalle keywords a errori di scansione, al tempo di restituzione delle pagine alle description e title duplicate fino a includere funzionalità utili come quella di visualizzare una pagina come un googlebot, informazioni sui malware che possono aver attanagliato le nostre pagine web, invio della sitemap e vari settaggi e opzioni di visualizzazione del sito.

Il mio consiglio è sempre quello di abilitare le webmaster tools per il sito su cui state operando di SEO per avere una panoramica a 360 gradi sull'efficacia delle vostre operazioni di SEO e se le keyword che il motore di ricerca ha raccolto sono quelle che ci si aspetta. In parole povere, è un must have che può solo portare un incredibile serie di benefici.

Spero che l'articolo sia stato di vostro gradimento ma soprattutto che vi sia tornato utile, qualsiasi feedback in merito è ben gradito ;-)