John Smith
You have 4 new messages
You have 4 new messages
Una url parametrica è un indirizzo che oltre a contenere i dati del nome dominio e dell’eventuale cartella in cui è contenuta la risorsa (pagina, immagine, ecc.), contiene anche una stringa con delle ulteriori informazioni per filtrare la ricerca, una query string appunto.
Il classico esempio è quello offerto dagli ecommerce. Quando si filtrano i prodotti per un parametro, taglia, colore, ecc. solitamente la url cambia, aggiungendo una stringa a prima vista poco comprensibile alla fine dell’indirizzo della pagina iniziale del catalogo prodotti.
In quei parametri a guardare più attentamente si intravedono i dati del filtro applicato.
[divilifeshortcode id=’9530′]
Chiaramente le query string rispondono a delle precise regole, dettate dal protocollo di utilizzo (http) ma anche dai browser. Vediamo le regole principali:
Come avviene la codifica? La codifica si basa sulla regola per cui ogni carattere da codificare viene sostituito dal simbolo % seguito dalle due cifre corrispondenti al carattere nel sistema esadecimale. In questo modo si ottiene una codifica URLencode.
La sintassi delle query string prevede che ad ogni parametro segua il simbolo “=” e il valore a esso attribuito:
parametro=valore
La separazione fra parametri diversi avviene invece mediante l’utilizzo del simbolo “&”. La sintassi non prevede spazi, per cui si avrà una stringa di questo tipo:
?taglia=M&colore=blu
Oltre che a fornire una url parlante, le url parametriche rappresentano anche un modo per rendere unica una pagina come la selezione di un filtro, che altrimenti non potrebbe esserlo. Questo significa che:
Questi due risultati consentono quindi di gestire le pagine filtrate come pagine autonome e di poter aggiungere link specifici verso queste. Se ad esempio all’interno di un articolo del magazine del mio ecommerce volessi aggiungere un link verso la pagina con le scarpe marroni di un determinato brand, l’unico modo che ho per farlo è utilizzare una url parametrica che contenga le informazioni di questo specifico filtro.
Se da un lato però le url parametriche consentono di “creare” pagine un url univoco basato su determinati parametri, la proliferazione di pagine che si ha in questo modo deve essere gestita in maniera oculata, altrimenti il rischio è quello di generare una miriade di pagine che il motore di ricerca vedrà come contenuti duplicati. In ottica SEO questo non sarebbe certo un buon segno.
Una buona SEO non può infatti non occuparsi di gestire questi elementi. Oltre al rischio di duplicazione dei contenuti va considerato quello della cannibalizzazione. Non è infatti escluso che i motori di ricerca indicizzino per keyword fondamentali non le pagine di categoria ma pagine con filtri specifici, di fatto cannibalizzandole.
Diventa quindi fondamentale gestire questo tipo di pagine in maniera intelligente. Come? Le scelte da fare non sono sempre facili, riportiamo alcuni esempi di considerazioni da fare:
Fonte: Huckabay
Nel momento in cui si vanno a rendere canoniche – con l’intento di indicizzarle – pagine specifiche, dobbiamo poi curare altri elementi fondamentali dell’ottimizzazione SEO che contribuiscano a rendere univoci gli elementi che è possibile distinguere:
Come si è visto, il modo più efficace per scongiurare che i contenuti vengano considerati come duplicati o che le pagine si cannibalizzino a vicenda, è gestire la canonicalizzazione. Il modo più diretto è utilizzare il tag canonical. Si tratta di un tag che deve essere inserito all’interno della <head> della pagina HTML.
Il tag rel=”canonical”, seguito da una url, indica ai motori di ricerca che per la pagina in questione la versione canonica è quella indicata nella url. In questo modo chiediamo ai motori che sia quella la pagina che dovranno indicizzare, e al tempo stesso trasferiamo il valore SEO verso quella pagina.
Un altro modo per gestire le url parametriche è offerto da Google Search Console. All’interno della sezione Scansione > Parametri url è possibile impostare delle regole per specifiche url o per più url che hanno in comune determinati parametri. In questo modo indichiamo a Goglebot come comportarsi quando incontra url con questi parametri.
Un’altra indicazione che possiamo dare ai motori di ricerca per gestire l’indicizzazione delle pagine è utilizzare l’attributo “nofollow”. In presenza di questo i motori di ricerca sono tenuti (in teoria) a non indicizzare la pagina in questione, escludendola quindi dai risultati di ricerca.
Prima di impostare un nofollow teniamo presente che il crawler non solo non indicizzerà la pagina, ma non sarà neanche tenuto a seguire i link presenti in essa.
All’interno del file robots.txt possiamo indicare ai motori di ricerca quali sezioni o pagine del sito chiudere ai motori di ricerca per impedire loro di indicizzarle. La funzione “disallow” ha per l’appunto questo scopo.
Come si intuisce si tratta di un file dal potere potenzialmente enorme. Prima di mettervi mano si consiglia quindi di capire bene come funzionano le sue direttive.