SEO

Come evitare contenuti duplicati : 5 casi cui prestare attenzione

Per far sì che il vostro sito web troneggi nelle SERP su Google, Yahoo! e altri motori di ricerca, dovete assicurarvi che i contenuti forniti agli utenti siano completamente originali, privi di plagiarismi e, nella maniera più blanda, di contenuti duplicati.

Vediamo 5 casi particolari da evitare assolutamente.

1. Il caso WWW vs. Non-WWW

Molti webmaster si preoccupano che il loro sito web non venga visualizzato correttamente dai motori di ricerca se non presenta il “www.” prima del nome a dominio, o peggio, di venire penalizzati da Google per questo. Non c’è nulla di più falso: la scelta del www. o della sua omissione è completamente arbitraria e non comporta penalizzazioni di sorta. Ciò che conta davvero, è che una volta fatta la scelta, si resti fedeli ad essa: se avete scelto di omettere il www., ogniqualvolta un utente digiti www.iltuodominio.it, esso dovrebbe essere reindirizzato a iltuodominio.it; molti commettono invece l’errore di permettere l’indicizzazione di entrambe le versioni del sito, con e senza www., il quale causa contenuti duplicati.

Ecco come creare un redirect 301 per la versione scelta del nostro dominio:

Da WWW a non-WWW. Modificate il file .htaccess con il codice seguente:

RewriteEngine on
Options +FollowSymlinks
RewriteCond %{HTTP_HOST} ^www\.sitoweb\.com$ [NC]
RewriteRule ^(.*)$ http://sitoweb.com/$1 [R=301,L]

Da non-WWW a WWW. Usate il codice seguente:

RewriteEngine on
Options +FollowSymlinks
RewriteCond %{HTTP_HOST} ^sitoweb\.com$ [NC]
RewriteRule ^(.*)$ http://www.sitoweb.com/$1 [R=301,L]

2. Utilizzo di rel=canonical o i tag noindex e nofollow

Il concetto di rel=canonical può essere difficile da afferrare all’inizio, ma può rivelarsi molto utile: per Google, una pagina “canonical” è la versione preferenziale di un gruppo di pagine con contenuto molto simile. Ecco come creare un rel=canonical per il vostro sito (nei tag head del vostro template):

<link href="http://www.sitoweb.com/pagina-canonica/" rel="canonical" />

Oppure, potete utilizzare i tag “noindex, nofollow” nei meta tag della pagina duplicata:

<meta name="robots" content="noindex,nofollow" />

3. Keyword ripetute per tutte le pagine.

Questo caso si presenta soprattutto nei siti web mantenuti a mano, con gli include di PHP o comunque con header comuni. L’altra variante del caso è data da keyword rilevanti ripetute nel testo di pagine dal contenuto non rilevante, sebbene si tratti qui di uno specifico problema di strategia SEO. Meglio fare attenzione che ogni pagina abbia le proprie, uniche, parole chiave rilevanti.

4. Rendete i file robots.txt a prova di duplicazione.

E` bene che i webmaster prestino attenzione al file robots.txt, escludendo quelle pagine che si sanno avere contenuti duplicati dall’indicizzazione.

5. Niente plagiarismi!

Mentre ricercare, documentarsi e citare delle fonti sia un lavoro lodevole e necessario alla stesura di un buon articolo, è importante non copiare intere porzioni di testo, in quanto si scade nel plagiarismo. Siate creativi e originali e ne otterrete soltanto beneficio!

Avete altri consigli da dare?

Articoli simili

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.