Una certezza o un interrogativo per SEM e SEO?

Una delle difficoltà maggiori di questi ultimi tempi è indicizzare siti che si presentano ai SEM/SEO con duplicazioni su più domini e in qualche caso… anche sullo stesso server.

In breve, un SEM come il SEO, sa benissimo che l’importanza dei testi “originali” è fonte di popolarità e di posizionamento e rientra anche in una logica non assurda di anti spam costruttivo; immaginiamo di duplicare uno stesso sito su domini diversi tralasciando tutti gli altri fattori noti…

Agli occhi di uno spider, non si vedrà altro che una differenza dovuta al nome a dominio e in qualche caso una differenza dovuta dai backlinks che arrivano ai “diversi” siti (nomi a dominio diversi, sito duplicato), come comportarsi in merito? La logica di una macchina dotata di un algoritmo uguale e basato su vincoli identici, dovrebbe dare prevalenza e miglior posizionamento al sito che presenta un numero maggiore di BL “spontanei” e allora? Ipoteticamente si dovrebbe vedere un sito indicizzato ad un livello e il secondo… subito dopo; gli spammers allora?

Filtro Anti Duplicazione e GoogleL’algoritmo dovrebbe penalizzare tali azioni, abbiamo analizzato siti che si presentavano clonati su domini differenti e anche se con un puntamento diverso di link esterni, il dato comune che abbiamo notato è stato quello di avere entrambi i siti indicizzati ma lontanissimi dalle prime pagine… Un caso o una volontà degli spider di punire tali azioni di duplicazione?

I motori di ricerca si comportano in maniera diversa tra loro e non è difficile notare che, in alcuni casi, il sito sparisce letteralmente quando lo spider si trova in condizioni di equivalenza di contenuto, immagini, tag ecc…

Anche in situazioni come quelle su descritte e sottoposte al nostro lavoro (realizzazione e posizionamento), ci è risultato molto difficile “recuperare” quanto fatto da pseudo web agency sprovvedute che hanno adottato questa soluzione per occupare più nomi a dominio, il miglioramento effettivo lo abbiamo avuto quando, sul dominio più anziano, è stato totalmente sostituito il sito e i testi, Google su tutti ha restituito posizionamenti di rilevanza e una certa uniformità sulle pagine indicizzate, MSN ha tardato nella lettura e nel posizionamento mentre Yahoo ha mantenuto invariati nei suoi indici anche i nomi delle vecchie pagine pur indicizzando le nuove.

Fatta comunque la dovuta precisazione di casualità, ci sembra quanto mai importante l’originalità dei testi come l’assoluta esortazione ad evitare di duplicare siti su più domini, il valore di una pagina con un link che porta al sito principale o mini siti che conducono alla home page del sito principale (network) è quanto di meglio si possa fare a nostro avviso.

Per i blog, non è difficile imbattersi in articoli già letti… magari scritti sul proprio e riportati testualmente su un altro sistema blog, oltre a violare le norme per il diritto di autenticità (Creative Commons), risuta inutile vedere uno stesso articolo su due blog; il trackback e il citare pezzi degli articoli riportandone il link originale, è un servizio agli utenti che avranno la possibilità di confrontare le diverse opinioni e/o contribuire commentando su uno degli articoli dei blog che trattano lo stesso argomento, in pratica… il blog!

Se quanto osservato corrisponde o si avvicina alla verità, saremo certamente felici di affermare che:

il web del futuro è fatto di qualità, contenuti e non ultima… l’originalità.

Alex

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *