Fattori che peggiorano il posizionamento di un sito

- 23 maggio, 2007 12:36 pm

Ultimo appuntamento dedicato all’analisi delle variabili che influenzano il posizionamento di un sito all’interno degli indici dei motori di ricerca. In questo ultimo post analizzo le variabili che vengono definite critiche, ovvero quelle che possono causare un peggioramento del posizionamento. Sempre secondo il noto articolo di SEOmoz, tali fattori sono:

  • Server non accessibile ai robots
  • Contenuti duplicati
  • Link in uscita verso siti poco raccomandabili
  • Meta tag uguali per tutte (o molte) pagine
  • Abuso nell’utilizzo di keywords (keywords stuffing)
  • Adesione a circuiti scambio links o vendita di links
  • Server lento
  • Links in ingresso da siti spam
  • Basso livello di traffico


Nello specifico:

Server non accessibile ai robots

I motori non vogliono di certo proporre ai loro utenti pagine inesistenti. Un sito deve essere sempre accessibile, downtime possono influire negativamente sul posizionamento. A tal proposito avevo riportato il parere di Vanessa Fox.

Contenuti duplicati

Dal momento che i motori necessitano di una sola copia di un documento, tutte le copie identiche di una pagina, o di un contenuto, verranno ignorate. In qesto caso l’anzianità della pagina gioca un ruolo cruciale; la copia più datata sarà quella da cui tutte le altre avranno preso spunto, più o meno integralmente.
Se invece 2 copie di un documento risiedono sullo stesso dominio, il motore preleverà quella che a suo parere è la migliore (diciamo la più linkata all’interno del sito?). Spesso la copia scelta dal motore non è necessariamente quella che il webmaster desidera posizionare (pensiamo alle copie delle pagine web in formato stampa, di solito sono meno rumorose in quanto compare solo ed esclusivamente l’informazione necessaria, quindi ottime per i motori di ricerca). In questo caso è consigliabile inibire la spiderizzazione tramite l’utilizzo di file robots.txt cosi da presentare al motore solamente una copia del documento.

Link in uscita verso siti poco raccomandabili

Creare un collegamento ad un sito Spam è come dire al motore “Ehi, lui è mio amico!”.
Per evitare grane e penalizzazioni è sufficiente evitare di creare links verso siti spam.
Quindi quando create links in uscita verso siti compromettenti, abbiate l’accortezza di utilizzare un bel rel=”no-follow”.

Meta tag uguali per tutte (o molte) pagine

Influisce negativamente dal momento che Google preleva tutte le pagine con meta tag uguali e le rinchiude nell’indice dei Risultati Supplementari. Senza contare che avere meta uguali per tutto il sito significa non sfruttare uno degli elementi più importanti in termini di ottimizzazione, il tag Title.

Abuso nell’utilizzo di keywords (keywords stuffing)

I motori ormai non cascano più in trucchetti come ripetizioni di keywords (magari in bianco su sfondo bianco) quindi scartiamo subito l’idea di scalare le SERP con una accozzaglia di parole chiave.
Altro discorso è la sovra ottimizazione, ovvero quella sottile linea che divide un buon lavoro da un fallimento. Come individuare una sovraottimizzazione? Dall’abuso degli attributi ALT e Title, dagli URL kilometrici con 4,5,6…ripetizioni di Keywords e da tutto ciò che non offre un vero valore aggiunto al visitatore ma che è pensato solamente per i motori di ricerca.

Adesione a circuiti scambio o vendita links

Tema infuocato ultimamente, ne ho già parlato sul post dedicato all’analisi della link popularity. Se volete approfondire ulteriormente vi rimando a quanto affermato da Matt Cutts in uno dei suoi ultimi interventi.

Server lento

Solamente un tassello nel complicato puzzle dell’ottimizzazione…possiamo solo immaginare che un sito importante risiederà su un server importante mentre un sito amatoriale utilizzerà un hosting economico ed un sever con prestazioni inferiori. (e chi ve lo dice è uno che spende 10 euro l’anno per l’hosting…).

Links in ingresso da siti spam

Dipende dal numero di links spam in ingresso e dall’anzianità del sito. Un sito giovane con una buona percentuale di links provenienti da siti spam è a rischio penalizzazione.

Basso livello di traffico

Parametro misurato tramite Google analytics, Toolbar, numero di click ricevuti nelle pagine dei risultati…I motori favoriranno quei siti che sono stati in grado di generare maggior traffico e che con buona probabilità offrono contenuti interessanti agli utenti.

Con questo ultimo post chiudo la rassegna dedicata ai fattori che influiscono sul posizionamento. Per approfondire le tematiche trattate in precedenza i rimando ai post correlati.

Postato in : Search Engine Optimization
Print This Post Print This Post


No comments yet.

Sorry, the comment form is closed at this time.