5 Errori SEO molto comuni/frequenti (+1 Bonus)

errori seo
12 Apr

5 Errori SEO molto comuni/frequenti (+1 Bonus)

La sempre maggiore presenza di siti ha infatti aumentato di gran lunga la concorrenza sul Web fra aziende che offrono i medesimi servizi; le pratiche di indicizzazione e posizionamento usate sino a poco tempo fa facevano leva su sistemi non sempre esenti da scorrettezze che i motori di ricerca (Google in primis) hanno scoperto, penalizzato e ad oggi quasi del tutto debellato.

Le ultime tecniche di analisi dei siti (algoritmi) sviluppate da Google e dagli altri motori di ricerca danno maggiore importanza ai contenuti del sito: si dà infatti un’alta rilevanza alla pertinenza e coerenza a livello semantico delle pagine Web dei siti rispetto ai temi realmente trattati.

In queste analisi i motori di ricerca si appoggiano ad alcuni criteri fondamentali basati essenzialmente sui meta tag, il significato del contenuto, gli elementi multimediali e mappa del sito che se rispettati permettono di essere valutati positivamente e posizionati di conseguenza.

Per ogni sito è necessaria un’operazione di Search Engine Optimization (SEO) in modo che vengano rispettati i canoni di indicizzazione e posizionamento nei motori di ricerca.

Spesso infatti, non vengono rispettate numerose caratteristiche necessarie per avere un buon posizionamento sui motori di ricerca.

Ecco 50 errori SEO molto frequenti

  1. Assenza di una sitemap.xml:
    è un file in formato .xml che descrive la struttura del sito per i motori di ricerca. Fornire questo tipo di documento agevola la scansione dei motori di ricerca e favorisce l’indicizzazione delle pagine e dei relativi contenuti.
  2. Assenza del file robots.txt:
    il file robots.txt è necessario per guidare i processi di scansione dei motori di ricerca (definiti robots, spider o crawler) in modo da includere o escludere determinate pagine (in ordine di prevenire penalizzazioni) e indicare il posizionamento della sitemap.
  3. Assenza di uno script Google Analytics:
    la mancata presenza rende impossibile il monitoraggio dei dati di traffico al sito (traffico organico e da refferral, pagine più visitate, permanenza sul sito, pagine di uscita, parole chiave ricercate). L’assenza di queste preziose statistiche impedisce di conoscere l’andamento del sito e di impostare una qualsiasi strategia SEO.
  4. Mancata o errata compilazione dei meta tag:
    title e description, entrambi di grande peso ai fini del posizionamento per i motori di ricerca. Questo comporta un posizionamento per un numero inferiore di query di ricerca e una conseguente difficoltà nell’apparire in SERP.
  5. Struttura non corretta dei permalink e dei microdati nei breadcrumb:
    i permalinks, per una maggiore usabilità e un corretto posizionamento nei motori di ricerca, dovrebbe seguire una struttura logica e intelligibile es. nomedominio/categoria/nomepagina oppure nomedominio/ nomepagina.
  • BONUS: Contenuti duplicati a causa di mancati reindirizzamenti di:
    • Versione www e non www;
    • Pagine “con / finale” e “senza / finale” (o viceversa)
    • Versione http e versione https;
    • URL maiuscole e URL minuscole.

Vuoi aggiungere qualche altro punto? Vuoi scoprirne di nuovi? Lascia un commento a fondo pagina

About Author

avatar
Nato a Reggio Calabria, 30 anni, Head of SEO presso Pro Web Consulting, Agenzia SEO con sede a Chiasso (Svizzera). Mi occupo esclusivamente di SEO da 6 anni e di web marketing da più di 10 anni.

author posts

Loading Facebook Comments ...

Leave a Comment