SEO Tecnica: Fondamenti per un Sito Veloce e Crawlabile

SEO tecnica e velocità sito
Redazione SEOdir · 27 febbraio 2026 · 9 min lettura
Terminale con codice sorgente e strumenti di analisi della velocita di un sito web aperti su un monitor

Potete avere il contenuto migliore del web, ma se Google non riesce a trovarlo, scansionarlo e indicizzarlo, quel contenuto non esistera mai nei risultati di ricerca. La SEO tecnica si occupa esattamente di questo: garantire che l'infrastruttura del vostro sito sia solida, veloce e accessibile ai crawler dei motori di ricerca. E il lavoro che avviene dietro le quinte, invisibile all'utente finale ma determinante per il posizionamento.

In questa guida affrontiamo i fondamenti della SEO tecnica: dalla crawlability all'HTTPS, dalla velocita di caricamento ai dati strutturati. Non serve essere sviluppatori per comprendere questi concetti, ma e importante conoscerli per poter dialogare con chi si occupa della parte tecnica del vostro sito.

Crawlability e indexability: due concetti distinti

La crawlability indica la capacita di un motore di ricerca di accedere alle pagine del vostro sito e leggerne il contenuto. Googlebot, il crawler di Google, naviga il web seguendo i link da una pagina all'altra. Se una pagina non e raggiungibile tramite link, o se il server restituisce errori, quella pagina non verra scansionata.

L'indexability, invece, riguarda il passaggio successivo: dopo aver scansionato una pagina, Google decide se inserirla nel proprio indice. Una pagina puo essere crawlabile ma non indicizzabile, ad esempio se contiene un meta tag noindex o se Google la ritiene di scarsa qualita.

La distinzione e fondamentale. Un problema di crawlability impedisce a Google di vedere la pagina. Un problema di indexability significa che Google la vede ma sceglie di non mostrarla. Le soluzioni sono diverse nei due casi, ed e importante diagnosticare correttamente il problema. La guida ufficiale di Google Search Console offre strumenti gratuiti per monitorare entrambi gli aspetti.

Robots.txt: le regole per i crawler

Il file robots.txt e un documento di testo posizionato nella root del sito (ad esempio www.esempio.it/robots.txt) che comunica ai crawler quali aree del sito possono scansionare e quali no. Non e un meccanismo di sicurezza — non impedisce l'accesso alle pagine — ma e una direttiva che i motori di ricerca rispettano.

Un robots.txt mal configurato e uno degli errori tecnici piu gravi. Abbiamo visto casi in cui un'intera sezione di un e-commerce veniva bloccata per errore, rendendo invisibili centinaia di pagine prodotto. Ecco le regole base:

  • Non bloccate le risorse CSS e JavaScript necessarie per il rendering delle pagine. Google deve poter renderizzare la pagina come la vede l'utente.
  • Bloccate le aree che non volete indicizzare: pagine di amministrazione, risultati di ricerca interni, pagine di staging.
  • Includete il riferimento alla sitemap XML nel robots.txt: Sitemap: https://www.esempio.it/sitemap.xml.
  • Testate le modifiche con lo strumento di test del robots.txt in Google Search Console prima di pubblicarle.

Sitemap XML: la mappa del vostro sito

La sitemap XML e un file che elenca tutte le pagine del sito che volete vengano indicizzate, con informazioni aggiuntive come la data dell'ultimo aggiornamento e la priorita relativa. Non garantisce l'indicizzazione, ma aiuta Google a scoprire pagine che potrebbero non essere raggiungibili tramite la normale navigazione.

Una sitemap e particolarmente utile per siti di grandi dimensioni, siti con molti contenuti nuovi, siti con pagine poco collegate tra loro e siti appena lanciati che non hanno ancora backlink. La maggior parte dei CMS genera la sitemap automaticamente, ma e buona pratica verificare che sia aggiornata e che non includa pagine che non volete indicizzare (pagine con redirect, pagine con noindex, URL con parametri inutili).

HTTPS: sicurezza come fattore di ranking

Dal 2014, Google ha dichiarato ufficialmente che l'HTTPS e un segnale di ranking. Nel 2026, un sito senza certificato SSL non solo perde posizioni, ma viene segnalato come "Non sicuro" da tutti i principali browser, allontanando gli utenti ancora prima che leggano una riga di contenuto.

La migrazione da HTTP a HTTPS richiede attenzione: ogni URL del sito cambia, e tutti i vecchi indirizzi devono essere reindirizzati con redirect 301 verso le corrispondenti versioni HTTPS. Se questa migrazione viene fatta male, il sito puo perdere posizionamento in modo significativo. Verificate che tutte le risorse interne (immagini, CSS, JavaScript) vengano caricate tramite HTTPS per evitare problemi di "mixed content".

Mobile-first indexing: il mobile non e piu un'opzione

Google utilizza la versione mobile del vostro sito come versione primaria per l'indicizzazione e il ranking. Questo significa che se il vostro sito ha una versione desktop completa e una versione mobile ridotta, Google si basera su quella mobile per valutare i contenuti.

Le implicazioni sono chiare:

  • Il contenuto presente sulla versione desktop deve essere presente anche su mobile. Se nascondete testo o sezioni nella versione mobile, Google potrebbe non vederli.
  • I dati strutturati devono essere presenti nella versione mobile.
  • I meta tag (title, description, robots) devono essere identici su entrambe le versioni.
  • Il design responsive e la soluzione piu semplice e consigliata: un unico codice HTML che si adatta a tutti i dispositivi.

Per verificare come Google vede la versione mobile del vostro sito, usate lo strumento di ispezione URL in Google Search Console e selezionate la modalita mobile.

Velocita del sito: ogni millisecondo conta

La velocita di caricamento e un fattore di ranking confermato, ed e anche uno dei fattori che incidono di piu sull'esperienza utente. Secondo i dati di Google, il 53% degli utenti mobile abbandona un sito che impiega piu di tre secondi a caricarsi. Tre secondi. Non venti, non dieci: tre.

I fattori principali che influenzano la velocita sono:

  • Hosting. Un server lento rende tutto il resto inutile. Investite in un hosting di qualita, possibilmente con server vicini al vostro pubblico target.
  • Immagini non ottimizzate. Immagini troppo pesanti sono la causa piu comune di siti lenti. Usate formati moderni come WebP, ridimensionate le immagini alla dimensione effettiva di visualizzazione e implementate il lazy loading.
  • CSS e JavaScript. Minimizzate i file, eliminate il codice non utilizzato e considerate il caricamento asincrono per gli script non critici.
  • Caching. Configurate la cache del browser per le risorse statiche. Un utente che torna sul vostro sito non dovrebbe scaricare di nuovo gli stessi file.

Per misurare e diagnosticare i problemi di velocita, web.dev offre strumenti gratuiti come Lighthouse che analizzano le prestazioni del sito e forniscono suggerimenti pratici per migliorarle. Per un approfondimento sulle metriche specifiche, consultate la nostra guida dedicata ai Core Web Vitals.

Dati strutturati: parlare la lingua dei motori di ricerca

I dati strutturati, implementati tramite il vocabolario Schema.org, sono un modo per fornire ai motori di ricerca informazioni esplicite sul contenuto delle vostre pagine. Anziche lasciare che Google interpreti il significato del testo, gli dite direttamente: "questa e una ricetta", "questo e un prodotto con prezzo X", "questa e una FAQ".

I vantaggi sono duplici. Da un lato, i dati strutturati aiutano Google a comprendere meglio il contenuto. Dall'altro, possono generare i cosiddetti rich results: risultati di ricerca arricchiti con stelle di valutazione, prezzi, immagini, FAQ espandibili e altri elementi visivi che aumentano il tasso di clic.

I tipi di dati strutturati piu comuni includono:

  • Article e BlogPosting per articoli e post di blog.
  • Product per pagine prodotto con prezzo e disponibilita.
  • FAQ per pagine con domande e risposte.
  • LocalBusiness per attivita locali con indirizzo e orari.
  • BreadcrumbList per il percorso di navigazione.

L'implementazione avviene tipicamente tramite JSON-LD, un formato che si inserisce nel codice HTML della pagina senza modificare il contenuto visibile. Google mette a disposizione il Rich Results Test per verificare che i dati strutturati siano implementati correttamente.

Tag canonical e contenuto duplicato

Il contenuto duplicato e uno dei problemi tecnici piu diffusi, specialmente nei siti di grandi dimensioni e negli e-commerce. Quando lo stesso contenuto e accessibile da URL diversi (ad esempio con e senza parametri di tracciamento, con e senza www, con e senza slash finale), Google deve decidere quale versione indicizzare. Se non gli date indicazioni chiare, potrebbe scegliere la versione sbagliata o diluire il valore SEO tra tutte le varianti.

Il tag canonical risolve esattamente questo problema. Inserendo <link rel="canonical" href="https://www.esempio.it/pagina/"> nel codice HTML, comunicate a Google quale e la versione preferita di quella pagina. Tutti i segnali SEO (link, engagement, autorita) vengono consolidati sulla URL canonica.

Alcune regole pratiche:

  • Ogni pagina dovrebbe avere un tag canonical, anche quando punta a se stessa (canonical autoreferenziale).
  • Il canonical deve puntare a un URL reale, accessibile e indicizzabile. Un canonical che punta a una pagina 404 o a una pagina con noindex crea problemi.
  • Non confondete il canonical con il redirect. Il canonical e un suggerimento; il redirect e un'istruzione. Se avete due URL che devono essere davvero una sola pagina, usate il redirect 301.

Per chi gestisce un e-commerce, il tema del contenuto duplicato e particolarmente rilevante. La nostra guida alla SEO per e-commerce affronta nel dettaglio le strategie per gestire varianti prodotto, filtri e paginazione senza creare problemi di duplicazione.

Conclusione

La SEO tecnica non e glamour. Non produce titoli accattivanti ne contenuti virali. Ma senza una base tecnica solida, tutto il resto crolla. Un sito che non viene crawlato non viene indicizzato. Un sito lento perde utenti e posizioni. Un sito senza HTTPS perde fiducia. Un sito senza dati strutturati perde opportunita di visibilita.

La buona notizia e che la maggior parte degli interventi tecnici si fa una volta sola e poi richiede solo manutenzione periodica. Investite il tempo necessario per controllare robots.txt, sitemap, velocita, HTTPS e tag canonical. Usate Google Search Console come strumento di monitoraggio quotidiano. E quando avrete la certezza che le fondamenta sono solide, concentrate le energie su cio che fa davvero la differenza nel lungo periodo: contenuti di qualita e una ottimizzazione on-page impeccabile.