Seo
|
Come Funzionano i Motori di Ricerca

Come Funzionano i Motori di Ricerca

Come funzionano i motori di ricerca: Scansione, Indicizzazione e Classificazione.

I motori di ricerca trovano, comprendono e organizzano i contenuti di Internet al fine di rispondere alle domande degli utenti nella maniera più pertinente possibile.

Per apparire nei risultati di ricerca, i contenuti devono pertanto risultare visibili ai motori di ricerca.

I motori di ricerca hanno tre funzioni principali:

  1. Scansione (crawling): eseguire ricerche su Internet per cercare contenuti,controllando il codice / i contenuti per ciascun URL trovato.
  2. Indicizzazione (indixing): archiviare e organizzare il contenuto trovato durante il processo di scansione. Una volta che una pagina è nell'indice, è pronta per essere visualizzata come risultato di query pertinenti.
  3. Classificazione (classification): fornire i contenuti che risponderanno meglio alla query di un ricercatore, il che significa che i risultati sono ordinati dalla più pertinente al meno pertinente.

Scansione

La scansione è un processo di scoperta in cui i motori di ricerca inviano un gruppo di robot (noti come crawler o spider) in “missione” per trovare contenuti nuovi e aggiornati. Il formato del contenuto può variare - pagine Web, immagini, video, PDF, ecc. - , il contenuto viene infatti scoperto in base ai collegamenti.

Indicizzazione

I motori di ricerca elaborano e archiviano le informazioni che trovano in un indice, un enorme database di tutti i contenuti che hanno che ritengono validi abbastanza da poter essere distribuiti agli utenti.

Classificazione

Quando un utente effettua una ricerca, i motori di ricerca analizzano il loro indice per trovare contenuti altamente pertinenti. Una volta trovati, i contenuti vengono ordinati nella speranza di risolvere la query del ricercatore. Questa organizzazione dei risultati di ricerca per pertinenza è noto come classificazione. In generale, si presume che più alta è la posizione in classifica di un sito Web, più il motore di ricerca ritiene che il sito sia adatto alla query ovvero alla ricerca dell utente.

Scansione, Indicizzazione e Classificazione

1. Scansione: i motori di ricerca possono trovare le tue pagine?

Se hai già un sito Web, potrebbe essere una buona idea iniziare a controllare quante pagine compaiono nell’indice di Google.

Un modo per controllare le pagine indicizzate è andare su Google e digitare "site: tuodominio.com" nella barra di ricerca.

Per risultati più accurati, monitorare e utilizzare il rapporto sulla copertura dell'indice in Google Search Console. Puoi creare un account Google Search Console gratuito se non ne hai ancora uno. Con questo strumento, puoi inviare la sitemap per il tuo sito e monitorare quante pagine inviate sono state effettivamente aggiunte all'indice di Google.

Robots.txt

I file robots.txt si trovano nella directory principale dei siti Web (es. tuodominio.com/robots.txt) e suggeriscono quali parti dei motori di ricerca del tuo sito devono e non devono eseguire la scansione,nonché la velocità con cui la scansione del tuo sito viene eseguita.

Definizione dei parametri URL in GSC

Alcuni siti (più comune in caso di e-commerce) rendono disponibili gli stessi contenuti su più URL aggiungendo determinati parametri.

Come fa Google a sapere quale versione dell'URL serve agli utenti?

Puoi utilizzare la funzione Parametri URL in Google Search Console per dire a Google esattamente come desideri che le tue pagine vengano trattate ovvero scannerizzate e indicizzate. Se utilizzi questa funzione per dire a Googlebot d "eseguire la scansione di nessun URL con il parametro ____", in pratica stai chiedendo di nascondere tale contenuto a Googlebot, il che potrebbe comportare la rimozione di tali pagine dai risultati di ricerca.

I motori di ricerca sono davvero in grado di trovare tutti i tuoi contenuti più importanti?

Ci sono delle ottimizzazioni che possono aiutare i motori di ricerca a trovare le tue pagine importanti.

Eseguendo una scansione, un motore di ricerca può trovare parti del tuo sito, ma ignorarne per i motivi più disparati. È importante assicurarsi che i motori di ricerca siano in grado di trovare e analizzare tutto il contenuto che si desidera indicizzare e non solo le pagine più evidenti e in vista come la home page.

Hai un'architettura delle informazioni pulita?

L'architettura dell'informazione è la pratica di organizzare ed etichettare i contenuti di un sito Web per migliorare l'efficienza e la reperibilità per gli utenti. La migliore architettura dell'informazione è intuitiva, il che significa che gli utenti non dovrebbero pensare troppo per usare il tuo sito Web o per trovare qualcosa. Il sito web dovrebbe essere semplice e intuitivo da navigare.

Una sitemap è un elenco di URL sul tuo sito che i crawler possono utilizzare per scoprire e indicizzare i tuoi contenuti. Uno dei modi più semplici per assicurarsi che Google trovi le pagine con la massima priorità è quello di creare un file (sitemap) che soddisfi gli standard di Google e inviarlo tramite Google Search Console. Sebbene l'invio di una Sitemap non sostituisca la necessità di una buona navigazione del sito, può sicuramente aiutare i crawler a trovare e scannerizzare tutte le tue pagine importanti.

Nel processo di scansione degli URL sul tuo sito, un crawler potrebbe riscontrare errori. Puoi andare al rapporto "Errori di scansione" di Google Search Console per rilevare gli URL su cui ciò potrebbe accadere: questo rapporto mostrerà gli errori del tuo server e quelli non trovati.

Codici 4xx: quando i crawler dei motori di ricerca non possono accedere ai tuoi contenuti a causa di un errore del client.

Gli errori 4xx sono errori client, il che significa che l'URL richiesto contiene una sintassi errata o non può essere soddisfatto. Uno degli errori 4xx più comuni è l'errore "404 - non trovato". Questi potrebbero verificarsi a causa di un refuso all’interno dell’URL, di una pagina eliminata o di un reindirizzamento interrotto, solo per citare alcuni esempi. Quando i motori di ricerca raggiungono un 404, non possono accedere all'URL.

Codici 5xx: i crawler dei motori di ricerca non possono accedere ai tuoi contenuti a causa di un errore del server.

Gli errori 5xx sono errori del server, ovvero il server in cui si trova la pagina Web non è riuscito a soddisfare la richiesta del ricercatore o del motore di ricerca di accedere alla pagina. Questi errori si verificano, in genere, perché la richiesta per l'URL è scaduta, e quindi Googlebot ha abbandonato la richiesta.

C'è un modo per dire sia ai ricercatori che ai motori di ricerca che la tua pagina è stata spostata: il reindirizzamento 301 (permanente).

Esiste anche il reindirizzamento 302, riservato, però, ai spostamenti temporanei e a casi in cui il passaggio dell'equità del collegamento non è un grosso problema. I 302 sono un pò come una deviazione stradale. Stai temporaneamente ridistribuendo il traffico mediante un percorso alternativo, che, per l’appunto, non rimarrà invariato nel tempo.

Come i motori di ricerca recuperano le informazioni

2. Indicizzazione: in che modo i motori di ricerca interpretano e memorizzano le tue pagine?

Dopo esserti assicurato che il tuo sito sia stato sottoposto a scansione, il prossimo passo è assicurarti che possa essere indicizzato.

Come vede un Crawler di Googlebot le pagine di un sito web?

La versione cache della tua pagina riflette un'istantanea dell'ultima volta in cui Googlebot l'ha sottoposta a scansione.

Google esegue la scansione e memorizza nella cache le pagine Web a frequenze diverse. I siti più affermati e noti che pubblicano frequentemente verranno sottoposti a scansione ad un ritmo più cadenzato rispetto a sito Web meno famosi.

È possibile visualizzare l'aspetto della versione cache di una pagina facendo clic sulla freccia a discesa accanto all'URL nella SERP e selezionando "Memorizzato nella cache".

Puoi anche visualizzare la versione di solo testo del tuo sito per determinare se il tuo contenuto “importante” viene sottoposto a scansione e memorizzato nella cache in modo efficace.

Dì ai motori di ricerca come indicizzare il tuo sito: Meta direttive dei robot.

Le metadirettive (o "meta tag") sono istruzioni che puoi dare ai motori di ricerca riguardo a come vuoi che la tua pagina web venga trattata.

Queste istruzioni vengono eseguite tramite i meta tag robot nella <head> delle pagine HTML (più comunemente utilizzate) o tramite il tag X-robotnell'intestazione HTTP.

Meta tag

Il meta tag robot può essere utilizzato all'interno della <head> dell'HTML della tua pagina web. Può escludere tutti o motori di ricerca specifici. Le seguenti sono le meta direttive più comuni, insieme alle situazioni in cui potresti applicarle.

  • Index / noindex indica ai motori se la pagina deve essere sottoposta a scansione e mantenuta nell'indice di un motore di ricerca per il recupero.
  • X-Robots-Tag viene utilizzato nell'intestazione HTTP del tuo URL fornendo maggiore flessibilità e funzionalità rispetto ai meta tag se desideri bloccare i motori di ricerca su larga scala perché puoi utilizzare espressioni regolari, bloccare file non HTML e applicare tag noindex a livello di sito .

 

3. Classificazione: in che modo i motori di ricerca classificano gli URL?

In che modo i motori di ricerca assicurano che quando un utente digita una query nella barra di ricerca, ottenga in cambio risultati pertinenti? Tale processo è noto come classificazione o ordinamento dei risultati di ricerca dalla più pertinente alla meno rilevante per una determinata query.

Per determinare la pertinenza, i motori di ricerca utilizzano algoritmi, un processo o una formula con cui le informazioni memorizzate vengono recuperate e ordinate in modo significativo. Questi algoritmi hanno subito molti cambiamenti nel corso degli anni al fine di migliorare la qualità dei risultati di ricerca.

L'obiettivo di Google quando si eseguono le regolazioni dell'algoritmo è migliorare la qualità generale della ricerca.

I backlink o "link in entrata" sono link che provengono da altri siti Web, gli internal link o "link interni" sono link sul tuo sito che mirano a taggare ad altre tue pagine (sullo stesso sito).

I back link funzionano in modo molto simile ai riferimenti WoM (passaparola) nella vita reale.

Questo è il motivo per cui PageRank è stato creato.

PageRank stima l'importanza di una pagina web misurando la qualità e la quantità di collegamenti di cui fa parte. Il presupposto è che più una pagina web è pertinente, importante e affidabile, più link avrà guadagnato.

Più backlink naturali hai da siti Web di alta autorità (attendibili), migliore è la tua probabilità di posizionarti più in alto nei risultati di ricerca. 

Oggi, con centinaia o addirittura migliaia di segnali di classifica, i primi tre sono rimasti abbastanza invariati: collegamenti al tuo sito Web (che fungono da segnali di credibilità di terze parti), contenuto della pagina (contenuto di qualità che soddisfa l'intento di un ricercatore), e RankBrain.

 

Che cos'è RankBrain?

RankBrain è la componente di apprendimento automatico dell'algoritmo principale di Google. L'apprendimento automatico è un programma per computer che continua a migliorare le sue previsioni nel tempo attraverso nuove osservazioni e dati di formazione. In altre parole, apprendendo sempre i risultati della ricerca dovrebbero migliorare costantemente.

Come funziona Rank Brain

Ad esempio, se RankBrain rileva un URL di classificazione inferiore che fornisce agli utenti un risultato migliore rispetto agli URL di classificazione superiore, RankBrain regolerà tali risultati spostando il risultato più rilevante in alto e degradando le pagine meno pertinenti come sottoprodotto.

Poiché Google continuerà a sfruttare RankBrain per promuovere i contenuti più pertinenti e utili, dobbiamo concentrarci sul raggiungimento degli intenti degli utenti, ora piu’ che mai. Fornisci le migliori informazioni ed esperienze possibili agli utenti che potrebbero atterrare sulla tua pagina e hai fatto un grande primo passo per ottenere buoni risultati in un mondo RankBrain.

Metriche di engagement

Dati che rappresentano il modo in cui i ricercatori interagiscono con il tuo sito dai risultati di ricerca.

  • Clic: visite dalla ricerca.
  • Tempo sulla pagina: tempo trascorso dal visitatore su una pagina prima di lasciarla.
  • Frequenza di rimbalzo (bounce rate): la percentuale di tutte le sessioni del sito Web in cui gli utenti hanno visualizzato solo una pagina.
  • Pogo-sticking: quanti utenti cliccano su un risultato organico e quindi tornando rapidamente alla SERP per scegliere un altro risultato.

 

Ricerca localizzata

Un motore di ricerca come Google possiede un proprio indice proprietario delle schede di attività commerciali locali da cui crea risultati di ricerca locali.

Se stai eseguendo un lavoro SEO locale per un'azienda che ha una posizione fisica, i clienti possono visitare (ad es.Dentista) o per un'azienda che viaggia per visitare i propri clienti (ad es. Idraulico), assicurati di richiedere, verificare e ottimizzare un Elenco gratuito di Google My Business.

Google My Business

Quando si tratta di risultati di ricerca localizzati, Google utilizza tre fattori principali per determinare il posizionamento:

  1. Rilevanza
  2. Distanza
  3. Prominenza

 

Rilevanza

Rilevanza è quanto un'azienda locale corrisponde a ciò che il ricercatore sta cercando. Per garantire che l'azienda stia facendo tutto il possibile per essere pertinente per gli utenti, assicurati che le informazioni sull'attività siano compilate in modo accurato.

Distanza

Google utilizza la tua posizione geografica per offrirti un servizio migliore sui risultati locali. I risultati della ricerca locale sono estremamente sensibili alla prossimità, che si riferisce alla posizione del ricercatore e / o alla posizione specificata nella query (se il ricercatore ne ha incluso uno).

Prominenza

Google sta cercando di premiare le attività commerciali note nel mondo reale. Oltre alla rilevanza offline di un'azienda, Google cerca anche alcuni fattori online per determinare il posizionamento locale, come le recensioni.

  • Recensioni: il numero di recensioni di Google ricevute da un'azienda locale e il sentimento di tali recensioni hanno un impatto notevole sulla loro capacità di classificarsi nei risultati locali.
  • Citazioni: una "citazione commerciale"o "scheda di attività commerciale" è un riferimento basato sul Web a un "NAP" (nome, indirizzo, numero di telefono) di un'azienda locale su una piattaforma localizzata (Yelp, Acxiom, YP, Infogroup, Localeze, ecc.) .

Le classifiche locali sono influenzate dal numero e dalla coerenza delle citazioni commerciali locali. Google estrae i dati da una vasta gamma di fonti nel creare continuamente il proprio indice aziendale locale.

Classifica organica: le best practice SEO si applicano anche al SEO locale.