I motori di ricerca come Google fanno parte di ciò che rende Internet così potente. Con pochi tasti e il clic di un pulsante, vengono visualizzate le risposte più pertinenti alla tua domanda. Ma ti sei mai chiesto come funzionano i motori di ricerca? I web crawler sono parte della risposta.

Quindi, cos'è un web crawler e come funziona?

Che cos'è un crawler Web?

Pixabay - nessuna attribuzione richiesta

Quando cerchi qualcosa in un motore di ricerca, il motore deve scansionare rapidamente milioni (o miliardi) di pagine web per visualizzare i risultati più pertinenti. I web crawler (noti anche come spider o bot dei motori di ricerca) sono programmi automatizzati che "scansionano" Internet e compilano informazioni sulle pagine web in un modo facilmente accessibile.

La parola "crawling" si riferisce al modo in cui i web crawler attraversano Internet. I web crawler sono anche conosciuti come "spider". Questo nome deriva dal modo in cui strisciano sul web, come il modo in cui i ragni strisciano sulle loro ragnatele.

instagram viewer

I web crawler valutano e compilano i dati sul maggior numero possibile di pagine web. Lo fanno in modo che i dati siano facilmente accessibili e ricercabili, ecco perché sono così importanti per i motori di ricerca.

Pensa a un web crawler come all'editor che compila l'indice alla fine del libro. Il compito dell'indice è di informare il lettore dove nel libro appare ogni argomento o frase chiave. Allo stesso modo, un web crawler crea un indice che un motore di ricerca utilizza per trovare rapidamente informazioni pertinenti su una query di ricerca.

Che cos'è l'indicizzazione della ricerca?

Come abbiamo detto, l'indicizzazione della ricerca è paragonabile alla compilazione dell'indice alla fine di un libro. In un certo senso, l'indicizzazione della ricerca è come creare una mappa semplificata di Internet. Quando qualcuno pone una domanda a un motore di ricerca, il motore di ricerca la esegue attraverso il suo indice e le pagine più pertinenti vengono visualizzate per prime.

Ma come fa il motore di ricerca a sapere quali pagine sono rilevanti?

L'indicizzazione della ricerca si concentra principalmente su due cose: il testo nella pagina e i metadati della pagina. Il testo è tutto ciò che vedi come lettore, mentre i metadati sono informazioni su quella pagina immesse dal creatore della pagina, noti come "meta tag". I meta tag includono cose come la descrizione della pagina e il meta titolo, che appaiono nella ricerca risultati.

I motori di ricerca come Google indicizzeranno tutto il testo di una pagina web (ad eccezione di alcune parole come "il" e "a" in alcuni casi). Quindi, quando un termine viene cercato nel motore di ricerca, perlustra rapidamente il suo indice per la pagina più pertinente.

Come funziona un crawler Web?

Pixabay - nessuna attribuzione richiesta

Un web crawler funziona come suggerisce il nome. Iniziano da una pagina Web o URL noto e indicizzano ogni pagina a quell'URL (il più delle volte, i proprietari di siti Web richiedono ai motori di ricerca di eseguire la scansione di determinati URL). Quando incontrano collegamenti ipertestuali su quelle pagine, compilano un elenco di pagine "da fare" che verranno sottoposte a scansione in seguito. Il web crawler continuerà a farlo a tempo indeterminato, seguendo particolari regole su quali pagine sottoporre a scansione e quali ignorare.

I web crawler non eseguono la scansione di tutte le pagine di Internet. In effetti, si stima che solo il 40-70% di Internet sia stato indicizzato dalla ricerca (che è ancora miliardi di pagine). Molti web crawler sono progettati per concentrarsi su pagine ritenute più "autorevoli". Autorevole le pagine soddisfano una manciata di criteri che le rendono più propense a contenere alta qualità o popolari informazione. I crawler Web devono anche rivisitare costantemente le pagine man mano che vengono aggiornate, rimosse o spostate.

Un ultimo fattore che controlla quali pagine verrà scansionata da un web crawler è il protocollo robots.txt o il protocollo di esclusione dei robot. Il server di una pagina web ospiterà un file robots.txt che stabilisce le regole per qualsiasi web crawler o altri programmi che accedono alla pagina. Il file escluderà la scansione di determinate pagine e i collegamenti che il crawler può seguire. Uno degli scopi del file robots.txt è limitare lo sforzo che i bot mettono sul server del sito web.

Per impedire a un web crawler di accedere a determinate pagine del tuo sito web, puoi aggiungere il tag "disallow" tramite il file robots.txt o aggiungi il noindex meta tag alla pagina in questione.

Qual è la differenza tra strisciare e raschiare?

Il web scraping è l'uso di bot per scaricare dati da un sito Web senza l'autorizzazione di quel sito Web. Spesso, il web scraping viene utilizzato per motivi dannosi. Lo scraping Web spesso prende tutto il codice HTML da siti Web specifici e gli scraper più avanzati prenderanno anche gli elementi CSS e JavaScript. Strumenti per raschiare il web può essere utilizzato per compilare rapidamente e facilmente informazioni su argomenti particolari (ad esempio un elenco di prodotti) ma può anche spaziare in territori grigi e illegali.

Il web crawling, invece, è l'indicizzazione delle informazioni sui siti web con permesso in modo che possano comparire facilmente nei motori di ricerca.

Esempi di web crawler

Tutti i principali motori di ricerca hanno uno o più web crawler. Ad esempio:

  • Google ha Googlebot
  • Bing ha Bingbot
  • DuckDuckGo ha DuckDuckBot.

I motori di ricerca più grandi come Google hanno bot specifici per diversi obiettivi, inclusi Googlebot Images, Googlebot Videos e AdsBot.

In che modo la scansione web influisce sulla SEO?

Pixabay - nessuna attribuzione richiesta

Se vuoi che la tua pagina appaia nei risultati dei motori di ricerca, la pagina deve essere accessibile ai web crawler. A seconda del server del tuo sito web, potresti voler assegnare una particolare frequenza di scansione, quali pagine devono essere scansionate dal crawler e quanta pressione possono esercitare sul tuo server.

Fondamentalmente, vuoi che i web crawler si concentrino su pagine piene di contenuti, ma non su pagine come messaggi di ringraziamento, pagine di amministrazione e risultati di ricerca interni.

Informazioni a portata di mano

L'uso dei motori di ricerca è diventato una seconda natura per la maggior parte di noi, ma la maggior parte di noi non ha idea di come funzionino. I crawler Web sono una delle parti principali di un motore di ricerca efficace e indicizzano efficacemente le informazioni su milioni di siti Web importanti ogni giorno. Sono uno strumento prezioso per i proprietari di siti Web, i visitatori e i motori di ricerca.

CondividereTweetE-mail
Programmazione vs. Sviluppo web: qual è la differenza?

Potresti pensare che i programmatori di applicazioni e gli sviluppatori web facciano lo stesso lavoro, ma questo è lontano dalla verità. Ecco le principali differenze tra programmatori e sviluppatori web.

Leggi Avanti

Argomenti correlati
  • La tecnologia spiegata
  • Ricerca sul web
  • Ricerca Google
  • Cerca trucchi
Circa l'autore
Jake Harfield (25 articoli pubblicati)

Jake Harfield è uno scrittore freelance con sede a Perth, in Australia. Quando non scrive, di solito è fuori nella boscaglia a fotografare la fauna locale. Puoi visitarlo su www.jakeharfield.com

Altro da Jake Harfield

Iscriviti alla nostra Newsletter

Iscriviti alla nostra newsletter per consigli tecnici, recensioni, ebook gratuiti e offerte esclusive!

Clicca qui per iscriverti