• Home
  • Spider – Crawler – Robot
crawler

Spider – Crawler – Robot

Uno Spider (o Crawler o Robot ), in ambito SEO, è un software automatico che analizza le risorse della rete internet e ne invia i risultati ai motori di ricerca.

In parole semplici, lo Spider è quel programma “incaricato”, per esempio da Google, di sondare costantemente il Web in cerca di pagine nuove, pagine aggiornate o pagine rimosse per garantire i migliori risultati possibili nella SERP stessa del motore.

 googlebot è il nome dello spider di Google, ma esistono anche slurp ( Yahoo ), scooter ( Altavista ), romilda ( Facebook ), ecc.

 I WebMaster dispongono di vari tools per “comunicare informazioni” allo spider o per guidarne il funzionamento.

Primo su tutti è sicuramente la Sitemap: la mappa del sito, generalmente in formato .XML, permette allo spider di trovare più facilmente tutte le pagine di un determinato sito.

Altro strumento importante è il file robots.txt con cui si limita volontariamente l’accesso dello spider a determinate aree del proprio sito.

Tag: , ,

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Privé by Esperto SEOPrivé by Esperto SEO

Entra nel Privé

Centinaia di video formativi a cura di Emanuele Tolomei

Il metodo definitivo per trasformare il tuo sito in un'azienda digitale

Scopri di più

Cookie Policy - Privacy Policy

Esperto SEO Srl - Viale Cesare Battisti, 179, 05100 Terni TR - C/F P.Iva 01512540558 - Tel.: +39 0744.409703 - Fax: +39 0744.429985