Estou usando o seguinte arquivo robots.txt para um site: O objetivo é permitir que o googlebot e o bingbot acessem o site, exceto a página, /bedven/bedrijf/*
e impeçam todos os outros bots de rastrearem o site.
User-agent: googlebot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: google
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bingbot
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: bing
Disallow: /bedven/bedrijf/*
Crawl-delay: 10
User-agent: *
Disallow: /
A última regra User-agent: * Disallow: /
proíbe o rastreamento de todos os bots de todas as páginas do site?
robots.txt
de qualquer maneira
robots.txt
, ou pelo menos a Disallow: /
regra. Se seu site pessoal está sendo martelado, porque um programador de bots nunca considerou que o servidor pode ser um Raspberry Pi na extremidade errada de uma conexão de 256 kbit, uma exclusão geral como essa é útil.