Eu entendo que esta é uma pergunta bastante antiga e tem algumas respostas muito boas. Mas, aqui estão meus dois centavos por uma questão de integridade.
De acordo com a documentação oficial , existem quatro maneiras de permitir o acesso completo para robôs acessarem seu site.
Limpar \ limpo:
Especifique uma correspondência global com um segmento não permitido, conforme mencionado por @unor. Então você se /robots.txt
parece com isso.
User-agent: *
Disallow:
O hack:
Crie um /robots.txt
arquivo sem conteúdo. Qual será o padrão para permitir todos para todos os tipos de Bots
.
Eu não me importo assim:
Não crie um /robots.txt
completamente. Que deve produzir exatamente os mesmos resultados que os dois anteriores.
O feio:
A partir da documentação dos robôs para metatags , você pode usar a seguinte metatag em todas as páginas do seu site para informar Bots
que essas páginas não devem ser indexadas.
<META NAME="ROBOTS" CONTENT="NOINDEX">
Para que isso seja aplicado a todo o seu site, você terá que adicionar esta metatag para todas as suas páginas. E essa tag deve ser colocada estritamente sob a HEAD
tag da página. Mais sobre esta metatag aqui .