Entiendo que esta es una pregunta bastante antigua y tiene algunas respuestas bastante buenas. Pero, aquí están mis dos centavos en aras de la integridad.
Según la documentación oficial , hay cuatro formas en las que puede permitir el acceso completo para que los robots accedan a su sitio.
Limpiar:
Especifique un comparador global con un segmento no permitido como lo menciona @unor. Entonces tu se /robots.txt
ve así.
User-agent: *
Disallow:
El truco:
Cree un /robots.txt
archivo sin contenido. Que permitirá por defecto todo para todo tipo de Bots
.
No me importa la manera:
No cree un /robots.txt
archivo completo. Lo que debería producir exactamente los mismos resultados que los dos anteriores.
El feo:
De la documentación de robots para metaetiquetas , puede usar la siguiente metaetiqueta en todas las páginas de su sitio para informar Bots
que estas páginas no deben indexarse.
<META NAME="ROBOTS" CONTENT="NOINDEX">
Para que esto se aplique a todo su sitio, deberá agregar esta metaetiqueta para todas sus páginas. Y esta etiqueta debe colocarse estrictamente debajo de su HEAD
etiqueta de la página. Más sobre esta metaetiqueta aquí .