Tengo algunas URL dinámicas generadas.
¿Puedo usar regex para bloquear estas URL en un archivo robots.txt?
Tengo algunas URL dinámicas generadas.
¿Puedo usar regex para bloquear estas URL en un archivo robots.txt?
Respuestas:
Las expresiones regulares no son válidas en robots.txt, pero Google, Bing y algunos otros robots reconocen alguna coincidencia de patrones.
Indique si desea bloquear todas las URL que tienen un example
lugar en la URL, puede usar una entrada comodín *
User-agent: *
Disallow: /*example
También puede usar el signo de dólar $ para especificar que las URL deben terminar de esa manera. Entonces, si desea bloquear todas las URL que terminan con example
, pero no las URL que tenían una example
URL en otra parte, podría usar:
User-agent: *
Disallow: /*example$
Puede encontrar más información detallada sobre Google aquí: Especificaciones de Robots.txt , Bing aquí: Cómo crear un archivo Robots.txt y hay una guía interactiva sobre Moz aquí