Generador de robots.txt

Cree un robots.txt con múltiples bloques user-agent, reglas Allow/Disallow, Crawl-delay opcional, Host y líneas de Sitemap. La vista previa se actualiza en vivo a medida que escribe.

Bloques de User-agent

Global

Notas: Host es respetado por algunos rastreadores (p. ej., Yandex). Crawl-delay no lo usa Google pero puede ser usado por otros. Los comodines * y $ están ampliamente soportados (no en el RFC principal).

Vista previa (robots.txt)

Probador de URL

Recordatorio: robots.txt es de acceso público y sirve como directriz para rastreadores bien comportados; no es un mecanismo de control de acceso.

Comentarios (0)

Comparte tu opinión — por favor, sé amable y mantente en el tema.

Aún no hay comentarios. Deja un comentario y comparte tu opinión!

Para dejar un comentario, inicia sesión.

Inicia sesión para comentar