El robot txt son archivos de texto con los que se puede gestionar la navegación de los algoritmos de búsqueda de una página web. Solamente tienes que crear el documento y subirlo a la web para impedir que otros bots rastreen ciertos contenidos.
¿No te gustaría contar con una herramienta que pudiera indicar a los rastreadores que partes de tu sitio web quieres que vean y a cuáles prefieres que no presten atención? Pues esto es precisamente lo que es robots txt.
Para qué sirve el archivo robots.txt
El archivo robots txt sirve principalmente para poder gestionar como acceden los rastreadores de los motores de búsqueda a tu sitio web. De esta forma, puedes hacer que Google rastree o no determinados archivos. Por lo tanto, la respuesta a para que sirve el archivo robots txt es que se utiliza para excluir robots de ciertas partes de tu web. Es decir, sirve para que algunas secciones de la página sean privadas y no se rastreen desde los motores de búsqueda.
Limita el acceso a datos e información
Este archivo sirve para evitar que ciertos contenidos de tu web aparezcan en los resultados de búsqueda. Por lo tanto, puedes limitar el acceso a determinados datos. Por ejemplo, si crees que tu servidor puede sobrecargarse o si tienes páginas en tu web que no consideras que sea importante que indexen, etc.
Oculta contenido multimedia en los resultados de Google
Como gestionas el trafico de los rastreadores, también puedes conseguir que las imágenes o videos no aparezcan en los resultados de los motores de búsqueda, aunque otras webs o usuarios pueden acceder a los enlaces.
No muestra archivos de recursos al robot
También sirve para evitar que los bots de búsqueda accedan a ciertos contenidos o archivos de estil, como las imágenes, secuencias de comandos o estilos. Sin embargo, debes tener en cuenta que, si se trata de aspectos importantes para que la página pueda cargar, es posible que el análisis y los informes de tu página también se vean afectados.
Cómo funciona la variedad de comandos de robots.txt
A través de diferentes comandos es cómo funciona robots txt.
User-agent
¿Quieres introducir una orden especifica en tu robot txt? Con el comando de user-agent puede indicar de forma exacta la clase de bot de búsqueda al que quieres limitar el acceso, ya sea de Google o de otra plataforma.
Disallow
Con este comando podrás indicar qué páginas son las que no quieres que aparezcan en los resultados de búsqueda. Puede ser a una carpeta concreta o a determinado s contenidos, como, por ejemplo, los que incluyan una determinada palabra o empiecen por una determinada letra.
Allow
Este es el comando contrario al anterior. Con este comando indicarás las páginas o directorios que sí que te interesa que indexen.
Sitemap
Con este comando puedes indicar a los robots de los motores de búsqueda a conocer y reconocer las páginas de tu sitio web. Para ello, debes haber guardado previamente un archivo de sitemap en el sitio web.
Cómo crear un archivo robots.txt
Si te preguntas como crear un archivo robots txt lo tienes muy fácil. Realmente puedes utilizar cualquier clase de editor de texto para poder crear archivos válidos. Lo único que debes hacer es guardar el documento con la codificación UTF-8 si te aparece la opción para guardarlo así. Además, asegúrate de que se llame “robots.txt” y de tener solamente uno por sitio.
Acceso a la raíz del dominio
- Crea un fichero de texto
- Incluye los comandos deseados
- Accede a la carpeta raíz del dominio
- Sube el documento
Plugin de WordPress: Yoast SEO
Si quieres incluir tu archivo robots txt en wordpress, la herramienta Yoast SEO te lo pone muy fácil. Solo tienes que seguir los siguientes pasos:
- Entra en las herramientas del plugin
- Clica sobre «crear robots.txt»
Si quieres descubrir más plugins SEO para WordPress, te mostramos los más útiles y mejores valorados en nuestra publicación-
Qué probador ofrece Google para el archivo robots.txt
Con las herramientas de probador de robots txt puedes comprobar si realmente el archivo esta impidiendo a los robots de los motores de búsqueda acceder a ciertas urls de tu pagina web. Google te permite utilizar una herramienta concreta de probador de robots para comprobar los errores y las advertencias del sitio web.
Search Console
A través de Search Console podrás comprobar la salud del sitio web, forzar el indexado de determinadas páginas y checkear si tu archivo robot txt. Realmente esta cumpliendo los resultados que esperas.
Ejemplo de los archivos robots.txt
Un ejemplo robots txt sencillo es el siguiente:
User-agent: Googlebot
Disallow: /ejemplo1/
Sitemap: https://www.ejemplo.com/sitemap.xml
En este caso estas indicando que no quieres que Google rastree ninguna página de tu sitio web que comience por: https://www.ejemplo.com/ejemplo1/
Además, estas indicando que el archivo de sitemap de la web esta en : https://www.ejemplo.com/sitemap.xml
Si necesitas ayuda para el posicionamiento de tu web, puedes contactar con los especialistas de nuestra agencia de posicionamiento SEO en Madrid.
Comentarios recientes