El robot txt son archivos de texto con los que se puede gestionar la navegación de los algoritmos de búsqueda de una página web. Solamente tienes que crear el documento y subirlo a la web para impedir que otros bots rastreen ciertos contenidos. 

¿No te gustaría contar con una herramienta que pudiera indicar a los rastreadores que partes de tu sitio web quieres que vean y a cuáles prefieres que no presten atención? Pues esto es precisamente lo que es robots txt.

 

Para qué sirve el archivo robots.txt

El archivo robots txt sirve principalmente para poder gestionar como acceden los rastreadores de los motores de búsqueda a tu sitio web. De esta forma, puedes hacer que Google rastree o no determinados archivos. Por lo tanto, la respuesta a para que sirve el archivo robots txt es que se utiliza para excluir robots de ciertas partes de tu web. Es decir, sirve para que algunas secciones de la página sean privadas y no se rastreen desde los motores de búsqueda. 

Limita el acceso a datos e información

Este archivo sirve para evitar que ciertos contenidos de tu web aparezcan en los resultados de búsqueda. Por lo tanto, puedes limitar el acceso a determinados datos. Por ejemplo, si crees que tu servidor puede sobrecargarse o si tienes páginas en tu web que no consideras que sea importante que indexen, etc. 

Oculta contenido multimedia en los resultados de Google

Como gestionas el trafico de los rastreadores, también puedes conseguir que las imágenes o videos no aparezcan en los resultados de los motores de búsqueda, aunque otras webs o usuarios pueden acceder a los enlaces. 

No muestra archivos de recursos al robot

También sirve para evitar que los bots de búsqueda accedan a ciertos contenidos o archivos de estil, como las imágenes, secuencias de comandos o estilos. Sin embargo, debes tener en cuenta que, si se trata de aspectos importantes para que la página pueda cargar, es posible que el análisis y los informes de tu página también se vean afectados. 

 

Cómo funciona la variedad de comandos de robots.txt

A través de diferentes comandos es cómo funciona robots txt.

User-agent

¿Quieres introducir una orden especifica en tu robot txt? Con el comando de user-agent puede indicar de forma exacta la clase de bot de búsqueda al que quieres limitar el acceso, ya sea de Google o de otra plataforma. 

Disallow

Con este comando podrás indicar qué páginas son las que no quieres que aparezcan en los resultados de búsqueda. Puede ser a una carpeta concreta o a determinado s contenidos, como, por ejemplo, los que incluyan una determinada palabra o empiecen por una determinada letra. 

Allow

Este es el comando contrario al anterior. Con este comando indicarás las páginas o directorios que sí que te interesa que indexen. 

Sitemap

Con este comando puedes indicar a los robots de los motores de búsqueda a conocer y reconocer las páginas de tu sitio web. Para ello, debes haber guardado previamente un archivo de sitemap en el sitio web. 

 

Cómo crear un archivo robots.txt

Si te preguntas como crear un archivo robots txt lo tienes muy fácil. Realmente puedes utilizar cualquier clase de editor de texto para poder crear archivos válidos. Lo único que debes hacer es guardar el documento con la codificación UTF-8 si te aparece la opción para guardarlo así. Además, asegúrate de que se llame “robots.txt” y de tener solamente uno por sitio. 

Acceso a la raíz del dominio

  1. Crea un fichero de texto
  2. Incluye los comandos deseados
  3. Accede a la carpeta raíz del dominio
  4. Sube el documento

Plugin de WordPress: Yoast SEO

Si quieres incluir tu archivo robots txt en  wordpress, la herramienta Yoast SEO te lo pone muy fácil. Solo tienes que seguir los siguientes pasos: 

  1. Entra en las herramientas del plugin
  2. Clica sobre «crear robots.txt»

Si quieres descubrir más plugins SEO para WordPress, te mostramos los más útiles y mejores valorados en nuestra publicación-

 

Qué probador ofrece Google para el archivo robots.txt

Con las herramientas de probador de robots txt puedes comprobar si realmente el archivo esta impidiendo a los robots de los motores de búsqueda acceder a ciertas urls de tu pagina web. Google te permite utilizar una herramienta concreta de probador de robots para comprobar los errores y las advertencias del sitio web. 

Search Console

A través de Search Console podrás comprobar la salud del sitio web, forzar el indexado de determinadas páginas y checkear si tu archivo robot txt. Realmente esta cumpliendo los resultados que esperas. 

 

Ejemplo de los archivos robots.txt

Un ejemplo robots txt sencillo es el siguiente: 

User-agent: Googlebot

Disallow: /ejemplo1/

Sitemap: https://www.ejemplo.com/sitemap.xml

En este caso estas indicando que no quieres que Google rastree ninguna página de tu sitio web que comience por:  https://www.ejemplo.com/ejemplo1/

Además, estas indicando que el archivo de sitemap de la web esta en : https://www.ejemplo.com/sitemap.xml

Si necesitas ayuda para el posicionamiento de tu web, puedes contactar con los especialistas de nuestra agencia de posicionamiento SEO en Madrid.