Aprenda a instalar el archivo llms.txt en su sitio. Una guía para mejorar la clasificación de su sitio en sistemas de IA.

Con el auge de los grandes modelos de lenguaje (LLM) y la proliferación de casos de uso de la IA, están surgiendo nuevos estándares para facilitar el acceso a la información en los sitios web. Entre ellos se encuentra el archivo llms.txt, un equivalente AI-first inspirado en robots.txt y sitemap.xml, pero diseñado específicamente para ayudar a los LLM (Large Language Models) y sus herramientas (por ejemplo, ChatGPT, Claude, Cursor, Windsurf, Replit Ghostwriter, etc.) a comprender y utilizar mejor tu contenido.
En esta mega guía, descubrirás:
llms.txtllms.txt y por qué usarlo?El archivo llms.txt es un archivo de texto escrito en Markdown (aunque conserva la extensión .txt) ubicado en la raíz de un sitio web, como robots.txt. Su objetivo es guiar a las IAs directamente durante la fase de inferencia (cuando un usuario o agente conversacional busca información precisa en tiempo real) proporcionando:
En otras palabras, llms.txt se convierte en un catalizador que orienta a las IAs hacia el contenido esencial y les impide parsear de forma burda — o demasiado voluminosa — las páginas HTML tradicionales llenas de elementos de diseño, animaciones y publicidad.
Así, llms.txt racionaliza la manera en que las IAs obtienen una visión general del sitio, permitiendo un mejor uso durante la fase de inferencia (sugerencias de código, respuestas expertas, plugins de ChatGPT, etc.).
llms.txt, robots.txt y sitemap.xml?robots.txt: Indica a los bots (GoogleBot, BingBot, etc.) dónde pueden o no rastrear. No proporciona contenido, solo reglas de acceso.sitemap.xml: Lista todas las páginas indexables para los motores de búsqueda (URL, fecha de última actualización, prioridades). Muy útil para el SEO, pero no proporciona una descripción del contenido ni menciona la forma «AI-friendly» de las páginas.llms.txt: Un archivo Markdown dirigido a las IAs para describir o apuntar a páginas utilizadas durante la inferencia. También puede incluir extractos estratégicos, enlaces externos fundamentales e incluso versiones .md de tus páginas. Es una herramienta opt-in diseñada para servir a los agentes directamente. Complementa, pero no reemplaza, robots.txt o sitemap.xml.El archivo llms.txt pretende ser simple y flexible. Esta es la estructura propuesta:
Nota: Las URLs pueden terminar en .md si deseas proporcionar directamente la versión texto/Markdown de tus páginas.
En la documentación de FastHTML, existe un llms.txt (archivo de demostración) que apunta a:
llms-full.txt con toda su documentación. Esto facilita el uso en IDEs o chatbots (p.ej. Cursor) que cargan este archivo directamente.llms.txt dedicado para describir sus servicios.llms.txt y llms-full.txt para permitir cargar la documentación en un agente conversacional.Aunque llms.txt no está dirigido directamente a los motores de búsqueda tradicionales, mejora indirectamente el SEO:
llms.txt?: breve descripción).##, secciones «opcional», etc.Varios proyectos open-source y servicios SaaS ofrecen generar tu llms.txt automáticamente:
llms.txt.llms.txt.LLMs.txt Explorer): Para cargar o crear un llms.txt desde el editor.llms.txt puede inducir a error a las IAs.llms.txt. Si los LLM confían ciegamente en el archivo, pueden «alucinar» o propagar información falsa./.well-known/llms.txt para alinearse con la RFC 8615, mientras que otros prefieren usar directamente example.com/llms.txt.llms.txt para impulsar tu SEO de IA?llms.txt no es obligatorio, pero está ganando popularidad entre los IDEs inteligentes, plugins de IA y comunidades open-source. Simplifica la integración de contenido en proyectos de IA en tiempo real, evita el desperdicio de tokens y promueve una documentación mejor comprendida por los modelos de lenguaje.
El archivo llms.txt se posiciona como una nueva piedra angular en el kit de herramientas de SEO e IA. Al proporcionar un condensado jerárquico de tu contenido clave, facilita la búsqueda contextual por parte de los agentes conversacionales y destaca tu documentación técnica. A medida que los chatbots y los IDEs inteligentes se convierten en la «nueva puerta de entrada» a la información, adoptar llms.txt puede marcar la diferencia.
¡No esperes para implementarlo! Aprovecha hoy la sinergia entre tu SEO tradicional y esta nueva capa de IA para ofrecer la mejor experiencia posible a los usuarios… humanos e inteligencias artificiales.
No, most AIs can already “scrape” the web. However, llms.txt streamlines and makes the context provided at inference more reliable. It is particularly useful for customer support, code auto-completion, technical documentation, etc.
No, they are two different things. robots.txt is mainly used to control crawler access. llms.txt is aimed at AIs during the information-seeking (inference) phase and offers a concise format, leveraging Markdown versions of your resources.
llms.txt is an optional standard. Not creating one is equivalent to not offering this privileged bridge to AIs. And if you want to block all usage, you should configure your robots.txt or implement technical measures (block user agents, etc.). But nothing guarantees that all LLMs or scrapers will respect these instructions.