De cero a la visibilidad en Perplexity, Gemini, Bing y Brave: 24 horas para hacer visible una aplicación Android a 4 IAs en paralelo
El martes por la noche, revisamos las cifras de la semana. Las visitas desde ChatGPT existen. No muchas, tres este mes, pero existen. Y luego escribimos site:tamsiv.com en Bing. Cero resultados. Verificamos Common Crawl. Cero capturas. La situación se aclara. ChatGPT encuentra TAMSIV a través de un canal frágil (OAI-SearchBot directo, algunos backlinks de dev.to), no a través de Bing. Si mañana este canal se cierra, no habrá nada.
Y sobre todo, ChatGPT es solo uno de diez LLM. Perplexity, Claude, Gemini, Copilot, Grok, You.com, Kagi, y todos los modelos de código abierto en segundo plano: cada uno tiene su backend de búsqueda, sus fuentes, sus criterios de citación. Optimizar para uno solo es encerrarse en un cuello de botella.
El mapeo que no habíamos hecho
Antes de codificar cualquier cosa, hacemos el mapa. Es rápido una vez establecido:
- ChatGPT search y Microsoft Copilot se basan en Bing como backend. Bing nos indexa cero, por lo que somos invisibles en ambos.
- Claude (Anthropic) y sus derivados tipo WebSearch utilizan Brave Search + un rastreador propio. Ahí aparecemos primero en "voice task manager Android". Buena elección, no lo sabíamos.
- Gemini y Google AI Overview se basan en Google. Indexación OK, diez referrers de Google por semana en promedio.
- Perplexity cruza Bing, DuckDuckGo y su propio rastreador. Estado desconocido, a probar en directo.
- Grok está conectado a X (el antiguo Twitter) y un rastreador propio. No hay presencia activa de TAMSIV en X, un punto ciego asumido.
- DeepSeek, Mistral, Llama y todos los modelos de código abierto obtienen su corpus de entrenamiento inicial de Common Crawl. Cero capturas hoy, por lo que no estamos en ninguno de estos modelos entrenados.
De diez LLM principales, solo tenemos una presencia sólida en dos (Google y Brave). Eso es insuficiente.
La pila AEO implementada en una sesión
La idea: desplegar en un día todo lo que hace que tamsiv.com sea legible por los rastreadores de IA, simultáneamente, sin depender de un solo backend.
Para el manifiesto en sí: /llms.txt en la raíz, que sigue el estándar llmstxt.org. Un párrafo de identidad, treinta enlaces a las páginas importantes, una ficha de contacto (fundador, plataformas, idiomas, precios). Y /ai.txt como complemento, que autoriza explícitamente el uso del contenido para el entrenamiento y la indexación de IA (estándar Spawning, opt-in claro).
Para los datos estructurados: enriquecemos el JSON-LD de la landing. SoftwareApplication con diez características explícitas y tres ofertas (Free, Pro, Team). Organization con fundador estructurado y enlaces sociales extendidos, incluyendo Bluesky. WebSite con acción de búsqueda. Y una FAQPage de dieciocho preguntas extraídas automáticamente de las traducciones i18n del sitio. En el blog, BlogPosting enriquecido (palabras clave inferidas, articleSection, wordCount, about, inLanguage), FAQPage autoextraída del HTML cuando el artículo contiene una sección FAQ, y dateModified calculado sobre la fecha real de modificación del archivo, más preciso que la fecha de publicación sola.
Para la indexación push: un endpoint API /api/indexnow que notifica en paralelo a Bing, Yandex e IndexNow.org tan pronto como una URL cambia. Una clave IndexNow publicada en la raíz para la verificación de propiedad. No es necesario esperar a que pasen los rastreadores, nosotros mismos les avisamos.
Para la citabilidad de los artículos: un bloque "Respuesta corta" de cincuenta a sesenta y cinco palabras añadido al principio de los cuatro artículos ya citados por ChatGPT, en los seis idiomas. Veinticuatro archivos modificados. El formato está calibrado para que los LLM extraigan el pasaje y lo citen tal cual, sin tener que desplazarse quinientas palabras.
Para las comparaciones: una primera página /vs/todoist con una pila JSON-LD completa (dos SoftwareApplication, un ItemList, una FAQPage, un BreadcrumbList). A los LLM les encantan las comparaciones honestas, y SourceForge construye sus propias páginas a partir de las nuestras.
Envío a Bing y lote IndexNow
La palanca más rápida para Bing: Webmaster Tools. Inicio de sesión a través de OAuth Google en la cuenta de administrador de TAMSIV, importación de sitios desde Google Search Console. Dos sitios importados instantáneamente, sitemaps incluidos. No es necesario pegar una metaetiqueta de verificación, ni esperar.
Luego el lote IndexNow. Recuperamos las 498 URL del sitemap, las dividimos en bloques de 50, las enviamos en paralelo a los tres endpoints públicos (api.indexnow.org, bing.com, yandex.com) con un segundo y medio entre cada oleada. Treinta bloques enviados, treinta OK. Total: un poco menos de un minuto para notificar a Bing y Yandex que deben indexar mil trescientas páginas.
En paralelo, se envió una solicitud de inclusión a Common Crawl a través de su formulario de contacto. Respuesta automática "Thank you, your submission has been received". Veremos en la próxima iteración mensual.
La prueba del día siguiente, en cuatro LLM
La prueba directa a la mañana siguiente en cada LLM, ahí es donde se juega todo.
Perplexity devuelve una respuesta completa y precisa sobre "What is TAMSIV voice task manager Android". Diez fuentes citadas: cuatro artículos de tamsiv.com, la ficha de Play Store, una ficha de Slashdot que no sabíamos que existía, dos artículos de dev.to, el video de demostración de YouTube, la landing EN y una publicación de LinkedIn de un tercero (una cuenta gyaansetu-ai que había republicado nuestra información). Respuesta rica, atribuida correctamente a TAMSIV como entidad.
Gemini también responde, más corto, con tres fuentes: Play Store, SourceForge (página de comparación que tampoco conocíamos) y un artículo de tamsiv.com. La respuesta cita correctamente las características clave (NLP, extracción multitarea, colaboración en tiempo real, gamificación, seis idiomas, carpetas jerárquicas). Un pequeño detalle divertido: Gemini atribuye el diseño de la aplicación a "Julien Avezou" (otro indie hacker cuyos artículos hemos comentado en dev.to). Lo dejamos pasar, el nombre del fundador no es el objetivo de esta historia.
Claude a través de WebSearch coloca el blog tamsiv.com en la primera posición para "best voice task manager Android 2026", con la descripción y el precio correctamente recuperados.
Bing es un caso particular. La consulta site:tamsiv.com sigue devolviendo cero resultados, porque el motor tarda varios días en integrar las páginas en su índice de operador. Pero en cuanto al tráfico real, dos visitantes humanos de Bing aparecen en Supabase ese día: uno de Inglaterra que aterriza en el artículo sobre la reducción de costes de Supabase, una de Francia que aterriza en el historial de conversaciones de IA. Una fuente que valía cero 48 horas antes, dos visitantes ahora, sin que hayamos escrito ningún contenido nuevo. Es el lote de IndexNow el que habla.
La verdadera sorpresa: Slashdot y SourceForge ya tenían fichas
Descubrimos en las fuentes de Perplexity un enlace a slashdot.org/software/p/TAMSIV/. Hacemos clic y hay una ficha completa. Lo mismo en SourceForge. Descripciones precisas, probablemente recuperadas de nuestra Play Store. Precios correctos, idiomas correctos, categorías correctas.
Nadie envió estas fichas manualmente. Los agregadores rastrean automáticamente la Play Store y crean entradas para las aplicaciones que aumentan su visibilidad. Es suerte, o más bien la recompensa por haber rellenado bien nuestra ficha de Play Store en seis idiomas.
En SourceForge, algunos errores fácticos importados del scraping automático: la ficha anuncia TAMSIV en Windows, Mac, Linux, iOS, cuando solo funciona en Android y la web. Anuncia soporte telefónico 24/7, cuando estamos disponibles por correo electrónico y Discord. Anuncia seminarios web y formación presencial, cuando solo tenemos documentación en línea. Estos errores alimentan las alucinaciones de los LLM (Gemini retoma "iOS, Web, desktop platforms" que probablemente viene de ahí).
La reclamación de la ficha es el siguiente paso: cuenta de proveedor de SourceForge ya creada para TAMSIV, formulario de reclamación a rellenar, moderación en unos días, y corregiremos los cinco errores. Pero este trabajo tiene como objetivo corregir lo que la ficha dice sobre el producto, no impulsar una biografía personal.
Lo que aprendemos de esto
Un LLM no es todos los LLM. Optimizar solo para ChatGPT es ignorar el 70% del mercado. Una estrategia AEO debe apuntar simultáneamente a Bing (ChatGPT/Copilot), Brave (Claude), Google (Gemini) y Common Crawl (modelos de código abierto). Las acciones técnicas son las mismas, pero su efecto se mide en diferentes canales.
Los directorios de software son fuentes LLM de primer nivel. Perplexity cita Slashdot, Gemini cita SourceForge, Claude cita AlternativeTo, Copilot cita Capterra. Multiplicar la presencia en estos sitios multiplica las citas. Es la capa olvidada del SEO clásico, y alimenta directamente a los LLM.
El JSON-LD enriquecido se lee, no solo por Google. Hemos visto a Gemini retomar la estructura de características+ofertas de SoftwareApplication y la FAQPage del blog. Por cincuenta líneas de JavaScript en el diseño, el efecto es medible.
IndexNow ahorra días de ciclo. Sin un push, Bing tarda de una a tres semanas en descubrir un nuevo sitio. Con un lote de IndexNow, son unas pocas horas. Y es gratis, sin clave API, sin límites de tasa delirantes.
Las alucinaciones de los LLM sobre detalles no críticos (nombre del fundador, plataformas compatibles) provienen casi todas de las fichas de terceros. Corregirlas a través de los formularios de reclamación es más eficaz que sobrepublicar en tu propio sitio. El producto, por su parte, debe describirse de forma fáctica y estable en todos los lugares donde tengamos control.
Continuación del trabajo
En la lista: reclamar Slashdot y SourceForge para corregir los errores del producto, envío activo a los otros diez directorios ausentes (G2, Capterra, GetApp, ProductHunt, ToolFinder, FutureTools, There's an AI for that, AItoolsdirectory, Crozdesk, SoftwareSuggest). Cuatro nuevas páginas de comparación (Any.do, Google Keep, Notion, TickTick) con la misma plantilla que /vs/todoist. Y un seguimiento mensual obligatorio de las citas por LLM, con captura de pantalla en cada prueba, para medir la trayectoria y no conformarse con impresiones.
Prueba a repetir en treinta días, en sesenta, en noventa. Si la trayectoria es buena, lo sabremos. Si se estanca, tendremos los números para pivotar.
Preguntas frecuentes
¿Qué es un archivo llms.txt y realmente sirve para algo?
llms.txt es un estándar emergente a finales de 2025 (llmstxt.org) que propone un manifiesto estructurado en la raíz de un sitio, legible directamente por los modelos de lenguaje. La idea es proporcionarles en una sola lectura la identidad del sitio, sus páginas importantes por categoría y los elementos fácticos útiles para la citación. Es el equivalente de un robots.txt para los LLM. El efecto medible aún es difícil de aislar, ya que el estándar es muy joven, pero su implementación es gratuita y señala claramente que el sitio quiere ser leído por las IA.
¿Por qué no apuntar únicamente a ChatGPT, ya que es el más utilizado?
Porque la búsqueda de ChatGPT es un producto de Microsoft Bing en el backend. Si Bing no nos indexa, la búsqueda de ChatGPT tampoco nos ve. Por el contrario, optimizar para Bing nos hace visibles en ChatGPT y Copilot al mismo tiempo. Y existen al menos diez LLM principales, cada uno con su propio backend, por lo que apuntar a uno solo equivale a ignorar el 70 al 80% de los puntos de entrada. Una optimización multi-LLM cuesta el mismo esfuerzo que una optimización mono-LLM.
¿IndexNow realmente funciona o es marketing de Microsoft?
Funciona, es medible. Hemos enviado 498 URL en bloques de 50 a Bing, Yandex e IndexNow.org. Treinta bloques aceptados de treinta. Veinticuatro horas después, dos visitantes humanos de Bing llegan a artículos específicos del blog. Una fuente que no existía el día anterior. El protocolo es abierto (no es un bloqueo de Microsoft), compatible con Yandex, Naver, Seznam y, indirectamente, con todos los motores que utilizan Bing como backend. Debe implementarse en cada nuevo sitio.
¿Cuánto tiempo tarda Bing en indexar realmente todas las páginas?
Para un sitio nuevo, sin Webmaster Tools, Bing tarda varias semanas. Con Webmaster Tools (importación desde Google Search Console), es inmediato para los sitemaps, pero tarda unos días en que las páginas individuales aparezcan en site:. Con IndexNow además, las páginas prioritarias se rastrean en unas pocas horas. El tiempo que tardan las páginas en aparecer en el operador site:tamsiv.com sigue siendo de una a dos semanas, pero el tráfico real comienza antes.
Las fichas de Slashdot y SourceForge, ¿fueron creadas por ti o automáticamente?
Automáticamente, por scraping. Los agregadores de Slashdot Media (que poseen ambos) rastrean la Play Store y crean fichas para las aplicaciones que superan un umbral de visibilidad. La descripción probablemente proviene de nuestra ficha de Play Store EN, lo que explica por qué es correcta. Los errores provienen del llenado automático de los campos adicionales (plataformas, soporte, capacitación, API) que no tienen una fuente clara y que el scraper rellena con valores predeterminados. Podemos reclamar la ficha para tomar el control y corregirla.
¿Este trabajo es repetible para otra aplicación?
Sí, el código fuente de la pila (llms.txt, ai.txt, API IndexNow, JSON-LD extendido, componente de bloque de respuesta corta) es completamente transferible. El único trabajo manual es la redacción de los contenidos (manifiesto llms.txt, bloques de resumen de los artículos), que lleva un día para un sitio de sesenta artículos. La reclamación de los directorios de terceros (Slashdot, SourceForge) requiere la creación de cuentas de proveedor, veinte minutos por sitio, y una espera de moderación. El conjunto es factible en una semana para una aplicación ya publicada, con un impacto medible desde el día siguiente del lanzamiento.