De zéro à présent sur Perplexity, Gemini, Bing et Brave : 24 heures pour rendre une app Android visible auprès de 4 IA en parallèle
Mardi soir, on regarde les chiffres de la semaine. Les visites depuis ChatGPT existent. Pas beaucoup, trois ce mois-ci, mais elles existent. Et puis on tape site:tamsiv.com sur Bing. Zéro résultat. On vérifie Common Crawl. Zéro capture. Le tableau se précise. ChatGPT trouve TAMSIV par un canal fragile (OAI-SearchBot direct, quelques backlinks dev.to), pas via Bing. Si demain ce canal se ferme, plus rien.
Et surtout, ChatGPT n'est qu'un LLM sur dix. Perplexity, Claude, Gemini, Copilot, Grok, You.com, Kagi, et tous les modèles open source en arrière-plan : chacun a son backend de recherche, ses sources, ses critères de citation. Optimiser pour un seul, c'est s'enfermer dans un goulot.
La cartographie qu'on n'avait pas faite
Avant de coder quoi que ce soit, on dresse la carte. C'est rapide une fois posé :
- ChatGPT search et Microsoft Copilot s'appuient sur Bing en backend. Bing nous index zéro, donc on est invisibles sur les deux.
- Claude (Anthropic) et ses dérivés type WebSearch utilisent Brave Search + un crawler propre. Là on remonte premier sur "voice task manager Android". Bonne pioche, on ne savait pas.
- Gemini et Google AI Overview reposent sur Google. Indexation OK, dix referrers Google par semaine en moyenne.
- Perplexity croise Bing, DuckDuckGo, et son propre crawler. Statut inconnu, à tester en direct.
- Grok est branché sur X (l'ancien Twitter) et un crawler maison. Aucune présence active de TAMSIV sur X, angle mort assumé.
- DeepSeek, Mistral, Llama, et tous les modèles open source tirent leur corpus d'entraînement initial de Common Crawl. Zéro capture aujourd'hui, donc nous ne sommes dans aucun de ces modèles entraînés.
Sur dix LLM majeurs, on n'a une présence solide que sur deux (Google et Brave). C'est insuffisant.
La stack AEO posée en une session
L'idée : déployer en une journée tout ce qui rend tamsiv.com lisible par les crawlers IA, simultanément, sans dépendre d'un seul backend.
Pour le manifeste lui-même : /llms.txt à la racine, qui suit le standard llmstxt.org. Un paragraphe d'identité, trente liens vers les pages importantes, une fiche de contact (founder, plateformes, langues, prix). Et /ai.txt en complément, qui autorise explicitement l'usage du contenu pour l'entraînement et l'indexation IA (standard Spawning, opt-in clair).
Pour les données structurées : on enrichit le JSON-LD de la landing. SoftwareApplication avec dix features explicites et trois offres (Free, Pro, Team). Organization avec founder structuré et liens sociaux étendus, Bluesky inclus. WebSite avec action de recherche. Et une FAQPage de dix-huit questions tirée automatiquement des traductions i18n du site. Côté blog, BlogPosting enrichi (keywords inférés, articleSection, wordCount, about, inLanguage), FAQPage auto-extrait du HTML quand l'article contient une section FAQ, et dateModified calculé sur la date réelle de modification du fichier, plus juste que la date de publication seule.
Pour l'indexation push : un endpoint API /api/indexnow qui notifie en parallèle Bing, Yandex et IndexNow.org dès qu'une URL change. Une clé IndexNow publiée à la racine pour la vérification de propriété. Pas besoin d'attendre que les crawlers passent, on les avertit nous-mêmes.
Pour la citabilité des articles : un bloc "Réponse courte" de cinquante à soixante-cinq mots ajouté en tête des quatre articles déjà cités par ChatGPT, dans les six langues. Vingt-quatre fichiers modifiés. Le format est calibré pour que les LLM extraient le passage et le citent tel quel, sans avoir à scroller cinq cents mots.
Pour les comparaisons : une première page /vs/todoist avec stack JSON-LD complète (deux SoftwareApplication, un ItemList, une FAQPage, un BreadcrumbList). Les LLM adorent les comparaisons honnêtes, et SourceForge en construit ses propres pages à partir des nôtres.
Soumission Bing et batch IndexNow
Le levier le plus rapide pour Bing : Webmaster Tools. Login via OAuth Google sur le compte admin de TAMSIV, import des sites depuis Google Search Console. Deux sites importés instantanément, sitemaps inclus. Pas de meta tag de vérification à coller, pas d'attente.
Puis le batch IndexNow. On récupère les 498 URL du sitemap, on les découpe en chunks de 50, on les pousse en parallèle vers les trois endpoints publics (api.indexnow.org, bing.com, yandex.com) avec une seconde et demie entre chaque vague. Trente chunks envoyés, trente OK. Total : un peu moins d'une minute pour signaler à Bing et Yandex qu'il faut indexer mille trois cents pages.
En parallèle, une demande d'inclusion envoyée à Common Crawl via leur formulaire de contact. Réponse automatique "Thank you, your submission has been received". On verra à la prochaine itération mensuelle.
Le test du lendemain, sur quatre LLM
Le test direct le lendemain matin sur chaque LLM, c'est là que ça se joue.
Perplexity renvoie une réponse complète et précise sur "What is TAMSIV voice task manager Android". Dix sources citées : quatre articles tamsiv.com, la fiche Play Store, une fiche Slashdot qu'on ne savait pas exister, deux articles dev.to, la vidéo demo YouTube, la landing EN, et un post LinkedIn d'un tiers (un compte gyaansetu-ai qui avait reposté nos infos). Réponse riche, attribuée correctement à TAMSIV comme entité.
Gemini répond aussi, plus court, avec trois sources : Play Store, SourceForge (page de comparaison qu'on ne connaissait pas non plus), et un article tamsiv.com. La réponse cite correctement les features clés (NLP, multi-task extraction, real-time collaboration, gamification, six langues, dossiers hiérarchiques). Petit détail amusant : Gemini attribue la conception de l'app à "Julien Avezou" (un autre indie hacker dont on a commenté des articles sur dev.to). On laisse tourner, le nom du fondateur n'est pas l'enjeu de cette histoire.
Claude via WebSearch place le blog tamsiv.com en première position sur "best voice task manager Android 2026", avec la description et le pricing repris correctement.
Bing est un cas particulier. La requête site:tamsiv.com renvoie toujours zéro résultat, parce que le moteur prend plusieurs jours à intégrer les pages dans son index opérateur. Mais côté trafic réel, deux visiteurs Bing humains apparaissent dans Supabase ce jour-là : un d'Angleterre qui atterrit sur l'article sur la réduction des coûts Supabase, une de France qui atterrit sur l'historique des conversations IA. Source qui valait zéro 48 heures plus tôt, deux visiteurs maintenant, sans qu'on ait écrit un seul nouveau contenu. C'est le batch IndexNow qui parle.
La vraie surprise : Slashdot et SourceForge avaient déjà des fiches
On découvre dans les sources Perplexity un lien vers slashdot.org/software/p/TAMSIV/. On clique, et il y a une fiche complète. Pareil sur SourceForge. Descriptions précises, récupérées probablement de notre Play Store. Pricing correct, langues correctes, catégories correctes.
Personne n'a soumis ces fiches manuellement. Les agrégateurs scrapent les Play Store automatiquement et créent des entrées pour les applications qui montent en visibilité. C'est de la chance, ou plutôt la récompense d'avoir bien rempli sa fiche Play Store dans six langues.
Côté SourceForge, quelques erreurs factuelles importées du scraping automatique : la fiche annonce TAMSIV sur Windows, Mac, Linux, iOS, alors qu'on tourne sur Android et le web seulement. Elle annonce un support téléphonique 24/7, alors qu'on est joignable par mail et Discord. Elle annonce des webinars et de la formation en présentiel, alors qu'on a juste de la documentation en ligne. Ces erreurs nourrissent les hallucinations LLM aval (Gemini reprend "iOS, Web, desktop platforms" qui vient probablement de là).
Le claim de la fiche est l'étape suivante : compte vendor SourceForge déjà créé pour TAMSIV, formulaire de claim à remplir, modération sous quelques jours, et on corrigera les cinq erreurs. Mais ce travail vise à corriger ce que la fiche raconte sur le produit, pas à pousser une biographie personnelle.
Ce qu'on en retient
Un LLM n'est pas tous les LLM. Optimiser pour ChatGPT seul, c'est ignorer 70% du marché. Une stratégie AEO doit cibler simultanément Bing (ChatGPT/Copilot), Brave (Claude), Google (Gemini), et Common Crawl (modèles open source). Les actions techniques sont les mêmes, mais leur effet se mesure sur des canaux différents.
Les software-directories sont des sources LLM de premier rang. Perplexity cite Slashdot, Gemini cite SourceForge, Claude cite AlternativeTo, Copilot cite Capterra. Multiplier la présence sur ces sites multiplie les citations. C'est la couche oubliée du SEO classique, et elle alimente directement les LLM.
Le JSON-LD enrichi est lu, pas juste par Google. On a vu Gemini reprendre la structure features+offers du SoftwareApplication, et la FAQPage du blog. Pour cinquante lignes de JavaScript dans le layout, l'effet est mesurable.
IndexNow fait gagner des jours de cycle. Sans push, Bing met une à trois semaines à découvrir un nouveau site. Avec un batch IndexNow, c'est quelques heures. Et c'est gratuit, sans clé API, sans rate limit délirant.
Les hallucinations LLM sur les détails non critiques (nom du fondateur, plateformes supportées) viennent presque toutes des fiches tierces. Les corriger via les claim forms est plus efficace que de sur-publier sur son propre site. Le produit, lui, doit être décrit de façon factuelle et stable partout où on a la main.
Suite du chantier
Sur la liste : claim Slashdot et SourceForge pour corriger les erreurs produit, soumission active sur les dix autres directories absents (G2, Capterra, GetApp, ProductHunt, ToolFinder, FutureTools, There's an AI for that, AItoolsdirectory, Crozdesk, SoftwareSuggest). Quatre nouvelles pages comparaison (Any.do, Google Keep, Notion, TickTick) sur le même template que /vs/todoist. Et un suivi mensuel obligatoire des citations par LLM, avec capture d'écran à chaque test, pour mesurer la trajectoire et pas se contenter d'impressions.
Test à refaire dans trente jours, dans soixante, dans quatre-vingt-dix. Si la trajectoire est bonne, on saura. Si elle stagne, on aura les chiffres pour pivoter.
FAQ
C'est quoi un fichier llms.txt et est-ce que ça sert vraiment ?
llms.txt est un standard émergent fin 2025 (llmstxt.org) qui propose un manifeste structuré à la racine d'un site, lisible directement par les modèles de langage. L'idée est de leur fournir en une seule lecture l'identité du site, ses pages importantes par catégorie, et les éléments factuels utiles à la citation. C'est l'équivalent d'un robots.txt pour les LLM. L'effet mesurable est encore difficile à isoler tant le standard est jeune, mais il coûte zéro à déployer et il signale clairement que le site veut être lu par les IA.
Pourquoi ne pas viser uniquement ChatGPT puisque c'est le plus utilisé ?
Parce que ChatGPT search est un produit Microsoft Bing en backend. Si Bing ne nous indexe pas, ChatGPT search ne nous voit pas non plus. Inversement, optimiser pour Bing nous rend visibles sur ChatGPT et Copilot en même temps. Et il existe au moins dix LLM majeurs avec chacun leur backend, donc cibler un seul revient à ignorer 70 à 80% des points d'entrée. Une optimisation multi-LLM coûte le même effort qu'une optimisation mono-LLM.
IndexNow fonctionne vraiment ou c'est du marketing Microsoft ?
Ça fonctionne, mesurable. On a poussé 498 URL en chunks de 50 vers Bing, Yandex et IndexNow.org. Trente chunks acceptés sur trente. Vingt-quatre heures plus tard, deux visiteurs Bing humains arrivent sur des articles précis du blog. Source qui n'existait pas la veille. Le protocole est ouvert (pas une lock-in Microsoft), supporté par Yandex, Naver, Seznam, et indirectement par tous les moteurs qui utilisent Bing en backend. À implémenter dans chaque nouveau site.
Combien de temps avant que Bing indexe vraiment toutes les pages ?
Pour un nouveau site, sans Webmaster Tools, c'est de l'ordre de plusieurs semaines pour Bing. Avec Webmaster Tools (import depuis Google Search Console), c'est immédiat pour les sitemaps mais quelques jours pour que les pages individuelles apparaissent dans site:. Avec IndexNow en plus, les pages prioritaires sont crawlées en quelques heures. Le temps que les pages apparaissent dans l'opérateur site:tamsiv.com reste de l'ordre d'une à deux semaines, mais le trafic réel commence avant.
Les fiches Slashdot et SourceForge, elles ont été créées par toi ou automatiquement ?
Automatiquement, par scraping. Les agrégateurs Slashdot Media (qui possèdent les deux) scrapent les Play Store et créent des fiches pour les applications qui dépassent un seuil de visibilité. La description vient probablement de notre fiche Play Store EN, ce qui explique pourquoi elle est correcte. Les erreurs viennent du remplissage automatique des champs annexes (platforms, support, training, API) qui n'ont pas de source claire et que le scraper remplit par valeurs par défaut. On peut claimer la fiche pour reprendre la main et corriger.
Ce chantier est répétable pour une autre application ?
Oui, le code source de la stack (llms.txt, ai.txt, API IndexNow, JSON-LD étendu, composant de bloc réponse courte) est entièrement transposable. Le seul travail manuel est la rédaction des contenus (manifeste llms.txt, blocs en bref des articles), qui prend une journée pour un site de soixante articles. Le claim des directories tiers (Slashdot, SourceForge) demande la création de comptes vendor, vingt minutes par site, et une attente de modération. L'ensemble est faisable en une semaine pour une application déjà publiée, avec un impact mesurable dès le lendemain du push.