Blog
Build in Public
15 de maio de 202611 min

De zero a presente no Perplexity, Gemini, Bing e Brave: 24 horas para tornar um aplicativo Android visível para 4 IAs em paralelo

Terça-feira à noite, olhamos os números da semana. As visitas do ChatGPT existem. Não muitas, três este mês, mas existem. E então digitamos site:tamsiv.com no Bing. Zero resultados. Verificamos o Common Crawl. Zero capturas. O quadro fica mais claro. O ChatGPT encontra o TAMSIV por um canal frágil (OAI-SearchBot direto, alguns backlinks dev.to), não via Bing. Se amanhã este canal fechar, nada mais.

E, acima de tudo, o ChatGPT é apenas um LLM de dez. Perplexity, Claude, Gemini, Copilot, Grok, You.com, Kagi, e todos os modelos de código aberto em segundo plano: cada um tem seu backend de pesquisa, suas fontes, seus critérios de citação. Otimizar para apenas um é se prender a um gargalo.

O mapeamento que não tínhamos feito

Antes de codificar qualquer coisa, fazemos o mapa. É rápido uma vez estabelecido:

  • ChatGPT search e Microsoft Copilot dependem do Bing como backend. O Bing nos indexa zero, então estamos invisíveis em ambos.
  • Claude (Anthropic) e seus derivados tipo WebSearch usam Brave Search + um crawler próprio. Lá, aparecemos em primeiro lugar para "voice task manager Android". Boa jogada, não sabíamos.
  • Gemini e Google AI Overview dependem do Google. Indexação OK, dez referências do Google por semana em média.
  • Perplexity cruza Bing, DuckDuckGo e seu próprio crawler. Status desconhecido, a ser testado diretamente.
  • Grok está conectado ao X (o antigo Twitter) e a um crawler próprio. Nenhuma presença ativa do TAMSIV no X, um ponto cego assumido.
  • DeepSeek, Mistral, Llama, e todos os modelos de código aberto obtêm seu corpus de treinamento inicial do Common Crawl. Zero capturas hoje, então não estamos em nenhum desses modelos treinados.

De dez LLMs principais, temos uma presença sólida em apenas dois (Google e Brave). Isso é insuficiente.

A stack AEO implementada em uma sessão

A ideia: implantar em um dia tudo o que torna tamsiv.com legível por crawlers de IA, simultaneamente, sem depender de um único backend.

Para o manifesto em si: /llms.txt na raiz, que segue o padrão llmstxt.org. Um parágrafo de identidade, trinta links para as páginas importantes, uma ficha de contato (fundador, plataformas, idiomas, preços). E /ai.txt como complemento, que autoriza explicitamente o uso do conteúdo para treinamento e indexação de IA (padrão Spawning, opt-in claro).

Para os dados estruturados: enriquecemos o JSON-LD da landing page. SoftwareApplication com dez recursos explícitos e três ofertas (Free, Pro, Team). Organization com fundador estruturado e links sociais estendidos, incluindo Bluesky. WebSite com ação de pesquisa. E uma FAQPage de dezoito perguntas extraída automaticamente das traduções i18n do site. No lado do blog, BlogPosting enriquecido (palavras-chave inferidas, articleSection, wordCount, about, inLanguage), FAQPage auto-extraída do HTML quando o artigo contém uma seção FAQ, e dateModified calculado na data real de modificação do arquivo, mais preciso do que apenas a data de publicação.

Para a indexação push: um endpoint API /api/indexnow que notifica em paralelo Bing, Yandex e IndexNow.org assim que uma URL muda. Uma chave IndexNow publicada na raiz para verificação de propriedade. Não é preciso esperar que os crawlers passem, nós mesmos os avisamos.

Para a citabilidade dos artigos: um bloco "Resposta curta" de cinquenta a sessenta e cinco palavras adicionado no início dos quatro artigos já citados pelo ChatGPT, nos seis idiomas. Vinte e quatro arquivos modificados. O formato é calibrado para que os LLMs extraiam a passagem e a citem tal qual, sem ter que rolar quinhentas palavras.

Para as comparações: uma primeira página /vs/todoist com stack JSON-LD completa (dois SoftwareApplication, um ItemList, uma FAQPage, um BreadcrumbList). Os LLMs adoram comparações honestas, e o SourceForge constrói suas próprias páginas a partir das nossas.

Submissão ao Bing e lote IndexNow

A alavanca mais rápida para o Bing: Webmaster Tools. Login via OAuth Google na conta de administrador do TAMSIV, importação de sites do Google Search Console. Dois sites importados instantaneamente, sitemaps incluídos. Não é preciso colar meta tag de verificação, nem esperar.

Depois, o lote IndexNow. Recuperamos as 498 URLs do sitemap, dividimo-las em blocos de 50, e as enviamos em paralelo para os três endpoints públicos (api.indexnow.org, bing.com, yandex.com) com um segundo e meio entre cada onda. Trinta blocos enviados, trinta OK. Total: um pouco menos de um minuto para sinalizar ao Bing e Yandex que mil e trezentas páginas devem ser indexadas.

Em paralelo, um pedido de inclusão enviado ao Common Crawl através do seu formulário de contato. Resposta automática "Thank you, your submission has been received". Veremos na próxima iteração mensal.

O teste do dia seguinte, em quatro LLMs

O teste direto na manhã seguinte em cada LLM é onde tudo acontece.

Perplexity retorna uma resposta completa e precisa sobre "What is TAMSIV voice task manager Android". Dez fontes citadas: quatro artigos tamsiv.com, a ficha da Play Store, uma ficha do Slashdot que não sabíamos que existia, dois artigos dev.to, o vídeo de demonstração do YouTube, a landing page EN, e um post no LinkedIn de terceiros (uma conta gyaansetu-ai que havia republicado nossas informações). Resposta rica, atribuída corretamente ao TAMSIV como entidade.

Gemini também responde, mais curto, com três fontes: Play Store, SourceForge (página de comparação que também não conhecíamos), e um artigo tamsiv.com. A resposta cita corretamente os recursos chave (NLP, extração multi-tarefa, colaboração em tempo real, gamificação, seis idiomas, pastas hierárquicas). Um pequeno detalhe engraçado: Gemini atribui o design do aplicativo a "Julien Avezou" (outro indie hacker cujos artigos comentamos no dev.to). Deixamos assim, o nome do fundador não é o objetivo desta história.

Claude via WebSearch coloca o blog tamsiv.com em primeira posição para "best voice task manager Android 2026", com a descrição e o preço corretamente reproduzidos.

Bing é um caso particular. A consulta site:tamsiv.com ainda retorna zero resultados, porque o motor leva vários dias para integrar as páginas em seu índice de operador. Mas em termos de tráfego real, dois visitantes humanos do Bing aparecem no Supabase naquele dia: um da Inglaterra que acessa o artigo sobre a redução de custos do Supabase, um da França que acessa o histórico de conversas de IA. Uma fonte que valia zero 48 horas antes, dois visitantes agora, sem que tenhamos escrito nenhum conteúdo novo. É o lote IndexNow que está falando.

A verdadeira surpresa: Slashdot e SourceForge já tinham fichas

Descobrimos nas fontes do Perplexity um link para slashdot.org/software/p/TAMSIV/. Clicamos, e há uma ficha completa. O mesmo no SourceForge. Descrições precisas, provavelmente recuperadas da nossa Play Store. Preços corretos, idiomas corretos, categorias corretas.

Ninguém enviou essas fichas manualmente. Os agregadores fazem scraping automático da Play Store e criam entradas para aplicativos que ganham visibilidade. É sorte, ou melhor, a recompensa por ter preenchido bem sua ficha na Play Store em seis idiomas.

No SourceForge, alguns erros factuais importados do scraping automático: a ficha anuncia TAMSIV no Windows, Mac, Linux, iOS, enquanto rodamos apenas no Android e na web. Anuncia suporte telefônico 24/7, enquanto estamos disponíveis por e-mail e Discord. Anuncia webinars e treinamento presencial, enquanto temos apenas documentação online. Esses erros alimentam as alucinações LLM a jusante (Gemini retoma "iOS, Web, desktop platforms" que provavelmente vem daí).

A reivindicação da ficha é o próximo passo: conta de fornecedor SourceForge já criada para TAMSIV, formulário de reivindicação a ser preenchido, moderação em alguns dias, e corrigiremos os cinco erros. Mas este trabalho visa corrigir o que a ficha diz sobre o produto, não a impulsionar uma biografia pessoal.

O que aprendemos

Um LLM não é todos os LLMs. Otimizar apenas para o ChatGPT é ignorar 70% do mercado. Uma estratégia AEO deve visar simultaneamente Bing (ChatGPT/Copilot), Brave (Claude), Google (Gemini) e Common Crawl (modelos de código aberto). As ações técnicas são as mesmas, mas seu efeito é medido em canais diferentes.

Os diretórios de software são fontes LLM de primeira linha. Perplexity cita Slashdot, Gemini cita SourceForge, Claude cita AlternativeTo, Copilot cita Capterra. Multiplicar a presença nesses sites multiplica as citações. É a camada esquecida do SEO clássico, e alimenta diretamente os LLMs.

O JSON-LD enriquecido é lido, não apenas pelo Google. Vimos o Gemini retomar a estrutura de recursos+ofertas do SoftwareApplication e a FAQPage do blog. Para cinquenta linhas de JavaScript no layout, o efeito é mensurável.

IndexNow economiza dias de ciclo. Sem push, o Bing leva de uma a três semanas para descobrir um novo site. Com um lote IndexNow, são algumas horas. E é gratuito, sem chave de API, sem limite de taxa delirante.

As alucinações do LLM sobre detalhes não críticos (nome do fundador, plataformas suportadas) vêm quase todas de fichas de terceiros. Corrigi-las via formulários de reivindicação é mais eficaz do que superpublicar em seu próprio site. O produto, por sua vez, deve ser descrito de forma factual e estável em todos os lugares onde temos controle.

Próximos passos

Na lista: reivindicar Slashdot e SourceForge para corrigir os erros do produto, submissão ativa nos dez outros diretórios ausentes (G2, Capterra, GetApp, ProductHunt, ToolFinder, FutureTools, There's an AI for that, AItoolsdirectory, Crozdesk, SoftwareSuggest). Quatro novas páginas de comparação (Any.do, Google Keep, Notion, TickTick) no mesmo modelo que /vs/todoist. E um acompanhamento mensal obrigatório das citações por LLM, com captura de tela a cada teste, para medir a trajetória e não se contentar com impressões.

Teste a ser refeito em trinta dias, em sessenta, em noventa. Se a trajetória for boa, saberemos. Se estagnar, teremos os números para pivotar.

FAQ

O que é um arquivo llms.txt e ele realmente serve para alguma coisa?

llms.txt é um padrão emergente no final de 2025 (llmstxt.org) que propõe um manifesto estruturado na raiz de um site, legível diretamente pelos modelos de linguagem. A ideia é fornecer a eles, em uma única leitura, a identidade do site, suas páginas importantes por categoria e os elementos factuais úteis para citação. É o equivalente a um robots.txt para LLMs. O efeito mensurável ainda é difícil de isolar, pois o padrão é muito recente, mas custa zero para implantar e sinaliza claramente que o site deseja ser lido por IAs.

Por que não focar apenas no ChatGPT, já que é o mais usado?

Porque a pesquisa do ChatGPT é um produto do Microsoft Bing no backend. Se o Bing não nos indexar, a pesquisa do ChatGPT também não nos verá. Inversamente, otimizar para o Bing nos torna visíveis no ChatGPT e no Copilot ao mesmo tempo. E existem pelo menos dez LLMs principais, cada um com seu próprio backend, então focar em apenas um significa ignorar 70 a 80% dos pontos de entrada. Uma otimização multi-LLM custa o mesmo esforço que uma otimização mono-LLM.

O IndexNow realmente funciona ou é marketing da Microsoft?

Funciona, e é mensurável. Enviamos 498 URLs em blocos de 50 para Bing, Yandex e IndexNow.org. Trinta blocos aceitos de trinta. Vinte e quatro horas depois, dois visitantes humanos do Bing chegam a artigos específicos do blog. Uma fonte que não existia no dia anterior. O protocolo é aberto (não é um lock-in da Microsoft), suportado por Yandex, Naver, Seznam e, indiretamente, por todos os motores que usam o Bing como backend. Deve ser implementado em cada novo site.

Quanto tempo leva para o Bing realmente indexar todas as páginas?

Para um novo site, sem Webmaster Tools, leva várias semanas para o Bing. Com o Webmaster Tools (importação do Google Search Console), é imediato para os sitemaps, mas leva alguns dias para que as páginas individuais apareçam em site:. Com o IndexNow adicionalmente, as páginas prioritárias são rastreadas em algumas horas. O tempo para as páginas aparecerem no operador site:tamsiv.com ainda é de uma a duas semanas, mas o tráfego real começa antes.

As fichas do Slashdot e SourceForge foram criadas por você ou automaticamente?

Automaticamente, por scraping. Os agregadores Slashdot Media (que possuem ambos) fazem scraping da Play Store e criam fichas para aplicativos que ultrapassam um certo limite de visibilidade. A descrição provavelmente vem da nossa ficha da Play Store EN, o que explica por que está correta. Os erros vêm do preenchimento automático de campos adicionais (plataformas, suporte, treinamento, API) que não têm uma fonte clara e que o scraper preenche com valores padrão. Podemos reivindicar a ficha para assumir o controle e corrigir.

Este trabalho pode ser replicado para outro aplicativo?

Sim, o código-fonte da stack (llms.txt, ai.txt, API IndexNow, JSON-LD estendido, componente de bloco de resposta curta) é totalmente transponível. O único trabalho manual é a redação dos conteúdos (manifesto llms.txt, blocos de resumo dos artigos), que leva um dia para um site com sessenta artigos. A reivindicação dos diretórios de terceiros (Slashdot, SourceForge) exige a criação de contas de fornecedor, vinte minutos por site, e uma espera por moderação. O conjunto é viável em uma semana para um aplicativo já publicado, com um impacto mensurável a partir do dia seguinte ao lançamento.