Blog
Build in Public
15 maggio 202611 min

Da zero a presente su Perplexity, Gemini, Bing e Brave: 24 ore per rendere un'app Android visibile a 4 IA in parallelo

Martedì sera, guardiamo i numeri della settimana. Le visite da ChatGPT esistono. Non molte, tre questo mese, ma esistono. E poi digitiamo site:tamsiv.com su Bing. Zero risultati. Controlliamo Common Crawl. Zero acquisizioni. Il quadro si fa più chiaro. ChatGPT trova TAMSIV tramite un canale fragile (OAI-SearchBot diretto, alcuni backlink dev.to), non tramite Bing. Se domani questo canale si chiude, più nulla.

E soprattutto, ChatGPT è solo uno dei dieci LLM. Perplexity, Claude, Gemini, Copilot, Grok, You.com, Kagi, e tutti i modelli open source in background: ognuno ha il suo backend di ricerca, le sue fonti, i suoi criteri di citazione. Ottimizzare per uno solo significa chiudersi in un imbuto.

La mappatura che non avevamo fatto

Prima di codificare qualsiasi cosa, tracciamo la mappa. È veloce una volta impostata:

  • ChatGPT search e Microsoft Copilot si basano su Bing come backend. Bing ci indicizza zero, quindi siamo invisibili su entrambi.
  • Claude (Anthropic) e i suoi derivati tipo WebSearch usano Brave Search + un crawler proprietario. Qui siamo primi su "voice task manager Android". Ottima scoperta, non lo sapevamo.
  • Gemini e Google AI Overview si basano su Google. Indicizzazione OK, dieci referrer Google a settimana in media.
  • Perplexity incrocia Bing, DuckDuckGo e il suo crawler proprietario. Stato sconosciuto, da testare direttamente.
  • Grok è collegato a X (l'ex Twitter) e a un crawler interno. Nessuna presenza attiva di TAMSIV su X, un punto cieco accettato.
  • DeepSeek, Mistral, Llama, e tutti i modelli open source traggono il loro corpus di addestramento iniziale da Common Crawl. Zero acquisizioni oggi, quindi non siamo in nessuno di questi modelli addestrati.

Su dieci LLM principali, abbiamo una presenza solida solo su due (Google e Brave). È insufficiente.

Lo stack AEO impostato in una sessione

L'idea: implementare in un giorno tutto ciò che rende tamsiv.com leggibile dai crawler AI, simultaneamente, senza dipendere da un unico backend.

Per il manifesto stesso: /llms.txt nella root, che segue lo standard llmstxt.org. Un paragrafo di identità, trenta link alle pagine importanti, una scheda di contatto (fondatore, piattaforme, lingue, prezzi). E /ai.txt come complemento, che autorizza esplicitamente l'uso del contenuto per l'addestramento e l'indicizzazione AI (standard Spawning, opt-in chiaro).

Per i dati strutturati: arricchiamo il JSON-LD della landing. SoftwareApplication con dieci funzionalità esplicite e tre offerte (Free, Pro, Team). Organization con fondatore strutturato e link sociali estesi, Bluesky incluso. WebSite con azione di ricerca. E una FAQPage di diciotto domande estratta automaticamente dalle traduzioni i18n del sito. Lato blog, BlogPosting arricchito (parole chiave inferite, articleSection, wordCount, about, inLanguage), FAQPage auto-estratta dall'HTML quando l'articolo contiene una sezione FAQ, e dateModified calcolata sulla data reale di modifica del file, più precisa della sola data di pubblicazione.

Per l'indicizzazione push: un endpoint API /api/indexnow che notifica in parallelo Bing, Yandex e IndexNow.org non appena un URL cambia. Una chiave IndexNow pubblicata nella root per la verifica della proprietà. Non c'è bisogno di aspettare che i crawler passino, li avvisiamo noi stessi.

Per la citabilità degli articoli: un blocco "Risposta breve" di cinquanta-sessantacinque parole aggiunto all'inizio dei quattro articoli già citati da ChatGPT, nelle sei lingue. Ventiquattro file modificati. Il formato è calibrato in modo che gli LLM estraggano il passaggio e lo citino così com'è, senza dover scorrere cinquecento parole.

Per i confronti: una prima pagina /vs/todoist con stack JSON-LD completo (due SoftwareApplication, un ItemList, una FAQPage, un BreadcrumbList). Gli LLM adorano i confronti onesti, e SourceForge costruisce le proprie pagine a partire dalle nostre.

Invio a Bing e batch IndexNow

La leva più rapida per Bing: Webmaster Tools. Accesso tramite OAuth Google all'account admin di TAMSIV, importazione dei siti da Google Search Console. Due siti importati istantaneamente, sitemap incluse. Nessun meta tag di verifica da incollare, nessuna attesa.

Poi il batch IndexNow. Recuperiamo i 498 URL della sitemap, li dividiamo in blocchi di 50, li inviamo in parallelo ai tre endpoint pubblici (api.indexnow.org, bing.com, yandex.com) con un secondo e mezzo tra ogni ondata. Trenta blocchi inviati, trenta OK. Totale: poco meno di un minuto per segnalare a Bing e Yandex che devono indicizzare mille trecento pagine.

In parallelo, una richiesta di inclusione inviata a Common Crawl tramite il loro modulo di contatto. Risposta automatica "Thank you, your submission has been received". Vedremo alla prossima iterazione mensile.

Il test del giorno dopo, su quattro LLM

Il test diretto la mattina dopo su ogni LLM, è lì che si gioca.

Perplexity restituisce una risposta completa e precisa su "What is TAMSIV voice task manager Android". Dieci fonti citate: quattro articoli tamsiv.com, la scheda del Play Store, una scheda Slashdot di cui non sapevamo l'esistenza, due articoli dev.to, il video demo di YouTube, la landing EN, e un post LinkedIn di terzi (un account gyaansetu-ai che aveva ripubblicato le nostre informazioni). Risposta ricca, attribuita correttamente a TAMSIV come entità.

Gemini risponde anche, più brevemente, con tre fonti: Play Store, SourceForge (pagina di confronto che non conoscevamo nemmeno), e un articolo tamsiv.com. La risposta cita correttamente le funzionalità chiave (NLP, estrazione multi-task, collaborazione in tempo reale, gamification, sei lingue, cartelle gerarchiche). Un piccolo dettaglio divertente: Gemini attribuisce la progettazione dell'app a "Julien Avezou" (un altro indie hacker di cui abbiamo commentato articoli su dev.to). Lasciamo correre, il nome del fondatore non è l'obiettivo di questa storia.

Claude tramite WebSearch posiziona il blog tamsiv.com in prima posizione su "best voice task manager Android 2026", con la descrizione e il prezzo ripresi correttamente.

Bing è un caso particolare. La query site:tamsiv.com restituisce sempre zero risultati, perché il motore impiega diversi giorni per integrare le pagine nel suo indice operatore. Ma per quanto riguarda il traffico reale, due visitatori umani di Bing appaiono in Supabase quel giorno: uno dall'Inghilterra che atterra sull'articolo sulla riduzione dei costi di Supabase, una dalla Francia che atterra sulla cronologia delle conversazioni AI. Una fonte che valeva zero 48 ore prima, due visitatori ora, senza che avessimo scritto un solo nuovo contenuto. È il batch IndexNow che parla.

La vera sorpresa: Slashdot e SourceForge avevano già delle schede

Nelle fonti di Perplexity scopriamo un link a slashdot.org/software/p/TAMSIV/. Clicchiamo, e c'è una scheda completa. Lo stesso su SourceForge. Descrizioni precise, probabilmente recuperate dal nostro Play Store. Prezzi corretti, lingue corrette, categorie corrette.

Nessuno ha inviato queste schede manualmente. Gli aggregatori scansionano automaticamente i Play Store e creano voci per le applicazioni che aumentano di visibilità. È fortuna, o piuttosto la ricompensa per aver compilato bene la propria scheda del Play Store in sei lingue.

Per quanto riguarda SourceForge, alcuni errori fattuali importati dallo scraping automatico: la scheda annuncia TAMSIV su Windows, Mac, Linux, iOS, mentre noi funzioniamo solo su Android e web. Annuncia un supporto telefonico 24/7, mentre siamo raggiungibili via email e Discord. Annuncia webinar e formazione in presenza, mentre abbiamo solo documentazione online. Questi errori alimentano le allucinazioni LLM a valle (Gemini riprende "iOS, Web, desktop platforms" che probabilmente deriva da lì).

La rivendicazione della scheda è il passo successivo: account venditore SourceForge già creato per TAMSIV, modulo di rivendicazione da compilare, moderazione entro pochi giorni, e correggeremo i cinque errori. Ma questo lavoro mira a correggere ciò che la scheda dice sul prodotto, non a spingere una biografia personale.

Cosa ne ricaviamo

Un LLM non è tutti gli LLM. Ottimizzare solo per ChatGPT significa ignorare il 70% del mercato. Una strategia AEO deve mirare simultaneamente a Bing (ChatGPT/Copilot), Brave (Claude), Google (Gemini) e Common Crawl (modelli open source). Le azioni tecniche sono le stesse, ma il loro effetto si misura su canali diversi.

Le directory di software sono fonti LLM di prim'ordine. Perplexity cita Slashdot, Gemini cita SourceForge, Claude cita AlternativeTo, Copilot cita Capterra. Moltiplicare la presenza su questi siti moltiplica le citazioni. È lo strato dimenticato della SEO classica, e alimenta direttamente gli LLM.

Il JSON-LD arricchito viene letto, non solo da Google. Abbiamo visto Gemini riprendere la struttura features+offers del SoftwareApplication e la FAQPage del blog. Per cinquanta righe di JavaScript nel layout, l'effetto è misurabile.

IndexNow fa risparmiare giorni di ciclo. Senza push, Bing impiega da una a tre settimane per scoprire un nuovo sito. Con un batch IndexNow, sono poche ore. Ed è gratuito, senza chiave API, senza limiti di velocità folli.

Le allucinazioni LLM sui dettagli non critici (nome del fondatore, piattaforme supportate) provengono quasi tutte da schede di terze parti. Correggerle tramite i moduli di reclamo è più efficace che sovra-pubblicare sul proprio sito. Il prodotto, invece, deve essere descritto in modo fattuale e stabile ovunque si abbia il controllo.

Prossimi passi

Sulla lista: rivendicare Slashdot e SourceForge per correggere gli errori del prodotto, invio attivo alle altre dieci directory assenti (G2, Capterra, GetApp, ProductHunt, ToolFinder, FutureTools, There's an AI for that, AItoolsdirectory, Crozdesk, SoftwareSuggest). Quattro nuove pagine di confronto (Any.do, Google Keep, Notion, TickTick) sullo stesso template di /vs/todoist. E un monitoraggio mensile obbligatorio delle citazioni da parte degli LLM, con screenshot ad ogni test, per misurare la traiettoria e non accontentarsi di impressioni.

Test da rifare tra trenta giorni, tra sessanta, tra novanta. Se la traiettoria è buona, lo sapremo. Se ristagna, avremo i numeri per cambiare rotta.

FAQ

Cos'è un file llms.txt e serve davvero?

llms.txt è uno standard emergente di fine 2025 (llmstxt.org) che propone un manifesto strutturato alla radice di un sito, leggibile direttamente dai modelli linguistici. L'idea è di fornire loro in una sola lettura l'identità del sito, le sue pagine importanti per categoria e gli elementi fattuali utili per la citazione. È l'equivalente di un robots.txt per gli LLM. L'effetto misurabile è ancora difficile da isolare dato che lo standard è giovane, ma costa zero da implementare e segnala chiaramente che il sito vuole essere letto dalle IA.

Perché non puntare solo a ChatGPT visto che è il più usato?

Perché ChatGPT search è un prodotto Microsoft Bing come backend. Se Bing non ci indicizza, ChatGPT search non ci vede nemmeno. Viceversa, ottimizzare per Bing ci rende visibili su ChatGPT e Copilot allo stesso tempo. E ci sono almeno dieci LLM principali, ognuno con il proprio backend, quindi puntare a uno solo significa ignorare il 70-80% dei punti di ingresso. Un'ottimizzazione multi-LLM costa lo stesso sforzo di un'ottimizzazione mono-LLM.

IndexNow funziona davvero o è marketing Microsoft?

Funziona, è misurabile. Abbiamo inviato 498 URL in blocchi di 50 a Bing, Yandex e IndexNow.org. Trenta blocchi accettati su trenta. Ventiquattro ore dopo, due visitatori umani di Bing arrivano su articoli specifici del blog. Una fonte che non esisteva il giorno prima. Il protocollo è aperto (non è un lock-in Microsoft), supportato da Yandex, Naver, Seznam, e indirettamente da tutti i motori che usano Bing come backend. Da implementare in ogni nuovo sito.

Quanto tempo ci vuole prima che Bing indicizzi davvero tutte le pagine?

Per un nuovo sito, senza Webmaster Tools, ci vogliono diverse settimane per Bing. Con Webmaster Tools (importazione da Google Search Console), è immediato per le sitemap ma ci vogliono alcuni giorni perché le singole pagine appaiano in site:. Con IndexNow in più, le pagine prioritarie vengono scansionate in poche ore. Il tempo che le pagine appaiano nell'operatore site:tamsiv.com rimane di una o due settimane, ma il traffico reale inizia prima.

Le schede Slashdot e SourceForge, sono state create da te o automaticamente?

Automaticamente, tramite scraping. Gli aggregatori Slashdot Media (che possiedono entrambi) scansionano i Play Store e creano schede per le applicazioni che superano una soglia di visibilità. La descrizione probabilmente proviene dalla nostra scheda Play Store EN, il che spiega perché è corretta. Gli errori derivano dalla compilazione automatica dei campi aggiuntivi (piattaforme, supporto, formazione, API) che non hanno una fonte chiara e che lo scraper riempie con valori predefiniti. Possiamo rivendicare la scheda per riprenderne il controllo e correggerla.

Questo lavoro è ripetibile per un'altra applicazione?

Sì, il codice sorgente dello stack (llms.txt, ai.txt, API IndexNow, JSON-LD esteso, componente del blocco di risposta breve) è completamente trasferibile. L'unico lavoro manuale è la stesura dei contenuti (manifesto llms.txt, blocchi in breve degli articoli), che richiede un giorno per un sito di sessanta articoli. La rivendicazione delle directory di terze parti (Slashdot, SourceForge) richiede la creazione di account venditore, venti minuti per sito, e un'attesa di moderazione. L'insieme è fattibile in una settimana per un'applicazione già pubblicata, con un impatto misurabile dal giorno dopo il push.