Blog
Build in Public
15. Mai 202611 min

Von Null auf Präsenz bei Perplexity, Gemini, Bing und Brave: 24 Stunden, um eine Android-App bei 4 KIs gleichzeitig sichtbar zu machen

Dienstagabend schauen wir uns die Wochenzahlen an. Besuche von ChatGPT gibt es. Nicht viele, drei diesen Monat, aber sie existieren. Und dann geben wir site:tamsiv.com bei Bing ein. Null Ergebnisse. Wir überprüfen Common Crawl. Null Erfassungen. Das Bild wird klarer. ChatGPT findet TAMSIV über einen fragilen Kanal (direkter OAI-SearchBot, einige dev.to-Backlinks), nicht über Bing. Wenn dieser Kanal morgen geschlossen wird, ist nichts mehr da.

Und vor allem ist ChatGPT nur eines von zehn LLMs. Perplexity, Claude, Gemini, Copilot, Grok, You.com, Kagi und all die Open-Source-Modelle im Hintergrund: Jedes hat sein eigenes Such-Backend, seine eigenen Quellen, seine eigenen Zitierkriterien. Nur für eines zu optimieren, bedeutet, sich in einem Engpass zu verfangen.

Die Kartierung, die wir nicht gemacht hatten

Bevor wir etwas coden, erstellen wir die Karte. Das geht schnell, sobald es einmal eingerichtet ist:

  • ChatGPT Search und Microsoft Copilot basieren auf Bing als Backend. Bing indexiert uns nicht, also sind wir auf beiden unsichtbar.
  • Claude (Anthropic) und seine Derivate wie WebSearch verwenden Brave Search + einen eigenen Crawler. Dort erscheinen wir als erstes Ergebnis für "voice task manager Android". Ein Glücksfall, das wussten wir nicht.
  • Gemini und Google AI Overview basieren auf Google. Indexierung OK, durchschnittlich zehn Google-Referrer pro Woche.
  • Perplexity kombiniert Bing, DuckDuckGo und seinen eigenen Crawler. Status unbekannt, muss direkt getestet werden.
  • Grok ist mit X (dem ehemaligen Twitter) und einem hauseigenen Crawler verbunden. Keine aktive Präsenz von TAMSIV auf X, ein bewusstes Defizit.
  • DeepSeek, Mistral, Llama und alle Open-Source-Modelle beziehen ihr anfängliches Trainingskorpus von Common Crawl. Heute keine Erfassung, daher sind wir in keinem dieser trainierten Modelle enthalten.

Von zehn großen LLMs haben wir nur auf zwei (Google und Brave) eine solide Präsenz. Das ist unzureichend.

Der AEO-Stack in einer Sitzung eingerichtet

Die Idee: Innerhalb eines Tages alles bereitzustellen, was tamsiv.com für KI-Crawler lesbar macht, gleichzeitig und ohne von einem einzigen Backend abhängig zu sein.

Für das Manifest selbst: /llms.txt im Stammverzeichnis, das dem Standard llmstxt.org folgt. Ein Identitätsparagraph, dreißig Links zu wichtigen Seiten, ein Kontaktblatt (Gründer, Plattformen, Sprachen, Preise). Und /ai.txt als Ergänzung, das die Nutzung des Inhalts für Training und KI-Indexierung explizit erlaubt (Spawning-Standard, klares Opt-in).

Für strukturierte Daten: Wir erweitern das JSON-LD der Landingpage. SoftwareApplication mit zehn expliziten Features und drei Angeboten (Free, Pro, Team). Organization mit strukturierter Gründerinformation und erweiterten sozialen Links, einschließlich Bluesky. WebSite mit Suchaktion. Und eine FAQPage mit achtzehn Fragen, die automatisch aus den i18n-Übersetzungen der Website generiert werden. Auf der Blogseite: erweitertes BlogPosting (abgeleitete Keywords, articleSection, wordCount, about, inLanguage), FAQPage automatisch aus dem HTML extrahiert, wenn der Artikel einen FAQ-Bereich enthält, und dateModified berechnet auf dem tatsächlichen Änderungsdatum der Datei, genauer als nur das Veröffentlichungsdatum.

Für die Push-Indexierung: ein API-Endpunkt /api/indexnow, der Bing, Yandex und IndexNow.org parallel benachrichtigt, sobald sich eine URL ändert. Ein IndexNow-Schlüssel, der im Stammverzeichnis zur Eigentumsüberprüfung veröffentlicht wird. Man muss nicht warten, bis die Crawler vorbeikommen, wir benachrichtigen sie selbst.

Für die Zitierfähigkeit der Artikel: Ein "Kurze Antwort"-Block von fünfzig bis fünfundsechzig Wörtern, der am Anfang der vier bereits von ChatGPT zitierten Artikel in allen sechs Sprachen hinzugefügt wurde. Vierundzwanzig Dateien wurden geändert. Das Format ist so kalibriert, dass die LLMs den Abschnitt extrahieren und unverändert zitieren, ohne fünfhundert Wörter scrollen zu müssen.

Für Vergleiche: eine erste Seite /vs/todoist mit vollständigem JSON-LD-Stack (zwei SoftwareApplication, ein ItemList, eine FAQPage, ein BreadcrumbList). LLMs lieben ehrliche Vergleiche, und SourceForge erstellt seine eigenen Seiten aus unseren.

Bing-Einreichung und IndexNow-Batch

Der schnellste Hebel für Bing: Webmaster Tools. Login über OAuth Google auf dem TAMSIV-Admin-Konto, Import der Websites aus der Google Search Console. Zwei Websites sofort importiert, Sitemaps inklusive. Kein Meta-Tag zur Verifizierung einzufügen, keine Wartezeit.

Dann der IndexNow-Batch. Wir rufen die 498 URLs der Sitemap ab, teilen sie in 50er-Blöcke auf und pushen sie parallel zu den drei öffentlichen Endpunkten (api.indexnow.org, bing.com, yandex.com) mit anderthalb Sekunden zwischen jeder Welle. Dreißig Blöcke gesendet, dreißig OK. Gesamt: etwas weniger als eine Minute, um Bing und Yandex mitzuteilen, dass dreizehnhundert Seiten indexiert werden müssen.

Parallel dazu wurde eine Aufnahmeantrag an Common Crawl über deren Kontaktformular gesendet. Automatische Antwort "Thank you, your submission has been received". Wir werden es bei der nächsten monatlichen Iteration sehen.

Der Test am nächsten Tag, auf vier LLMs

Der direkte Test am nächsten Morgen auf jedem LLM, das ist der entscheidende Punkt.

Perplexity liefert eine vollständige und präzise Antwort auf "What is TAMSIV voice task manager Android". Zehn Quellen werden zitiert: vier tamsiv.com-Artikel, der Play Store-Eintrag, ein Slashdot-Eintrag, von dem wir nicht wussten, dass er existiert, zwei dev.to-Artikel, das YouTube-Demo-Video, die EN-Landingpage und ein LinkedIn-Post eines Dritten (ein gyaansetu-ai-Konto, das unsere Informationen erneut gepostet hatte). Eine reichhaltige Antwort, die TAMSIV als Entität korrekt zugeordnet wird.

Gemini antwortet ebenfalls, kürzer, mit drei Quellen: Play Store, SourceForge (Vergleichsseite, die wir auch nicht kannten) und ein tamsiv.com-Artikel. Die Antwort zitiert korrekt die wichtigsten Funktionen (NLP, Multi-Task-Extraktion, Echtzeit-Zusammenarbeit, Gamification, sechs Sprachen, hierarchische Ordner). Ein lustiges Detail: Gemini schreibt die Entwicklung der App "Julien Avezou" zu (einem anderen Indie-Hacker, dessen Artikel wir auf dev.to kommentiert haben). Wir lassen es laufen, der Name des Gründers ist nicht der Kern dieser Geschichte.

Claude via WebSearch platziert den tamsiv.com-Blog an erster Stelle für "best voice task manager Android 2026", wobei die Beschreibung und die Preise korrekt übernommen werden.

Bing ist ein Sonderfall. Die Abfrage site:tamsiv.com liefert immer noch null Ergebnisse, da die Engine mehrere Tage benötigt, um die Seiten in ihren Operator-Index zu integrieren. Aber was den tatsächlichen Traffic betrifft, erscheinen an diesem Tag zwei menschliche Bing-Besucher in Supabase: einer aus England, der auf dem Artikel über die Reduzierung der Supabase-Kosten landet, eine aus Frankreich, die auf der Historie der KI-Gespräche landet. Eine Quelle, die 48 Stunden zuvor null wert war, jetzt zwei Besucher, ohne dass wir einen einzigen neuen Inhalt geschrieben hätten. Das ist der IndexNow-Batch, der spricht.

Die wahre Überraschung: Slashdot und SourceForge hatten bereits Einträge

Wir entdecken in den Perplexity-Quellen einen Link zu slashdot.org/software/p/TAMSIV/. Wir klicken darauf, und es gibt einen vollständigen Eintrag. Dasselbe auf SourceForge. Präzise Beschreibungen, wahrscheinlich aus unserem Play Store abgerufen. Korrekte Preise, korrekte Sprachen, korrekte Kategorien.

Niemand hat diese Einträge manuell eingereicht. Die Aggregatoren scrapen die Play Stores automatisch und erstellen Einträge für Anwendungen, die an Sichtbarkeit gewinnen. Das ist Glück, oder vielmehr die Belohnung dafür, dass wir unseren Play Store-Eintrag in sechs Sprachen gut ausgefüllt haben.

Auf SourceForge gab es einige sachliche Fehler, die aus dem automatischen Scraping importiert wurden: Der Eintrag kündigt TAMSIV für Windows, Mac, Linux, iOS an, obwohl wir nur auf Android und im Web laufen. Er kündigt einen 24/7-Telefonsupport an, obwohl wir per E-Mail und Discord erreichbar sind. Er kündigt Webinare und Präsenzschulungen an, obwohl wir nur Online-Dokumentation haben. Diese Fehler füttern die nachfolgenden LLM-Halluzinationen (Gemini übernimmt "iOS, Web, desktop platforms", was wahrscheinlich daher stammt).

Der Anspruch des Eintrags ist der nächste Schritt: Vendor-Konto für TAMSIV auf SourceForge bereits erstellt, Anspruchsformular ausfüllen, Moderation innerhalb weniger Tage, und wir werden die fünf Fehler korrigieren. Aber diese Arbeit zielt darauf ab, zu korrigieren, was der Eintrag über das Produkt aussagt, nicht darauf, eine persönliche Biografie zu pushen.

Was wir daraus lernen

Ein LLM ist nicht alle LLMs. Nur für ChatGPT zu optimieren, bedeutet, 70 % des Marktes zu ignorieren. Eine AEO-Strategie muss gleichzeitig Bing (ChatGPT/Copilot), Brave (Claude), Google (Gemini) und Common Crawl (Open-Source-Modelle) ansprechen. Die technischen Maßnahmen sind dieselben, aber ihre Wirkung wird auf verschiedenen Kanälen gemessen.

Software-Verzeichnisse sind erstklassige LLM-Quellen. Perplexity zitiert Slashdot, Gemini zitiert SourceForge, Claude zitiert AlternativeTo, Copilot zitiert Capterra. Die Präsenz auf diesen Websites zu vervielfachen, vervielfacht die Zitate. Dies ist die vergessene Schicht der klassischen SEO, und sie speist die LLMs direkt.

Erweitertes JSON-LD wird gelesen, nicht nur von Google. Wir haben gesehen, wie Gemini die Struktur features+offers der SoftwareApplication und die FAQPage des Blogs übernommen hat. Für fünfzig Zeilen JavaScript im Layout ist der Effekt messbar.

IndexNow spart Tage im Zyklus. Ohne Push benötigt Bing ein bis drei Wochen, um eine neue Website zu entdecken. Mit einem IndexNow-Batch sind es wenige Stunden. Und es ist kostenlos, ohne API-Schlüssel, ohne verrückte Ratenbegrenzung.

LLM-Halluzinationen zu unkritischen Details (Name des Gründers, unterstützte Plattformen) stammen fast alle aus Drittanbieter-Einträgen. Diese über Anspruchsformulare zu korrigieren, ist effektiver, als auf der eigenen Website übermäßig zu veröffentlichen. Das Produkt selbst sollte überall dort, wo wir Kontrolle haben, sachlich und stabil beschrieben werden.

Fortsetzung der Arbeit

Auf der Liste: Slashdot und SourceForge beanspruchen, um Produktfehler zu korrigieren, aktive Einreichung bei den zehn weiteren fehlenden Verzeichnissen (G2, Capterra, GetApp, ProductHunt, ToolFinder, FutureTools, There's an AI for that, AItoolsdirectory, Crozdesk, SoftwareSuggest). Vier neue Vergleichsseiten (Any.do, Google Keep, Notion, TickTick) nach dem gleichen Template wie /vs/todoist. Und eine obligatorische monatliche Überwachung der LLM-Zitate, mit Screenshot bei jedem Test, um die Entwicklung zu messen und sich nicht nur auf Eindrücke zu verlassen.

Test in dreißig Tagen wiederholen, in sechzig, in neunzig. Wenn die Entwicklung gut ist, werden wir es wissen. Wenn sie stagniert, haben wir die Zahlen, um zu pivotieren.

FAQ

Was ist eine llms.txt-Datei und ist sie wirklich nützlich?

llms.txt ist ein aufkommender Standard Ende 2025 (llmstxt.org), der ein strukturiertes Manifest im Stammverzeichnis einer Website vorschlägt, das direkt von Sprachmodellen gelesen werden kann. Die Idee ist, ihnen in einem einzigen Lesevorgang die Identität der Website, ihre wichtigen Seiten nach Kategorie und die für die Zitierung nützlichen Fakten zu liefern. Es ist das Äquivalent einer robots.txt für LLMs. Der messbare Effekt ist noch schwer zu isolieren, da der Standard noch jung ist, aber die Bereitstellung kostet nichts und signalisiert klar, dass die Website von KIs gelesen werden möchte.

Warum nicht nur auf ChatGPT abzielen, da es am häufigsten verwendet wird?

Weil ChatGPT Search ein Microsoft Bing-Produkt im Backend ist. Wenn Bing uns nicht indexiert, sieht uns ChatGPT Search auch nicht. Umgekehrt macht uns die Optimierung für Bing gleichzeitig auf ChatGPT und Copilot sichtbar. Und es gibt mindestens zehn große LLMs, jedes mit seinem eigenen Backend, sodass das Anzielen nur eines davon bedeutet, 70 bis 80 % der Einstiegspunkte zu ignorieren. Eine Multi-LLM-Optimierung kostet den gleichen Aufwand wie eine Mono-LLM-Optimierung.

Funktioniert IndexNow wirklich oder ist es Microsoft-Marketing?

Es funktioniert, messbar. Wir haben 498 URLs in 50er-Blöcken an Bing, Yandex und IndexNow.org gesendet. Dreißig von dreißig Blöcken wurden akzeptiert. Vierundzwanzig Stunden später kommen zwei menschliche Bing-Besucher auf bestimmte Blogartikel. Eine Quelle, die am Vortag nicht existierte. Das Protokoll ist offen (kein Microsoft-Lock-in), wird von Yandex, Naver, Seznam und indirekt von allen Engines unterstützt, die Bing als Backend verwenden. Sollte in jeder neuen Website implementiert werden.

Wie lange dauert es, bis Bing wirklich alle Seiten indexiert?

Für eine neue Website ohne Webmaster Tools dauert es bei Bing mehrere Wochen. Mit Webmaster Tools (Import aus der Google Search Console) ist es für Sitemaps sofort, aber es dauert einige Tage, bis einzelne Seiten in site: erscheinen. Mit IndexNow werden die priorisierten Seiten innerhalb weniger Stunden gecrawlt. Die Zeit, bis die Seiten im Operator site:tamsiv.com erscheinen, beträgt immer noch ein bis zwei Wochen, aber der tatsächliche Traffic beginnt früher.

Wurden die Slashdot- und SourceForge-Einträge von dir erstellt oder automatisch?

Automatisch, durch Scraping. Die Aggregatoren Slashdot Media (denen beide gehören) scrapen die Play Stores und erstellen Einträge für Anwendungen, die eine bestimmte Sichtbarkeitsschwelle überschreiten. Die Beschreibung stammt wahrscheinlich aus unserem englischen Play Store-Eintrag, was erklärt, warum sie korrekt ist. Die Fehler stammen aus der automatischen Befüllung der zusätzlichen Felder (Plattformen, Support, Training, API), die keine klare Quelle haben und vom Scraper mit Standardwerten befüllt werden. Man kann den Eintrag beanspruchen, um die Kontrolle zu übernehmen und zu korrigieren.

Ist diese Arbeit für eine andere Anwendung wiederholbar?

Ja, der Quellcode des Stacks (llms.txt, ai.txt, IndexNow API, erweitertes JSON-LD, Kurzantwortblock-Komponente) ist vollständig übertragbar. Die einzige manuelle Arbeit ist das Verfassen der Inhalte (llms.txt-Manifest, Kurzblöcke der Artikel), was für eine Website mit sechzig Artikeln einen Tag dauert. Das Beanspruchen der Drittanbieter-Verzeichnisse (Slashdot, SourceForge) erfordert die Erstellung von Anbieterkonten, zwanzig Minuten pro Website, und eine Wartezeit auf die Moderation. Das Ganze ist innerhalb einer Woche für eine bereits veröffentlichte Anwendung machbar, mit einem messbaren Einfluss bereits am Tag nach dem Push.