Warum sich Suche 2026 grundlegend verschoben hat
Etwa ein Viertel aller google.de-Anfragen zeigt heute eine KI-Antwort über den klassischen Treffern. Branchenstudien rechnen damit, dass dieser Anteil bis 2028 auf rund 75 Prozent steigt, sobald Google AI Overviews flächendeckend ausgerollt ist und ChatGPT-Search seine native Browsing-Funktion in Europa stabilisiert. Für Marken im DACH-Raum bedeutet das: Klickströme verschwinden in einer Antwort, in der die KI auf wenige Quellen verweist.
Die Konsequenz ist nicht das Ende von SEO, sondern eine Verschiebung der Aufgabenstellung. Wer früher um Position eins kämpfte, kämpft jetzt darum, die Quelle zu sein, aus der die KI ihre Antwort konstruiert. Diese Disziplin tragen wir in DACH unter dem Stichwort KI SEO. International heißt sie Generative Engine Optimization (GEO) oder Answer Engine Optimization (AEO).
Wie unterscheidet sich KI SEO von klassischem SEO?
Klassisches SEO ist auf Klick-Optimierung ausgelegt: Position, CTR, Ladezeit, Backlinks. KI SEO ist auf Zitation ausgelegt: Wird Ihre Marke in der KI-Antwort genannt, und mit welchem Kontext? Die technische Schnittmenge ist groß - schnelle Ladezeit, sauberes HTML, kanonische URLs nutzen beiden. Die inhaltliche Schnittmenge ist kleiner - KI-Modelle bevorzugen Definitions-First-Eröffnungen, Frage-H2s und maschinenlesbare Frage-Antwort-Strukturen, die für menschliche Leser oft unnötig wirken.
Vergleichstabelle: SEO vs AEO vs GEO vs LLMO
| Disziplin | Ziel | Erfolgsmaß | Hauptkanal |
|---|---|---|---|
| SEO | Position eins bei Google | Ranking, Klicks, CTR | Google blaue Links |
| AEO | Direkte Antwort liefern | Featured Snippet, Sprachsuche | Google Answer Box, Alexa |
| GEO | In KI-Antwort zitiert werden | Zitations-Anteil je Anfrage | ChatGPT, Gemini, Perplexity, AI Overviews |
| LLMO | Im LLM-Trainings-Korpus erscheinen | Markenerwähnung in Modell-Wissen | Crawl-Erlaubnis für GPTBot, ClaudeBot, etc. |
Welche fünf KI-Systeme sind in DACH relevant?
Im deutschsprachigen Markt entscheiden fünf Systeme den Großteil der KI-Sichtbarkeit. ChatGPT mit dem breitesten Nutzeranteil, Google AI Overviews mit der größten Reichweite über google.de, Perplexity als Recherche-Werkzeug für anspruchsvolle Käufer, Claude mit wachsendem Anteil bei Wissensarbeitern, Gemini als Fallback-Layer in Workspace-Umgebungen. Wer in allen fünf vorkommt, deckt etwa 95 Prozent des DACH-KI-Antwortvolumens ab.
ChatGPT
ChatGPT verbindet trainiertes Modellwissen mit Live-Browsing über Bing. Für KI SEO heißt das: Sie müssen sowohl im langfristigen Trainings-Index sichtbar sein (über breite Markenerwähnungen in vertrauenswürdigen Quellen) als auch im Live-Crawl auffindbar (über robots.txt-Erlaubnis für GPTBot, llms.txt und Schema.org). Beides parallel.
Google AI Overviews
AI Overviews sind die in google.de eingeblendeten KI-Zusammenfassungen. Sie greifen auf den klassischen Google-Index zurück - Inhalte, die heute Position eins bis zehn erreichen, haben damit auch die größte Chance auf Aufnahme in das AI Overview. Strukturierte Daten (FAQPage, Article, Organization) erhöhen die Aufnahmewahrscheinlichkeit signifikant.
Perplexity
Perplexity zitiert Quellen sehr explizit, mit nummerierten Verweisen unter jeder Antwort. Wer hier zitiert wird, gewinnt nicht nur Sichtbarkeit, sondern direkten Klick-Verkehr. Perplexity bevorzugt Inhalte mit klaren Datenpunkten, Definitions-First-Eröffnungen und Author-Signalen.
Claude
Claude wird zunehmend in Wissensarbeit, Recht und Beratung genutzt. Der ClaudeBot crawlt aktiv. Wer Claude als Quelle ansprechen möchte, sollte technische Inhalte mit klarer Hierarchie, eindeutigen Definitionen und Quellenangaben veröffentlichen.
Google Gemini
Gemini nutzt den Google-Index plus eigene Modellgewichtung. In Workspace-Umgebungen (Gmail, Docs) wird es zunehmend für Recherche-Anfragen aufgerufen. Die Optimierung überschneidet sich stark mit klassischer SEO plus Schema.org.
Wie wählen KI-Systeme Quellen aus?
Drei Hebel entscheiden die Aufnahme. Erstens: technische Lesbarkeit. Wenn der Crawler Ihre Inhalte nicht aufnehmen kann, gibt es nichts zu zitieren. Dazu gehören eine robots.txt, die GPTBot, Google-Extended, ClaudeBot und PerplexityBot erlaubt, eine llms.txt mit kuratiertem Index, Markdown-Twins für jede wichtige Seite, vollständige Schema.org-Auszeichnung, schnelle Ladezeit unter zwei Sekunden und mobile Nutzbarkeit.
Zweitens: inhaltliche Struktur. KI-Modelle bevorzugen Inhalte, deren Aussage in den ersten 60 Wörtern eindeutig ist (Definitions-First). Sie bevorzugen Frage-Antwort-Blöcke, weil diese der Form ihrer Anfragen entsprechen. Sie bevorzugen originale Datenpunkte gegenüber abgeschriebenen Statistiken, weil Trainings-Pipelines Duplikate erkennen.
Drittens: Entitäts-Autorität. Eine Marke, die in 200 unabhängigen Quellen mit demselben Firmennamen, derselben Adresse und derselben Branchenbeschreibung erwähnt wird, gilt dem Modell als verlässliche Entität. Inkonsistente NAP-Daten (Name, Address, Phone) zerstören diese Autorität. AuthorCards mit verifizierbaren Personen-Schemas verstärken sie.
Welche technischen Korrekturen wirken in DACH am schnellsten?
Aus rund 200 ausgewerteten DACH-Audits zeigen sich vier Korrekturen, die in zwei bis vier Wochen messbare Sichtbarkeit bringen. Erstens: llms.txt mit kuratierten Verlinkungen zu zehn Kerninhalten anlegen. Zweitens: Markdown-Twin für jede wichtige Seite unter /md/[slug].md veröffentlichen, damit Crawler den Inhalt ohne Layout-Rauschen lesen. Drittens: FAQPage-Schema auf den Top-20-Seiten ergänzen. Viertens: AuthorCard mit Person-Schema an alle redaktionellen Inhalte anhängen.
Welche inhaltlichen Korrekturen wirken mittelfristig?
Mittelfristig (vier bis zwölf Wochen) zahlen Cluster-Inhalte am stärksten ein. Ein Cluster besteht aus einer Pillar-Seite (wie dieser hier) plus acht bis fünfzehn Frage-Format-Blogs, die jeweils auf den Pillar verweisen. Das Modell erkennt das Cluster als zusammenhängendes Wissensgebiet und priorisiert die Pillar-Seite als Antwort-Quelle. Wir empfehlen mindestens einen vollständigen Cluster pro relevantem Themenfeld.
Wie messen Sie KI-Sichtbarkeit?
Drei Kennzahlen sind belastbar. Erstens: ein fester Anfragen-Korb von 20 kaufrelevanten Suchanfragen, monatlich in allen fünf KI-Systemen geprüft. Zählen Sie, wie oft Ihre Marke in der Antwort erscheint. Zweitens: Wettbewerbsabstand - wie oft erscheinen Ihre drei wichtigsten Mitbewerber statt Ihrer? Drittens: Referral-Traffic von KI-Domains in Ihrer Webanalyse - chat.openai.com, perplexity.ai, gemini.google.com sind die wichtigsten Referrer. Kombinieren Sie alle drei zu einem Monatsbericht.
Wie wird der Aufwand für KI SEO kalkuliert?
Fünf Faktoren bestimmen den Aufwand: Anzahl der zu analysierenden Mitbewerber, Anzahl der Sprachen und Märkte, Tiefe der Cluster-Inhalte (Pillar plus Frage-Format-Blogs), Reporting-Frequenz (monatlich oder quartalsweise) und der Grad der inhaltlichen Eigenleistung Ihres Teams. Einmalige Audits sind kompakter als laufende Betreuung mit Content-Pipeline. Wer mit Festpreismodellen ohne menschliche Auswertung wirbt, bedient ein automatisiertes Massenprodukt - das funktioniert für SaaS-Tools, nicht für strategische Beratung. Erhalten Sie eine personalisierte Einschätzung in Ihrem kostenlosen Audit.
Was sollten Sie als Nächstes tun?
Bevor Sie eine Agentur beauftragen, brauchen Sie einen Befund. Wir bieten den kostenlosen KI-Sichtbarkeits-Audit an: 25 bis 30 Seiten Marken-PDF, Lieferung in 48 Stunden, 30-minütiges Strategiegespräch mit dem Gründer, kostenloser 30-Tage-Recheck. Sie verlieren nichts, wenn Sie sich danach gegen eine Zusammenarbeit entscheiden. Den Bericht können Sie behalten.