Marketwatch: KI und SEO

Eine weiße Roboterhand zeigt auf eine runde, helle Lichtquelle in der Bildmitte. Um die Szene herum befinden sich grafische Symbole: eine gelbe Sprechblase, ein schwarzes Gehirn mit Schaltkreisen und zwei schwarze Ausrufezeichen.

SEO verändert sich ständig und gefühlt immer schneller. Längst ist klar, dass KI das Feld nachhaltig beeinflusst. Da diese Veränderungen auf unsere tägliche Arbeit elementaren Einfluss haben und es für den Einzelnen und die Einzelne schwer ist, den Überblick zu behalten, wollen wir die wichtigsten Veränderungen über den MarkOp Marketwatch dokumentieren und einordnen. Deshalb folgen hier und in unserem WhatsApp-Kanal regelmäßig Updates und Erkenntnisse, die via LinkedIn, Newslettern, Podcasts oder News-Outlets aus der SEO-Branche an uns herangetragen werden – eingeordnet von unseren SEO-Experten Henry und Alex.


 

Updates aus dem Dezember 2025

Update vom 14.12.2025: Wie schnell wird Content in KI-Antworten aufgenommen

Semrush testet in einer aktuellen Untersuchung, wie schnell neue Inhalte vom Google AI Mode und ChatGPT zitiert werden. Dabei zeigte sich, dass Googles AI Mode deutlich schneller ist:

Bereits 36 % der Testseiten wurden einen Tag nach Veröffentlichung zitiert – nach sieben Tagen waren es über 56 %. Allerdings fluktuiert die Zitierung stark und sinkt über 30 Tage wieder, was zeigt, dass Google Quellen ständig neu bewertet.

Im Gegensatz dazu zitierte ChatGPT‑Search nach 24 Stunden nur 8 % der Seiten, baute diese Erwähnungen aber kontinuierlich aus, was nach 30 Tagen eine 42-prozentige Zitationsquote (doppelt so hoch wie im Google AI Mode) ergab.

Semrushs Daten zeigen, dass derzeit Content bei ChatGPT eine langfristigere Wirkung erzielt, als bei Google. Für beide Systeme ist allerdings auffällig, dass selbst nach 30 Tagen nur ein Teil der Inhalte überhaupt zitiert wurde: Im Google AI Mode lag das Maximum bei 59 %, während ChatGPT auf maximal 42 % kam. Wer also langfristig in KI-Antworten erscheinen will, darf sich nicht nur auf die reine Content-Erstellung verlassen, sondern sollte auch aktive Distributionsstrategien über Backlinks, Social Signals und strukturierte Daten verfolgen.

Alexander Beth

Update vom 12.12.2025: Übernahme von Desinformationen durch LLMs

Ahrefs zeigt in einem aktuellen Experiment, wie AI‑gestützte Such‑ und Antwortsysteme durch gezielt falsche Informationen im Web manipuliert werden können.

Dafür wurde eine fiktive Marke erstellt, mehrere erfundene Geschichten verbreitet, und über zwei Monate hinweg beobachtet, wie verschiedene AI‑Systeme (Gemini, Claude, Grok, AI Mode, Perplexity & Copilot) die Lügen wiederholten – oft sogar über glaubwürdige offizielle FAQs hinweg.

Nur die ChatGPT‑Modelle 4 & 5-Thinking hielten sich weitestgehend an offizielle Informationen, wenn sie vorhanden waren.

Das Experiment zeigt deutlich, wie anfällig KI-Suchsysteme für Falschinformationen sind. Fact-Checking ist bei einer Recherche mit KI also noch immer unerlässlich.

Außerdem gilt: Wer seine Online-Reputation nicht aktiv schützt, läuft Gefahr, dass Fehlinformationen in KI-Antworten dominieren. Eine konsequente Content-Strategie mit klaren, leicht auffindbaren Fakten auf autoritativen Quellen (eigene Website, strukturierte Daten, PR etc.) ist hierfür das beste Mittel.

Henry Seyffert

Update vom 11.12.2025: Veränderungen von Links im Google AI Mode

Google hat bekanntgegeben, dass der AI Mode künftig mehr und besser sichtbare Inline‑Links direkt in den KI‑Antworten anzeigen soll. Zudem sollen diese mit Kontextinformationen versehen werden, warum die einzelnen Links zur Frage passen.

Damit reagiert Google auf die häufige Kritik, dass im KI‑Modus zu wenige und schwer erkennbare Links die Klickrate auf externe Websites unnötig stark begrenzt haben.

Screenshot des Google AI Mode in Englisch mit der Darstellung externer Links

Update vom 10.12.2025: Neue Funktion in der GSC

Google hat in der Search Console eine neue Funktion eingeführt:

In den Performance-Berichten lassen sich Metriken nun zusätzlich zu den täglichen auch wöchentlich und monatlich anzeigen. Diese Aggregation erleichtert die Auswertung langfristiger Trends und reduziert die Ablenkung durch kurzfristige Schwankungen. Das Update betrifft alle Diagramme im Leistungsbericht.

Update vom 09.12.2025: Einschränkungen von LLM-Trackern

Lily Ray zeigt anhand eines Tests mit ChatGPT, wie stark personalisiert LLM-basierte Suchanfragen inzwischen sind. Eine allgemeine Frage nach den „besten Konferenzen 2026“ lieferte fan-out-Queries mit Bezug auf ihren beruflichen Hintergrund – inklusive SEO und Digital Marketing – obwohl dies nicht explizit gefragt war.

Ihr Fazit: LLM-Tracker erfassen diese Nuancen nicht, da sie stark individualisiert sind. Statt jede mögliche Variation zu optimieren, empfiehlt sie, auf übergeordnete Themen, Trends und Bedürfnisse zu setzen.

Lily Ray ist eine der kritischsten Stimmen, was die Leistungsfähigkeit von KI-Modellen und neuen Trackinglösungen angeht. Mit der aktuellen Meldung unterstreicht sie ihre bisherige Kritik. Während die starke Personalisierung eine Herausforderung darstellt, helfen Tracking-Lösungen dabei, ein übergeordnetes Bild der Nutzerbedürfnisse zu erlangen. Marken sollten sich der Limitationen dieser Tools bewusst sein, diese jedoch nicht völlig ignorieren.

Alexander Beth

Update vom 06.12.2025: Bestenlisten als Quellen von LLMs

Laut einer Analyse von Ahrefs stammen 43,8 % der Quellen in ChatGPT-Antworten aus „Best X“-Listen – oft sind diese dabei von Marken selbst erstellt. Untersucht wurden 750 Prompt-Antworten und 26.283 Quell-URLs.

Besonders häufig erscheinen solche Listen bei Software-, Produkt- und Agentur-Empfehlungen. Höhere Platzierungen in den Bestenlisten erhöhen laut Ahrefs' Daten auch signifikant die Häufigkeit der Zitierungen in ChatGPT-Antworten.

Die Untersuchung zeigt auch, dass der Gesamtanteil von Bestenlisten als Quellen bei Perplexity und in Googles AI Mode auf einem ähnlichen Niveau ist, während er in den AI Overviews sogar noch höher liegt.

Ein Säulendiagramm zeigt den Anteil von Bestenlisten-Antworten untern den Tools ChatGPT, Google AI Overview, Peplexity und Google AI Mode

Besonders bemerkenswert an der Analyse von Ahrefs ist der große Einfluss, der durch das Anführen und hohe Platzieren der eigenen Marke in solchen Bestenlisten genommen werden kann. Denn unter den Quellen der LLMs sind auch Listen, in denen Unternehmen sich selbst an erster Stelle platzieren. Das kann derzeit also strategisch zur Sichtbarkeitssteigerung in KI-generierten Antworten genutzt werden. Aus SEO-Perspektive ist das zwar nachvollziehbar, wirft jedoch auch Fragen zur inhaltlichen Neutralität auf. Künftig dürfte es für KI-Systeme wichtiger werden, Quellen besser zu gewichten und Eigeninteressen transparenter zu erkennen.

Henry Seyffert

Update vom 05.12.2025: KI-Features in der GSC

Google hat neue KI-Funktionen in der Google Search Console vorgestellt. Der Internetriese hat eine experimentelle, KI-gestützte Konfigurationsfunktion für den Performance-Bericht angekündigt. Nutzer:innen können künftig per natürlicher Sprache und Prompts definieren, welche Daten sie analysieren möchten – das System wandelt diese Eingaben automatisch in passende Filter und Einstellungen um. 

Wie Chris Long ergänzt, lassen sich damit Suchanfragen, Geräte, Standorte sowie Zeiträume und Vergleichsmetriken wie Klicks, Impressionen oder CTR per Prompt steuern. Der Rollout gilt als klares Signal für Googles Strategie, die Gemini-KI tief in das gesamte Produkt-Ökosystem zu integrieren – auch in zentrale SEO-Werkzeuge wie die Search Console.

Update vom 04.12.2025: Gemini 3 vs. OpenAI

Laut Johannes Beus hat Google mit Gemini 3 einen bedeutenden Fortschritt erzielt, der OpenAI zu einer internen Alarmstufe ("Code Red") veranlasst haben soll.

Besonders hervorzuheben ist die Hardware-Basis: Statt Nvidia-GPUs nutzt Google eigene TPUs (Version 7), die sich durch enorme Skalierbarkeit auszeichnen. Bis zu 9.216 Chips lassen sich in einem Pod vernetzen – ein Vielfaches dessen, was Nvidia bietet.

Diese TPUs eignen sich nicht nur für das Modelltraining, sondern auch für kosteneffiziente Inferenz, wodurch eine zentrale Hürde für KI-Nutzung in der Suche – die Kosten pro Anfrage – reduziert wird.

Beus vermutet, dass Googles AI-gestützte Suche künftig deutlich schneller zur neuen Norm wird.

Der Wettbewerb zwischen Google und OpenAI nimmt weiter zu. Der Marktanteil von ChatGPT im Bereich “Search” ist im Gegensatz zu Google noch relativ gering. Jedoch wird das Tool für sehr viel mehr als die klassische Suche genutzt. Google hat den großen Vorteil des umfangreichen Ökosystems und der nativen Integration der KI-Funktionen in die eigenen Tools.

Entscheidend wird sein, ob Google das Problem der Monetarisierung in den eigenen KI-Funktionen lösen kann.

Alexander Beth

Update vom 03.12.2025: Marktanteil von ChatGPT im Vergleich zu Google

Johannes Beus analysiert die tatsächliche Marktgröße von ChatGPT im Vergleich zu Google.

  • Laut OpenAI verarbeitet ChatGPT täglich 2,63 Milliarden Nachrichten. Je nach Schätzung haben 22 % bis 50 % davon „Search Intent“, was 0,57 bis 1,31 Milliarden such-relevanten Anfragen entspricht.

  • Im Vergleich zu den ca. 15 Milliarden täglichen Google-Suchanfragen ergibt sich für ChatGPT ein Marktanteil von etwa 4 % bis 9 %.

Obwohl Google damit weiterhin unangefochtener Marktführer bleibt, rangiert ChatGPT bereits auf Platz zwei unter den weltweiten Suchsystemen – deutlich vor Bing und Co.

Update vom 02.12.2025: Geblockte Web-Crawler

ChatGPT ist der meist-blockierte Bot im Internet. Laut einer jährlichen Auswertung von Malte Landwehr auf Basis von BuiltWith hat sich das Bild geblockter Crawler deutlich verschoben:

  • Sechs der zehn meist-blockierten Bots stammen inzwischen aus dem Bereich KI und LLMs – im Vorjahr war es nur einer.

  • An der Spitze steht nun ChatGPT mit einer Blockierungsrate von 7,1 % (+7), gefolgt von Google (6,7 %) und Common Crawl (6,6 %).

Auffällig ist zudem, dass kein klassisches SEO-Tool mehr unter den Top 10 vertreten ist – ein klares Zeichen für den Wandel der Webcrawler-Landschaft.

Der Rückgang beim Blocken klassischer SEO-Tools kann ein Hinweis auf weniger Relevanz oder effektiverer Block-Maßnahmen im Vorfeld sein. Website-Betreiber:innen scheinen jedoch zunehmend besorgt über die unkontrollierte Nutzung ihrer Inhalte durch KI-Anbieter zu sein.

Die Diskussion um Urheberrechte, Content-Scraping und faire Datennutzung wird durch diese Entwicklungen weiter angeheizt.

Langfristig kann der zunehmende Ausschluss von KI-Tools auch Auswirkungen auf die Verfügbarkeit von Trainingsdaten und – bei fehlerhafter Nutzung – die Indexierbarkeit von Content haben.

Henry Seyffert

Updates aus dem November 2025

Update vom 28.11.2025: Verarbeitung von Inhalten in LLMs

Mehrere Experten (darunter Dan Hinckley, Hanns Kronenberg sowie Chris Long) zeigen übereinstimmend, wie LLMs wie ChatGPT oder Google AI Mode Webinhalte verarbeiten: Statt vollständiger Seiten analysieren die Systeme gezielt Textpassagen („Chunks“), die über Websuche („Grounding“) vorgefiltert und als semantische Vektoren im Embedding-Raum abgelegt werden. 

Verarbeitet werden diese in „sliding windows“, also begrenzten Textausschnitten, wobei Inhalte mit klarer Struktur, semantischer Kohärenz und prägnanter Positionierung (z. B. im oberen Seitenbereich oder als Liste) bevorzugt werden. 

Mit diesen Erkenntnissen erweitert sich das Verständnis der Funktionsweise von KI-Modellen enorm, sodass auch erste Handlungsempfehlungen abgeleitet werden können.
Im Zeitalter von AI SEO müssen Inhalte kompakt, thematisch fokussiert und so strukturiert sein, dass sie innerhalb dieser Fenster landen – sonst bleiben sie für das Modell unsichtbar. Inhalte sollten semantisch gestrafft, möglichst nah an der Query ausgerichtet sein und ohne Abschweifen (sog. "topic drift") formuliert werden. 

Alexander Beth

Update vom 27.11.2025: Bewertung von Inhalten im Google AI Mode

Metehan Yeşilyurt gibt Einblick in Googles AI-gestützte Suche auf Basis seiner Erfahrung mit der Discovery Engine (Vertex AI Search). Er identifiziert sieben vermutliche Ranking-Signale für den AI Mode:

  • Base Ranking: Das grundlegende Ranking des Dokuments auf Basis traditioneller Relevanz- und Qualitätsfaktoren.

  • Gecko Score (Embeddings): Semantische Bewertung von Inhalten über Vektor-Embeddings zur Messung inhaltlicher Ähnlichkeit.

  • Jetstream (Cross-Attention): Modell zur kontextuellen Gewichtung relevanter Inhalte durch Cross-Attention zwischen Query und Dokument.

  • BM25 (Keyword Match): Klassischer Keyword-Matching-Algorithmus zur Erfassung der wörtlichen Übereinstimmung.

  • PCTR (Engagementmodell): Predictive Click-Through Rate, basierend auf einem mehrstufigen Nutzerinteraktionsmodell.

  • Freshness: Bevorzugung aktueller Inhalte, insbesondere bei zeitkritischen oder trendbezogenen Suchanfragen.

  • Boost/Bury (manuelle Regeln): Manuelle Gewichtung einzelner Inhalte oder Domains – etwa zur Förderung vertrauenswürdiger Quellen.

Der Prozess der Antwortgenerierung gliedert sich in vier Phasen:

  1. Query-Verständnis & Normalisierung

  2. Dokument-Auswahl & Chunking (z. B. ~500-Token-Segmente inkl. Headings)

  3. Signalerhebung & Ranking

  4. Antwortgenerierung mit LLM inkl. Formatierung, Quellennennung und Sicherheitslogik.

Besonders relevant: Personalisierte Rankings greifen laut Yeşilyurt erst nach über 100.000 Queries pro Nutzer, und PCTR basiert auf einem komplexen, gestuften Modell. Im Gegensatz zu ChatGPT oder Perplexity sei Googles Infrastruktur öffentlich dokumentiert – ein Signal für Transparenz und aktive Monetarisierungsstrategie.

Die Analyse gibt erstmals konkrete Hinweise, wie Google AI Mode Inhalte bewertet und auswählt. Wie erwartet passiert dies nicht per simpler Keyword‑Rankings, sondern per Kombination aus semantischen Signalen, Nutzerinteraktionen, Freshness und Kontextsensitivität. Hier bieten sich Anknüpfungspunkte für SEOs, indem Strategien technischer und holistischer werden.

Alexander Beth

Update vom 25.11.2025: ChatGPT Produktrecherche-Feature

OpenAI hat „Shopping Research“ in ChatGPT vorgestellt – ein neues Feature, das auf Basis von Nutzerangaben personalisierte Kaufberatungen erstellt. Nutzer können per Chat angeben, wonach sie suchen, woraufhin ChatGPT relevante Informationen und Empfehlungen aus vertrauenswürdigen Quellen zusammenträgt – momentan in Deutschland allerdings noch ohne direkte Checkout-Möglichkeit. Der Dienst ist ab sofort für alle Pläne (Free, Go, Plus, Pro) verfügbar und basiert auf einem spezialisierten GPT-5-mini-Modell.

Laut SEO-Experte Brodie Clark greift der Shopping-Assistent dabei wohl auf den Produktdaten-Feed von Google zu: Die Produkt-Links, die ChatGPT empfiehlt, nutzen den Parameter ?srsltid – diesen fügt Google im Merchant Center (über das Händler:innen Produktdaten bei Google verwalten) den URLs hinzu.

Momentan scheint es noch zu genügen, seine Produktdaten bei Google zu pflegen, um mit den eigenen Angeboten in ChatGPTs Produktrecherche-Feature aufzutauchen. Da die Funktion neu ist und Instant Checkouts über ChatGPT in Deutschland noch nicht verfügbar sind, wird sich hier aber sicher noch einiges tun.

Henry Seyffert

Update vom 24.11.2025: Werbung im Google AI Mode

Laut Johannes Beus testet Google erstmals Werbung im AI Mode. Die Anzeigen erscheinen in einem gesonderten, „Sponsored“ gekennzeichneten Block und werden teilweise mit promptbezogenen Überschriften versehen. Noch ist die Integration rudimentär und betrifft nur einen kleinen Teil der Antworten. Google befindet sich offenbar in einer frühen Testphase und lotet aus, wie sich Werbung möglichst nah an organischen Empfehlungen platzieren lässt – ein potenziell entscheidender Schritt zur Monetarisierung von AI-generierten Suchergebnissen.

Update vom 21.11.2025: Unterschiede in der Websuch-Integration zwischen ChatGPT und Googles AI Mode

Laut Johannes Beus zeigen Analysen von über 10 Millionen Prompts typischer Informationssuchen gravierende Unterschiede in der Websuche-Integration zwischen ChatGPT und Google AI Mode. 

  • Nur bei 7,6 % der Prompts in der öffentlich zugänglichen Version von ChatGPT wird überhaupt eine Websuche durchgeführt – mit durchschnittlich 3,42 Quellen. 

  • Im Gegensatz dazu greift Google AI Mode bei 99,72 % der Prompts auf das Web zu und liefert im Schnitt 28,37 Links. 

Beus sieht darin einen strategischen Nachteil für OpenAI: Ohne Zugriff auf aktuelle Informationen bleiben die Antworten und deren Qualität limitiert. Ohne massive Investitionen in das Backend bzw. die Webinfrastruktur bleibt ChatGPTs Antwortqualität – zumindest was die Informationssuche betrifft – vermutlich hinter der des AI Mode zurück. 

Update vom 20.11.2025: „Branded Queries“-Feature in der Google Search Console

Google hat einen neuen Filter für „Branded Queries“ in der Search Console eingeführt. Im Leistungsbericht kann damit differenziert werden, wie viel des Traffics auf markenbezogene Suchanfragen entfällt. Der Filter erkennt automatisch Begriffe, die mit dem Domainnamen, der Marke oder App-Titeln übereinstimmen. Das soll die Analyse der Markenwahrnehmung in der Suche verbessern und ein gezielteres SEO-Controlling der im KI-Zeitalter wichtiger werdenden Markenerwähnungen unterstützen.

Screenshot einer Google Search Console mit dem neuen „Branded Queries“-Filter

Update vom 17.11.2025: Debatte um Notwendigkeit von GEO-Tools

Die Schließung des GEO-Tools Lorelight – mit dem man die Sichtbarkeit sowie Brand Mentions in LLMs messen konnte – hat eine Branchendebatte rund um KPIs und die Notwendigkeit von AI-SEO-Tools ausgelöst. Lorelight-Gründer Benjamin Houy begründet das Ende von Lorelight damit, dass es keine spezifischen Tools brauche, die die Sichtbarkeit von Websites in LLMs wie ChatGPT, Perplexity oder Claude analysieren. Er argumentiert, dass spezialisierte GEO-Tools überflüssig seien, da Marken, die bereits über qualitativ hochwertige Inhalte, starke Autorität und klare Markenführung verfügen, auch in AI-basierten Suchergebnissen bereits gut abschneiden.

Search Engine Journal fasst die Meinung einiger SEO-Expert:innen zusammen, die dem entgegen betonen, dass die Analyse von Sichtbarkeit und Performance in KI-generierten Antwortumgebungen nicht ohne (spezialisierte) Monitoring-Tools möglich sei.

Die Debatte zeigt grundlegende Meinungsunterschiede über die zukünftige Rolle von SEO auf. Zwar hat Houy grundsätzlich Recht, allerdings greift seine Annahme unserer Meinung nach etwas zu kurz. Autorität und klare Markenführung entstehen nicht von selbst, sondern müssen gezielt aufgebaut und strategisch begleitet werden. GEO-Tools bieten dazu gerade für kleinere oder spezialisierte Marken wertvolle Einblicke, um die Sichtbarkeit in KI-Tools zu steigern und sich gegenüber etablierten Wettbewerbern zu etablieren. Wer auf diese Hilfsmittel verzichtet, riskiert blinde Flecken in der eigenen Performance-Analyse.

Alexander Beth

Update vom 14.11.2025: Anstieg von Zero Click Searches und deren Ursachen

Aleyda Solís weist auf LinkedIn darauf hin, dass nicht nur AI Overviews für „Zero Click“-SERPs und das Auseinanderdriften von Google und unabhängigen Seiten verantwortlich sind. Zwei weitere Hauptfaktoren sind laut ihr:

  1. Die wachsende Dominanz von Google-eigenen SERP-Elementen oberhalb der organischen Treffer, wie Produkt- oder Videokarussells, die oft auf Google-eigene Dienste (z. B. YouTube) oder Partnerseiten wie Reddit verlinken.

  2. Die zunehmende Bevorzugung großer Marken und Plattformen gegenüber kleineren oder unabhängigen Seiten, sowohl in traditionellen als auch in AI-basierten Suchergebnissen.

Beobachtungen aus SERP-Vergleichen zwischen 2023 und 2025 belegen diese Verschiebung laut Aleyda Solís.

Zwei Screenshots vergleichen Google Suchergebnisseiten von 2023 und 2025 mit verschiedenen SERP-Features

Die Annahmen reihen sich in die Erkenntnisse von Seer Interactive aus der vergangenen Woche ein: Googles Selbstreferentialität stellt einen der größten Einflussfaktoren auf das veränderte Nutzerverhalten in der Google-Suche dar. Für SEO-Content ist es heute umso wichtiger, möglicherweise gesunkenen organischen Traffic in Relation zu setzen und nicht allein das Google-Ranking als Erfolgsindikator heranzuziehen.

Henry Seyffert

Update vom 13.11.2025: Best Practices für den Google AI Mode

Sistrix-Gründer Johannes Beus hat in einer aktuellen Untersuchung die 100 am häufigsten zitierten URLs im Google AI Mode betrachtet – zentrale Erkenntnis: Entscheidend für die Auswahl als Quelle ist nicht das Thema, sondern die Struktur der Webseite. Drei Merkmale sind laut seiner Analyse ausschlaggebend:

  1. Antwort-zentriertes Design: Inhalte sind klar gegliedert und modular aufgebaut, statt in langen Textblöcken präsentiert. Die KI braucht kleinteilige, logisch strukturierte Bausteine, wie Schritt-für-Schritt-Anleitungen, Tabellen etc. – wer SEO-Content erstellt, muss damit rechnen, dass Google die Seite inhaltlich auseinandernimmt und neu zusammensetzt.

  2. Autorität und Aktualität: Die Seiten zeigen E-A-T (Expertise, Authoritativeness, Trustworthiness) sowohl für Bots als auch für Nutzer:innen. Menschliche Signale zählen also nach wie vor: Die erfolgreichsten Seiten geben im Quellcode Urheber der Artikel, Stimmen von Expert:innen und Erstellungs- und Aktualisierungsdaten der Artikel an. Jahrelang nicht aktualisierte Blogposts sind für die KI-Suche praktisch wertlos.

  3. Technische Zugänglichkeit: Die Inhalte sind so aufbereitet, dass KI-Systeme sie problemlos verarbeiten können. Die meistzitierten Seiten sind für künstliche Intelligenz genauso gut lesbar wie für Menschen. Inhaltsverzeichnisse verlinken mit Sprungmarken auf die passenden Artikel-Sections und Tabellen sind wirklich als Tabellen und nicht als Screenshots eingebunden. 

Update vom 11.11.2025: Quellenauswahl bei ChatGPT

Eine groß angelegte Analyse von Josh Blyskal und Jasman Singh aus über 220 Millionen ChatGPT-Antworten zeigt: ChatGPTs Quellenwahl orientiert sich kaum an klassischen SEO-Rankings. Zwar nutzen LLMs häufiger Inhalte aus oberen SERP-Positionen (27,5 % aus Position 0), aber der Unterschied zu Position 1 (27,2 %) ist minimal. Die Auswahl folgt eher semantischer Relevanz als Rankinglogik.

Nur 34,4 % der Antworten enthalten Inhalte von Google-Rankings, und fast 46 % stammen aus Quellen außerhalb der Top 10. Das bestätigt, dass LLMs Inhalte anders priorisieren als klassische Suchmaschinen.

Die Studie zeigt auch, dass die erste Suchanfrage im Query Fan Out in rund 67 % der Fälle den größten Anteil an den Quellen hat, die ChatGPT letztlich zitiert. Seiten sollten daher möglichst gezielt auf typische Einstiegsfragen optimiert sein und diese klar, modular und technisch sauber beantworten.

Alexander Beth

Update vom 10.11.2025: Geringere Klickraten in den Google-Suchergebnissen

Eine neue Analyse der Marketingagentur Seer Interactive, basierend auf über 25 Mio. Impressionen, zeigt, dass es in den Google-Suchergebnissen seit Mitte 2024 zu einem deutlichen Rückgang in den Klickzahlen kam. Bei informativen Suchanfragen, in denen AI Overviews ausgespielt wurden, fiel die organische Klickrate um 61 %, bezahlte Anzeigen verloren 68 %

Zudem fällt auf, dass selbst Suchanfragen, in denen keine KI-Übersicht gezeigt wird, ein Minus von 41 % verbuchten. Search Engine Land führt das auf die gewachsene Relevanz von KI-Suchen und Social Search zurück.

Besonders bemerkenswert ist der Rückgang der organischen Klickrate bei Suchanfragen ohne AI Overviews. Das legt nahe, dass die gesamte Nutzerwahrnehmung und -interaktion in den Suchergebnissen im Wandel ist. Die veränderte Struktur der SERPs mit visuell dominanteren Inhalten oder erweiterten Snippets scheint auch ohne KI-Übersichten zu einer geringeren Klickneigung zu führen. Der SEO-Fokus verschiebt sich zunehmend weg von Klickzahlen hin zu Sichtbarkeit und Markenpräsenz.

Alexander Beth

Update vom 07.11.2025: Sinkende Relevanz der Originalsprache in der KI-Suche

In einem LinkedIn-Post macht Johannes Beus auf eine neue Konkurrenzsituation im KI-Suchumfeld aufmerksam: Google bezieht im AI-Modus zunehmend nicht-deutschsprachige Inhalte, übersetzt diese automatisch via translate.google.com und verwendet sie als Quellen für deutschsprachige Antworten. In der Analyse machen solche Quellen bereits rund 5 % aller Quellenlinks für den deutschen Markt aus – mit steigender Tendenz. 

Fazit: Content konkurriert künftig sprachübergreifend, relevante Inhalte aus aller Welt können sichtbar werden – unabhängig von der Originalsprache.

Update vom 06.11.2025: Suchintention im Fokus und die Nutzung von PAAs

In einem neuen LinkedIn-Post kritisiert Mark Williams-Cook, dass viele SEO-Verantwortliche bei PAA- und KI-Queries immer noch auf „Search Volume“ fixiert sind. Für Longtail-Anfragen sei jedoch nicht das Suchvolumen entscheidend, sondern die dahinterstehende Suchintention

Beispiel: Sieben semantisch fast identische Fragen zu Tinnitus und Ohrstöpseln ergeben zwar jeweils „0 Volumen“, stehen aber alle für dieselbe Nutzerabsicht. 

In Summe kann daraus ein relevantes Traffic-Potenzial entstehen, das mit klassischen Keyword-Tools unterschätzt wird.

Bleiben wir beim Thema Suchintention: In einem weiteren LinkedIn-Post hebt SEO-Experte Mark Williams-Cook hervor, dass „People Also Ask“-Fragen (PAAs) als Ausdruck von Suchintention und nicht als reine Keywords verstanden werden sollten. Anhand von Fragen zu Doc Martens (z. B. „Can a 40 year old woman wear Dr. Martens?“ oder „Do Doc Martens support LGBTQ?“) erklärt er, wie sich Inhalte besser strukturieren lassen: 

  • durch Einbindung von Produkt- und Social-Media-Teams sowie 

  • durch sichtbare Positionierung von Markenwerten (z. B. LGBTQ-Support). 

Ziel ist es, nicht eindimensional zu antworten, sondern Nutzerintentionen ganzheitlich aufzugreifen.

SEO heißt heutzutage: Suchintentionen verstehen, entsprechende Inhalte mit Mehrwert erzeugen und gezielt über verschiedene Kanäle zu transportieren. Die Suche wird im KI-Zeitalter zunehmend multimodal. Nutzer:innen informieren sich nicht nur über Suchmaschinen, sondern erwarten – ebenso wie Algorithmen – konsistente Signale über verschiedene Kanäle (Social Media, Produktseiten, Foren etc.).

Wer relevant bleiben will, muss Content strategisch, kanalübergreifend, nutzerzentriert und im entsprechenden Kontext denken. 

Henry Seyffert

Update vom 05.11.2025: Tracking-Problematik der LLMs

In einem Beitrag auf LinkedIn weist Lily Ray auf ein zentrales Problem bei der Nutzung von LLM-Tracking-Tools hin: Die zunehmende Personalisierung von LLMs (z. B. durch Standort, Interessen oder bisherige Interaktionen) führt dazu, dass ein und derselbe Prompt zu unterschiedlichen Antworten führt. 

In Tests zeigte sich, dass ChatGPT Anfragen lokalisiert („NYC store“) und damit andere Ergebnisse liefert als Tools mit breiterem Fokus. Das stellt Tracking-Anbieter vor Herausforderungen – insbesondere, solange es keine dedizierten Analyseplattformen wie eine „OpenAI Search Console“ oder entsprechende Funktionen in der GSC gibt.

Ohne Zugriff auf echte Nutzerdaten (z. B. Logfiles oder ChatGPT-spezifische User-Agents) sind Reporting-Plattformen faktisch blind für die tatsächlichen LLM-Nutzerpfade. Selbst mit ausgefeilten Tools bleibt die Sichtbarkeit begrenzt, wenn keine echten Nutzungsdaten einbezogen werden. "Intent-Tracking" ersetzt nicht das tatsächliche Nutzerverhalten, sondern zeigt nur Tendenzen. Über die Aussagekraft von Prompt- und LLM-Tracking bestehen geteilte Meinungen.  

Alexander Beth

Update vom 04.11.2025: Relevanz von Markenerwähnungen

In einem aktuellen Podcast zeigt Ahrefs anhand eigener Daten, dass Markenerwähnungen auf Drittseiten – auch ohne Backlink – die Sichtbarkeit in KI-gestützten Suchergebnissen signifikant erhöhen können. Search Engine Journal greift diese Erkenntnisse auf und hebt hervor, dass sich Markenerwähnungen zu einem wichtigen Faktor im modernen Off-Page-SEO entwickeln. Besonders im kommerziellen Umfeld tauchen Brands mit vielen Fremderwähnungen bevorzugt in KI-Antworten auf.

Die Daten von Ahrefs zeigen, dass Relevanz und Vertrauen zunehmend über Reputation vermittelt werden. Backlinks bleiben zwar wichtig, bloße Erwähnungen – beispielsweise in Fachmedien oder Blogs – werden allerdings immer mehr zu einer neuen Währung. Diese Entwicklung stärkt auch den Stellenwert verschiedener Bereiche wie PR und Outreach und sollte in der eigenen Strategie für den Markenaufbau berücksichtigt werden.

Henry Seyffert

Update vom 03.11.2025: Grounding vs. Query Fan Out

In einem Beitrag auf LinkedIn erklärt Mark Williams-Cook einen wichtigen Unterschied im Kontext von KI und SEO: 

  • „Grounding“-Suchanfragen dienen der gezielten Verifikation oder Informationsbeschaffung zum konkreten Prompt und sind auf wenige Suchvorgänge beschränkt. 

  • Query Fan Out“ löst im Gegensatz dazu in tiefgreifenden Recherchemodi zahlreiche Suchanfragen aus, um ein Thema umfassend aus verschiedenen Perspektiven zu beleuchten. 

Beim sogenannten "Grounding" geht es um Punktgenauigkeit – z. B. „Stimmt diese Information?“. "Query Fan Out" verfolgt das Ziel ein breites Verständnis und nicht nur die Verifikation einer Information zu erlangen. Beide Ansätze sollten nicht miteinander verwechselt werden.

Updates aus dem Oktober 2025

Update vom 29.10.2025: Bedeutung strukturierter Daten für die KI-Suche

In einem LinkedIn-Beitrag betont Hanns Kronenberg die zentrale Rolle strukturierter Daten für moderne KI-Systeme. Er widerspricht der These „KI braucht nur Text“ und nennt zwei entscheidende Gründe: Erstens helfen strukturierte Daten beim indirekten Training von LLMs über SERP-Elemente wie Rich Snippets oder Panels. Zweitens werden sie direkt in RAG-Systemen (z. B. bei Google AI, ChatGPT) für präzise Antworten genutzt – inklusive Quellennennung und Zitatfunktion. Sein Fazit: Strukturdaten sind heute ein SEO-Relikt mit neuem Wert als KI-Relevanzbooster.

Strukturierte Daten sind ein strategisches Bindeglied zwischen Content und KI-Systemen. Während klassische SEO sich lange auf Ranking-Optimierung konzentriert hat, rücken nun semantische Klarheit und Maschinenverständlichkeit in den Vordergrund.
Das bedeutet: Wer strukturierte Daten einsetzt, erhöht nicht nur die Sichtbarkeit in der Suche, sondern auch die Wahrscheinlichkeit, in KI-generierten Antworten aufzutauchen. Das ist ein entscheidender Vorteil angesichts der wachsenden Bedeutung von AI Overviews, RAG-Systemen und Zero-Click-Searches.

Alexander Beth

Update vom 28.10.2025: Quellenangaben im Google AI Mode

Laut einer Analyse von Johannes Beus stammen über 40 % der Quellenangaben im Google AI Mode (Deutschland) von Google-eigenen Diensten. YouTube führt die Liste an, gefolgt von Google Translate. Erst auf Platz 3 folgt Wikipedia mit 17 % Anteil. Die 50 häufigsten Quellen im AI Mode überschneiden sich teilweise mit den organisch sichtbarsten Domains, weisen jedoch auch klare Verschiebungen auf – etwa zugunsten von Marken wie Vodafone oder ADAC. Auffällig: In den meisten Fällen wird auf Quellen ohne klickbaren Link verwiesen – die Nennung erfolgt lediglich als Text. Die Daten unterstreichen Googles starke Selbstreferenzierung im eigenen KI-Modus.

Ranking der Top 50 Quellen im AI Mode in Deutschland

Update vom 27.10.2025: "Query Groups" in der Google Search Console

Google führt in der Search Console sogenannte Query Groups ein, die KI-gestützt ähnliche Suchanfragen basierend auf ihrem Search Intent bündeln. Diese Gruppierung erleichtert soll die Analyse mit zusammengefassten Leistungsdaten erleichtern. Die Funktion wird im Leistungsbericht angezeigt und nach Klickzahl sortiert – der Rollout erfolgt schrittweise, zuerst für Properties mit großem Klickvolumen. Ein Ranking-Einfluss besteht laut Google nicht.

Durch die KI-basierte Gruppierung verwandter Suchanfragen nach Suchintention könnt ihr schneller Muster und Nutzerbedürfnisse erkennen, ohne einzelne Keywords mühsam analysieren zu müssen. Dies vereinfacht nicht nur die Content-Optimierung, sondern fördert auch eine fokussiertere, intent-basierte Seitenstruktur. Da KI-Chats die Suchanfragen immer mehr verlängern und die Varianz steigt, dürfte die Funktion besonders für größere Websites mit hohem Traffic eine signifikante Zeitersparnis und präzisere strategische Auswertungen ermöglichen. Kritisch zu beobachten bleibt die Transparenz der Gruppierungslogik.

Henry Seyffert

Update vom 25.10.2025: Funktionsweise des Atlas-Browser

Laut einem LinkedIn-Post von Chris Long basiert die Suchfunktion im Atlas-Browser von ChatGPT stark auf Google-Suchergebnissen. SEO-Experten wie Barry Schwartz und Pedro Dias stellten eine signifikante Übereinstimmung zwischen Atlas-„Search“-Ergebnissen und Google-Rankings fest.

Jean-Christophe Chouinard entdeckte zudem, dass Anfragen aus Atlas in den Serverlogs als Googlebot-Zugriffe erscheinen. Dies deutet darauf hin, dass Atlas Google nicht nur als Datenquelle nutzt, sondern sich aktiv in dessen Infrastruktur einklinkt – etwa durch Tools wie SERPAPI. 

Ergänzend zur Diskussion um den Atlas-Browser von OpenAI relativiert Dan Hinckley die Annahme, Atlas würde aktiv Google scrapen. Er betont: Atlas ist ein Browser, kein Crawler oder Scraper, das heißt Nutzer:innen greifen lediglich über Atlas auf Google zu, ähnlich wie über Chrome.

Update vom 23.10.2025: Bedeutung des OpenAI Browser "Atlas"

Bei LinkedIn erläutert Josh Blyska die strategische Bedeutung von OpenAIs neuem Atlas-Browser, der eine technologische Zeitenwende für SEO markieren könnte. Anders als herkömmliche Browser greift Atlas nicht nur auf Websites zu – er interagiert live mit dem JavaScript-gerenderten Frontend.

DOM-Elemente, Produktfilter und strukturierte Daten werden direkt genutzt, um Antworten zu liefern. Dies sei ein Vorgeschmack auf eine „agentenbasierte“ Webnutzung, in der Geschwindigkeit, Interaktivität und Skriptbarkeit der Seiten entscheidend werden. Gewinner dieser Entwicklung sind laut Josh Seiten, die strukturierte Daten, APIs und schnelle, nutzerfreundliche Oberflächen bieten und nicht bloß solche mit guter Crawlability.

Update vom 22.10.2025: Bedeutung des User-Agents "ChatGPT User"

In einem LinkedIn-Beitrag weist Dan Hinckley auf die Bedeutung des User-Agents „ChatGPT User" hin. Dieser erscheint in Server-Logs, wenn ChatGPT Inhalte einer Website für reale Nutzeranfragen abruft. Website-Betreiber können diese Logdaten nutzen, um zu erkennen, welche Inhalte von ChatGPT aktiv zitiert oder verarbeitet werden.

Besonders wertvoll: Die Analyse zeigt nicht nur Seitenaufrufe, sondern auch die Position im Funnel, in dem ChatGPT Inhalte präsentiert – etwa ob Awareness-, Consideration- oder Conversion-Inhalte übermittelt werden. Für SEOs bedeutet das: Wer gezielt Seiten optimiert, die von ChatGPT erfasst und verwendet werden, kann konkret Einfluss auf die AI-getriebene Customer Journey nehmen.

Über die Logfiles können über den User-Agent wertvolle Informationen gewonnen werden. Zum einen helfen diese Daten dabei, reale Einblicke in die Funktionsweise der KI-Suche und die Relevanz des eigenen Angebots zu erhalten. Zum anderen können relevante Seiten identifiziert und gezielt für die eigenen Ziele überarbeitet werden. Beispielsweise können OnPage-Inhalte gezielt überarbeitet und stärker auf die Zielgruppe und die Funnelposition zugeschnitten werden. So kann das Maximum aus den Klicks herausgeholt werden.

Alexander Beth

Update vom 21.10.2025: Sinn und Unsinn von Prompt-Trackern

Mark Williams-Cook äußert sich kritisch zur wachsenden Praxis, AI Prompt Visibility Tracking im Sinne des klassischen Paradigmas "Ranktracking" zu verwenden. Prompts sollten nicht wie klassische Keywords verstanden und der Ranktracking-Logik unterzogen werden. Er bezeichnet solche Ansätze als „teure Zeitverschwendung“, da LLMs nicht deterministisch ranken, sondern Inhalte kontextuell und dynamisch generieren.

Williams-Cook plädiert dafür, den Fokus von Rankings auf die Frage zu verschieben, wie AI-Modelle Marken, Produkte und Services inhaltlich „verstehen“ – ein Paradigmenwechsel vom messbaren SERP-Ranking hin zu einer qualitativen, AI-basierten Markenwahrnehmung. In Zukunft, so seine These, werde „Brand“ das sein, was KI über ein Unternehmen versteht, nicht was Menschen aktiv darüber sagen oder schreiben.

Aufgrund der gestiegenen Dynamik innerhalb von KI-Suchen hat Mark Williams-Cook hier einen validen Punkt. Prompts sollten nicht in eine Keyword-Logik überführt werden. Dennoch ist das Prompt Tacking ein wichtiger Bestandteil, um zu verstehen, wie KI-Modelle Inhalte interpretieren und wiedergeben. Zudem ist es ein erster Anhaltspunkt für die Optimierung im Zeitalter der KI-Suche.

Henry Seyffert

Update vom 15.10.2025: Mehr AI Overviews in Googles „People Also Ask“

Laut Marc Williams-Cook und Daten von AlsoAsked werden mittlerweile immer mehr Antworten auf Basis von KI-Übersichten im „People Also Ask“-Bereich (ausklappbares FAQ) in den Google Suchergebnissen angezeigt. Seit Juli 2025 ist der Anteil von 17,8 % erst auf 26,6 % im August und dann auf 37,9 % im September gestiegen. Damit hat sich der Anteil in drei Monaten mehr als verdoppelt.

Screenshot einer AI Overview im People Also Ask Bereich der Google Suchergebnisse

Die Daten zeigen, dass Google seine KI-Features an so vielen Stellen wie möglich integrieren möchte. Ob die Anteile der AI Overviews sich so weiterentwickeln oder möglicherweise wieder sinken, muss abgewartet werden. Für die Content-Erstellung heißt das aber, dass FAQ-Sections z. B. am Ende von Blogbeiträgen weiter an Stellenwert für die Suchmaschinenoptimierung verlieren.

Henry Seyffert

Update vom 13.10.2025: Googles „Goldmine“-System

Shaun Anderson hat das 2024 in Googles Content Warehouse Leak bekannt gewordene System „Goldmine“ analysiert, das als Auswahlmechanismus für die Inhalte von Suchmaschinenergebnissen (SERP-Snippets) dient. Demnach analysiert Goldmine Inhalte aus verschiedenen Feldern einer Webseite – darunter <title>, H1, URL, Meta-Description, Absätze und Listen – und wählt auf Basis semantischer Qualität und Passgenauigkeit den besten Text für die Darstellung in den Suchergebnissen aus.

Dabei werden diese „Text Candidates“ auf Basis der Konsistenz zwischen URL und Content, Formatierungen wie Fettungen sowie ihrer Position im Text bewertet. Goldmine arbeitet dabei im Zusammenspiel mit anderen Systemen des Google Algorithmus wie NavBoost (Userverhalten), Radish (Featured Snippets) und SnippetBrain (Snippet-Auswahl), um möglichst relevante, vertrauenswürdige und ansprechende Vorschautexte zu generieren.

Das „Goldmine“-System macht deutlich, wie eng die technische und semantische Suchmaschinenoptimierung verzahnt sind. Klassische Signale wie Metadaten und H1 behalten zwar ihre Bedeutung, es reicht aber nicht aus, sie losgelöst vom restlichen Content zu betrachten. Wer die Anzeige seiner Suchmaschineneinträge gezielt steuern will, sollte seine OnPage-Inhalte so gestalten, dass sie auch als mögliche SERP-Snippets Vertrauen und Relevanz signalisieren.

Alexander Beth

Update vom 09.10.2025: State of AI Report 2025

Der State of AI Report 2025 wurde veröffentlicht. Der jährlich erscheinende KI-Bericht von Investor Nathan Benaich und Air Street Capital gilt seit 2018 als eine der meistgelesenen und vertrauenswürdigsten Analysen zentraler Entwicklungen im Bereich der Künstlichen Intelligenz. Für 2025 wurden folgende Key-Takeaways vorgestellt:

  • Technologische Führerschaft: OpenAI bleibt knapp vorn, doch chinesische Anbieter wie DeepSeek, Qwen und Kimi schließen bei Reasoning- und Coding-Aufgaben auf.

  • Reasoning im Fokus: Fortschritte durch Reinforcement Learning, rubrikbasierte Belohnungen und verifizierbares Reasoning führen zu selbstkorrigierenden, planenden KI-Systemen.

  • KI als Forschungspartner: Tools wie DeepMind’s Co-Scientist und Stanford’s Virtual Lab generieren, testen und validieren Hypothesen eigenständig.

  • Biotechnologie: Profluent’s ProGen3 zeigt, dass Skalierungsgesetze nun auch für Proteine gelten.

  • Embodied AI: Systeme wie Molmo-Act (AI2) und Gemini Robotics 1.5 (Google) führen Schritt-für-Schritt-Planung („Chain-of-Action“) in die physische Welt ein.

  • Kommerzialisierung: 44 % der US-Unternehmen zahlen für KI-Tools (2023: 5 %), durchschnittliche Verträge liegen bei 530.000 $. KI-first-Startups wachsen 1,5× schneller.

  • Verbreitung im Alltag: 95 % der Fachkräfte nutzen KI beruflich oder privat, 76 % zahlen selbst für Tools, viele berichten von nachhaltigen Produktivitätsgewinnen.

  • Industrielle KI-Ära: Multi-GW-Rechenzentren wie Stargate entstehen – Stromversorgung wird zum limitierenden Faktor. Finanzierung u. a. durch Staatsfonds aus den USA, China und den Vereinigten Arabischen Emiraten.

  • Geopolitik: USA setzen auf „America-first-AI“, China forciert Open-Weights-Modelle und Chip-Entwicklung, EU verliert mit dem AI Act an Zugkraft.

  • KI-Sicherheit: Fokus verschiebt sich von Existenzrisiken hin zu praktischer Zuverlässigkeit, Cybersicherheit und Governance. Alignment wird zunehmend simulierbar, Budgets für externe Sicherheitsteams bleiben knapp.

Update vom 08.10.2025: Google AI Mode in Deutschland verfügbar

Der Google AI Mode (KI-Modus) ist ab sofort in Deutschland, Österreich und der Schweiz sowie über 35 weiteren Ländern verfügbar. Anders als bei den AI Overviews, die in den Google Suchergebnissen angezeigt werden, ersetzt der AI Mode die klassische Ergebnissseite und ist als eigener Tab wie Bilder, Videos etc. zugänglich. Damit bietet Google auf Basis des eigenen LLMs Gemini direkt KI-generierte Antworten mit der Möglichkeit zu Folgefragen. Ein flächendeckender Rollout für alle Nutzer:innen wird wohl noch etwas Zeit in Anspruch nehmen – unter google.com/ai kann die Verfügbarkeit des KI-Modus für den eigenen Account geprüft werden.

Die Einführung des AI Mode für den deutschsprachigen Raum wurde lange erwartet und setzt den Wandel in der Darstellung von Suchergebnissen fort. Eine qualitative Studie von Growth Memo zeigt, dass Nutzer:innen im KI-Modus kaum externe Klicks durchführen. Obwohl in den Antworten im KI-Modus Links integriert sind, hält Google mit dem KI-Modus momentan die Nutzer:innen im eigenen System und verweist sie nur selten weiter auf externe Seiten. Es ist also mit einem weiteren Rückgang des organischen Traffics zu rechnen – insbesondere bei informationsgetriebenen Suchanfragen. Unternehmen und Publisher sollten frühzeitig analysieren, wie sich ihre Sichtbarkeit nun verändert.

Henry Seyffert

Update vom 06.10.2025: Apps in ChatGPT

OpenAI hat auf dem DevDay 2025 interaktive Apps direkt in ChatGPT vorgestellt. Nutzer:innen sollen Anwendungen wie Booking.com, Spotify, Coursera und Figma direkt im Chat nutzen können – etwa um Reisen zu planen, Lerninhalte zu finden oder Designs umzusetzen. Entwickler:innen erhalten dabei mit dem neuen Apps SDK Zugriff auf Tools zur Erstellung eigener Anwendungen. Die Apps sollen kontextabhängig im Chat erscheinen, sich per Spracheingabe steuern und künftig auch monetarisieren lassen. In Europa sind ChatGPT Apps vorerst nicht verfügbar.

Mit der Einführung von Apps in ChatGPT öffnet OpenAI ein neues Ökosystem, das über die Generierung von Inhalten hinausgeht. Mit der Integration von Drittanwendungen versucht OpenAI, ChatGPT zu einer zentralen Plattform für Alltags- und Geschäftsprozesse zu machen – vergleichbar mit einem Betriebssystem. Strategisch stärkt man so die eigene Position im Wettbewerb mit Apple, Google und Microsoft und schafft neue Monetarisierungsoptionen für KI-gestützte Anwendungen.

Alexander Beth

Update vom 03.10.2025: Anzahl der Reddit-Zitierungen in ChatGPT eingebrochen

Wie bereits berichtet, ist Reddit eine der am häufigsten zitierten Quellen in ChatGPT. In den zurückliegenden Wochen ist der Anteil, bei dem Reddit als Quelle für Chatbot-Antworten genannt wird, allerdings von fast 15 Prozent auf unter 1 Prozent gesunken. Das wirkte sich zwischenzeitlich sogar negativ auf den Börsenkurs von Reddit aus.

Ob dahinter ein gezielter Eingriff von OpenAI, verbunden mit einem gesunkenen Vertrauen in die Qualität des Contents von Reddit steht, ist momentan unklar. Als eine mögliche Ursache wird auch Googles Deaktivierung des num=100-Parameters gehandelt. Damit konnten sich Nutzer:innen und SEO-Tools bis Mitte September 2025 bis zu 100 Suchergebnisse auf einer Seite anzeigen lassen – mittlerweile sind nur noch maximal 20 Suchergebnisse auf einmal möglich. Wie Kevin Indig bei G2 schreibt, ranken knapp 60 Prozent der Inhalte, zu denen Reddit in Googles Suchergebnissen auftaucht, außerhalb der Top 20. Das wird als Grund dafür gesehen, dass Reddit nun auch seltener in ChatGPT-Antworten auftaucht.

Screenshot eines Liniendiagramms von Promptwatch, das die Zitierungshäufigkeit verschiedener Quellen in LLMs im Zeitverlauf zeigt

Update vom 02.10.2025: Identifizierung von Web-Suchanfragen

Ein aktueller SEO-Tipp von Mark Williams-Cook zeigt, wie man nachvollziehen kann, welche Web-Suchanfragen ChatGPT beim Grounding verwendet – also zur Informationsrecherche für seine Antworten. Diese Einblicke können helfen zu verstehen, welche Inhalte von Webseiten in Antworten einfließen und somit SEO-relevant sind.

So funktioniert es (im Chrome-Browser):

  • F12 drücken, um die Developer Tools zu öffnen

  • Eine eigene Frage in ChatGPT stellen

  • Zum Tab „Network“ wechseln

  • Nach unten scrollen und auf „conversation“ klicken

  • Auf „Response“ klicken

  • Nach „search_model_queries“ suchen

Dieses Vorgehen liefert wertvolle Transparenz darüber, wie ChatGPT Websuchen für Grounding-Informationen formuliert und kann als Werkzeug in der AI-SEO-Optimierung genutzt werden.
Es bietet Einblick in die Query-Logik, wodurch sich Hinweise zur Content-Optimierung ableiten lassen. Grounding-Queries dienen beispielsweise zur Orientierung, welche Themenfelder und semantische Cluster abgedeckt werden sollten und wo eventuelle Content-Gaps liegen.

Alexander Beth

Update vom 01.10.2025: Visual Search Fan-Out

Google hat die neue Technik „Visual Search Fan-Out“ vorgestellt, die die Bildersuche grundlegend verbessert. Statt Objekte nur zu erkennen, versteht das System Bilder im Kontext – durch die Kombination von visuellen Details und natürlicher Sprache. Laut David Konitzny auf LinkedIn ermöglicht dies unter anderem: 

  • Interaktive visuelle Exploration: Die KI wandelt Sprachbeschreibungen in konkrete Bildvorschläge um und lernt aus Folgefragen.

  • Kontextbewusstes Shopping: Produkte lassen sich per Beschreibung nach Stil, Farbe oder Passform finden – ganz ohne Filter.

  • Präzisere Bilderkennung: Hauptmotiv, Details und Hintergrund eines Bildes werden gemeinsam ausgewertet für relevantere Treffer.

  • Multimodale Sucheingaben: Die Suche funktioniert flexibel mit Text, Bildern oder Fotos – kombiniert für optimale Ergebnisse.

Ziel ist es, Suchanfragen visuell intelligenter, relevanter und benutzerfreundlicher zu gestalten.

Updates aus dem September 2025

Update vom 30.09.2025: ChatGPT Shopping

OpenAI hat den neuen Instant Checkout für ChatGPT vorgestellt, unterstützt durch das gemeinsam mit Stripe entwickelte Agentic Commerce Protocol (ACP). Damit wird ChatGPT vom reinen Ratgeber zum vollwertigen E-Commerce-Agenten: Nutzer können direkt im Chat Produkte suchen und kaufen – nahtlos, ohne die Konversation zu verlassen. US-Nutzer (Free, Plus, Pro) können bereits bei Etsy shoppen, Shopify folgt bald.

Zentrale Merkmale laut Aleyda Solís:

  • Produktvorschläge sind organisch und ungesponsert, basierend auf Relevanz, nicht Bezahlung.

  • Zahlung, Versand und Fulfillment erfolgen über die Systeme der Händler.

  • ChatGPT fungiert als sicherer Vermittler, nicht als Shop-Betreiber.

  • Für Händler fällt nur bei erfolgreichem Kauf eine geringe Gebühr an.

  • Produkte mit Instant Checkout werden nicht bevorzugt gerankt.

  • Unterstützung derzeit für Einzelartikel, Warenkorb-Funktion geplant.

  • Händler benötigen einen strukturierten Produkt-Feed gemäß Feed-Spec und ACP-Anbindung.

Ergänzende SEO-Perspektive laut Josh Blyskal:

  • ChatGPT nutzt keine klassischen Keyword-Felder – Google Shopping-Feeds sind ungeeignet.

  • Datenfülle entscheidet: Produkte mit vollständig ausgefüllten Feldern (z. B. Material, Gewicht, Preis, Lieferzeit) haben größere Sichtbarkeitschancen.

  • Das Feld [description] (bis zu 5.000 Zeichen) wird zum Schlüssel für Longtail-Optimierung.

  • Strategieempfehlung: strukturierte, vollständige und kontextreiche Produktdaten bereitstellen.

Update vom 26.09.2025: ChatGPT Pulse

OpenAI hat mit ChatGPT Pulse eine neue Funktion eingeführt: einen personalisierten täglichen Content-Feed, der auf Chatverläufen, Gedächtnisfunktionen und verbundenen Apps basiert. Laut Dan Hinckley ähnelt Pulse dem Prinzip von Google Discover, bietet jedoch eine tiefer kontextualisierte Ausspielung – direkt basierend auf Nutzerintentionen und -projekten.

Für Publisher eröffnet das neue Potenziale:

  • Neue Traffic-Quelle: Pulse könnte zu einem relevanten Distributionskanal wie Google Discover werden.

  • Kontextbasierte Ausspielung: Inhalte können gezielt entlang individueller Nutzerbedürfnisse empfohlen werden.

  • Kurzlebigkeit, aber hoher Impact: Die Empfehlungen aktualisieren sich täglich und treffen genau den Nutzerbedarf zum richtigen Zeitpunkt.

Pulse steht damit sinnbildlich für eine mögliche Neudefinition von Content-Strategien im KI-Zeitalter.

ChatGPT Pulse geht weit über klassische Empfehlungslogiken wie bei Google Discover hinaus: Die Ausspielung ist personalisierter, kontextnäher und potenziell treffsicherer – direkt entlang der individuellen Projekte und Interessen der Nutzer:innen.


Für Publisher bedeutet das: Inhalte müssen konkret und relevant sein.

Die Schnelllebigkeit des Formats verlangt dabei präzise, sofort nutzbare Inhalte. Pulse könnte so zum Vorbild eines neuen Content-Ökosystems werden, in dem Relevanz nicht mehr über Keywords, sondern über echtes Nutzerverständnis definiert wird.

Henry Seyffert

Update vom 24.09.2025: Weniger Websuchen bei ChatGPT

Laut einer Analyse von Johannes Beus greift ChatGPT aktuell deutlich seltener auf Websuchen zurück – insbesondere bei Nutzung ohne Konto. Der Anteil webgestützter Antworten sank innerhalb von zwei Wochen von über 15 % auf unter 2,5 %.

ChatGPT nutzt Websuchen traditionell als Ergänzung zum internen Wissen, um der Problematik veralteter oder halluzinierter Inhalte entgegenzuwirken. Der Rückgang könnte im Zusammenhang mit Googles restriktiverem Umgang mit dem Crawlen eigener Suchergebnisse stehen. Standardmäßig erfolgt die Websuche über Bing.

Update vom 22.09.2025: Beschwerde der Deutschen Medienbranche

Eine Allianz aus Medien-, Digitalverbänden und NGOs hat bei der Bundesnetzagentur Beschwerde gegen Googles AI Overviews eingereicht. Laut der VAUNET verletzen die KI-generierten Suchergebnisse den Digital Services Act (DSA), gefährden die Medienvielfalt und führen zu Reichweiten- sowie Einnahmeverlusten unabhängiger Medien. Kritisiert werden insbesondere Intransparenz und die Verbreitung potenziell fehlerhafter Inhalte. Die Allianz fordert regulatorische Maßnahmen und mögliche Sanktionen durch die EU-Kommission.

Bei der Beschwerde handelt es sich um die erste koordinierte Aktion dieser Größenordnung aus Deutschland – dahinter stehen weite Teile der deutschen Medienlandschaft. Vaunet und seine Unterverbände vertreten die Interessen der privaten Radio- und TV-Sender sowie der Print- und Buchverlage. Darunter sind auch Branchengrößen wie RTL, ProSiebenSat1, Axel Springer und Bertelsmann.

Update vom 20.09.2025: "Fast SEO" = der neue Weg?

Laut Tim Soulo (CMO bei Ahrefs) endet das Zeitalter des "Evergreen SEO Content" – stattdessen beginnt die Ära des „Fast SEO“.

Hintergrund: Viele allgemeine Themen sind längst durchoptimiert und gelten als „Common Knowledge“, weshalb Google häufiger direkt KI-Antworten liefert.

Relevanz ergibt sich nun aus aktuellen Trends, deren Content Google (noch) nicht automatisiert beantworten kann – was Publishern einen strategischen Vorsprung verschafft. Content-Teams sollten daher eher wie Newsrooms agieren: schnell, aktuell und trendfokussiert.

Tim Soulo trifft mit seiner Einschätzung einen Nerv: Evergreen Content war lange effektiv, führte aber oft zu eintönigem Einheitsbrei ohne Mehrwert. Viele Inhalte in den SERPs ähneln sich stark und sind austauschbar – KI-Zusammenfassungen wirken hier fast wie eine Bereicherung.

Der „Fast SEO“-Ansatz fordert nun mehr Relevanz, Aktualität und fundierte Beiträge mit echter Expertise statt Wiederholungen. Das verändert den Anspruch an Content-Strategien grundlegend. Aus Nutzersicht können wir diesen Ansatz nur begrüßen.

Alexander Beth

Update vom 18.09.2025: Gemini direkt im Google-Browser

Laut Marie Haynes integriert Google seine Gemini-KI direkt in den Chrome-Browser – laut Google das größte Chrome-Update überhaupt. Die Funktion ist vorerst nur für Mac und Windows verfügbar, nicht aber für Chromebooks. Nutzer:innen können per KI-Button mit Gemini über die aktuell besuchte Seite interagieren.

Gemini agiert dabei als „Agentic browsing assistant“: Termine buchen, Produkte finden, Tabs zusammenfassen, Browserverlauf analysieren und mit Google-Diensten (z. B. Maps, YouTube, Kalender) interagieren. Auch KI-gestützte Suchanfragen direkt aus der Adressleiste starten bald in den USA.

Die Integration von Gemini direkt im Browser ist das größte Chrome-Update seit Langem. Google verzeichnet noch immer eine wahnsinnig große Nutzerbasis. Schafft es der Konzern, die eigenen KI-Lösungen in die hauseigenen Systeme niedrigschwellig zu integrieren sowie die Akzeptanz und Nutzung zu pushen, kann sich Google gegen immer stärkere Konkurrenz behaupten.

Henry Seyffert

Update vom 16.09.2025: Wirksamkeit von Reddit als SEO-Kanal

Erwan Gauthier teilt Erkenntnisse aus einem dreimonatigen Reddit-Experiment bei lemlist. Die Datengrundlage:

  • 12 Threads

  • 28 Diskussionen

  • +22 % Traffic

  • +20 % höhere Conversion

Das Experiment von lemlist zeigt Reddit als effektiven, aber anspruchsvollen Growth-Kanal.

Erkenntnisse: Jede Subreddit hat eigene „Kulturregeln“ inkl. unterschiedlicher Moderatorenaktivität. Automatische Antworten (selbst mit GPT) führen schnell zur Sperre und kurzfristige Leads gibt es kaum – dafür langfristige SEO- und AI-Synergien, z. B. durch Sichtbarkeit in ChatGPT-Antworten.

Nachdem vor allem Reddit als häufig zitierte Quelle bei ChatGPT auftaucht, wurden Diskussionen über das SEO-Potenzial des Kanals – sowohl als Trust- als auch als Trafficquelle – laut.


Entgegen vieler Meinungen ist Reddit als Trafficquelle kein „Quick Win“.

Es zeigt sich, dass das Potenzial des Kanals bisher nur mit echtem, menschlichem Engagement gehoben werden kann.

Alexander Beth

Update vom 15.09.2025: OpenAI-Studie zur Nutzung von ChatGPT

In einer neuen Studie von OpenAI, durchgeführt mit Harvard-Ökonom David J. Deming, wurden 1,5 Mio. Chatverläufe zwischen Mai 2024 und Juni 2025 analysiert.

Die Ergebnisse zeigen, dass die private Nutzung von ChatGPT mit 73 % die berufliche Nutzung deutlich übersteigt. Frauen stellen inzwischen mit 52 % die Mehrheit der Nutzenden, während fast die Hälfte der untersuchten Unterhaltungen von jungen Menschen (18–25 Jahre) stammt. Der am stärksten wachsende Nutzeranteil kommt aus einkommensschwachen Ländern. Hauptnutzungsarten sind:

  • praktische Anleitungen (28,3 %)

  • Textüberarbeitung (28,1 %)

  • und Informationssuche (24 %).

Abbildung eines Balkendiagramms der FAZ, das die Verteilung der Gründe für die Nutzung von ChatGPT anteilig zeigt

Update vom 14.09.2025: Google deaktiviert "&num=100"-Parameter

Laut Hanns Kronenberg hat Google den num-Parameter deaktiviert. Dieser erlaubte die Anzeige von 100 Suchergebnissen auf einer Seite. Vor allem SEO-Tools, Rank-Tracker und Scraping-Systeme haben dies genutzt, um schnell alle Rankings einer Domain zu analysieren.

Mit der Deaktivierung können nun nur noch die Top-10-Ergebnisse pro Anfrage abgerufen werden. Für Anbieter, die weiterhin Daten bis Position 100 benötigen, bedeutet das einen zehnfachen Mehraufwand und entsprechend höhere Kosten. Besonders betroffen sind SEO-Tool-Anbieter und Datenanalysten mit Fokus auf tiefergehende Rankings.

Brodie Clark analysiert die Folgen der Deaktivierung des Google-Parameters &num=100. Nach der Abschaltung zeigen sich laut seinem LinkedIn-Post massive Effekte:

  • Google Search Console (GSC) verzeichnet teils dramatische Rückgänge bei Impressionen, da viele dieser Daten offenbar von Bot-Abfragen (Rank-Tracker) stammten.

  • Die bisherige Erklärung des „Great Decoupling“ (starke Impressionen durch AI Overviews) wird damit infrage gestellt – womöglich waren es in Wahrheit Bot-Daten.

  • Tool-Anbieter wie Semrush haben Probleme, vollständige Rankings auszuspielen.

  • Abrufkosten steigen stark.

  • Google könnte damit Scraping eindämmen und die Datenqualität verbessern.

Mit der Deaktivierung des "&num=100"-Parameters könnte ein realistischeres Bild der echten, menschlichen Sichtbarkeit in den Google-Suchergebnissen entstehen. Rankingangaben jenseits der Top 10 sind damit allerdings gerade in vielen SEO-Tools unbrauchbar – die Zahlen für aktuelle Rankings und Impressionen sollten deshalb auch nicht mit Vorjahres- oder Vormonatszeiträumen verglichen werden. Wichtig ist, dass die Änderung keine Auswirkung auf den tatsächlichen Traffic hat. Es handelt sich also nur um ein Messproblem.

Henry Seyffert

Update vom 09.09.2025: Audience Overlap zwischen ChatGPT und Google

Laut aktuellen Daten von Similarweb, die von SEO-Experte Brodie Clark geteilt wurden, nutzten im August 2025 rund 95,3 % der ChatGPT-Nutzer auch Google, während nur 14,3 % der Google-Nutzer ChatGPT aufriefen.

Dies unterstreicht die anhaltende Marktdominanz von Google, trotz des rasanten Wachstums von ChatGPT.

Interessant für die SEO-Branche: Obwohl ChatGPT zunehmend als Such-Alternative wahrgenommen wird, bleibt Google klarer Hauptnutzungskanal. Gleichzeitig sei ein Rückgang des Referral-Traffics von ChatGPT zu beobachten – teils zugunsten anderer Suchdienste wie Bing.

Die ChatGPT-Nutzung wächst weiter rasant. Dennoch sind die Rufe nach "Google-Killer" verfrüht. Momentan ergänzen sich ChatGPT und Google bei der Suche nach Informationen – zumindest laut den Desktop-Daten. Auch frühere Meldungen (Beispiel1, Beispiel2, Beispiel3 und Beispiel4) zeigten, dass Google und ChatGPT koexistieren. Google bleibt bis auf Weiteres einer der wichtigsten Kanäle und sollte bei den SEO-Maßnahmen nicht vernachlässigt werden. 

Alexander Beth

Update vom 08.09.2025: AI Visibility Index von Semrush vorgestellt

Semrush hat den AI Visibility Index vorgestellt – einen frei zugänglichen Benchmark, der aufzeigt, wie sichtbar Marken und Quellen in AI-generierten Suchantworten sind – insbesondere in Systemen wie ChatGPT oder dem Google AI Mode.

Der Index liefert monatlich aktualisierte Daten zu den meistgenannten Marken, Domains und Inhalten in AI-Antworten. Dabei fällt laut Aleyda Solís auf:

  • in ChatGPT liegen vor allem Community-basierte Quellen wie Reddit und Wikipedia auf den Plätzen 1 und 2 der Quellennennung.

  • im Google AI Mode hingegen liegen stärker kuratierte Informationsplattformen wie Google selbst oder YouTube auf den vorderen Plätzen.

Die Analyse basiert auf systematischen Auswertungen der Inhalte, die in AI-Suchergebnissen zitiert oder verwertet werden.

KI-Modelle setzen großes Vertrauen in Community-Quellen (z. B. Foren, Review-Seiten etc.). Neben klassischem SEO (Backlinks, Autorität etc.) spielen – wie bereits häufig erwähnt – Zitierungen eine große Rolle. Für Marken kann es sich lohnen, in solchen Quellen aktiv zu sein und hier nützliche, aktuelle Informationen zur Verfügung zu stellen. 

Henry Seyffert

Update vom 06.09.2025: Neue Black-Hat SEO-Techniken

In einem aktuellen Beitrag warnt Mark Williams-Cook vor einer neuen Form von Black-Hat-Taktiken im KI-Zeitalter.

Bei der Verarbeitung von KI-Bildern werden diese in der Regel verkleinert, um Ressourcen zu sparen. Bei dieser Skalierung kann Text hinzugefügt werden, der für das menschliche Auge nicht sichtbar – aber von Google Gemini und anderen KI-Modellen erkennbar ist. Diese Technik wurde bereits missbraucht, um z. B. versteckte Prompts einzuschleusen, die sensible Aktionen auslösen.

Die potenzielle Gefahr: Bilder könnten als manipulative Inhalte genutzt und potenziell dazu verwendet werden, versteckte Nachrichten an KI-Agenten zu übermitteln und ihnen Informationen darüber zu liefern, welchen Quellen, Marken und Produkten sie vertrauen oder misstrauen sollen. 

Black-Hat-SEO ist keine neue Erfindung. Vermeintlich clevere SEOs versuchen immer wieder, Lücken in neuen Technologien und Systemen auszunutzen. Was kurzfristig durch Manipulation zu Erfolgen führt, wirkt sich in der Regel jedoch langfristig negativ auf die SEO-Bemühungen aus. Gerade in Zeiten des Umbruchs sollte man hier besonders vorsichtig sein und eventuelle Shortcuts hinterfragen.

Alexander Beth

Update vom 05.09.2025: SEO als Brand-Kanal?

In einem LinkedIn-Beitrag argumentiert John Morabito, dass Click-Through-Rates (CTR) die falsche Metrik für die Bewertung von LLM-Suchergebnissen seien. LLMs wie Gemini oder ChatGPT seien nicht dafür gemacht, Traffic zu generieren, sondern Antworten direkt zu liefern – oft ohne sichtbare Links. 

Der wahre Wert liegt in der Markenpräsenz innerhalb der Antworten: Sie prägen Wahrnehmung, fördern Wiedererkennung und beeinflussen spätere Suchentscheidungen. AI-SEO sollte sich daher auf Citations und mentale Sichtbarkeit konzentrieren – nicht auf kurzfristige Klicks.

Damit reiht sich John in die Riege derer ein, die einen fundamentalen Shift des SEO-Kanals beobachten.

SEO in Zeiten der KI-Suche verändert sich zunehmend zu einem Brand-Kanal – diese Erkenntnis scheint sich immer mehr zu vertiefen. Unsere Auffassung von SEO ging bereits vor der KI-Entwicklung über einen reinen Performance-Kanal hinaus. Während die klassische Suche weiterhin relevant bleibt, sind Zitierungen statt kurzfristiger Klicks das neue Ziel im KI-Zeitalter. Die größte Herausforderung besteht dabei im Monitoring dieser Entwicklung.

Henry Seyffert

Update vom 04.09.2025: LinkedIn-Inhalte in der KI-Suche

Laut einem LinkedIn-Beitrag von Tom Niezgoda, CMO bei Surfer, zeigt eine Analyse von 4,8 Mio. Mentions in AI Overviews, dass bestimmte LinkedIn-Inhalte besonders häufig zitiert werden. Am stärksten vertreten sind 

  • Pulse-Artikel

  • Ratgeberverzeichnisse 

  • normale Posts 

Überraschend: LinkedIn-Artikel ranken häufig besser als klassische Webseiten – und erhalten dadurch überproportional viele AI-Zitate. Die Analyse basiert auf 46 Mio. Zitierungen in 36 Mio. AI Overviews der letzten sechs Monate.

Unternehmen sollten LinkedIn strategisch als Content-Plattform nutzen. Das eröffnet neue Wege zur Sichtbarkeit – auch jenseits klassischer SEO. Durch gezieltes Publishing auf LinkedIn können Firmen ihre Reichweite steigern, Thought Leadership stärken, Personal Brands fördern und von der hohen Relevanz dieser Inhalte in KI-generierten Suchergebnissen profitieren. Cross-Publishing und die Aktivierung von Mitarbeitenden als Expert:innen bieten zusätzliche Hebel für mehr digitale Präsenz.

Alexander Beth

Update vom 01.09.2025: Wachstum der KI-Nutzung sinkt; traditionelle Suche bleibt dominant

Laut einer neuen Analyse von Rand Fishkin, basierend auf Clickstream-Daten von Datos (Semrush), nutzen 21 % der US-Amerikaner:innen KI-Tools wie ChatGPT oder Claude mindestens zehnmal pro Monat – ein deutlicher Anstieg gegenüber 3 % im Januar 2023.

Dennoch bleiben klassische Suchmaschinen dominierend: 95 % der Nutzer:innen verwenden weiterhin regelmäßig Google, Bing & Co, davon 86 % sogar intensiv.

Während die Nutzung von KI-Tools rasant gewachsen ist, flacht das Wachstum seit Ende 2024 allerdings merklich ab. Auffällig ist auch: Viele neue KI-Nutzer:innen erhöhen gleichzeitig ihre Suchmaschinennutzung.

Die Studie weist das gängige Narrativ „KI ersetzt Suche“ erst einmal etwas zurück. Die nahezu unveränderte Nutzungshäufigkeit von Google & Co zeigt, dass organische Suche nach wie vor essenziell für die Sichtbarkeit von Websites ist. Wer SEO-Strategien plant, sollte daher KI-gestützte Informationsquellen in die Content-Distribution und Nutzer:innenanalyse integrieren, ohne dabei den Kernbereich der klassischen Suchmaschinenoptimierung zu vernachlässigen.

Henry Seyffert

Updates aus dem August 2025

Update vom 28.08.2025: Neues Google Spam-Update

Google hat den Rollout des August 2025 Spam Updates gestartet. Laut LinkedIn-Meldung handelt es sich um ein reguläres Spam-Update, das weltweit in allen Sprachen wirkt. Der Abschluss des Rollouts wird über das Google Search Status Dashboard bekannt gegeben. Die Dauer wird mit „einigen Wochen“ angegeben, jedoch ohne klare Zeitspanne.

Spam Updates richten sich gegen Websites, die gegen die Google-Richtlinien verstoßen – z. B. durch Doorway Pages oder unnatürliches Linkbuilding.

In der Praxis zeigt sich jedoch oft, dass nicht alle auffälligen Seiten betroffen sind. Google betont den Zweck der Qualitätsverbesserung der Suchergebnisse.

Update vom 27.08.2025: Mehr Inline Links im AI Mode

Laut Johannes Beus kündigt Google mehr Inline Links im AI Mode an. Robby Stein (VP Search) bestätigte auf X (ehem. Twitter), dass künftig mehr direkte Links im Antworttext erscheinen sollen – zusätzlich zu bestehenden UI-Elementen wie Link-Karussell und Web Guides.

Eine Analyse von 2,5 Mio. AI-Antworten zeigt: Nur 53 % enthalten überhaupt Inline Links. Fast 59 % davon führen zu Google-eigenen Angeboten, 12,4 % der Prompts enthalten solche internen Links. Externe Domains wie YouTube (1,87 %), Wikipedia (1,13 %) oder Reddit (0,59 %) folgen weit abgeschlagen.

Update vom 25.08.2025: Referral-Traffic von ChatGPT bricht ein und verschiebt sich

Laut einem LinkedIn-Beitrag von Josh Blyskal ist der Referral-Traffic von ChatGPT seit dem 21. Juli um 52 % eingebrochen.

Basis der Analyse ist ein Datensatz mit über 1 Milliarde ChatGPT-Zitierungen und über 1 Million daraus resultierenden Website-Besuchen. Seit dem 23. Juli steigen die Zitierungen von Wikipedia (+62 %) und Reddit (+87 %) stark an, beide Plattformen dominieren nun zusammen mit TechRadar über 22 % aller ChatGPT-Verweise.

Markenwebsites verlieren dadurch Sichtbarkeit. Ursache ist laut Blyskal kein Modellwechsel (z. B. GPT-5), sondern eine Veränderung in der Gewichtung von Quellen innerhalb der RAG-Architektur. OpenAI bevorzugt „antwortstarke“ Seiten, was Marken dazu zwingt, Inhalte mit echtem Mehrwert statt reinem Conversion-Fokus zu produzieren.

Für Marken und Publisher ist diese Entwicklung bedenklich, da der Anteil des durch KI-Chatbots vermittelten Traffics global weiterhin unter einem Prozent liegt – trotz starken Wachstums. Wenn selbst dieser kleine Anteil stark konsolidiert ist, verschärft sich die Abhängigkeit von wenigen, bevorzugten Plattformen.

Alexander Beth

Update vom 22.08.2025: ChatGPT Leak

Ein Leak aus den Konfigurationsdateien von ChatGPT zeigt erstmals, wie das Re-Ranking bei der Live-Websuche funktioniert. Die Analyse von Metehan Yesilyurt offenbart vier entscheidende Faktoren: 

1) Ein Re-Ranking-Modell (ret-rr-skysight-v3) entscheidet über die Sichtbarkeit von Quellen.

2) Aktualität ist essenziell (use_freshness_scoring_profile: true).

3) Suchintentionen werden explizit erkannt (enable_query_intent: true).

4) Fachterminologie erhöht die Sichtbarkeit (vocabulary_search_enabled: true). 

Die Konsequenzen aus diesem Leak liegen auf der Hand.

Aktualität ist wichtiger als bloßer Umfang: Selbst ein ausführlicher Artikel kann hinter einem kompakten, aber aktuellen Beitrag zurückfallen. Entscheidend sind zudem Autorität und eine saubere technische Sichtbarkeit – nur relevanter, vertrauenswürdiger und gut strukturierter Content hat im Re-Ranking die besten Chancen.

Der ChatGPT-Leak bestätigt einmal mehr, wie Inhalte im Netz präsentiert werden sollten. SEO-Inhalte müssen substanziell, aktuell und klar ausgerichtet sein, um bei ChatGPT sichtbar zu bleiben. Statt generischem Top-Funnel-Content sollten sich SEOs gezielt mit den Suchintentionen auseinandersetzen und zielgerichtete Inhalte veröffentlichen. 

Henry Seyffert

Update vom 21.08.2025: Hosting-Anbieter stoppen Crawler

Laut Aleyda Solís blockieren manche Hosting-Plattformen standardmäßig KI-Crawler – ohne Website-Betreiber zu informieren. Ursache ist der steigende Traffic durch KI-Bots, der die Serverlast erhöht. Anbieter reagieren mit Blacklists, die AI-Zugriffe komplett sperren. Solís betont: Ein solches Vorgehen sollte transparent erfolgen, mit Opt-out-Option für Kund:innen. In ihrem Fall konnten die Crawler nach Anfrage wieder zugreifen – bis auf ClaudeBot. Ihre Empfehlung: Logfiles prüfen und regelmäßig testen, ob KI-Crawler die Website erreichen.

Blacklists für die Eingrenzung der Serverlast auf Seiten der Hosting-Anbieter sind verständlich – ohne eine Kommunikation an die Webseitenbetreiber:innen jedoch ein No-Go. Es wird immer wieder betont, wie wichtig die technischen Grundlagen i. S. d. Erreichbarkeit der Inhalte sind. Wenn KI-Bots die Inhalte nicht erreichen, kann auch die beste Optimierung dieser nichts ausrichten. Prüft regelmäßig, ob eure Inhalte erreichbar sind und von verschiedenen Bots gecrawlt werden können.

Alexander Beth

Update vom 20.08.2025: Zusammenhang zwischen KI-Zitaten und Top10-Ranking

Laut einer Studie von Louise Linehan und Xibeijia Guan, geteilt von Chris Long, überschneiden sich nur 12 % der URLs, die von LLMs wie ChatGPT zitiert werden, mit den Top-10-Ergebnissen in der Google-Suche.

ChatGPT selbst zeigt sogar nur 8 % Überschneidung mit Google und Bing. Perplexity liegt mit 28 % (Google) bzw. 14 % (Bing) deutlich näher an den Suchergebnissen.

AI Overviews in der Google-Suche zeigen hingegen eine 76 %ige Übereinstimmung. Die Studie basiert auf 15.000 Prompts, analysiert über Ahrefs Brand Radar.

Die Untersuchung von Louise Linehan und Xibeijia Guan schlägt einen ähnlichen Ton an, wie die Untersuchung von Josh Blyskal aus dem Juli. Neben dem AI Mode wurden hier weitere KI-Modelle untersucht. Die Auswahl der Quellen scheint diverser zu sein, wodurch kleinere Publisher Hoffnung schöpfen können.

Alexander Beth

Update vom 19.08.2025: Reddit auf dem Vormarsch

Laut Johannes Beus ist Reddit in Deutschland kurz davor, in die Top 10 der sichtbarsten Domains aufzusteigen – aktuell liegt die Plattform auf Platz 13. Der Sichtbarkeitsindex hat ein neues Allzeithoch erreicht. In den USA ist Reddit bereits die zweitstärkste Domain nach YouTube. Google bevorzugt Inhalte mit originären Erfahrungen und Perspektiven – ein Vorteil für Plattformen wie Reddit, trotz gelegentlicher Qualitätskritik.

Der Vormarsch von Reddit zeigt einmal mehr die Wichtigkeit des E-E-A-T-Prinzips. Persönliche Erfahrungen werden immer wichtiger, um sich gegen die Masse an generischen Beiträgen im Netz durchzusetzen. 

Henry Seyffert

Update vom 15.08.2025: ChatGPT erweitert die Suche bei Google

Laut einer Semrush-Studie ersetzt ChatGPT Google nicht, sondern erweitert die Suche: Nutzer:innen, die im Q1 2025 erstmals ChatGPT verwendeten, suchten in den folgenden 90 Tagen nicht weniger über Google – die Zahl der Google-Sessions blieb konstant.

Dies steht im Widerspruch mit anderen Untersuchungen, die eine Abnahme der Google Sessions sehen. Eine andere Studie kommt zum Ergebnis: Nach 23 Monaten ChatGPT-Abo sinken Google-Seitenaufrufe im Schnitt um 8 %.

Die unterschiedlichen Aussagen entstehen womöglich durch die Art der Datenerfassung der Semrush-Studie. 

  • Die Studie basiert auf Clickstream-Daten von Desktop-Usern aus den USA. Desktop-Nutzer:innen sind älter und eher "Google Traditionalisten". Mobile-first und App-User wurden nicht betrachtet. 

  • Einschränkungen ergeben sich außerdem durch fehlende Erfassung von App-Nutzung und Suchintensität. Es wurde lediglich erfasst, ob eine Session gestartet wurde und nicht, wie viele Suchanfragen innerhalb einer Session genutzt wurden. 

Trotz der unterschiedlichen Aussagen der Studien bleibt festzuhalten, dass es endlich belastbare Daten zum Nutzerverhalten gibt. Bisher war vieles in der Diskussion um die Neuerungen der KI-Suche auf einzelne Experimente oder Beobachtungen gestützt. Studien wie die von Semrush liefern wertvolle Momentaufnahmen, die die Diskussion trotz verschiedener Einschränkungen voranbringen. Für das bessere Verständnis des Nutzerverhaltens in Zeiten der KI-Suche ist die Untersuchung weiterer Nutzersegmente und längere Zeiträume notwendig. 

Alexander Beth

Update vom 13.08.2025: Preferred Sources in Indien und den USA

Google hat laut SEO Südwest das Feature „Preferred Sources“ in den USA und Indien ausgerollt. Nutzer:innen können über ein Stern-Icon in den Schlagzeilen gezielt Websites als bevorzugte Quellen markieren, die dann häufiger in den Top Stories erscheinen. Diese Seiten werden zusätzlich im neuen Bereich „From your sources“ in der Suche hervorgehoben. Für Website-Betreiber bietet sich dadurch eine neue Chance zur Sichtbarkeitssteigerung. Ein offizieller Rollout-Zeitplan für weitere Länder ist noch nicht bekannt.

Update vom 08.08.2025: Wie LLMs Websiten lesen und verstehen

In einem LinkedIn-Beitrag von Dan Hinckley zeigt ein Test mit dem neuen OpenAI-Modell gpt-oss:120b, wie Large Language Models (LLMs) Webseiten lesen: In Ollamas Web-Modus werden meist nur die ersten 100 Zeilen einer Seite geladen, um kontextuelle Informationen zu extrahieren. Ist der wichtigste Content weiter unten platziert, wird er unter Umständen gar nicht erfasst. Für SEO bedeutet das: Wer für LLMs oder AI-Suche optimiert, sollte zentrale Botschaften ganz oben platzieren.

Ein SEO-Basic gilt weiterhin und im Zeitalter der KI-Suche anscheinend verstärkt: Reduziere den "Fluff" und komme direkt zum Punkt. Wer die Chance auf eine Zitierung wahren will, sollte sich intensiv mit der Strukturierung seiner Inhalte auseinandersetzen.

Alexander Beth

Update vom 07.08.2025: Erwähnung vs. Quelle in LLMs

In einem Beitrag von Philipp Götza auf LinkedIn wird ein Umdenken in der SEO-Welt gefordert: Statt sich auf Rankings und Traffic zu konzentrieren, sollten Marken gezielt auf Erwähnungen in AI-generierten Antworten setzen. Hintergrund ist, dass Foundation-Modelle meist keinen sichtbaren Quellenhinweis liefern, während RAG-Systeme (z. B. mit Websuche) eher klassische SEO einbeziehen – jedoch oft ohne sichtbaren Link. Die Sichtbarkeit einer Quelle ist gering, während Markennennungen prominent erscheinen. 

Es muss zwischen Antworten aus dem Foundation Model und Antworten mit Grounding per Websuche unterschieden werden. Die Einflussfaktoren auf das Foundation Model sind kurzfristig begrenzt. Hier benötigt es eine langfristige Strategie, um einen relevanten digitalen Fußabdruck zu hinterlassen. Beim Grounding spielt klassische SEO eine größere Rolle, aber vor allem auch wie andere über eine Marke sprechen, z. B. in Reviews. Ziel sollte bei beiden Methoden sein, von der KI als relevante Marke genannt zu werden. Wer Einfluss auf KI-Antworten will, sollte daher auf Markenstärke und digitale Präsenz statt reine Quelloptimierung setzen.

Henry Seyffert

Update vom 06.08.2025: KI boostet laut Google die Suche

In einem Blogpost von Google äußert sich Liz Reid, Leiterin der Google-Suche, zur anhaltenden Kritik an rückläufigem organischen Traffic infolge der Einführung von AI Overviews. Sie betont, dass die Anzahl der organischen Klicks im Jahresvergleich „relativ stabil“ sei – eine Formulierung, die bewusst vage bleibt und auf konkrete Zahlen verzichtet. Laut Reid steigen zudem die „Quality Clicks“, also Sitzungen ohne Rücksprung zur SERP. Medien wie Search Engine Land und The Verge kritisieren die Intransparenz der Angaben, während etwa der New York Post zufolge große Publisher bis zu 40 % Traffic verloren haben.

Google benutzt bewusst Formulierungen wie „relatively stable“ und „slightly more quality clicks“, ohne konkrete Zahlen zu nennen – zwei Ausdrücke, die signalstark zurückhaltend sind. Der Anstieg der sogannent "Quality Clicks" scheint schlüssig, denn die User kennen das Ziel meist sehr genau. Es fehlt aber auch hier an Vergleichszahlen, um den wirklichen Einfluss der KI-Lösungen von Google bewerten zu können. Die fehlende Transparenz macht es Websitebetreiber:innen, SEOs und Publishern schwer, geeignete Analysen zu tätigen und Maßnahmen zu ergreifen. 

Alexander Beth

Update vom 06.08.2025: Mehr eingebettete Links im Google AI Mode

Lily Ray berichtet auf LinkedIn, dass Google nun mehr eingebettete externe Links direkt in die Antworten des AI Mode integriert. Neben vermehrten In-Line-Verlinkungen zu Websites sieht sie darin einen kleinen, aber positiven Schritt für Publisher. Langfristig rechnet sie mit neuen Link-Typen und potenziell auch Werbeeinbindungen in diesem Bereich. Aktuell bedeutet die Entwicklung mehr Sichtbarkeit und potenziellen Traffic für Inhalte, die in AI-generierten Antworten erwähnt werden.

Update vom 05.08.2025: AI Overviews vs. Produktgrids

Laut einer Analyse von Kevin Indig auf Basis von 35.000 eCommerce-Suchanfragen bei seoClarity verdrängen AI Overviews zunehmend klassische Produktgrids in den Google-Shopping-SERPs. Der Anteil ist zwar noch gering, wächst aber rasant – Google scheint die Shopping-Erfahrung klar auf „AI-first“ auszurichten. Ergänzend zeigt die Analyse: Bildpakete stiegen von 60 % (2024) auf über 90 % (Juli 2025), während Diskussionsforen, Videos und klassische Module zurückgehen. Seit Januar 2025 nehmen zudem „People Also Ask“-Boxen deutlich zu.

Updates aus dem Juli 2025

Update vom 29.07.2025: AI Mode jetzt in Großbritannien freigeschaltet

Google hat laut SEO Südwest den „AI Mode“ seiner neuen KI-basierten Suche erstmals in Europa eingeführt – konkret in Großbritannien. Damit steht die Funktion nun in den USA, Indien und Großbritannien zur Verfügung. Im Gegensatz zur klassischen Google-Suche liefert der AI Mode überwiegend KI-generierte Antworten, vergleichbar mit den „AI Overviews“. Externe Links sind seltener sichtbar, was potenziell zu weniger Klicks auf Websites führt. Mit einer baldigen Ausweitung auf weitere Länder Europas ist zu rechnen, was auch Auswirkungen auf den SEO-Traffic hierzulande haben dürfte.

Der AI Mode kommt in großen Schritten näher. Google baut den Nutzerkreis seiner AI-Suche mit rasanter Geschwindigkeit aus. Alles spricht dafür, dass wir das Feature noch in diesem Jahr auch in Deutschland und dem Rest Europas sehen werden - auch wenn neue Funktionen hierzulange mit als letztes Einzug halten.

Henry Seyffert

Update vom 25.07.2025: Google testet KI-gestützten Web Guide

Google hat am Donnerstag „Web Guide“ vorgestellt, eine neue KI-gestützte Suchfunktion, die in den Search Labs getestet werden kann. Web Guide nutzt eine angepasste Version von Gemini AI, um Suchanfragen zu analysieren und Suchergebnisse thematisch zu gruppieren. Anders als bei bisherigen KI-Overviews erscheinen zwei relevante Links direkt oben, gefolgt von einer KI-Zusammenfassung und thematisch sortierten Kategorien. Die Ergebnisse stammen aus diversen Quellen, darunter Universitäten, YouTube, Quora und Reddit. Nutzer:innen können weiterhin zur klassischen Web-Ansicht wechseln, Google plant jedoch eine Ausweitung auf den „All“-Tab. Laut einem Bericht von The Verge bringt Web Guide damit traditionelle Elemente der Websuche zurück und ergänzt sie um generative KI-Features.

Der Webguide kombiniert die klassische Suche mit KI-Features und bietet einen sinnvollen Kompromiss zu den AI Overviews, die für Webseiten-Betreiber:innen Traffic-Einbußen bedeuten. Da der Webguide die Ergebnisse nach Relevanz und Themenfeldern kuratiert, bekommen Nutzende mehr Struktur in die SERPs. Publisher dürften das Feature begrüßen - wir tun das ebenso und hoffen, dass der Guide für alle Tabs ausgerollt wird. 

Alexander Beth

Update vom 22.07.2025: ChatGPT crawlt llms.txt

ChatGPT nutzt offenbar aktiv die llms.txt-Datei, wie Logfile-Beobachtungen zeigen. Diese Datei funktioniert ähnlich wie eine Sitemap, enthält zentrale Inhalte einer Website und soll KI-Systemen wie ChatGPT oder Perplexity helfen, relevante Seiten zu erkennen. Laut einem Bericht auf SEO Südwest crawlt der „OAI-SearchBot“ von OpenAI die llms.txt regelmäßig und prüft Updates im 15-Minuten-Takt. Dies stärkt die Position der llms.txt als Werkzeug zur Optimierung für KI-Suchen (LLMO). OpenAI empfiehlt, den Zugriff in der robots.txt freizugeben.

Die llms.txt war bereits vor der aktuellen Beobachtung ein vielversprechender Ansatz, um Inhalte gezielt für KI-Systeme verfügbar zu machen. Mit dem nun bestätigten Crawling durch ChatGPT erhält diese Technologie erstmals einen konkreten Nutzungsnachweis – ein klares Indiz für ihre tatsächliche Relevanz. Das könnte ein Wendepunkt sein: Bislang fristet die llms.txt ein Nischendasein, wird nur von wenigen CMS wie WordPress (mit Plugins wie Yoast) oder Just.io aktiv unterstützt. Durch den Einsatz durch OpenAI steigt nun die Wahrscheinlichkeit, dass sich das Format weiter etabliert – insbesondere als Werkzeug für gezielte LLM-Optimierung (LLMO).

Henry Seyffert

Update vom 20.07.2025: Information Gain Rate

Im SEO‑Kontext zeigt sich: KI‑gestützte Übersichten („AI Overviews“) bevorzugen Texte mit hoher „Information Gain Rate“ – also klar strukturiert, kompakt und mit hoher Informationsdichte.

Information Gain Rate = Informationswert / Kosten für die Beschaffung dieser Informationen

Ein Beispiel: Dan Hinckley berichtet von einem Text über „Cavapoochon“, der zwar in klassischen Rankings (Google #2) erfolgreich ist, fällt bei AI Overviews durch, da er in blumiger, narrativer Sprache verfasst ist. Eine überarbeitete Fassung mit gleicher Faktenlage, aber kürzer und präziser, erhöhte die semantische Bewertung deutlich (von 5,3 auf  7,45) und halbiere den Textumfang – damit steigt die Chance, von KI‑Systemen zitiert zu werden.

Das Beispiel zeigt, was wir in unserer täglichen Arbeit beobachten. Texte mit hoher Informationsdichte, welche zusätzlich gut strukturiert sind, werden von Algorithmen belohnt. Die wichtigste Aufgabe ist es, die Balance zwischen Informationsvermittlung und User Experience zu halten. Beispiel: Ein Text, der bspw. nur mit Aufzählungen arbeitet und den Inhalt komprimiert, ist zwar für die maschinelle Verarbeitung optimal. Aber wird er auch von realen Usern wertgeschätzt?

Alexander Beth

Update vom 18.07.2025: ChatGPT x Shopify

Es kursieren Berichte, dass OpenAI und Shopify offenbar kooperieren, sodass Nutzer:innen bald Produkte direkt in ChatGPT kaufen können – ganz ohne Werbung, Klicks oder zu Google wechseln zu müssen.

OpenAI bestätigt, dass ChatGPT künftig einen Anteil an Produktverkäufen erhebt. Damit entsteht eine neue „AI-native Commerce Layer“, bei der Umsatz an tatsächliche Transaktionen statt Impressionen gekoppelt ist. Entscheidender Wandel: Produktempfehlungen basieren auf Relevanz, nicht auf Werbebudgets. Diese Entwicklung stellt Googles $200 Mrd.-Anzeigemarkt infrage, weil sie Antworten mit unmittelbarer Bezahlintegration verbindet. 

Nutzer:innen kaufen direkt im Chat, Marken zahlen Provision, kaufen sich aber über SEO oder Bannerwerbung keinen Platz – zunächst eine positive Entwicklung. Gleichzeitig wirft das Fragen zur Fairness, Auswahl und Transparenz von Produktplatzierungen in Chat‑LLMs auf. Marken sollten sich darauf fokussieren, Inhalte und Produktinformationen so aufzubauen, dass sie den tatsächlichen Nutzeranfragen entsprechen – um in dieser AI-getriebenen Übergangsphase sichtbar zu bleiben.

Alexander Beth

Update vom 16.07.2025: Google zeigt Instagram-Post in der Suche

Seit dem 10. Juli 2025 indexiert Google öffentlich zugängliche Instagram-Inhalte von Business- und Creator-Konten. Damit erscheinen Beiträge, Reels und Profile in den Google-Suchergebnissen. Laut SEO-Küche ergeben sich daraus neue Chancen für Reichweite, Sichtbarkeit und Verlinkungen, insbesondere durch optimierte Social-SEO-Strategien. Voraussetzung ist ein öffentliches, professionelles Profil mit aktivierter Indexierungsoption. Die Integration unterstützt Googles E-E-A-T-Bewertung und dient zugleich als Datenbasis für das KI-Training von Meta. Risiken bestehen hinsichtlich Datenschutz und Content-Kontrolle.

Die Indexierung von Instagram-Inhalten in der Google-Suche ist aus Sicht von Content Creatorn ein willkommener Schritt: Sie gewinnen potenziell deutlich mehr Sichtbarkeit außerhalb der Plattform – ohne zusätzliches Werbebudget. Social SEO wird damit strategisch relevanter denn je. Gleichzeitig sollte man sich aber keine Illusionen über die Motive machen: Googles Interesse an Social Content dürfte weniger der Förderung der Publisher dienen, sondern vielmehr dem strategischen Ziel, Inhalte für das Training seiner Gemini-KI-Modelle zu erschließen – ein Vorgehen, das sich bereits bei der Reddit-Kooperation beobachten ließ.

Henry Seyffert

Update vom 15.07.2025: KI-Zusammenfassungen im "Google Discover"-Feed

Google hat in den USA mit dem Rollout von KI-generierten Zusammenfassungen in „Discover“ begonnen – der Nachrichtenübersicht der Google-Such-App für iOS und Android. Statt klassischer Headlines erscheinen nun Logos mehrerer Publisher und eine von KI erstellte Zusammenfassung.

Dies soll Nutzer:innen helfen, schneller Inhalte zu überblicken, birgt jedoch Risiken für Publisher: Erste Analysen zeigen bereits drastische Rückgänge bei organischem Traffic, unter anderem durch AI Overviews. Zwar versucht Google mit Tools wie Offerwall gegenzusteuern, doch viele Verlage sehen diese Maßnahmen als zu spät an.

Die Einführung von KI-Zusammenfassungen in Google Discover stellt eine neue Herausforderung für Publisher und SEO-Strategen dar. Während Discover bislang eine der letzten stabilen Traffic-Quellen aus dem Google-Ökosystem war, droht nun auch hier eine Entkopplung von Inhalt und Klick. Wie in der regulären Google-Suche heißt es nun auch hier: Inhalte sollten nicht nur für klassische Suchanfragen, sondern gezielt für KI-Systeme optimiert werden – mit strukturierten Daten, klaren Teasern und starker Markenpräsenz. Zudem gewinnen alternative Kanäle und direkte Nutzerbindung an Bedeutung, um die Abhängigkeit von Googles Traffic-Gatekeeping zu reduzieren.

Alexander Beth

Update vom 14.07.2025: Neuer Report "Statistiken" in der Google Search Console

Google hat einen neuen Report namens "Statistiken" ausgerollt, der die Search Console Inights ersetzt und mit dem sich sowohl Aufwärts- als auch Abwärtstrends in der Google-Suche sehr einfach nachvollziehen lassen. In dem Bericht finden sich Informationen zu trendenden URLs, Keywords, Traffic nach Ländern und zu weiteren Besucherquellen wie etwa die Bildersuche.

Zu sehen ist ein Screenshot des "Statistiken"-Berichts aus der Google Search Console. Auf dem Screenshot sind Beiträge von MarkOp zu sehen, die in den letzten 28 Tagen mehr Klicks erzielt haben."

Die Google Search Console ist ein echtes Urgestein und es ist schön zu sehen, dass Google seinem Dienst auch nach über 10 Jahren noch neue Features spendiert. Leider läuft der Informationsgehalt des neuen Berichtes etwas fehl, da es keinerlei detaillierte Informationen darüber gibt, woher der Traffic genau kommt: aus klassischen Blue Links, Snippets oder den AI Overviews? Hier hätten wir uns etwas mehr Tiefe gewünscht und hoffen, dass Google nochmal etwas mehr Informationen preisgibt. Aktuell wird das Potenzial hier nicht ganz ausgeschöpft.

Henry Seyffert

Update vom 10.07.2025: Zitate in der KI-Suche

Eine Untersuchung von Josh Blyskal kommt zu spannenden Erkenntnissen zur Funktionsweise der KI-Suche und das Aufkommen von Zitaten.

  • Google AI Mode zitiert Google-eigene Inhalte (Maps, Shopping etc.) am häufigsten (2,49 %), vor Reddit (1,37 %), LinkedIn (0,97 %), YouTube (0,89 %) und Quora (0,80 %). Weitere Top‑10‑Domains sind Amazon, NerdWallet, Forbes, TripAdvisor, Indeed (je < 0,75 %). Allgemein dominieren Quellen von User‑Generated‑Content (UGC).

  • Top-10‑Domains im Google AI Mode machen nur 7,8 % der Zitate aus, während der Anteil bei ChatGPT bei 14,9 % liegt. Google setzt auf Breite und Spezialisierung.

  • Google AI Mode bezieht durchschnittlich 8,98 unterschiedliche Domains pro Prompt (vs. 5,12 bei ChatGPT) ein – das signalisiert Googles „fan‑out“-Strategie: mehr Vielfalt, mehr Validierung, mehr Einfluss‑Potenzial – positiv und negativ.

Die Untersuchung von Josh macht kleinen Publishern Hoffnung. Es zeigt sich, dass Google im AI Mode verschiedene Quellen abruft und nicht auf die immer gleichen Anbieter zurückgreift. Stattdessen wird Wert auf Tiefe und Spezialisierung gelegt. Fundierte, maßgeschneiderte und spezialisierte Inhalte können in der KI-Suche zu Sichtbarkeit verhelfen.

Alexander Beth

Update vom 07.07.2025: Erste Klagen gegen Google AI Overviews

Die erste EU-Kartellklage gegen Googles „AI Overviews“ ist eingereicht. Eine Koalition unabhängiger Publisher – darunter Foxglove, Movement for an Open Web und die Independent Publishers Alliance – wirft Google vor, durch KI-generierte Suchzusammenfassungen (Google AI Overviews) systematisch Traffic von Originalquellen abzuziehen.

Laut SimilarWeb stieg die Rate sogenannter „Zero-Click“-Suchen bei Nachrichtenanfragen seit Einführung der AI Overviews von 56 % auf 69 %. Kritisiert wird insbesondere, dass Publisher keine Möglichkeit haben, sich gegen die Nutzung ihrer Inhalte zu wehren, ohne ihre Sichtbarkeit in der Google-Suche zu riskieren. Die Beschwerde stellt grundlegende Fragen zur Zukunft von Journalismus, SEO und dem offenen Internet.

Klagen gegen Google sind für sich betrachtet keine Besonderheit. Sie zeigen vielmehr die Macht der Suchmaschine – die allerdings nicht unbegrenzt ist. In der Vergangenheit haben bspw. Preisvergleicher einige Zugeständnisse abringen können. Wir sind gespannt auf die kommenden Entwicklungen.

Henry Seyffert

Update vom 04.07.2025: Citation Overlap

Die Übereinstimmung der Quellen (Citation Overlap) zwischen ChatGPT und Googles AI Mode beträgt laut einer Untersuchung von Profound lediglich 9 %. Das ist auf Unterschiede in den Datenquellen und der Ausführung der „Query Fan Out“-Technik zurückzuführen: ChatGPT nutzt nur fünf synthetische Abfragen.

Die Erkenntnis unterstreicht die Notwendigkeit, für verschiedene AI-Suchoberflächen differenzierte, aber sich ergänzende SEO-Strategien zu entwickeln.

Update vom 01.07.2025: Nutzerverhalten – Google vs. ChatGPT

ChatGPT ersetzt nicht die klassische Suche, sondern erfüllt teils völlig andere Nutzerbedürfnisse. Zwei Studien von Semrush und Profound belegen:

  • 50–70 % der Prompts sind keiner herkömmlichen Suchintention zuzuordnen.

  • Laut Profound-Analyse (2025) zielen 37,5 % der Anfragen auf generative Ergebnisse ab – Nutzer:innen erwarten Text-, Code- oder Bild-Output statt Suchergebnisse.

  • Navigationale Intentionen sind mit 2,1 % kaum relevant.

Damit bleibt Google zentral für Suchanfragen, während ChatGPT vor allem als Produktionswerkzeug genutzt wird.

Zu einem ähnlichen Ergebnis kommt Hanns Kronenberg. Aus der Analyse von rund 100.000 deutschsprachigen Prompts gehen folgende Hauptzwecke bei der Nutzung von ChatGPT hervor.

  • Texterstellung & Schreiben: Nutzer:innen lassen Texte wie E‑Mails, Artikel, Social‑Content verfassen – primär als „Textagentur“ oder Ideenmaschine. 

  • Alltagsunterstützung: Hilfe bei Kochen, Gesundheit, Reiseplanung, persönliche Reflexion.

  • Struktur & Planung: Organisatorische Hilfen wie Pläne, Gliederungen, To‑dos etc.

  • Technik & Code: Support bei technischer Problemlösung, API‑Erklärung, Automatisierung.

Für Marketer stellt sich die neue Frage: Wie misst man Erfolg, wenn der KI-Output selbst das Ziel ist – ganz ohne Klick?

Die Ergebnisse zeigen: ChatGPT fungiert oft weniger als klassische Suchmaschine, sondern vielmehr als produktives Tool – von Content-Erstellung bis Ideenfindung und Alltagsmanagement. Die neue “Währung” für SEOs sind nicht mehr Klicks, sondern Zitierungen.

Alexander Beth

Updates aus dem Juni 2025

Update vom 28.06.2025: Traditionelle Suche vs. KI-Suche

Aleyda Solís hebt in einer fokussierten Gegenüberstellung vier entscheidende Unterschiede zwischen klassischer und KI-gestützter Suche hervor:

  1. Suchverhalten: Während traditionelle Suchen meist kurz, keywordbasiert und navigational geprägt sind, zeichnet sich die KI-Suche durch längere, konversationale Prompts mit aufgabenorientierter Zielsetzung aus.

  2. Query-Handling: Klassische Systeme bearbeiten einzelne Abfragen; KI-Systeme nutzen hingegen „Query Fan-Out“ – sie zerlegen Prompts in mehrere Subqueries.

  3. Optimierungsziel: Statt Seiten-Relevanz (klassisch) zählt bei KI-Suchen die Relevanz einzelner Inhalte („Chunks“ oder Abschnitte).

  4. Ergebnispräsentation: Traditionelle Suche liefert Linklisten, KI dagegen eine einzige, synthetisierte Antwort mit Quellenverweisen.

Die Untersuchung von Aleyda Solís zeigt, was die Branche bewegt: Die Suche nach Informationen verändert sich enorm. Das einzelne Keyword wird weniger relevant. Stattdessen gewinnen diejenigen, die semantische Zusammenhänge herstellen (Stichwort: Embeddings).

Henry Seyffert

Update vom 24.06.2025: Google testet den AI Mode jetzt auch in Indien

Google hat die internationale Einführung seines "AI Mode" gestartet – erstmals außerhalb der USA, beginnend in Indien. Über Search Labs wird die Funktion in englischer Sprache testweise angeboten. AI Mode erweitert die klassischen Suchergebnisse durch multimodale, KI-gestützte Antworten und tiefergehende Recherchemöglichkeiten. Es basiert auf einer "query fan-out"-Technik, bei der parallele Anfragen zu verwandten Themen durchgeführt und zusammengeführt werden. AI Overviews verzeichnet laut Google bereits über 1,5 Milliarden Nutzer:innen monatlich. Die Einführung in Indien erfolgt als Teil einer langfristigen Vision zur Weiterentwicklung der Google-Suche (Quelle: Search Engine Land, 24.06.2025).

Googles KI-Vorstoß geht weiter. Indem der Konzern seinen AI Mode auch in Indien zum Test anbietet, stehen ihm eine Vielzahl neuer Testerinnen und Tester zur Verfügung. In der Vergangenheit war es oft so, dass neue Features in Europa zuletzt ausgerollt wurden, dennoch dürfte der AI Mode eher früh als spät auch bei uns erscheinen.

Alexander Beth

Update vom 19.06.2025: Listings in LLMs

Basierend auf der Auswertung von 177 Mio. Quellen zeigt eine aktuelle Analyse von Profound: Listicles machen 32,5 % aller Zitationen in ChatGPT & Co. aus – weit mehr als Video-Content mit nur 0,95 %.
Zum Vergleich: Blogs werden in knapp 10% der Fälle zitiert, Shop-Seiten tauchen in knapp 5% der untersuchten Quellen auf. 

Beispiele: “Beste Laufschuhe 2025: 15 Favoriten” oder “5 beste Airfryer im Vergleich”.

Strukturierte, maschinenlesbare Inhalte scheinen zur Zeit die bevorzugten Quellen für Zitationen zu sein. Das ist im Hinblick auf die technische Grundlage nicht verwunderlich. Die Datengrundlage ist jedoch immer noch relativ überschaubar, sodass solche Untersuchungen nur Momentaufnahmen darstellen können.

Henry Seyffert

Update vom 18.06.2025: LLM.txt wird derzeit von keinem AI-System genutzt

Laut John Mueller von Google wird das neue Dateiformat „llms.txt“ bislang von keinem KI-System genutzt. Dieses Format, das etwa von Yoast (WordPress-Plugin) unterstützt wird, soll Large Language Models (LLMs) gezielt auf wichtige Inhalte von Websites hinweisen. Trotz zunehmender Diskussionen und technischer Unterstützung wird „llms.txt“ laut Mueller aktuell von keiner bekannten LLM-Anwendung abgefragt. Die Einschätzung erfolgte über die Plattform Bluesky. Weitere Details liefert der Beitrag auf Search Engine Roundtable vom 18. Juni 2025: Google: No AI System Currently Uses LLMs.txt.

Das Thema „llms.txt“ wird aktuell intensiv diskutiert, vor allem im Kontext von LLM-Content-Steuerung und SEO. Da bisher jedoch kein KI-System diese Datei nutzt, ist der unmittelbare Nutzen derzeit begrenzt. Website-Betreiber sollten die Entwicklung beobachten – falls sich das Format durchsetzt, könnte es künftig an Relevanz gewinnen.

Henry Seyffert

Update vom 17.06.2025: AI Mode Tracking in der GSC

Google Search Console enthält nun in den USA offizielle „AI Mode“-Daten. Der Suchriese hat Mitte Juni seine GSC-Hilfeseiten aktualisiert und damit bestätigt: Impressions, Clicks und Positionen aus der „AI Mode“-Suche sind jetzt in den Performance-Berichten enthalten 

Was gemessen wird:

  1. Clicks: Jeder Klick auf einen externen Link in AI Mode wird als „Click“ gewertet.

  2. Impressions: Sichtbarkeit des eigenen Inhalts zählt als „Impression“ – nach denselben Regeln wie bei normalen Suchergebnissen.

  3. Position: Einzelne Elemente innerhalb von AI-Antworten (z. B. Carousel-Elemente) erhalten jeweils eine eigene Positionszahl, berechnet wie in klassischen SERPs.

  4. Follow-up-Queries: Nach ergänzenden Nutzerfragen gelten diese als neue Queries – inkl. eigener Impressions/Clicks/Position.

  5. Keine Separierung: AI Mode-Daten fließen unsegmentiert in den „Web“-Typ der GSC-Performanceberichte ein – ein separater Filter oder Tab ist aktuell nicht vorgesehen

Es sind keine technischen Implementierungen nötig, um den AI-Traffic in der GSC zu messen – bestehende Grundlagen bleiben somit gültig. Dennoch sind die Daten zurzeit mehr als chaotisch.

Eine Schwierigkeit besteht weiterhin bei der Attribution und Sichtbarkeitsanalyse. Google zeigt, dass eine dedizierte Seite in den AI-Lösungen auftaucht, jedoch nicht, ob eine Marke gezielt empfohlen wird. Außerdem kann es passieren, dass User innerhalb der Konversation eine Nachfrage stellen, was als neue Anfrage gezählt wird. Um klare Erkenntnisse zu erlangen, ist die Betrachtung des vollständigen Interaktionspfads nötig.

Alexander Beth

Update vom 11.06.2025: Google tolleriert maschinelle Übersetzungen von Inhalten

Google akzeptiert automatische KI-Übersetzungen unter bestimmten Bedingungen, heißt es in einem Artikel von SEO Südwest. Zwar galten sie früher als potenzieller Verstoß gegen die Webmaster-Richtlinien, doch mittlerweile kommt es auf den Kontext und die Qualität an. Inhalte sollten idealerweise von Menschen nachbearbeitet werden. Das Beispiel Reddit zeigt, dass große Plattformen KI-Übersetzungen nutzen können, ohne von Google sanktioniert zu werden – sofern die Inhalte Mehrwert bieten. Glenn Gabe erhielt von Google die Bestätigung, dass KI-Übersetzungen im Rahmen der Richtlinien ok sein können, sofern sie nicht nur skalierten, minderwertigen Content liefern.

Googles Position hinsichtlich maschineller Übersetzungen überrascht wenig. Manuelle Übersetzungen würden vor allem im Bereich UGC wenig Sinn machen. KI-Übersetzungen beseitigen hier eventuelle Sprachbarrieren und die Nutzer:innen profitieren. Auch im Zeitalter von KI bleibt der Mensch aber wichtig, KI ist hier nach wie vor fehleranfällig und z. B. nicht immer in der Lage, logische Zusammenhänge aus dem Kontext heraus zu erkennen.

Henry Seyffert

Update vom 04.06.2025: Google zeigt offenbar Ads vor AIOs

Unseren Beobachtungen zufolge zeigt Google bei manchen Keywords bezahlte Anzeigen vor den AI Overviews. Beim Rollout hatte man sich noch darüber gewundert, dass die AIOs ganz oben in den SERPs ausgespielt werden. Dadurch sinkt die CTR von Anzeigen, was u.a. einen negativen Einfluss auf Googles Werbeeinnahmen hat. Dass gesponsorte Anzeigen vor den AIOs erscheinen, ist daher ein logischer Schritt, dieses Problem zu umgehen. Anscheinend werden Ads aber nicht pauschal priorisiert und erscheinen nur bei manchen Suchanfragen an erster Stelle. Hintergrund könnte der Search Intent sein, sodass Anzeigen bei stärker Conversion-orientierten Suchanfragen bevorzugt ausgespielt werden, da eine Kaufabsicht besteht. Belegen können wir dies zum jetzigen Zeitpunkt aber nicht.

Es wäre nicht verwunderlich, wenn Google-Ads künftig häufiger vor AIOs ausgespielt werden. Damit steigt ihr Wert gegenüber organischem Traffic, da sie noch einmal deutlich mehr Sichtbarkeit hätten als klassische Blue Links oder Featured Snippets. Spannend wird sein, wie sich das auf die Klickpreise auswirkt: Wenn der Gewinn an Sichtbarkeit dazu führt, dass mehr Webseitenbetreiber:innen Anzeigen schalten, könnte das zu einem erhöhtem Preisdruck führen.

Alexander Beth

Update 03.06.2025: Erkenntnisse aus dem Leak des Claude LLM

Ein geleakter Systemprompt von Claude 4 offenbart, wie das LLM von Anthropic entscheidet, ob es eine Websuche durchführt oder intern antwortet. Hanns Kronenberg, Head of SEO bei Chefkoch, hat die Erkenntnisse diesbezüglich auf den Punkt gebracht. Die zentrale Steuerung erfolgt über vier Kategorien:

  • never_search: Bei stabilen Fakten (z. B. „Was ist die Hauptstadt von Frankreich?“) antwortet Claude direkt ohne Suche.

  • do_not_search_but_offer: Bei potenziell veralteten Informationen (z. B. Bevölkerungszahlen) gibt Claude eine Antwort und bietet optional eine Suche an.

  • single_search: Für aktuelle Fakten (z. B. Sportergebnisse) führt Claude eine gezielte Websuche durch.

  • research: Bei komplexen Aufgaben (z. B. Wettbewerbsanalysen) nutzt Claude iterative Suchprozesse mit mehreren Tool-Aufrufen.

Für SEO bedeutet dies: Sichtbarkeit und Verlinkungen entstehen hauptsächlich bei „single_search“ und „research“. Inhalte müssen daher über reine Fakten hinausgehen, z. B. durch interaktive Tools, aktuelle Tabellen oder redaktionelle Expertise. Zudem sollten Inhalte klar strukturiert und kompakt sein, da LLMs keine URLs speichern und Links nur bei aktiver Suche einbinden.

Updates aus dem Mai 2025

Update 28.05.2025: Korrelieren das Ranking bei Google und die Sichtbarkeit in KI-Suchen?

Eine Analyse von Ziptie zeigt eine klare Korrelation zwischen klassischem Google-Ranking und der Sichtbarkeit in KI-gestützten Suchsystemen wie AI Overviews, ChatGPT und Perplexity. Je besser das organische Ranking, desto häufiger wird eine Quelle auch in KI-Ergebnissen genannt. Die These: Trotz technischer Unterschiede zwischen klassischen Suchmaschinen und KI-Chatbots orientieren sich letztere häufig an etablierten Qualitätsstandards – sowohl inhaltlich als auch bei der Quellenauswahl. Dennoch bleibt die Qualität der von KI zitierten Seiten teils fragwürdig, was die Bedeutung von SEO und hochwertigem Content für digitale Sichtbarkeit weiterhin unterstreicht.

Update 26.05.2025: Tracking-Lösung kommt

SEOs können aufatmen. Die angesprochenen Tracking-Probleme im Google AI Mode aufgrund des fehlenden Referrer werden laut John Mueller gefixt. Dieser Bug führte dazu, dass in Webanalyse-Tools wie Google Analytics der Traffic aus dem AI Mode als „Direct“ oder „Unknown“ angezeigt wurde, da die Links mit dem Attribut noreferrer versehen waren. Google arbeitet an einer Lösung des Problems.

In diesem Zuge bestätigte John Mueller auch, dass die Google Search Console einen neuen Performance-Bericht erhalten soll, der Daten zum künftigen AI Mode auswerten kann.

Alexander Beth

SEO und Datenanalyse: Das gehört einfach zusammen. Nur mit einer guten Datengrundlage können fundierte Entscheidungen getroffen werden. Die Ankündigungen von Google sind ein Schritt in die richtige Richtung.

Alexander Beth

 

Update 23.05.2025: US-Kartellverfahren gegen Google & wie sieht SEO in 2025+ aus?

Die Google AI Overviews und der vorgestellte AI Mode versetzen die SEO-Branche in Aufregung. Die Spielregeln scheinen sich nachhaltig zu ändern, sodass Anpassungen notwendig sind.

Die Internetsuche entwickelt sich hin zu einer mehr personalisierten Kontext-Suche, bei der komplexere Fragestellungen recherchiert werden. Mit den Google AI Overviews und dem kommenden AI Mode trägt Google dieser Entwicklung Rechnung – mit teils enormen Auswirkungen für alle Beteiligten.

Etablierte Metriken der SEO-Branche wie beispielsweise Klick-Zahlen und Traffic werden in Zukunft anscheinend weniger relevant sein. Außerdem werden Performance-Analysen aufgrund von Tracking-Problemen im AI Mode schwieriger. Die Folge: Intransparenz.

Mit dem Aufkommen der personalisierten Kontext-Suche wird das Spielfeld für die Optimierung kleiner. Google lässt sich hier nicht in die Karten schauen und verweist laut Michael King wie so oft auf “die Erstellung großartiger Inhalte” als beste Maßnahme.

Inhalte sollten so gestaltet sein, dass sie für ein ganzes Spektrum verwandter Suchanfragen Relevanz bieten, auch wenn diese Anfragen nicht direkt sichtbar sind.

Was können Unternehmen und SEOs tun? Google liefert erste (neue?) Hinweise.

  • Erstellung einzigartiger, nutzerzentrierte Inhalte (entscheidend sind immer noch die Nutzer:innen)

  • Klare Struktur, Sprache und Autorität durch Expertenwissen

  • Technische Grundlagen beachten (Crawling und Indexierung etc. ermöglichen)

  • Bereitstellung einzigartiger Page-Experience (Struktur, Ladezeiten etc.)

  • Strukturierte Daten und maschinenfreundliche Auszeichnung nutzen

  • Multimodale Suche ermöglichen (Nutzung von Bildern, Infografiken, Videos etc.)

  • Präsenz auf verschiedenen Kanälen (Erwähnungen, Links etc.)

  • Monitoring LLM-Suche und Darstellung in KI-Formaten

Klar ist jedoch auch: Momentan stehen noch zu wenig belastbare Daten zur Verfügung, um die realen Auswirkungen der neuen Entwicklungen klar quantifizieren und bewerten zu können.

Henry Seyffert

Der Grundtenor bleibt gleich: Um weiterhin sichtbar zu sein bzw. zu bleiben, sind einzigartige Inhalte notwendig. Es stehen noch zu wenige Daten zur Verfügung, um aussagekräftige Tipps für die neue Suche zu liefern. Vorsicht bei sogenannten Quick Wins!

Henry Seyffert

Kürzlich wurden im Zuge des US-Kartellverfahrens gegen Google die Zeugenaussagen von Pandu Nayak (Chief Scientist Search bei Google) und Hyung-Jin Kim (Vice President of Search bei Google) der Öffentlichkeit zugänglich gemacht. Hier sind die wichtigsten SEO-Takeaways:

  • ABC-Signale: Google nutzt sogenannten ABC-Signalen als grundsätzliche Rankingfaktoren – A steht dabei für Anchors (Links), B für Body (Seiteninhalt) und C für Clicks (Nutzerverhalten, speziell wie lange Nutzer:innen auf der Seite verweilen, bevor sie zu den SERPs zurückkehren).

  • "Handcrafted" vs. LLMs: Die meisten Rankingsignale sind bei Google derzeit noch „handcrafted“, d. h., sie werden von Entwickler:innen manuell zusammengestellt. Damit will Google verstehen, warum Dinge möglicherweise nicht funktionieren und gezielt die Ursache beheben. Nur die von Google genutzten Lernmodelle RankBrain und DeepRank nutzen LLMs. Hier ist eine gezielte Problemanalyse- und -behebung nicht oder nur schwer möglich.

  • Vertrauensmetrik Q*: Google nutzt Q* (Q Star) als eine interne Metrik, um die Vertrauenswürdigkeit einer Website zu bewerten. Sie ist damit enorm wichtig für das Ranking.

  • Navboost und Klickdaten: Mit Navboost wurde über 13 Monate hinweg analysiert, wie oft bestimmte Gruppe von Nutzer:innen auf bestimmte Treffer in den Suchergebnissen klicken.

  • Informationsleck: Google bestätigt ein Datenleck in Bezug auf seine Rankingfaktoren. Laut Google sei das jedoch nicht ausreichend, um den Algorithmus als Ganzes zu verstehen.

Diese Offenlegungen von Google bestätigen vieles, was die SEO-Community bereits seit längerem vermutet hat: Nutzerverhalten, Linksignale und Inhaltsqualität spielen eine zentrale Rolle für das Ranking – und Googles Metriken wie Q* und Navboost machen deutlich, wie tiefgreifend und datengetrieben die Bewertung von Webseiten mittlerweile ist.

Alexander Beth

 

Update 22.05.2025: Tracking-Probleme im AI Mode

Eine Untersuchung von Ahrefs bestätigt, was viele SEOs bereits seit einiger Zeit beobachten: Das Tracking von Klicks aus dem Google AI Mode ist nahezu unmöglich.

Laut Patrick Stox von Ahrefs werden Klicks auf Links im neuen Google AI Mode weder in der Google Search Console erfasst noch mit einem Referrer-Wert versehen. In Webanalyse-Tools wie beispielsweise GA4 erscheinen sie daher als „Direct“ oder „Unknown“. Grund dafür ist das HTML-Attribut noreferrer, das Google in den Linkcode integriert. Selbst mit Tracking-Tags versehene Links liefern keine Daten an die Search Console.

Warum ist das ein Problem?

  • Wir wissen nicht genau, wie viele Nutzer:innen über den AI Mode auf unsere Seiten kommen.

  • Der wahre Ursprung des Traffics ist nicht nachvollziehbar. Die Daten werden verzerrt, sodass eine Optimierung erschwert wird.

  • Verzerrte und fehlende Daten machen die Performance-Messung schwer, sodass keinerlei Aussagen über ROI der Content-Pieces bzw. der SEO-Maßnahmen im Allgemeinen möglich ist.

Hier muss Google unbedingt nachbessern, damit die Performance einer Onlinepräsenz nachvollziehbar und bewertbar ist.

Update 23.05.2025: Google hat auf diese Entwicklungen reagiert und erklärt, dass dies unbeabsichtigt war und eine Korrektur in Arbeit ist.

Alexander Beth

Die Onlinesuche wandelt sich. Um auf die neuen Spielregeln reagieren und weiterhin optimierte Inhalte zur Verfügung stellen zu können, ist eine Analyse zwingend notwendig. Werden Daten verzerrt oder gar nicht mehr zur Verfügung gestellt, torpediert dies jahrelange SEO-Arbeit.

Alexander Beth

 

Update 21.05.2025: Google AI Mode vorgestellt

Google hat auf der I/O 2025 mit dem „AI Mode“ eine tiefgreifende Neuerung der Suchfunktion vorgestellt. Der neue Modus basiert auf Gemini 2.5 und wird als eigener Tab auf Google.com integriert. Zentrale Funktionen sind:

  • Personalisierte Suchergebnisse, die auf Nutzerdaten aus Gmail, Docs und YouTube basieren (opt-in über Search Labs ab Sommer).

  • Deep Search, ein KI-gestützter Recherchemodus für komplexe Fragestellungen mit Quellennachweisen.

  • Interaktive Suche mit Analyse-, Visualisierungs- und Planungsfunktionen für Aufgaben wie Shopping oder Organisation.

Diese Entwicklungen könnten den organischen Website-Traffic beeinflussen und markieren Googles klare Ausrichtung auf KI-zentrierte Suche.

 

Mit dem AI Mode zieht Google gegenüber anderen KI-Suchen nach. Die Trennung per Tab ist sinnvoll – auch weil Nutzer:innen Zeit zur Anpassung brauchen. Unklar bleibt, wie sichtbar die ursprünglichen Quellen künftig sein werden. Wenn nur noch personalisierte Suchergebnisse erscheinen, macht das bekannte Tracking-Methoden wahrscheinlich obsolet.

Alexander Beth

 

Update 20.05.2025: Quellen in Google's AIOs

Google testet aktuell eine neue Funktion in seinen AI Overviews: Die explizite Nennung von Quellen mit Namen. Dies betrifft insbesondere Websites, Autor:innen und Marken, die bislang häufig nur als anonyme Inhalte in den KI-generierten Antworten erschienen.

Diese Änderung könnte für Publisher ein wichtiger Schritt hin zu mehr Transparenz und Sichtbarkeit sein – insbesondere im Kontext der Kritik, dass KI-Antworten den Traffic auf die ursprünglichen Quellen reduzieren könnten.

Henry Seyffert

Die Nennung konkreter Quellen in AI Overviews wäre ein positiver Impuls für Website-Betreiber:innen, da sie ihre Inhalte besser attribuiert sehen. Das könnte nicht nur zu mehr Sichtbarkeit führen, sondern auch ein Anreiz sein, weiterhin qualitativ hochwertigen Content bereitzustellen – trotz potenziell sinkender Klickzahlen durch KI-generierte Zusammenfassungen.

Henry Seyffert

 

Update 13.05.2025: Nutzerverhalten in Google AIOs

Nach der Veröffentlichung der Google AI Overviews war die Aufregung in der SEO-Bubble riesig. Zahlreiche Stimmen berichteten von steigenden Impressions und sinkenden Klick-Zahlen. Während dies vor allem Einzelfall-Beobachtungen waren, sind mittlerweile erste Daten zum Nutzerverhalten in den AIOs veröffentlicht worden.

Kevin Indigs UX-Studie zeigt: Nutzer scrollen in Googles AI Overviews (AIOs) selten tief (Ø 30 %) und klicken nur selten auf Quellen (7,4 % Desktop, 19 % Mobile). AIOs dienen primär als statische Infoquelle. Vertrauen hängt stark von sichtbaren, autoritativen Quellen ab (Score: 3,4/5). Für SEO heißt das: Sichtbarkeit in AIOs wird zentral, klassische Klickmetriken verlieren an Bedeutung, Markenautorität und Content-Format rücken in den Fokus.

AIOs sind ein Paradigmenwechsel in der Betrachtung von KPIs. Nicht mehr die Klicks sind ausschlaggebend, sondern die Impressions. Für die Betreiber:innen muss das nicht zwingend ein Nachteil sein – wer klickt, hat wahrscheinlich ein tieferes Interesse am Thema. Für Blogger und Affiliates ist die Entwicklung problematisch, da die Werbeeinnahmen von Klicks abhängen. Der Blog als monetarisierbares Instrument gerät ins Hintertreffen.

Alexander Beth

 

Funktionsweise der Google AIOs

Google AI Overviews sind KI-generierte Zusammenfassungen, die direkt in den Suchergebnissen angezeigt werden. Sie erscheinen meist oberhalb der klassischen Ergebnisse („Blue Links“) und nutzen momentan Googles Sprachmodell Gemini 2.0. Für die Generierung werden zuvor relevante Suchergebnisse analysiert, aus denen dann die AIO erstellt wird.

Die Inhalte sind auf direkte Beantwortung der Suchintention ausgerichtet, häufig im Frage-Antwort-Stil, und oft mit verlinkten Quellen versehen. Sie beeinflussen insbesondere den organischen Traffic bei informationsbasierten Keywords, da sie Zero-Click-Suchen fördern. Ihre Platzierung kann auch bezahlte Anzeigen übertreffen. AIOs sind Teil von Googles übergeordnetem „AI Mode“, der bereits in den USA getestet wird.

Henry Seyffert

Dass Google die AI Overviews noch vor bezahlten Anzeigen ausspielt, verblüfft angesichts der Tatsache, dass der Konzern mit diesen ja sein Geld verdient. Es verdeutlicht aber umso mehr, welchen Stellenwert eine von KI dominierte Suche für Google hat. Bezahlte Anzeigen direkt in den AIOs sind ein logischer nächster Schritt und erscheinen wohl eher früh als spät.

Henry Seyffert

 

Hintergrund: Die Internetsuche verändert sich

Mit dem Aufkommen von Large Language Models (kurz: LLMs) wie beispielsweise ChatGPT hat sich das Nutzerverhalten über die letzten Monate verändert. Immer mehr Menschen nutzen die chatbasierte Kommunikation zur Informationssuche. Der Marktanteil von Google sinkt, wenn auch nur sehr langsam.

Google schien von diesen Entwicklungen zunächst kalt erwischt worden zu sein. Mittlerweile hat der führende Internetriese zahlreiche Änderungen bei seiner Internetsuche angestoßen.

  • Google AI Overviews (AIOs): Mit dem Launch der Google AI Overviews wurde das Interface der bekannten Google-Suche verändert. Zunächst wurde die Funktion nur in den USA und für eingeloggte Nutzer:innen zur Verfügung gestellt.
    Update: Mittlerweile stehen die AIOs allen Nutzer:innen weltweit zur Verfügung.

Google verändert mit diesen Anpassungen die Internetsuche nachhaltig. Klar scheint: Die Spielregeln für die Akteure werden verändert. Viele Unternehmen, Publisher und SEOs fragen sich, wie diese Entwicklungen ihre Arbeit beeinflussen werden. Die Aufregung in der Branche ist riesig und aktuelle Informationen werden fast minütlich veröffentlicht. Wir möchten diesen Beitrag nutzen, um auf aktuelle News aufmerksam zu machen und diese einzuordnen.

 

Häufig gestellte Fragen zum Thema KI und SEO

Wo finde ich relevante Informationen zu den Änderungen von Google?

Google veröffentlicht regelmäßig Informationen rund um neue Produkte sowie Änderungen in den Algorithmen auf Google Search Central.

Welche Neuerungen bietet Google?

Allen voran: Die Integration der künstlichen Intelligenz in die Internetsuche. Mit den AI Overviews und dem für die USA freigegebenen AI Mode kommen weitreichende Änderungen auf die Internetsuche zu.

Wird SEO weiterhin relevant bleiben?

Kurzum: Ja. Die Aufregung rund um die Google Entwicklerkonferenz in der SEO-Branche war riesig. Genaue Aussagen über die Auswirkungen, die die Integration der KI in die Internetsuche haben wird, können noch nicht getroffen werden. Die Grundlagen der Suchmaschinenoptimierung scheinen jedoch weiterhin relevant zu bleiben.

Alexander Beth

Alexander Beth | Content-Marketing-Manager

Alex' Herz schlägt für Storytelling, Branding und Daten. Er kombiniert seine kreative Ader mit analytischen Fähigkeiten und berät unsere Kund:innen im AI/SEO-Bereich.

Erfahrt mehr über unseren Autoren Alexander →

Zurück
Zurück

Marketwatch: Social Media

Weiter
Weiter

Squarespace-Weiterleitungen: Ein Praxisguide