Inhalt

Home

>

,

>

GEO Case Study: Wie wir eine hartnäckige KI-Falschinformation korrigiert haben

,

GEO Case Study: Wie wir eine hartnäckige KI-Falschinformation korrigiert haben

Avatar von Marcel Rudolph

KI-Tools wie ChatGPT, Perplexity oder Google AI Overviews liefern längst nicht mehr nur Links – sie prägen, was Nutzer für „wahr“ halten. Doch was passiert, wenn sich veraltete Informationen tief im Netz festgesetzt haben? Ein reales Beispiel zeigt, wie schwer es ist, veraltete Daten aus dem KI-Kosmos zu verdrängen – und wie wir es mit einer gezielten GEO-Strategie (Generative Engine Optimization) am Ende doch geschafft haben.

Das Problem: Wenn alte Daten neue KI-Fehler erzeugen

Ein medizinisches Produkt unseres Kunden funktionierte früher langsam (mehrere Stunden Einwirkzeit), wirkt heute dank neuer Rezeptur aber in wenigen Minuten. Trotz dieser Verbesserung kursierten im Netz unzählige veraltete Angaben:

  • in Testberichten
  • Online-Shops
  • Blogs
  • und alten PDF-Gebrauchsanweisungen

Das Ergebnis:
Wer die KI fragte: „Muss das Produkt mehrere Stunden einwirken?“, erhielt von ChatGPT, Perplexity, den Google AI Overviews sowie dem AI-Mode eine glasklare – aber falsche – Antwort:

❌ Die falsche KI-Antwort:
„Ja, die Einwirkzeit beträgt mehrere Stunden.“
(inklusive einer logischen, aber veralteten Herleitung)

Die Ursache: Das Internet vergisst nie

Es handelte sich nicht um eine KI-Halluzination. Das Problem lag in den Datenquellen (Retrieval). Das Internet vergisst nie, und die KI-Tools griffen auf diese alten Texte zu, die statistisch gesehen noch immer in der Überzahl waren.

Versuch 1: Der Kampf gegen Windmühlen (Löschaufforderungen)

Unser erster Impuls war klassisch: Wir haben Webseitenbetreiber angeschrieben und um Löschung oder Aktualisierung gebeten. Das Resultat: Ernüchterung. Sobald eine Quelle verschwand, rückte eine andere mit den gleichen alten Infos im Ranking nach. Ein Teufelskreis. Es zeigte sich: Solange das Netz mehr veraltete als neue Inhalte bietet, bleibt die KI-Antwort falsch.

Versuch 2: Die GEO-Strategie (Content Inception)

Wir drehten den Spieß um. Statt zu hoffen, dass Dritte ihre Inhalte löschen, haben wir die offizielle Hersteller-Website genutzt, um die KI aktiv umzuerziehen.

Wir haben die betroffene Suchanfrage auf der Produktseite bewusst aufgenommen und im „Question-Answer“-Format strukturiert:

✅ Frage: „Muss das Produkt mehrere Stunden einwirken?“
Antwort: „Nein, diese Information ist veraltet. Frühere Produktversionen hatten eine längere Einwirkzeit, das aktuelle Produkt wirkt jedoch in wenigen Minuten.“

Plus eine weitere ausführlichere Erklärung darunter.

Warum das funktioniert: Wir gaben der KI den Kontext („veraltet“ vs. „aktuell“), den sie braucht, um widersprüchliche Informationen im Netz einzuordnen.

Das Zwischenergebnis: Google (AI Overviews) versteht, ChatGPT und co. zögern

Nach wenigen Wochen zeigte sich ein gespaltenes Bild, das viel über die unterschiedliche Arbeitsweise der KI-Systeme verrät:

  • 🟢 Google AI Overviews: Google korrigierte die Antwort sehr schnell. Der Grund: EEAT. Google bewertet die Herstellerseite als die ultimative Autorität (Source Authority) für Produktdaten. Wenn der Hersteller sagt „Es ist so“, überschreibt das für Google oft die Masse der anderen Quellen.
  • 🔴 ChatGPT ohne Grounding: Liefert weiterhin durchweg alte Antworten. Der Grund: Das Modell greift hier rein auf sein Training zurück, das (Stand jetzt) im Juni 2024 endet. Da keine Live-Daten abgerufen werden, kann es weit über ein Jahr dauern, bis neue Fakten in dieses „statische Wissen“ einsickern.
  • 🟠 ChatGPT mit Grounding (Internetsuche): Teilweise richtig, aber noch inkonsistent. Hier konkurrierte die neue Info auf unserer Seite immer noch mit den vielen alten Quellen im Live-Web.
  • 🔴 Perplexity: Zieht oft fragwürdige Quellen heran – dort ist die alte Version weiterhin präsent.
  • 🔴 Das Mysterium beim Google AI Mode: Besonders spannend war der Google AI Mode. Er lieferte im Großen und Ganzen eine falsche Antwort, jedoch oft mit einem kleinen Hinweis am Ende, dass es bereits ein neues Produkt mit wenigen Minuten Einwirkzeit gibt.

💡 Der Deep-Dive: Warum der AI Mode scheiterte

Unsere Analyse zeigte: Hier findet im Hintergrund oft eine Umwandlung der deutschen Suchanfrage in eine englische Suchanfrage statt (Cross-Lingual Retrieval). Das sorgt dafür, dass viele englischsprachige Websites durchsucht werden. Unter anderem griff die KI auf Quellen aus Kanada zu – und genau dort ist das alte Produkt (mit der stundenlangen Einwirkzeit) rechtlich noch auf dem Markt. Die KI vermischte also korrekte internationale Daten mit der deutschen Suchintention.

Warum Google hier führt: Der EEAT-Vorsprung

Der Unterschied liegt in der DNA der Systeme. Google hat einen jahrzehntelangen Vorsprung darin, die Autorität einer Quelle (Domain Authority) zu gewichten. Das System „weiß“ nach all den Jahren: Wenn es um technische Produktdetails geht, sticht die Herstellerseite alles andere – egal wie oft woanders das Gegenteil steht.

Bei LLMs wie ChatGPT ist das anders. Oft wird behauptet, sie hätten gar kein EEAT – das ist zu pauschal, aber die Gewichtung ist eine andere. LLMs funktionieren primär über statistische Wahrscheinlichkeiten. Vereinfacht gesagt: „Wahr“ ist für das Modell oft das, was im Trainingsdatensatz am häufigsten vorkommt. Wenn 100 alte Blogs „Stunden“ schreiben und nur eine oder wenige (neue) Seiten „Minuten“, gewinnt rein statistisch die Mehrheit.

Das Fazit hierzu: Google vertraut der Quelle (dem Experten), das reine LLM vertraut der Menge (der Statistik). Erst durch gutes Grounding (Live-Suche) können KI-Tools diesen Nachteil ausgleichen, aber ein so feingranulares „Vertrauens-Ranking“ wie Google haben die Herausforderer noch nicht.

Versuch 3: Grounding-Quellen bereinigen (Der Durchbruch)

Da wir die kanadischen Webseiten nicht ändern konnten, mussten wir die Quellen bereinigen, die ChatGPT für den deutschen Markt priorisierte. Ich analysierte gezielt, welche Quellen ganz eindeutig für die falschen Antworten genommen wurden.

Es waren vor allem zwei große Online-Apotheken mit hoher Sichtbarkeit. Wir nahmen erneut Kontakt auf und sorgten dort für eine Korrektur der Daten. Das war der entscheidende Hebel, der sich jedoch unterschiedlich auf die Tools auswirkte:

  • 🟢 ChatGPT mit Grounding: Hier kippte das Ergebnis komplett. Seit die Shops als „High-Trust“-Quellen bereinigt sind, liefert das Tool nun sehr eindeutig und konsistent die richtige Antwort.
  • 🟠 Google AI Mode: Hier bleibt das Bild noch gemischt. Zwar taucht nun häufiger die korrekte Antwort auf (oder zumindest ein Hinweis auf das neue Produkt), doch das Ergebnis ist im Vergleich zu ChatGPT weiterhin sehr inkonsistent.
  • 🔴 Perplexity: Tja, Perplexity lässt sich von so etwas Profanem wie aktuellen Fakten offenbar nicht beirren. Dort wird weiterhin munter die falsche Antwort ausgespielt. Die Engine scheint eine echte Vorliebe für digitale Antiquitäten zu haben und gräbt lieber veraltete Quellen aus, statt der aktualisierten Herstellerseite zu glauben.

Fazit: Was wir aus diesem GEO / LLMO Case lernen

Dieses Beispiel zeigt eindrucksvoll, dass GEO / LLMO kein Buzzword ist, sondern ein notwendiger Prozess für Markenführung im KI-Zeitalter.

  1. EEAT ist der Schlüssel: Eine starke Herstellerseite ist das Fundament, auf das Google sofort reagiert.
  2. Kontext ist King: Man muss der KI erklären, warum andere Infos falsch sind (Stichwort: „veraltet“), statt nur die neuen Infos zu posten.
  3. Grounding-Quellen managen: Es reicht nicht, die eigene Seite zu optimieren. Man muss wissen, welche Drittquellen (Shops, Presse) die KI als „Beweis“ heranzieht, und diese aktiv managen.

Mit GEO geht es nicht darum, die KI zu überlisten. Es geht darum, die Informationsarchitektur so aufzubereiten, dass die Wahrheit am einfachsten zu finden und zu verarbeiten ist.

📬

Am Ball bleiben bei der KI-Revolution

Erhalte die neuesten Insights zu SEO, GEO und KI-Strategien direkt in dein Postfach.

Ähnliche Artikel