July 30, 2025

Von SEO zu KI-Suchoptimierung – Eine Studie aus der Versicherungswirtschaft 2025

Einführung & zentrale Erkenntnisse

Die gemeinsame Untersuchung von ERGO Innovation Lab und der auf generative KI spezialisierten Beratung ECODYNAMICS nimmt den rasanten Wechsel von keywordbasierter Google-Suche hin zu dialogorientierten Large-Language-Model-(LLM-)Antworten unter die Lupe; sie zeigt, dass sich damit nicht nur das Nutzer-Interface verändert, sondern vor allem die Logik, nach der digitale Sichtbarkeit verteilt wird. In mehr als 33 000 abgerufenen URLs demonstriert die Analyse, dass insbesondere Versicherungs­makler- und Vergleichs­portale einen massiven Vorsprung aufbauen – sie stellen 36 Prozent aller von LLMs zitierten Quellen, während Direkt­versicherer lediglich 17 Prozent erreichen. Zugleich belegt die Studie, dass die neuen Systeme anfällig für Fehlinformationen bleiben: Im Schnitt waren 7,6 Prozent aller Treffer Halluzinationen, wobei ChatGPT mit 9,7 Prozent die höchste Fehlerquote aufwies und You.com mit 3,1 Prozent am stabilsten agiert. Wer künftig in AI-Interfaces sichtbar sein will, muss daher Inhalte liefern, die sowohl maschinen­lesbar als auch semantisch verlinkt, vertrauenswürdig und dialogtauglich sind – vier Faktoren, die in der Bewertungs­matrix der Autoren als wichtigste Hebel identifiziert wurden.

Aufbau der Studie

Um reale Recherche­szenarien abzubilden, definierten die Forscher 18 typische Google-Suchbegriffe für drei Produkt­linien (Hausrat-, Zahnzusatz-, Rechtsschutz­versicherung) und leiteten daraus 120 strukturierte Prompts ab, die je zehnmal an ChatGPT, Gemini, Perplexity AI und You.com gesendet wurden; dieselben Stichworte wurden parallel ebenfalls zehnmal direkt in Google eingegeben. Das Verfahren erzeugte 25 441 eindeutige LLM-Treffer, 5 851 reine Google-Ergebnisse und, nach Bereinigung, 2 074 Halluzinationen. Anschließend klassifizierte das Team ein repräsentatives Sample von 606 Seiten entlang von 20 Bewertungs­kriterien, gebündelt in vier Dimensionen: Machine Readability, Semantic Linking, Trust Signals und Conversational Formatting. Dadurch ließen sich nicht nur Treffer­volumina, sondern auch strukturelle Leistungs­treiber isolieren.

Ergebnisse der Studie

Erstens bestätigt sich ein Plattformgefälle: ChatGPT und You.com liefern das größte URL-Volumen, aber auch die höchsten Varianzen, während Gemini und Perplexity selektiver, dafür konsistenter agieren. Zweitens verschiebt sich das Kräfte­verhältnis der Anbieter: In dialog­getriebenen Antworten dominieren Broker-Domains, weil ihre Inhalte modular, verlinkt und entscheidungs­orientiert aufgebaut sind; traditionelle SEO-Signale wie Backlinks oder Marken­autorität verlieren Gewicht. Drittens zeigt die Auswertung, dass technisch saubere, semantisch kohärente Seiten stabiler abgerufen werden: Interne Link­hubs, klare Topic-Hierarchien und FAQ-ähnliche Antwort­blöcke erhöhen die Retrieval-Wahrscheinlichkeit erheblich. Viertens weist die Arbeit auf einen strategischen Wendepunkt hin: Ohne API-gestützte Produkt- und Schaden­endpunkte bleiben Versicherer außen vor, sobald LLM-Agenten nicht nur beraten, sondern automatisiert Verträge vergleichen und abschließen.

Handlungs­empfehlungen für Sichtbarkeit in KI-Suchen

  1. Technische Zugänglichkeit steigern: Seiten mit schlankem HTML5-Gerüst, Ladezeiten unter zwei Sekunden und konsequentem Einsatz von ARIA-Rollen werden von LLM-Crawlern zuverlässiger geparst und landen häufiger im Antwort­kontext.
  2. Semantische Cluster bilden: Statt einzelner Landing­pages sollten Themen als „Pillar Page + Cluster“ organisiert werden; je dichter die interne Verlinkung und je konsistenter die Terminologie, desto stabiler die Retrieval-Rate.
  3. Vertrauens­signale explizit ausweisen: Autoren­angaben, Regulierungs­hinweise, SSL und strukturierte Daten wie Organization- oder Product-Schema reduzieren Halluzinations­risiken und erhöhen Zitier­wahrscheinlichkeit.
  4. Dialog­fähige Content-Bausteine integrieren: Kurze, klar umrissene FAQ-Blöcke, Szenario-Tabellen oder Entscheidungs-Flows spiegeln die Prompt-Logik von LLMs und werden bevorzugt ausgewählt.
  5. APIs öffnen und Journey-Endpunkte bereitstellen: Preis-, Angebots- oder Schaden-Schnittstellen ermöglichen es Agentic-Systemen, nicht nur Inhalte zu zitieren, sondern Geschäfts­prozesse direkt auszuführen – ein Wettbewerbsvorteil, den Broker bereits nutzen.

Nukipa Brokr kann Ihnen bei den meisten der oben genannten Schritte helfen, angefangen beim Verständnis, ob Sie bereits in KI-Suchen sichtbar sind, bis hin zu den konkreten Maßnahmen, die Sie ergreifen sollten, um Ihre Sichtbarkeit zu verbessern.

Die komplette Studie kann hier eingesehen werden: https://www.ergo.com/de/newsroom-ergo/medieninformationen/2025/20250627-ergo-whitepaper-llm-search

Category
Insights
Written by
Steffen Iwan
Gründer Nukipa Labs