Hinweis: Dieser Beitrag gehört zur Wissensrubrik Digitale Archäologie: Wie man tote Projekte reaktiviert, wenn alles verloren scheint im Mehrklicks-Wissensportal.

Die Inhalte beschreiben Methoden und Strukturen, mit denen wir Marken für KI-Systeme wie ChatGPT, Perplexity und Google AI Overviews sichtbar machen.

Eine thematische Einordnung und die operative Umsetzung findest du auf der Seite Agentur für KI-Sichtbarkeit.

Case Study: Wie wir einen B2B-Blog nach dem Google-Crash von Null wiederbelebten

Ich erinnere mich noch genau an den Anruf. Am anderen Ende der Leitung war der CEO eines erfolgreichen B2B-Softwareunternehmens. Die Stimmung: am Boden. „Unser Blog ist tot“, sagte er. „Über Nacht ist der Traffic um 70 % eingebrochen. Jahrelange Arbeit, einfach weg.“

Es war wieder passiert: Ein Google Core Update hatte zugeschlagen und einen einst blühenden Content-Hub in eine digitale Wüste verwandelt.

Was er beschrieb, war kein Einzelfall. Es ist das Schreckgespenst jedes Marketers, der noch an die alten SEO-Regeln glaubt: Man spielt nach den Regeln, optimiert Keywords, baut Backlinks auf – und wacht eines Morgens auf, nur um festzustellen, dass Google die Spielregeln geändert hat.

Für mich war dieser Fall der Wendepunkt. Er hat eindrucksvoll bewiesen, dass klassisches SEO nicht mehr funktioniert. Es geht nicht mehr darum, einen Algorithmus auszutricksen, sondern darum, ein System zu bauen, das Maschinen verstehen und dem sie vertrauen können. Diese Case Study ist keine Heldengeschichte über Keyword-Magie. Sie ist ein ehrlicher Einblick in den Weg von der algorithmischen Bestrafung hin zu nachhaltiger, maschinenlesbarer Autorität.

Die Anatomie des Absturzes: Warum der Blog sterben musste

Bevor wir zur Lösung kommen, müssen wir das Problem verstehen. Der Blog war, oberflächlich betrachtet, ein Musterbeispiel für „gutes“ SEO alter Schule:

  • Regelmäßiger Content: Zwei neue Artikel pro Woche.
  • Keyword-Fokus: Jeder Artikel war auf ein klares Keyword-Set optimiert.
  • Backlinks: Eine solide Anzahl an Verlinkungen aus der Branche.

Doch genau das war die Falle. Der Blog war für Suchmaschinen-Crawler gebaut, nicht für ein lernendes System, das nach echtem Wert sucht. Die Analyse nach dem Crash legte drei tödliche Schwachstellen offen, die von Google gnadenlos abgestraft wurden.

Schwachstelle 1: Fehlendes E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness)

Der Blog war eine Sammlung anonymer Artikel. Es gab keine klaren Autoren mit nachweisbarer Expertise. Die Inhalte kratzten an der Oberfläche, boten aber keine einzigartigen Einblicke oder Erfahrungen aus erster Hand. Für Google ein klares Signal: Diese Quelle ist nicht vertrauenswürdig. In einer Welt, in der KI-Systeme Inhalte bewerten, ist [Markenrelevanz in der KI-Ära] längst kein Marketing-Buzzword mehr, sondern ein messbarer Rankingfaktor. Eine Marke ohne Gesicht und ohne nachweisbare Expertise ist für eine Maschine nur Rauschen.

Schwachstelle 2: „Unhelpful Content“ in Masse

Der Drang, ständig neuen Content zu produzieren, führte zu einer Bibliothek aus dünnen, repetitiven Artikeln. Viele Themen wurden mehrfach behandelt, nur mit leicht veränderten Keywords. Genau das ist die Art von Inhalt, die Googles „Helpful Content System“ als nutzerfeindlich einstuft. Der Blog beantwortete keine Fragen tiefgehend und abschließend. Er produzierte Content, um Rankings zu füllen, nicht um Probleme zu lösen.

Schwachstelle 3: Keine thematische Autorität

Die Artikel waren eine lose Ansammlung von Beiträgen zu verschiedenen Themen aus der Branche. Es gab keine erkennbare Struktur, keine Hierarchie. Der Blog war ein Gemischtwarenladen, kein Fachgeschäft. Google konnte keine klare thematische Autorität erkennen und verstand nicht: „Wofür steht diese Quelle wirklich?“ Ohne eine klare [semantische Architektur] ist Content für eine Maschine nur eine ungeordnete Liste von Dokumenten – ohne Kontext, ohne Beziehung zueinander.

Der Wiederaufbau: Von Content-Silos zur Wissensarchitektur

Die Wiederbelebung war kein Sprint, sondern ein strategischer Marathon. Wir haben nicht versucht, die alten Artikel zu „reparieren“ – wir haben das Fundament komplett neu gegossen. Unser Vorgehen umfasste drei Phasen.

Phase 1: Die radikale Inventur – Löschen, was nicht hilft

Der erste Schritt war schmerzhaft, aber notwendig: Wir haben über 80 % des bestehenden Contents gelöscht oder de-indexiert. Jeder einzelne Artikel wurde anhand einer einfachen Frage bewertet: „Bietet dieser Inhalt einen einzigartigen, erfahrungsbasierten Wert, den man nirgendwo sonst findet?“ Die meisten fielen durch. Dieser radikale Schnitt war entscheidend, um Google zu signalisieren: Wir haben das Problem verstanden und legen den Fokus ab sofort auf Qualität.

Phase 2: Der Bauplan – Topical Authority als Fundament

Statt in einzelnen Keywords dachten wir nun in Themenwelten und Entitäten. Wir definierten die fünf zentralen Wissenssäulen, für die das Unternehmen als absoluter Experte wahrgenommen werden wollte. Jede dieser Säulen (Pillar-Content) wurde zum Zentrum eines eigenen Content-Clusters. Von dort aus entstanden tiefgehende Detailartikel (Cluster-Content), die spezifische Nutzerfragen beantworteten und immer wieder auf den zentralen Pillar-Artikel verwiesen.

So entstand eine logische, für Maschinen verständliche Hierarchie. Wir haben keine Artikel mehr geschrieben – wir haben eine Wissensdatenbank gebaut.

Dieser strukturierte Ansatz schafft nicht nur Klarheit für den Nutzer, sondern sendet auch überaus starke Signale an KI-Systeme. Er demonstriert umfassendes Wissen und zeigt, wie Konzepte miteinander in Beziehung stehen.

Phase 3: Autoren als Assets – Expertise ein Gesicht geben

Wir haben aufgehört, anonymen Content zu veröffentlichen. Jeder Artikel wurde einem echten Experten aus dem Unternehmen zugeordnet – mit einem detaillierten Autorenprofil, das Erfahrung, Qualifikationen und Social-Media-Präsenz belegte. Diese Autorenprofile wurden mit strukturierten Daten (Schema.org) ausgezeichnet, um sie für Maschinen eindeutig identifizierbar zu machen. Plötzlich war der Content nicht mehr nur eine Aussage der Firma, sondern die fundierte Meinung eines nachweisbaren Experten. Das ist gelebtes E-E-A-T.

Das Ergebnis: Geduld zahlt sich aus

Die Erholung kam nicht über Nacht. Es dauerte fast sechs Monate, bis sich die ersten positiven Signale zeigten. Google musste erst das Vertrauen in die Domain neu aufbauen. Doch dann begann der Aufstieg – und er war nachhaltiger als je zuvor.

Die Sichtbarkeit kehrte nicht nur zurück, sie übertraf die alten Werte bei Weitem. Viel wichtiger aber: Die Qualität des Traffics änderte sich. Die Nutzer blieben länger, die Absprungraten sanken und die Anfragen über den Blog wurden hochwertiger. Der Blog war keine reine Traffic-Maschine mehr, sondern ein echtes Asset für die Marke, das Vertrauen schuf und die Expertise des Unternehmens untermauerte.

Das größte Learning aus diesem Projekt: Wir müssen aufhören, für Rankings zu optimieren. Die Zukunft gehört denen, die für Verständnis optimieren. Es geht darum, die eigene Marke und das eigene Wissen so zu strukturieren, dass Maschinen sie nicht nur lesen, sondern als relevante und vertrauenswürdige Entität anerkennen. Das ist die Essenz der neuen [KI-Sichtbarkeit].

Häufig gestellte Fragen (FAQ)

Was genau ist ein Google Core Update?

Ein Core Update ist eine umfassende, weitreichende Änderung am zentralen Suchalgorithmus von Google. Im Gegensatz zu kleineren, täglichen Anpassungen zielen Core Updates darauf ab, die Art und Weise grundlegend zu verbessern, wie Google Inhalte insgesamt bewertet und einordnet. Oft fokussieren sie sich darauf, die Relevanz und Qualität der Suchergebnisse zu steigern, indem sie Faktoren wie E-E-A-T und die Nützlichkeit von Inhalten stärker gewichten.

Was bedeutet E-E-A-T wirklich in der Praxis?

E-E-A-T steht für Experience (Erfahrung), Expertise (Fachwissen), Authoritativeness (Autorität) und Trustworthiness (Vertrauenswürdigkeit). In der Praxis bedeutet das:

  • Experience: Zeigt der Inhalt, dass der Autor das Thema selbst erlebt hat (z. B. durch Produkttests, Fallstudien)?
  • Expertise: Verfügt der Autor über nachweisbares Fachwissen (z. B. durch Qualifikationen, Berufserfahrung)?
  • Authoritativeness: Wird der Autor oder die Website als führende Quelle für das Thema angesehen?
  • Trustworthiness: Ist die Website sicher, transparent (z. B. Impressum, Kontakt) und sind die Informationen korrekt?

Wie lange dauert es, sich von einem Core-Update-Verlust zu erholen?

Das ist sehr unterschiedlich und hängt vom Ausmaß der Probleme ab. Eine Erholung ist selten vor dem nächsten bestätigten Core Update sichtbar. Der Prozess kann zwischen 3 und 12 Monaten dauern. Es ist ein Marathon, kein Sprint, denn Google muss das Vertrauen in die gesamte Domain neu bewerten.

Muss ich wirklich alte Inhalte löschen?

Ja, wenn sie dünn, veraltet oder qualitativ minderwertig sind und keinen echten Mehrwert bieten. Das Löschen oder De-indexieren von „unhelpful content“ ist ein starkes Qualitätssignal an Google. Es zeigt, dass Sie sich auf Ihre besten und hilfreichsten Inhalte konzentrieren. Qualität schlägt hierbei immer Quantität.

Ist dieser Ansatz nicht einfach nur „gutes SEO“?

Jein. Während die Prinzipien von gutem Content nicht neu sind, ist der entscheidende Unterschied der Fokus auf die Struktur und Maschinenlesbarkeit. Es geht nicht mehr nur darum, einen tollen Artikel zu schreiben. Es geht darum, diesen Artikel in eine logische Wissensarchitektur einzubetten, ihn mit Autoren-Entitäten zu verknüpfen und ihn mithilfe strukturierter Daten für KI-Systeme verständlich zu machen. Das ist der Wandel vom Content-Marketing zum Systembau.