Keyword-Dichte ist tot. Was Google wirklich will, verrät seine eigene KI.

Ich erinnere mich noch gut an die Zeit, als SEO-Texter mit Excel-Listen und WDF*IDF-Tools hantierten wie Alchemisten mit geheimnisvollen Elixieren. Die Formel schien einfach: Finde die Wörter, die deine Konkurrenz nutzt, streue sie in der „richtigen“ Dichte in deinen Text, und Google würde dich belohnen. Wir haben Wortzählungen optimiert, Synonyme ausgetauscht und geglaubt, den Code geknackt zu haben.

Heute ist klar: Wir haben damals nur die Oberfläche einer Maschine poliert, die längst ein Gehirn entwickelt hat. Metriken wie Keyword-Dichte oder WDF*IDF sind Relikte einer Ära, in der Suchmaschinen Wörter zählen mussten, weil sie sie noch nicht verstehen konnten. Dieser Ansatz ist heute nicht nur veraltet – er ist geradezu schädlich für deine KI-Sichtbarkeit.

Das alte Spiel: Warum das Zählen von Wörtern scheitern muss

Die Logik dahinter war bestechend simpel und basierte auf einer einfachen Annahme: Wenn erfolgreiche Dokumente zu einem Thema bestimmte Wörter häufig verwenden, muss ich diese Wörter ebenfalls häufig verwenden, um als relevant zu gelten.

Das Problem dabei? Kontext existierte nicht. Ein Text über das Unternehmen „Apple“ war algorithmisch kaum von einem Text über die Frucht „Apple“ zu unterscheiden, solange die Begleitwörter ähnlich oft vorkamen. Es war ein mathematisches Spiel, kein semantisches.

Diese Methode ignoriert die wichtigste Eigenschaft von Sprache: Bedeutung entsteht durch die Beziehung zwischen Wörtern, nicht durch ihre Häufigkeit. Eine Studie von Ahrefs hat längst gezeigt, dass eine hohe Dichte des Hauptkeywords nicht mehr mit Top-Rankings korreliert. Stattdessen machen thematisch umfassende Seiten das Rennen – Seiten, die ein Thema ganzheitlich und in seinen Zusammenhängen erklären.

Der Paradigmenwechsel: Wie Maschinen begannen, Sprache zu verstehen

Der Wendepunkt kam nicht über Nacht, aber er hatte einen Namen: BERT (Bidirectional Encoder Representations from Transformers). Vergiss den komplizierten Namen, merk dir nur eins: Mit BERT lernte Google, Sätze wie ein Mensch zu lesen – und zwar in beide Richtungen.

Plötzlich verstand die Maschine den feinen Unterschied zwischen „ein deutscher Reisender braucht ein Visum für die USA“ und „ein US-Reisender braucht ein Visum für Deutschland“. Der Kontext, die Beziehung der Wörter zueinander, wurde zum entscheidenden Faktor. Googles eigenes Patent zu BERT beschreibt genau das: die Fähigkeit, „den kontextuellen Zusammenhang von Wörtern in einer Sequenz“ zu verstehen.

Doch das war nur der Anfang. Mit neueren Technologien wie MUM (Multitask Unified Model) geht Google noch einen Schritt weiter und versteht heute Konzepte über Sprachen und Formate hinweg. Für diese intelligenten Systeme ist deine sorgfältig optimierte Wortdichte nur noch sinnloses Rauschen.

Was diese Systeme stattdessen suchen, sind keine Keywords. Sie suchen Entitäten.

Von Keywords zu Entitäten: Die neue Währung der Relevanz

Eine Entität ist nicht nur ein Wort, sondern ein klar definiertes Konzept oder Objekt der realen Welt:

  • Person: Angela Merkel
  • Ort: Berlin
  • Organisation: Google
  • Konzept: Künstliche Intelligenz

Eine Maschine, die in Entitäten denkt, führt keine Worthäufigkeitsanalysen durch – sie stellt Verbindungen her. Wenn du über „Apple“ schreibst, will die KI wissen: Meinst du die Entität „Apple Inc.“? Dann erwartet sie Zusammenhänge mit anderen Entitäten wie „Steve Jobs“, „iPhone“, „Cupertino“ oder „Tim Cook“. Schreibst du hingegen über die Frucht, erwartet sie Verbindungen zu „Obst“, „Vitamin C“ oder „Apfelbaum“.

Diese Denkweise ist der Grund, warum eine tiefgehende, thematisch reiche Seite, die dein Hauptkeyword vielleicht nur dreimal nennt, eine auf Keyword-Dichte getrimmte Seite um Längen schlägt. Sie beweist maschinelles Verständnis. Eine Analyse von Backlinko untermauerte das schon früh: Semantisch verwandte Begriffe hatten einen stärkeren Einfluss als die reine Keyword-Wiederholung. Es ging schon immer um den Aufbau von Entitäten und semantischer Architektur, die meisten wussten es nur noch nicht.

So findest du heraus, was Google wirklich für relevant hält

Du musst nicht raten, welche Entitäten für dein Thema wichtig sind. Du kannst Google direkt fragen – und zwar mit seinem eigenen Werkzeug. Die Google Natural Language API ist ein öffentlich zugängliches Tool, das dir zeigt, wie Googles KI einen beliebigen Text analysiert.

Der Prozess ist einfach:

  1. Nimm den Text eines Top-Ranking-Wettbewerbers zu deinem Thema.
  2. Gehe zur Google Cloud Natural Language API Demo.
  3. Füge den Text ein und klicke auf „Analyze“.

Das Ergebnis ist eine Offenbarung. Unter dem Reiter „Entities“ listet die KI nicht nur die erkannten Konzepte auf, sondern bewertet sie auch nach ihrer „Salience“ (Wichtigkeit für das Gesamtthema). Das ist die moderne Alternative zur WDF*IDF-Analyse. Du siehst genau, welche Personen, Orte, Produkte und Konzepte Google als zentral für das Thema erachtet.

Deine Aufgabe ist es nicht mehr, Wörter zu zählen, sondern die wichtigsten Entitäten deines Themas zu identifizieren und sie in deinem Content logisch zu vernetzen. Du baust ein Wissensnetz, das Maschinen lesen und verstehen können. Dadurch wird deine Marke maschinenlesbar – nicht nur für Google, sondern für das gesamte Ökosystem von KI-Assistenten und Antwortmaschinen. Und das ist keine reine Theorie: Eine Studie im Journal of Information Science bestätigte, dass solche NLP-Modelle die Relevanz eines Dokuments um bis zu 40 % genauer vorhersagen können als traditionelle, keyword-basierte Algorithmen.

Häufig gestellte Fragen (FAQ)

Was ist der Unterschied zwischen einem Keyword und einer Entität?

Ein Keyword ist eine Zeichenkette, ein Suchbegriff (z. B. „höchster Berg der Welt“). Eine Entität ist das dahinterliegende, eindeutige Konzept (der Mount Everest). KI-Systeme versuchen, die Absicht hinter dem Keyword zu verstehen und die richtige Entität als Antwort zu liefern.

Ist die WDF*IDF-Analyse jetzt komplett nutzlos?

Vollständig nutzlos ist sie nicht, aber sie bleibt ein unpräzises Werkzeug. Sie kann dir eine grobe Vorstellung davon geben, welche Begriffe in einem Themenfeld häufig vorkommen, sagt aber nichts über deren Kontext oder Wichtigkeit aus. Die Analyse von Entitäten über die NLP API ist um ein Vielfaches genauer.

Muss ich jetzt für jeden Text die Google NLP API verwenden?

Nein, das wäre unpraktikabel. Nutze das Tool strategisch: Analysiere die Top-3-Wettbewerber für deine wichtigsten, umsatzrelevanten Themen. So entwickelst du ein tiefes Verständnis für die Kernentitäten deines Fachgebiets, das du dann auf all deine Inhalte anwenden kannst.

Wie finde ich die richtigen Entitäten für mein Thema?

Neben der Wettbewerbsanalyse mit der NLP API helfen dir folgende Fragen:

  • Welche Personen, Organisationen und Orte sind untrennbar mit meinem Thema verbunden?
  • Welche grundlegenden Konzepte muss ein Leser verstehen, um das Thema zu meistern?
  • Welche Produkte, Ereignisse oder Gesetze sind relevant?
  • Welche Fragen stellt die KI selbst (z. B. in „Ähnliche Fragen“ bei Google) rund um das Thema? Die Antworten darauf sind oft die gesuchten Entitäten.

Dein nächster Schritt: Vom Wortzähler zum Wissensarchitekten

Die Ära des mechanischen Text-Optimierens ist vorbei. Sich an Metriken wie die Keyword-Dichte zu klammern, ist wie der Versuch, mit einer Landkarte aus dem 18. Jahrhundert durch eine moderne Metropole zu navigieren.

Der Wandel ist fundamental: Höre auf, Wörter zu zählen, und fange an, Konzepte zu vernetzen. Denke in Entitäten, nicht in Keywords. Baue deine Inhalte nicht als isolierte Dokumente, sondern als Teile einer großen, intern verknüpften Wissensarchitektur. So wirst du nicht nur in Suchmaschinen gefunden, sondern von KI-Systemen als Autorität verstanden und empfohlen.