Seit der Änderung des num=100-Parameters zeigt sich: Wer eigene Daten kontrolliert, versteht Suchsysteme besser.
Seit der Änderung des num=100-Parameters im Spätsommer 2025 wird deutlich, wie abhängig viele SEO-Tools von Googles technischen Rahmenbedingungen sind. Der Parameter erlaubte es, bis zu 100 Suchergebnisse pro Anfrage auszulesen – eine Grundlage, auf der sich zahlreiche Sichtbarkeitsmetriken stützten. Mit dem Wegfall dieses Zugriffs hat sich die Datenerhebung dauerhaft verändert.
Was sich geändert hat – und warum es relevant bleibt
Im Spätsommer 2025 entfernte Google die Möglichkeit, über den Parameter num=100 mehr als zehn Treffer pro Anfrage auszulesen. Diese Anpassung wirkt unscheinbar, hat aber die Arbeitsweise vieler Tools und Analysten spürbar verändert. Bisher konnten sie große SERP-Stichproben bilden und daraus eigene Sichtbarkeitsindizes ableiten. Heute müssen sie für dieselbe Datenmenge ein Vielfaches an Abfragen durchführen – mit höherem Aufwand und geringerer Granularität.
Für die Praxis bedeutet das: weniger Rohdaten, längere Aktualisierungszyklen und ein stärkerer Fokus auf modellierte Schätzwerte statt echte Messungen.
Was das über SEO-Tools verrät
Die bekannten SEO-Suiten sind dadurch nicht entwertet, aber sie haben ihre Grenzen offenbart. Ihr Wert liegt weniger im direkten Messen, sondern in der Aggregation und Interpretation großer Datenmengen. Sie bleiben nützlich, aber nicht mehr als alleinige Entscheidungsgrundlage.
Ihre Sichtbarkeitsindizes sind heute eher Näherungen als Messwerte. Sie helfen, Entwicklungen zu erkennen, erklären aber nicht, warum sie entstehen. Diese Erkenntnis hat viele SEO-Analysten dazu gebracht, den Fokus wieder stärker auf eigene Datenquellen zu legen.
Weniger Daten – gleiche Kosten
Der Preis für SEO-Tools hat sich kaum verändert, obwohl der zugrunde liegende Datenzugriff kleiner geworden ist. Das ist keine Fehlentwicklung, sondern eine Folge der neuen Realität: Anbieter müssen mehr Anfragen stellen, Daten häufiger validieren und Modelle enger justieren – während Google den Zugriff immer stärker kontrolliert. Sichtbarkeit bleibt messbar, aber sie wird schwieriger zu vergleichen.
Was sich daraus ableiten lässt
Die Abhängigkeit von Google war schon immer da – sie ist nur sichtbarer geworden. Wenn der Datenzugriff eingeschränkt wird, verlieren externe Tools einen Teil ihrer Aussagekraft. Damit stellt sich die Frage: Woher stammen eigentlich unsere SEO-Daten – und wie belastbar sind sie wirklich?
Seit dem Wegfall von num=100 zeigt sich: Wer seine Performance verstehen will, muss eigene Datensätze aufbauen und pflegen. Nicht, weil Tools überflüssig wären – sondern weil nur eigene Daten überprüfbar und kontextualisierbar sind.
Die neue Grundlage: eigene, verifizierbare Daten
Wirklich belastbare SEO-Analysen entstehen heute an der Schnittstelle von drei Quellen:
- Google Search Console (GSC): liefert verifizierte Query-, Impression- und Klickdaten – direkt von der Quelle.
- First-Party-Tracking: misst, wie Nutzer mit Inhalten interagieren und wie sich diese Signale verändern.
- Private SERP-Monitoringsysteme: ermöglichen reproduzierbare Messungen definierter Keyword-Sets – unabhängig von Tool-Limits.
Diese Kombination schafft Datenhoheit und trennt reale Messwerte von modellierten Annäherungen. Sie erlaubt es, SEO wieder als kontrollierbaren Prozess zu verstehen, nicht als Auswertung fremder Indizes.
Wie sich SEO-Analyse verändert hat
Einige Monate nach der Änderung zeigt sich ein klarer Trend: Teams, die auf eigene Datenmodelle umgestiegen sind, können Entwicklungen präziser bewerten. Sie erkennen früh, wann Ranking- oder Sichtbarkeitsveränderungen real sind – und wann sie nur aus Stichprobenrauschen entstehen.
Das verändert auch den Beruf des SEO-Analysten. Aus Tool-Anwendern werden Datenarchitekten, die Strukturen, Zusammenhänge und Kausalitäten verstehen. Wer SEO heute operativ betreibt, braucht weniger Dashboard-Übersicht, dafür mehr Datenkompetenz.
Fazit
Die Entfernung des num=100-Parameters war kein Zufall, sondern ein Signal. Google kontrolliert zunehmend, welche Daten von außen sichtbar sind – und zwingt damit die Branche, sich auf Qualität statt Quantität zu konzentrieren.
Für SEO-Profis bedeutet das: Echte Erkenntnisse entstehen nicht in Tool-Grafiken, sondern in eigenen, nachvollziehbaren Datensätzen. Wer sie aufbaut, gewinnt Klarheit. Wer sich allein auf fremde Sichtbarkeitsmetriken verlässt, arbeitet mit Annäherungen.
Eigentlich war das schon immer so – nur hat der Wegfall des num=100-Parameters den Blick dafür geschärft. Gute SEO-Arbeit war nie abhängig von externen Dashboards, sondern von der Fähigkeit, eigene Daten zu verstehen, zu prüfen und daraus Entscheidungen abzuleiten.
Tools bleiben wertvoll – aber sie ersetzen keine eigene Datenhoheit.
Häufig gestellte Fragen
Seit Google im Spätsommer 2025 den Parameter num=100 entfernt hat, können Tools nicht mehr bis zu 100 Suchergebnisse pro Anfrage auslesen. Das reduziert die Datenbasis deutlich und zwingt Anbieter, ihre Stichproben zu verkleinern oder ihre Modelle stärker zu schätzen.
Die Tools liefern weiterhin wertvolle Orientierung, ihre Sichtbarkeitswerte sind aber stärker modellbasiert. Sie zeigen Trends, keine exakten Messwerte. Für präzise Analysen sollten die Daten aus GSC und eigenen Tracking-Systemen herangezogen werden.
Weil externe Tools nur noch begrenzt auf Google-Daten zugreifen können. Wer selbst misst – etwa über GSC, First-Party-Tracking und SERP-Monitoring – behält die Kontrolle über Qualität, Kontext und Verlässlichkeit der eigenen SEO-Daten.
Ein praxisnaher Ansatz ist die Kombination aus drei Ebenen:
- Google Search Console als Basis für echte Suchdaten,
- Webanalyse zur Messung von Nutzerverhalten,
- eigene SERP-Checks für definierte Keyword-Sets.
So entsteht ein vollständiges, verifizierbares Bild der Sichtbarkeit.
Keine Kommentare vorhanden