Emotionen und Sichtbarkeitskurven in der SEO-Welt

Emotionen und Sichtbarkeitskurven in der SEO-Welt

Keinen Artikel mehr verpassen: Jetzt Newsletter abonnieren!

Ohne große Umschweife will ich direkt sagen, dass ich mich eben beim Lesen des Blogbeitrages „Pfeif auf die Sichtbarkeit“ von Julian Dziki köstlich amüsiert habe. Daher möchte ich diesen doch sehr gerne aufgreifen und meinen eigenen Kommentar dazu abgeben. Außerdem möchte ich wirklich empfehlen, den Blogbeitrag zu lesen. Worum es in dem Beitrag geht, wird schnell klar: die Sichtbarkeit. Und ich muss sagen, dass ich in wirklich allen Punkten die dort dargestellte Meinung teile.

Traue keiner Statistik und so

Anscheinend war es bei Seokratie an der Zeit, sich etwas Luft zu machen. Etwas, dass sicherlich niemals schaden kann, und was auf einem kompliziertem Gebiet wie SEO bestimmt auch von den richtigen gelesen wird. Hoffentlich. Denn lesenswert ist der Artikel auf jeden Fall. Im Allgemeinen geht es um die Sichtbarkeit und wie sich manche von dieser Kennzahl eines Toolanbieters abhängig machen und diese Beweihräuchern, ohne sie vermutlich jemals gänzlich verstanden zu haben oder verstehen zu können.

Ich muss sagen, dass Julian Dziki und ich in diesem Punkt anscheinend auf einer ganz ähnlichen Wellenlänge schwimmen. Ich will, genauso wie er, keinem Toolanbieter irgendwie unrecht tun, denn selbst arbeite ich ja ebenfalls mit den bekannten Tools der Branche. Auf meine Sistrix-Werte, den Captain von OnPage.org oder auf die hilfreichen Werkzeuge von Screaming Frog, Searchmetrix, Keywordmonitor und wie sie alle heißen, möchte ich bei meiner täglichen Arbeit nicht verzichten. Aber sollte man diese Werte wirklich so huldigen, wie es ab und an der Fall ist? Ist eine Sichtbarkeit von 2,52 wirklich so viel besser und sichtbarer als eine von 0,03? Vermutlich nicht. Zumindest nicht, wenn es sich um die besagte Seite handelt, von der jeder SEO mittlerweile gehört haben sollte.

Das richtige Tool im richtigen Moment

Wie Julian Dziki richtig sagt, kann man den Wert einer Seite nicht ausschließlich durch die Tools der Anbieter bewerten. – Oder sagen wir besser, man sollte die Qualität einer Seite nicht nur durch ein bestimmtes Tool bewerten. Denn man sollte bei aller Qualität eben auch beachten, dass es sich hierbei um interne Erfindungen der SEO-Szene selbst handelt. Nur weil eine Seite im Sichtbarkeitsindex bei Sistrix steigt oder fällt, heißt dies nicht, dass es auch der Fall beim Keywordmonitor oder anderen SEO-Tools der Fall ist. Außerdem kann man nicht pauschal behaupten, dass die Sichtbarkeit immer identisch zu den Besucherzahlen verläuft. Der Bereich der Suchmaschinenoptimierung ist viel zu komplex um den (momentanen) Erfolg oder Misserfolg einer Seite von einem einzelnen Teilbereich eines komplexen Tools abhängig zu machen.

Die Folgen der Geheimhaltung

Da der Beitrag auf Seokratie so dermaßen unterhaltsam auf die Punkte eingeht, warum man die einzelnen Tools auch einmal hinterfragen sollte, werde ich diese nur punktuell aufgreifen.

Die Funktionsweise der einzelnen SEO-Tools ist nämlich (fast) so geheim wie der Algorithmus von Google selbst. Niemand, abgesehen von vielleicht den Anbietern selbst und einigen Eingeweihten, weiß genau wie die Daten berechnet werden, an die sich eine ganze Szene klammert. Sicherlich sind solche Kennzahlen hilfreich und informativ, aber wie bei jeder guten Statistik, sollte man diese auch deuten können, bevor man zu Schlussfolgerungen kommt. Das kritische Hinterfragen wird meiner Meinung nach im durchaus hektischen Arbeitsalltag der SEOs gerne einmal vergessen. Immerhin gibt es nicht „EINE“ Algorithmus-Definition, die alles erklärt. Viele Eigenschaften können zwar mehr oder weniger abgeleitet werden, aber wer weiß denn schon, ob der Google-Algorithmus genauso ist wie der von den einzelnen Toolanbietern? Oder besser, wie viele unterschiedliche Algorithmen nutzen wohl die Anbieter selbst?

Immerhin müssen einem Algorithmus unterschiedliche Eigenschaften zugeordnet werden, damit auch der gewünschte Effekt eintreten kann. Allein schon die Frage, ob es sich um nebenläufige, parallele oder sequentielle Algorithmen handelt, wage ich persönlich nicht zu beurteilen. Und dann sind wir immer noch nicht bei der Frage der Determiniertheit bzw. des Determinismus.

Erst, wenn man alle Variablen kennt, lässt sich beurteilen, ob das Löschen von Keywords aus den hinteren Trefferlisten lediglich Auswirkungen auf die Sichtbarkeit hatte oder auch auf die Besucherzahlen. Die Sichtbarkeit und das Gefunden werden können sich zwar überschneiden, sie müssen es aber nicht. Um das im Einzelnen herauszufinden, sollte man sich allerdings die Zeit nehmen und die Zahlen mit anderen SEO-Tools vergleichen. Hiermit sind wir dann auch wieder bei der gestern von mir erwähnten Qualität von SEO-Dienstleistungen und der von Julian Dziki angesprochenen wissenschaftlichen Relevanz der SEO-Daten. Wenn diese ohnehin schon ungenauen Daten schließlich auch noch amateurhaft ausgewertet oder für absolut aussagekräftig gehalten werden, dann ist das Dilemma perfekt. Anstatt auf die Qualität von Seiten zu achten und tatsächlich einmal auf thematische Relevanz in Texten und zitierfähige Quellen bzw. Links zu schauen, geht der Blick dennoch zuerst auf die Daten der einzelnen Tools. Ist dies nicht heuchlerisch, wenn man zwar die ganze Zeit nach Seiten sucht, die thematisch passend sind und sich für eine „organische“ Verlinkung eignen, man dann aber dennoch davon absieht, weil es sich um eine Blogspot Domain oder ähnliches handelt?

Das ist sicherlich ein Grund, warum stellenweise die Meinungen innerhalb der SEO-Szene sehr weit auseinander gehen, wenn es darum geht, was gute Inhalte sind, oder was gute Links sind. Geht man nach seinem persönlichen Empfinden, den Tools oder schaut man etwa doch einmal nach der Relevanz für den (potenziellen) Internetnutzer?

Subjektive Bewertungen objektiver Sachverhalte

Sicherlich werden jetzt beim letzten Satz wieder einige entrüstet den Kopf geschüttelt haben, aber seien wir doch mal ehrlich. SEO hat ein Definitionsproblem. Das fängt bei guten und schlechten Links an und hört bei gutem oder schlechten Content auf. Ranksider hat gestern „68 Online-Experten“ zum Thema Content Marketing zu Wort kommen lassen. Obwohl sich viele Meinungen (unsere Chefredakteurin Mareike Doll ist ebenfalls vertreten) decken, hat eigentlich noch niemand im SEO-Bereich eine einheitliche Definition für den Begriff Content Marketing gefunden. Und genauso sieht es bei Linkbuilding Guidelines, dem Setzen von „guten Links“ oder der perfekten OnPage Strategie aus.

Melden Sie sich für unseren Newsletter an

Bleibe auf dem Laufenden und erhalte neue Beiträge und Insights von SEOPT per E-Mail, kostenlos!

Über den Autor

Wer schreibt eigentlich hier? Mein Name ist Helen Schrader, Diplom-Geographin und ambitionierte Bloggerin in den Bereichen SEO und Online Marketing. Schwerpunktmäßig beschäftige ich mich mit E-Commerce, Social Media, internetgestützter Markt- und Meinungsforschung sowie kollaborativen Internetumgebungen.

Weitere Artikel von Helen Schrader. Helen Schrader auf Google+. Helen Schrader auf Twitter.

Ähnliche Beiträge

Mafia, Macht und Manipulationen

Warum der Linkhandel nicht totzukriegen ist und Google Linkaufbau trotzdem begrüßt Der Stoff, aus dem der Linkaufbau gemacht ist, hat mit seinen Erfolgen und Niederlagen, […]

https

Von HTTP auf HTTPS ohne Rankingverlust

Umstellung von HTTP auf HTTPS – Alle Fragen, alle Antworten Bereits seit August 2014 ist die HTTPS-Verschlüsselung ein Rankingfaktor bei Google. Seitdem hat diese stetig […]


Keine Kommentare vorhanden

Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*

Abonnieren Sie unseren kostenlosen E-Mail Newsletter ANMELDEN