Links realistisch bewerten! – Das (SEO)Leben post Penguin 2.0

Links realistisch bewerten! – Das (SEO)Leben post Penguin 2.0

Keinen Artikel mehr verpassen: Jetzt Newsletter abonnieren!

Nachdem das Penguin Update nun schon ein paar Tage ins Land gezogen ist und die Auswirkungen am Ende gar nicht so eklatant waren, wie vorab befürchtet, scheinen viele Webseitenbesitzer (und SEOs) nun wieder etwas mutiger zu werden. Während die Nachfrage nach getauschten oder verkauften Links in der Zeit direkt nach der Penguin 2.0 Ankündigung in den einschlägigen Foren, Seiten und Tauschplätzen schlagartig nachließ, geht es bei einigen nun schon wieder vielerorts zu wie auf einem Basar. Immerhin hat das Update nun seinen Schaden (oder eben auch nicht) angerichtet und daher heißt es allenthalben wieder zurück zur Massenproduktion.

Wie viele Links braucht eine Seite?

Sicherlich gibt es auch Seiten, die abgestraft wurden und nun mit Verlusten in den Seitenaufrufen, der Sichtbarkeit und/oder den Platzierungen zu kämpfen haben. Schließlich weiß niemand so richtig, wo nun die Grenze zwischen gutem, nachhaltigen Linkwachstum mit Erfolg und einem auffälligen, durchaus gefährlichem Linkwachstum für eine Seite liegt. Auch ist die Praktik der stetig gleichbleibenden Lieferung an Links pro Monat, mit der sich bis vor einigen Monaten noch relativ einfach das Geld in der Branche verdienen ließ, mittlerweile veraltet.
Ausschließlich durch Linkaufbau wird es immer schwieriger, auf gute Platzierungen zu kommen. Wer dies noch glaubt, hat einen wichtigen Punkt in der Evolution des Netzes verpasst.

Das Internet ist gewachsen und mit ihm auch die größte Suchmaschine. Google verändert den Algorithmus häufig und egal, welche Intention man hinter diesen Updates vermutet, man wird mit ihnen Leben müssen oder sich eine andere Suchmaschine suchen müssen, wenn man mit Googles Entwicklung nicht konform läuft.

Dennoch möchten viele Webseitenbetreiber und SEO-Firmen nicht auf die, sagen wir organisch-forcierten Links verzichten. Zu stark hat sich das Paradigma der erfolgreichen Seite durch Linkaufbau in den Köpfen festgesetzt. Anstatt die vielen, vielen Berichte und Artikel im Web wirklich umzusetzen, wird weiterhin auf semi-professionellen Linkaufbau gesetzt, der gerade in Zeiten der Qualitätsrichtlinien von Google äußerst dramatische Folgen haben können.

Jeder predigt zwar, dass man nur noch Links aufbauen sollte, die einem die berühmt berüchtigten Mehrwerte liefern, aber spätestens bei der Definition dieser Mehrwerte scheitern viele.

Nach dem Penguin ist vor dem Penguin

Allein schon die Nummerierung der Pinguine sorgt bei vielen für Verwirrung. Ist es nun Penguin 2.0 oder 4.0? Dabei ist die Antwort eigentlich ganz einfach, wenn man sich mit dem Metier beschäftigt. Je nachdem, ob man zwischen Updates und Datenaktualisierungen unterscheidet befindet man sich momentan im zweiten Algorithmusupdate (Penguin 2.0), dem zwei Datenaktualisierungen bei Penguin 1.0 zugrunde liegen.

Ein Algorithmusupdate bedeutet, dass sich die technische Erfassung des Algorithmus geändert hat, wohingegen eine Datenaktualisierung lediglich bedeutet, dass dem technischen Ablauf des Algorithmus ein paar neue Informationen zugespielt worden sind, mit denen dieser dann arbeiten konnte. – Unter anderem vielleicht sogar mit Informationen aus Googles eigenem Disavow Tool. Denn seitdem das Tool implementiert wurde, gibt es jede Menge Webseitenbetreiber und SEOs, die sich mit diesem Tool und seiner Funktionsweise mehr oder weniger beschäftigt haben.

Zu sehen ist dies für uns meistens an den E-Mails mit Bitten um Linkentfernung. Entweder wird um die Entfernung von Links gebeten, weil diese angeblich nicht mehr „Google konform“ sind oder es wird direkt mit der Entwertung per Disavow Tool „gedroht“. Zwar sagt Google und besonders eben der „Vorturner“ Matt Cutts immer wieder, dass man das Tool gut überlegt einsetzen sollte, aber inwieweit dies auch tatsächlich umgesetzt wird, vermag ich nicht zu beurteilen. Was den meisten bei dem Disavow Tool allerdings vollkommen abhanden gekommen scheint, ist die Tatsache, dass es von Google eigentlich mehr oder weniger als Selbstgeißelung entwickelt wurde. So hat Matt Cutts vor einigen Tagen in einem Hacker Forum zum wiederholten Male folgende Aussage getroffen:

Primärer Nutzen Disavow Tool

Die Krux mit der Linkprofilbereinigung

Interessant finde ich, dass sich die Anfragen nach Linkentfernungen und Linkprofilbereinigungen erst seit dem Penguin 2.0 wieder merklich angestiegen sind. Alle, die betroffen sind, scheinen also nun erst reaktiv zu handeln und diejenigen, die nicht betroffen sind, atmen einmal tief durch und gehen wieder zu dem über, was auch die letzten paar Jahre funktioniert hat.

Ich frage mich nur, wie es in einer so vernetzten Branche, wie dem SEO-Bereich überhaupt soweit kommen konnte, dass ein Update, welches immerhin schon kurz nach dem Jahreswechsel angekündigt wurde, NACH dem eigentlichen Update nun so hohe Wellen schlagen kann. Wie ist es möglich, dass so lange gewartet wurde, um einmal einen genauen Blick auf das Linkprofil zu werfen? Immerhin sollte es für professionelle SEOs ein Leichtes sein, die Spreu vom Weizen zu trennen. „Schlechte“ Links sind eben solche, die auf Seiten oder an Stellen stehen, wo sie nichts zu suchen haben. Und spätestens, wenn es sich um themenfremde, (inhaltlich) veraltete Seiten oder Domains handelt, die es schaffen, einen Schlauchboot-Link in einem Text zum Thema Schlafzimmermöbel unterbringen, sollten auch bei den „Amateuren“ die Alarmglocken angehen. So ein Link kann einer Seite eher schaden. In keinem Fall aber helfen.

Dass dieses weit verbreitete sich in Sicherheit Wiegen ein Trugschluss ist, scheint bei vielen noch nicht angekommen zu sein. Quelle dieser Aussage ist, wie könnte es anders sein, wieder Matt Cutts. Diesmal handelt es sich aber nicht um eine Aussage aus seinen Videos, seinem eigenen Blog oder einem Interview mit den einschlägigen SEO-Seiten, sondern um ein paar kleine aber feine Aussagen, die er vor einigen Tagen auf der schon angesprochenen kleinen Seite namens Hacker News getätigt hat. Vielleicht ein Forum, auf das man nicht direkt schaut, wenn man sich mit dem Penguin 2.0 Algorithmus im Nachhinein beschäftigt.

Mir sind die Statements nun allerdings aufgefallen, weshalb ich hier einmal die interessantesten Aussagen der Diskussion beleuchten möchte. Immerhin geht es darum, dass der Pinguin einem ganz schnell in den Allerwertesten beißen kann, wenn man sich nicht benimmt.

Der Stein des Anstoßes

Beginn der Diskussion war eine Frage zu Black-Hat bzw. Negativ-SEO. Immer mal wieder tauchen Statements auf, dass Seiten durch einen SEO-Angriff von „außen“ in den Suchergebnissen gefallen sind. In den meisten Fällen stellt sich dies zwar als Trugschluss oder relativ normal anzusehender Hackingangriff heraus, die Frage ob es Negativ-SEO gibt und wenn ja in welcher Form, hält sich aber ebenso hartnäckig wie die Aussage, dass jeder Link ein guter Link ist.

Hacker News Matt Cutts zu negativ SEO

Was mich bei den Aussagen im Forum der Hacker News am meisten überrascht hat, ist, abgesehen davon, dass wieder einmal die eher unwichtigen Dinge breit diskutiert werden. Etwa, ob es sich bei dem inhaltlichen Update der Guidelines um ein Eingeständnis oder eine sprachliche Verbesserunghandelt, bleiben andere Aussagen von Cutts wieder einmal nahezu unbeachtet.

Linkbuilding Spam 2008

Minderwertige Links

In dieser Stellungnahme, die weitaus weniger Kommentare hat als die zu Negativ-SEO, sagt Cutts, dass viele angebliche Attacken auf Webseiten sich in Wirklichkeit als manuelle Bestrafungen von Google herausstellen. Diese Bestrafungen fallen nicht in den Zeitraum eines Updates und beschäftigen sich entgegen der weit verbreiteten Annahme nämlich nicht nur mit aktuelleren, fragwürdigen Linksetzungen.

In diesem Beitrag wird eine Seite angesprochen, die wegen massiven Linkspams auffällig geworden ist und daher manuell von Google beobachtet und schließlich abgestraft wurde. Fälschlicherweise wurde dies als Negativ-SEO angesehen. Dabei war das Ergebnis der Google Beobachtung eindeutig. Es erfolgte eine Abstrafung wegen jahrelangen Linkspams (vorwiegend) aus den Jahren vor 2010. Da diese manuelle Abstrafung aber zu jeder Zeit umgesetzt werden kann und nicht mit einem Update übereinstimmen muss, dachten zunächst alle an Negativ-SEO.

Ein Rückschluss, der sich für mich aus diesen Aussagen ziehen lässt ist: Wer meint, dass man bei der Linkprofilbereinigung nur auf aktuellere Verweise achten muss, weil es „früher ja jeder so gemacht hat“, scheint sich zu irren. Und wird auch bei dem nächsten Penguin Update oder einer manuellen Bestrafung wieder dem Trend hinterherlaufen und sein Handeln im Nachhinein wieder umkehren müssen. – Oder eben die nachfolgende SEO-Agentur, wenn es der Kunde gemerkt hat und man sich trennt. Nach mir die Sintflut. So lange es niemandem auffällt, kann ein Erfolg immerhin nicht gänzlich ausgeschlossen werden.
Cutts führt in seiner Antwort einige Beispiele dieser fragwürdigen Links auf und man merkt: egal ob Sichtbarkeit oder nicht, allgemeine Branchenverzeichnisse und Webkataloge sind wohl wirklich Links, auf die man spätestens jetzt verzichten sollte. Ansonsten ist man vermutlich schneller dabei sein Linkprofil nachträglich zu bereinigen, um einen Wiederaufnahmenantrag zu stellen als einem lieb sein wird.

Die Moral von der Geschichte

Ok, das war nun auch mein letztes Sprichwort. Worauf sich sowohl SEOs als auch Webseitenbetreiber in Zukunft einstellen müssen ist, dass das Netz in den letzten Jahren deutlich gewachsen ist. Im Jahr 2000 war lediglich ein Viertel der weltweit vorhandenen Informationen digital verfügbar. Heutzutage geht man nach Schätzungen immerhin davon aus, dass es mehr als 1,2 Zettabyte an Informationen im Internet gibt. Sicherlich ein Punkt, warum sich Google auch zu den vielen Updates gezwungen sieht und es an der Zeit ist, die veralteten Linkbuilding-Praktiken endlich einzustampfen.

Melden Sie sich für unseren Newsletter an

Bleibe auf dem Laufenden und erhalte neue Beiträge und Insights von SEOPT per E-Mail, kostenlos!

Über den Autor

Wer schreibt eigentlich hier? Mein Name ist Helen Schrader, Diplom-Geographin und ambitionierte Bloggerin in den Bereichen SEO und Online Marketing. Schwerpunktmäßig beschäftige ich mich mit E-Commerce, Social Media, internetgestützter Markt- und Meinungsforschung sowie kollaborativen Internetumgebungen.

Weitere Artikel von Helen Schrader. Helen Schrader auf Google+. Helen Schrader auf Twitter.

Ähnliche Beiträge

SEO für Fotografen

Der große Guide: SEO für Fotografen

SEO Für Fotografen Für Fotografen war es nie einfacher als heute ihre Bilder einer großen Zielgruppe zu präsentieren, mit der Fotografie einen Nebenverdienst zu erzielen […]


Keine Kommentare vorhanden

Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*
*

Abonnieren Sie unseren kostenlosen E-Mail Newsletter ANMELDEN