Das Penguin Update von Google, der „SEO-Filter“

Hinweis: Dieser Blogbeitrag wurde schon vor längerer Zeit gepostet. Durch eine Komplettumstellung des Blogsystems konnte das Datum nicht migriert werden.
Auch die ursprünglichen Kommentare sind nicht mehr vorhanden.

02.05.2012

Der 24. April 2012 wird ein denkwürdiges Datum bleiben. Zumindest für alle, die sich mit Suchmaschinen-Optimierung (SEO) beschäftigen. An diesem Tag startete Google mit einem neuen Update (Penguin bzw. Pinguin) im Bewertungsalgorithmus eine Offensive gegen überoptimierte Seiten. Der Aufschrei in der Branche ist laut und wird wohl noch etwas nachhallen.Was ist genau passiert? Wie kann man erkennen, ob die eigenen Seiten betroffen sind und was kann man dagegen tun. Ist man überhaupt betroffen? Diesen Fragen möchte ich mich -diesmal etwas ausführlicher- im folgenden Beitrag widmen.

Den neuen „SEO-Filter“ hatte Google bereits vorab angekündigt (siehe mein Blogpost dazu am 24.3.). Am 24. April begann das das große, weiltweite Rollout. Zunächst muss man klarstellen, dass es hier NICHT um einen Filter handelt, sondern um ein echtes Algorithmus-Update. Der Unterschied ist,
dass hier Reinclusion-Anträge nutzlos sind, weil es sich nicht um Strafen
im herkömmlichen Sinne handelt. Man muss die Gründe für die Schlechterbewertung
finden und entfernen. Dann ranked die Seite wieder automatisch besser.
In der Regel kann das einige Wochen dauern.

Gibt es Einbrüche beim Ranking, sollte man auf jeden Fall erst einmal sicher stellen, welches Update die Site tatsächlich erwischt hat. Panda 3.5 wurde nämlich wenige Tage vorher um den 19.April ausgerollt. Hier hilft es nur, die Rankings zu prüfen, wann der Einbruch genau war! Das Penguin Update hat wie erwähnt erst am 24. April zugeschlagen. Auf diesen Umstand (Verwechslung der Updates bzw. Gründe für ein De-Ranking) hat Matt Cutts von Google in einem Posting von Danny Sullivan aufmerksam
gemacht. Die von Searchmetrics zuerst veröffentlichten Winner und Looser bezogen sich nämlich tatsächlich laut Matt auf das Panda 3.5 Update und nicht auf Penguin. Dies zeigt, dass es gar nicht so einfach ist zu ermitteln, was denn da genau passiert ist. Nicht wenige glauben, dass die kurze Zeitspanne für zwei unterschiedliche Updates Absicht war, um den SEOs die Ursachenanalyse zu erschweren. Offenbar ist dies gut gelungen.

Relativ sicher ist, dass die großen Marken (Brands) i. W. verschont geblieben sind. Einige Experten mit Hintergrundwissen wundern sich, warum hier mit zweierlei Maß gemessern wird. Denn in letzter Zeit nimmt auch bei großen Marken „schmutziger“ und zum Teil wirklich dilettantischer Linkaufbau zu – dies kann man sehr wohl beobachten. Ich vermute es liegt daran, dass diese hässlichen Linksignale bisher noch in der großen Linksuppe untergehen, die große Brands ja oft haben. Es kann auch sein, dass tatsächlich die Signale aus dem Vince-Update (Bevorzugung starker Marken, daher auf oft „Brand-Update“ gennant) den Pinguin „überstimmen“. Google und auch den Suchenden (!) kommt es ja auf die Ergebnisqualität an. Und auch wenn große Marken solche Spamsignale aufweisen, kommt der klickende Nutzer ja in der Regel immer zu gutem Content. Ganz anderes ist das bei den „Thin“-Affiliate Sites oder den Hardcore-Spammern, auf dessen Seiten man ja -Hand aufs Herz- in der Regel rein gar nichts Nützliches findet, außer Links zu den großen (und kleinen) Brands und die Sitebetreiber an den Weiterleitungen dorthin Geld verdienen.

Was sagt Google offziell zum Pinguin-Update?

„to reduce webspam and promote high quality content“

Im Blog von Google kann man nachlesen, dass Keyword-Stuffing und Link-Muster stärker gewichtet werden. Dort findet man auch echt fürchterliche Beispiele für Seiten, die bisher noch gerankt haben. Das zeigt, dass Google wohl die Nase gestrichen voll hat und ungewöhnlicherweise eben auch echte Beispiele anführt um deutlich zu machen, dass der Filter überfällig und wirklich notwendig ist. Mittlerweile achtet Google eben auch schon auf das Seitenlayout und versucht zu erkennen, wo wichtiger Content und wichtige Links platziert sind. Das Zitat oben verdeutlicht aber auch, dass es nicht nur um ein Herunterstufen schlecher Seiten geht, sondern gleichzeitig auch um einen Push von Seiten mit besonders gutem Content. Dies würde sich mit der Vermutung von Julian Dziki (weiter unten) decken.

Nur ca. 3% sind betroffen – sagt Google.
Ca. 3% der Ergebnisse in Deutschland sind betroffen, in den USA sind es nach Angaben von Google 3,1%. Diese feingranularen Angaben zeigen wohl, dass Google sehr genau vorab analysiert, welche Folgen so ein Update hat. Warum gibt es dann so ein Aufschrei gegenüber dem Panda-Update? Weil es v. a. auch sog. Shorthead Keywords erwischt hat! Logisch: Da steckt viel Geld drin und es wird hauptsächlich mit SEO gearbeitet plus Linkkauf/ aufbau.

Wie äußert sich die SEO-Szene?

Julian Dziki

Julian ist der Meinung, dass es sich um ein „sehr einfaches Update“ handelt: Die Anchortexte. Zitat: „Es ist so einfach! Ihr wurdet abgestraft? Dann guckt Euch Eure Anchortexte an! Punkt. Aus. Ende. Amen. Das ist alles – dahinter steckt kein großes Geheimnis.“ Er führt weiter an, dass es auch Keyworddomains erwischt hat, die (natürlicherweise) auch Keywordlinks haben.
Dass sich die Power von Keyworddomains abschwächen wird, wird bereits seit letztem Jahr vermutet. Nun sieht man es also.

Er habt beobachtet, dass Domains mit wenigen Links nach vorne gegangen sind. Offenbar, so seine Meinung, hat Google einen anderen Filter „gelockert“, so dass auch gute Domains mit wenig Links nun eine bessere Chance haben. Weiterhin weist Julian zu Recht darauf hin, dass viele SEOs schon seit Jahren davor warnen, zu viel sog. Money-Keywords auf Linktexte zu setzen. Sein Fazit: Google ist „sensibler“ geworden und wer die Ratschläge aus der Vergangenheit ignoriert hat, ist jetzt selber Schuld. Hier kann, mag und sollte man ihm nicht widersprechen.

Heiner Hemken von SEOUnited gab in Google+ bezogen auf Blogkommentaredie Tipps, keinesfalls Unterseiten als Link zu hinterlassen, die Länge der Kommentare zu beachten (keine zu kurzen Kommentare) und ein „@name“ einzubauen. Das @ wird im Kommentaren verwendet, um die Antwort an einen Vor-Kommentator zu richten. Das wirkt in einer maschinellen Analyse natürlich wie ein Dialog und weniger wie ein linkmotivierter Eintrag. Mir fällt dazu spontan ein, auf jedem Fall auch genügend Kommentare in Blogs mit „nofollow“ zu hinterlassen, denn die meisten Blogs haben dieses Linkattribut und es ist extrem unnatürlich, „aus Versehen“ 😉 nur Blogs zu erwischen, die ausschließlich mit „dofollow“ arbeiten.

Martin Mißfeldt:
Martin hat es laut Sistrix im Sichtbarkeitsindex mit seinen (guten und lesenswerten!)
Blog erwischt. Seine Sichtbarkeitskennzahl sackte von ca. 3,8 auf ca. 0,8 ab. Ebensolche Einbrüche in der Sichtbarkeit hat ihm Searchmetric angzeigt. Trotzdem hat er praktisch keine Trafficeinbrüche! Die Tools haben wohl nach seiner Meinung vor allem die jetzt gesunkene Sichtbarkeit im sog. Longtail-Keywordbereich herangezogen und eben auch Treffer auf den Ergebnisseiten 2 und höher. Darüber kommen bei ihm allerdings fast keine Besucher.
Bei seinen Bildergalerien hat er starke Rankingverluste, aber diese Seiten
haben nach seiner Aussage oft nur ein Bild und wenig Text.
Sein Fazit ist, dass ihn weder das letzte Panda, noch das Penguin Update
erwischt hat, sondern eine Reihe anderer „normaler“ Updates in den Bewertungsalgorithmen. Er plädiert daher auch dafür, erst mal sauber
zu analysieren, was tatsächlich passiert ist
und sich dann aber auch
zu fragen, ob es die „bestraften“ Seiten wirklich zu Unrecht erwischt hat, oder ob sie ehrlicherweise vorne in den SERPs wirklich nichts verloren haben und eigentlich fälschlich vorne standen.

Dominik Wojcik
Er gibt unumwunden zu, dass es auch einige Sites von ihm erwischt hat sagt selbst: „und da muss ich auch sagen zurecht„. Er votiert gegen „miese“ SEO-Projektierung und plädiert für eine Rückbesinnung auf Qualität. Ich persönlich frage mich (nicht auf Dominik bezogen, sondern allgemein!), ob das Wort „Rückbesinnung“ wirklich gut gewählt ist. Viele SEO haben leider noch nie über Contentqualität gearbeitet – daher gibt es auch keine „Rück“-Besinnung 😉
Björn Tantau
Bei findet man gute Tipps, wie man in fünf Schritten zu einem sauberen Linkprofil kommt. Diesmal geht es also in die andere Richtung: Linkabbau!Seine Kernpunkte sind vor allem, die Links zu bewerten und die schlechte über Bord zu werfen. Dies sollte man aber eben auch nicht auf einmal tun, sondern sich einen Zeitplan machen, um keine auffälligen Signale zu senden.

Kevin Wagner
Kevin führt in einem Gastblogbeitrag auf SEO-Handbuch.de viele Beispiele an, dass abgestrafte Sites eine hohe Bouncerate haben, wenig Seiten pro User und eine
vergleichsweise niedrige „Time on Site“. Er schließt mit seinen Beobachtungen reinen Ankertext-Filter praktisch aus.
Welches sind nun die wahrscheinlichen schlechten Signale, die das Pinguin-Update gezielt auswertet?

Unnatürliche Linkmuster(vor allem Linkschemas, sitewide Links, viele Footerlinks, Zeitpunkte, mechanisch, zu viele Money-KW Ankertexte)Starkes Cross-Domain-Linking(zusammen mit anderen Signalen)

Keyword Stuffing

Nutzloser Content:Dünn (z. B. bei vielen Affiliate-Sites), gescrapt und grammatikalisch „auffällig

OnPage-Überoptimierung(Komplettkonzentration auf nur ein Keyword oder eine KW-Kombination und Auszeizen aller Möglichkeiten, dieses Wort zu verwenden)

Hohe Bounce-Rate zur SERP(Experten schätzen, dass über 40 -50% bereits schlechte Signale erzeugen können, gegen über 50% sollte man schnellstens etwas unternehmen, falls die Gefahr besteht, dass auch andere Signale schlechte Werte senden könnten)

WenigTrafficanteiledie NICHT über die organischen Treffer in den SERPs kommen und kurze Besuchszeiten (die sollten im Schnitt über 3 Minuten liegen, unter 2 Minuten besteht Handlungsbedarf) bzw. auffällig wenig Seitenaufrufe/Visit (immer nur zusammen mit anderen Signalen!)

Sonstige“böse“ Signale(z. B. automatisierte Einträge in Blogs)

Nachträglicher Hinweis aufgrund von Missverständnissen, wie ich aus den Kommentaren ersehen konnte: Selbstverständlich sind diese Signale in Kombination zu sehen. Google wird natürlich keine Strafen verhängen, wenn starkes Cross-Domain-Linking betrieben wird oder z. B. die durchschnittliche Viewtime niedrig ist! Erst die Kombination dieser Signale und eine gewichtete Wertung macht das „Gesamtbild“ aus!

Weitere Überlegungen:
Die Ursache bleibt zwar die gleiche, aber vielleicht hat auch einfach nur eine starke „Entwertung“ bestehender Links und bekannter SEO-Praktiken stattgefunden und damit gar keine Strafe im eigentlichen Sinn! Bestimmte Dinge funktionieren nun einfach nicht mehr so stark bzw. „einfach“. Und automatisch werden die Sites, die viele SEOs im Blick haben, gedroppt.

Meine Empfehlung:
Wenn man sich im Penguin Update verfangen hat oder begründete 😉 Bedenken hat, sich darin künftig zu verfangen: Unbedingt eine ausführliche Site-Clinic durchführen oder durchführen lassen. Dabei sollte auf jeden Fall eine umfassende Linkstrukuranalyse enthalten sein, aber auch der Content muss kritisch hinterfragt und hinsichlich der o. g. negativen Signale analysiert werden.
Weiterhin ist es hilfreich, den aktuellen Traffic bezüglich der einzelnen Seiten und Verzeichnisse mit dem der letzten Monate zu vergleichen, um Schwerpunkte des De-Rankings erkennen zu können.
Ein letzter Tipp: Seiten mit wichtigen Keywords, die in den Ergebnissen stehen geblieben sind, sollte man mit den eigenen zu vergleichen – zumindest OnPage und vom Linkmuster gesehen.

Google hat übrigens eine Beschwerdeformular online gestellt, das man aber nur ausfüllen sollte, wenn man sich sicher ist, dass die eigene Site sauber ist und zu Unrecht von Penguin bestraft wurde!
Zuvor sollte man aber auch mal nachsehen, ob in den Webmaster Tools eine entsprechende Meldung von Google steht.

Zukünftig wird es sicherlich anspruchsvoller, mit reinen SEO-Businessmodellen erfolgreich zu sein. Solche Modelle beinhalten, dass die aktive Beeinflussung der Rankings für eine Site ein wesentlicher Kernbestandteil ist und andere Online-Aktivitäten wie z. B. guter Content, gute Produkte und gute Preise eher hinten anstehen. Wer sein Geld also hauptsächlich damit verdient, „nur“ durch Top-Positionen gefunden und geklickt zu werden, der sollte mit Bedacht und sorgfältig arbeiten. Die Zeiten der schnellen Methoden scheinen definitiv vorbei zu sein.

Google Bowling
Ich frage mich, ob es jetzt leichter wird, Sites abzuschießen? „Normale“ Seiten wahrscheinlich eher nicht. Aber SEO-getrimmte Sites wird man nun aller Wahrscheinlichkeit nach mit den bekannten Methoden (die hier NICHT genannt werden, auch nicht auf Nachfrage) leichter ins Off befördern können. Das muss zwangsläufig eigentlich so sein. Wir dürfen gespannt sein….

Was meint Ihr? Hat jemand noch Tipps, auf welche Signale der neue Pinguin anschlägt und was man dagegen tun kann?

Ach ja – ich freu mich über jedes Plus1-Voting für diesen Beitrag 😉

Ein Kommentar

  • Maximilian Weber

    Ich finde das eigentlich nach wie vor gut, dass „Thin Content“ Affiliate-Seiten rausgeschmissen wurden. Schade ist es aber, dass der Algorithmus immer noch vortrefflich manipuliert werden kann, wenn ich verschiedene Seiten sehe die zu Suchbegriffen ranken.

    [Edit: URL entfernt]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.