Website Boosting 2.0 - Weblog

Der Blog für das Buch Website-Boosting 2.0 von Mario Fischer

Disavow Links: Strategische Überlegungen

Vor kurzem hat Google in den Webmastertools die Möglichkeit geschaffen, unliebsame Links zur "Nicht-mehr-Wertung" einzureichen. Die SEO-Szene ist begeistert.
Zur Recht? Könnten solche Meldungen auch nach hinten losgehen? Hmmm...

linkentwertung-1.jpg

Gestern ging es wie eine Welle durch das Web: Nach Bing ermöglicht es nun auch Google. sich Links zu "entledigen", die man nicht in die Wertung für die eigenen Website einbezogen haben möchte. Auch ich hatte hier gestern dazu etwas geposted.

Mich treibt nach wie vor die Antwort von Matt Cutts von Google auf meine damalige Frage um (Interview in der ersten Website Boosting Ausgabe, zum Nachlesen hier abgelegt). Er meinte sinngemäß damals schon, dass Google ganz gut selbst entscheiden könne, welche Links gezählt würden.

Er meinte auch, dass man damit (mit einer Möglichkeit einer individuellen Entwertung) Manipulationen Tür und Tor öffnen würde. Denn linkspammende Webmaster könnten das dann ohne Angst für Folgewirkungen machen und Links, die sich irgendwann mal als nicht so gut herausstellen, einfach problemlos wieder via GWMT (Google Webmastertools) aus der Wertung rausnehmen. Ich fand die Antwort auf meine damalige Frage an ihn, warum es das nicht gäbe, eigentlich schon schlüssig. Von der Perspektive aus hatte ich das gar nicht gesehen.

Nun gibt es eine 180 Grad Kehrtwende. Lasst uns mal kurz gemeinsam nachdenken:

Ein Webmaster identifiziert mit einem Tool (das ist ja heute kein Problem mehr) einen Satz wirklich giftiger Backlinks. Im einfachsten Fall sind das die, die von Domains kommen, deren Abfrage "site:diedomain.de" bei Google 0 Treffer bringt. Die Höchststrafe, Rausschmiss aus dem Index. Von solchen Seiten sollte, will und darf man keine Links haben.

So. Jetzt lädt man eine Liste von z. B. 240 solcher Links in den GWMT hoch. Nehmen wir an, Google hat in der eigenen Datenbank 250 Links als wirklich gifitg vermerkt und der Webmaster liefert davon eben genau die 240. Ach jaaaa? Was denkt Ihr jetzt, wo Ihr diese Zeilen lest? Klar - DER muss ich aber gut auskennen bzw. ist gut in der Linkbeurteilung.

Frage 1:
Ob Google sich dieses recht eindeutige Signal entgehen lässt und einfach nur die 240 Links von der zukünftigen Wertung rausnimmt? Leute, wenn ICH Matt Cutts wäre, würde ich für solche Meldungen zumindest mal ein Flag "hohes Backlink-Know How" vormerken. Ihr nicht?

Frage 2:
Ob Google überhaupt solche gemeldeten Links aus der Wertung herausnimmt? Könnt Ihr Euch noch an die Kommentarzeile erinnern, die früher unter der Anmeldezeile für neue URLs bei Google zu finden war? Die wurde niemals ausgewertet, hat aber Leute davon abgehalten, Mails an Google zu schreiben, wie wichtig ihre Seite wäre blabla - eine Art Ventil also. Bestimmt wird Google in letzter Zeit bombaridert mit Anfragen, dass man einen blauen Brief bekommen hätte wg. Backlinks und man wüsste nix davon oder wie kann man die jetzt loswerden. Oft klappt es ja nicht, Links aus dubiosen Linkaufbauquellen auch tatsächlich wieder kappen zu lassen. Gibt es wieder so ein Placebo-Ventil, damit Ruhe ist im Karton?

Frage 3:
Ist Google vielleicht doch nicht in der Lage, dubiose Backlinkquellen zu erkennen und man erhofft sich durch die "Tipps" via Meldung eine Pool an Domainadressen, die man dann näher bzw. tiefer analysieren kann?

Frage 4:
Bei den LinkResearchTools hat Christoph Cemper gestern schnell reagiert und eine Möglichkeit geschaffen, giftige Linkadressen gleich in dem Format downzuloaden, mit dem man sie an Google bequem wieder hochladen kann. Andere werden sicherlich folgen.
Kann es so einfach sein? Über ein Tool mit 2 Klicks und bei Google mit 2 weiteren Klicks sich von zweifelhaften Aktivitäten der Vergangenheit und der Zukunft frei sprechen zu lassen?

Was meint Ihr? Was ist der wahre Hintergrund für dieses Tor, das Google jetzt öffnet?
Ist man dort so blauäugig, jedem eine Linkseife ans Waschbecken zu legen, damit der sich ggf. schmutzige Hände bei Bedarf auch gerne täglich waschen kann? Hmmm...

War der Artikel für Sie wertvoll? Hier können Sie voten:

Geschrieben von am 18.10.2012
Kategorie: Suchmaschinen



Kommentare & Anmerkungen

zum Beitrag: »Disavow Links: Strategische Überlegungen«,
Trackback-URL: http://www.website-boosting.de/m4/mt-tb.cgi/965

Kommentare

1 | Sven schreibt am 18.10.12 11:03:

Google spricht mit den WMT allgemein nur Leute an, die sich intensiv mit ihrer Webseite beschäftigen. Mir sind schon viele untergekommen, die große Webseiten betreiben und von den WMT noch nie was gehört haben. Ich glaube eher, dass Google hier sein Profil des Webseitenbetreibers weiter vervollständigen will. Ähnlich, wie mit den blauen Briefen. (Scheint ganz okay funktioniert zu haben, dass sie da jetzt weiter machen)

Cutts meinte auch, dass es Wochen dauern kann, bis die Links entwertet werden. Das macht's natürlich um so schwerer später zu sehen, ob die Aktion nun geholfen hat…

2 | Patrick schreibt am 18.10.12 11:07:

Moin Mario,

sehe das ähnlich kritisch.

Ich zitiere mich mal kurz selber:

Ich finde es auch schön! Nun kann ich Google direkt mitteilen, dass ich von den ganzen schlechten Links die zu meiner Seite führen weiß…

Inwieweit das Tool etwas verändert bleibt abzuwarten. Für mich ist das erstmal nur eine Promoaktion in Richtung “Es lohnt nicht, schlechte Links aufzubauen”. Eine “Du kommst aus dem Gefängnis frei” Karte ist es ganz sicher nicht.

(Zitat von gestern @internetkapitäne ... wow, ich wollte mich schon immer mal selbst zitieren^^)

Ich erinnere mich noch, als die erste Steuer-CD aus der Schweiz kam. Zehntausende haben sich plötzlich selbst angezeigt, weil sie alle dachten sie könnten auf der einen CD stehen, diese selbstverliebten Steuerhinterzieher. Diese Taktik hat sich Google seit einiger Zeit zu Eigen gemacht und kommt damit ziemlich gut klar, denke ich.

Hi Mario,

interessante Überlegungen, die mir auch durch den Kopf gegangen sind.

Zu 1:
Ist denn nicht schon die Verwendung des Tools ein Indiz dafür, dass sich die Person vorher mit Linkbuilding beschäftigt hat? Otto-normal Webseitenbetreiber wird damit ja nie in Berührung kommen.
Aber ja: Je höher die Übereinstimmungsquote der reporteten mit den von Google als "verdächtig" klassifizierten Links ist, desto eher würde ich die reportende Webseite analysieren.

Frage5:
Kann man das Tool als Druckmittel für Webmaster nutzen, die für die Entfernung eines Links Geld wollen? Gemäß der Logik: Wenn du den Link nicht entfernst, verpetze ich deine (ansonsten gute) Seite über Google Webmaster Tools und du kommst auf eine Liste.

Hallo Mario,

Das Tool ist wohl eine Mischung aus "Placebo", Teil der allgemeinen Verunsicherungsstrategie, aber auch ein technologisches Armutszeugnis, denn "Negativ-SEO" dürfte schlichtweg nicht funktionieren.

Daher tendiere ich dazu in dem Tool a) einen zusätzlichen Datenpunkt zu sehen, anhand dessen Google mehr über Link-Strukturen lernen möchte, um den Algorithmus zu verbessern und b) der sicherlich auch das eine oder andere "SEO-Flag" zu erzeugen imstande ist.

Ich bin ja sehr froh, dass wirklich nur Domains mit diesem Tool arbeiten dürfen, die bereits einen Reconsideration Request erhalten haben. Das spricht auch für Deine Aussage, das ganze als Ventil zu bewerten, mit dessen Hilfe die betroffenen Domain-Inhaber /SEOs nun erst mal in Aktion treten dürfen, um sich ein wenig abzureagieren...

5 | Eric schreibt am 18.10.12 11:22:

Hallo Mario,

ein sehr komplexes Themengebiet, dass Du ansprichst. Wie immer bei Google gilt die Vermutung, Nebelkerzen zu werfen, um von der eigentlichen Intention hinter dieser Maßnahme abzulenken.

Im Endeffekt hat Matt Cutts Recht: Wenn das mit der Linkentwertung so einfach klappen würde, setze ich eben 500 Spamlinks (die ich eventuell sogar unter Kontrolle habe). Falls die Rankings dann sinken, gebe ich einfach die Liste an Google, die richten das ja dann. Würde das klappen, entstünde eine riesige Spamwelle. Es muss also mehr dahinter stecken.

Momentan halte ich die Möglichkeit lediglich von Panda und Pinguin gequälte Webmaster zu beruhigen, für die wahrscheinlichste.

VG
Eric

6 | Sabrina schreibt am 18.10.12 11:26:

Ich glaube nicht, dass es sich bei dem Tool um ein Placebo-Ventil handelt. Das würde zwar für Ruhe sorgen, hätte aber nicht den gewünschten Effekt. Immerhin ist Google Datengeil (wenn man das so sagen darf) und einen einfacheren und besseren Weg gibt es doch gar nicht. Verpetzen im großen Stil könnte man es auch nennen ;)

Hallo,

ich denke auch, dass Google diese neue Funktion nutzen will, um eine weitere Datenquelle zu haben und um noch mehr über schlechte Links zu lernen um somit gute Links auch anders bewerten zu können.

Gruß, Christian

8 | Dirk schreibt am 18.10.12 11:36:

Die Überlegungen von Mario finde ich sehr tiefgründig und gut. Ich bin der Meinung, dass das Google-Tool einerseits eine gute Entwicklung gegen Webspam darstellt, aber andererseits auch Gefahren mit sich bringt.

9 | Phil schreibt am 18.10.12 11:59:

Ähnlich wie bei den blauen Briefen sehe ich in dem Tool einen Beweis dafür, dass Google nicht so gut darin ist Backlinkquellen zu klassifizieren, wie gerne dargestellt und hier die Schwierigkeiten mehr oder weniger outsourcen.

Frage 1 finde ich einen sehr interessanten Gedanken. Es wird ja generell viel über Nutzerprofile diskutiert, dies analog für Webseitebetreiber zur Disposition zu stellen ist, liegt ja eigentlich nahe.
Unterstellt man Google die größtmögliche Datensammelwut, könnte man ähnlich bei anderen Diensten argumentieren. Was ist wenn Google eine Verification Seite eines bekannten On-Page Tools findet, welche Daten führt Google über den neuen Tag Manager zusammen, etc..
Hier würde sich schon ein genaues Bild ergeben, ob eine Webseite professionell, aus Spaß oder aus der SEO Perspektive betrieben wird.

Aktuell glaube ich nicht, dass diese Datenzusammenführung schon erschöpfend geschieht, einfach weil immense Datenberge auflaufen und Google mit den selben Big Data Problemen kämpft, wie jedes Unternehmen in diesem Bereich, auch wenn die Ressourcen in und um Mountain View nicht ganz so endlich sein mögen.

Für die Zukunft mMn ein Gedanke den man weiterführen sollte.

10 | Witali schreibt am 18.10.12 12:07:

Ich tippe auf Ventil zum Abreagieren, etwas dazulernen bzgl. qualitativ schlechter Links und Einschätzung der SEO-Kenntnisse des Webmasters. So wie ich Google einschätze, werden so viele Daten wie möglich herausgezogen und früher oder später genutzt. An einen Spammer-Freifahrtschein glaube ich hingegen nicht.

11 | Axel Scheuering schreibt am 18.10.12 12:15:

Was meiner Meinung nach nicht erfolgversprechend ist: Die Schrott-Links mit den Detox-Tools zu exportieren und dann in GWMT hochzuladen.
Sind wir mal ehrlich: Die Links die Detox als gefährlich einstuft, hat Google wahrscheinlich längst auf dem Schirm. Google hat die größte Rechenpower auf dem Planeten und verdammt viel Erfahrungen in Sachen automatischer Backlinkberechnungen. Können ein paar Server in Österreich ;) da wirklich mithalten?
Die Detox-Tools sind gut, um einen ersten Eindruck über die Backlinks zu bekommen. Für bare Münze nehmen sollte man die Ergebnisse daraus aber nicht. Wer professionell arbeitet kommt um eine manuelle Linksichtung in keinem Fall herum, denn die Algorithmen von den Linkresearchtools erkennen viele schädliche Links einfach nicht und stufen teilweise auch "gute" Links als gefährlich ein.

@Axel: Das halte ich ja gerade für möglicherweise gefährlich. Genau darum geht es. Klar weiß Google, welche Seiten giftig sind. Aber wenn Du im schlimmsten Fall genau diese Liste an URLs hochlädst... Damit outest Du Dich, dass Du solche Links selbst bestens identifizieren kannst. Welche bessere Signal zu sagen: "Ich bin absoluter SEO-Experte!" kann man sich vorstellen? Keines... ;-)

Klar, bleibt die unbeantwortbare Frage, wie Google mit diesem klaren Signal umgeht. Ob es ihnen egal ist oder ob sie es zumindest erst mal wegspeichern.

13 | Andre schreibt am 18.10.12 12:55:

Hi Mario,

schicker Artikel den Du geschrieben hast, ich glaube jedoch, das man bei einer Neuerung von Google, denen nicht immer gleich das Dark Vader Gewand anziehen sollte.

Wenn Du SEO für einen Kunden (zum Beispiel eine Bäckerei) machst, dann bist Du als beauftragter SEO der jenige welcher in Deiner Frage 1, die negativen Links für den Kunden selektiert und in das neue Tool übermittelt. Ist deshalb der Bäcker gleich bei Google auf der Liste derer, die "erhöhtes Backlink Knowhow haben" ?

Kann es möglich sein, das es seit Kenntnis worauf die Penguin Algoverschärfung abzielt, es für "einige Webmaster" zum neuen Sport geworden ist, die Konkurrenz mit deren wichtigsten Keys von dubiosen Quellen massiv zu verlinken, um einen "NegativSEO-Effekt" auszulösen, Google über das neue Tool die Möglichkeit schaffen möchte, das Webmaster von dieser Art der Verlinkung sich befreien können / Abhilfe zu schaffen?

Im Zusammenspiel mit den "blauen Google Briefen" der letzten Monate, hat das neue Tool einen Sinn. Erst Recht wenn die Voraussetzung für eine Entfernung eines manuellen Google Penalty ist, das die "unnatürlichen Links" entfernt sein müssen. Hatte man vorher nicht die Möglichkeit einen Link zu entfernen und läuft die Mitteilung an Google, welche Links man entfernt hat, so automatisiert ab wie man es annehmen kann, dann blieb die Penalty Bestrafung im Ranking so bestehen und man hatte keine Chance da wieder raus zu kommen (maximal wenn der Linkgeber die Domain löscht).

Ich finde es jedenfalls gut das Google, wie Bing ja schon länger, diese Möglichkeit geschaffen hat.

Gruss
André :)

Also die Möglichkeit mit dem SEO-Experten kann man auch negieren. Sprich man gibt offensichtlich gute Links als schädlich an, oder welche die zumindest nicht absolut schlecht sind, um Google das Signal "SEO-Inkompetent" zu schicken.
So oder so glaube ich nicht dass man Google veralbern kann als auch das Signal SEO-Experte für Google eine große Rolle spielt.

Ich tippe ganz klar, dass das eine Ventil-Lösung sein sollte.

@Andre: Naja, wer über die Webmasterkonsolte bei Google etwas hochladen will, muss ich bekanntlich als berechtigt nachweisen. Ob das eine Webagentur ist, der Bäcker oder ein SEO ist doch egal. Es geht darum dass es jemand ist, der offenbar die Lufthoheit über eine Domain hat. Oder der tats. Eigentümer räumt sie ihm ein. Insofern finde ich die Unterscheidung "Webmaster selber" oder "Bächer und der SEO machts" hier irrelevant.

Dass man sich mit dem neuen Tool gegen fremd erzeugte Backlinks "wehren" kann, bleibt ja außer Frage. Noch besser ist es aber nutzbar, wenn man selbst massiv Linkaufbau betreibt und die schlechen Links dann einfach wegselektiert. DAS ist es ja, was Google immer bisher befürchtet hat... ob man das nun einfach billigend in Kauf nimmt?

Wir müssen Google ja gar nicht gleich das Darth Vader Gewand umhängen. Das Tool ist ja nicht geschaffen worden, um böses zu tun. Aber es bleibt die Überlegung, sich zu outen - wie oben ja schon beschrieben. Ich würde mich nicht trauen zu sagen, ob das gut oder schlecht ist. Ich hab das nur zu bedenken gegeben... ;-)))

16 | Andre schreibt am 18.10.12 13:41:

@Mario ... das der Webmaster einer Seite "Wissen" hat, steht doch schon bewiesen im Raum, in dem Moment wo er sich bei den Google Webmaster Tools angemeldet hat und sich dazu qualifiziert zeigte, den Code-Schnipsel in die Webseite einzubauen bzw. das gewünschte HTML-Dokument auf den Webspace zu legen. Ich persönlich denke das es total Jacke ist, ob ich hier das Signal sende "ich bin wissend was ich tue" und Google diese Information speichert.

Die Möglichkeit das Tool zur Korrektur der Fehler aus der Vergangenheit zu nutzen (ob fahrlässige, unwissende oder vorsätzliche Fehler mal im Raum stehen gelassen), ist das was als "These" im Raum stehen bleibt. Ist es mir durch das Tool möglich, gezielt mein Linkprofil zu "tunen" und von Altlasten zu befreien?

Wenn dem so ist, dann ist das natürlich ein Schlag ins Gesicht derer, die sich schon immer an die Spielregeln gehalten haben.

Ich denke ansonsten nicht das man sich durch die Nutzung des Tools gegenüber Google für irgendwas outet. Sauber arbeiten heisst für mich, das ich meine Arbeit (Webseite, OnPage, OffPage) problemlos Google zeigen kann, ohne das ich Gefahr laufe, das mir das aufs Bein fällt.

Gruss
André :)

17 | Fritz schreibt am 18.10.12 14:11:

Wenn auf dem .com Markt noch immer Thin Affiliate/Contentschleudern so gut ranken, will man wohl das Quality Testing mittels "reverse engineering" lösen: Sagt Ihr uns was schlecht ist, dann brauchen wir nicht mehr am Algo drehen...

18 | Erdal schreibt am 18.10.12 14:35:

"So. Jetzt lädt man eine Liste von z. B. 240 solcher Links in den GWMT hoch. Nehmen wir an, Google hat in der eigenen Datenbank 250 Links als wirklich gifitg vermerkt und der Webmaster liefert davon eben genau die 240. Ach jaaaa? Was denkt Ihr jetzt, wo Ihr diese Zeilen lest? Klar - DER muss ich aber gut auskennen bzw. ist gut in der Linkbeurteilung. "

Und was wohl erst passieren wird wenn Links in der Disavow-Liste auftauchen die in der Liste der Webmastertools gar nicht zu sehen sind ;-).....

19 | Christian schreibt am 18.10.12 14:45:

Ich würde die Finger davon lassen. Wenn man gute natürliche Links hat, und da ein paar Bad Links dabei sind ist das nun mal so.

Ich ziehe immer gerne Vergleiche mit der Offline Welt.
Stellen wir uns vor, ein Verbrecher sagt: "Ich kaufe gerne bei Aldi."

Kommt dann Aldi Süd und sagt, "HEY, HÖRT NICHT AUF DEN VERBRECHER. DER KAUFT NICHT BEI UNS! TUT SO, ALS HÄTTE ER DAS NIE GESAGT!"

@Erdal: Ja stimmt, das hatte ganz vergessen zu erwähnen! Dann hat man gleich ein doppeltes Problem. 250 Links hat Google eh schon als giftig und zählt sie im besten Fall "nur" nicht und jetzt entwertet man auch noch einen Teil der aus Google-Sicht nicht zu beanstandenden Links (falls sie tats. entwertet werden ;-)

Folge: Krachbumm in den SERPs. Das erklärt der SEO dann mal seinem Kunden... Lustig, lustig, popustig!

21 | Stephan schreibt am 18.10.12 15:22:

Ist für viele SEO Agenturen halt auch wieder ein super Verkaufsargument an nichtsahnende Kunden. Bin auch der Meinung, man sollte lieber mal erste Erfahrungsberichte abwarten.

Ich finde das grundsätzlich sehr gut, dass es diese Funktion gibt. Hauptsächlich aufgrund von Negative SEO Attacken, die durchaus erfolgreich sein können in bestimmten Nischenbereichen.

22 | Erdal schreibt am 18.10.12 16:51:

@Mario: Ja genau so wird es kommen! Nicht dass nur die Links die eigentlich IO waren im Popo sind (vermutlich) nein man verhält sich vielleicht auch noch auffällig?!

Es wird mit Sicherheit solche Menschen geben die Folgendes Szenario für richtig empfinden:

Hans Moser ist begeisterter Hobby SEO! Nichts ist einfacher als mit ein wenig Geld einigermaßen Gute Links zu kaufen! Vom 01.01.2010 bis zum 15.04.2012 geht alles gut! Schlagartig verschlechtern sich die Rankings!! Hans hat Angst! Es ist an der Zeit MEHR Links zu setzen weil es besser sein soll. Hans kauft zwischen dem 15.04.2012 und dem 15.08.2012 weitere 40 Links dazu! Nach vier Monaten ist das Ranking noch schlechter als zuvor! Nichts geht mehr! Es muss also ein Link gewesen sein der um den 15.04.2012 Gekauft wurde wobei auch später einer dabei gewesen sein muss der auch schlecht war denn die Rankings haben sich weiter verschlechtert! - Alles andere macht keinen Sinn! Was nun? Hans hat kein Sistrix..keine LRT! Er nimmt (für ihn logisch) einfach alle 40 Links ab dem 10.04.2012 und das Chaos nimmt seinen Lauf......Yippie Yah Yei........

23 | luzie schreibt am 18.10.12 18:03:

Es ist doch ganz klar. Dieses Tool dient der Beruhigung der Gemüter, soll dem überkochenden Hype über angebliches "negative SEO" den Wind aus den Segeln nehmen und gleichzeitig zu BING aufschliessen. Ein Placebo, dessen Auswirkungen sehr, sehr beschränkt bleiben werden. Bezeichnend ist schon, das die Entwertung von Links als "suggestion" beschrieben wird und ausdrücklich gesagt wird dass sie keine "directive" sei.

luzie
Google TC Webmaster Help

vor gut 2Wochen fragte jemand in den WMTForum folgendes an:
"von der Website X bekomm ich auf einmal hunderte von Backlinks, ich habe dort kommentiert und nun werde ich mit minderwertigen Backlinks quasi beschossen. Soll ich einen Reinclusion stellen?".
Erst die mehrmalige Bestätigung, dass diese Links ganz normal sind, weil das Blog die letzten Kommentare halt in der Sidebar anzeigt, überzeugten, dass es da keinen Reinclusion bräucht.

Nun muss diese Person zb nicht mehr fragen, sondern meldet diese Links von dem bösen, bösen Blogger gleich über das Tool. Es wird munter zugehen zukünftig. ;)

Das Tool selbst seh ich als logische Folge der blauen Briefe und der klaren Ansage, dass man für das Löschen von Links kein Geld zahlen möge- Matt Cutts hat das in einem Interview mal gesagt (ich habe keine Quelle).
Nun kann keiner mehr schreiben, ich kann diese Links nicht löschen bitte nehmt das Penalty so zurück, sondern Google kann sagen: dann melde sie uns einfach so.

Es einfach mal so probieren tät ich nicht, wenn mit einem Wegwerfprojekt.

Unklar ist wie auch bei den Bad Link Meldungen was mit den Sites passiert, die dort gemeldet werden, weil da ziemlich sicher etliche immer dabei sind, die weder je Links verkauft haben noch spammig sind.

25 | Rony schreibt am 19.10.12 9:31:

Hmmm. ein wirklich interessanter Gedanke. Zumal, wenn die Aussage von Matt stimmt: "Man könne gute und schlechte Links sehr gut voneinander trennen", man sich tatsächlich fragt, warum diese Möglichkeit jetzt bereit gestellt wurde.

Vielleicht denken wir aber auch zu geradlinig und die Strategie von Google zielt in eine ganz andere Richtung. Ich denke da eher an Microsoft und Bing. Vielleicht will Google nur den selben Service bieten, wie man ihn beim Konkurrenten lobt, um sich auch weiterhin im Markt zu positionieren? Vielleicht nützt das Tool wirklich nichts, vermittelt aber den Eindruck: "Hey, wir hören euch zu."

26 | Marcell Sarközy schreibt am 20.10.12 22:27:

Hallo Mario,
sehe das genauso, jetzt bloss nicht in blinden Aktionismus verfallen. Mein Artikel zu dem Thema:
http://www.seodeluxe.de/blog/googles-link-disavow-tool/
Grüße, Marcell

27 | Harry schreibt am 23.10.12 20:30:

Ich werde dieses Tool mit Sicherheit niemals nutzen! Für mich ist das "Bauernfängerei" was Google da betreibt. Kommt einer Selbstanzeige bei der Polizei gleich, in der man etwas zu gibt, von dem vorher nie jemand gewusst hat, oder nichts wissen wollte, oder konnte. Wie auch immer, ich denke Google setzt wirklich darauf, dass die Leute sich quasi ihr eigenes Grab schaufeln.

28 | A. Hammer schreibt am 24.10.12 13:46:

Man darf ja auch nicht vergessen, dass das Tool sehr einfach missbraucht werden kann, indem Konkurrnzwebseiten verstärkt melden werden - was das wohl für einen Effekt (für deren Rankings) hat?

29 | Andreas schreibt am 27.10.12 11:25:

Ich sehe das wie Axel Scheuering oben: Wenn doch jeder Seohans weiß welche Seiten offensichtlich Links verkaufen, weiß es Google erst Recht.
Aber wie hat so schön Johannes B. auf dem seoday gesagt: Einfach nicht immer so verrückt machen lassen von Google.
Ich glaube das sollten sich einige mal zu Herzen nehmen, sonst schaden sie sich nur mit solchen hektischen Reaktionen wie Links löschen, Google die Links anzeigen usw.

30 | Patrick schreibt am 30.10.12 13:32:

Das traurige daran ist, dass viele auf diesen "Trick" von Google hereinfallen werden und versuchen, die "giftigen" Links herauszunehmen. Was für Links dabei dann noch verloren gehen, möchte ich gar nicht wissen. Schon traurig irgendwo, dass Google zu solchen Mitteln greifen muss, aber im SEO-Bereich ist bekanntlich ja alles möglich!

Hallo, eine interessante Diskussion hier.

Wer bitte sehr kann mir denn hier eine Methode präsentieren, die mit hinreichender Wahrscheinlichkeit einen "Spam-Link" von einem "Gut-Link" unterscheidet?

Die site:Abfrage kann ja wohl nicht ernsthaft in Betracht genommen werden.

Ich behaupte: So etwas ist gar nicht möglich! Zumindest bei Seiten mit vielen Links. Denn schlechter Link => schlechte Rankings (mit zeitl. Verzögerung)

32 | Nils schreibt am 5.11.12 22:16:

Ich kann mir vorstellen, das Google die Seos mit ihren Aktionen ködern möchte, um sie zu identifizieren. Das hat wahrscheinlich durch die letzten Aussagen sehr gut funktioniert. Deswegen legen sie nochmal nach.

33 | Michael schreibt am 7.11.12 9:25:

Also ich wäre da auch vorsichtig. Das Disavow Tool hat sicher Vorteile für Webmaster die es mit dem Linkbuilding massiv übertrieben haben. Aber fakt ist: Google sammelt diese Daten. Und bisher weiß man noch nicht was Google mit den Daten tut.

34 | Marc schreibt am 9.11.12 17:23:

Ich betrachte das Tool mal aus der Sicht der Nutzer und der grauen Masse, der unwissenden Webmaster. So wie das Tool aufgestellt wurde finden es eben nur wenige einschlägige Leute und nur ein paar davon haben das Know-how um es auch noch sinnvoll zu nutzen.
Letztendlich denke ich, dass es dann auch auf die Art der Verwendung ankommt und hier noch mehr Signale übermittelt werden.
Schieße ich ein paar chinesische und russische Hackerdomains ab, die plötzlich 100 k Links rüberschicken oder baue ich differenziert "schlechte" Kommentare der letzten 10 Jahre ab. So gesehen bekommt Google sicherlich mehr Einblick von wem und wie einzelne Links gesetzt wurden.

So einen kleinen Datenschatz würde ich sicherlich nicht ungenützt lassen.

Gruß

Marc

35 | Jan schreibt am 12.11.12 11:03:

Ich halte es auch für sehr riskant, Links zu entwerten, die man selbst gesetzt hat. Allerdings soll das Tool einen ja auch vor giftigen Links schützen, die einem irgendein Konkurrent verpasst hat. Blöd nur, dass man google die Herkunft der "bösen" Links nicht beweisen kann. Grundsätzlich halte ich es für keinen guten Ansatz, dass einige Links negativ wirken. Wären schlechte Links einfach nur wirkungslos, gäbe es wesentlich weniger Spielraum, die Mitbewerber zu schädigen.

Denkt immer dran. Die Quality Rater lesen auch diesen Blog. Trotzdem kann ich mir bei diesem massiven Datenaufkommen nicht vorstellen, das es möglich ist einen Großteil des gemeldeten Spams manuell zu kontrollieren. Also wird auch hier ein Programm ablaufen welches die negativen Kriterien einer Website addiert und gegebenenfalls eine Strafe verhängt. Und dies ob man meldet oder nicht. Man könnte das Verhältnis auch durch den Aufbau neuer, guter Links wieder verbessern.

37 | Maik schreibt am 23.11.12 19:07:

Ich hatte vorher noch nicht davon gehört. Gut das Herr Fischer immer die neuesten Themen anspricht.

38 | Chris schreibt am 24.11.12 17:18:

Google kann davon ausgehen, dass man der Firma beinahe göttergleiche Fähigkeiten zutraut. Das allein macht mich schon misstrauisch. Ich jedenfalls sehe solche Äußerungen von Cutts wie die oben zitierten skeptisch, genauso wie einige zur Verfügung gestellte Tools.

39 | Mikra schreibt am 29.11.12 14:58:

Ich hatte in letzter Zeit öfter mal von dem Tool gelesen, aber wirklich damit befasst habe ich mich damit noch nicht. Jetzt habe ich mich mal etwas belesen und muss schon sagen, dass man das Ganze wirklich positiv wie negativ sehen kann. Ich für meinen Teil werde dieses Tool jedoch nicht nutzen.

mfg

Ich bin mir eigentlich ziemlich sicher, dass dies eine Investition mit wenig Geld von Google ist um besser schlechte Links erkennen zu können.

41 | Michael schreibt am 13.12.12 11:31:

@ Sonja: Diese "Strategie" ist in manchen Nischen eine reine Zeitverschwendung.

Naja, ehrlich gesagt, glaube ich ja nicht das Google so gut bei der Erkennung von Spammy Links ist. Wenn man sich die kritischen Märkte wie Pharma usw ansieht, dann scheinen die 0 Probleme zu haben. Die haben keine Ahnung und außerdem ist das Netz zu groß und Black Hat entwickelt sich zu schnell weiter. Mit diesem Tool betreiben sie einfach Crowdsourcing!

43 | Nino schreibt am 28.12.12 0:35:

Ich wollte mich mal für die Info´s immer bedanken und ebenfalls noch einen guten und gesunden Rutsch ins neue Jahr wünschen!

44 | Robin schreibt am 3.01.13 21:24:

Ich sehe das ähnlich, wie du es bereits schon in Frage 1 vermerkt hast: Warum sollte Google dann nicht mal das Linkprofil genauer unter die Lupe nehmen, wenn da einer freiwillig schon Links meldet, die sich mindestens im Bereich der Grey Hat SEO befinden? Das wird eher ein weiterer Schachzug von Google sein, um die Suchergebnisse besser von den ganzen Überoptimierern bereinigen zu können.

Würde das Tool nur nutzen, wenn es nicht mehr anders geht. Ansonsten mit Brand Links raus aus dem Keyword Penalty. Dauert etwas aber fuktioniert auch ganz gut. Das Google Tool mag hilfreich sein, aber die Frage bleibt offen, ob Google die Erkenntnisse nicht doch auch zu einer gesonderten Behandlung von Domain benutzt - im SINNE einer "habe dich auf der watchlist" politik.
So what: Never trust google - die wollen nicht den nutzern optimale ergebnisse liefern, sondern umsatz generieren. nie vergessen: Google ist nicht die Heilsarmee, sondern ein Multikonzern mit enormen Profitinteressen. Google neues Afiliate-Programm ist nur ein Beweis dafür

46 | Christoph schreibt am 14.01.13 16:22:

Klar, was das Thema angeht, will ich dem einen oder anderen eine gewisse Paranoia nicht verdenken. Aber dennoch denke ich, dass man die Sache nicht zu hoch hängen sollte.

Ich würde die Signale eher für die Verbesserung meiner Algorithmen nutzen und dafür sind diese Daten sicher Gold wert. Aus SEO-Sicht würde ich dennoch die Finger weg lassen, da ich Google so zumindest schonmal meine Domains inklusive deren spammy Linkprofil übermitteln würde. Spontan fallen mir mehrere Domains mit eher zweifelhaftem Linkprofil ein, die ganz gut ranken - solange das so ist, würde ich im Falle eines Falles eher mit Brand-Aufbau gegensteuern.

47 | sascha schreibt am 23.01.13 13:48:

Seh das ähnlich wie Jonas Bosch ich denke Google holt sich einfach sehr sehr billige Mitarbeiter und so lang Leute dieses Tool nutzen haben sie es doch genau geschafft, schneiden wir uns wieder ins eigene Fleisch und Google wächst leider wieder ein Stück

48 | Forex schreibt am 29.01.13 18:35:

Ich finde es nun mehr und mehr übertrieben, wie Google die Webmaster von a nach b jagt. Keine leichte Aufgabe mehr für viele Seitenbetreiber.

Ist das wirklich so? Google jagt doch niemand von a nach b. Die Richtlinien sind doch schon immer bekannt - Google setzt nur einfach "nur" immer schärfer Updates ein, um Seiten zu bestrafen, die sich nicht an die Richtlinien halten oder besser, die bewusst unerlaubte Methoden einsetzen, um das Ranking zu beeinflussen. Dazu gibt uns Google umgekehrt auch bessere Werkzeuge an die Hand. Man schaue sich doch nur mal an, welchen Umfang mittlerweile die Webmastertools haben. Aber es ist nicht so, dass Google heute "a" sagt (also tu dies oder das) und das später mit "b" wiederruft und Jagt auf die macht, die sich an "a" gehalten haben. Oder seh ich das was falsch?

50 | Daniel schreibt am 30.01.13 14:06:

Dieses Spiel von Google ist ja nicht neu...

Google muss nur wenig Informationen oder Gerüchte verbreiten und schon ändern Tausende Webseitenbetreiber ihre Richtung.

Ob Google wirklich so viel über Webseiten und ihre Zusammenhänge weiss, bleibt dahingestellt. Aber nur durch die Warnung, dass mit dem nächsten Update Webseiten, die dies oder jenes tun abgestraft werden, kommt Google seinem Ziel von weniger Manipulation wieder ein bisschen näher...

@Daniel: Nein, es bleibt nicht "dahingestellt". Du muss nur mal die Patente von Google lesen, das öffnet Dir die Augen. Und sicherlich steht da nur ein Bruchteil drin... ;-)

52 | Geraldine Göllner schreibt am 3.02.13 18:36:

@Christoph: Dem stimme ich eindeutig zu. Warum schlafende Hunde wecken, so lange noch gar nichts darauf hinweist, dass es notwendig ist.

53 | Jurgen schreibt am 10.07.13 14:18:

Naja, wenn man abgestraft wurde denkt man glaube ich anders... wenn manche webseite betreiber sogar geld für das löschen der links verlangen ist es doch einfach nur zu recht diese zu disavoven - somit sind die dann die abgestraften...

Ich habe es persönlich zum glück noch nicht machen müssen, wäre aber ein mittel gegen diese "geld fürs löschen" webmaster...

54 | Holger schreibt am 16.07.13 11:46:

Guten Tag,

ich wollte nur mal mitteilen, dass man bei der Einreichung der Linkliste in Disavov Tool, die Liste mit den Links jedesmal neu einreichen muss.

Das heisst, hat man neue Linkquellen gesammelt, so muss man diese mit der alten Liste nochmals einreichen, da Google dies selbst nicht aktualisiert.

Liebe Grüße
Holger

Einen Kommentar schreiben ...