Website Boosting 2.0 - Weblog

Der Blog für das Buch Website-Boosting 2.0 von Mario Fischer

Disavow Links - Backlinks entwerten

Matt Cutts von Google hat gestern ein Video veröffentlicht, in dem ein neues "Powerfull tool" (O-Ton) für die Webmastertools angekündigt wird: Disavow Links. Damit soll man künftig Backlinks zur eigenen Site verleugnen können bzw. diese entwerten. Damit setzt Google endlich eine Idee um, die Website Boosting vor zweieinhalb Jahren auf seinen Tisch gelegt hat.

Zunächst: Um was geht es genau? Google stellt nun über die Webmastertools eine neue Funktion zur Verfügung die es erlauben soll, sich von unerwünschten Backlinks zu distanzieren - deren Wertung also praktisch abzustellen. Dazu kann man danneinzelne LInks angeben, ganze Domains oder auch ein Textfile mit unterschiedlichen Adressen hochladen. Bisher ist das Tool in Deutschland noch nicht über die Navigation zu erreichen, sondern nur über den Einsprung über den URL

www.google.com/webmasters/tools/disavow-links-main

Ich hab hier mal absichtlich keinen aktiven Link hinterlegt, weil die Usability noch etwas, "ähem", seltsam ist. Man kann aktuell nur die Domainnamen auswählen, die in dem entsprechenden Webmastertool-Account angelegt sind. Der Button unten sagt eindeutig:
"Links für ungültig erklären" und es ist unklar, ob man die Funktion sofort durch einen Klick auslöst und damit die gesamten Links der Domain mit einem Klick entwertet. Oder ob man nur zur Verwaltung dieser Domain kommt und DANN erst Links entwerten kann. Ich trau mich jedenfalls nicht, auf diesen Button zu drücken. Gut, hinsichtlich der Usability von Seiten hat Google sich bisher bei neuen Diensten selten mit Ruhm bekleckert...

diavow-links.jpg

Was die Nutzung dieser neuen Funktion wirklich bringt, bleibt abzuwarten. Würde Google diese beantragten Entwertungen tatsächlich ohne Vorbehalt vornehmen, würde man Linkspammern das Leben wieder etwas leichter machen. Man müsste jetzt nämlich nicht mehr aufpassen, welche Linkpakete man kauft. Stellt sich heraus, dass schleche Links dabei sind, entwertet man sie einfach wieder? So einfach wird und sollte es sicherlich nicht sein. Man kann davon ausgehen, dass Google solche Meldungen mittrackt und ebenfalls auswertet. Alles andere wäre blanke Dummheit - und dafür ist Google mit Sicherheit nicht bekannt ;-)

Ich habe übrigens zum Start von Website Boosting in der ersten Ausgabe in einem persönlichen Interview mit Matt Cutts genau diese Frage gestellt bzw. nach dieser Funktion gefragt. Da die erste Ausgabe schon lange vergriffen ist, hier noch mal den Auszug zum Nachlesen und weiter unten das Video von Matt Cutts, in dem er das neue Tool erklärt. Bing hat diese Funktion übrigens schon vor einigen Wochen freigeschalten.

Auszug Website Boosting Ausgabe 1 (05-06/10), Interview mit Matt Cutts:

"Website Boosting: Gegen eine unerwünschte Linksetzung von Außenstehenden kann man sich als Webmaster schlecht wehren. Immer wieder wird diskutiert, ob das sog. „Google-Bowling" wirklich funktioniert. Google sagt, eine Site kann nicht für eingehende Links bestraft werden, weil man sie nicht beeinflussen kann. Experten befürchten, dass dies nur die halbe Wahrheit ist. Tatsächlich fallen jeden Tag Seiten aus dem Index, weil verdächtige Linkmuster auftauchen. Werden solche schmutzigen Links von bösen Mitbewerbern gesetzt, kann das einer ehrlichen Domain also durchaus schaden. Was spräche dagegen, wenn Webmaster in den Webmaster-Tools die Möglichkeit erhalten würden, eingehende Links bei Bedarf gezielt zu „entwerten"? Dann wären Fremdmanipulationen von Mitbewerbern erfolglos. Wenn gegen die Richtlinien arbeitende Optimierer (Blackhats) ohne das Wissen eines Unternehmens unsaubere Links setzen, könnte man diese als Webmaster somit sehr gut kennzeichnen bzw. wieder „entfernen".

Matt Cutts: Das ist eine wirklich interessante Frage! Es geht um den Vorwurf beim „Google-Bowling" ja um die Annahme, dass Leute nach wie vor befürchten, jemand könne ihnen schaden, indem er bestimmte Verlinkungen auf deren Website setzt. Unsere Antwort auf diese Vorwürfe hat sich nicht geändert: Wir arbeiten nach wie vor sehr hart daran sicherzustellen, dass niemand eine Website durch Setzen eines Links darauf diskreditieren kann. Wir geben uns wirklich große Mühe. Darum gestatten wir es nicht, bestimmte Links als nicht anerkannt zu kennzeichnen (intern nennen wir das „disallow"), also zu sagen: „Ja, dieser Link soll nicht zählen." Und wenn dann ein Mitbewerber Spam-Links auf die Website platziert (oder man das vermutet), könnten Sie diese Links als nicht anerkannt kennzeichnen und sich absolut darauf verlassen, dass diese Links dann auch niemals zählen würden. Die Links hätten nichts mehr mit der Website zu tun. Generell finde ich den Vorschlag gut. Aber wie bereits vorhin gesagt: Wir stellen mit großem Aufwand sicher, dass niemand die Website eines Dritten diskreditieren kann, indem er Links darauf setzt. Und solange das gut funktioniert - und ich finde, dass wir wirklich gute Arbeit leisten - besteht gar keine Notwendigkeit für den Website-Besitzer, bestimmte Links als nicht anerkannt zu kennzeichnen. Und außerdem: Würden Sie alle Ihre Links durchgehen und sich bei jedem entscheiden, ob Sie für ihn bürgen können oder nicht? Da hätte man sicher ganz schön was zu tun, denn es können ja wirklich viele Links sein. In der Praxis müsste man wahrscheinlich beispielsweise eine vollständige Liste aller eingehenden Links herunterladen und dann kennzeichnen, welche einem nicht gefallen, welche nicht von einem selbst sind, welche man nicht kennt und damit gar nicht haben will - oder eben auch Links von Pornoseiten etc. Dann müsste man die Liste wieder hochladen.
Zu den bekannten Websites gibt es eine riesige Zahl von Links und wenn Sie die wirklich alle detailliert überprüfen wollten, kann das richtig lange dauern. Man müsste das sinnvollerweise mit einer Suchfunktion unterstützen oder sogar mit einer Schnittstelle, aber das wäre gar nicht so einfach. Würde man diese Unterstützung aber nicht anbieten, wäre die Zahl der ungefilterten Links oft wirklich sehr groß. Dies vorausgeschickt, möchte ich klarstellen, dass ich prinzipiell überhaupt nichts gegen ein solches Feature habe! Es ist eher eine Frage der uns zur Verfügung stehenden Ressourcen.
Dem Webmaster-Tools-Team war immer schon daran gelegen, neue, andersartige und wirklich sinnvolle Dinge zu entwickeln, zum Beispiel Malware-Details, die Ihnen genau sagen können, welche Teile oder Seiten Ihrer Website möglicherweise mit Malware [bösartige Software; Anm. d. Red.] infiziert sind. Oder auch Features wie „Fetch as Googlebot". Das ist eine tolle Sache. Wenn eine Website zum Beispiel gehackt worden ist, können Sie sagen: „Googlebot, hole mir meine Seite und zeige mir direkt an, was du siehst." Wenn also ein Hacker auf Ihre Seite gelangt ist und er clever ist, zeigt Ihre Seite den modifizierten Content vielleicht nur dann, wenn Google zu Besuch kommt! Aber mit diesem Feature kann man nun solche gehackten Inhalte auch selbst identifizieren und finden. Im Vergleich zu solchen Features und vor allem angesichts der Tatsache, dass wir es Dritten so sehr schwer machen, Ihre Website zu diskreditieren, können wir mit unserer kostbaren Zeit oder unseren Engineering-Zyklen etwas Sinnvolleres tun.
Also, im Moment verfolgen wir die Idee nicht und haben sie aktuell auch nicht in Planung. Wenn diese Sache aber vielen Leuten Sorgen macht, denke ich, dass nichts dagegen spricht, eine solche Funktionalität als Feature anzubieten. Denn letztlich heißt das doch nur: Wenn Sie der Inhaber einer Website sind, haben Sie das Recht zu sagen, dass Sie wollen, dass bestimmte Links auf Ihre Website zum Beispiel für PageRank etc. nicht zählen. Dabei könnte es allerdings zu merkwürdigen Situationen kommen, wenn jemand beispielsweise sagt: „Dieser Link gefällt mir nicht", und es handelt sich nicht um einen Spam-Link, sondern der Link enthält etwas Negatives, zum Beispiel eine boshafte Aussage über die Website. Vielleicht behauptet jemand, die Website sei betrügerisch. Es wird schon schwierig, wenn derartige Links als „nicht anerkannt" gekennzeichnet werden können, weil es dann ja nicht mehr nur um die Abweisung von Spam-Links geht."


Hier noch das aktuelle Video:



Prinzipiell ist es natürlich eine gute Sache, sich "Altschulden" entledigen zu können. Matt Cutts sagt allerdings in dem Video auch, dass dieses Tool nur sehr wenige nutzen sollten, weil es "Powerfull" ist, spriich, wer sich nicht auskennt, sollte die Finger davon lassen. Das heißt umgedreht: Lieber Accountinhaber, wir wissen jetzt, dass Du richtig Ahnung von SEO hast und offenbar SEO betreibst oder machen lässt. Das ist ja nicht verwerflich - aber trotzden ein deutliches Signal an Google, das verbunden mit den Erkenntnissen aus dem letzten SEO-Patent (siehe nächste Website Boosting) schon ein deutliches Profil eines Nutzers zeichnet.

Was meint Ihr? Ist das neue Tool eher nützlich oder kann es auch gefährllch werden?


I

Stichworte:

War der Artikel für Sie wertvoll? Hier können Sie voten:

Geschrieben von am 17.10.2012
Kategorie: Aktuell, Nützliche Tools



Kommentare & Anmerkungen

zum Beitrag: »Disavow Links - Backlinks entwerten«,
Trackback-URL: http://www.website-boosting.de/m4/mt-tb.cgi/964

Kommentare

1 | Sabrina schreibt am 17.10.12 8:15:

Ich kann mir nicht vorstellen, dass Google nur einen Link trackt. Wahrscheinlich werden durch das Speichern alle Links die von dieser Seite kommen, entwertet. Fraglich sind hier noch die Auswirkungen auf die eigene Seite und auf die, die man genannt hat. Wer weiß, was Google alles mit den Daten anstellt.

2 | Witali schreibt am 17.10.12 10:31:

Wurden wirklich Spamlinks durch einen Mitbewerber gesetzt, dann ist es sicher sinnvoll. Aber wenn man damit vor Jahren aufgebaute Spamlinks entwerten kann, dann ist das doch ein Schritt gegen die eigene Spamerkennung von Google. Und es würde nur ein kleiner Bruchteil der Seitenbetreiber davon profitieren. Weiter gedacht könnte Google dann schlechte Links auch einfach ganz entwerten und nicht negativ beurteilen, so wäre das fair für alle Seitenbetreiber.

3 | Thomas schreibt am 17.10.12 10:40:

Ich denke das Tool könnte schon sehr hilfreich sein. Auf der anderen Seite ist Gefahr natürlich auch sehr groß, dass man ungewollt Signale an Google sendet, dass man sich wohl etwas detaillierter mit der Thematik "Linkaufbau" beschäftigt...

4 | pip schreibt am 17.10.12 11:25:

Kannst Dich ruhig trauen zu "klicken" - der eigentliche Vorgang des Entwertens findet erst mit dem Upload einer txt Datei statt. Also ruhig rumprobieren ;)

5 | Malte schreibt am 17.10.12 11:52:

Ich halte das Tool für sehr gefährlich, denn es wird wenige (wahrscheinlich einige SEOs) Menschen geben, die wirklich beurteilen können, welche Links schädlich sind. Außerdem liefert es Google eine Menge Daten, die man sonst nicht freiwillig veröffentlichen würde.

@Thomas: Ja, das kann schon eine Gefahr sein. Wie gesagt, Google hat ja sogar Patente, in denen sie beschrieben, wie man "SEO-Tätigkeiten" identifizieren kann. Könnte mir schon vorstellen, dass es da schon lange ein Flag für eine Domain gesetzt wird, wie stark man dort SEO macht. Das ist ja grundsätzlich nichts böses, aber man muss nat. auch umgekehrt aufpassen, welche Signale man an Google sendet...

@Witali: Das haben sie ja bisher auch immer gesagt! Sie könnten selbst entscheiden, welche Links sie "zählen". Das ist eine 180 Grad Kehrtwende.

Vielleicht auch nur ein Placebo, weil dort mittlerweile zu viele Anfragen (nach dem Versenden von blauen Briefen) kommen, dass man Links selbst gar nicht gesetzt hätte. Wenn man das augenscheinlich selber entwerten kann, ist wieder Ruhe...

Frage 1: Warum sollen wir eigentlich die Arbeit von Google machen?
Frage 2: Lohnt sich der Aufwand?

Meine erste Einschätzung:
Das Tool könnte interessant sein, um die Vernetzung wieder in das richtige Licht zu rücken. Es gibt so viele automatisierte Links, insbesondere die ganzen SEO-Tools sind mir doch ein Dorn im Auge. Fragt sich aber, ob Google diese Art Verlinkung nicht eh außen vor lässt.

Werden Spamlinks dann wirklich durch den Wettbewerb gesetzt? Sicherlich ist der Aufwand einfach zu groß, so viel Zeit zu investieren...Außerdem gehört das nicht zu den ungeschriebenen Regeln :)

@Philip Hoevels:
Ich vermute, der Auslöser war das Pinguin Update und v. a. die "blauen" Briefe, die Google weltweit an Webmaster verschickt hat, dass ihre Backlinkstruktur hmmmm... zweifelhaft wäre.
Das hat eine Welle an Linkrückbaumaßnahmen ausgelöst. Es gibt sogar schon Tools, mit denen man Webmaster fast automatisiert anschreiben kann, dass die diesen oder jenen Link entfernen sollen.

Wahrscheinlich ist bei Matt Cutts & Co. eine Flut an Anfragen eingegangen und natürlich verfolgen die auch die entspr. Diskussionen im Web. Um den Webmastern selbst die Möglichkeit zu geben, Links zu entfernen, hat man wohl diese Funktion eingebaut.

Ob sich der Aufwand lohnt, kann man jetzt noch nicht sagen, dazu ist die Funktion zu neu. Auswirkungen konnten daher nat. noch nicht gemessen werden.

@John Schmidt:
Du würdest staunen, wie oft sowas tatsächlich vorkommt. Plus: Wie wenig Aufwand (ca. 100 US$) es ist, auf diversen grauen Plattformen so etwas zu beauftragen. Das gibt es, es wird gemacht und es funktioniert!

Dass das setzen von Spamlinks wirklich funktionieren soll finde ich erschreckend. Und wenn ein Konkurrent nun mehrere hundert schlechte Links setzt, dann wird es doch nahezu unmöglich diese alle einzeln zu entwerten?!?

@Tim Blicker:
Klar funktioniert das. Woher soll denn Google wissen, dass der Webmaster die Links nicht selbst in Auftrag gegeben hat? Auf dem grauen Markt bekommst Du 10.000 miese (echt miese) Links für unter hundert Euro. Funktioniert alles praktisch vollautomatisch.
Die Linkadressen für eine Entwertung (und für diese Fälle wäre das Tool nat. wirklich nützlich) kann man durch Nutzung eines entsprechenden SEO-Tools schon aufstöbern. Ist ja alles keine Geheimwissenschaft... ;-)

13 | Sam schreibt am 19.10.12 9:32:

Ich könnte mir vorstellen, dass viele Domain-Leichen durch das Tool wieder aus dem Keller kriechen. Bisher finde ich es ziemlich undurchsichtig da sich in den meisten Fällen nur SEOs Gedanken über den Linkaufbau ihrer Seite machen. Was ist also unnatürlicher als Google zu sagen: "Hey Google, ich betreibe SEO!"

14 | Andreas schreibt am 22.10.12 17:56:

In meinem Blog habe ich pro Tag bis zu 500 Versuche, mit denen irgendwelche Spambots Links unterbringen wollen. Wenn man nun nach dem Motto verfahren kann: Erstmal massenweise Links setzen und wenn Google abstraft, diese neue "och, war doch gar nicht so gemeint"-Funktion nutzen. Ich denke, so etwas verleitet geradezu auf Teufel komm raus zu spamen.

Nun neben den positiven Effekten gibt es auch wieder einige Nachteile.

Seiten die oft "entwertet" werden bekommen so ggf. einen negativen Touch ab oder werden zumindest auffällig und geprüft. Vielen Seiten crawlen auch einfach nur Inhalte und verlinken diese.

Wenn man mal nach seinem Domainnamen googelt, gibt es ggf. tausende von Mini-Seiten, die irgendwelche dubiosen Auswertungen der eigenen Domain mit Screenshot erstellen, diese tauchen bei Links die Google in den Webmaster Tools scannt z.B. fast überhaupt nicht auf. Wichtig sind hier verläßliche Backlink Auswertungen auch seitens Google für die Webmaster. Viele Seos und Firmen haben sicherlich auch schon die Erfahrung gemacht, dass auch mit Tools wie Sistrix, Xovi, Searchmetrics und alle die anderen, nie zu 100% alle Links erscheinen, wenn schon eine relativ große Struktur vorhanden ist. Ein paar fehlen immer egal wo.

Das andere nun ist auch der Thema Schutz der eigenen Daten und Zugriffsberechtigungen dabei wichtig. Leute, die sich unbefugt Zugriff zu Konten und Webspace verschaffen, könnten schwerwiegende Manipulationen vornehmen.

Weiß jemand schon, ob man entwertete Links wieder "aktiv" schalten kann?

16 | Matthias schreibt am 25.10.12 17:07:

Meiner Erfahrung nach kennen die meisten Unternehmen (Kunden) die eine Website betreiben die Webmastertools gar nicht. Wenn den Websites dieser Unternehmen im Ranking durch Spam-Links ein Schaden zugefügt werden könnte besteht für Google gar keine Möglichkeit die Betreiber über die Webmastertools mit einem blauen Brief zu erreichen. Sollte also Negative-SEO funktionieren wäre es doch in Googles Interesse die Spam-Links ohne Mitarbeit der Websitebetreiber via Webmastertools zu entwerten. Ich denke, dass weiß Google auch, denn am Ende des Tages geht es doch für Google darum den relevantesten Content zu ranken (womit man beim Thema OnPage ist). Ich glaube, dass die blauen Briefe oder die Meldefunktionen eher so ein "auf den Busch klopfen" sind. Wer außer SEOs soll denn da antworten? Soll heißen: Eine Website mit gutem Content würde durch viele Spam-Links (von einem bösen Wettbewerber) evtl. kurz im Ranking absacken, sich dann aber wieder erholen. Auf der anderen Seite wird es bei irgendeiner Satellitenwebsite mit Ramsch-Content auch nicht im Ranking helfen, wenn ich via WMT Backlinks entwerte.

17 | Sascha Mühlen schreibt am 25.10.12 18:29:

@matthias, ja da hast du recht es wird für Unternehmen zur Pflicht, dort angemeldet zu sein. Hängt aber damit zusammen, das die WMT bis dato nicht so populär waren. Das Datenmaterial war dort meist total veraltert, hat sich aber in einigen Punkten gebessert und wird es meiner prognose nach immer mehr.

18 | Carlos schreibt am 27.10.12 11:04:

Vom Ding her ja eine gute Idee, aber im Grunde spielt man Google damit doch nur zu und lässt sich zu sehr in die Karten schauen - definitiv ein zweischneidiges Schwert.

19 | matthias schreibt am 16.11.12 20:03:

ich würde (grundsätzlich) nie links entwerten, denn ich glaube, dass auch bad-links zu einem gesunden linkprofil gehören. ausserdem glaube ich, dass man mit der deaktivierung (erst recht, wenn man es übertreibt) schlafende hunde weckt.
wer sein linkprofil regelmäßig kontrolliert und sauber gearbeitet hat, braucht dieses tool nicht.

20 | Marija schreibt am 27.11.12 17:06:

Ich finde das Tool sowohl positiv als auch negativ. Ich denke es ist gut, schlechte Links entfernen zu können, macht aber die ganze Whitehatseo-Geschichte irgendwie zu Nichte, weil man, wie ihr schon sagtet, ganz einfach mal schlechte gekaufte Links entfernen kann.
Mh.

Wüten die SEO-Spammer jetzt nicht noch viel heftiger? Man könnte nun wieder zig Backlings auf dubiosen Seiten setzen (oder jemanden beauftragen). Sollte sich das Ranking verschlechtern, kann man die Links dann bequem wieder löschen. Trotz Panda & Penguin denke ich nämlich, dass der ein oder andere selbst gesetzte Backlink doch zu einem besseren Ranking verhelfen kann.

22 | Go Schutzpaket schreibt am 5.12.12 10:37:

Also ich finde DISAvow ein ziemlich zweischneidiges Schwert. Ich kann Blogbesitzer mit hohen PR Blogs verstehen die Ihre Blogs nicht mit Spamkommentaren uberflutet sehen wollen. Aber auf der anderen Seite ist es widerum nicht im Sinne der Gemeinschaft des Web 2.0 wenn man andere ansschliessen kann. Man hat ja als Blogbesitzer die Möglichkeit Posts freizugeben oder eben nicht zuzulassen.

Ich schließe mich da der Meinung von Go Schutzpaket. Besonders Blogger haben die Möglichkeit durch die Freischaltung von Kommentaren die Backlinks in Art von Spammkommentaren zu sperren. Und wie auch Marija schrieb, öffnet man mit DISAvow die Pforten für Black Hat Seo. Denn warum sollte ich mir die Mühe geben und meine Links ausgewählt und händisch setzen, wenn ich mir auch 1000 Links für 5 € kaufen kann und diese dann einfach später damit aussortiere?

24 | Micha schreibt am 2.01.13 21:48:

@ Peter Krueger
Ich sehe das fast genau so wie du. Ich habe auch die Befürchtung, das die Spammer das ganze als Einladung sehen könnten.

25 | Dennis schreibt am 14.01.13 21:21:

gibt es schon etwas neues von dem Disavow Links..

positives negatives ?

26 | Tom schreibt am 18.02.13 19:53:

Ich finde das Disavow-Tool ist ein sehr mächtiges Tool. Es gibt einem die Möglichkeit, wirklich schlechte Links zu entfernen. Zum Beispiel, wenn sich eine vermeintlich gute Seite dazu entscheidet Links zu verkaufen.

Jedoch sollte das Tool nur in Ausnahmefällen verwendet werden. Google ist nicht dumm!

27 | Keinson schreibt am 6.05.13 9:00:

Was wird Google noch alles bringen um den Backlink aufbau zu verändern und dan auch nicht die ganze Wahrheit über die neue Funktion auf den Tisch legen.

Also ich halte es für unnötig da es wie immer auch negativ beeinflusst werden kann.

28 | Carlo Düllings schreibt am 29.05.13 22:01:

Ich denke nicht, dass Black-Hat jetzt leichter wird. Haben ja auch schon einige hier gesagt, dass Google die Daten vielleicht ja auch noch anders nutzen wird a la "aha, da kennt sich aber einer mit der SEO-Materie aus, also wird er wohl auch eher Rankings manipulieren wollen/können".

Das Argument, dass man ja einfach Links kaufen könne und danach die schlechten entwerten kann, wird Google sich bestimmt auch schon gedacht haben, was dann nur wieder meine Befürchtung bestärkt, dass diejenigen, die es (stark) nutzen, bestraft werden.

Auch das Argument, dass ein natürlicher Linkmix auch Schrott-Links enthält, hat seine Berechtigung.

Ich werds nichts nutzen.

29 | Mario schreibt am 11.06.13 22:37:

Solange auf Seiten für die ich verantwortlich bin nicht massig Links von Po**o Seiten oder anderen "wertvollen Webdokumenten" zeigen, werde ich dieses tool SICHER nicht benutzen.

30 | Tomster schreibt am 16.06.13 19:08:

Richtig geil ist ja, dass wer dieses Tool nutzt gleich schön brav auf Googles Radar auftaucht... :-)

Da müsste schon ein handfester SEO-Notfall eintreffen, bevor ich Tante Google mit dem Zaunpfahl winke. Aber selbst dann, würde ich mich wohl eher von der Seite verabschieden. Schliesslich hab ich in den Webmaster-Tools ein ganzes Webseiten-Portfolio.

31 | Sven schreibt am 29.06.13 11:39:

Mit Sicherheit eine gute Sache den einen oder anderen Link entfernen zu können. Aber man sollte hier vorsichtig sein.

Auf der anderen Seite wäre die Frage in wie weit diese Links einen Einfluss haben. Ich sehe dabei vorallem Seiten wie Wikipedia, die mit Sicherheit auch Backlinks von nicht so "gute" Seiten haben. Ich denke wnn das Verhältnis stimmt und diese Links nicht die "Oberhand" gewinnen, sollte nicht direkt eine Gefahr bestehen.

Google wird mit Sicherheit auch so schlau sein, dass eine Seite mit sehr gutem Content sich nicht selbst ins Dunkel der Platzierungen reißt mit dubiosen Linkaufbau.

Gruß Sven

32 | Martin schreibt am 14.10.13 9:58:

Auch ich halte das Tool für sehr gefährlich.

Ich konnte eine Abstrafung auf der Website eines Kunden sehen, welche sich nach 3 Monaten wieder erholte und fast den gleichen Stand erreichte.

Mein Fazit davon war: Hätte man nun reagiert und Links abgebaut, wäre das ein "Schuldgeständnis" gegenüber Google und damit hätte Google "Recht" gehabt. Recht damit, dass hier was falsch läuft, also Greyhat- oder Blackhat-Methoden im SEO-bereich angewandt werden.

Genauso verhält es sich meiner Ansicht nach mit dem Disavow Tool. Es ist wie eine Selbstanzeige bei Google und man ist danach definitiv auf dem Beobachtungsschirm von Google. Wenn also nicht wirklich ein riesen Notfall besteht, Finger eher weg und Links normal abwerten, wie Webmaster anschreiben und um Entfernung bitten. Das kann zwar zeitaufwendig sein, aber es ist die sanftere Methode.

Grüße
Martin

33 | Alex schreibt am 25.02.14 3:34:

Ich würde mit diesem Tool auch mit Vorsicht umgehen, hab damit bei einer Webseite von mir schlechte Erfahrung mit gemacht. Man sollte echt aufpassen was und wie man entwerten tut. Ansonst gibts massive Ranking Einbrüche.

34 | schweiger schreibt am 4.07.14 9:29:

so muss man sehr vorsichtig dieses Tool benutzen

Einen Kommentar schreiben ...