7 Manuelle Penalties und wie Webmaster sie loswerden

Am gestrigen Nachmittag, in der vergangenen Nacht deutscher Zeit, hat Google sieben neue Webmaster Help Videos veröffentlicht, die die wichtigsten Gründe für manuelle Penalties behandeln. In diesen wird erläutert, wodurch Webmaster solche manuellen Penalties erhalten und wie sie gegenwirken können. Die Serie dieser Videos heißt “Recommended Actions” und im Folgenden stellen wir die darin enthaltenen Informationen für Sie zusammen.

Versteckte Texte und/ oder Keyword Stuffing (Hidden Text and/ or Keyword Stuffing):

http://www.youtube.com/watch?v=7y-m_jiayLQ

Zunächst erläutert Matt Cutts, was jeweils gemeint ist: Versteckte Texte sind solche, welche nicht für den Nutzer, sondern nur für Programme sichtbar sind, beispielsweise weiße Schrift auf weißem Hintergrund oder Dateien, die mit Hilfe von CSS oder auf andere Weise so eingebunden werden, dass Nutzer sie nicht wahrnehmen können. Keyword Stuffing ist die übermäßige Verwendung von Keywords in einer solch komprimierten Weise, dass sie nicht mit Mehrwert für den Nutzer erklärbar ist.

In beiden Fällen lautet die Nachricht in den Webmaster Tools “Hidden Text and/ or Keyword Stuffing”. Um die manuelle Penalty wieder los zu werden, sollten Webmaster die versteckten Texte und das Keyword Stuffing gründlich entfernen und Google in der Reconsideration Request zeigen, dass beides in Zukunft nicht mehr vorkommen wird, um das Vertrauen in die eigene Seite wieder aufzubauen. Beispielsweise könnte man laut Matt Cutts erklären, wie die versteckten Texte und das Keyword Stuffing zustande kamen, wenn beispielsweise eine Agentur oder ein technischer Fehler dafür verantwortlich waren, und zeigen, dass alles entfernt wurde.

 

Dünner/ nicht hochwertiger Content (Thin Content):

http://www.youtube.com/watch?v=w3-obcXkyA4

Als “Thin Content” bezeichnet Matt Cutts beispielsweise so genannte Doorways, also Seiten, die nur dafür ausgelegt sind, den Nutzer auf eine andere Seite weiterzuleiten und daher keinen Wert bieten. Auch Affiliate-Seiten ohne Content mit Mehrwert fallen hierunter. Zusätzlich nennt Matt Cutts “Thin Syndication” als Grund für eine manuelle Penalty, da in diesen Fällen der Content auf einer Webseite schlicht aus einer anderen Quelle kopiert oder aus mehreren zusammengesetzt wurde.

Damit Google solche Vorgehensweisen als “Thin Syndication” erkennt, muss ein Webmaster jedoch das Zusammenstellen von Content aus anderen Quellen in großem Stil betreiben oder aus Artikel-Datenbanken übernehmen. Auch hier argumentiert Cutts mit dem Mehrwert für den Nutzer, welcher nicht gegeben sei, wenn dieser den Content auch einfach in der orginären Quelle lesen könnte, statt in kopierter oder zusammengesetzter Form auf der Seite des betreffenden Webmasters. Generell gilt die Faustregel: Seiten, die aufgrund ihres wenigen oder minderwertigen Content offensichtlich nicht für Nutzer erstellt wurden, können abgestraft werden.

Als Tipp gibt Matt Cutts, man solle einen unbeteiligten Dritten fragen, ob dieser den eigenen Content lesen würde und aus ihm Mehrwert ziehen könnte.
Oftmals bezieht sich eine Abstrafung aufgrund von “Thin Content” laut Cutts auf die ganze Domain, da Google das Vertrauen in diese verloren habe; seltener auf eine Directory oder einzelne Seiten. Cutts’ abschließender Tipp: “Make users excited to land on this page”.

 

Durch Nutzer generierter Spam (User-generated Spam):

http://www.youtube.com/watch?v=gjmXYBQZQ8Q

Durch viele Spam-Kommentare auf Blogs oder anderen Webseiten, Spam-User-Profile (die z.B. auf Spam-Seiten verlinken), Spam in Gästebüchern usw. kann eine Seite ebenfalls manuell abgestraft werden. Dabei sind Spam-Kommentare und Spam-Profile die beiden typischsten Formen, Cutts. Diesen Spam solle man möglichst gründlich entfernen.

Dabei könnte die Site-Suche helfen, mit deren Hilfe Webmaster nach Spam-Keywords auf ihrer Domain suchen können – konkret nennt Matt Cutts “PPC – Porn, Pills, Casinos” als Beispiele für solche stark spam-verdächtigen Keywords. Sobald möglichst viel Spam von der Seite entfernt wurde, soll man Maßnahmen zur Prävention treffen, damit die eigene Seite nicht nach kurzer Zeit wieder voll mit Spam ist und daher die Nutzer-Erfahrung verschlechtert.

Als eine Möglichkeit solcher Prävention nennt Cutts einen CAPTCHA, welcher jedoch je nach “Schwierigkeit” nicht unbedingt alle Spam-Bots abhält. Daher empfiehlt Cutts, einen modernen CAPTCHA zu verwenden, für den auch Nutzer einige Sekunden mehr benötigen, um ihn zu lösen. Zusätzlich kann für Kommentare eine Moderation eingerichtet werden, so dass sie erst freigeschaltet werden müssen, oder Kommentare spam-verdächtiger oder unbekannter Nuttzer werden zunächst mit dem Nofollow-Attribut versehen, um Spam zu verhindern. Das Kriterium hier ist, dass Spam-Links allein bereits die Nutzererfahrung beeinträchtigen, doch wenn sie zusätzlich PageRank weitergeben, ist es umso schlimmer.

Sobald ein betroffener Webmaster “beweisen” kann, dass er nicht nur den bisher vorhandenen Spam entfernt, sondern auch Maßnahmen zur Prävention getroffen hat, kann er eine Reconsideration Request stellen und sollte die Präventiv-Maßnahmen darin unbedingt erwähnen.

 

Reiner Spam (Pure Spam):

http://www.youtube.com/watch?v=yHpRlextjL0

Als “Pure Spam” zählt Google vor allem Black-Hat-Maßnahmen wie Cloaking, Repeated Spam usw. – also alles, wovon Nutzer sagen würden: Das ist Spam und völlig irrelevant.
Oft kämen reine Spam-Seiten von Free Hosts.

Für gewöhnlich, so Cutts, geht Google in Fällen von Pure Spam gegen die gesamte Domain vor. Da reiner Spam nicht ohne eigenen Einfluss geschieht und es schwer wird, zu beweisen, dass man sich bessert, hat ein Reconsideration Request bei reinen Spam-Seiten nicht häufig Erfolg. Liegt jedoch ein Fall vor, bei welchem der betroffene Webmaster beispielsweise seine Seite von jemand anderem übernommen hat und nichts von dem Spam wusste, sollte der neue Webmaster die Seite so gut wie möglich vom Spam befreien und mit der Erklärung, dass er nicht vor hat, wie sein Vorgänger zu spammen, eine Reconsideration Request einreichen.

 

Unnatürliche Links verweisen auf meine Seite (Unnatural Links to Site):

http://www.youtube.com/watch?v=6UFHCw4Q_FQ

Minderwertige oder Spam-Links können verursachen, dass Google einen schlechten Eindruck von der gesamten Domain gewinnt und diese daher manuell abstraft. Erhält man eine entsprechende Nachricht über die Webmaster Tools, sollte man laut Cutts zunächst versuchen, die entsprechenden Webmaster zu kontaktieren und um Entfernung der schlechten Links bitten. Genügt dies nicht, kann mit Hilfe des Disavow-Tools angezeigt werden, dass Google diese Links zur eigenen Seite nicht werten soll.

Allerdings, dies macht Matt Cutts sehr klar, benötigt ein Webmaster für eine Reconsideration Request in einem solchen Fall eine sehr gute Dokumentation seiner langfristigen und kontinuierlichen Anstrengungen, den Link-Spam zu entfernen. Liegt diese nicht vor, wird die Reconsideration Request vermutlich eher nicht erfolgreich sein – Google möchte quasi den guten Willen sehen, die schlechten Links zu entfernen. Der Zweck einer Reconsideration Request, so Cutts, ist es, das Vertrauen zwischen Google und Webmaster wieder herzustellen.

 

Unnatürliche Links von meiner Seite auf andere (Unnatural Links From Your Site):

http://www.youtube.com/watch?v=3mdMXdQ_VyU

Hier beantworten Cutts und seine Kollegin zunächst die Frage, was unnatürliche und was natürliche Links sind. Als Hauptkriterium geben sie die “editorial choice” des Webmasters an, also seine Entscheidung im Sinne seines hochwertigen Content, zu einer Seite zu verlinken oder nicht. Verlinkt er auf eine Seite, weil er sich dafür interessiert oder sie ehrlich seinen Lesern empfiehlt, da sie zum Thema eines Artikels passt, ist dies natürlich. Im Umkehrschluss fallen alle gesponsorten/ gekauften Links in die Kategorie “nicht natürlich”.

Nicht natürliche Links sollte man prinzipiell entfernen. Allerdings, so Cutts’ Kollegin, habe Google Verständnis dafür, dass nicht jeder unnatürliche Link entfernt werden kann, beispielsweise Links von Advertisern oder Sponsoren. Diese sollten aber auf Nofollow gesetzt werden, damit sie keinen PageRank weitergeben und so die Suchergebnisse verfälschen. Eine andere Variante wäre, sie mit robots.txt für die Indexierung zu sperren.

Für eine erfolgreiche Reconsideration Request möchte Google auch hier zunächst Beweise dafür erhalten, dass das Problem behoben wurde und der Webmaster keine weiteren unnatürlichen Links setzt.

 

Unnatürliche Links verweisen auf meine Seite – Ergänzung (Unnatural Links to Site – Impacts Links):

http://www.youtube.com/watch?v=7Y74Op_k6UY

Bei einer manuellen Penalty aufgrund von Link-Spam wird oft die gesamte Domain abgestraft, vor allem, wenn der Spam sich über eine gewisse Zeit angesammelt hat. Doch Google kann auch gegen einzelne Links bzw. deren Ankertexte vorgehen, wenn sie spam-verdächtig sind. In diesen Fällen wird es dem betreffenden Webmaster nicht mehr gelingen, auf das Keyword zu ranken, welches in den Ankertexten von Spam-Links vorkam.

Solche einzelnen Link-Abstrafungen können beispielsweise vorkommen, wenn eine PR-Agentur versucht, das Image eines Kunden zu pushen und daher einzelne, positive Berichte über ihn durch eine Vielzahl Links in den Suchergebnissen nach oben zu drücken. Erhält man eine solche Abstrafung, die einzelne Links betrifft, sind in der Nachricht auch einige Beispiele für die Links enthalten, die von der Abstrafung betroffen sind. So können betroffene Webmaster einschätzen, welche Art von Links sie versuchen müssen, zu entfernen.
Es ist keine Überraschung, dass Cutts auch in solchen Fällen zunächst den ernsthaften Versuch der Besserung sehen möchte, bevor eine Reconsideration Request erfolgreich sein kann.


» Neu: Manuelle Penalties in den Webmaster Tools sehen
» 14 Tipps und 7 Fragen, um eine gute SEO-Agentur zu finden