Anzeige
Smartes Cloud Hosting für anspruchsvolle Projekte.
↬ Loslegen und Spaces testen ↬ Jetzt testen!
Dieter Petereit 12. Februar 2009

Google und der Webspam

Kein Beitragsbild

Ich muss zugeben, dass ich es durchaus merkwürdig fand, als Googles Spambekämpferchef Matt Cutts in seinem persönlichen Blog dazu aufrief, Themen vorzuschlagen, mit denen sich das Webspamteam in 2009 befassen sollte. Immerhin dürfte es diesbezüglich keine größeren Experten geben als die Teammitglieder selber. Andererseits ist es natürlich immer gut, auch Volkes Stimme zu hören.

Wix Webseiten — echt superpraktisch. ↬ Mehr erfahren

Illustration

Anzeige

Guter SEO, schlechter SEO

Und Volkes Stimme machte sich hörbar. Bis jetzt befinden sich nahezu 300 Kommentare unter dem entsprechenden Blogposting. Dabei sind jedoch die meisten aus dem SEO-Umfeld, was auf den normalen Netznutzer schon ein bisschen skurril wirken mag. Die SEO-Branche versucht sich nicht zuletzt daran, Google auf die bösen Kollegen zu hetzen. Die meist nachgefragten Themen sind:

  • Websites, die schlicht den Inhalt anderer Websites duplizieren, damit aber höher ranken als die Originale sollen in den Ergebnislisten herabgestuft werden.
  • Ebenso soll es Sites gehen, die bezahlte Textlinks verkaufen, ohne diese zu kennzeichnen. In diesem Zusammenhang wird ein Firefox-Plugin vorgeschlagen, mit dessen Hilfe man solche Sites einfach reporten könnte.
  • Die Wertigkeit von Links aus sozialen Netzwerken, wie Facebook und anderen soll herab gesetzt werden
  • Erkannte Spammer sollen von allen Googleservices ausgeschlossen werden.
  • Sites, die in den Suchergebnissen aussortiert werden, sollten nicht für das AdWords-Programm zugelassen sein.
  • Websites mit einer Übermenge an Keywords sollten ebenfalls eine schlechtere Positionierung erhalten als bisher.

Gleichzeitig möchten die SEOs aber auch mehr Informationen darüber, wann, warum und was Google als Verletzung der Richtlinien einstuft. Denn angeblich gebe es zu viele Falschpositive und zu wenig Transparenz in den diversen Prozessen, insbesondere bei der Reconsideration. So so. Klingt für mich nach einem zweischneidigen Schwert, das gleichzeitig in beide Richtungen geschwungen werden soll.

Was der normale Nutzer sieht

Aber die Vorschläge an das Webspamteam beinhalten nicht bloß lagerpolitische Maßnahmen zur Pfründesicherung, sondern auch für den normalen Nutzer begrüßenswertes:

  • Websites, die vorgeben, Rezensionen zu Artikeln zu halten, dies aber tatsächlich gar nicht tun, sollten von den Ergebnislisten verschwinden.
  • Ebenso soll es Websites ergehen, die zwar Google den vollen Inhalt ihrer Seiten zugänglich machen, den Benutzer dann aber zur Registrierung zwingen, wenn er das Suchergebnis aufrufen will.
  • Auch ärgerlich sind Websites, die den Suchbegriff aus Google aufgreifen, damit in den Ergebnissen hoch ranken, dann aber beim Klick nur ein eigenes Suchformular mit dem übernommenen Suchbegriff bieten.
  • Aus meiner Sicht ein wesentlicher Vorschlag bezieht sich auf das Ausfiltern von Suchergebnisspam bei lokalen Suchen. In der Tat ist es derzeit so, dass gerade bei ortsbezogener Suche eine unangenehm große Menge nutzloser Ergebnisse in der Liste auftaucht. Dabei wären gerade derlei Ergebnisse besonders leicht als Spam zu identifizieren, ist es doch zumeist so, dass diesen der örtliche Bezug, bis auf die Nennung des Ortsnamens komplett fehlt.

Blogweisheiten

Aus dem Bloggerlager fließen weitere Vorschläge an das Webspamteam:

  • Konsequentes Löschen der Spamblogs (Splogs) auf Blogger.com. Bekanntlich ist gerade Googles eigener Blogdienst eine exorbitant beliebte Plattform für Spammer aller Art.
  • Zusammenarbeit mit Akismet, um gegenseitige Erfahrungen im Umgang mit Spam nutzen zu können.
  • Foren- und Kommentarspammer sollten unnachgiebiger verfolgt werden ;-)

Wie immer, wenn man Menschen fragt, bekommt man auch teilweise widersprüchliche Antworten. So findet es manch Zeitgenosse richtig, das DMOZ stärker in das Ranking einfließen zu lassen, während andere der Auffassung sind, gerade das DMOZ müsste einen geringeren Einfluss auf das Ranking haben. Trotz einiger weiterer solcher wenig zielführender Diskussionsbeiträge wird man insgesamt resümieren können, dass dem Webspamteam die wesentlichen Knackpunkte der Google Suche zugetragen wurden.

Welche der Kritikpunkte zukünftig angepackt werden ist bislang nicht zu erfahren. Ebenso wäre es interessant zu wissen, welche der genannten Punkte ohnehin bereits auf der To-Do-Liste des Teams gestanden haben.

Liest man allerdings den Blogbeitrag desselben Mannes zum selben Thema samt anhängender Kommentare aus einem ganz anderen Jahr, wird man sich realistischerweise wenig Hoffnung machen. Denn der Beitrag datiert vom 6. Januar 2006 (!)  und beinhaltet bereits weitgehend dieselben Themen.

Wie immer in Sachen Google heißt es daher auch hier wieder: Abwarten und Tee trinken und do no evil…

Dieter Petereit

Dieter Petereit

ist seit 1994 im Netz unterwegs, aber bereits seit über 30 Jahren in der IT daheim. Seit Anfang des neuen Jahrtausends schreibt er für diverse Medien, hauptsächlich zu den Themenfeldern Technik und Design.

11 Kommentare

  1. Jeder „Seo“ hat doch seine eigenen Methoden und manche gute auch hochentwickelte. Da wird Google andere MEthoden finden müssen um Spam zur verhindern. Es ist aber grad nicht so leicht.

  2. Man darf also gespannt sein wie es oben beschriebenen Seiten ergehen wird, zu hoffen bleibt ja das Google solche Methoden besser erkennt und dementsprechend abwertet.

  3. ich fände es ja klasse wenn ich vorgefertigte phrasen abspeichern könnte die automatisch an meinen suchbegriff angehangen werden.. zb. meinsuchbegriff -amazon -ebay -shop -blabla. alleine das würde mir persönlich am meisten helfen.. aber daraus wird wohl nix weil das gegen die geschäftspolitik von google spricht. „ich könnte ja versehentlich auf werbung klicken“ und umsatz generieren.

  4. So von außen betrachtet hat Google seine Suchalgorythmen in den letzten Jahren kaum weiter entwickelt. Ich wundere mich z. b. dass Mister Wong et al bei einigen Keywords besser gelistet werden als die Seite, auf die deren Link verweist. Unabhängig von der Qualität dieser SBS muss doch eine Seite mit Content einen höheren Rank haben als eine Seite, die praktisch nur links und tags enthält.
    Spam ist im übrigen beim web vor allem dann ein Problem, wenn man keine ordentliche Suchstrategie hat. Google kann auch nicht besser sein als die Person, die ihre Suchbegriffe eingibt.

  5. Also ich bin der Meinung das z.B. Ask.com oder Live.com jetzt schon bessere Suchergebnisse liefern wie Google. Google hat ein massives Problem mit Spam !!!

  6. Ich finde die Herangehensweise von Google mehr als richtig. SPAM und Manipulation der Serps sind der größte Feind von guten und relevanten Suchergebnissen. Daran muss Google arbeiten, um dauerhaft die Qualität zu halten.

  7. Eigentlich alles sehr gute Ansätze, nämlich genau die, über die ich mich am meisten ärgere. Hoffen wir mal, dass das alles auch so umgesetzt wird!

  8. @Franky:

    Das wird wohl richtig sein, es soll diesen Website ja genauso ergehen wie denen im Punkt davor (herabgestuft werden). Einfach nochmal lesen.

  9. Kleiner Schreibfehler „Ebenso soll es Sites gehen, die“. Ich denke hier sollte ein „b“ stehen.

    Guter Beitrag

  10. Als Nutzer fände ich den Punkt, dass Seiten, die zum Betrachten des gesuchten Contents eine Registrierung verlangen, von Suchergebnissen ausgeschlossen werden sollen, richtig sinnvoll. Darüber habe ich mich mehr als einmal geärgert..

  11. in Bezug auf den letzten Satz könnte man auch sagen „Abwarten, Tee nicht so heiß trinken und weitermachen wie bisher“… (meine Meinung zumindest)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.