Vor 10-15 Jahren war Suchmaschinenoptimierung noch ein exotisches Randthema. In den letzten Jahren hat hier allerdings zunehmen ein Umdenken eingesetzt.
Unternehmer wissen um die Bedeutung eines guten Rankings bei Google & Co. Mittlerweile können sich viele von ihnen etwas unter dem Begriff Suchmaschinenoptimierung vorstellen und wissen zumindest in groben Zügen, welche Maßnahmen dahinterstecken. Die einzelnen Fachbegriffe, die in diesem Zusammenhang verwendet werden, lösen im Fachgespräch zuweilen jedoch befremdliche Blicke aus. Zeit für eine nähere Erklärung von ein paar klassischen SEO-Begriffen wie Verlinkungen, „PageRank“ und „Linkjuice.“
Was ist unter dem Begriff „Verlinkungen“ zu verstehen?
Links sind einer der Faktoren, die zum Siegeszug des Internets geführt haben. Denn durch die Verlinkung einzelner Artikel und Seiten können User zu einem neuen Beitrag springen, der für sie von Interesse ist.
An der Popularität der Links hat sich bis heute nichts geändert. Für Google und Bing, die beiden großen Suchmaschinenanbieter, sind Verlinkungen ein ganz wesentlicher Bestandteil, um Qualität und Beliebtheit einer Webseite bewerten zu können.
Ein Fachartikel von ROCKET BACKLINKS befasst sich ausführlich mit dem Thema Verlinkungen. Hier wird zunächst einmal zwischen internen und externen Links unterschieden.
Die Unterscheidung von internen und externen Links
Eine externe Verlinkung erfolgt immer zwischen verschiedenen Websites. Wenn beispielsweise ein Blogger auf seiner eigenen Webseite zum Thema „Alpinwanderungen“ zu einem entsprechenden Fachartikel im Spiegel oder einen Eintrag auf Wikipedia verlinkt, handelt es sich dabei um eine externe Verlinkung.
Bei einer internen Verlinkung wird die eigene Seite hingegen nicht verlassen. Die Verlinkung erfolgt dann auf eine eigene Unterseite. Mit internen Verlinkungen werden also die Inhalte einer Webseite miteinander verknüpft.
So weit zu den Begriffserklärungen. Doch wo genau liegt der Sinn von externen und internen Verlinkungen im Zusammenhang mit Suchmaschinenmarketing?
Vorteile von externen Links
Externe Verlinkungen werden aus zwei möglichen Gründen gesetzt. Im ersten Fall wird eine Verlinkung durchgeführt, wenn der Autor einen inhaltlichen Mehrwert in einer externen Informationsquelle sieht. In der SEO-Sprache ist hier von sogenannten „Trustlinks“ die Rede. Diese führen oft zu populären Webseiten wie Wikipedia oder Statista, beziehungsweise zu Informationsquellen wie Spiegel oder Focus.
Der zweite Grund externe Verlinkungen zu platzieren, liegt darin, dass die Popularität der eigenen Website gesteigert werden soll. Das geschieht dadurch, dass ein Betreiber einer größeren Webseite einen sogenannten Backlink auf die Seite einer noch unbekannten oder kleineren Webseite setzt. Wichtig ist hier allerdings, dass das Linkziel auch einen Bezug zum Thema aufweist. Betreiber von größeren Webseiten wissen selbstverständlich um ihre Popularität und lassen sich diese Dienste auch gerne vergüten. Deshalb ist um das Setzen von externen Verlinkungen ein reger Handel entstanden.
Interner Links erhöhen die Verweildauer und Benutzerfreundlichkeit
Interne Verlinkungen erleichtern Besuchern einer Webseite die Navigation auf der Seite erheblich. Menüpunkte in der Navigation werden hingegen in Zeiten der Nutzung von Mobilgeräten kaum noch angesteuert und dienen eher der Orientierung.
Der Querverweis zu anderen Themen oder noch detaillierteren Abhandlungen zum Thema führt zu einer längeren Verweildauer auf der eigenen Webseite. Dadurch erhöht sich die Wahrscheinlichkeit, dass der Besucher in Folge bspw. einen Artikel im Online-Shop kauft und so dem Webseiten-Betreiber direkte Einnahmen bringt.
Auch die Algorithmen der Suchmaschinen reagieren auf interne Verlinkungen. Für sie vereinfacht sich dadurch die Identifizierung der wichtigsten Hauptseiten und die Verständlichkeit der gesamten Webseite.
Seiten werden von den Suchmaschinen immer dann als relevant bewertet, wenn sie einerseits von anderen Webseiten häufig verlinkt werden und andererseits mit wenigen Klicks innerhalb der eigenen Navigation erreichbar sind.
Für die SEO-Strategie bedeutet das, dass die Hauptseite möglichst viele passende externe Backlinks und interne Links von den Unterseiten erhalten soll. Viele Backlinks erhöhen wiederum den PageRank und Linkjuice.
Was ist der „PageRank“?
Warum nur vergeben Parteien im Wahlkampf einen großen Teil der Zuschauerplätze bei Wahlkampfveranstaltungen an eigene Parteimitglieder? Ist das nicht eigentlich eine vollkommen missglückte Marketingidee, sich auf diejenigen zu konzentrieren, die ohnehin schon überzeugt sind? Nunja, offenbar besteht die Hoffnung, dass beispielsweise die TV-Zuschauer die Aussagen der auftretenden Politiker höher bewerten, wenn diese von einer möglichst großen Zahl an Zuhörern pflichtgemäß lautstark bejubelt werden.
Genau das ist die Idee des so genannten „PageRank Sculpting“: Wenn meine Website schon kaum jemand toll findet, müssen meine wenigen Fans ihrer Begeisterung eben umso enthusiastischer Ausdruck verleihen!
Die Bezeichnung PageRank bezieht sich nicht auf die Platzierung einer Webseite in den Suchergebnissen. Der Name geht auf Larry Page, einen der beiden Gründer von Google zurück.
Gemeinsam mit Sergey Brin entwickelte er die Suchmaschine Google im Rahmen einer Forschungsarbeit an der Stanford University. Die Basis dieser Arbeit war der PageRank, der in weiterer Folge zum entscheidenden Faktor für den Erfolg von Google werden sollte. Seinerzeit hatten die beiden Forscher dafür ein Patent angemeldet.
Jede Seite, die von Google indexiert wurde, erhält einen PageRank zwischen 0 und 10. Dabei gilt: Je höher, desto besser. Neue Seiten starten mit einem PageRank von 0 und können im Laufe der Zeit das Ranking entsprechend erhöhen.
Wie kommt der Pagerank zustande?
Das Hauptkriterium für die Beurteilung einer Webseite sind die eingehenden Links. In Fachkreisen ist hier oftmals vom Begriff „Linkpopularität“ die Rede. Bei diesem geht es jedoch lediglich um die Anzahl der Links. Der PageRank geht noch weiter in die Tiefe und beurteilt nicht nur die Quantität, sondern vor allem auch die Qualität der Links.
Das führt dazu, dass zwei oder drei Links von höherwertigen Seiten wesentlich mehr Einfluss haben als 20 oder 30 externe Verlinkungen ohne jegliche Relevanz.
Die Ausgangsbasis für die Berechnung des PageRank bildet der sogenannte „Random Server“. Dabei handelt es sich um den Max Mustermann des Internets, also um jemanden, der auf irgendeiner Seite im Netz startet und über diverse Verlinkungen zu anderen Seiten gelangt. Die Wahrscheinlichkeit, dass Herr Mustermann über einen Link auf eine andere Seite gelangt, ist von der Anzahl der Links auf der jeweiligen Seite abhängig.
Da diese Sichtweise mittlerweile veraltet ist, wurde der „Random Server“ im Laufe der letzten Jahre durch den „Reasonable Server“ ersetzt. Bei diesem wird davon ausgegangen, dass seine inhaltliche Reise durch das Internet nicht komplett wahllos ist, sondern stets einem bestimmten Ziel („Search Intent“) folgt. Die Wahrscheinlichkeit, dass dieser Benutzer auf einen Link klickt, erhöht sich dadurch, dass dieser Link thematisch zur jeweiligen Seite passt und sich dieser mitten im Text und nicht in der Sidebar oder im Footer befindet.
Erstmals öffentlich gemacht hat Google den PageRank im Jahr 2000. Auf einer Toolbar für den Internet Explorer wurde dabei nicht nur der jeweilige Wert, sondern darüber hinaus auch noch ein Balken mit dem Farbspektrum einer Ampel angezeigt. Das Motto dabei: Je grüner, desto besser.
Ein paar Grundbegriffe
Wer im Netz wichtig ist, bestimmt Google. Ihre Website über die Fauna und Flora es deutschen Waldes mag ansprechend gestaltet und die Inhalte mit großer Sachkenntnis zusammengestellt sein, wenn sie bei einer Google Suche nach „deutscher Wald“ auf Platz 12388 der Ergebnisliste erscheint, hilft das alles nicht. Es findet Sie niemand im Web. Google bewertet die Bedeutung ihrer Seite als zu gering, der „PageRank“ ist zu niedrig.
Original PageRank Fluß nach Matt Cutts
Nun hat Google bei der Ermittelung des PageRanks ein Problem: Google ist wie alle Computerprogramme ziemlich dumm. Über den Satz „Der Wald ist grün“ weiß Google so ziemlich alles: wie oft kommt er auf Webseiten vor, wie häufig wird nach jedem einzelnen Wort dieses Satzes im Internet gesucht und so weiter. Aber eines kann Google nicht: verstehen, was dieser Satz aussagt. Daher kann Google Ihre Website nicht selbst bewerten sondern herauszufinden versuchen, welches Gewicht die Internet Community Ihrer Website beimisst. Dazu bedient sich Google eines einfachen Tricks:
Wer Ihre Website für gut und wichtig hält, wird sie oft auf seiner eigenen Seite verlinken. Damit fließt ein Teil des PageRanks dieser Website auf Ihre Seite über, das ist der so genannte „Link-Juice“. Je mehr Rückverweise („Backlinks“) auf Ihre Seite sich im Netz finden und je höher der PageRank der verweisenden Seiten ist, desto besser wir sich der Page Rank Ihrer Seite entwickeln.
Wie im richtigen Leben. Je mehr Empfehlungsschreiben Sie Ihrer Bewerbung beilegen können und je besser der Ruf, den die Verfasser dieser Schreiben genießen, desto besser für Sie! Und noch etwas ist wie da Draußen: Wenn jemand begeisterte Empfehlungsschreiben in übermäßig großer Anzahl verfasst, nimmt diese irgendwann niemand mehr ernst. Die Gesamtmenge des Link-Juice, die eine Website im Netz verteilen kann, ist also beschränkt.
Das bisherige Vorgehen
Um den Betreibern von Websites die Möglichkeit zu geben, den von Ihrer Website ausgehenden Strom von Link Juice zu kontrollieren, hat Google einen Absperrhahn erfunden, das ist der so genannte NoFollow Link. Über einen als „nofollow“ gekennzeichneten Link fließt kein Link-Juice. Gedacht war das eigentlich für ungeprüfte Links wie beispielsweise Werbelinks.
Das Ganze funktioniert auch seitenintern. Von der Startseite einer Website aus, verteilt sich deren Gewicht auf die verlinkten Unterseiten. Wäre doch Schade, wenn Google dem Impressum und den AGB Ihres Webshops größte Wertschätzung entgegenbringt, aber den Rest für unwichtig hält, oder? Daher können Sie beispielsweise diese beiden Links mit dem Notfollow-Attribut versehen.
Google hat gelernt
Dieses Verfahren ließ sich Ausnutzen. Beispielsweise war es möglich, neben der eigenen „eigentlichen“ Website noch weitere Sites zu betreiben, in denen diese Website verlinkt wurde und alle übrigen Links als nofollow gekennzeichnet waren. Deshalb hat Google seine Strategie geändert: Ein Nofollow Link vererbt zwar nach wie vor kein PageRank, schluckt ihn aber.
Ein einfaches Beispiel: Wenn eine Website zwei Links enthält, von denen einer ein Nofollow Link ist, floss bisher der Link-Juice zu 100 Prozent über den zweiten Link. Neu ist nun, dass nur noch 50 Prozent über diesen Link fließen, die andere Hälfte wird vernichtet. Das wird bisweilen als unerfreulich empfunden, aber zeitasymptotisch drohte der Kollaps des Bewertungssystems. Wenn die Möglichkeit besteht, beispielsweise durch Pseudo-Websites künstliche Page Rank zu erzeugen, muss auch ein Mechanismus zur Vernichtung von PageRank existieren, um die PageRank-Inflation einzudämmen.
The early years
Im Jahr 2005 führte Google das Attribut “rel=nofollow” für den <a>-Tag in HTML ein. Gedacht war es als Anti-Spam-Maßnahme in der Blogsphäre. Links in Kommentaren zu Blog-Postings werden seitdem in 95% der Fälle “nofollow” gesetzt (allerdings vor allem zur Spam-Vermeidung). Damit existieren die Links für Google und andere große Suchmaschinen nicht. Sowohl HTML 4.01 und XHTML 1.0 erlauben die Erweiterung des “rel”-Attributs um eigene Werte.
Zweckentfremdet
Für findige Suchmaschinen-Optimierer war das neu eingeführte Attribut ein eleganter Weg, den so genannten Linkjuice (Linkpopularität) und den PageRank der Website zu konzentrieren beziehungsweise zu erhöhen:
Statt mittels des META-Tags “robots” ALLE Verweise einer Website als “follow”/”nofollow” zu klassifizieren, bietet das Attribut “rel=nofollow” eine differenzierte Methode an, um einzelne Links für Google auszuschließen. Bevorzugt wurden seit dem Aufkommen des “PageRank Sculptings” – also dem “Formen” der einer Website innewohnenden Linkpopularität – zum Beispiel Menü-Verweise auf “Impressum”, “Kontakt”, “Nutzungsbedingungen” als “nofollow” gekennzeichnet. So gingen diese nicht in das Page-Ranking ein, wodurch nur die vom Content her (ge)wichtigen Bereiche einer Website in das Google-Ranking mit einfließen sollten.
Up to date
Google hat seit der Einführung des PageRank 2000 einige Verbesserungen an dem Algorithmus erzielt. Link-Auswertungen sind heute wesentlich komplexer geworden und es wurde bereits gerüchteweise verbreitet, Google hätte vor etwa einem Jahr seinen PageRank-Algorithmus in Bezug auf “nofollow” – Verweise geändert. Diese Änderung betrifft derzeit circa 3% der indexierten Verweise im Internet und damit etwa 9 Milliarden Links.
Zum besseren Verständnis habe ich die Auswirkungen der Veränderung im Algorithmus grafisch aufbereitet :
Für den Einsatz des nofollow-Attributs bedeutet dies folgendes. Konzentrierte sich früher der “Linkjuice” durch Einsatz dieses Attributs auf wichtige Links, so versickert heute quasi ein Teil des Linkjuice in den nofollow-Links. Google nimmt als Basis nämlich die Gesamtzahl der Verweise auf der Seite, nicht mehr nur die follow-Links. Matt Cutts hat dies noch einmal klar und deutlich in seinem Blog am 17. Juni dieses Jahres mitgeteilt:
Does this mean “PageRank sculpting” (trying to change how PageRank flows within your site using e.g. nofollow) is a bad idea?
A: I wouldn’t recommend it, because it isn’t the most effective way to utilize your PageRank. In general, I would let PageRank flow freely within your site. The notion of “PageRank sculpting” has always been a second- or third-order recommendation for us. I would recommend the first-order things to pay attention to are 1) making great content that will attract links in the first place, and 2) choosing a site architecture that makes your site usable/crawlable for humans and search engines alike.
Sein Fazit also : Nofollow – Attribute für PageRank-Sculpting sind zu vermeiden beziehungsweise nur ein Mittel für extrem hoch geratete, große Sites.
Sie führen zu einem schlechteren PageRank , da sie zwar PageRank “konsumieren”, aber nicht “fließen” lassen.
Konsequenzen aus Googles Umdenken
Die Konsequenzen aus Googles Änderungen vor einem Jahr werden kontrovers disktuiert. Vielfach wird die Vermutung geäußert, dass SEOs zu den “klassischen” Methoden der Pre-nofollow-Ära zurückgreifen, um den PageRank zu formen. Unliebsame Links werden mit Javascript oder Flash “maskiert” und so vor Google versteckt.
Allerdings verkündete Vanessa Fox bereits in Ihrem Blog, dass der GoogleBot gängige Maskierungsmethoden bereits entlarven und die darin enthaltenen Verweise mitaufnehmen kann, um so ein objektives Bild der Website zu bekommen. Eine Ausnahme bilden Linkmaskierungen durch externe Skripte – diese werden bisher nicht erkannt. Eine weitere Alternative wäre es, die Kommentare zu Blogeinträgen zu moderieren. Allerdings ist dies bei größeren Blogs/Communities kostenintensiv beziehungsweise nicht zu bewerkstelligen.
Meiner Meinung nach ist es wahrscheinlich, daß Blogs weiterhin auf das nofollow-Attribut in ihren Comments setzen, während es für OnPage-Optimierung der Linkstruktur nahezu bedeutungslos werden wird. (fm)
Artikel im Netz zum Thema
- Googles Offizieller Matt Cutts: PageRank sculpting
- Link Consolidation: The New PageRank Sculpting
- The 10 Commandments of PageRank Sculpting
Was genau ist mit „Linkjuice“ gemeint?
Der Begriff Linkjuice stammt ursprünglich von Greg Boser. Dabei handelt es sich um einen der Urväter des Suchmaschinen-Marketings.
Der Begriff Linkjuice setzt sich zusammen aus Link (Verknüpfung) und Juice (Saft) und steht für Eigenschaften wie „PageRank“ und „Anchor Text“ (der Text eines Links), die mittels eines Links von einer Webseite zu einer anderen übertragen werden.
Linkjuice ist in etwa mit den Pferdestärken eines Autos vergleichbar. Die deutschen Begrifflichkeiten „Verknüpfungskraft“ und „Linksaft“ haben sich nicht durchgesetzt. Vereinfacht ausgedrückt beschreibt der Linkjuice, wie viel „SEO-Power“ von einem Link weitergegeben wird.
Was sind NoFollow Links?
Ist ein Link mit dem Attribut „NoFollow“ versehen, heißt das übersetzt für Google: „Diesem Link bitte nicht folgen.“ DoFollow-Links müssen hingegen nicht eigens mit einem Attribut versehen werden, sondern sind per se die Standard-Einstellung beim Setzen eines Links.
Klassische Anwendungsbeispiele für das Setzen eines NoFollow-Links sind beispielsweise das Impressum, die Allgemeinen Geschäftsbedingungen oder die Angabe von externen Bildquellen. Im Rahmen einer ausgeklügelten SEO-Strategie können aber auch andere Inhalte damit gezielt von der Indexierung durch Google ausgeschlossen werden.
Wann kommt der Linkjuice zur Geltung?
Zur Anwendung kommt der Linkjuice grundsätzlich nur bei externen Links und nicht bei den Verlinkungen innerhalb der eigenen Webseite. Ferner kommt der Linkjuice nur zum Tragen, wenn der Link ein „DoFollow“-Link ist, welcher einer Suchmaschine signalisiert, dass sie die verlinkte Website besuchen soll.
Der Linkjuice funktioniert vereinfacht ausgedrückt so: Führen viele hochwertige Links auf die eigene Webseite, erhöht sich der Linkjuice dieser Seite.
Je mehr Links in einem Beitrag auf einer Webseite gesetzt werden, desto weniger Linkjuice hat jeder einzelne davon. Wird nur ein Link auf der Seite gesetzt, so hat dieser 100 Prozent Linkjuice. Sind hingegen fünf Links vorhanden, so hat jeder Link nur noch 20 Prozent Linkjuice.
Wodurch kann man den Linkjuice erhöhen?
Qualitativ hochwertigen Linkjuice erhält man durch folgenden Faktoren:
- Die Inhalte der beiden Seiten „passen“ zueinander.
- Die Seite, auf der der Link gesetzt wird, verfügt über einen hohen PageRank.
- Die Seite, auf der der Link gesetzt wird, rankt mit dem entsprechenden Keyword sehr gut in den Suchergebnissen.
- Es existieren nur wenige DoFollow-Links im Beitrag (je nach Länge des Beitrages drei bis fünf).
Größere Webseiten haben einen höheren Linkjuice und können deshalb auch mehr Power vermitteln. Deshalb können hier auch mehr Links gesetzt werden als bei kleineren Webseiten.
Um den eigenen Linkjuice zu verbessern, sollten Webseiten-Betreiber darauf achten, nur thematisch relevante Beiträge zu verlinken. Geht es in einem Artikel beispielsweise um die Erklärung von Fachbegriffen zum Thema SEO, sollten auch die Verlinkungen inhaltlich passen.
Das Keyword des Ankertexts sollte im Idealfall auch das Keyword des Beitrags sein, auf den im Text verwiesen wird.
Eine wichtige Rolle bei der Verlinkung spielt auch der jeweilige Ankertext. Das Keyword des Ankertexts sollte im Idealfall auch das Keyword des Beitrags sein, auf den im Text verwiesen wird. Das heißt aber nicht, dass das Keyword tatsächlich nur aus einem einzigen Wort bestehen muss. Sogenannte „Longtail-Keywords“ bestehen aus einer Wortgruppe, nach der in den Suchmaschinen in dieser Kombination oft gesucht wird. Ein entsprechender Ankertext für die Verlinkung zu einem Artikel zum Thema Linkjuice könnte aus diesem Grund auch „Was ist Linkjuice“ oder „Linkjuice messen“ lauten.
Ranking Faktoren: Was wichtig ist
Was braucht eine Seite, und was ist besser zu meiden? Häufig gestellte Fragen, deren Antworten sich im Laufe der Zeit zumindest teilweise verändern.
Ein Ranking entsteht nicht absolut, sondern auch im Vergleich zu anderen Seiten. Diese gilt es auszustechen. Dabei spielen viele Faktoren eine Rolle. Nicht alles lässt sich ohne weiteres berücksichtigen, denn eine Suchmaschine zieht zahlreiche Faktoren heran, um die Autorität und die Wichtigkeit eines Dokuments zu bestimmen. Die hier vorgestellten, wichtigsten und am häufigsten genannten Kriterien beziehen sich nicht auf eine bestimmte Suchmaschine.
Der Seitentitel
Ein Klassiker. Der Seitentitel <title></title> zählte schon immer zu den bedeutendsten Faktoren das Ranking betreffend. Dies gilt noch immer. Mehr darüber im Dr. Web Artikel „Der optimale Seitentitel“.
Keywords im Text
Eine Selbstverständlichkeit, die Suchbegriffe des Surfers müssen im Seitentext auftauchen. Splash-Pages, Flash-Seiten oder Layouts komplett aus Grafiken haben deshalb weniger gute Chancen.
Text in ALT- und TITLE-Attributen
Wird berücksichtigt, wenn auch er geringere Bedeutung als der eigentliche Body-Text hat.
Originalcontent
Was öfter in gleicher Form zu finden ist erhält Abzüge oder wird komplett aus dem Index entfernt. Ein Nachteil für syndizierte Inhalte. Mehrere Websites mit identischem Inhalt oder verschiedenen Domainnamen bringen keine Vorteile.
Das Alter
Je länger eine Seite bereits existiert, desto mehr Gewicht kann ihr beigemessen werden. Insbesondere dann, wenn sich über die Zeit allerlei externe Verweise angesammelt haben. Es lohnt sich deshalb eine einmal vergebene URL weiter zu verwenden, oder sie gar mit neuen, ähnlichen Inhalten zu recyclen, anstatt sie zu löschen.
Inhaltliche Änderungen
Gleiches gilt für regelmäßige Änderungen, die im Übrigen auch für erhöhte Spideraktivitäten sorgen. Auf „wichtigen“ Seiten passiert auch mehr, so der Umkehrschluss.
Interne Verlinkung
Eine dichte Vernetzung innerhalb der eigenen Website ist anzustreben. Eine Sitemap und ein Index können dabei helfen – ebenso wie eine Verschlagwortung (Tags) mit entsprechender Auflistung.
Meta Description
Ihre Bedeutung für das Ranking besteht dieser Tage fast nur noch darin eine eventuelle Seitenbeschreibung zu liefern, weswegen man nicht darauf verzichten sollte. Die Bedeutung für das Ranking ist nur noch marginal.
Meta Keywords
Sind ebenfalls marginal. Ellenlange Listen lohnen sich schon gleich gar nicht. Nützlich sind Meta Keywords aber noch immer zum Beispiel um passende Tippfehler, Buchstabendreher und ähnliche Begriffe gleich mitzuliefern.
Überschriften
Die Verwendung der Elemente H1 bis H6 ist nach wie vor angeraten. Auch semantische Korrektheit, sowie die Einhaltung von Standards können helfen, wenn es darum geht Ihr Dokument vor einem anderen zu platzieren.
Seitenlänge
Auch wenn Suchmaschinen riesige Dokumente erfassen können, es lohnt nicht das auszureizen. Die Relevanz einzelner Begriffe leidet, wenn diese erst am Ende eines langen Dokuments zu finden sind.
Anker
Auch die seiteninterne Verlinkung mit Hilfe von Ankern findet wohlwollende Berücksichtigung.
Textauszeichnungen
Etwas Fett- oder Kursivschrift schadet sicher nicht. Ihre Wirkung ist umstritten und eher gering einzuschätzen.
Domainname
Kommt das Keyword im Domainnamen vor, ist mit einem Pluspunkt zu rechnen. Zu viele Bindestriche sollte ein Domainname nicht ausfallen. Zwei müssen genügen. TLDs zeigen ebenfalls Wirkung, auch wenn diese nur darin besteht .edu und .gov zu fördern, die im deutsprachigen Raum keine Bedeutung haben.
URL
Auch sie findet Berücksichtigung. Vorbei aber sind die Zeiten in denen man eine Suchmaschine wie Fireball mit nichts anderem als einer perfekten URL komplett austricksen konnte. So genannte „Sprechende URLs“ mit inhaltsbezogenen Keywords bieten Vorteile. Also statt:
http://www.domain.de/seiten/artikel254.php
besser
http://www.domain.de/suchmaschinen-ranking.php
Zudem können überlange URLs einen Spam-Verdacht nach sich ziehen.
Tiefe in der Dateistruktur
Je tiefer ein Dokument in einer Dateistruktur vergraben liegt, desto unwichtiger erscheint es.
Größe der Website
Ein Faktor auf den nur langfristig Einfluss zu nehmen ist. Schwergewichte erhalten Vorteile zugesprochen. 10.000 Seiten beeindrucken mehr als nur 100.
Ranking Faktoren: Starke Links
Es ist kein Geheimnis, jeder Link zählt. Je mehr davon auf die eigenen Seiten verweisen, desto besser. Oder vielleicht doch nicht? Durch die schiere Masse lassen sich Suchmaschinen jedenfalls nicht beeindrucken.
Wie, wo und auf welche Weise jemand einen Link auf ein bestimmtes Projekt oder eine bestimmte Seite setzt, Einfluss hat man darauf in der Regel nicht. Es sei denn man vereinbart einen Tausch. Oder man verlinkt selbst.
Linktext
Das A und O. Ein guter Link braucht einen passenden, beschreibenden Text, der auch geeignete Keywords enthält. Ein Link wie „siehe“, „weiterlesen“, „hier“ oder gar „Link“ darf als vergleichsweise schwach gelten. Wer beispielsweise auf diesen Artikel verlinken wollte, tut dies optimal mit einer Beschreibung wie „Dr. Web PLUS über Links und Ranking Faktoren“. Besser kann man es nicht machen. Je stärker die Beziehung zur verlinkten Seite ist, desto größer ist der Effekt.
Zu diesem Thema gibt es bereits einen eigenen Artikel, der viele Beispiel liefert: Der präzise Link
Die Umgebung des Linktextes
Suchmaschinen lassen in ihre Bewertung auch die Umgebung einfließen. Welche Keywords in einem definierten Bereich vor und hinter dem Link erscheinen trägt zur Bewertung bei.
Links im Fließtext versus Linkblock
Der Link im Fließtext wird höher bewertet. Ein Link, direkt aus einem Text heraus, zählt also mehr als ein Link, der am Seitenende darben muss. Dies gilt nicht nur bei überlangen Seiten.
Das thematische Umfeld
Auch das Umfeld muss passen, wenn eine optimale Ausbeute erzielt werden soll. Dr. Web zum Beispiel gilt Google als Top-Referenz zum Thema Photoshop. Ein Link von uns auf eine Photoshop-Website hätte entsprechendes Gewicht. Käme der Link, sagen wir von einem befreundeten Hotelier, sähe die Sache komplett anders aus. Ein Linktausch mit befreundeten Webmastern bringt nur dann etwas, wenn man sich in ähnlichen Gefilden bewegt.
Das Ranking des Linkenden
Je besser der Verlinkende angesehen ist, desto mehr zählt seine Meinung. Ein klarer Fall. Ein Link von einer PR 7 Seite ist mehr Wert als der gleiche Link von einem PR 2 Projekt. Das thematische Umfeld oder die Linkbetextung relativieren dies.
TITLE-Attribute
Sie können einen Link verstärken. Dies gilt vorallem dann, wenn der Linktext schwach oder unzureichend gewählt wurde. Attribute sollten aber nicht überbewertet werden.
Textauszeichnungen
Überschriften oder Fettschrift sind für Links nicht unbedingt üblich. Sie können eine positive Wirkung entfalten, die aber umstritten ist.
Herkunft
Das Verlinken eigener Projekte, die auf dem selben Server liegen oder aus demselben IP-Adressbereich stammen, ist naheliegenderweise weniger wirksam. Wer sich auf diese Weise selbst befördern möchte, braucht verschiedene Provider, Server und Webspaces. Google, so heißt es nach Gerüchten, könnte AdSense zur Bestimmung von Beziehungen verwenden, denn dort reicht eine Anmeldung für eine Vielzahl von Projekten.
Links mit dem Attribut rel=nofollow werden nicht oder sollten nicht gewertet werden. Der Einsatz ist immer dann sinnvoll, wenn man selbst keine oder nur unzureichende Kontrolle über gesetzte Links hat. Etwa bei Kommentaren in Weblogs, Mitmach-Aktionen oder Gästebüchern.
Warum Aktualität für das Ranking wichtig ist
Ein Faktor, der bei der Website-Optimierung oft übersehen wird, ist die Aktualität der Einzelseiten. Denn Suchmaschinen bevorzugen grundsätzlich aktuelle Dokumente – wer also seine Website vor allem aus statischen, sich nie verändernden Dokumenten aufbaut, hat auf lange Sicht das Nachsehen.
Dass das Web sich stetig verändert, ist eine Binsenweisheit. Interessant ist jedoch, in welcher Geschwindigkeit dies geschieht: Nach einer Untersuchung aus dem Jahr 2004 werden im Verlauf eines Jahres etwa 20 Prozent der heute bestehenden Dokumente nicht mehr vorhanden sein; die Hälfte aller Dokumente wird in irgendeiner Form verändert sein, und es wird eine große Zahl neuer Dokumente entstanden sein. Noch schneller als die Dokumente selbst verändert sich aber die Linkstruktur des Web: Hier werden innerhalb eines Jahres 80 Prozent aller Links neu oder verändert sein.
Wie sollen nun Suchmaschinen mit dieser hohen Veränderungsrate umgehen? Und welchen Dokumenten sollen sie den Vorzug geben? Betrachtet man das tatsächliche Verhalten der Suchmaschinen, scheint die Sache schon entschieden zu sein: Bei Google ist in den Top 20 der Trefferlisten etwa jedes zweite Dokumente jünger als sechs Monate, bei Yahoo liegt die Quote bei etwa 40 Prozent. Daraus lässt sich also schon schließen, dass es sich lohnt, seine Seiten aktuell zu halten. Tut man dies nicht, werden die entsprechenden Seiten im Lauf der Zeit im Ranking immer weiter heruntergestuft. In hohem Maße betroffen sind Websites kleinerer Unternehmen, die einmal erstellt wurden, dann aber nicht weiter gepflegt worden sind.
Leider ist die Feststellung des tatsächlichen Erstellungs- beziehungsweise Aktualisierungsdatums von Dokumenten für Suchmaschinen schwierig. Es gibt einfach keine zuverlässige Datumsangabe, die verwendet werden kann. Das Serverdatum ist ungeeignet, weil ein Dokumente dort als aktualisiert gilt, auch wenn es nur neu auf den Server überspielt wurde und sein Inhalt sich gar nicht geändert hat. Außerdem geben Content-Management-Systeme den Dokumenten gerne immer das aktuelle Datum mit, so dass diese Angabe nicht ausgewertet werden kann.
Weitere mögliche Informationsquellen wie Metatags oder Datumsangaben im Inhalt der Dokumente selbst sind mindestens ebenso unzuverlässig. Also müssen die Suchmaschinen auf andere Methoden zurückgreifen, und zwar in der Regel auf die Bestimmung von Veränderungsindikatoren anstatt exakter Datumsangaben.
Beispielhaft sind Veränderungsindikatoren in einer Patentanmeldung von Google beschrieben (US-Patenanmeldung Nummer 20050071741). Es geht dabei um unterschiedliche Aktualitätsfaktoren, die im Ranking berücksichtigt werden können.
Auf der einen Seite sind dies Faktoren, die mit dem Dokument selbst zu tun haben: Wann wurde es zum ersten Mal von der Suchmaschinen entdeckt, wann wurde es verändert? Dazu kommen aber auch viele Faktoren, auf die man vielleicht nicht direkt kommen würde, beispielsweise Veränderungen in der Verlinkung: An dieser lässt sich auch ablesen, ob ein Dokument noch aktuell (oder besser: noch gefragt) ist. Werden die auf das Dokument verweisenden Links immer weniger, so ist wohl davon auszugehen, dass das Dokument nicht mehr als wichtig erachtet wird.
Auch eine Analyse des Nutzerverhaltens während eines gewissen Zeitraums (in Relation zu einem anderen Zeitraum) kann Aufschluss über die temporäre Bedeutung eines Dokuments liefern. Weitere Zeit-Faktoren dienen vor allem der Zuverlässigkeit der Ergebnisse: So werden Sprünge im Ranking gemessen (steigt ein Dokument sehr schnell auf, macht es sich der Manipulation verdächtig) und die Ankertexte verweisender Dokumente ausgewertet (ändert sich das dominierende Thema der Ankertexte, dann hat sich wohl das Thema des Dokuments geändert).
In der Patentanmeldung werden noch einige weitere Faktoren genannt; klar ist, dass allen Aktualitätsfaktoren eine gewisse Bedeutung beigemessen wird und man diese als Website-Betreiber (soweit dies möglich ist) beachten sollte. Dies betrifft übrigens nicht nur Google, sondern auch andere Suchmaschinen berücksichtigen Aktualität in der ein oder anderen Weise.
Wie sollte man nun seine Website aktuell halten?
Auf zwei Ebenen: Einerseits sollten die Dokumente selbst aktualisiert werden und andererseits sollte eine gewisse Dynamik der ganzen Website gezeigt werden. Auf der Dokument-Ebene kann es schon helfen, automatisch das tagesaktuelle Datum hinzuzufügen. Die Suchmaschinen erkennen oft schon diese kleine Veränderung irrtümlich als Aktualisierung des Inhalts an. Besser ist es natürlich, seine Dokumente ab und an tatsächlich zu überarbeiten – es sollen ja nicht nur die Suchmaschinen zufrieden gestellt werden, sondern in erster Linie die Besucher der Seiten.
Auf der Site-Ebene sollten neue Dokumente regelmäßig hinzugefügt werden. Auch wenn alle Einzelseiten scheinbar kontinuierlich Veränderungen erfahren – wie etwa durch ein automatisch gesetztes Datum – wird es von den Suchmaschinen als unnatürlich angesehen, wenn keine neuen Dokumente hinzukommen. Also: Fleißig gute Inhalte produzieren hilft letztlich auch beim Ranking.
Außerdem besuchen die Crawler der Suchmaschinen Websites, auf denen sich häufig Aktualisierungen finden, häufiger als selten oder gar nicht aktualisierte Seiten. Wenn man seine Website also nur alle drei Monate aktualisiert, darf man auch nicht damit rechnen, dass die Suchmaschinen direkt nach der Aktualisierung vorbeikommen und die neuen Inhalte erfassen. Häufig aktualisierte Seiten werden dagegen oft besucht und die neuen Inhalte gelangen schnell in die Suchmaschinen-Datenbanken – und können entsprechend schneller auch von den Nutzern gefunden werden.
4 Antworten
Auch jetzt ist SEO für viele noch ein exotisches Thema mit dem sehr viele zu kämpfen haben. Non-digital-natives können sich oft gar nicht vorstellen was hinter einem Webauftritt steht. Es ist leider nicht damit getan, einfach eine “schöne” Webseite online zu stellen..
Sehr relevante Thematik und ein wirklich guter Artikel hierzu!
Da man um das Thema SEO in der heutigen Zeit einfach nicht mehr drum herum kommt finde ich es durchaus sinnvoll sich als Person oder Unternehmen, welche durch eine Website auf Google vertreten ist, damit einmal eingehend auseinanderzusetzen. Nicht zuletzt auch deshalb, da es so viele verschiedene Einflussfaktoren gibt, welche zu einem guten Google Ranking beitragen können. Dieser Artikel bietet in meinen Augen eine tolle Übersicht, indem er auf wichtige Schlüsselbegriffe, wie “PageRank” oder “Linkjuice” eingeht, und kann definitiv helfen dem ganzen einen guten Schritt näherzukommen.
Besten Dank für den Post Markus, die Korrelation zwischen externe Verlinkungen und interne Linkstruktur ist spannend, hierzu gerne mehr. Schöne Grüße und wieter so.
Es kommt bei der Linkjuice Vererbung auch drauf an, wo genau der Link im Artikel platziert wird und dadurch kann man nicht pauschal sagen, dass bei 5 internen Verlinkungen jeder Link nur 20% Linkjuice erhält.
Ansonsten ein sehr informativer Artikel. Danke dafür.