Dr. Web Logo. Untertext: Seit 1997.
  • Beste Agenturen
  • Agentur-Standorte von A bis Z 🌇
  • Magazin
  • Newsletter 📩
  • Login
  • Agentur bewerben ✅
  • Kontakt
  • Werben 🎉
  • Sponsored Post
  • Jobs
Menü
  • Beste Agenturen
  • Agentur-Standorte von A bis Z 🌇
  • Magazin
  • Newsletter 📩
  • Login
  • Agentur bewerben ✅
  • Kontakt
  • Werben 🎉
  • Sponsored Post
  • Jobs
  • Werben
  • Gastbeitrag
  • Sponsored Post
  • Kontakt
  • Login
  • Newsletter
Suche
  • Beste Agenturen
  • Agentur-Standorte
      Beste Agenturen Augsburg Altstadt von oben.

      Augsburg

      Blick auf die Mittlere Brücke in Basel bei Sonnenaufgang.

      Basel

      Berlin bei Nacht, Blick von oben Richtung Fernsehturm.

      Berlin

      Das Ruhrstadion in Bochum von oben, bei Sonnenuntergang.

      Bochum

      Bonn von oben, mit Blick auf den Rhein.

      Bonn

      Dortmund von oben Panoramafoto.

      Dortmund

      Blick auf die Elbufer-Promenade Dresdens sowie Frauenkirche und Zwinger.

      Dresden

      Duisburg Innenhafen bei Sonnenuntergang.

      Duisburg

      Düsseldorf von oben mit Blick auf den Fernsehturm.

      Düsseldorf

      Die Skyline von Essen von oben.

      Essen

      Blick von oben auf das Bankenviertel in Frankfurt am Main.

      Frankfurt am Main

      Freiburg Innenstadt vom Münster aus fotografiert mit Blick Richtung Schlossberg und Sonnenuntergang..

      Freiburg im Breisgau

      Hamburg bei Nacht, Blick auf die Speicherstadt.

      Hamburg

      Blick auf das Neue Rathaus, Hannover.

      Hannover

      Agenturen in Innsbruck von oben mit Blick auf die Alpen.

      Innsbruck

      Karlsruhe von oben

      Karlsruhe

      Sonnenuntergang in Köln mit Blick auf den Dom. Im Vordergrund die Hohenzollernbrücke.

      Köln

      Leipzig Innenstadt bei Sonnenuntergang und von oben.

      Leipzig

      München bei Fön mit Blick in die bayerischen Alpen.

      München

      Nürnberg Altstadt Stadtmauer von oben

      Nürnberg

      Blick auf das Flussufer der Innenstadt von Regensburg bei Nacht.

      Regensburg

      Agenturen Salzburg: Blick auf die Altstadt und die Hohensalzburg.

      Salzburg

      Stuttgart von oben.

      Stuttgart

      Wien von oben. Blick auf den Stephansdom.

      Wien

      Zürich von oben.

      Zürich

  • Magazin
    • Content Marketing
    • CSS
    • E-Commerce
    • E-Mail-Marketing
    • Freelancer
    • Fotografie
    • HTML
    • Online-Marketing
    • Responsive Design
    • SEO
    • UX Design
    • Webdesign
    • Website erstellen
    • WordPress
    • Dr. Web Autoren
  • Jobs
Menü
  • Magazin
    • Content Marketing
    • CSS
    • E-Commerce
    • E-Mail-Marketing
    • Freelancer
    • Fotografie
    • HTML
    • Online-Marketing
    • Responsive Design
    • SEO
    • UX Design
    • Webdesign
    • Website erstellen
    • WordPress
    • Dr. Web Autoren
  • Jobs
Agentur eintragen →
Dr. Web Logo. Untertext: Seit 1997.
  • Beste Agenturen
  • Agentur-Standorte
      Beste Agenturen Augsburg Altstadt von oben.

      Augsburg

      Blick auf die Mittlere Brücke in Basel bei Sonnenaufgang.

      Basel

      Berlin bei Nacht, Blick von oben Richtung Fernsehturm.

      Berlin

      Das Ruhrstadion in Bochum von oben, bei Sonnenuntergang.

      Bochum

      Bonn von oben, mit Blick auf den Rhein.

      Bonn

      Dortmund von oben Panoramafoto.

      Dortmund

      Blick auf die Elbufer-Promenade Dresdens sowie Frauenkirche und Zwinger.

      Dresden

      Duisburg Innenhafen bei Sonnenuntergang.

      Duisburg

      Düsseldorf von oben mit Blick auf den Fernsehturm.

      Düsseldorf

      Die Skyline von Essen von oben.

      Essen

      Blick von oben auf das Bankenviertel in Frankfurt am Main.

      Frankfurt am Main

      Freiburg Innenstadt vom Münster aus fotografiert mit Blick Richtung Schlossberg und Sonnenuntergang..

      Freiburg im Breisgau

      Hamburg bei Nacht, Blick auf die Speicherstadt.

      Hamburg

      Blick auf das Neue Rathaus, Hannover.

      Hannover

      Agenturen in Innsbruck von oben mit Blick auf die Alpen.

      Innsbruck

      Karlsruhe von oben

      Karlsruhe

      Sonnenuntergang in Köln mit Blick auf den Dom. Im Vordergrund die Hohenzollernbrücke.

      Köln

      Leipzig Innenstadt bei Sonnenuntergang und von oben.

      Leipzig

      München bei Fön mit Blick in die bayerischen Alpen.

      München

      Nürnberg Altstadt Stadtmauer von oben

      Nürnberg

      Blick auf das Flussufer der Innenstadt von Regensburg bei Nacht.

      Regensburg

      Agenturen Salzburg: Blick auf die Altstadt und die Hohensalzburg.

      Salzburg

      Stuttgart von oben.

      Stuttgart

      Wien von oben. Blick auf den Stephansdom.

      Wien

      Zürich von oben.

      Zürich

Agentur eintragen →
Dr. Web » SEO » Wie Suchmaschinen funktionieren: Das sind die 5 wichtigsten Rankingfaktoren

Wie Suchmaschinen funktionieren: Das sind die 5 wichtigsten Rankingfaktoren

Suchmaschinen werten für das Ranking den Inhalt der indexierten Dokumente aus und gleichen diese mit der Anfrage ab. Eine ganze Reihe dieser anfrage-abhängigen Faktoren ist für ein gutes Ranking der eigenen Seiten verantwortlich. Ob Google, Yahoo, MSN oder...

Sozial sein
Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
  • Keine Kommentare
Lesedauer: 20 Minuten
  • von Dr. Web Redaktion
  • 15. Dezember 2015
Bookmarke mich
Share on pocket

AdsMasters GmbH

TYPO3 & Shopware Agentur - 3m5.

Webtronix Media GmbH

Orange Services

Khoa Nguyen - Online Marketing Beratung & SEA / Social Ads / SEO Freelancer

Werbeagentur Hannover | 360 Grad Konzept

Suchmaschinen werten für das Ranking den Inhalt der indexierten Dokumente aus und gleichen diese mit der Anfrage ab. Eine ganze Reihe dieser anfrage-abhängigen Faktoren ist für ein gutes Ranking der eigenen Seiten verantwortlich.

Ob Google, Yahoo, MSN oder eine der vielen weiteren Suchmaschinen: Der Kern dieser Systeme ist das Ranking, also die Anordnung der gefundenen Ergebnisse nach ihrer Bedeutung für die Suchanfrage.

Anfrageabhängige Rankingfaktoren in Suchmaschinen

Natürlich hat jede Suchmaschine ihr eigenes „Rezept“, und daher unterscheiden sich die Ergebnisse der Maschinen meist stark voneinander. Es lohnt sich also auf jeden Fall, auch mal eine andere Suchmaschine auszuprobieren, wenn man in seiner Lieblingssuchmaschine nicht das Richtige gefunden hat. Aber bei allen Unterschieden gibt es doch wesentliche Gemeinsamkeiten: Die Suchmaschinen stützen sich weitgehend auf die gleichen Rankingfaktoren, nur geben sie diesen ein unterschiedliches Gewicht. Sie unterscheiden sich also nicht so sehr in den Kriterien, die sie an die gefundenen Seiten anlegen, sondern vielmehr in dem, was sie als wichtig erachten.

Grundsätzlich ist zu unterscheiden zwischen anfrageabhängigen und anfrageunabhängigen Rankingfaktoren. Klingt verwirrend, bezeichnet aber einen bedeutenden Unterschied: Die anfrageabhängigen Faktoren beziehen sich auf den Text selbst – hier wird beispielsweise ausgewertet, wie häufig ein Suchwort im Text vorkommt. Die anfrageunabhängigen Faktoren haben mit der im Moment von einem Nutzer eingegebenen Suchanfrage nichts zu tun – sie stellen allgemeine Qualitätsmerkmale dar. So wird beispielsweise angenommen, dass eine populäre Seite besser ist als eine unpopuläre, auch wenn beide aufgrund ihres Textinhalts gleich gut zu einer Suchanfrage passen würden.

In diesem ersten Teil der Serie über Rankingfaktoren soll es aber erst einmal um die „Klassiker“, also die anfrageabhängigen Faktoren gehen. Hier brauchten die Suchmaschinenentwickler nicht viel mehr tun, als sich bei den traditionellen Datenbanken umzusehen: Die Verfahren, wie man Textdokumente nach ihrer Relevanz ordnet, stammen zu einem großen Teil schon aus den 70er Jahren.

Zunächst einmal wird gezählt, wie häufig der Suchbegriff im Dokument vorkommt. Einleuchtend: Je häufiger, desto wichtiger das Dokument. Aber halt: In einem langen Dokument kann der Begriff natürlich häufiger vorkommen, ohne dass dieses dadurch relevanter wäre als ein kurzes Dokument, in dem der Begriff gar nicht so häufig vorkommen kann. Deshalb wird mit der dokumentspezifischen Wortgewichtung gearbeitet. Das bedeutet, dass statt der absoluten die relative Häufigkeit des Begriffs gemessen wird, also auch die Dokumentlänge berücksichtigt wird. Somit erhalten alle Dokumente die gleiche Chance, weit oben in der Trefferliste aufzutauchen.

Aber damit nicht genug: Aus unserem Umgang mit Dokumenten aller Art wissen wir, dass ein Begriff innerhalb eines Dokuments unterschiedlich wichtig sein kann. Überfliegen wir eine Zeitungsseite, so werden uns vor allem die Wörter in den Überschriften ins Auge fallen. Sie beschreiben den jeweils unter der Überschrift stehenden Inhalt mit wenigen Worten. Daher sind diese Begriffe offensichtlich bezeichnender als ein beliebiges Wort irgendwo im Text. Auch Suchmaschinen sehen das so: Wörter, die in „echten Überschriften“ (also neben dem <title>-Tag in den Überschriften <h1>, <h2>, usw.) stehen oder die im Verhältnis zum restlichen Text größer gesetzt sind, werden als wichtiger angesehen als einfache Textwörter. Aber leider bringt es nichts, potenzielle Suchbegriffe künstlich durch Überschriften oder besonders große Schrift hervorzuheben: Die Suchmaschinen haben Mechanismen entwickelt, um solchen Missbrauch zu entdecken und durch ein schlechteres Ranking zu bestrafen. Dies gilt übrigens für alle hier beschriebenen Faktoren: Bei der Erstellung von Seiten nicht übertreiben!

Aber weiter damit, wie sich durch die Stellung eines Begriffs innerhalb des Dokuments seine Bedeutung für eine Suchanfrage messen lassen kann. Besonders bei längeren Dokumenten leuchtet es ein, dass ein Begriff umso bedeutender ist, je weiter am Anfang er in diesem Dokument vorkommt. Man geht davon aus, dass das Dokument dann eher von diesem Begriff „handelt“, als wenn er nur am Ende oder irgendwo in der Mitte Erwähnung findet.

Alles bisher Beschriebene bezieht sich auf den Abgleich zwischen den Dokumenten und einer Suchanfrage, die nur aus einem Begriff besteht. Wie sieht es aber aus, wenn es sich um eine Suchanfrage mit mehreren Begriffen handelt? Dann wird erst einmal der Abstand der Suchbegriffe innerhalb der Dokumente bewertet. Einleuchtend: Je näher die Begriffe zueinander stehen, desto eher passt das Dokument zur Suchanfrage. Besonders bei der Suche nach Namen in der Form Vorname-Nachname wird das deutlich: Wenn man nach Angela Merkel sucht, dann wird man als Ergebnis Dokumente wollen, die die beiden Begriffe nebeneinander enthalten. Texte, in denen irgendwo eine Angela mit einem anderen Nachnamen und an einer anderen Stelle ein Herr Merkel erwähnt wird, treffen die Suchanfrage wohl nicht.

Auch auf die Reihenfolge der Suchbegriffe kommt es an. Bei den meisten Suchmaschinen ergeben die Anfragen „Angela Merkel“ und „Merkel Angela“ zwar die gleiche Trefferzahl (klar: es sind ja die gleichen Begriffe), aber das Ranking ist unterschiedlich. Die Suchmaschinen bevorzugen die Dokumente, in denen die Suchbegriffe in der vom Nutzer eingegebenen Reihenfolge vorkommen.

Kommen wir damit zum Nutzer selbst. Suchmaschinen bedienen ja Nutzer auf der ganzen Welt. Wenn nun ein deutschsprachiger Nutzer eine Anfrage wie „Silvio Berlusconi“ eingibt, wird er in der Regel mit den vielen zu erwartenden italienischen Ergebnissen wenig anfangen können, weil er die Sprache nicht versteht. Deshalb ist auch die Sprache der Ergebnisse ein Rankingfaktor: Dem Nutzer des deutschsprachigen Suchmaschineninterfaces werden bevorzugt deutschsprachige Ergebnisse angezeigt, dem Italiener bevorzugt italienische. Schwierig wird es bei Sprachen, die in unterschiedlichen Erdteilen gesprochen werden. Sicher wird der Spanier grundsätzlich eher an Dokumenten aus Spanien interessiert sein als an solchen aus Südamerika. Hier hilft die sprachliche Unterscheidung also nicht weiter. Vielmehr muss die Herkunft des Nutzers (zumindest näherungsweise) festgestellt werden, um ihm die am besten passenden Dokumente zu präsentieren.

Neben den genannten werden auch Faktoren berücksichtigt, die das Dokument „von außen“ beschreiben. Als erstes sind hier die Metatags zu nennen. Sie dienen dazu, den Inhalt eines Dokuments zu beschreiben. Unterschiedliche Tags bieten die Möglichkeit, ein Dokument beispielsweise mit einer Kurzbeschreibung („Meta Description“) oder Schlagwörtern („Meta Keywords“) zu versehen. Da findige Webmaster die Meta-tags allerdings dafür nutzten, irreführende Beschreibungen in ihre Seiten einzufügen, werden sie inzwischen von keiner der größeren Suchmaschinen mehr für das Ranking verwendet.

Wichtiger ist eine andere Form der Dokumentbeschreibung, nämlich die durch externe Seiten. Hier werden die Ankertexte der verweisenden Seiten ausgewertet und dem Text der verlinkten Seite zugerechnet. So ist es möglich, dass relevante Seiten gefunden werden, obwohl sie den Suchbegriff gar nicht enthalten, da beispielsweise im Text ein Synonym verwendet wurde. Beispielsweise kann damit für eine Suchanfrage nach dem „Patentamt“ die Seite des „Deutschen Patent- und Markenamt“ gefunden werden, obwohl diese den Suchbegriff gar nicht enthält. Allerdings verweisen viele Seiten mit exakt diesem Begriff auf die Seiten des DPMA. Übrigens beruht auch das vielzitierte Ergebnis für die Suchanfrage „miserable failure“ bei Google auf diesem Mechanismus.

So vielfältig die anfrageabhängigen Faktoren auch sind, und so ausgeklügelt sie von den Suchmaschinen auch angewendet werden: Sie allein reichen nicht, um Webseiten angemessen für das Ranking zu bewerten. Denn Texte können leicht manipuliert werden – und schaut man einige Jahre zurück, als Suchmaschinen sich noch allein auf die Textauswertung für ihre Relevanzbeurteilungen verließen, so konnte man damals ziemlich chaotische Trefferliste betrachten. Erst durch die Erweiterung des Rankings um anfrageunabhängige Faktoren wurde eine erweiterte Qualitätsbewertung eingeführt, die zu wesentlich besseren Treffern führte.

Anfrageunabhängige Rankingfaktoren in Suchmaschinen

Suchmaschinen suchen zwar immer die Texte, die am besten zu einer gestellten Suchanfrage passen, auf eine Textbewertung allein dürfen sie sich aber nicht verlassen – sonst hätten Spammer leichtes Spiel. Die Lösung sind abfrageunabhängige Rankingfaktoren, das heißt allgemeine Qualitätsmaße für jedes einzelne Dokument.

Qualität ist schwer zu messen, gerade wenn es um Dokumente im Web geht. Was für den einen Nutzer ein „gutes“ Dokument ist, kann für den anderen vollkommen unnütz sein. Das hängt unter anderem mit dem Wissensstand des jeweiligen Nutzers zusammen. Da Suchmaschinen – zumindest in ihrer bisherigen Standardform – nichts oder nur wenig über den individuellen Nutzer wissen, wenn er eine Anfrage stellt, verlassen sie sich erst einmal auf allgemeine Qualitätsmaße. Die Idee dahinter ist, dem Nutzer diejenigen Dokumente bevorzugt anzuzeigen, die ihm wahrscheinlich bei der Lösung seines Informationsproblems helfen.

Und da die Suchmaschine eben nichts über den individuellen Nutzer weiß, zeigt sie bevorzugt die Dokumente an, von denen sie annimmt, dass sie für möglichst viele Nutzer – oder eben: für den Durchschnittsnutzer – relevant sind. Daher sind viele von den Suchmaschinen verwendete Qualitätsmaße eher Popularitätsmaße.

Das sicher bekannteste und zur Zeit auch wichtigste Popularitätsmaß ist die Linkpopularität. Hier wird erst einmal gemessen, wie viele Links auf ein bestimmtes Dokument zeigen. Wird nun eine Suchanfrage gestellt, und mehrere Dokumente sind aufgrund der Textanalyse ähnlich relevant, werden die Dokumente bevorzugt, auf die mehr Links zeigen. Die Idee: Wenn man einen Link auf ein Dokument setzt, dann sagt man damit, dass dieses Dokument in irgendeiner Weise bedeutend ist. Oder, wie es die beiden Google-Gründer ausgedrückt haben: Jeder Link ist eine Stimme für die verlinkte Seite.

Geht es also letztendlich um eine einzige große Abstimmung über das Ranking der Suchmaschinen? Ja und nein. Auf der einen Seite wirkt tatsächlich jeder Sitebetreiber an der Linkbewertung mit, andererseits zählt aber nicht jede Stimme gleich. Wäre dies der Fall, so wäre es wieder ein Leichtes, die Suchmaschinen zu täuschen. Man könnte einfach tausende Links auf eine Seite zeigen lassen und den Suchmaschinen damit eine Qualität vorgaukeln, die diese Seite definitiv nicht hätte.

Die Lösung liegt in der Gewichtung der Links. Einfach kann dies an einem Beispiel beschrieben werden: Es leuchtet ein, dass ein Link, der von der Yahoo-Homepage kommt, mehr wert ist als einer von einer kleinen privaten Homepage. Der Link von Yahoo ist eine „echte Empfehlung“, da Yahoo selbst eine bekannte Site mit einem guten Ruf ist. Die Suchmaschinen haben dies erkannt und bewerten Links von populären Seiten höher als solche von weniger bekannten Websites. Auch hier erfolgt die Bewertung der Popularität wieder allein aufgrund der Linkstruktur; es wird nicht menschlich bestimmt, was eine populäre, bekannte oder zuverlässige Seite ist und was nicht.

Während die Auswertung der Linkstruktur eine Abstimmung unter den Websitebetreibern darstellt, kann man natürlich auch direkt die Suchenden abstimmen lassen. Hier wird versucht, herauszufinden, welche Treffer die Nutzer für bestimmte Anfragen am häufigsten anklicken. Aber auch hier ist Vorsicht geboten: Ein solches Verfahren in Reinform würde Seiten bevorzugen, die in den Trefferlisten mit einer attraktiven Beschreibung auftauchen, unabhängig davon, ob sie sich bei näherem Ansehen als Niete herausstellen. Deshalb muss auch die Verweildauer des Nutzers auf diesen Seiten gemessen werden. Bleibt er nur kurz und kehrt dann zur Trefferliste zurück, dann war er wohl mit dem Treffer nicht zufrieden. Bleibt er dagegen lange auf der Seite und/oder kehrt nicht mehr zur Trefferliste zurück, so handelt es sich wohl um ein relevantes Dokument.

Mit der Linkpopularität und der Klickpopularität sind nun die beiden wichtigsten Verfahren der anfrageunabhängigen Qualitätsbewertung beschrieben. Wie sie genau funktionieren, wird in eigenen Artikeln im Rahmen der Serie über das Ranking in Suchmaschinen gezeigt werden. Beide sagen jedenfalls aus, dass Dokumente, die von vielen (Website-Autoren oder Suchmaschinennutzern) als gut angesehen werden, auch für zukünftige Anfragen relevant sind.

Aber nun zu den weiteren anfrageunabhängigen Qualitätsmaßen. Auf manche würde man sicher nicht so leicht kommen, wie zum Beispiel auf die Größe der Website, auf der das Dokument abgelegt ist. Diese kann aber sehr wohl ein Qualitätsmaß sein: Qualitativ hochwertige Dokumente liegen oft auf Websites, die besonders viele Dokumente enthalten. Denken sie an Nachrichten-Websites: Da laufend neue Nachrichten hinzukommen, wachsen solche Sites schnell an. Wenn sie sich nun zwischen zwei Artikeln zum gleichen Thema, der eine davon auf einer großen Nachrichten-Site, der andere auf einer kleinen privaten Homepage, entscheiden müssten, würden sie wahrscheinlich den von der großen Website wählen. Aber nicht immer ist diese Annahme richtig: Wenn Seiten zur Manipulation der Suchmaschinen automatisch erzeugt werden – was vor allem zur Steigerung der Linkpopularität gemacht wird – kommt es nicht darauf an, ob man tausend oder hunderttausend Seiten erzeugt. Künstliche Größe sollte also als solche erkannt und entsprechend bewertet werden.

Weitere Kriterien für die Qualitätsbewertung von Dokumenten können die Verzeichnisebene, das Dateiformat, die Dokumentlänge und die Aktualität des Dokuments sein.

Wenn ein Dokument weit unten innerhalb der Verzeichnisstruktur einer Website steht (wenn es also „versteckt“ ist), so wird angenommen, dass es im Gegensatz zu einem Dokument, das direkt unterhalb der Homepage steht, weniger wichtig ist. Auch das Dateiformat kann im Ranking ausschlaggebend sein: Oft werden Dokumente in einer einfachen HTML-Version sowie in einer PDF-Version angeboten. Die Suchmaschine wird in der Regel das HTML-Dokument höher bewerten, da es für den Nutzer ohne zusätzliches Programm direkt ansehbar ist.

Sind lange Dokumente relevanter als kurze? In vielen Fällen schon. Zwar sind nicht unbedingt die längsten Dokumente die besten, aber vielfach doch die mit einem bestimmten Umfang. Zu kurze Dokumente können die Suchanfrage oft nicht ausführlich genug beantworten, zu lange Dokumente werden von vielen Nutzern nicht gerne und nicht vollständig gelesen. Manche Suchmaschinen bevorzugen daher Dokument, die „in der goldenen Mitte“ liegen.

Ausführlicher werden wir in einem gesonderten Artikel noch auf die Aktualität der Dokumente als Rankingfaktor zu sprechen kommen. Hier nur so viel: Suchmaschinen bevorzugen in der Regel aktuelle Dokumente. Seiten, die lange nicht verändert wurden, werden oft als veraltet angesehen und entsprechend im Ranking nach unten gestuft.

Ranking auf Basis von Popularität: Klickhäufigkeit

Die von den Suchmaschinen verwendeten Qualitätsmaße sind in erster Linie Popularitätsmaße. Und die Popularität einer bestimmten Seite lässt sich vor allem dadurch messen, ob viele Nutzer diese Seite anklicken und wie lange sie auf der entsprechenden Seite verweilen. Die Suchmaschinen verwenden die Auswertung des Klickverhaltens in ihrem Ranking.

Zunächst einmal kann man sich die Auswertung der Klickhäufigkeit als eine Abstimmung unter den Nutzern vorstellen: Eine Seite, die häufig angeklickt wird, wird als wichtiger angesehen als eine, die weniger häufig oder nur selten besucht wird.

Doch ein solches System hat einige gravierende Nachteile: Werden nämlich populäre Seiten bevorzugt gelistet, ist auch die Wahrscheinlichkeit höher, dass sie wieder angeklickt werden. Es entsteht der sogenannte Matthäus-Effekt: „Denn wer da hat, dem wird gegeben werden.“ Außerdem werden alle Seiten gleich bewertet, obwohl es intuitiv einleuchtend ist, dass eine unter Umstände hoch relevante Seite auf einem kleinen Web-Angebot nur schwer die Popularität einer Seite von einem insgesamt sehr populären Angebot wie etwa der Wikipedia erreichen kann.

Drittens berücksichtigt eine reine „Klick-Abstimmung“ keine zeitlichen Faktoren: Neue Seiten werden es schwer haben, gegenüber bereits etablierten Seiten, die schon viele Klicks auf sich gezogen haben, aufzuholen. Und letztlich findet bei der Abstimmung auch keine Unterscheidung statt, für wen denn die populäre Seite relevant sein soll: Wenn Millionen Spanier auf eine bestimmte Seite klicken, muss sie für einen deutschsprachigen Nutzer noch lange nicht relevant sein.

Doch trotz der genannten Nachteile kann die Auswertung des Klickverhaltens zu aussagekräftigen Ergebnissen führen. Klar ist aber, dass entsprechende Ausgleichsfaktoren angewendet werden müssen, um das Ergebnis zu verbessern.

Aber erst einmal zur Erhebung der Daten. Hier bestehen zwei Möglichkeiten: Die direkte Erhebung über eine Umleitung von den Trefferlisten aus und die Erhebung der Daten über Toolbars. Die erste Möglichkeit wurde schon relativ früh in der „Suchmaschinen-Geschichte“ eingesetzt; die Idee kam von der Suchmaschine Direct Hit. Wurde ein Treffer in der Trefferliste angeklickt, wurde dieser nicht sofort angezeigt, sondern es erfolgte eine Umleitung über die Website der Suchmaschine, wo der Klick registriert wurde.

Der Vorteil dieses Systems ist darin zu sehen, dass sich damit leicht alle Klicks aller Nutzer erfassen lassen. Der Nachteil liegt darin, dass tatsächlich nur die Klicks auf den Seiten der Suchmaschine erfasst werden können; wie sich der Nutzer weiter verhält, das heißt wie er sich beispielsweise auf der Zielseite weiterklickt, bleibt in der Auswertung unbekannt. Nur dann, wenn der Nutzer zur Suchmaschine zurückkehrt, kann seine Spur wieder aufgenommen werden.

Dies ist besonders wichtig, denn der Nutzer kann ja mit dem angeklickten Treffer unzufrieden sein. Dann wird er wohl (wenn er nicht gleich ganz aufgibt) zur Trefferliste zurückkehren und einen weiteren Treffer auswählen oder eine neue Suchanfrage formulieren. Ein wirklich erfolgreicher Treffer zeichnet sich also dadurch aus, dass der Nutzer auf der Trefferseite verweilt und nicht oder erst nach längerer Zeit zur Suchmaschine zurückkehrt.

Wichtig ist also, dass nicht alle Klicks gezählt werden, sondern nur die, von denen auch angenommen werden kann, dass sie zum Erfolg geführt haben. Sonst würden auch Seiten gezählt, die in den Trefferlisten zwar mit einer ansprechenden Beschreibung auftauchen, inhaltlich jedoch nicht das bieten können, was der Nutzer wünscht. Solche Seiten sollen im Ranking nicht bevorzugt werden – es kann sogar sinnvoll sein, sie aufgrund des spezifischen Klickverhaltens im Ranking abzuwerten.

Die zweite Art der Datenerhebung erfolgt über die allseits bekannten Toolbars, die mittlerweile von den meisten Suchmaschinen angeboten werden und sich großer Beliebtheit erfreuen.

Der Vorteil dieser Art der Datenerfassung liegt in der lückenlosen Erfassung der Daten: Die Toolbar sendet einfach jeden Klick an die Suchmaschine, unabhängig davon, ob es sich um einen Klick auf einer Seite der Suchmaschine oder anderswo handelt. So kann der vollständige Weg des Nutzers nachvollzogen werden und auf dieser Basis eine besser fundierte Entscheidung über die Relevanz einer bestimmten Seite getroffen werden.

Der Nachteil ist zum einen in der Auswertung nur einer bestimmten Nutzergruppe (nämlich der, die tatsächlich die Toolbar installiert hat) zu sehen, zum anderen – weit wichtiger – muss man sich als Nutzer im Klaren sein, dass das gesamte Surf-Verhalten protokolliert wird und unter Umständen (über Cookies oder wenn man gleichzeitig in andere Dienste der Suchmaschine eingeloggt ist) mit personenbezogenen Daten verbunden wird.

Unabhängig davon, wie die Daten erfasst werden, bestehen die gleichen Probleme in der Auswertung. Bereits beschrieben wurde der wichtige Faktor der Verweildauer auf der Zielseite.

Aber auch ein anderer zeitlicher Faktor kann von Bedeutung sein: Wie häufig wurde eine bestimmte Seite innerhalb der letzten Woche oder des letzten Monats angeklickt? Mit der Auswertung des Klickverhaltens innerhalb eines bestimmten Zeitraums wird dem Problem der Benachteiligung etablierter Seiten begegnet und es wird auf das sich schnell verändernde Nutzerverhalten reagiert.

Interessant kann gerade die Veränderung der Popularität bestimmter Seiten sein, gerade wenn man an neue Seiten denkt, die nur schwer auf die Schnelle hohe Klickzahlen erreichen können, deren Klickzahlen aber ein oft hohes Wachstum innerhalb kurzer Zeit zeigen. Hier kann davon ausgegangen werden, dass es sich um eine relevante Seite handelt, die nur noch nicht so bekannt ist wie andere.

Die Berücksichtigung von Zeiträumen begegnet auch in gewisser Weise dem Matthäus-Effekt, auch wenn er nicht ganz ausgeschlossen wird.

Eine Möglichkeit hierfür ist, die Klickhäufigkeit in Relation zum durchschnittlichen Trefferplatz zu setzen. Wird eine Seite, die eher weit unten auf den Trefferlisten aufgeführt wird, angeklickt, ist dies als wertvoller anzusehen als bei einer Seite, die stets auf den oberen Rängen zu finden ist.

Allgemein problematisch bei allen Popularitätsauswertungen ist, dass alle Nutzer als gleich angesehen werden und ihre individuellen Bedürfnisse nur mangelhaft berücksichtigt werden. Verlässt man sich bei der Qualitätsbewertung allein auf (globale) Popularität, werden die Trefferlisten schnell von den populärsten Seiten verstopft, unabhängig davon, ob sie beispielsweise überhaupt in der Sprache des Nutzers verfasst sind.

Aber auch hier wurde bereits Abhilfe geschaffen und die Auswertung der Klickpopularität differenziert. So werden die Klicks von deutschen Nutzern für das Ranking auf den deutschen Seiten einer Suchmaschine höher bewertet als die Klicks ausländischer Nutzer. Damit wird den Sprach-, aber auch anderen Präferenzen der jeweiligen Nutzerschaft entgegengekommen. Unter anderem lassen sich die unterschiedlichen Ergebnisse auf den verschiedenen Länderseiten der gleichen Suchmaschine durch diese differenzierte Auswertung des Klickverhaltens erklären.

In Zukunft dürfte das Auswerten des Klickverhaltens an Bedeutung zunehmen und weiter differenziert werden. Viel wird über das Thema Personalisierung gesprochen – letztlich nichts anderes als eine Berechnung der Suchergebnisse auf Basis des Nutzerverhaltens, entweder das des individuellen Nutzers oder aber einer bestimmten Nutzergruppe. Speziell die letztere Art bietet die Möglichkeit, das Ranking auf Basis des Verhaltens von Nutzern mit ähnlichen Interessen und Gewohnheiten zu verbessern.

Ranking auf Basis von Popularität: Verlinkung

Sicherlich die wichtigste Methode, mit der Suchmaschinen gute von schlechten Seiten unterscheiden, sind die so genannten linktopologischen Verfahren, die Informationen über die Qualität eines Dokuments aus seiner Verlinkungsstruktur ableiten. Das bekannteste dieser Verfahren ist PageRank von Google; aber auch alle anderen Suchmaschinen verwenden ähnliche Methoden, um die guten Seiten auf die vorderen Trefferplätze zu bekommen.

Dass die Auswertung des Inhalts der Web-Dokumente allein für ein gutes Ranking nicht ausreicht, wurde den Suchmaschinenbetreibern schon in der Frühzeit der Suchmaschinen klar – spätestens dann, als die Trefferlisten voller zweifelhafter Angebote waren und mit der gestellten Anfrage oft nur am Rande zu tun hatten. Es mussten also Verfahren zur Qualitätsbewertung her: Und hier begann der Siegeszug der linktopologischen Verfahren und mit ihrem PageRank der Aufstieg einer kleinen Suchmaschine namens Google.

Allen linktopologischen Verfahren ist gemeinsam, dass sie aus der Verlinkung einer Seite Schlüsse auf deren Qualität ziehen. So kann man sagen, dass die Autoren aller Webseiten im Netz gemeinsam an der Bewertung der Qualität der Seiten arbeiten; jeder auf eine Seite gesetzte Link ist eine Stimme für diese. Wer am meisten Stimmen bekommt, landet auf den Trefferlisten ganz oben. Zumindest so ungefähr.

Aber bevor wir nun tiefer in den Nutzen und den Aufbau dieser Verfahren einsteigen, erst einmal die Grundidee. Diese ist nämlich gar nicht so neu, sondern lehnt sich an eine etablierte Methode der Wissenschaft an, dem so genannten Science Citation Indexing. Man kann dies schlicht als „Fußnotenzählen“ in wissenschaftlichen Werken beschreiben, wobei jeder Verweis auf ein fremdes Werk in einer Fußnote diesem Werk zugeordnet wird. Letztlich wird ausgezählt, welches Werk wie oft von anderen zitiert wird und daraus geschlossen, dass ein häufig zitiertes Werk wichtiger sein muss als ein nicht oder nur selten zitiertes Werk. Das ganze lässt sich aber nicht nur auf einzelne Werke anwenden, sondern auch, um einzelne Wissenschaftler, ganze Institute oder Zeitschriftentitel zu bewerten.

Auf dieser Grundlage bauen die linktopologischen Verfahren auf, letztlich stellen sie eine – mehr oder minder erweiterte – Anwendung der Zitationsanalyse auf die Linkstruktur des Web dar, wobei die Links hier den Fußnoten entsprechen. Eine wichtige Erweiterung bieten sie aber alle: Nicht jeder Link wird gleich gezählt, sondern es findet eine Gewichtung statt. Diese ist auch dringend nötig, da sonst jeder Link gleich viel wert wäre und gute Trefferplätze durch das einfache Anhäufen von Links zu erreichen wären.

Stichwort Manipulationen: Ohne linktopologische Verfahren oder andere qualitätsbewertende Verfahren könnte man schnell auf die vorderen Plätze der Trefferliste kommen: Einfach das Dokument auf Platz 1 kopieren und auf den eigenen Server stellen, die Suchmaschine würde es aufgrund des gleichen Texts gleich wie das Original bewerten und entsprechend listen.

Nehmen wir als Beispiel die Website eines Porno-Anbieters, der sich die Domain whitehouse.com gesichert hat (ein reales Beispiel, inzwischen wurde die Domain aber verkauft). Er füllt die Startseite mit den Inhalten der Originalseite des Weißen Hauses (whitehouse.gov), verändert aber die weiterführenden Links, die dann auf seine eigenen Inhalte führen.

Frühere Suchmaschinen konnten nicht zwischen der Qualität der beiden Startseiten unterscheiden und listeten beide Seiten hoch in den Trefferlisten. Mit Hilfe der Linkstruktur lässt sich aber unterscheiden, welche von beiden die echte Seite des Weißen Hauses ist; nämlich diejenige, die deutlich mehr Links auf sich zieht.

Nun könnte der schlaue Site-Betreiber einfach alle seine Kumpels bitten, Links auf seine Site zu setzen und damit seine Linkpopularität erhöhen. Dass er so viele Links zusammenbekommt wie das Weiße Haus, mag aussichtslos sein, bei nicht ganz so prominenter Konkurrenz könnte es aber klappen.

Hier kommt nun die Gewichtung der Links ins Spiel: Linktopologische Verfahren unterscheiden, woher ein Link kommt und bewerten ihn entsprechend. So wird ein Link von einer kleinen privaten Homepage immer weniger wert sein als ein Link von einer Seite, die selbst sehr populär oder wenigstens für ein bestimmtes Thema besonders relevant ist.

Also: Wenn man das Ranking seiner eigenen Website verbessern will, ist man gut beraten, nicht wahllos Links zu sammeln (das ist zu einem großen Teil Zeitverschwendung!), sondern lieber die richtigen Links zu sammeln. Und die kommen eben von thematisch relevanten Seiten, die selbst eine gewisse Popularität haben.

Das bedeutet nicht, dass man irgendwelche PageRank-Werte messen muss (oder sich gar auf Angebote wie „Kaufen Sie Links von einer PR7-Seite“ einlassen sollte), sondern hier ist schlicht der gesunde Menschenverstand gefragt. Wenn Sie bei einer anderen Site um einen Link bitten, fragen Sie sich zuerst, ob Sie als Nutzer diesen Link auch anklicken würden.

Natürlich gibt es Methoden, die linktopologischen Verfahren auszutricksen, und diese werden auch angewendet. Trotzdem empfiehlt sich – vor allem für den Betreiber kleinerer Websites, der nicht über entsprechende Erfahrungen beziehungsweise das entsprechende Budget für die Suchmaschinenoptimierung verfügt – in erster Linie Ehrlichkeit.

Websites mit guten Inhalten, die dem Besucher einen konkreten Nutzen bringen, werden gerne weiterempfohlen – auch durch einen Link auf der eigenen Website. So baut sich – allerdings nicht von heute auf morgen – eine gute und natürliche Verlinkungsstruktur von selbst auf. Ein bisschen „nachhelfen“ kann man, indem man seine Website bei Verzeichnissen wie dem Open Directory anmeldet; solche Verzeichnisse werden von allen Suchmaschinen indexiert und können der Linkpopularität einen echten Schub versetzen.

Und wenn man trotzdem nicht nach oben kommt? Dann empfiehlt sich eine „sanfte Optimierung“ erst einmal auf der Textebene. Oft ist gar nicht die Verlinkung der Seiten schuld an den schlechten Trefferplätzen, was aber bei dem ganzen Rummel um PageRank und Co. gerne mal vergessen wird.

Aber auch für die Texte gilt: Es lohnt sich in der Regel nicht, Texte speziell für Suchmaschinen zu schreiben. Schreiben Sie lieber Texte, die gerne gelesen werden. Die Wörter, unter denen sie in den Suchmaschinen gefunden werden wollen, können Sie ja (in Maßen) in den Text einstreuen. 

Der PageRank

Der PageRank ist das Verfahren von Google, welches ein Urteil über die Qualität jedes bekannten Dokuments fällt. Alle anderen Suchmaschinen arbeiten mit ähnlichen Verfahren, nur heißen sie dort anders oder haben schlicht keinen griffigen Namen. Man sollte auf keinen Fall vergessen, dass der PageRank-Wert zwar eine wichtige Rolle spielt, letztlich aber nur ein Faktor unter vielen ist, der das Ranking der Suchmaschine bestimmt.

Im vorangegangenen Artikel über die linktopologischen Verfahren wurde erklärt, warum die Linkbewertung wichtig für die Suchmaschinen ist, um sich ein Urteil über die Qualität jedes einzelnen Dokuments zu bilden. Die Neuerung, die Google bei den Suchmaschinen einführte – und die einen großen Teil des anfänglichen Erfolgs dieser Suchmaschine ausmachte – ist das Page-Rank-Verfahren, benannt nach seinem Erfinder Larry Page (und nicht etwa nach den Pages, die bewertet werden).

Der Ausgangspunkt von Pages Entwicklung ist das sogenannte Random-Surfer-Modell. Dieses besagt, dass sich ein Web-Surfer im Netz von einer Seite zur nächsten bewegt, indem er einen Link auf der Seite anklickt. Dazu kommt die wichtige Erkenntnis, dass die Links im Web nicht gleichmäßig verteilt sind; manche Seiten können sehr viele Links auf sich ziehen, andere nicht so viele oder gar nur ganz wenige. Die Wahrscheinlichkeit, dass der „Zufalls-Surfer“ auf eine bestimmte Seite gelangt, ist also sehr unterschiedlich. Viel eher wird er auf einer populären Seite wie Spiegel Online landen als auf einer kleinen, regionalen Nachrichtenseite wie dem Bocholter-Borkener Volksblatt.

Aber nicht nur eh schon große und bekannte Websites werden bevorzugt, sondern schlicht jede Seite, die wertvolle Links auf sich vereinen kann. Denn ebenso einleuchtend wie die unterschiedlichen Besuchswahrscheinlichkeiten ist die Annahme, dass ein Link von einer schon als gut bewerteten Seite wichtiger ist als einer von einer weniger bekannten Seite. Um beim Beispiel zu bleiben: Wenn auf der Startseite von Spiegel Online ein Link auf eine externe Seite steht, dann muss an den Inhalten auf dieser Seite schon „was dran sein“. Kommt der Link aber von einer unbekannten privaten Seite, dann ist dies weniger wahrscheinlich.

Die Google-Idee war nun, für jedes der Suchmaschine bekannte Dokument einen Wert zu berechnen, der die Wahrscheinlichkeit angibt, mit der ein Zufalls-Surfer auf diesem Dokument landet. Dieser Wert heißt PageRank und wird nach der folgenden Formel berechnet:

PR(A) = (1-d) + d (PR(T1)/C(T1) + ... + PR(Tn)/C(Tn))

Die Formel zur Berechnung des PageRank einer Seite (das ist PR(A)) hat mehrere Elemente: d ist ein Dämpfungsfaktor, der für die Wahrscheinlichkeit steht, dass der Zufalls-Surfer die gerade aufgerufene Seite verlässt und an einem neuen Startpunkt wieder ansetzt. Dieser Faktor ist für das weitere Verständnis der Formel aber nicht wichtig.

Wichtig sind die Elemente in der zweiten Klammer wie etwa PR(T1)/C(T1). Hier wird der PageRank-Wert einer Seite, die auf die zu untersuchende Seite verweist, durch die Anzahl der von dieser ausgehenden Links geteilt. So wird der PageRank zwar von der verweisenden Seite vererbt, aber eben nur zu einem bestimmten Teil: Seiten, die wenige Links enthalten, vererben anteilig mehr als Seiten, die viele ausgehende Links haben. Die vererbten PageRanks aller auf unser Dokument verweisenden Seiten werden zusammengezählt und ergeben (ausgeglichen durch den Dämpfungsfaktor) deren PageRank-Wert.

Screenshot
Quelle: Page, L., Brin, S., Motwani, R., Winograd, T. (1998): The PageRank citation ranking: Bringing order to the Web. http://dbpubs.stanford.edu:8090/pub/1999-66

Deutlich wird das Verfahren an einem Beispiel, das in der Abbildung gezeigt wird. Die Seite links oben hat einen PageRank-Wert von 100 und zwei ausgehende Links. Sie vererbt ihren Wert auf das Dokument rechts oben und das rechts unten. Aus den zwei ausgehenden Links ergibt sich, dass jede Seite nur die Hälfte des Ursprungswerts bekommt, also 100/2=50. Die Seite links unten hat einen viel geringeren PageRank-Wert, nämlich neun. Bei drei ausgehenden Links ergibt sich eine Vererbung von drei pro verlinkter Seite. Wie sich der endgültige Wert ergibt, lässt sich gut an dem Dokument rechts oben ablesen. Es erhält einmal einen Wert von 50, einmal drei, insgesamt also 53. Hier zeigt sich auch deutlich, dass ein Link viel mehr wert sein kann als ein anderer.

Wie aber kann man die PageRank-Werte berechnen, wenn sie gegenseitig voneinander abhängig sind? Wo soll man anfangen? Hier beginnt es, kompliziert zu werden. Denn für die Berechnung des Werts müssen ja aus allen bekannten Dokumenten die Links rückwärts verfolgt werden. Denn der PageRank-Wert jedes Dokuments ist ja von den PageRank-Werten der anderen Dokumente abhängig. Wo also anfangen, wenn man für die Berechnung des einen PageRanks schon die PageRank-Werte der anderen Dokumente kennen muss, die wiederum vom ersten Dokument abhängig sein können?

Die Lösung ist eine iterative Berechnung, das heißt, jedes Dokument bekommt erst einmal einen Startwert. Dann wird in einer ersten Schleife eine erste Näherung für alle Dokumente berechnet. Wenn diese feststeht, beginnt der Prozess wieder von vorne – solange, bis sich die Werte nur noch wenig verändern. Da die Berechnung so aufwendig ist, wird sie nur relativ selten durchgeführt. Oft vergehen einige Monate, bis die neuen Werte bei Google berechnet werden und entsprechend in das Ranking eingehen. Benachteiligt werden dadurch neue Dokumente, die noch keinen Wert erhalten haben.

Möchte man den PageRank-Wert einer Seite erfahren, kann man ihn einerseits über frei verfügbare Tools abfragen. Am einfachsten ist es aber mit der Google Toolbar. Sie zeigt den PageRank für jede Seite automatisch an. Dabei wird eine Skala verwendet. Je länger der angezeigte grüne Balken, desto höher der PageRank. Aber Achtung: diese Normalisierung (oft auch auf einer Zehnerskala angegeben) täuscht gleiche Abstände vor. Der Schritt von einem PageRank von eins zu einem von zwei ist jedoch weit geringer als der von sieben zu acht!

Für die Optimierung der eigenen Website ergeben sich aus der Berechnung des PageRank mehrere Konsequenzen: Erst einmal bringt es nichts, möglichst viele Links auf die eigenen Seiten anzuhäufen, da die Links unterschiedlich bewertet werden. Das oben beschriebene Beispiel verdeutlicht das: Ein einziger Link von mit 100 bewerteten Seite ist mehr als 15 mal so viel wert wie der von der Seite mit dem Wert neun. Also: Die Qualität der Links ist entscheidend!

Weiterhin muss man wissen, dass die PageRank-Wert nicht kontinuierlich neu berechnet werden. Link-Building-Kampagnen wirken deshalb auch nicht von heute auf morgen, sondern frühestens bei der nächsten Neuberechnung der PageRank-Werte.

Und am allerwichtigsten ist die Erkenntnis, dass der PageRank nur ein Wert unter vielen ist, wenn es darum geht, die Relevanz einer Seite zu bestimmen. Das alleinige Einsammeln von Links – und seien diese auch noch so gut – wird die eigenen Seiten nicht nach oben bringen – in erster Linie muss der Inhalt „stimmen“, das heißt für den User nützlich sein, dann kommt auch so mancher Link von ganz allein. ™

Suchmaschinenranking verbessern durch Einstiegsseiten

Neben dem Suchmaschineneintrag und der Suchmaschinenoptimierung sind optimierte Einstiegsseiten der dritte Baustein einer erfolgreichen Suchmaschinenkampagne.

Viele „Suchmaschinen-Profis“ haben nach der „Superformel“ gesucht. So nach dem Motto: Finde alle Variablen, gebe alle Schlüsselinfos an der richtigen Stelle ein = Top-Suchmaschinen-Ranking.

Die Praxis hat gezeigt, das dem nicht so ist. Zu viele Parameter und Verhaltensweisen der Suchmaschinen sind unbekannt, oder noch nicht erforscht. Außerdem ändern sich Suchmaschinen ständig. Auf die Frage, ob Suchmaschinenoptimierung eher eine Kunst oder eine Wissenschaft ist, sollte man eher auf Kunst tippen. Wenn es eine Wissenschaft wäre, könnte man eine Formel anwenden und hätte ein vorhersehbares Ergebnis. So ist Suchmaschineneintragen eher ein Handwerk oder eine Kunst, die stark von dem Wissen und der Erfahrung des Eintragenden abhängt.

Was nun folgt, ist eine Lektion in der Kunst des Suchmaschinenoptimierens. Basis dieser Optimierung ist immer der optimale Quellcode (HTML) und das Eintragen in die richtigen Verzeichnisse gefolgt von einer regelmäßigen Suchmaschinenpflege.

Um Suchmaschinen optimal mit Informationen zu füttern, sind Einstiegs- oder Brückenseiten (im engl. Doorways) das richtige Mittel. Eine Einstiegsseite für Suchmaschinen ist immer ein HTML-Dokument, das die grundlegende Inhalte einer Internetseite enthält. Die Einstiegsseite sollte klar strukturiert, informativ, zielgerichtet und kurz sein. Die Einstiegsseite sollte einen positiven Einfluss auf das Ranking der Suchmaschine haben. Wählen Sie die Elemente deshalb mit Sorgfalt aus.

Wie Inhalte am Besten auf die Suchmaschinen wirken, entsteht durch die Erfahrungen, die man durch periodische Auswertungen und Optimierung der Inhalte erlangt. Da man am Anfang keine Erfahrungen vorweisen kann, ist das Optimieren beim ersten Eintragen nur begrenzt möglich. Mit der Zeit wächst, durch ständiges Prüfen und Optimieren die Erfahrung im Umgang mit den Suchmaschinen. Dieser Prozess ist sehr mühsam, da man vergangene Situationen auswerten, und auf zukünftige Entwicklungen anwenden muss.

Suchmaschinenoptimierung ist ständiges Eintragen, Prüfen, Ändern, erneut Eintragen in die relevanten Suchmaschinen. Im Kampf um Wettbewerbsvorteile ist das optimale Eintragen in Suchmaschinen inklusive Überwachung der Inhalte ein kostenintensiver Prozess mit vielen Unbekannten. Nicht selten werden für das optimale Eintragen von 3-4 Seiten in die wichtigsten Suchmaschinen mehrere 100 Mannstunden aufgewendet. Doch wie kann man diesen Aufwand minimieren? Der Einsatz von speziellen für die wichtigsten Suchmaschinen optimierte Einstiegsseiten bietet eine Lösung für dieses Problem.

Suchmaschinen sind komplexe Internetanwendungen, die Firmen und Personen helfen, Informationen zu finden. Eine Suchmaschine durchsucht Dokumente nach vorgegeben Textfragmenten. Suchmaschinen durchforsten die Dokumente, ohne die Inhalte zu kennen oder zu verstehen. Da durch allgemein übliche Bezeichnungen wie „Internet“, „Explorer“ meist mehrere 100.000 oder gar Millionen Dokumente gefunden werden, sind die Betreiber der Suchmaschinen dazu übergegangen, die Suchroutinen durch menschliche Lektoren zu ergänzen, um bessere Ergebnisse zu erzielen. Die Lektoren prüfen eine Website auf Inhalt und Formalien und gliedern die Website dementsprechend in die Datenbank ein. Jede Suchmaschine bevorzugt Seiten, die es Ihnen leicht machen, die geforderten Informationen zu finden. Die Seiten sollten klar strukturiert, aussagekräftig und kurz sein. Wenn Sie Suchmaschinen solche Seiten als Einstiegsseiten zu Ihren Informationen anbieten, erleichtern Sie Suchmaschinen das indizieren, und erhöhen das Ranking Ihrer Site in der Suchmaschine.

Schlüsselwort-Prüfung und Mitbewerber-Analyse
Die Basis für gute Einstiegsseiten sind passende Schlüsselwörter und -phrasen. Suchen Sie sich als erstes geeignete Begriffe und schreiben Sie alle in eine Liste. Beraten Sie sich ggf. mit Ihrem Webdesigner, ISP, Werbeagentur, Freunden und Partnern.

Besuchen Sie Websites von Mitbewerbern und analysieren Sie deren Schlüsselbegriffe und -phrasen. Wenn sie die Liste fertig haben, sortieren Sie die Liste nach wichtigeren und weniger wichtigen Schlüsselbegriffen. Führen Sie einzelne Tests mit den Schlüsselinformationen in den einzelnen Suchmaschinen durch. Prüfen Sie, ob Ihre Website in die Liste der gefundenen Ergebnisse passt.

Wenn Sie die Prüfung nach dem Eintrag Ihrer Site wiederholen, sehen Sie konkurrierende Websites über und unter Ihrer in der Liste. Prüfen Sie diese Websites auf Titel, Beschreibung und Schlüsselwörter und passen Sie Ihre Site entsprechend an.

Die Konkurrenzanalyse ist das beste Hilfsmittel um die optimale Schlüsselphrase für Ihre Website zu finden. Schlüsselinformationen (Keywords, Description) sind dann die Basis für das erfolgreiche Ranking von Einstiegsseiten zu Ihren Informationen. ™

Zusammenfassung

  • Drei Bausteine für eine optimale Suchmaschinenkampagne: Eintrag, Optimierung und individuelle Einstiegsseiten
  • Einstiegsseiten sprechen Suchmaschinen individuell mit gezielten Informationen an
  • Basis für die optimale Einstiegsseite sind klar strukturierte, informative und kurze Webseiten in HTML-Format

Wie hilfreich war dieser Beitrag?

Klicke auf die Sterne um zu bewerten!

Durchschnittliche Bewertung 0 / 5. Anzahl Bewertungen: 0

Dr. Web Redaktion

Dr. Web Redaktion

An einem „Dr. Web Redaktion“ Artikel arbeiten i.d.R. mehrere Autoren, unter anderem Michael Dobler, Markus Seyfferth und Jörg Mrusek.

Agenturpartner

Orange Services

München

Wee Media | Webdesign Agentur

Dernbach

minddraft AG

Allenwinden

Trendmarke GmbH

Stuttgart

Khoa Nguyen – Online Marketing Beratung & SEA / Social Ads / SEO Freelancer

München

Alle Agenturpartner

Jobs

Online Marketing Manager

Innsbruck

Assistent/in der Geschäfts­führung

Innsbruck

API Developer für die TelemaxX Cloud

Karlsruhe

Texter / Junior Content Marketing Manager

Innsbruck

Teamleiter Online Marketing

München

Zum richtigen Job

Newsletter

Tipps, Tricks, Ratgeber. Unser Newsletter: Jeden Dienstag frisch gedruckt in Deinem Mail-Postfach.

Lust auf mehr? Wir empfehlen folgende Artikel:

SEO Tools im Test: Das kann die OSG Performance Suite

Jedes SEO-Tool hat seine Berechtigung, Stärken und Schwächen. Manche Tools decken nur einen kleinen Bereich ab, andere verfolgen den All-in-One-Anspruch. Die OSG Performance Suite ist sehr umfangreich, wie unser Test ergab. Doch schau selbst:

 →   

SEO-Texte schreiben – das solltest Du beachten

SEO-Texte schreibst du natürlich nicht für Suchmaschinen, sondern für Menschen aus Fleisch und Blut. Dennoch gibt es eine Reihe an Regeln, wie du Texte so konzipierst, dass Google sie den passenden Suchanfragen besser zuordnen kann. Wie das geht, schauen wir uns im Folgenden an.

 →   

Wie lange dauert SEO?

Suchmaschinenoptimierung sorgt für eine bessere Platzierung in den Google-Suchergebnissen und steigert die Reichweite und Markenbekanntheit eines Unternehmens. Aber wie viel Zeit sollte für Suchmaschinenoptimierung eingeplant werden?

 →   

Schreibe einen Kommentar Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Dr. Web Logo weiss.

Pionier für Digitale Transformation. Seit 1997. ✅  Wissen, Tipps, Ratgeber, Dienstleister: Wir bringen wir die digitale Transformation von Unternehmen praxisnah voran.

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email

Wissen finden

  • Dr. Web Autoren
  • Amazon SEO
  • Content Marketing
  • CMS
  • CSS
  • Digitalisierung
  • E-Commerce
  • Freelancer
  • Jobs & Karriere
  • Online-Marketing
  • SEO
  • UX Design
  • Webdesign
  • Website erstellen
  • WordPress
  • WooCommerce
Menü
  • Dr. Web Autoren
  • Amazon SEO
  • Content Marketing
  • CMS
  • CSS
  • Digitalisierung
  • E-Commerce
  • Freelancer
  • Jobs & Karriere
  • Online-Marketing
  • SEO
  • UX Design
  • Webdesign
  • Website erstellen
  • WordPress
  • WooCommerce

Rechtliches

  • Datenschutzerklärung
  • Geschäftsbedingungen (AGB)
  • Impressum
  • Kontakt
  • Nach oben ↑
Menü
  • Datenschutzerklärung
  • Geschäftsbedingungen (AGB)
  • Impressum
  • Kontakt
  • Nach oben ↑

Für Agenturen & Unternehmer

  • Als Agentur eintragen
  • Beste Agenturen finden
  • Städte: von A bis Z.
  • Agenturen in Augsburg
  • Agenturen in Basel
  • Agenturen in Berlin
  • Agenturen in Bochum
  • Agenturen in Bonn
  • Agenturen in Bremen
  • Agenturen in Dortmund
  • Agenturen in Dresden
  • Agenturen in Duisburg
  • Agenturen in Düsseldorf
  • Agenturen in Essen
  • Agenturen in Frankfurt am Main
  • Agenturen in Freiburg
  • Agenturen in Hamburg
  • Agenturen in Hannover
  • Agenturen in Innsbruck
  • Agenturen in Karlsruhe
  • Agenturen in Köln
  • Agenturen in Leipzig
  • Agenturen in München
  • Agenturen in Münster
  • Agenturen in Nürnberg
  • Agenturen in Offenbach am Main
  • Agenturen in Regensburg
  • Agenturen in Salzburg
  • Agenturen in Stuttgart
  • Agenturen in Wien
  • Agenturen in Zürich
  • Digitalagentur finden
  • Webdesign-Agentur finden
  • Werbeagentur finden
Menü
  • Als Agentur eintragen
  • Beste Agenturen finden
  • Städte: von A bis Z.
  • Agenturen in Augsburg
  • Agenturen in Basel
  • Agenturen in Berlin
  • Agenturen in Bochum
  • Agenturen in Bonn
  • Agenturen in Bremen
  • Agenturen in Dortmund
  • Agenturen in Dresden
  • Agenturen in Duisburg
  • Agenturen in Düsseldorf
  • Agenturen in Essen
  • Agenturen in Frankfurt am Main
  • Agenturen in Freiburg
  • Agenturen in Hamburg
  • Agenturen in Hannover
  • Agenturen in Innsbruck
  • Agenturen in Karlsruhe
  • Agenturen in Köln
  • Agenturen in Leipzig
  • Agenturen in München
  • Agenturen in Münster
  • Agenturen in Nürnberg
  • Agenturen in Offenbach am Main
  • Agenturen in Regensburg
  • Agenturen in Salzburg
  • Agenturen in Stuttgart
  • Agenturen in Wien
  • Agenturen in Zürich
  • Digitalagentur finden
  • Webdesign-Agentur finden
  • Werbeagentur finden
Das große Dr. Web Icon-Set: 970+ Icons, im SVG-Format​

Lade Dir jetzt das Icon-Set
kostenlos herunter ↓

Über 970 Dr. Web-Icons, kostenlos.
Danke nein, ist nichts für mich.
Invalid email address
Vielen Dank! Bitte schau noch in Dein Postfach und bestätige die Anmeldung.