Onsite-Seo-Basics: Effektive Sofortmaßnahmen für jedermann

Kein Beitragsbild

Manuel Diwosch

Manuel Diwosch ist seit 2000 im Medienbereich tätig. 2008 schrieb er erstmals...

Symbolbild Früchte (Weintrauben)Websitebetreiber, Webdesigner und manchmal sogar Seo-Profis verpulvern oft zu viel Geld mit teurem Linkbuilding und Suchmaschinenwerbung. Sie investieren viel in die Kür, aber vergessen die Pflicht. Dabei sind – vor allem in Nischen – bereits mit ordentlicher Onsite-Arbeit oft gute Positionen in Suchergebnissen erreichbar. Und wenn es nicht reicht, muss man dank sorgfältiger Onpage-Aufbereitung zumindest weniger Geld für entsprechendes Linkbuilding in die Hand nehmen. Onsite-Optimierung besteht somit auch aus “low hanging fruits” (deutsch: leicht zu erntende Früchte), die sich zu pflücken lohnen.

Seo-Fakt scheint zu sein: Auf die eingehenden Links kommt es an. Denn Links gelten als Empfehlungen. Möglichst viele Links werden oft gleichgesetzt mit möglichst guten Positionen in den Serps (Search Engine Result Pages, deutsch: Suchergebnisseiten).

Die Google-Updates der letzten beiden Jahre haben diese Weisheit – zumindest ein bisschen – durcheinander gebracht. Noch mehr als früher wird zwischen “good” und “bad neighbourhood” unterschieden. Links aus “guter Nachbarschaft” bringen viel für das Ranking, Links aus “schlechter Nachbarschaft” schaden dem Ranking nun spürbar. Die alte Weisheit hat somit zwar nach wie vor noch Gültigkeit, aber eben nicht mehr ganz so wie früher. Dagegen erfuhr der Inhalt dadurch eine Aufwertung.

Noch mehr Blackbox, noch mehr Mythen, wildes Links abbauen und neu aufbauen

Diese Ranking-Konsequenzen waren zwar stets vorherzusehen, schlugen aber dennoch große Wellen. Denn solange die einfachen Black-Hat-Methoden so gut funktionierten, wurden sie auch angewandt. Man könnte es sogar drastischer formulieren: Wenn sie die Konkurrenz nutzte, musste man sie auch nutzen, um mitzuhalten. Sonst wären die Mitbewerber in den Serps vorne gestanden und man selbst im Abseits.

Für Websitebetreiber, die nicht zu den Seo-Profis gehören, weil sie vielleicht nur eine Site für ihr lokales Kleinunternehmen betreiben, hat sich die Welt des Internets nun noch mehr zur Black Box entwickelt. Was früher galt, gilt heute nicht mehr. Wieder muss ein externer Profi engagiert werden. Diesmal hoffentlich der Richtige, der die Arbeit auch nachhaltig angeht.

Und es geht noch weiter: Man zahlt mittlerweile dreifach. Erst hat man die Links eingekauft, dann zahlt man nun auch für den Linkabbau und zu guter Letzt noch für neue, teurere, weil hochwertigere Links.

Die “Low hanging fruit” Onsite-Optimierung

Zugegeben: Wie Onsite-Optimierung funktioniert, ist und war längst kein gut gehütetes Geheimnis mehr. Im Gegenteil: Der Suchmaschinenriese Google selbst erklärt es ausführlich in den Webmastertools. Doch die Arbeit, diese Empfehlungen von der Primärquelle zu lesen, tut sich längst nicht jeder an. Sie zudem noch umzusetzen, behalten sich offenbar hauptsächlich “richtige” Profis vor.

screenshot google-hilfe für webmaster

Screenshot: Googles Hilfe für Webmaster

Woran das liegt, ist – mir zumindest – unklar. Vielleicht liegt es daran, dass manche Webdesigner, sich nur für das Design zuständig fühlen und ihre Kunden nicht über die Möglichkeiten unterrichten. Vielleicht versäumen sie es aber auch aus Unwissen (viele Webdesigner sind bekanntlich eigentlich gelernte Grafiker, die Webdesign nur so nebenher anbieten), vielleicht auch, weil sie es gar nicht als ihre Aufgabe sehen. Oder vielleicht liegt es daran, dass die ordentliche Onsite-Optimierung einfach viel Handarbeit bedeutet und sich diese vielen Arbeitsstunden nicht verkaufen lassen.

Kennst du unser E-Book-Bundle? Spare jetzt 6,99 €!

E-Book Bundle von Andreas Hecht

Dennoch: Onsite-Optimierung kann – vor allem in Nischen bzw. bei lokalen Unternehmen für regionale Suchen – extrem erfolgreich und damit auch ertragreich sein. Die Konkurrenz bei regionalen Suchanfragen nach dem Schema “Dienstleistung/Produkt Ort” ist meist sehr ausgedünnt. Wer hier auf den richtigen Content (auf die korrekte Formulierung kommt es an) mit den richtigen Meta-Informationen und technischen Daten setzt, für den stellt unter solchen Nischenvoraussetzungen die erste Serp-Seite oft kein Problem dar. Externe Links sind dann nur noch wenige nötig.

Die Onsite-Basics im Überblick

Wie bereits erwähnt, sind die Maßnahmen der Onsite-Optimierung längst kein Geheimnis mehr. Google selbst versucht sie den Websitebetreibern näher zu bringen. An dieser Stelle werden sie einmal kurz zusammengefasst und mit ein paar Tipps versehen:

1. Die wichtigsten Parameter: Title, Description und Url

Der Titel der Seite, die Metadescription und die Url sollten die Keywords enthalten, für die man gefunden werden will. Natürlich sollten diese auch im Text wieder vorkommen. Schließlich geht es um Themenrelevanz zwischen Keywords im Content und den Hervorhebungen durch Title, Description und Url. Zudem gilt: Je weiter vorne die Keywords im Title und in der Description vorkommen, desto wichtiger werden sie angesehen. D.h.: Der Seitentitel sollte nicht “Firma XY – Produkt” lauten, wenn man unter dem Produkt ranken will. Er sollte stattdessen “Produkt – Firma XY” lauten.

2. Saubere Struktur und Code

Der Quellcode der Website sollte einer Überprüfung unterzogen werden (validator.w3.org). Ist er fehlerfrei und hält die W3C-Standards ein, hat das zwar keine direkten Auswirkungen auf das Ranking, stellt aber sicher, dass die Seiten richtig indiziert werden.

3. Verhältnis Code zu Inhalt

Da die Google-Crawler (noch) keine Qualität des Inhalts messen können, dafür aber Quantität, wird das Verhältnis Code zu Inhalt als Kriterium herangezogen. Die Überlegung dahinter ist einfach: Je mehr Inhalt zur Verfügung gestellt wird, desto mehr Information sollte darin enthalten sein. Wie hoch die Informationsdichte darin ist, sagt das natürlich nicht aus. (Dafür benötigt es dann doch wieder das Empfehlungs-System der Links).

4. Hervorheben der relevanten Suchbegriffe durch Überschriften, unterstreichen, fetten

Die Crawler der Suchmaschine durchstöbern den Code nach hervorgehobenen Formatierungen. Dies sind Überschriften (<h1>, <h2>, <h3>,…), unterstrichene oder gefettete Passagen. Da diese Elemente auch bei der Gestaltung dazu da sind, die wichtigen Teile eines Textes für Menschen zu markieren, geht auch die Suchmaschine davon aus, dass diese Teile wichtig sind. Hier sollten daher auch die anvisierten Suchbegriffe vorkommen.

5. Wichtige und unwichtige Meta-Informationen

Wie bereits unter Punkt 1 erwähnt sind Seitentitel, Url und Metadescription die wichtigsten Meta-Informationen für Google. Laut Matt Cutts, dem Kopf von Googles Webspam-Team, werden die Meta-Keywords in den Google Suchergebnissen überhaupt nicht berücksichtigt. Das heißt aber nicht, dass es sich nicht lohnt, diese auch sorgfältig einzupflegen. Andere Suchmaschinen verwenden diese nach wie vor.

Wichtig für die Google-Platzierungen sind dagegen noch Metadaten bei Bildern (aussagekräftige Dateinamen, Bild-Titel und Alt-Attribut), sowie bei Videos (Video-Sitemap als Erweiterung der Sitemap, Markups).

6. XML-Sitemap

Eine XML-Sitemap sollte auf Websites nicht fehlen. Sie dient den Crawlern dazu, die Struktur der Seite zu erkennen.

Content is King – aber nur in Balance zwischen Mensch und Maschine

Schritt für Schritt schafft es Google von Update zu Update die Qualität der Inhalte immer besser einzuschätzen. Zwangsläufig wird der Suchmaschinen-Riese immer weniger anfällig für Black-Hat-Methoden werden. Das bedeutet langfristig eine Chance für alle seriösen Website-Betreiber: Sie können nämlich mit ihrem Wissen glänzen und mit guten Inhalten Besucher gewinnen. Laut dem Google-Webmaster-Support sollen die Inhalte auf Websites vertrauensvoll, hilfreich, informativ und kompetent sein. Zudem sollten sie möglichst frei von Rechtschreibfehlern sein, nicht aus Massenproduktion stammen und nicht mit unverhältnismäßig vielen Anzeigen gespickt sein.

Bei der Inhaltserstellung gilt es jedoch, eine weitere Kunst zu beherrschen: Man muss die Balance zwischen Suchmaschine und Mensch als Leser finden. Was das heißt? Ein Mensch könnte schnell gelangweilt sein, wenn zu viel ins Detail gegangen wird. Für eine Suchmaschine ist dies aber essentiell, da ohne Details keine Auflistung in den Serps möglich ist.

Ein Beispiel: Sie sind Unternehmer und haben Probleme mit einem Mitarbeiter. Weil er immer zu spät kommt und seine Arbeit nicht erledigt, wollen Sie ihn kündigen. Dafür brauchen Sie einen Arbeitsrechtsexperten. Daher suchen sie nach “Arbeitsrechtsexperte Ort”. Das heißt für den Seitenbetreiber: Das Wort “Arbeitsrechtsexperte” und der Ort müssen auf der Seite vorkommen.

Betrachtet eine Anwaltskanzlei nun Ihre Website nicht mit dem Hintergrund einer Suchmaschine, ist sie vielleicht versucht, einen Satz wie “Unser Team besteht aus Spitzenanwälten in allen Rechtsbereichen” auf die Seite einzupflegen und es dabei zu belassen. So, wie man es seit Jahrzehnten aus Zeitungsanzeigen, Telefonbuchanzeigen etc. gewöhnt ist. Die Suchmaschine hat aber keine Chance, aus diesem Satz den Arbeitsrechtsexperten herzuleiten. Demzufolge wird diese Kanzlei auch nie unter der genannten Suchphrase auftauchen.

Ein Absatz, in dem man alle Rechtsbereiche, die eine große Kanzlei abdeckt einfach in einer Wurst nennt, wird ebenso nicht zielführend sein. Denn in diesem Fall wird die Website der Kanzlei zwar vielleicht in den Serps ausgeworfen, aber der User erkennt unter Umständen nicht, dass er bei der richtigen Kanzlei gelandet ist. Schließlich ist das Wort “Arbeitsrecht” irgendwo in dem langen Absatz versteckt. Im Gegensatz dazu hätte der eine Satz mit den Spitzenanwälten in allen Rechtsbereichen den Unternehmer vielleicht schnell und einfach überzeugt.

Man muss also genau überlegen und planen, wie man einen Seo-Text anlegt. Einerseits muss er alle notwendigen Informationen für die Suchmaschine bieten, andererseits muss er übersichtlich gestaltet und leicht zu lesen sein.

Fazit

Die Onsite-Optimierung ist und bleibt eine “Low hanging fruit”, weil man als Websitebetreiber die alleinige Gestaltungsmacht darüber hat. In Nischen oder bei regionalen Suchen kann man fast mit Onsite-Optimierung alleine Erfolge erzielen.

Klar ist, sie erfordert oft viel Arbeitsaufwand – vor allem, wenn man bei einer bestehenden, größeren Seite rückwirkend nacharbeiten muss. Allerdings ist es ein Zeitinvestment, das der Grundstein für eine erfolgreiche Webkampagne sein kann. Sie kann sich lohnen, indem sie 1. direkt zu besseren Rankings führt oder 2. die Ausgaben für Linkbuilding niedriger hält.

Links zum Beitrag

Google-Tipps für Webmaster

Blog von Matt Cutts (Head of Googles Webspam Team)

Linkempfehlung für Einsteiger, die WordPress nutzen

Dr.Web WordPress Seo Tipps für Einsteiger

Manuel Diwosch

Manuel Diwosch ist seit 2000 im Medienbereich tätig. 2008 schrieb er erstmals für Dr. Web und startete eigene, professionelle Webprojekte. Er verbindet technisches Know-How mit dem Fachwissen der journalistischen Kommunikation. Als Dienstleister entwirft er Online-Marketing-Strategien für Unternehmen und setzt diese um.

Hinterlasse einen Kommentar

11 Kommentare auf "Onsite-Seo-Basics: Effektive Sofortmaßnahmen für jedermann"

Benachrichtige mich zu:
avatar
Sortiert nach:   neueste | älteste | beste Bewertung
trackback

[…] Richtlinien! Das ist bei vielen Anbietern leider nicht selbverständlich, denn für diese s.g. On-Site-SEO muss einiges an Zeit einkalkuliert […]

trackback

[…] Onpage-Optimierung-Basics auf Dr. Web […]

trackback

[…] Onpage-Seo-Basics: Effektive Sofortmaßnahmen für jedermann […]

Domingos
Gast

Hi,

die Basics sind schön und gut, aber Google würde sich keinen Gefallen tun, wenn sie Links aus schlechter Nachbarschaft dazu nutzen, jemanden abzustrafen. Black Hats könnten dann einfach Links aus schlchter Nachbarschaft kaufen – sind ja billig – und dann auf den Konkurrenten zielen, um seine Position zu verschlechtern.

Manuel Diwosch
Gast

Soweit ich weiß, sind darauf schon ein mehrere gekommen. Hier zum Beispiel ein Beitrag darüber: http://www.search-one.de/negatives-seo/ – vor allem die Kommentare dazu zeigen, dass die Meinung darüber gespalten ist. Einig scheint man sich zu sein, dass es bei neuen Sites tatsächlich funktionieren kann. Ich sehe aber hier eine andere Seite, die vielleicht (oder hoffentlich) davon abschreckt: Wenn man dies versucht, müsste man meiner Meinung nach eine strafrechtlich relevante Tat begangen haben. Schließlich schädigt (oder man versucht es zumindest) bewusst jemand anderen. Wenn der Betroffene das nachweisen kann, wird sich – glaube ich zumindest – die Justiz dafür interessieren.

Bitskin
Gast

ehrlich unterstreichen? auf webseiten unterstreichen? keine links sondern text?
Überschriften eventuell border-bottom ok, aber text unterstreichen ist im www ein no go.

BTW dient die Metadescription aktuell nur noch dem animieren zum klicken, nicht zum besser ranken – also das wäre so das neueste an corelation – muss nix heißen, klingt aber sinnvoll…
IDR würde ich bei Seiten mit viel Content die Description weglassen.

So einen Artikel hätte man auch vor 2 jahren schon in xyz seo blogs lesen können sorry

Manuel Diwosch
Gast

Hallo Bitskin,

du hast recht – diese Regeln hätten vor zwei Jahren genauso gegolten, wie heute. Übrigens auch schon davor. Wie beschrieben hat Google daraus nie ein Geheimnis gemacht. Das ändert nichts daran, dass sie heute noch immer Geltung haben und trotzdem sehr oft nicht umgesetzt werden. Was jedoch jetzt passiert mit Linkabbau und dafür neue Links kaufen – allerdings ohne sich einmal die Seite selbst vorzunehmen – ist oft zu hinterfragen.

Torsten
Gast

Überschriften in schön und gut, doch sollten diese nicht in Massen eingesetzt werden und eine zu hohe Verwendung von Google auch negativ bewertet wird. Wichtig ist eine saubere Struktur aus einer Hauptüberschrift und nachfolgenden und Überschriften im Content. Vielleicht sollte das noch ergänzt werden, da viele Neulinge großzügig mit um sich herwerfen.

Manuel Diwosch
Gast

Hallo Torsten,
danke für deine Klarstellung, falls das missverständlich ist. Natürlich sollte man nicht spammen, weder mit Keywords, noch mit Überschriften oder allen anderen (Meta)Daten. Wichtig ist, dass die Keywords hervorgehoben werden, aber natürlich mit etwas Gespür. Als Faustregel könnte man z. B. annehmen: Wenn es dem menschlichen User auf die Nerven gehen würde, ist es zuviel. Einerseits, weil dieser Text dann sowieso nicht mehr beim User den gewünschten Effekt erzielt, andererseits, weil auch die Suchmaschine “misstrauisch” werden könnte…

Jack
Gast

Leider wird in dem Artikel nichts über die Auswirkungen vom Hummingbird-Update von Google gesagt. Sind nicht auch die semantischen Auszeichnungen von Inhalten mehr und mehr in den Vordergrund zu stellen?

Manuel Diwosch
Gast

Hallo Jack,
Du hast absolut recht. Die semantischen Auszeichnungen gewinnen mehr und mehr an Bedeutung. Meine Intention war es hier allerdings, absolute Basics vorzustellen. Dazu würde ich persönlich das semantische Web noch nicht zählen. Aber als Tipp und Hinweis hast du recht, vielen Dank. Ohne zu weit ausholen zu wollen, was den Umfang eines Kommentars wohl sprengen würde, möchte ich auf den Linktipp des Beitrags “Google-Tipps für Webmaster” auf den Unterpunkt der Navigation “erfahrene Webmaster” und natürlich auf die Site http://www.Schema.org vorerst verweisen.

wpDiscuz