Spaces. Smartes Cloud Hosting für anspruchsvolle Webprojekte. Loslegen und Spaces testen. Von Mittwald.
Manuel Diwosch 20. November 2018

Onsite SEO: Effektive Sofortmaßnahmen für jedermann

Websitebetreiber, Webdesigner und manch­mal sogar SEO-Profis ver­pul­vern viel Geld mit teu­rem Linkbuilding und Suchmaschinenwerbung. Sie inves­tie­ren viel in die Kür, aber ver­ges­sen die Pflicht. Dabei sind – vor allem in Nischen – bereits mit ordent­li­cher Onsite-Arbeit gute Positionen in Suchergebnissen erreich­bar. Und wenn es nicht reicht, musst du dank sorg­fäl­ti­ger Onpage-Aufbereitung zumin­dest weni­ger Geld für ent­spre­chen­des Linkbuilding in die Hand neh­men. Onsite-Optimierung besteht zumin­dest auch aus “low han­ging fruits” (deutsch: leicht zu ern­ten­de Früchte), die sich zu pflü­cken loh­nen.

SEO-Fakt scheint zu sein: Auf die ein­ge­hen­den Links kommt es an. Denn Links gel­ten als Empfehlungen. Möglichst vie­le Links wer­den gleich­ge­setzt mit mög­lichst guten Positionen in den SERPS (Search Engine Result Pages, deutsch: Suchergebnisseiten).

Die Google-Updates der letz­ten Jahre haben die­se Weisheit ein biss­chen durch­ein­an­der gebracht. Noch mehr als frü­her wird zwi­schen “good” und “bad neigh­bour­hood” unter­schie­den. Links aus “guter Nachbarschaft” brin­gen viel für das Ranking, Links aus “schlech­ter Nachbarschaft” scha­den dem Ranking nun spür­bar. Die alte Weisheit hat somit zwar nach wie vor noch Gültigkeit, aber eben etwas ein­ge­schränk­ter. Dagegen erfuhr der Inhalt dadurch eine Aufwertung.

Noch mehr Blackbox, noch mehr Mythen, wildes Links abbauen und neu aufbauen

Diese Ranking-Konsequenzen waren zwar stets vor­her­zu­se­hen, schlu­gen aber den­noch gro­ße Wellen. Denn solan­ge die ein­fa­chen Black-Hat-Methoden so gut funk­tio­nier­ten, wur­den sie auch ange­wandt. Man könn­te es sogar dras­ti­scher for­mu­lie­ren: Wenn sie die Konkurrenz nutz­te, muss­te man sie auch nut­zen, um mit­zu­hal­ten. Sonst wären die Mitbewerber in den SERPS vor­ne gestan­den und man selbst im Abseits.

Für Websitebetreiber, die nicht zu den SEO-Profis gehö­ren, weil sie viel­leicht nur eine Site für ihr loka­les Kleinunternehmen betrei­ben, hat sich die Welt des Internets nun noch mehr zur Black Box ent­wi­ckelt. Was frü­her galt, gilt heu­te nicht mehr. Wieder muss ein exter­ner Profi enga­giert wer­den. Diesmal hof­fent­lich der Richtige, der die Arbeit nach­hal­tig angeht.

Dabei ver­teu­ert sich der pro­fes­sio­nel­le SEO-Einsatz ste­tig, weil es immer mehr Parameter zu beach­ten gibt. Es stellt sich tat­säch­lich die Frage, wie lan­ge du da noch mit­spie­len willst.

Die Low Hanging Fruits der Onsite-Optimierung

Zugegeben: Wie Onsite-Optimierung funk­tio­niert, ist und war längst kein gut gehü­te­tes Geheimnis mehr. Im Gegenteil: Der Suchmaschinenriese Google selbst erklärt es aus­führ­lich in den Webmastertools. Doch die Arbeit, die­se Empfehlungen von der Primärquelle zu lesen, tut sich längst nicht jeder an. Sie zudem noch umzu­set­zen, behal­ten sich offen­bar haupt­säch­lich „rich­ti­ge” Profis vor.

Woran das liegt, ist – mir zumin­dest – unklar. Vielleicht liegt es dar­an, dass man­che Webdesigner sich nur für das Design zustän­dig füh­len und ihre Kunden nicht über wei­ter­ge­hen­de Möglichkeiten und Notwendigkeiten unter­rich­ten. Vielleicht ver­säu­men sie es aber auch aus Unwissen (vie­le Webdesigner sind bekannt­lich eigent­lich gelern­te Grafiker, die Webdesign nur so neben­her anbie­ten), viel­leicht auch, weil sie es gar nicht als ihre Aufgabe sehen. Oder viel­leicht liegt es dar­an, dass die ordent­li­che Onsite-Optimierung ein­fach viel Handarbeit bedeu­tet und sich die­se vie­len Arbeitsstunden nicht ver­kau­fen las­sen.

Dennoch: Onsite-Optimierung kann – vor allem in Nischen und auf der loka­len Ebene, also für regio­na­le Suchen – extrem erfolg­reich und damit auch ertrag­reich sein. Die Konkurrenz bei regio­na­len Suchanfragen nach dem Schema „Dienstleistung/Produkt Ort” ist meist dünn. Wenn du hier auf den rich­ti­gen Content (auf die kor­rek­te Formulierung kommt es an) mit den rich­ti­gen Meta-Informationen und tech­ni­schen Daten setzt, stellt unter sol­chen Nischenvoraussetzungen die ers­te Serp-Seite oft kein Problem dar. Externe Links sind dann nur noch weni­ge nötig.

Die Onsite-Basics im Überblick

Wie bereits erwähnt, sind die Maßnahmen der Onsite-Optimierung längst kein Geheimnis mehr. Google selbst ver­sucht, sie den Websitebetreibern näher zu brin­gen. An die­ser Stelle fas­se ich sie ein­mal kurz zusam­men und ergän­ze sie um ein paar Tipps:

1. Die wichtigsten Parameter: Title, Description und Url

Der Titel der Seite, die Metadescription und die Url soll­ten die Keywords ent­hal­ten, unter denen du gefun­den wer­den willst. Natürlich soll­ten die­se auch im Text wie­der vor­kom­men. Schließlich geht es um Themenrelevanz zwi­schen Keywords im Content und den Hervorhebungen durch Title, Description und Url.

Zudem gilt: Je wei­ter vor­ne die Keywords im Title und in der Description vor­kom­men, des­to wich­ti­ger wer­den sie ange­se­hen. So soll­te etwaq der Seitentitel nicht „Firma XY – Produkt” lau­ten, wenn du unter dem Produkt ran­ken willst. Er soll­te statt­des­sen „Produkt – Firma XY” lau­ten.

2. Saubere Struktur und Code

Der Quellcode der Website soll­te einer Überprüfung unter­zo­gen wer­den (validator.w3.org). Ist er feh­ler­frei und hält die W3C-Standards ein, hat das zwar kei­ne direk­ten Auswirkungen auf das Ranking, stellt aber sicher, dass die Seiten kor­rekt inde­xiert wer­den kön­nen.

3. Verhältnis Code zu Inhalt

Da die Google-Crawler nicht die Qualität des Inhalts mes­sen kön­nen, dafür aber Quantität, wird das Verhältnis Code zu Inhalt als Kriterium her­an­ge­zo­gen. Die Überlegung dahin­ter ist ein­fach: Je mehr Inhalt zur Verfügung gestellt wird, des­to mehr Information soll­te dar­in ent­hal­ten sein. Wie hoch die Informationsdichte dar­in ist, sagt das natür­lich nicht aus. (Dafür benö­tigt es dann doch wie­der das Empfehlungs-System der Links).

4. Hervorheben der relevanten Suchbegriffe durch Überschriften, unterstreichen, fetten

Die Crawler der Suchmaschine durch­stö­bern den Code nach her­vor­ge­ho­be­nen Formatierungen. Dies sind Überschriften (<h1>, <h2>, <h3>,…), unter­stri­che­ne oder gefet­te­te Passagen. Da die­se Elemente auch bei der Gestaltung dazu da sind, die wich­ti­gen Teile eines Textes für Menschen zu mar­kie­ren, geht auch die Suchmaschine davon aus, dass die­se Teile wich­tig sind. Hier soll­ten daher eben­so die anvi­sier­ten Suchbegriffe vor­kom­men.

5. Wichtige und unwichtige Meta-Informationen

Wie bereits unter Punkt 1 erwähnt, sind Seitentitel, Url und Metadescription die wich­tigs­ten Meta-Informationen für Google. Laut Matt Cutts, dem ehe­ma­li­gen Kopf von Googles Webspam-Team, wer­den die Meta-Keywords in den Google Suchergebnissen über­haupt nicht berück­sich­tigt. Das heißt aber nicht, dass es sich nicht lohnt, die­se auch sorg­fäl­tig ein­zu­pfle­gen. Andere Suchmaschinen ver­wen­den die­se nach wie vor.

Wichtig für die Google-Platzierungen sind dage­gen noch Metadaten bei Bildern (aus­sa­ge­kräf­ti­ge Dateinamen, Bild-Titel und Alt-Attribut), sowie bei Videos (Video-Sitemap als Erweiterung der Sitemap, Markups).

6. XML-Sitemap

Eine XML-Sitemap soll­te auf Websites nicht feh­len. Sie dient den Crawlern dazu, die Struktur der Seite leich­ter zu durch­schau­en.

Content is King – aber nur in Balance zwischen Mensch und Maschine

Schritt für Schritt schafft es Google von Update zu Update die Qualität der Inhalte immer bes­ser ein­zu­schät­zen. Zwangsläufig wird der Suchmaschinen-Riese dadurch weni­ger anfäl­lig für Black-Hat-Methoden. Das ist die eigent­li­che eine Chance für alle seriö­sen Website-Betreiber: Sie kön­nen näm­lich mit ihrem Wissen glän­zen und mit guten Inhalten Besucher gewin­nen. Laut dem Google-Webmaster-Support sol­len die Inhalte auf Websites ver­trau­ens­voll, hilf­reich, infor­ma­tiv und kom­pe­tent sein. Zudem soll­ten sie mög­lichst frei von Rechtschreibfehlern sein, nicht aus Massenproduktion stam­men und nicht mit unver­hält­nis­mä­ßig vie­len Anzeigen gespickt sein.

Bei der Inhaltserstellung gilt es jedoch, eine wei­te­re Kunst zu beherr­schen: Du musst die Balance zwi­schen Suchmaschine und Mensch als Leser fin­den. Was das heißt? Ein mensch­li­cher Leser könn­te schnell gelang­weilt sein, wenn du zu tief ins Detail gehst. Für eine Suchmaschine ist dies hin­ge­gen essen­ti­ell, da Details gera­de­zu eine Garantie für ein erschöp­fen­des Behanmdeln eines Themas sind.

Ein Beispiel: Du bist Unternehmer und hast Probleme mit einem Mitarbeiter. Weil er immer zu spät kommt und sei­ne Arbeit nicht erle­digt, willst du ihm kün­di­gen. Dafür brauchst du jetzt einen Anwalt und suchst nach „Arbeitsrechtsexperte Ort”.

Der Arbeitsrechtsexperte, der nun von dir gefun­den wer­den will, muss also nicht nur das Keyword Arbeitsrechtsexperte auf sei­ner Seite inte­grie­ren, son­dern auch den Ort. Betrachtet eine Anwaltskanzlei nun ihre Website nicht vor dem Hintergrund einer Suchmaschine, ist sie viel­leicht ver­sucht, einen Satz wie “Unser Team besteht aus Spitzenanwälten in allen Rechtsbereichen” auf die Seite ein­zu­pfle­gen und es dabei zu belas­sen. Den Ort fin­den die Besucher ja letzt­lich auch im Impressum.

Die Kanzlei gin­ge vor, wie seit Jahrzehnten aus Zeitungsanzeigen, Telefonbuchanzeigen etc. gewohnt. Die Suchmaschine wie­der­um hat aber so kei­ne Chance, aus die­sem Satz den Arbeitsrechtsexperten her­zu­lei­ten und ihn auch noch am gesuch­ten Ort zu loka­li­sie­ren. Demzufolge wird die­se Kanzlei nie unter der genann­ten Suchphrase auf­tau­chen.

Ein Absatz, in dem alle Rechtsbereiche, die eine gro­ße Kanzlei abdeckt, ein­fach gelis­tet wer­den, wird indes eben­so nicht ziel­füh­rend sein. Denn in die­sem Fall wird die Website der Kanzlei zwar viel­leicht in den SERPs aus­ge­wor­fen, aber der User erkennt unter Umständen nicht, dass er bei der rich­ti­gen Kanzlei gelan­det ist. Schließlich ist das Wort “Arbeitsrecht” irgend­wo in dem lan­gen Absatz ver­steckt. Im Gegensatz dazu hät­te der eine Satz mit den Spitzenanwälten in allen Rechtsbereichen den Unternehmer viel­leicht schnell und ein­fach über­zeugt.

Ein SEO-Text ist daher nicht schnell hin­ge­hus­tet und er ist schon gar nicht irgend­wie anrü­chig. Einerseits muss der Text näm­lich alle not­wen­di­gen Informationen für die Suchmaschine bie­ten, ande­rer­seits muss er über­sicht­lich gestal­tet und leicht zu lesen sein.

Fazit

Die Onsite-Optimierung ist und bleibt eine “Low han­ging fruit”, weil du als Websitebetreiber die allei­ni­ge Gestaltungsmacht dar­über hat. In Nischen oder bei regio­na­len Suchen kann Onsite-Optimierung als allei­ni­ge Maßnahme nam­haf­te Erfolge erzie­len.

Sie erfor­dert aller­dings viel Arbeitsaufwand – vor allem, wenn du bei einer bestehen­den, grö­ße­ren Seite rück­wir­kend nach­ar­bei­ten musst. Das jedoch ist ein Zeitinvestment, das der Grundstein für eine erfolg­rei­che Webkampagne sein kann. Sie kann sich loh­nen, indem sie 1. direkt zu bes­se­ren Rankings führt oder 2. die Ausgaben für Linkbuilding nied­ri­ger hält.

(Artikelbild: Depositphotos)

Manuel Diwosch

Manuel Diwosch ist seit 2000 im Medienbereich tätig. 2008 schrieb er erstmals für Dr. Web und startete eigene, professionelle Webprojekte. Er verbindet technisches Know-How mit dem Fachwissen der journalistischen Kommunikation. Als Dienstleister entwirft er Online-Marketing-Strategien für Unternehmen und setzt diese um.

4 Kommentare

  1. Ein guter Artikel zur Fokussierung auf die rich­ti­gen SEO-Maßnahmen. Auch für nicht SEO-Profis recht ein­fach verständlich…8)

  2. Guter Artikel! Ich hof­fe, dass vie­le (poten­ti­el­le) Kunden das lesen und ver­ste­hen was alles in einem Webprojekt zu tun ist und es nicht alles geschenkt geben kann.

  3. Leider wird in dem Artikel nichts über die Auswirkungen vom Hummingbird-Update von Google gesagt. Sind nicht auch die seman­ti­schen Auszeichnungen von Inhalten mehr und mehr in den Vordergrund zu stel­len?

    • Der Punkt mit dem W3c wür­de ich jetzt nicht zustim­men hab schon oft Seiten gese­hen wo das w3c ordent­lich war aber die Struktur unüber­sicht­lich und unnö­ti­ger voll gestopft wur­de mit Code. Ihr habt übri­gens mit 77 w3c war­nun­gen ziem­lich vie­le Fehler.. Im Code.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.