Spaces. Smartes Cloud Hosting für anspruchsvolle Webprojekte. Loslegen und Spaces testen. Von Mittwald.
Dirk Metzmacher 22. Februar 2005

Seitensauger – Nein danke!

Kein Beitragsbild

So genann­te Offline-Reader oder “Websauger” kön­nen sich kom­plet­te Websites mit hoher Geschwindigkeit ein­ver­lei­ben und so auch off­line genieß­bar machen. Das die­se Programme nicht sel­ten Unmengen von 404 Fehlern in den Serverlogs hin­ter­las­sen und jede Menge Traffic erzeu­gen, möch­te man sie manch­mal lie­ber drau­ßen wis­sen.

Mit Hilfe der .htac­cess Datei kann so man­ches ver­hin­dert wer­den, was anders nicht oder nur mit erheb­li­chem Aufwand zu errei­chen ist. Allerdings erlaubt nicht jeder Provider den Einsatz der .htac­cess Datei oder schränkt deren Funktionalität ein. Hier heißt es: Ausprobieren oder den Provider fra­gen.

Kein Zugriff auf die­se Website
Möchte man ver­mei­den, dass Download-Programme auf die eige­ne Website zugrei­fen, erreicht man das mit einer “RewriteEngine”:

  RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^ClientXYZ.* RewriteRule
    ^/.* - [forbidden] 

Screenshot

Dieser Offline-Browser soll drau­ßen blei­ben

Noch mehr aus­sper­ren
Es ist durch­aus mög­lich, meh­re­re Clients gleich­zei­tig aus­zu­sper­ren. Für jeden die­ser Clients ist dann aller­dings eine eige­ne “RewriteCond” Anweisung nötig, die mit einem logi­schen “ODER” ver­knüpft wird.

       RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^ClientABC.* [OR] RewriteCond
    %{HTTP_USER_AGENT} ^ClientXYZ.* RewriteRule ^/.* - [forbidden] 

Screenshot

Der “Webkopierer” hat hier auch nichts ver­lo­ren

Du kommst hier nicht rein
Noch einen Schritt wei­ter geht man, wenn Clienten, die einer bestimm­ten Domain ent­stam­men, aus­ge­sperrt wer­den sol­len.

       RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^ClientABC.* [OR] RewriteCond
    %{HTTP_USER_AGENT} ^ClientXYZ.* RewriteCon %{REMOTE_HOST} ^www\.bestimmtedomain\.tld$
    [NC] RewriteRule ^/.* - [forbidden] 

Screenshot

Auch Getleft soll kei­nen Traffic ver­ur­sa­chen

Umleitung für unge­wünsch­te Gäste
Anstatt den Zugriff zu ver­bie­ten, lässt sich auch eine Umleitung ein­rich­ten.

       RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^ClientABC.* [OR] RewriteCond
    %{HTTP_USER_AGENT} ^ClientXYZ.* RewriteCond %{REMOTE_HOST} ^www\.bestimmtedomain\.tld$
    [NC] RewriteRule ^/index\.html$ /keinzutritt.html [R,L] 

Screenshot

Das “Web” darf woan­ders her­un­ter gela­den wer­den

Beispiel .htac­cess
Der HTTP_USER_AGENT des zu sper­ren­den Clients muss bekannt sein, um die­sen Trick nut­zen zu kön­nen. Eine Liste sol­cher USER_AGENTS fin­det man bei Psychedelix.

So könn­te der Inhalt der .htac­cess aus­se­hen:

       RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^WebCopy.* [OR] RewriteCond
    %{HTTP_USER_AGENT} ^Teleport.* [OR] RewriteCond %{HTTP_USER_AGENT} ^WebFetcher.*
    [OR] RewriteCond %{HTTP_USER_AGENT} ^WebStripper.* [OR] RewriteCond %{HTTP_USER_AGENT}
    ^Wget.* [OR] RewriteCond %{HTTP_USER_AGENT} ^WebMirror.* [OR] RewriteCond
    %{HTTP_USER_AGENT} ^fetch.* RewriteRule ^/.* - [forbidden] 

Screenshot
Anti-Weazel mit .htac­cess

100% sicher ist man so zwar nicht, da vie­le Seitensauger in der Lage sind, sich zu tar­nen. Sie ver­än­dern ein­fach die Angabe USER_AGENT. Ungetarnte aber blei­ben drau­ßen.

Erstveröffentlichung 22.2.2005

Dirk Metzmacher

Dirk Metzmacher

Dirk Metzmacher ist der Herausgegeber des Photoshop-Weblogs, sowie Fachjournalist und Photoshop-Profi, dessen Tutorials seit über 12 Jahren Leser von Fachpublikationen wie Galileo Press, DigitalPhoto, Dr.Web, Print24, PSD-Tutorials oder Noupe von den Grundlagen zum Thema Photoshop bis hin zu professionellen Arbeitsweisen begleitet haben. Sein Twitter-Account und seine Facebookseite.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.