2012-03-30 18 views
0

Ich habe eine Entwicklung 'Umgebung' unter einem virtuellen Host auf einem Apache-Server.
Ich würde diesen virtuellen Host und alle Unterverzeichnisse für die Indexierung durch Suchmaschinen blockieren.Stoppen Roboter auf allen auf einem VirtualHost und allen seinen Unterverzeichnissen

Ich habe diesen Code (den ich aus einer anderen Frage hier gezogen habe) aber seine Frage war für den ganzen Server, ich möchte nur irgendwann bestätigen, dass das funktioniert, und dass es nur nur den vhost und betrifft seine subdirs (ich will nicht den ganzen Server betroffen)

<VirtualHost *:80> 
    ServerName d.domain.co.uk 
    ServerAlias www.d.domain.co.uk 
    DocumentRoot /var/www/html/d.domain.co.uk 

    # Block all robots on all subdirs 
    <Location "robots.txt"> 
    SetHandler None 
    </Location> 
    Alias /robots.txt /var/www/html/d.domain.co.uk/robots.txt 
</VirtualHost> 

Grüße, Matt

Antwort

0

Ja, es wird nur dieses vHost beeinflussen, da Ihre <Location> und Alias Richtlinien in Ihrer vhost Erklärung festgelegt werden.

Wie dem auch sei, es ist zu Test einfach: Zugriff /robots.txt nur auf einem anderen vhost und prüfen, ob ihr Inhalt die reale Datei übereinstimmt oder wenn es das gleiche wie /var/www/html/d.domain.co.uk/robots.txt