2009-03-25 16 views
3

Ich habe Verbindungen mit dieser Struktur:robots.txt: Bots Verbieten eine gegebene "url Tiefe" für den Zugriff auf

ich google will & co alle Links Spinne, die einen Tag in der URL hat, aber nicht die URLs, die zwei oder mehr Tags haben.

Derzeit verwende ich den HTML-Meta-Tag "robots" -> "noindex, nofollow" das Problem zu lösen.

Gibt es eine robots.txt Lösung (die zumindest für einige Suchmaschinen funktioniert) oder muss ich mit "noindex, nofollow" fortfahren und mit dem zusätzlichen Traffic leben?

Antwort

1

Ich glaube nicht, dass Sie es robots.txt tun können. The standard ist ziemlich eng (keine Wildcards, muss auf der obersten Ebene sein, etc.).

Was ist mit ihnen disallowing basierend auf User-Agent in Ihrem Server?

+0

Verbieten Zugang würde in irgendeiner Art von HTTP-Fehler. Ich bin mir nicht sicher, wie Google auf Seiten mit vielen "Serverfehlern" reagiert. Nicht sehr enthusiastisch zum ausprobieren :) – BlaM

+0

Müsste nicht - du könntest etwas billige statische "Nichts zu sehen hier" -Seite servieren. – MarkusQ

+0

Das stimmt. Wäre zumindest besser, als die ganze Seite zu bedienen. – BlaM