Ich habe Verbindungen mit dieser Struktur:robots.txt: Bots Verbieten eine gegebene "url Tiefe" für den Zugriff auf
- http://www.example.com/tags/blah
- http://www.example.com/tags/blubb
- http://www.example.com/tags/blah/blubb (für alle Artikel, die sowohl Tags entsprechen)
ich google will & co alle Links Spinne, die einen Tag in der URL hat, aber nicht die URLs, die zwei oder mehr Tags haben.
Derzeit verwende ich den HTML-Meta-Tag "robots" -> "noindex, nofollow" das Problem zu lösen.
Gibt es eine robots.txt Lösung (die zumindest für einige Suchmaschinen funktioniert) oder muss ich mit "noindex, nofollow" fortfahren und mit dem zusätzlichen Traffic leben?
Verbieten Zugang würde in irgendeiner Art von HTTP-Fehler. Ich bin mir nicht sicher, wie Google auf Seiten mit vielen "Serverfehlern" reagiert. Nicht sehr enthusiastisch zum ausprobieren :) – BlaM
Müsste nicht - du könntest etwas billige statische "Nichts zu sehen hier" -Seite servieren. – MarkusQ
Das stimmt. Wäre zumindest besser, als die ganze Seite zu bedienen. – BlaM