Ich habe eine Seite mit dem folgende robots.txt im Stamm:Goobbots Ignorieren von robots.txt?
User-agent: *
Disabled:/
User-agent: Googlebot
Disabled:/
User-agent: Googlebot-Image
Disallow:/
und Seiten auf dieser Site werden immer von Googlebots den ganzen Tag gescannt. Stimmt etwas nicht mit meiner Datei oder mit Google?
Aaargh, ich bin ein Idiot. Vielen Dank. –