Google hat gerade Tausende von Fehlern für doppelten Inhalt auf meinem Link-Tracker, den ich verwende, ausgelöst.Robots.txt Verwendung
Ich möchte es so machen Google & andere Suchmaschinen nicht meine Seiten auf dem Link-Tracker besuchen.
Ich möchte diese Seiten diese Roboter nicht zulassen, meine Seiten sind:
http://www.site.com/page1.html
http://www.site.com/page2.html
Wie würde ich meine robots.txt schreiben alle Roboter machen nicht diese Links besuchen, wenn sie in meine Seite sind?
Du scheint ein netter Kerl diesen Meta-Tag vergeben! – Latox