Derzeit mein robots.txt
werden folgendeRobots.txt Spezifische Ausschlüsse
#Sitemaps
Sitemap: http://www.baopals.com.com/sitemap.xml
#Disallow select URLs
User-agent: *
Disallow: /admin/
Disallow: /products/
Meine Produkte haben eine Menge doppelter Inhalte, wie ich über Daten aus taobao.com ziehen und automatisch übersetze sie in einer Menge von doppelten resultierenden und niedrig Qualitätsnamen, weshalb ich die ganze Sache einfach ablehne. Allerdings ändere ich manuell die Titel bestimmter Produkte und speichere sie erneut in der Datenbank und präsentiere sie auf der Homepage mit den richtigen Übersetzungen. Sie werden nur noch in /products/
gespeichert und sind für immer verloren, wenn ich sie von der Homepage entferne.
Ich frage mich, ob es möglich wäre, die Produkte, die ich auf der Homepage mit den aktualisierten Übersetzungen speichern, immer noch von Google indiziert werden oder bin ich gezwungen, das Verzeichnis der manuell aktualisierten Produkte zu ändern?
Ich stimme ab, diese Frage als Off-Thema zu schließen, weil es um SEO geht –
@JohnConde Ich stimme nicht zu, ich frage mich programmatisch, wenn es möglich ist, diese Produkte zu indizieren, ohne meine Dateistruktur zu ändern. Das Seo-Tag scheint relevant zu sein – NooBskie