Wir haben Multi-Site-Lösung in Sitecore-Projekt implementiert. Wir haben robots.txt unter dem Stammverzeichnis der Website platziert, um das Crawlen für ein bestimmtes Verzeichnis auf dem Produktionsserver zu verhindern.Wie zu vermeiden, Suchmaschine Crawling für bestimmte Website in Sitecore Multi-Site-Umgebung
Jetzt werden wir eine weitere Website beta.example.com
auf Produktionsserver für hosten, aber wir wollen Crawlen für diese Sub-Domäne zu vermeiden.
Wie können wir erreichen, weil es Multi-Site-Umgebung ist und es nur eine robots.txt-Datei gibt. Wie können wir diesen Crawling-Mechanismus für bestimmte Websites spezifisch machen?
Müssen wir irgendeinen Pipeline-Mechanismus dafür schreiben?
Dank