Ich habe eine Website mit ASP.NET-Webseiten erstellt (nicht MVC, nicht Webformulare).Die Standardseite gibt 404 nur zurück, wenn ich den Suchbot-Benutzeragenten verwende
Wenn ich in einem Browser auf die Standardseite von mydomain.com zugreife, wird die Standardseite (index.cshtml) angezeigt. Suchmaschinen sehen jedoch eine 404-Seite und wenn ich meinen User-Agent zu Googlebot oder Bingbot ändere, erhalte ich auch einen 404-Fehler.
Dies betrifft nur die Standardseite - wenn ich mydomain.com/index.cshtml verwende, bekomme ich die 404-Seite nicht.
In meinem Code gibt es keine Benutzeragent-Erkennung.
Ich habe die Header beobachtet und es gibt keine Umleitungen, nur eine sofortige 404-Antwort nur bei Verwendung eines Bot User Agent.
Gibt es eine integrierte Erkennung von Benutzeragenten, die sich auf Standardseiten in ASP.NET-Webseiten auswirkt? Oder könnte meine Hosting-Firma etwas machen (Arvixe)?
Ich kann Code hinzufügen, wenn es hilft (aber nicht sicher, welchen Code ich hinzufügen würde), oder einen Link auf die Website.
scheint wie Ihr Webserver den Zugriff blockiert –
Es passiert nur für die Standardseite (/) - alle anderen Seiten (/ xyz, /abc.cshtml) funktionieren alle gut). – johna