nach mehreren Monaten, die Website aus den Suchergebnissen in jeder großen Suchmaschine verschwinden, fand ich endlich einen möglichen Grund.HEAD-Anfrage erhält "403 verboten", während GET "200 ok"?
Ich verwendete WebBug, um Server-Header zu untersuchen. Sehen Sie den Unterschied, wenn die Anfrage HEAD oder GET lautet.
HEAD Gesendete Daten:
HEAD/HTTP/1.1
Host: www.attu.it
Connection: close
Accept: */*
User-Agent: WebBug/5.0
HEAD Empfangene Daten:
HTTP/1.1 403 Forbidden
Date: Tue, 10 Aug 2010 23:01:00 GMT
Server: Apache/2.2
Connection: close
Content-Type: text/html; charset=iso-8859-1
GET Gesendete Daten:
GET/HTTP/1.1
Host: www.attu.it
Connection: close
Accept: */*
User-Agent: WebBug/5.0
Empfangene Daten GET:
HTTP/1.1 200 OK
Date: Tue, 10 Aug 2010 23:06:15 GMT
Server: Apache/2.2
Last-Modified: Fri, 08 Jan 2010 08:58:01 GMT
ETag: "671f91b-2d2-47ca362815840"
Accept-Ranges: bytes
Content-Length: 722
Connection: close
Content-Type: text/html
// HTML code here
Jetzt Browsern standardmäßig eine GET-Anfrage senden (zumindest ist es das, was Firebug sagt). Ist es möglich, dass Crawler stattdessen eine HEAD-Anfrage senden? Wenn ja, warum antwortet nur dieser Server mit einem 403, während andere Server von anderen Seiten, die ich behalte, nicht funktionieren?
Falls es wichtig ist, ist die einzige Linie, die in .htaccess (es sei denn, mein Kunde änderte es, als sie mich in ihren Server-Zugriff nicht geben wollen)
AddType text/x-component .htc
UPDATE
Danke @Ryk. FireBug und Fiddler senden beide GET-Anfragen, die 200 (oder 300) Antworten erhalten. Wie erwartet. Also denke ich, es ist entweder eine schlechte Servereinstellung (obwohl es seltsam ist, da das Hosting von einem großen Unternehmen mit Millionen von Clients stammt) oder etwas, das sie in den .htaccess legen. Sie werden mich in ihren Account schauen lassen müssen.
Der zweite Teil meiner Frage war, wenn das die Ursache der Website sein könnte, die in keiner Suchmaschine erscheint (site: www.attu.it gibt keine Ergebnisse). Jeder Gedanke?
UPDATE 2
Nach einigen Hantieren stellt sich heraus, da die phpMyAdmin Roboter-Blockierung war .htaccess im Stammverzeichnis, das jede Anforderung von Robotern verursacht mit einer 403
Es ist ein Fehler mit dem Server, der Client will es behoben, sollten sie Ihnen zumindest einige Zugriffe geben. Fragen Sie sie zumindest, ob sie eine Kopie des aktuellen .htaccess sehen könnten. –