2009-06-08 5 views
2

Ich möchte, dass meine Sharepoint-Site einem Benutzer ermöglicht, Inhalt in einer bekannten Sammlung von RSS-Feeds zu suchen. Ich meine, ein paar Möglichkeiten, wie konzeptionell diesesSharepoint-Suche von externen RSS-Feeds

  • kriechen die Feeds an ihrer Quelle zu tun (Huch!)
  • Ziehen Sie den vollständigen Artikel in meine Sharepoint-Website, dann meine Crawler kriechen lassen
  • Nutzen Sie ein bestehende Index (wie google)
  • den vollständigen Artikel suchen, auf Nachfrage, so etwas wie ein google-Dienstprogramm (meine Vorliebe)

So verwendet, kann ich irgendwie von meiner Sharepoint-Website, einem Benutzer erlauben, die volle zu suchen Artikel von a paar Dutzend, genannt, RSS-Feeds

dank

Cary

Antwort

1

Ich sehe nicht, warum ein Problem gibt es die RSS-Feeds an ihrer Quelle mit kriecht? Das scheint vernünftig zu sein.

Es ist ziemlich einfach, eine Inhaltsquelle zu erstellen, die auf den Feed verweist und den richtigen Indizierungsplan auswählt. Wenn das nicht funktioniert, können Sie einen komplizierteren Ansatz versuchen.

Beachten Sie, dass das Kopieren des Inhalts einer anderen Website auf eigene Faust urheberrechtliche Implikationen haben könnte (nicht zu erwähnen ist das Risiko, dass entzündliche Inhalte auf Ihrer eigenen Website veröffentlicht werden).

--update--

versuchen, die Zielstellen liest robots.txt zu sehen, ob (es selbst einen hat) er eine gewünschte Frequenz aufweist. Ansonsten hängt es von der Tiefe der Website ab, die Sie durchsuchen würden.

Wenn Sie nur die RSS-Feed-XML kriechen, vermute ich, Sie könnten das jede Stunde tun, ohne jemanden zu ärgern. Andernfalls, wenn Sie in jeden Artikel greifen, möchten Sie vielleicht begrenzen. Es hängt wirklich sehr von einer Beziehung ab, die Sie mit der Zielseite und dem Typ der Website haben, die Sie treffen.

Kasse this article für ein wenig mehr Informationen darüber, wie Sharepoint beschäftigt sich mit robots.txt

von

+0

Danke Nat, in Bezug auf Crawlen der Feeds - ich dachte an die Auswirkungen auf die Leistung der Ziel-Website. offensichtlich tun es große Suchmaschinen, aber meine Website ist keine große Suchmaschine. Ist diese Art von Verhalten verpönt? Ich habe auch nicht ernsthaft in Betracht gezogen, Inhalte herunterzuladen, obwohl mein Klient das vorgeschlagen hat. aber du bringst zusätzliche gute Gründe nicht dazu - also danke. –

+0

Wie oft hast du an Crawlen gedacht? – Nat

+0

Danke nochmal Nat. Ich habe deine Bearbeitung letzte Woche gesehen, aber bis jetzt habe ich diese Frage nicht gesehen. Das Crawlen externer Sites einmal am Tag wäre mehr als gut genug. –

0

Die (MW die Zielstelle nicht die Artikel ins Netz gestellt hat, damit niemand sie lesen würde) Der Box-Crawler respektiert die Datei robots.txt, und es gibt Bestimmungen für Crawler-Auswirkungsregeln, die die Wahrscheinlichkeit verringern, dass SharePoint auf der externen Site einen Angriff ausführt.