in ähnlicher Weise auf diese Frage: stackoverflow: running-multiple-spiders-in-scrapyGebäude scrapy Spinnen in mein eigenes Programm, ich will nicht scrapy von der Kommandozeile aufrufen)
Ich frage mich, kann ich eine ganze scrapy Projekt von innen laufen ein anderes Python-Programm? Sagen wir einfach, ich wollte ein ganzes Programm erstellen, das mehrere verschiedene Seiten scrapen musste, und ich erstelle ganze Scrapy-Projekte für jede Site.
statt von der Befehlszeile als eine der laufen, möchte ich diese Spinnen laufen und die Informationen von ihnen erwerben.
Ich kann mongoDB in Python ok verwenden, und ich kann bereits Scrapy-Projekte erstellen, die Spider enthalten, aber jetzt alles in eine Anwendung zusammenfassen.
Ich möchte einmal die Anwendung auszuführen, und haben die Möglichkeit, mehrere Spinnen von meinem eigenen Programm zu steuern
Warum dies tun? Nun, diese Anwendung kann auch eine Verbindung zu anderen Sites über eine API herstellen und Ergebnisse in Echtzeit von der API-Site mit der Scraped-Site vergleichen. Ich möchte nicht immer Scrapy von der Kommandozeile aus aufrufen müssen, alles soll eigenständig sein.
(Ich habe viele Fragen zu stellen, um vor kurzem Schaben, weil ich die richtige Lösung zu finden versuchen zu bauen in)
Thanks :)