scrapy de sortie du script en json
Je suis en cours d'exécution scrapy
dans un script python
def setup_crawler(domain):
dispatcher.connect(stop_reactor, signal=signals.spider_closed)
spider = ArgosSpider(domain=domain)
settings = get_project_settings()
crawler = Crawler(settings)
crawler.configure()
crawler.crawl(spider)
crawler.start()
reactor.run()
il s'exécute avec succès et s'arrête, mais où est le résultat ? Je veux le résultat au format json, comment puis-je le faire?
result = responseInJSON
comme nous le faisons à l'aide de la commande
scrapy crawl argos -o result.json -t json
OriginalL'auteur Wasif Khalil | 2014-05-09
Vous devez vous connecter pour publier un commentaire.
Vous devez définir
FEED_FORMAT
etFEED_URI
manuellement les paramètres:Si vous voulez obtenir les résultats dans une variable, vous pouvez définir un
Pipeline
classe de recueillir des éléments dans la liste. Utiliser lespider_closed
gestionnaire de signal pour voir les résultats:Pour info, regardez comment Scrapy analyse les arguments de ligne de commande.
Voir aussi: La capture de la sortie standard stdout dans le même processus en Python.
J'ai mis à jour la réponse, lui donner un essai.
superrrr!!! juste ce que je wantedddd thanksss!!
u peut me dire comment puis-je exécuter plusieurs araignées de 1 script???
OriginalL'auteur alecxe
J'ai réussi à le faire fonctionner simplement en ajoutant le
FEED_FORMAT
etFEED_URI
à laCrawlerProcess
constructeur, à l'aide de la base de Scrapy API tutorial code comme suit:OriginalL'auteur Alvaro Cavalcanti
Facile!
Mettre ce script dans lequel vous mettez
scrapy.cfg
OriginalL'auteur Aminah Nuraini