Scrapy执行流程: 1)cmdline.execute("scrapy crawl xxx -o yyy.csv -t csv".split()) 执行爬虫xxx,结果保存在yyy.csv 2)执行cmdline.py中execute def execute(argv=None, settings=None): 3)执行project.py中get_project_settings def get_project_settings(): 4)执行到cmd.crawler_process = CrawlerProcess(settings)
Scrapy执行过程
猜你喜欢
转载自my.oschina.net/u/2517253/blog/1810019
今日推荐
周排行