python爬虫框架scrapy一次执行多个爬虫文件

在scrapy工程,和spider文件夹同一目录下,创建一个.py文件

import os
os.system("scrapy crawl 爬虫1")
os.system("scrapy crawl 爬虫2")
 
 
可以写多个。这样就能按顺序执行。

猜你喜欢

转载自blog.csdn.net/xuqimm/article/details/77991966