1赞

65回答

13收藏

Scrapy 多个爬虫 顺序启动 和 间歇式启动

回答|共 65 个

unknown138

发表于 2020-3-19 12:59:18 | 显示全部楼层

111
回复

使用道具 举报

ace

发表于 2020-3-20 10:17:24 | 显示全部楼层

我康康
回复

使用道具 举报

战神洞洞妖

发表于 2020-3-20 18:50:22 | 显示全部楼层

可以一次跑所有爬虫呀,写个方法就完事啦,不香吗?
from scrapy.utils.project import get_project_settings
from scrapy.crawler import CrawlerProcess

def run_all_spiders(self):
     settings = get_project_settings()
     process = CrawlerProcess(settings)

     for spider_name in process.spider_loader.list():
         # 不想跑的爬虫,这里加个条件,根据spider_name过滤下即可
         print(spider_name)
         process.crawl(spider_name)
     process.start()
回复

使用道具 举报

Jayden

发表于 2020-3-21 17:23:02 | 显示全部楼层

康康
回复

使用道具 举报

kirinshy

发表于 2020-3-24 11:22:23 | 显示全部楼层

学习学习
回复

使用道具 举报

bridge

发表于 2020-3-24 11:54:57 | 显示全部楼层

1
回复

使用道具 举报

bridge

发表于 2020-3-24 11:55:18 | 显示全部楼层

dd
回复

使用道具 举报

wwwchentan

发表于 2020-4-1 09:50:42 | 显示全部楼层

看看隐藏内容是啥
回复

使用道具 举报

Eamonn

发表于 2020-4-15 21:05:35 | 显示全部楼层

看看隐藏内容是啥
回复

使用道具 举报

Eamonn

发表于 2020-4-15 21:05:56 | 显示全部楼层

学习了
回复

使用道具 举报