1赞

65回答

13收藏

Scrapy 多个爬虫 顺序启动 和 间歇式启动

回答|共 65 个

hqs19930

发表于 2020-11-5 15:56:29 | 显示全部楼层

6666
回复

使用道具 举报

night_spider

发表于 2020-11-23 18:09:31 | 显示全部楼层

666
回复

使用道具 举报

night_spider

发表于 2020-11-23 18:09:45 | 显示全部楼层

666
回复

使用道具 举报

pkz

发表于 2021-3-25 15:04:59 | 显示全部楼层

学习下知识,大佬牛逼
回复

使用道具 举报

lol_olo

发表于 2021-3-26 10:33:34 | 显示全部楼层

看看?
回复

使用道具 举报

yikuhasaki

发表于 2021-3-28 21:05:44 | 显示全部楼层

不愧是你
回复

使用道具 举报

jony

发表于 2021-4-6 17:02:24 | 显示全部楼层

111
回复

使用道具 举报

chen

发表于 2021-4-7 11:48:33 | 显示全部楼层

6666
回复

使用道具 举报

qwertyuiop1822

发表于 2021-4-8 18:12:32 | 显示全部楼层

from twisted.internet import reactor, defer
from scrapy.crawler import CrawlerRunner
from scrapy.utils.log import configure_logging
class MySpider1(scrapy.Spider):
    # Your first spider definition
    ...
class MySpider2(scrapy.Spider):
    # Your second spider definition
    ...
configure_logging()
runner = CrawlerRunner()
@defer.inlineCallbacks
def crawl():
    yield runner.crawl(MySpider1)
    yield runner.crawl(MySpider2)
    reactor.stop()
crawl()
reactor.run()
https://blog.csdn.net/Qwertyuiop2016/article/details/105629980
回复

使用道具 举报

triangle

发表于 2021-4-26 10:58:45 | 显示全部楼层

kk
回复

使用道具 举报