在使用 scrapy 框架编写爬虫时, 可以同时编写多个爬虫,运行时只需要输入相对应的爬虫名即可运行该爬虫而不会影响到去他的爬虫,请问这是如何实现的,在哪里可以看相关文档呢
1
nicevar 2018-10-26 10:43:44 +08:00
直接点就看源码,看不懂就用搜索引擎,有很多人写过相关文章
|
2
zcsnbb OP @nicevar 源码的话没有找到怎么去实现的,搜索的结果大多都是怎么使用 scrapy 去创建爬虫,并没有对框架的具体的解读,
|
3
sunwei0325 2018-10-26 11:21:10 +08:00
twisted 实现的
|
4
zcsnbb OP @sunwei0325 您好 能具体说一下吗,或者说哪里有相关的文档或者参考资料呢,twisted 不是一个异步网络框架吗,不是为了提升爬取速度的吗,十分感谢
|
5
binux 2018-10-26 11:26:51 +08:00
你为什么会觉得会影响到“去他的爬虫”?
|
7
owenliang 2018-10-26 11:55:42 +08:00 2
读 scrapy.cfg 的 settings 可以找到 settings.py ,动态__import__给 load 起来,读里面的 SPIDER_MODULES 找到爬虫 spiders 包。
在这个包里每个.py 文件都是一个 module,可以动态__import__给 load 起来,找到 module 里继承了 scrapy.spiders.Spider 的 class,看一下这个 class 的__dict__['name']叫什么,是不是你启动传的那个。 没啥东西,就是动态__import__ module 啊,目录遍历啊,__dict__动态访问对象属性啊。 |