不考虑 nginx,Django 如何从程序中识别爬虫或搜索引擎,现在是
user_agent = request.META.get('HTTP_USER_AGENT')
spider = ['bot','Bot','spider','Spider']
for s in spider:
if s in user_agent:
return 'spider'
不知道有没有更高效的方法?
1
virusdefender 2016-12-04 18:37:16 +08:00 via iPhone
如果只是说 ua 的话,用正则会好一点点
|
2
ranleng 2016-12-04 18:54:43 +08:00 via Android 2
放个隐藏的 URL 爬到了就是 爬不到就是人
|
4
pc10201 2016-12-05 09:25:19 +08:00
看过一个方法,网页上创建一个空的 css 文件,然后加载了这个 css 的就是正常的浏览器,没有加载的就是爬虫,然后封 IP~
|
5
supersu 2016-12-05 11:32:19 +08:00
楼上几位的思路可以的,厉害
|
6
yanzixuan 2016-12-05 11:58:39 +08:00
@yangxg 算是比较叫常用的招数。
如果主页给个 token ,访问其他页面要带着 token 。 给访问次数和频率加以限制。 内容藏加载的 JS 里面,当然这主要是为了解决跨域,但是对爬虫也有点效果。 ajax 需要带制定的随机参数,这个参数的生成可以由 cookie 里的字段和其他东西+js 来生成。 防止别人爬是防不了的,你要防的是别人大规模的爬你的数据。 |
7
hugo775128583 2016-12-05 12:06:23 +08:00
用 platformJS 或者 selenium 的爬虫怎么破
|
8
yanzixuan 2016-12-05 15:25:23 +08:00
@hugo775128583 你要相信,用 phatomjs 和 selenium 的爬虫,规模跟并发是无法于纯 python 比的。
|
9
Yc1992 2016-12-05 15:34:32 +08:00
用 js 操作 cookie 和 token ,欺负欺负纯 python 的静态页面爬虫。
|
11
honmaple OP @virusdefender 嗯,现在已改成正则
|
12
honmaple OP 我只想简单的判断一下爬虫与非爬虫,但 get 到很多技能,Thank you
|