其实和某种上网方式有关。
我相信不少人都用着 SwitchyOmega 这个插件。
受迫于 Windows 上 OneDrive 这些微软自家的东西都只能用 Windows 系统代理设置,我不得不折腾一个 PAC 文件放 Nginx 上。
于是我把 SwitchyOmega 的某土啬列表导出成 PAC 文件。顺手用文本编辑器打开一看:
我的乖乖,3200 行正则
if (/AABBCC/.test(host)) return "+proxy";
还有 3600 行indexOf
if (scheme === "http" && url.indexOf("CCDDEE") >= 0) return "+proxy";
每一个请求都要这样匹配这么多正则,效率很低啊。 (没有打算解决这个问题,就是给大家贴出来,图一乐)
1
Cbdy 2019-12-29 18:29:07 +08:00 via Android
把正则维护到数据库,然后做一个管理页面
|
2
AzadCypress 2019-12-29 19:23:47 +08:00 via Android 1
某 list 维护的是 Adblock plus 的规则列表
adb 使用的详细算法在 https://adblockplus.org/blog/investigating-filter-matching-algorithms |
3
iamwho 2019-12-29 19:27:10 +08:00
gfwlist2pac
|
4
Buges 2019-12-29 19:45:21 +08:00 via Android
为什么要搞这么复杂?简单的一个大陆白名单就可以解决大多数分流问题了。
|
5
vigack 2019-12-29 19:51:55 +08:00
现在都流行答非所问吗。
最简单的优化应该是加缓存层吧? |
6
hahasong 2019-12-29 20:01:27 +08:00 via iPhone
3200 行正则有什么问题吗,快的很
|
7
AzadCypress 2019-12-29 20:05:50 +08:00 via Android
@AzadCypress
补充说明一下,大概就是对于一个正则表达式,里面会有连续的字符串,取出第一个长度为 N 的子字符串,计算 hash 放作为 key 存入 hasmap。如果没有长度为 N 子串的话放入另一个列表等待遍历。 对于目标网址,使用 rabin-karp 算法里计算 hash 的部分可以快速计算出其所有长度为 N 的字串的 hash,使用这个 hash 去 hashmap 中查找,找到同 hash 的就进行正则匹配,匹配不上没找到就遍历此前的另一个列表,再没找到就是没有。 |
8
love 2019-12-29 20:24:16 +08:00
其实不要用那个公共列表就行,那是把全部被墙网站都列了,而实际上你 99%用不到。自己维护一个列表就行。
|
9
lookas2001 2019-12-29 20:24:41 +08:00 via Android
如果 js 引擎实现到位的话,这些正则应该是可以线性时间(或乘一个系数)内处理完的,所以应该不会特别慢
|
10
Guaidaodl 2019-12-29 21:56:11 +08:00
我觉得理论上最好的方法是把所有的正则合成一个, 然后编译出一个状态机.但是这样这个正则就没有人可以维护了....
|
11
Guaidaodl 2019-12-29 21:56:46 +08:00
所有还是缓存一下匹配的结果就好了...
|
12
dyllen 2019-12-30 08:40:00 +08:00
老哥,不需要放 nginx 呀,用 file:///path/abc.pac 指定 pac 文件就行了呀。我在 linux 下面就是这样干的。
|
14
zgray 2019-12-30 09:40:17 +08:00
可能你需要升级下工具了,有个和 V2EX 的工具名字很像的你值得拥有。
|