生产环境遇到一个问题,目前还没太确定业务的布置方式,有可能是若干台物理机器布置镜像,也有可能是同一台机器上布置若干个节点。不过目前基本能确定是日志都写入到同一个文件当中(比如在同一台机器上部署的话,可能是多个进程的镜像写入到同一个标准输出流然后重定向到某个文件,按照 linux 的 IO 处理方式这样似乎是不会产生冲突错误的。)
想要请教一下各位有没有什么合适的第三方工具可以对这种日志进行切割,比如每周切割一次,默认保留三个月的日志这种需求。因为业务节点可能分散在多个进程或者多个机器上,我觉得在业务节点维护日志滚动应该是不太对,因为进程间会互相冲突。最好是有一个第三方工具,能滚动文件,然后把业务节点的输出流再重新接入滚动后的新文件这种感觉?请问有类似工具吗?
1
tomari 2021-06-17 03:12:54 +08:00 via iPhone
丢给实习生写个脚本。。
|
2
huangzxx 2021-06-17 03:32:21 +08:00 2
logrotate
|
3
5xX4U5sUwdELgdQ3 2021-06-17 09:22:32 +08:00
python 的 logging 库,里面有个类 TimedRotatingFileHandler,应该可以满足你的需求
|
4
Illusionary 2021-06-17 09:28:56 +08:00
ELK 不够用?
|
5
aitaii 2021-06-17 10:21:34 +08:00
logrotate 很适合你的需求
|
6
jjpprrrr 2021-06-17 10:26:39 +08:00
大多数 linux 发行版都是用 logrotate 解决这个问题的吧,而且对常见的应用也设置了一些默认配置,可以参考着写一个配置
|
7
css3 2021-06-17 12:02:09 +08:00
lnav
|