V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  lenmore  ›  全部回复第 1 页 / 共 8 页
回复总数  144
1  2  3  4  5  6  7  8  
5 天前
回复了 bthulu 创建的主题 程序员 有什么数据库扛断电能力最强吗?
在不增加硬件的情况下似乎无解,硬盘挂掉迟早的事。。记得做好备份。

那么,有没有可能把这个服务部署到云上或者你们自己得机房?
买了 unraid 正版,我认为 unraid 的存储模式是最适合家用的。
如果只查询 “是”,大胆的建索引吧,效率非常高。查询“否”,配合其他字段建组合索引,效率同样杠杠的。我们上亿的表都这么干,一点问题没有。
囤了两个米动 1S 手表
如果大小不一的盘组逻辑盘,我理解你用的只是 LVM 。
LVM 是可以做到数据盘热迁移的。

参考:
https://www.thegeekdiary.com/centos-rhel-how-to-migrate-storage-lvm-with-pvmove-command/
@qW7bo2FbzbC0 我是用 LVM 卷的 snapshot 做物理备份。
没必要 redis 。几千万数据,建好索引,MySQL 没有任何问题。
292 天前
回复了 msmmbl 创建的主题 问与答 mongo 自建高可用,一定是 3 台服务器起步吗
推荐 3 个节点
但是预算实在紧张,可以考虑 1 主 1 从 + 1 个 Arbiter ,参考: https://www.mongodb.com/docs/manual/core/replica-set-arbiter/
316 天前
回复了 afeiche 创建的主题 数据库 数据量较大,数据库选型问题
推荐 Oceanbase ,4.2 版本,运维能力强的就用社区版,完全够用了。
对 MySQL 协议的兼容、运维工具等都比 TiDB 好。配置要求也不恐怖,对比 TiDB 友好很多。
MySQL 可以试下这个,以前写的应付检查的……
导出成 excel ,去掉表头就行了。

SET @table_schema='test';

SELECT column_name, DATA_TYPE, COLUMN_COMMENT
FROM (
SELECT table_name, '' AS column_name, '' AS DATA_TYPE, '' AS COLUMN_COMMENT, -4 AS ORDINAL_POSITION FROM information_schema.tables WHERE table_schema=@table_schema
UNION
SELECT table_name, CONCAT('表名:', table_name) AS column_name, '' AS DATA_TYPE, '' AS COLUMN_COMMENT, -3 AS ORDINAL_POSITION FROM information_schema.tables WHERE table_schema=@table_schema
UNION
SELECT table_name, CONCAT('用途:', table_comment) AS column_name, '' AS DATA_TYPE, '' AS COLUMN_COMMENT, -2 AS ORDINAL_POSITION FROM information_schema.tables WHERE table_schema=@table_schema
UNION
SELECT table_name, '字段名' AS column_name, '字段类型' AS DATA_TYPE, '描述' AS COLUMN_COMMENT, -1 AS ORDINAL_POSITION FROM information_schema.tables WHERE table_schema=@table_schema
UNION
SELECT table_name, column_name, CONCAT(DATA_TYPE, CASE WHEN CHARACTER_MAXIMUM_LENGTH IS NOT NULL THEN CONCAT('(', CHARACTER_MAXIMUM_LENGTH, ')') WHEN NUMERIC_PRECISION IS NOT NULL THEN CONCAT('(',NUMERIC_PRECISION, CASE WHEN NUMERIC_SCALE>0 THEN CONCAT(',',NUMERIC_SCALE) ELSE '' END , ')') WHEN DATETIME_PRECISION > 0 THEN CONCAT('(', DATETIME_PRECISION, ')') ELSE '' END) AS DATA_TYPE, COLUMN_COMMENT,ORDINAL_POSITION FROM information_schema.columns WHERE table_schema=@table_schema
) AS t
ORDER BY table_name, ORDINAL_POSITION;
用 percent_rank 窗口函数,然后对 pct 分组,统计出各组的平均分。

e.g.
select floor(pct*100 /25) as grp, avg(n)
from (
select n, percent_rank() over(order by n) as pct
from public.global_number order by n
) as t
group by floor(pct*100 /25)
order by grp
2022-08-16 16:22:14 +08:00
回复了 juejinloop 创建的主题 信息安全 chrome 密码泄漏了, 才知道用 chrome 保存密码等于裸奔
谢谢楼主的提醒,已全部迁移到 KeePassXC+浏览器插件

也用 HackBrowserData 工具测试了,的确可以导出 Chrome/Edge/Firefox 的密码
Firefox 加了主密码后这个工具导不出了,
Edge 的主密码是摆设
2022-03-23 19:13:55 +08:00
回复了 dokimaster 创建的主题 Go 编程语言 现在 GO 语言面试这么难吗?
看 JD ,真不知道问这么底层做啥。

说来也惭愧啊,做了这么多年运维,从没想过 top ls 的实现原理……
2021-12-23 12:04:54 +08:00
回复了 johnsonxie83 创建的主题 MySQL 麻烦各位坛友推荐一下 MySQL 增量备份工具
1 、xtrabackup 每日全量备份
2 、mysqlbinlog 可以做准实时 binlog backup 。https://dev.mysql.com/doc/refman/5.6/en/mysqlbinlog-backup.html

注意文件都不要放本地
2021-10-21 11:40:54 +08:00
回复了 markgor 创建的主题 MySQL 请教 MYSQL 多表联查数据优化方式
价格表做点字段冗余,就不需要 join 这一堆表了。
2020-07-24 14:39:26 +08:00
回复了 goodspb 创建的主题 程序员 每一分钟写入 10 万行数据,有啥好的方案吗?
我理解这应该是定时任务触发来插入数据的,
那么可以考虑将 10w 个用户的写入作为一个或几个事务来做,也还可以合并这些 insert,比如一次插入 1w 行,这样效率就高很多了。
rust 吧,美其名曰安全
golang 也行,潮
erlang,电信级可靠……
总之,什么小众且小资怎么来……
百度云还没遇到主动删文件,但是遇到过不能下载。
所以还是自己的 NAS 靠谱。
有 SQL 执行完了,但是事务没提交。
可能是应用启了事务,但是异常退出或者在做什么耗时的从操作,一直没 commit
搭从库
用参数 replicate-do-table 或 replicate-wild-do-table 限制要同步的表
在从库把不需要的表删掉
切换时先停掉应用,断开同步,改应用的数据库 IP
1  2  3  4  5  6  7  8  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2655 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 11:05 · PVG 19:05 · LAX 03:05 · JFK 06:05
Developed with CodeLauncher
♥ Do have faith in what you're doing.