V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  lmshl  ›  全部回复第 2 页 / 共 26 页
回复总数  504
1  2  3  4  5  6  7  8  9  10 ... 26  
294 天前
回复了 lmshl 创建的主题 生活 🎉小棉袄出生, 生殖隔离已打破
@lurui45 加油💪, 我们俩已经熬过来了. 祝你顺利毕业, 人生进入下一阶段
294 天前
回复了 lmshl 创建的主题 生活 🎉小棉袄出生, 生殖隔离已打破
@ceno 在公共场合起抽象标题是我不好, 不过 v 友们针对的都是我的标题, 而不是可爱的女儿.
我这个大专生挨几句喷没什么. 同时, 这也侧面印证了我的汉语文字能力在国内是很难考上本科的, 先天没这条件.
把业务建模在类型系统上, 让编译器替你检查出大部分问题.
你要是还焦虑的话, 说明你是先天形式化验证圣体
2024-12-05 17:50:44 +08:00
回复了 rrubick 创建的主题 Android 怎么在 Java 里调用 Kotlin 的 suspend 方法
1. asCompletableFuture
https://kotlinlang.org/api/kotlinx.coroutines/kotlinx-coroutines-core/kotlinx.coroutines.future/
UI 代码里可以用, 非阻塞
2. runBlocking
https://kotlinlang.org/api/kotlinx.coroutines/kotlinx-coroutines-core/kotlinx.coroutines/run-blocking.html
非 UI 代码里可以用, 阻塞

建议都用 Kotlin 写, 没啥必要 Java/Kotlin 混写
4C8G 的生产 PG 数据库表示单表两亿行不痛不痒, 你还可以再用点力.
支撑 100+TPS 的时候瞄了一眼 CPU 占用率还不到 1 核
如果是物流追踪号这种定长且总长度不长的短字符串, 直接把每个截断前缀都做一遍索引还更简单, 也能支持精确匹配.
tracking_number[0:16]
tracking_number[1:16]
tracking_number[2:16]
tracking_number[3:16]
...
tracking_number[13:16]
都做成表达式索引, 查询的时候只需要 LIKE ‘123%’, 一样可以做的很快
@laminux29 笑死, 上网不带脑子

一亿行 pgtrgm 不做分区直接搜, 平均时间也不到 200ms, 要什么集群分片硬件硬扛?
单核 pg, 一年百十块搞定的需求, 照你的方案没个几百万硬件成本怎么玩

https://i.imgur.com/F2dUyyO.png
2024-10-14 10:36:47 +08:00
回复了 MoeMagicMango 创建的主题 程序员 小 心 任 何 二 次 接 手 的 代 码
这代码写的挺不错的啊,没看出来哪里有问题
2024-06-13 17:36:47 +08:00
回复了 wuoty 创建的主题 JavaScript 请教 JS 中有关 Promise 和回调函数的写法问题
```
import { fromEvent } from 'rxjs';

const clicks = fromEvent(img, 'onload');
clicks.subscribe(x => { <你的业务逻辑> });
```
不要自作聪明发明那些不可维护的代码,你能想得到的场景,早已有无数前辈替你趟过坑。
等你哪天觉得 “RxJS 不过如此,我还有个更好的想法” 的时候,再发明也不迟(顺便发几篇论文)
版本答案:RocksDB (与其他 leveldb family 产品)

解析:203 亿个 bloomfilter 在 p=0.01 下所需的内存空间约为 23.75GB 。实际上,去重所需的空间会少于 203 亿,所以在这个内存空间下,实际 p 值将进一步降低。

大部分人可能对 bloomfilter 的使用存在误解,他们只考虑在只有 bloomfilter 单一算法存在的前提下来解决需求,这显然是错误的。现代数据库对 bloomfilter 的应用主要是用来降低 miss key 对磁盘 IO 的影响。如果 bloomfilter 认为这个 key 没有出现过,那么这个 key 确实没有出现过。当 bloomfilter 认为它可能出现过,那么出现的概率为 1-p ,此时需要回表二次确认(磁盘 IO )。

假设一个典型的重复度为 10 倍的 200 亿数据表文件,在这个空间下,p 值会低至 1e-20 。

那么对这个文件去重,总共会发生 200 亿次内存 bloomfilter 读取,20 亿次 bloomfilter 写入+磁盘顺序写入,以及 180 亿次磁盘随机读取。(考虑到数据库对磁盘的批量写入优化,sstable/memtable 这个数值将会被巨幅降低)

假设一个重复度为 0.1 倍的 200 亿数据表文件,在这个空间下,p 值变化不大。

那么对这个文件去重,总共发生 200 亿次内存 bloomfilter 读取,180 亿次 bloomfilter 写入+磁盘顺序写入,以及 20 亿次磁盘随机读取。(同上)

根据网上其他人做的吞吐量测试,rocksdb 在现代硬件条件下可以稳定达到 10k*rows/s 以上的写入性能,或>1GB/s 的写入吞吐量。乐观地估计,6.2TB 的文件应该能在 2 小时到 2 天左右完成去重。
2024-05-26 12:32:41 +08:00
回复了 Gabrielle70 创建的主题 程序员 学一门 IT 技术: 精学和泛学哪种效率高?
我没有泛学也没有精学,我就直接开写
反正你泛学精学的目标也是最终变成自己的技能,能写得出来。
那为何不直接开始写。

学习学习,学只是一半,习是另一半。只学不习永远学不会
先把 Explain 贴上来再说
2024-04-12 18:18:32 +08:00
回复了 dsvshx 创建的主题 Java Grpc 服务优化 GC 的一个问题,请教一下大佬们
一个大部分连续的 bytes 卡住 gc ,听起来还是很离谱的,除非你给出详细测试步骤,不然很难证明你的前提是对的。
即便你前提成立,也可以简单粗暴的直接上 ZGC 来解决,不需要你重复发明任何东西。
2024-04-11 12:19:02 +08:00
回复了 nnegier 创建的主题 程序员 Java 后端有用 Kotlin 的吗?
我是精通 Scala ,同时也熟悉且写过万把行 Rust ,所以换到 Kotlin 对我来说算是能力上封印了。
至于论坛里没写过几行 coroutine 的开发来说,对鞋城和虚拟县城的理解不一定强于前端仔( async/await ),现在谈 VT 取代 coroutine 有点言之过早
2024-04-11 12:15:36 +08:00
回复了 nnegier 创建的主题 程序员 Java 后端有用 Kotlin 的吗?
最近一个后端项目:ktor + kotlinx + flow api + coroutine + context receivers + arrow.kt
JDK 21 开 Generational ZGC 和 Virtual Thread (作为 coroutine 的 blocking dispatcher )
我算啥成分?
2024-04-03 17:35:15 +08:00
回复了 hepin1989 创建的主题 Java 大家用上了 ZGC 了吗?
上生产了,童叟无欺
```
env:
- name: JAVA_OPTS
value: "-Dconfig.file=/app/application.conf -XX:+UseZGC -XX:+ZGenerational"
```
2024-04-01 16:52:46 +08:00
回复了 linuxsuren 创建的主题 程序员 你现在能做几个标准的引体向上
最多的时候负重 5kg 做 10 个(电脑包+mbp 以及其他杂物,差不多 5kg 左右)
负重 15kg 做不到 4 个
https://v2ex.com/t/1022551
《每天 1 块钱,1 分钟,彻底治好了我的腰肌劳损和肩关节疼痛》
亲测有效,腰肌劳损腰痛 10 年,肩关节痛 3 年
2024-03-27 10:32:01 +08:00
回复了 yohane3016 创建的主题 职场话题 关于简历中职业技能技能写”精通“的看法
我精通 JavaScript/TypeScript/Scala/Kotlin 等语言
还精通 Pure-FP 与 Reactive Stream
各位精通 PTSD 患者来喷我吧 🐶
1  2  3  4  5  6  7  8  9  10 ... 26  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   902 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 40ms · UTC 21:11 · PVG 05:11 · LAX 13:11 · JFK 16:11
♥ Do have faith in what you're doing.