V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  Contextualist  ›  全部回复第 1 页 / 共 8 页
回复总数  153
1  2  3  4  5  6  7  8  
感谢分享!支持一下 Rust for ML 和 PyO3
上次看相关方面还是 https://www.arewelearningyet.com ,不知道现在的生态怎么样了
能想到的 Rust for ML 的代表项目应该是 huggingface/safetensors 了
每天都在用的快捷键是「右 shift + 各种字母」快速打开/切换特定 App ( Safari 、终端、词典和 Finder )
(然后别人操作我的电脑总是会用到右 shift ,我只能微笑着帮他们暂时关掉😂
然后就是「右 shift + delete 」熄屏,有时用来代替合盖

确实是配置一次用十年。作者一直在维护,非常难能可贵
跳过域名和服务器,没有中间商赚差价( x
想了想觉得还挺复古的,互联网最初的样子不就是单个 html 文件么
112 天前
回复了 netabare 创建的主题 程序员 发现自己的 commit 标题和内容越来越长了
还是得拆分
commit message 长是表象,commit 过大或许才是根本原因。
> 总是担心意图没解释清楚别人难以理解自己的代码。
类似的,如果你也倾向于写大段的注释,不妨停下来想想看实现是不是可以被拆成多个函数/类

不用总想着一次写好一个完整的 commit
写一个片段就可以做一个临时的 commit ,然后在 push 前把这些临时的 commits 重新排列与合并成最终的 commits
善用 git rebase -i
@subframe75361 今天正好看到这个: https://www.v2ex.com/t/1056672#r_14983098
Tree-sitter 算是 TextMate 的继承者了
然后我记得 CodeMirror 的作者一开始写 CodeMirror 好像也是为了解决 Monaco 的一些问题
@zoharSoul 谢谢鼓励
只是想分享一次有趣的尝试,“有用”我就不敢当了哈哈
@RightHand 请问是用 DSL 写哪部分?好奇你的场景和最后选择的语言?愿闻其详
Tree-sitter 语法定义文件的格式其实本身就是 DSL ,是基于 js 的。
196 天前
回复了 Azure99 创建的主题 程序员 分享一下自己训练的大模型
34B 4-bit 量化的 demo 响应挺快的,这个得用至少 24G 显存的卡了吧,请问是怎么部署的?(不会是自家 4090 吧
205 天前
回复了 luin 创建的主题 分享创造 自己全职做的开源项目: Quill 2.0 发布了!
感谢作者,几年前的项目就开始在用 Quill ,记得那时候是少数对 operational transformation 支持非常好的库
感动,有生之年系列啊!我还以为 package.json 里 "quill": "^2.0.0-dev.4" 这一行永远没机会改了 https://i.v2ex.co/504J5BO2.png
209 天前
回复了 moayuisuda 创建的主题 分享创造 做了个互动式的乐理网站
诶,今天才在推特上看见 https://music-theory.aizcutei.com/ 这个项目,也是楼主翻译的。可以讲讲两个项目背后的故事吗?
237 天前
回复了 neteroster 创建的主题 OpenAI Claude 3 Haiku 已经可用
我的某个创业朋友表示已经把主要业务逻辑从 GPT-4-Turbo 切换到 Claude 3 Opus 了,说是 Opus 在逻辑推理和遵循指令上有明显优势。这让我对 Claude 仅擅长行文修辞的老印象有所改变了。
经过了之前的低迷期,Anthropic 似乎又支棱起来了啊
265 天前
回复了 sNullp 创建的主题 Mastodon A Love Letter to Fediverse
写得很清晰的科普!
(假设 Fediverse 成为主流,) Fediverse 最终会走向由寡头实际控制的未来吗?
今日份欢乐,ALOHA 失败集锦
https://twitter.com/dotey/status/1743396313704649064
不过这机器人的 few-shot learning 确实了得。
@mwVYYA6 可恶,被发现了>///<
@Genii @siriussilen
模型: https://huggingface.co/Undi95/Mixtral-8x7B-MoE-RP-Story
对应的 quantization: https://huggingface.co/Undi95/Mixtral-8x7B-MoE-RP-Story-GGUF

@siriussilen 谢谢纠正!严谨地说,这个模型是拿 8 个原本独立的 7b 模型用 Mixtral-8x7b 架构组装在一起而成的。那 8 个独立的 7b 模型是用各自的数据集分别精调的。
@showgood163 确实,我自己实际使用体验是显存占用维持在 25.9G 左右
@neteroster 赞同啊,不过 NovelAI 被迫开源这一段往事哈哈哈。另外,本地 LLM 的成本还不够平民化,不过应该是本年之内能解决的问题了

@neteroster @hellojay Stable Diffusion 的新动向我有几个月没关注了,现在就偶尔拿之前的 prompt 生成几张。等我哪天见到新突破或许会开坑(不过浓度太高的话可能去 Bangumi 发?
@showgood163 嘿嘿谢谢关注。对的,25GB 对应 4bits quantization ,100GB 对应官方全量的模型 (float16 ,用 Flash Attention 2) 。
@cwyalpha 嗯嗯,慢慢坐等开源界达到 Claude 2.1 的水平,按照这个进度应该不会太久
@paopjian 用的都是官方原模型 + prompt 。微调嘛,一定程度上会限制模型的能力。
1  2  3  4  5  6  7  8  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1156 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms · UTC 18:41 · PVG 02:41 · LAX 10:41 · JFK 13:41
Developed with CodeLauncher
♥ Do have faith in what you're doing.