V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  fcten  ›  全部回复第 5 页 / 共 28 页
回复总数  553
1  2  3  4  5  6  7  8  9  10 ... 28  
不建议学生用 macbook ,除非你十分确定你用到的所有软件都兼容 macbook 。
计算机专业的学生 != 程序员。mac 对程序员很友好不等于对计算机专业的学生友好。
而且 5000 预算上 macbook 新机是不够的。这个价位最多能上 M2 16+256 的 macbook air 。
大量是多大?一般都是自动扫描漏洞的程序。但是 404 请求也消耗不了多少流量。
楼主可知道语言模型最初的目的是为了翻译……
其次,这样做并不能大幅减少参数量,道理就和你掌握一门新语言并不需要从 1+1=2 开始学习一样。大量的知识是与语言无关的。
再其次,清洗训练数据会花费大量的时间。而且更小的训练集 = 更差的模型。
314 天前
回复了 CNM47589 创建的主题 问与答 什么时候出新 12 寸 MacBook
习惯了 16 寸的重量其实也还好……
314 天前
回复了 snowkylin 创建的主题 分享发现 本地部署 DeepSeek-R1 671B 千亿大模型流程
MoE 模型的主要瓶颈在于内存/显存带宽,对算力的要求比较小。你的这个配置的瓶颈全在内存带宽上,GPU 妥妥打酱油。

用 24 通道的双路服务器主板,纯 CPU 跑 Q8 量化的模型也能达到 6 ~ 8 token/s 的速度。可以参考: https://x.com/carrigmat/status/1884244369907278106
314 天前
回复了 simple2025 创建的主题 生活 你们过年的时候要上山祭祖吗?
去,一般都是大年初一。坐标浙江
官方有 api ,不过官方 api 这两天基本处于不可用的状态。
这居然是意外好处吗,我以为买大内存 mac 设备的都是为了本地跑 LLM 的。毕竟 mac 的金子内存一般人没需求是不会拉满的...
除了跑 LLM 还有哪些需求会用到大内存?视频剪辑?
316 天前
回复了 Shiroka 创建的主题 问与答 阿里也会手滑吗
又不是不能用.jpg
我看了下我 48g1t 的 mbp 14 个月已经写了 38T 了。8g 现在已经淘汰了,16g 以上的配置内存交换那点写入量基本不用太关注了。
不过如果主力使用的话,硬盘至少 512g 起步吧。
325 天前
回复了 xhwdy26 创建的主题 程序员 从微服务走向单体化
如果这些功能只要 3 ~ 5 人一个团队就能维护,单体服务并没有什么问题
331 天前
回复了 xiaoxuz 创建的主题 分享发现 [网站自荐] 搞了一个 AI 搜索服务
看 UI 是用 lepton 搭建的?
从第一行看到 x99 就知道是电子垃圾……
341 天前
回复了 NxxRngjnbgj 创建的主题 优惠信息 uu 加速器打折了
[UU 加速器] 13 周年庆!年度底价,快上车领 6.6 折券! https://g.126.fm/00NLXLg
@oldcai hexo
看了一下似乎需要自己管理文档?
能和框架集成,做到更新网站的时候自动更新索引吗
343 天前
回复了 movq 创建的主题 问与答 你小时候读过读者文摘吗
读者文摘确实是鸡汤
短视频已经是毒品了
345 天前
回复了 8675bc86 创建的主题 北京 大家一年开车吃多少罚单
六年了就吃过一次
14 代现在很便宜了,缩缸反正有 5 年质保
adobe 全家桶还是挺吃 cpu 的,建议 14700kf
360 天前
回复了 orioleq 创建的主题 摄影 A7C2 新手劝退
玩摄影不想后期不如直接手机拍
说真的,出门带个几斤重的相机很累的,如果连后期都不想做,可能根本带不了几次相机出门
1  2  3  4  5  6  7  8  9  10 ... 28  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3172 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 37ms · UTC 12:01 · PVG 20:01 · LAX 04:01 · JFK 07:01
♥ Do have faith in what you're doing.