V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  fcten  ›  全部回复第 3 页 / 共 28 页
回复总数  553
1  2  3  4  5  6  7  8  9  10 ... 28  
无解。搜索结果可能有几亿个匹配的结果,不可能完整展示给用户。
181 天前
回复了 cxhello 创建的主题 Kubernetes k8s 使用调研
个人在用阿里云 ACK ,基础版免费,玩玩够用了。
@sunsomecoll 你主责的话,对方赔你的修车费用不是全额的吧。应该是保险公司直接从赔对方的金额里扣掉了。不然这种情况保险一般是不会代位追偿的。
目前主流的 NAS 都是 2.5G 网口,理论读取速度跟你直接用机械硬盘是差不多的。万兆全闪 NAS 的成本就很高了。
181 天前
回复了 wnpllrzodiac 创建的主题 计算机 5000 左右笔记本推荐
不打游戏,程序员,给小孩熟悉电脑。macbook air m4 没啥毛病啊。现在全新 5500 不到的价格也基本合适。以后自己用或者出掉也会比 win 本保值一点。

要么就买个有独显的 win 本。不知道 op 小孩多大了,反正小孩不打游戏基本是不可能的,还不如早点引导远离垃圾游戏。
182 天前
回复了 milala 创建的主题 问与答 打工一族会把 20 万给女友保管吗
就当这钱送给她了,你愿意吗?愿意的话就行。不愿意就不行。

反正我是不行。
@nzynzynzy 时间就是金钱我的朋友。另外对方合理的误工费是保险覆盖的,不需要自己出。op 要是选择硬刚,自己的误工费保险可是不赔的。。。
@Tumblr
@twl007

事故发生在道路上,不是停车场里。op 横穿道路属于借道通行,路权是最低的。跟是否停车完全没有关系。无论是行驶中被撞还是静止状态下被撞都是 op 全责。

不认可的心理可以理解,但是现实中遇到这种情况,打官司也不会赢的,可以去搜一搜过去相似事故的判例。

至于是否要认全责的问题,我已经说了在 op 目前这个情况下,认个全责是对 op 来说成本最低的。如果觉得气不过,非要复议给对方定个次责,当然也可以。但是 op 白白花了时间(可能要请假),扣车不能马上拿回来,即使赢了也不会有任何额外的好处(保险只要出险,来年保费固定涨),何况最后也不一定改变全责的结局,从理性的角度来讲当然是不划算的。我是基于对 op 最有利的角度给予建议,跟“谁弱谁有理”无关。当然,认全责的前提是对方提出的赔偿条件合理(医疗费、误工费等)并且保险也认可。如果对方敲竹杠,那肯定不能吃亏不是。
交警判你全责没什么毛病。因为横穿道路,让行的责任在你,不是你车辆已经横在路上了对面就有责任让你。对面没看路是有问题,但不足以影响责任认定,除非对面酒驾了。

退一步讲,哪怕全责主责有争议,这种情况下对你来说定全责比主责好。外卖小哥不一定有钱赔你,还不如全让保险赔了。

其实,不涉及刑事责任的交通事故,没必要太纠结,按交警的定责走流程就行了。买了保险不就是为了这种时候么。
183 天前
回复了 sh3yee 创建的主题 服务器 家庭服务器
必须 EPYC ,彻底解决性能焦虑 [狗头]

正经版:如果你甚至还不明确自己的需求是啥,那就先买最丐的。性能不够再升级,电子产品完全没有必要一步到位。
188 天前
回复了 SilenceLL 创建的主题 云计算 阿里云大早上来了个惊喜,被客户叼炸了
看了一下我的个人网站从 3 点 16 告警到了 9 点 28……我还以为是监控抽风了……
画质是最不重要的。近几年新出的原厂镜头画质都很好,绝大部分人肉眼区分不出来的水平。这两个镜头是光圈和焦段的取舍。
254 天前
回复了 fcten 创建的主题 Local LLM 本地 AI 工作站装机
@5sheep 没试过,不过应该能跑 4bit 量化版本( ollama 默认)
我测试了 vllm 部署 Qwen2.5 72B 4bit 量化版本,限制 --max_model_len 8192 ,20 token/s
再大的模型 48G 就不够了,需要上双卡(或者用内存跑,会慢很多,不太可用的程度了)
254 天前
回复了 fcten 创建的主题 Local LLM 本地 AI 工作站装机
@tool2dx 发布的时候还挺心动的,但是对我来说不太合适。这个机器的使用场景是推理,我有训练的需求。

另外:
1. 128G 统一内存是 LPDDR5x ,带宽只有 273 GB/s 。按带宽来估计的话,它的单机推理性能应该不如 Mac Studio 。
2. 标称 1000 TOPS 算力是 FP4 ,FP8 、FP16 、FP32 算力有多少不太清楚,猜测相当于 4070 的水平吧
3. ARM 架构,软件生态兼容性肯定不如 x86 ,有折腾的成本
4. 价格和我的整机差不多了……

不过我买了一个 jetson orin nano super 玩
254 天前
回复了 fcten 创建的主题 Local LLM 本地 AI 工作站装机
@wyntalgeer 个人选 4090d 而没有选 4090 的原因:
1. 显存大小是刚需,算力不是。慢 11% 可以接受。
2. 4090 48g 比 4090d 48g 贵 4000~4500
3. 4090d 不能超频,都是二手核心可能会比 4090 风险小一些?当然也可能只是自我安慰 😂
254 天前
回复了 fcten 创建的主题 Local LLM 本地 AI 工作站装机
@wyntalgeer 4090d 只比 4090 低 11% 的算力
254 天前
回复了 fcten 创建的主题 Local LLM 本地 AI 工作站装机
@PbCopy111
1. 用不到 48G 显存肯定是不值得的。
2. 租用 GPU 花了多少是实打实的。自购硬件用完后并不会一文不值。个人建议利用率 > 15% 就可以考虑自购硬件了。
254 天前
回复了 fcten 创建的主题 Local LLM 本地 AI 工作站装机
@wyntalgeer 帖子中已经写了,对 48G 显存没有强需求不建议上 4090 48G
显示 aof 损坏是 redis 挂了的结果不是原因吧
你找找挂掉时的日志,是不是 OOM 了
1  2  3  4  5  6  7  8  9  10 ... 28  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   904 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 39ms · UTC 20:17 · PVG 04:17 · LAX 12:17 · JFK 15:17
♥ Do have faith in what you're doing.