V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  YsHaNg  ›  全部回复第 2 页 / 共 58 页
回复总数  1147
1  2  3  4  5  6  7  8  9  10 ... 58  
4 天前
回复了 lanrete 创建的主题 云修电脑 一个历史遗留的硬盘分区问题
@justfindu symlink
4 天前
回复了 readman 创建的主题 NAS 突然想不通了,做备份的意义是什么?
@sariya 正经点的备份程序都会在传输时校验 比如你可以 rsync -c
4 天前
回复了 readman 创建的主题 NAS 突然想不通了,做备份的意义是什么?
@glcolof 这么看得把周围家人培养成 os/fs angonostic devops/it
@iminto 我知道你想要币 但你这样未必太神经了
4 天前
回复了 isbase 创建的主题 NAS 关于 NAS 如何将所有盘位组合成一个逻辑卷
我觉得绿联这 nas 的意义就是装黑群或者别的 os
4 天前
回复了 readman 创建的主题 NAS 突然想不通了,做备份的意义是什么?
@readman hyper backup 和 snapshot replication 都可以做到
5 天前
回复了 LotusChuan 创建的主题 Apple 快过年发现被妹妹和苹果联合爆金币了
简单 iCloud 绑定你妹妹的支付宝 把这 800 还完了以后你每月往里转 iCloud 订阅款 人总要负责的
5 天前
回复了 acfan 创建的主题 生活 关于社交礼仪的讨论
不懂你啥行业 咱们是谁
@revival83 你都是 pc 了那不就是 ibm 电脑
永远可以相信 v2er 的求币能力
@JerryYuan 我是觉得虚拟机总会有性能损耗 除开发以外都尽量 docker 虚拟机也尽量转成 lxc
6 天前
回复了 iv8d 创建的主题 Local LLM LLM local 模型入门和使用
@iv8d 当时搜了一圈对我而言是最容易的哈哈 Linux 机器现成的 docker 前后端打包一起 端口设置一下就能到处用了
@xiao17174 你可以把别人取消管理员权限
容易 因为我们一年生活成本就超 20w 了
7 天前
回复了 iv8d 创建的主题 Local LLM LLM local 模型入门和使用
@iv8d 针对终端用户包装生态好 社区很多应用 对应的前端更新很快 https://openwebui.com/ 也有一键 docker run 用 ollama tag 就是前后端数据库一体 再加载好模型就能用
7 天前
回复了 abc634 创建的主题 Local LLM 请教,关于显卡内存
@abc634 你是指用 ollama offload cpu 推理? 其实可以都做 拉 docker 选 cuda tag num_gpu 指定使用 gpu 数量 这样可以随时切换
7 天前
回复了 iv8d 创建的主题 Local LLM LLM local 模型入门和使用
深入的不太清楚 简介强大美观就用 ollama+open webui docker 直接装 显存不够大就不用 cuda 之类的 tag cpu 跑推理也还行 至少大内存能堆参数量 你不在乎延迟后台放着慢慢跑 路由器再设置端口转发提供公网服务
8 天前
回复了 love8 创建的主题 程序员 原来新版微信所谓的 CallKit 是曲线救市
@Nasei 用户群不一样 管控的目标是 8 亿里的 96%
1  2  3  4  5  6  7  8  9  10 ... 58  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   666 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms · UTC 20:56 · PVG 04:56 · LAX 12:56 · JFK 15:56
Developed with CodeLauncher
♥ Do have faith in what you're doing.