V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  Chihaya0824  ›  全部回复第 3 页 / 共 33 页
回复总数  645
1  2  3  4  5  6  7  8  9  10 ... 33  
200 天前
回复了 rockmanx1122 创建的主题 宽带症候群 中山电信莫名奇妙被扣 PCDN 帽子
@rockmanx1122 阿 b 也有 pcdn ,但是好像没爱优腾那些毒瘤
还是得想办法看下你出口的地方有没有异常流量
不过根据站里其他的 v 友的说法就是只能签协议或者就是换运营商的样子,希望 op 维权成功
200 天前
回复了 rockmanx1122 创建的主题 宽带症候群 中山电信莫名奇妙被扣 PCDN 帽子
有用各类视频软件吗?
很多视频软件只要打开了就在跑 p2p ,全平台都有 p2p
可以把看视频的设备的 1024 端口以上的 udp 流量全部禁止试试
209 天前
回复了 momomoi 创建的主题 机器学习 检测画面中存在漏水,给点思路
楼上说得对
而且实在想训练可以先加水浸传感器,然后用水浸传感器做数据标注训练
电视盒子也可以解决吧(
问题不大
223 天前
回复了 loveshuyuan 创建的主题 宽带症候群 突破千兆带宽坎坷之路
猫棒跑路回光猫,猫棒实在是太热了,而且还容易出问题,最后还是跑路回光猫(甚至比猫棒便宜很多,这里 gpon 接入,所以猫棒很贵)而且感觉在可预见的时间内 2.5G 的口也能用很久了
但这只是个开始,不知道 op 多久之后会买 10G 交换机(
有没有可能,不知道=我不想花时间在你身上( doge
rtl8167 USB 5G 网卡
绝对和 NAS 沾边,谁不想让网速更快一点呢(
244 天前
回复了 seatifa 创建的主题 问与答 求一个使用网页远程控制 windows 的方法
pikvm 直接外部接入,最折腾友好也最贵
便宜可以看 https://sipeed.com/nanokvm
体验平衡可以看 jetkvm
255 天前
回复了 crac 创建的主题 Local LLM ubuntu + 双 N 卡 本地部署 DS-R1,性能优化请教
R1-Llama-70B-Distill-Q5KM-GGUF
VLLM
单次(类似 ollama )
Avg prompt throughput: 0.0 tokens/s, Avg generation throughput: 28.3 tokens/s, Running: 1 reqs, Swapped: 0 reqs, Pending: 0 reqs, GPU KV cache usage: 0.4%, CPU KV cache usage: 0.0%.
双卡并发 (并行 12 个请求)
Avg prompt throughput: 0.0 tokens/s, Avg generation throughput: 98.7 tokens/s, Running: 12 reqs, Swapped: 0 reqs, Pending: 0 reqs, GPU KV cache usage: 2.7%, CPU KV cache usage: 0.0%.
差不多 3 到 4 倍的样子
258 天前
回复了 LGA1150 创建的主题 宽带症候群 [未测试] 绕过上海电信白名单限速
野生的 kmod 出现了,这个性能怎么样啊,可以无脑给所有流量 setmark 吗?
我最后还是自己去所有主流平台冲了钱,然后 open-webui 一把梭
点上面的那个加号就能同时和很多模型聊天,有时候会对比本地和 api 模型的结果,还挺有用的
https://i.v2ex.co/qKQ5nVMVl.png
264 天前
回复了 mcsddjyd 创建的主题 Local LLM Deepseek R1 671B 本地部署方案
4*8*24=768G
这显存应该够,为啥只能部署低精度的...
神奇,ray+vllm 不能用,ray list nodes 正常吗?
那要不试一下 llama.cpp rpc mode?
https://github.com/ggml-org/llama.cpp/blob/master/examples/rpc/README.md
电信好像便宜的都没有了,现在只能加钱
而且原有的好像移机或者换套餐都会消失,所以买别人的也没有了
271 天前
回复了 unii23i 创建的主题 问与答 视频生成 ai 有本地的替代品吗
有,hunyuan video ,wan2 ,hunyuan t2v 4090 跑 720p 10 秒 10 分钟以上(视频时间越长生成时间越长)还跑的是 4bit gguf ,质量也不如他们跑的好。
279 天前
回复了 scienhub 创建的主题 NVIDIA 5090 买哪个品牌合适?
事实是现在原价根本买不到,5000 一张大把
所以哪个黄牛加价低买哪个算了
280 天前
回复了 klo424 创建的主题 Local LLM 求 DeepSeekR1 性价比硬件推荐
如果要自己微调完全可以,但是首先你要准备数据集(这个部分是最花时间的)
非常可能的是你会发现调完之后很可能会出现变笨或者变没有思考的情况,因为你的数据集里没有 CoT 相关的,所以你还要把模型重新 align 回有 CoT 的状态
用 unsloth 的话要调比如说 14b 的话,怎么都要个 24g vram 吧,那买个 3090 就可以
当然也可以选择更小的,但是低于 14b 真的没什么实用价值
不过依我看步子最好不要一次性迈太大,部署玩明白了再去做训练也不迟,要玩训练那根本就和推理要求的不是一个级别的
可以参考的项目[这里]( https://huggingface.co/ValueFX9507/Tifa-Deepsex-14b-CoT-Q8),大概是一个正经的项目(
上面的模型就算这样也要 8 张 H20(!!!!!110 万 CNY),所以 op 可以再看看自己到底想要什么
280 天前
回复了 klo424 创建的主题 Local LLM 求 DeepSeekR1 性价比硬件推荐
买 api 得了,老实说,同时实现 1+2+3 ,不太可能,特别是 1
预算再少也要花 10k-14k 吧,那种预算下根本不可能有水冷,而且你要买的还是二手服务器,那不能说是噪音小,只能说是天天起飞
1  2  3  4  5  6  7  8  9  10 ... 33  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3985 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 38ms · UTC 00:08 · PVG 08:08 · LAX 16:08 · JFK 19:08
♥ Do have faith in what you're doing.