V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  neteroster  ›  全部回复第 6 页 / 共 43 页
回复总数  847
1 ... 2  3  4  5  6  7  8  9  10  11 ... 43  
@neteroster #1 CosyVoice 也支持,没记清楚
https://funaudiollm.github.io/cosyvoice2/

https://github.com/RVC-Boss/GPT-SoVITS

https://github.com/fishaudio/fish-speech

其中后两个还支持少样本声音克隆,可以搞点自己喜欢的声音样本做克隆生成
338 天前
回复了 w568w 创建的主题 C# C# 有哪些显著的缺点?
语言感觉挺好的。我来提一个显著的:官方调试器 vsdbg 是专有的,所以如果你用除 vs 和 vscode 等之外的部分编辑器的话(例如 cursor )就会有调试方面的问题,只能用一些平替调试器
341 天前
回复了 lifehz 创建的主题 Apple mac air m1 能搭 deepseek v3 吗?
想多了,Q4 都要几百 G 内存
342 天前
回复了 anivie 创建的主题 机器学习 模型部署的姿势
个人简单用用 llama.cpp 就行,要生产环境或者有高并发 / 高性能要求的推荐 sglang ,会比 vllm 快。
344 天前
回复了 xingfu0539 创建的主题 Google 为什么我的 gemini 2.0 一点也不智能
建议用 AI Studio ,谷歌 C 端那个产品非常垃圾,加了一堆奇怪提示词,模型效果降的很严重。我觉得 1206 在大部分情况下能打碎 4o 是很显然的,我现在都不觉得这两是一个级别的东西了。
官网的现在完全不值得,因为你根本不知道他什么时候会降智,说不定你就一个月花 20 刀结果一直在用 4o mini ,然后还不告诉你,就这么过去了。

DeepSeek V3 能力还不错的(至少他们尽力做了),但目前来看编程上的综合能力离 Claude 3.5 Sonnet 还有距离。但是后者目前看来官网也不好买会员,因为非常喜欢封号。

总之就这两家官网一个喜欢降智一个喜欢封号,都是很折腾的。我的推荐是日常简单问题用 deepseek 或者白嫖 Google 的 AI Stusio ( 1206 旗舰模型一天 免费 100 次,Flash 1500 次),遇到有实在不行的再配合中转 API 站的 claude 或者 o1 API (前提你得找到保真的),这样下来应该是比较节省经费的。

还有个方案就是开 POE 或者 you.com 会员,对 3.5 sonnet 或者 4o 需求比较大的可以考虑,至少模型都是真的。
348 天前
回复了 fang2hou 创建的主题 Local LLM DeepSeek V3
先不谈性能,工程上就很强。整个模型训练的 H800 GPU Hour 甚至低于训练两次 LLaMA3 8B 的 H100 GPU Hour ,这还是在 H800 阉割了互联的情况下
352 天前
回复了 Chicagoake 创建的主题 Apple Apple Music Win 端使用问题
Win 端我这里基本没法用,各种问题,莫名其妙连不上网络,崩溃,播放中断等等
354 天前
回复了 kizunai 创建的主题 OpenAI 花了钱却被 OpenAI 当傻子一样骗,从此一生黑
@Liftman #28 不,ChatGPT 降智是广泛验证确实存在的刻意行为,不是模型幻觉。无法搜索是因为提供给模型的工具不包含搜索(可以验证),这是降智的表现之一。除此之外还广泛验证了降智和 IP 干净程度强相关,这些都是有大量样本的结果,不是幻觉可以解释的
358 天前
回复了 lynn1su 创建的主题 OpenAI 大家觉得哪个 AI 现在最强?国产的
qwen deepseek glm
2024-12-05 17:59:11 +08:00
回复了 2bNot2b 创建的主题 OpenAI 求教使用 gpt-4o 时,同样的输入输出结果不同的问题
OpenAI 的话,温度为 0 输出也不同是预期的,这一点无法避免。指定 seed 会好点,不过也不能保证确定性。

感觉你这个需求提高准确率得上点 RAG 结合 few-shot 或者直接用微调模型,啥都不用模型可能法律这方面知识不够。
2024-11-30 20:30:46 +08:00
回复了 wildlynx 创建的主题 Windows windows11 还是个半成品
Explorer 卡死和设备 / 驱动的关系一般会大些
2024-11-21 06:06:28 +08:00
回复了 jim9606 创建的主题 Windows 新系统 Windows 的性能和响应不佳的原因
@weijancc 现在有什么方法可以稳定关闭 defender 嘛
2024-11-19 12:15:18 +08:00
回复了 JiangNanLong 创建的主题 问与答 14 寸轻薄本推荐
> 处理器都是 ultra5 7 9 ,或者 R7-8845 处理器,这几款都不支持 ubuntu

不是,你从哪看到的?

---

Linux 的话各机器差别无非是各种设备的驱动兼容性和暗坑,这点可以自己按型号查已经购买的人的反馈
2024-11-14 15:38:47 +08:00
回复了 hjc4869 创建的主题 Local LLM Apple 统一内存适合运行 LLM?理想很丰满,现实很骨感
@neteroster #3 没注意都是用单卡测的,那就不涉及多卡推理的方式了。不过非要本地推理现在性价比高的方案应该还是游戏卡多来几张
2024-11-14 15:31:29 +08:00
回复了 hjc4869 创建的主题 Local LLM Apple 统一内存适合运行 LLM?理想很丰满,现实很骨感
认同这篇文章的主要观点,它谈及了一些关于本地 LLM 推理很多人没注意但很重要的内容。

先不谈高 batch (毕竟日常不常用),大多数人都没意识到 M 芯片 prefill 很慢,而这个在上下文长的情况下是挺致命的。而且其实 decode 速度也会受上下文长度影响,很多测试仅仅是在很短的 prompt 下去测生成,得到一个看起来挺好看的数字,然而实际使用中很多情况下根本不是这种场景。

个人观点是,当前,本地 LLM 推理对于大多数普通用户或开发者没有显著的使用必要,除非是特殊需求(例如强隐私需求等)。个人用户花大价钱购买设备单纯只是去推理本地 LLM 在现在看起来是不太明智的,当然如果是其他需求顺便推模型或者单纯太有钱买来玩玩那倒也没什么。即使非要谈本地推理,Mac 的应用场景也是较窄的,文章中写的已经听明白了。

文章还谈到了投机解码,这个确实很有意义,特别是对于生成内容主要是代码的情况,加速应该是相当明显( cursor 的自动补全就用了),期待未来这方面的发展。

作为补充,看起来文章测 text generation 的时候只是用了 llama.cpp ,他的多卡实现应该还是 pipeline parallel ,有一些后端支持 tensor parallel ,多卡情况下单 batch 性能应该还能进一步提高(但对 PCIe 速度有更高要求),希望有相关测试。
2024-11-11 16:37:43 +08:00
回复了 96 创建的主题 买买买 年经贴:今年 1111 你准备买/买了什么,给大伙抄抄作业
机械革命翼龙 15 Pro / 8845H + 4060
更换 96G D5 RAM / 2T(SD10) + 1T SSD(RC20 ,原有) / AX210 网卡 / 相变片
>>> 合计 6298

FiiO KA3 解码小尾巴 >>> 358
1 ... 2  3  4  5  6  7  8  9  10  11 ... 43  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3424 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 36ms · UTC 04:25 · PVG 12:25 · LAX 20:25 · JFK 23:25
♥ Do have faith in what you're doing.