V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  bwnjnOEI  ›  全部回复第 1 页 / 共 3 页
回复总数  41
1  2  3  
感觉和 llm 没有那么大关系,是全球裁员导致中高级工程师变少或忙不过来,初级工程师没人带度过学徒阶段比以前的人更慢,出错频率变高
onetab 应该没事吧,也是国人开发的吗?
为什么没有自动补全的输入法
8 天前
回复了 punny 创建的主题 程序员 给所有 AI ChatBot 的一个建议
我记得去年有个开源项目的会话组织形式是基于树的,但是这种非线性的缓存命中率是怎么算的呢?会不会很费 token?
@beizhedenglong 我觉得不用上 vlm ,除非你还需要看图输出知识
@beizhedenglong 没有的话你就上 huggingface 上找,再没有就找数据集自己训练一个 跑个 vgg vit mobilenet ,一张 4090 就够了
看 logo 的话肯定是 deepseek
9 天前
回复了 crocoBaby 创建的主题 Local LLM 折腾了一晚上大模型,索然无味
@kid1412621 生态小模型支持不会多也不会及时,但如果你用起来感觉很好也合适就用呗
10 天前
回复了 Kinnikuman 创建的主题 程序员 你们都自建 DoH 吗?
@bwnjnOEI 两个节点一个 bandwagon 一个 racknerd
10 天前
回复了 Kinnikuman 创建的主题 程序员 你们都自建 DoH 吗?
@bwnjnOEI 只在 mac 小火箭和 linux v2rayN singbox 下有问题,手机 ipad 小火箭正常
10 天前
回复了 Kinnikuman 创建的主题 程序员 你们都自建 DoH 吗?
我的自建节点稳定运行好几个月了问什么最近上谷歌时而被强时而正常,节点是看不良林教程搭的 hysteria2 和 reality 有人遇到过或者有经验的吗?还是说防火墙净化了?
面对动态页面和抗反爬稍微复杂点的就不行了吧
简单的网站依然可以用啊
15 天前
回复了 zcion 创建的主题 C++ [求助] Linux 有什么好的引入 c++ 第三方库的方案
我用的 conan
17 天前
回复了 wenerme 创建的主题 程序员 LLAMA CPP 比 Ollama 快得多
我也用的你这一套 gpt-oss-120b 4090d 能到 30 多 tokens/s
18 天前
回复了 crocoBaby 创建的主题 Local LLM 折腾了一晚上大模型,索然无味
@crocoBaby 嗯显卡缺失丐,如果不像投资买显卡真的想练手租个 gpu 云现在 4090 很便宜的
18 天前
回复了 crocoBaby 创建的主题 Local LLM 折腾了一晚上大模型,索然无味
@HojiOShi 那金色小盒子油管好几个博主都测完了:有点拉而且发热严重。
18 天前
回复了 crocoBaby 创建的主题 Local LLM 折腾了一晚上大模型,索然无味
建议不要用 LM STUDIO 或 OLLAMA 这些玩意,最起码会用 llama.cpp (虽然这俩都是基于 llama.cpp ),生产级部署都是 vllm 和 sglang 或自己写 cuda 。上 huggingface 下个 gpt-oss-20b 能凑合用,qwen-coder-7b 能代码补全,还有 DeepSeek-OCR 啥的能玩的挺多的,甚至内存 64g+你都能跑 gpt-oss-120b 但可能只有几 tokens/s 。
18 天前
回复了 qm 创建的主题 程序员 AI Agent 是不是新瓶装旧酒的一个概念
上面那个不叫事件驱动吗?现在的 agent 固定的 workflow 模式比较成熟了没什么难度。你说的后者属于 orchestrator 模式本质也算 workflow 但是 rl 训练可以规划推理检索,比较成熟的应用的是 deepresearch 。以上都是需要你主动提问,目前自主的 agent ,比如实时运行的个人助力,应该还不存在。
1  2  3  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   769 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 58ms · UTC 21:10 · PVG 05:10 · LAX 13:10 · JFK 16:10
♥ Do have faith in what you're doing.