V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
YanSeven
V2EX  ›  程序员

是否可以这么认为,目前码农能操控 llm agent 做的事情都可以由 llm agent 自己操作。

  •  
  •   YanSeven · 2 天前 · 2005 次点击
    人做的事情,无非也就是脑子里面的"plan"+工具链使用。

    工具链反正都在计算机上,想办法接入就好了,大部分码农的工具链也就是“三板斧”,也没多复杂。

    "plan"的生成,需要一些逻辑推理 + 一些“上下文”, 我看目前顶尖的基于 GptClaudeGemini 都做的很不错了。

    如果不能,无非就是“上一个版本不行”,那就调优系统级 prompt ,发布下一个版本支持呗。
    第 1 条附言  ·  2 天前
    我收回这个问题,现在我 vibe coding 的一个插件的一个小问题,迭代多次,反复让多个模型诊断,都没有解决。
    这玩儿还是不行,llm 只是行尸走肉,离不开专家这个人类灵魂。
    14 条回复    2026-01-19 16:42:01 +08:00
    linbenyi
        1
    linbenyi  
    PRO
       2 天前   ❤️ 1
    根据长尾。人类总要解决很长的。变化多样但是小概率的事件。
    其实题主说的对。变相抑制了初级岗位的成长。
    wuxi889
        2
    wuxi889  
       2 天前
    可以。看看周末的 Claude Cowork 新闻
    iOCZS
        3
    iOCZS  
       2 天前
    人类是一台判决机器
    dog82
        4
    dog82  
       2 天前
    看闫俊杰的访谈,他提了个:模型即交付 的概念,AI 领域普通程序员能做的很少,而且会越来越少
    YanSeven
        5
    YanSeven  
    OP
       2 天前
    @dog82 感觉以后普通程序员的角色就是汽修店里面的维修师傅,虽然以前大部分码农也不是所谓白领,但是以后估计就是比较彻底的蓝领了。
    KinBob
        6
    KinBob  
       2 天前
    人要是自己不写代码,debugg 能力也会退化的,所以感觉 ai code + 人 debugg 售后的模式不是个好模式,大概率得等到 ai 更深度的应用才行
    iorilu
        7
    iorilu  
       2 天前
    那肯定阿

    现在人成了打下手的, 人能发 prompt, 当然可以让 ai 自己发 prompt 指挥另一个 ai 干活
    CH122
        8
    CH122  
       2 天前
    当人类不再有任何知识、思想产出的时候,ai 还能进步吗,或者说 ai 可以到能思考的程度吗
    enrolls
        9
    enrolls  
       2 天前
    还差一点东西,能立即 fine tune 最新的文档和代码;或者 这个代码组件的包 fine tune 一次入 llm ,让它了解上下文,基本不用干了。
    midraos
        10
    midraos  
       2 天前
    我认为当前这种形态的 AI 是不行的,如果某天变成:用户提出需求 --> AI --不经过编码、编译--> AI 自身直接模拟出该应用时,才是码农失业的前夕
    strobber16
        11
    strobber16  
       2 天前 via Android
    得特化才行。再训练专门做项目设计的 ai ,和负责写实际代码的 ai 分开
    sentinelK
        12
    sentinelK  
       2 天前
    从演进的流程上来讲,确实是这样。一开始的 AI Coding 主要体现在 Tab 提示,然后逐渐演进到 Chat ,然后再演进到 Agent 。
    总体上来讲,一定是人的干预越来越远离实现本身。

    但讨论这个没什么意义。

    首先,因为提出需求的是人,这就导致人必须参与输入。你不输入你的需求无从表达。
    其次,相同的需求,表达方式多种多样,总会有人掌握更优秀表达需求的能力。
    最后,你要明白为何目前的统计学 AI 的解决方式是 Agent 。因为是基于目前的上下文能力,以及模型向量转换次数所限。最终的终局,AI 产出一定不是 Agent 的。

    你看现在还有人讨论“提示词工程”么?还有人因为写提示词更好引以为傲么?

    在我看来,Agent 就像是提示词工程一样,只是基于有限能力下的临时性解决方案。仅此而已。
    OliverDD
        13
    OliverDD  
       2 天前   ❤️ 1
    它只是概率模型,你让概率去碰撞概率,就是无限猴子定理:“让一只猴子在打字机上随机地按键,当按键时间达到无穷时,几乎必然能够打出任何给定的文字,比如莎士比亚的全套著作”。
    muam
        14
    muam  
       2 天前
    @OliverDD
    问题是大量的需求开发跟问题解决,实际上是趋同的,你看 stackoverflow 这几年的流量就知道,大量的重复性问题,都被 AI 给解决了,人不需要再去 stackoverflow 上提问了

    你加一个功能,我跟着加一个功能,很多功能都是相似的

    如果人类是完美的计划经济,大量的软件跟 APP 其实都没必要诞生在这个事情上
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   3312 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 56ms · UTC 11:31 · PVG 19:31 · LAX 03:31 · JFK 06:31
    ♥ Do have faith in what you're doing.