V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
imaxwell
V2EX  ›  职场话题

现在处于并将长期处于 AI 主义初级阶段

  •  
  •   imaxwell · 2025 年 7 月 15 日 · 4357 次点击
    这是一个创建于 186 天前的主题,其中的信息可能已经有所发展或是发生改变。

    套用政治书上的一句话,当前阶段的主要矛盾是 AI 指数级增长的知识和工具活学活用的能力和人们线性增长的学习和理解力之间的矛盾。 我让 claude 4 sonnet 给我搞一个评估用户数学各个子领域能力的小模块,三下五除二论文和方法论引出来了,Python 代码也写出来了,可视化诊断效果也跑出来了,看得一脸懵逼,现在开始慢慢一点点消化代码和论文里面的算法。感觉以后这个现象可能会越来越普遍和明显。。。

    25 条回复    2025-07-17 10:24:51 +08:00
    kneo
        1
    kneo  
       2025 年 7 月 15 日   ❤️ 1
    以后你就不看了。
    xiaojianghu
        2
    xiaojianghu  
       2025 年 7 月 15 日
    错误的,你对他不信任才会需要代码审查
    ModiKa2022
        3
    ModiKa2022  
       2025 年 7 月 15 日
    @xiaojianghu review 下, 是基本操作
    xiaojianghu
        4
    xiaojianghu  
       2025 年 7 月 15 日
    @ModiKa2022 还是源于不信任
    imaxwell
        5
    imaxwell  
    OP
       2025 年 7 月 15 日
    @kneo 可是我要基于它的代码做我想做的事情。不 review 怕带沟里去。。。
    huayi2
        6
    huayi2  
       2025 年 7 月 15 日 via Android
    有没有可能群里有人已经被 ai 干掉了?
    类似施瓦辛格电影《魔鬼复制人》的情节,只是自己不知道而已。
    imaxwell
        7
    imaxwell  
    OP
       2025 年 7 月 15 日
    @xiaojianghu 幻觉问题没解决,肯定没法 100%信,代码能跑不代表方法论真的 work
    imaxwell
        8
    imaxwell  
    OP
       2025 年 7 月 15 日
    @huayi2 必须有的,比如航空公司客服——https://v2ex.com/t/1140202#reply0
    justdoit123
        9
    justdoit123  
       2025 年 7 月 15 日
    @xiaojianghu 现阶段不进行 review ,直接用风险很高啊。

    小东西无伤大雅,在你电脑上跑,顶多 `rm -rf /`。

    上生产环境的东西,你不 review ,出问题你要担责,“AI 是无辜的”
    jacketma
        10
    jacketma  
       2025 年 7 月 15 日
    @imaxwell 幻觉这事儿吧,人类搞的魔幻还少吗🐶
    zybzzc
        11
    zybzzc  
       2025 年 7 月 15 日
    @xiaojianghu #2 手下的人做事出错你还可以甩锅,你用 AI 除了错锅只能是你背
    kneo
        12
    kneo  
       2025 年 7 月 15 日
    @imaxwell 不用怕,你胆子会越来越大的。
    xiaojianghu
        13
    xiaojianghu  
       2025 年 7 月 15 日
    @imaxwell @justdoit123 @zybzzc 现在 ai 肯定还不行,还需要 review ,未来 ai 可能就会发展到可以自我审查的地步,写出来的东西对人来说都是黑盒,不需要人通过代码来维护迭代
    insomnia97
        14
    insomnia97  
       2025 年 7 月 15 日
    linuxdo 也是你?
    avenger
        15
    avenger  
       2025 年 7 月 15 日
    1.0 是用 tab..
    2.0 是用 agent 自己 review
    3.0 是不 review 直接用
    imaxwell
        16
    imaxwell  
    OP
       2025 年 7 月 15 日
    @kneo 刚刚就发现有个雷达图画错了,不敢不 review 啊
    imaxwell
        17
    imaxwell  
    OP
       2025 年 7 月 15 日
    @insomnia97 佬友好
    imaxwell
        18
    imaxwell  
    OP
       2025 年 7 月 15 日
    @xiaojianghu 也许那一天会到来,反正不是现在,没有明显的逻辑和现实物理约束的反馈来自动纠错。比如这次给我的程序画出来的雷达图,只有一个维度有值,一看就不对,雷达图应该每个维度都有值的,但是 claude 就自我发现不了,需要提醒才纠正。
    JoryJoestar
        19
    JoryJoestar  
       2025 年 7 月 15 日
    只是大部分人而已,只要能拥有强大的算力什么问题都迎刃而解,就像你拥有一支铁骑一样。
    BingoW
        20
    BingoW  
       2025 年 7 月 15 日
    一开始提问的回答往往靠谱,但是随着项目规模的不断增大,问题越来越多,AI 偶尔的回答可以说是无脑,甚至改错本来对的代码逻辑。
    imaxwell
        21
    imaxwell  
    OP
       2025 年 7 月 15 日
    @BingoW 同遇到过这个情况,缺乏自我纠偏机制,或者说缺乏三维物理世界、业务流程逻辑、图像直观上的反馈。
    mightofcode
        22
    mightofcode  
       2025 年 7 月 15 日
    替代低级脑力劳动还是还毫无压力的
    imaxwell
        23
    imaxwell  
    OP
       2025 年 7 月 15 日 via Android
    @mightofcode 有些本科生和研究生复现论文的能力,现在 AI 也能做到了。这已经不是低级脑力劳动了吧。
    weiqlog
        24
    weiqlog  
       2025 年 7 月 16 日
    反正自己做也会出错
    imaxwell
        25
    imaxwell  
    OP
       2025 年 7 月 17 日 via Android
    @weiqlog 自己做也会出错,但是 AI 不会自己纠错,所以纠错的事情还是得靠人。这两天发现一种取巧办法。一个是黑盒的校验,一种是白盒的校验。如果不想看代码,走黑盒校验,那就直接看结果,看 UI ,看流程,看可视化结果,看结果的行为是否合乎预期。如果完美主义死抠细节,那就要走白盒校验,看代码看实现细节。还有一种二者结合的方式就是黑白盒联合校验。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1004 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 18:47 · PVG 02:47 · LAX 10:47 · JFK 13:47
    ♥ Do have faith in what you're doing.