V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
crownz
V2EX  ›  Google

gemini 一个对话窗口用久了 胡说八道?

  •  
  •   crownz · 2 天前 · 5532 次点击

    我在一个新的对话窗口 投喂了一些相关资料,主要是关于股票类方面的。 一开始用着挺好不过用了两三天,开始出现幻觉 驴唇不对马嘴 对牛弹琴似的。 大家有这种情况么? 目前是 pro 版本

    45 条回复    2025-12-26 14:08:54 +08:00
    BeijingBaby
        1
    BeijingBaby  
       2 天前
    都出现过,gemini ,豆包等,偶尔都会忘记上下文,乱说一通,得人为「纠正」。
    haimall
        2
    haimall  
       2 天前
    对话模式,不太适合知识库的用法。
    crownz
        3
    crownz  
    OP
       2 天前
    @BeijingBaby 看来是通病哈
    crownz
        4
    crownz  
    OP
       2 天前
    notebooklm 更好一点么?
    haimall
        5
    haimall  
       2 天前
    notebooklm notion 可能更优,然而 notebooklm 现在可以喂给 Gemini 啊
    haimall
        6
    haimall  
       2 天前
    gpt5
        7
    gpt5  
       2 天前
    对话巨长的时候,我还碰到过回答错位的情况,就是每次回答不是本次而是上次或上上次的问题。我问 gemini ,他说确实可能出现这种问题,最好再开一个对话。
    haiku
        8
    haiku  
       2 天前 via Android
    Gemini 网页版,上下文窗口比模型支持的最大窗口小很多,付费版好一些
    都是为了降本
    taohua1c
        9
    taohua1c  
       2 天前
    别一直用一个窗口,我都是一个问题一个窗口 定时清理就好了
    yarkyaonj
        10
    yarkyaonj  
       2 天前
    是因为你开了其他窗口问了别的问题吧,现在好像会参考你问过所有的问题,在设置里面可以关闭的,叫 Your past chats with Gemini
    locoz
        11
    locoz  
       2 天前
    Gemini 的模型特性就是这样的,Ultra 会员的 Gemini 3 Pro 都救不了,无论是网页版还是其他地方的都这样。虽然它能支持极长的上下文,但它在上下文真正长了之后,注意力是不集中的,很容易就会出现丢三落四的情况。并且虽然你针对问之前的细节它能跟你说出来,但下一次对话只要还是上下文过长的状态,它就还是会遗漏之前说过的东西。
    maichael
        12
    maichael  
       2 天前
    用啥本质上都是一样的,因为上下文有大小限制+上下文越大注意力就越难以集中。

    好的做法是预设一个基本的上下文(包括必要的限制、规则以及一些引导/案例等),每次以这个预设上下文开始做一件新的事情,让上下文尽可能短且有价值。
    qieqie
        13
    qieqie  
       2 天前
    感觉 ai studio 里的才是满血版,网页 app 和 antigravity 里的 pro 不太聪明(限制了 reasoning level ),antigravity 里最近频频出现思考内容输出到 content 里,还有 AI 无法自己结束对话的问题。
    aero99
        14
    aero99  
       2 天前
    是的,而且是自相矛盾,以前 AI 还会认错,现在只有狡辩
    现在最好的办法就是几个 AI 一起用,互相比照
    lneoi
        15
    lneoi  
       2 天前
    上下文太多了吧,一多就上下文就得处理,处理下肯定有信息漏掉或者出现偏差了
    Hasel
        16
    Hasel  
       2 天前
    上下文太多,被压缩了。压缩时候是有损,某些核心信息可能在压缩过程中会丢失。
    elevioux
        17
    elevioux  
       2 天前
    这个叫做 context rot ,就是上下文越长(对话越长),AI 的回答质量越差,现阶段所有 AI 都有的通病。

    所以要每个话题新开一个窗口,所以才要做上下文工程,所以才会有各种 agent 出现。
    hammy
        18
    hammy  
       2 天前
    遇到过
    notwaste
        19
    notwaste  
       2 天前 via iPhone
    大家都在说上下文长度的问题,容易这个有没有一个标准,什么程度即使没达到模型上下文限制,也算上下文超标了
    kloge
        20
    kloge  
       2 天前
    gemini 尤其明显
    COW
        21
    COW  
       2 天前
    agent 我是一个 session 只解决一个任务。
    ask 我是在单独的 session 里问,问完就删,或者直接网页版。
    thevita
        22
    thevita  
       2 天前
    这些模型支持长上下文窗口多少都用了一些 Sliding Window, Chunked Window 之类的稀疏化技术,不然成本遭不住啊, 而且超长上下文的能力也不完全算原生的,一般都是 train short, test long, 没有那么多超长的训练语料, 这个过程也都可能带来损失
    再从信息本身来讲,每个 head 的维度固定,但 attention 会加权所有的前文 token 的信息进来,应该也是存在信息瓶颈的(这纯粹是我自己瞎说的)
    zpxshl
        23
    zpxshl  
       2 天前 via Android
    所有大模型都一样,gemini 尤其严重
    geminikingfall
        24
    geminikingfall  
       2 天前
    gemini3 的幻觉比较严重
    Meursau1T
        25
    Meursau1T  
       2 天前
    Gemini3 的幻觉率一骑绝尘:
    deepseek-ai/DeepSeek-V3.2 6.3 %
    deepseek-ai/DeepSeek-R1 11.3 %
    google/gemini-3-flash-preview 13.5 %
    google/gemini-3-pro-preview 13.6 %

    来源: https://github.com/vectara/hallucination-leaderboard
    frankies
        26
    frankies  
       2 天前
    gemini 是稀疏 token ,上下文一多一定会胡说八道。解决办法:一个问题开一个对话,设置里关闭记录历史数据。
    lscho
        27
    lscho  
       2 天前 via Android
    现在 ai 编辑器都会显示当前对话上下文使用了多少,超了之后就乱了
    zmazon
        28
    zmazon  
       2 天前
    @frankies #26 是关闭 设置里的 “活动记录”,还是“个人使用场景”?
    3img
        29
    3img  
       2 天前
    gpt 只会拍马屁了
    jqknono
        30
    jqknono  
       1 天前
    这是 llm 的召回率测试: https://fiction.live/stories/Fiction-liveBench-September-29-2025/oQdzQvKHw8JyXbN87

    上下文窗口不是越大越好, 应尊重前提能记住.
    importmeta
        31
    importmeta  
       1 天前
    调用过接口我才知道,他们内部保留上下文都有一个限度的。
    Stoney
        32
    Stoney  
       1 天前 via iPhone
    确实是,后面发的图片根本就不知道是什么图了,会拿之前发的图片分析一通
    FengMubai
        33
    FengMubai  
       1 天前
    Gemini 3 注意力非常涣散
    Clancy1024
        34
    Clancy1024  
       1 天前 via Android
    @qieqie 是这样的,之前有大佬套过 Gemini APP 中的 prompt ,Google 利用 prompt 降智(引导 Gemini 尽可能缩短思考链且对自己的回复“变得自信”;哪怕是 Google One 会员也一样)
    aistudio 几乎是满血版,api 绝大多数时候是满血
    AoEiuV020JP
        35
    AoEiuV020JP  
       1 天前
    很正常,所有模型上下文极限都不大,能无限聊天肯定是有压缩对话历史,每次压缩都会降智忘事,
    wsbqdyhm
        36
    wsbqdyhm  
       1 天前 via iPhone
    @maichael #12 具体怎么执行?
    pety
        37
    pety  
       1 天前
    和 lz 一样,用来做股票研究,一样的问题。

    不知 lz 使用时,会不会用的一些提示词?有没有相关的提示词可以分享 😊
    linkopeneyes
        38
    linkopeneyes  
       1 天前
    对话我一个对话窗口只会问一个问题,下一个问题就开新窗口问
    whyso
        39
    whyso  
       1 天前
    ai 的通病,虽然有的可以压缩前面的对话,但是效果还是会打折扣
    LPJD
        40
    LPJD  
       1 天前
    连续对话,每次对话都会把之前所有聊天记录拼接到一块然后发送出去。一次对话大概 500 字,100 次对话之后,就是 5 万字了,每说一句话,就会发送 5 万字。超了 AI 记忆容量,就会丢掉旧的对话记录
    lancelock
        41
    lancelock  
       1 天前
    ai 就这样
    tiezlk443
        42
    tiezlk443  
       1 天前
    更像人了有遗忘的
    zjl03505
        43
    zjl03505  
       1 天前
    甚至会出现对话截断,不催 事情做一半说要想想就不回复了
    hafuhafu
        44
    hafuhafu  
       1 天前
    超出上下文了呀。你在同一个会话里连续问答,实际上每次推理都会带上之前的全部聊天记录。几轮后就用掉很多上下文了,上下文窗口滑动了,前面的信息就丢掉了,有可能只有被截断的记录,自然会牛头不对马嘴。而且浪费 token 。
    一般一个问题有长篇的回答,问个几轮就差不多了。别的问题应该让他总结精炼后换下一个会话里问。
    wsbqdyhm
        45
    wsbqdyhm  
       1 天前
    gemin 新出了一个 Gem 功能,是不是就是针对这个问题进行优化的?
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2607 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 10:14 · PVG 18:14 · LAX 02:14 · JFK 05:14
    ♥ Do have faith in what you're doing.