V2EX = way to explore
V2EX 是一个关于分享和探索的地方
Sign Up Now
For Existing Member  Sign In
my101du

Gemini 的上下文关联是不是太过头了?

  •  
  •   my101du · 1 day ago · 956 views
    比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面)

    它总是试图强行把前面提到的几个主题和我最后一个问题关联起来回答,显得自己记忆力很好的样子。例如

    >特别提醒: 既然你之前提到两台电脑局域网玩《帝国时代 2 》,Mac 版原生不支持 AoE2 HD 。虽然可以通过 Crossover 或虚拟机运行,但网络对战的联机排查(如你之前遇到的虚拟网卡问题)在 Mac 环境下会更加复杂。

    我最近遇到这种情况很频繁,屡次告诉它,不要这样,因为我懒得手动分成一个个独立的主题,如果我多次询问,主题之间没什么强关联,就不要强行去关联了。

    它是道歉了,说以后不这样,然而下次还是老样子。

    但是豆包并不会,不管怎么穿插问不同的问题,都会分离得很干净。

    我希望能手动控制一下这个关联的强度。
    15 replies    2026-04-29 15:57:14 +08:00
    Sezxy
        1
    Sezxy  
       1 day ago
    所以 antigravity 上用 gemini 模型写代码就是个灾难,它只适合小任务
    fe619742721
        2
    fe619742721  
       1 day ago
    是的,我自从跟他对话告诉他我开的电车以后,每次让他规划行程,他一定要带上充电计划,烦得要死
    TrevorPhillips
        3
    TrevorPhillips  
       1 day ago via Android   ❤️ 1
    设置里关闭记忆
    my101du
        4
    my101du  
    OP
       1 day ago
    @TrevorPhillips 感谢!
    my101du
        5
    my101du  
    OP
       1 day ago
    我突然感觉一种场景,剥开了 AI 华丽外衣下,看到里面全是丑陋的管线堆叠和强行粘贴的一堆配件。 他表现得再有情感,再细致,也是假的。
    Trustzone
        6
    Trustzone  
       1 day ago
    我也被逼的,每次都必须加上“请临时忘记所有历史记忆,仅根据我提供的信息和要求来回复”
    rrfeng
        7
    rrfeng  
       1 day ago
    是……自从我提过一次我是 SRE ,它什么问题都要加一句:作为一个 SRE xxxx ,好烦
    Jiajin
        8
    Jiajin  
       1 day ago
    chatgpt 我都是关闭记忆功能的,你以为的
    cnrting
        9
    cnrting  
       1 day ago via iPhone
    gemini 记忆功能就是个垃圾,什么问题都能帮你自动关联脑补
    LuliYanng
        10
    LuliYanng  
       1 day ago   ❤️ 1
    这个就是现在大模型“记忆”功能的一个大问题。。。因为像 gemini 或者 chatgpt 在网页端,甚至是 antigravity 这种,估计都是把过往的“记忆”直接注入到 system prompt 里面的。而进入到上下文,尤其是 system prompt 里面的内容,就不可避免的会“争夺”大模型的注意力,导致你问啥,llm 都想往这些记忆上靠一靠。而且我感觉很多时候很影响 llm 的表现,尤其是在讨论一些创新一点的内容的时候,会被记忆中现有的东西严重束缚住。有一种“好汉总提当年勇”的感觉。。。感兴趣的可以读一下 every 的这篇文章( https://every.to/also-true-for-humans/why-i-turned-off-chatgpt-s-memory ),作者不亏是写书的,表达能力比我好多了
    kurisu
        11
    kurisu  
       1 day ago   ❤️ 1
    好奇楼上有没有认真看主题。
    op 说是在‘在同一个对话下面,让 ai 排除已有的上下文回答问题’,显然是不符合大模型的正确使用姿势的吧?
    当然也确实可以在一个会话里问毫不相关的问题,但是应该做好预期管理吧。
    这样使用显然需要在提问中加更多提示词约束,也得做好得到的答案不够好的准备。
    my101du
        12
    my101du  
    OP
       1 day ago
    @kurisu 我觉得这和与人类沟通的方式太不一样了。

    我和人在办公室闲聊,很可能会前一分钟聊天气,后一秒聊到昨天的一个项目文件是不是打印了 3 份,完全两码事。

    作为人类,我很容易知道不要强行关联,我绝对不会说“这个文件已经打印了 3 份。但由于你刚提到了天气,所以我猜测你可能想知道今天出门去寄送这 3 份文件是否要带伞”。

    大模型这么做,让我觉得他过于炫耀自己的记忆力,强行尬聊,会令人生厌的(但它自己不知)。 这也是让我感觉再强大的大模型,也许将来也很难产生情感。 记忆力再好,最好也要默默记得就好,不要急着显摆。。。

    具体到这个产品,如果还不够智能,最好要么默认关掉这个开关, 当需要记忆的时候,手动调整强度。
    kurisu
        13
    kurisu  
       1 day ago   ❤️ 1
    @my101du 因为 ai 是工具,不是人类。就像你不会用锤子去拧螺丝一样。现在的 ai 的设计就不是让你这么用的。这样用就是给自己上强度。
    你想提问多个不关联的问题,就应该开不同的对话,或者用更多提示词约束。
    (你说的什么开关,手动调节强度,我觉得都不如开新会话来的好)
    或许未来 ai 会更强,能满足你的想象。但我觉得现在还不行。
    Mystery0
        14
    Mystery0  
       1 day ago via Android
    设置里面关闭记忆,如果想同会话每个问题都分开,有临时会话
    duxiansen
        15
    duxiansen  
       23h 57m ago
    同感,当它知道我有一台 Mac mini 之后,什么事情最后都会扯到 Mac 上。
    About   ·   Help   ·   Advertise   ·   Blog   ·   API   ·   FAQ   ·   Solana   ·   5374 Online   Highest 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 53ms · UTC 07:54 · PVG 15:54 · LAX 00:54 · JFK 03:54
    ♥ Do have faith in what you're doing.