V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
Qinnn
V2EX  ›  程序员

Anthropic Claude Sonnet 4 上下文 token 数提升至 100 万,提升了五倍

  •  
  •   Qinnn · 42 天前 · 2368 次点击
    这是一个创建于 42 天前的主题,其中的信息可能已经有所发展或是发生改变。

    这个上下文长度有点强了,就是不知道超大上下文会不会也伴随着降智的问题。

    5 条回复    2025-08-13 16:21:22 +08:00
    MIUIOS
        1
    MIUIOS  
       42 天前
    鱼和熊掌不可兼得
    sentinelK
        2
    sentinelK  
       42 天前
    在其他因素均不变的情况下肯定有影响,因为更大的上下文,逻辑链路就更长,最优解的统计学优势就更不明显。
    但反之,上下文的质量如果很高,那么结果应该会更好。

    相当于是降低了下限,提高了上限。
    Seck
        3
    Seck  
       42 天前 via Android
    …………这么长的东西里面真的能找到重点?

    现在的人根本没有能力处理这么大的输出,纯纯的骗傻子
    sentinelK
        4
    sentinelK  
       42 天前
    @Seck 这个“重点”其实是可以的。只要你给的上下文确实是有一个合理的最优解方向。因为从广义上讲,正确的上下文越大,其结果就越贴近于使用者的需求。

    比如,之前的 GPT3.5 ,基于其上下文能力,你只能问一些语法等非业务问题。
    但目前就可以问功能、问模块。

    上下文再大一些可以问程序架构设计、跨项目的接口合理性规划等。这是一个循序渐进的过程。
    所以上下文的扩展,其实是对使用者,以及周边配套程序(类似 Copilot 的搜索、 @workspace 功能)的上下文设计能力提出了更高的要求而已。

    更大的上下文总是好的。
    absx
        5
    absx  
       42 天前
    那么,代价是什么呢? https://www.anthropic.com/news/1m-context
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4015 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 10:07 · PVG 18:07 · LAX 03:07 · JFK 06:07
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.