qiancheng 最近的时间轴更新
qiancheng

qiancheng

V2EX 第 127171 号会员,加入于 2015-07-14 19:02:25 +08:00
根据 qiancheng 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
qiancheng 最近回复了
2 月 11 日
回复了 xiaoxiaodong 创建的主题 生活 购买摄像头咨询
TPLINK 的 IPC48DW
2 月 10 日
回复了 qiancheng 创建的主题 Cursor 如何让 cursor ide 改代码的时候不要瞎几把改
@tomatocici2333 这个最佳实践也值得一看,感谢
从训练模型的原理上来看 tokenizer 对中文和英文编码的 token id 是不一样的,虽然经过 ROPE 位置编码,中英文混合语料训练过,表面上看回答的头头是道,但是中英文的表现会有较大差异。

1 、大家可能记得 llama3/4 在中文上的表现一塌糊涂,但是在英文上的表现尚可
2 、国内的大模型基座训练会增大中文语料比率,以及增加一下中文互联网常见的语料和书籍,所以大家实际在用大模型比如豆包,千问,deepseek 时候会感觉中文的思考能力和回答的模式接近正常人,这是因为在 post-training 以及 RL 阶段对齐了中国人在日常的常见场景,这也是为什么有的会给你推荐中药和中医的原理,以及算命,阴阳等。

不要忘记大模型发展到如此智能的当下,依然建立在概率论和语料的基础上的。

我赞同 #16 rick13 的观点,如果你能引导 AI 用英语思维,critic thinking 这是最好,但不完全代表你用纯英文问国内的 GPT 就能获得比中文 prompt 得到更好的更高质量的回答,因为国内的 GPT 在英文语料上的训练比率较低,且没有后续多阶段精调。

如果你希望 AI 能更好辅助你,首先你自己要能够 critic thinking ,并验证信息源,尽量不带偏见使用开放式问答,多角度反复尝试多个 GPT 。
Zoo
1 月 22 日
回复了 silencelixing 创建的主题 Mac mini Mac mini 适合跑什么本地模型?
Everything -> HoudahSpot
win + V -> Maccy
say good job
1 月 7 日
回复了 Jacefan 创建的主题 剧集 推荐一些美剧 xdm
fall captain
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5217 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 12ms · UTC 09:34 · PVG 17:34 · LAX 02:34 · JFK 05:34
♥ Do have faith in what you're doing.