V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
spike0100
0.01D
V2EX  ›  Local LLM

经过我一个多月的测试,我发现本地部署的 qwen3-vl-8b 比 qwen3-8b 在新闻和游戏名词等翻译上面更有优势

  •  
  •   spike0100 · 2025 年 11 月 4 日 · 1120 次点击
    这是一个创建于 80 天前的主题,其中的信息可能已经有所发展或是发生改变。


    图中最后两条是 qwen3-vl-8b 翻译的,基本已经接近母语直接阅读的翻译水平。
    gemma3-4b ,qwen3-8b ,gpt-oss-20b 都达不到这个水平
    6 条回复    2026-01-23 14:10:07 +08:00
    Tose
        1
    Tose  
       2025 年 11 月 5 日 via Android
    你这 mac 上的 rss 阅读器 UI 很不错!
    spike0100
        2
    spike0100  
    OP
       2025 年 11 月 5 日


    也有比较离谱的翻译。。。
    spike0100
        3
    spike0100  
    OP
       2025 年 11 月 5 日
    @Tose 哈哈哈,这是我自己写的应用! https://sidefyapp.com/
    liuyuntian
        4
    liuyuntian  
       2025 年 11 月 30 日
    问一下,除了新闻和游戏名词,整体的翻译是 8b 好,还是 vl-8b 好啊?多谢!
    spike0100
        5
    spike0100  
    OP
       2025 年 11 月 30 日
    @liuyuntian 没严格测试过。主要拿来翻译新闻了
    spike0100
        6
    spike0100  
    OP
       14 小时 43 分钟前
    @liuyuntian 现在我确定 translategemma 是本地大模型里面最适合做通用翻译的。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   902 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 20:53 · PVG 04:53 · LAX 12:53 · JFK 15:53
    ♥ Do have faith in what you're doing.