V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
importmeta
V2EX  ›  Local LLM

有没有好用的本地翻译模型?

  •  1
     
  •   importmeta · 13 天前 · 2718 次点击

    想本地搭一个翻译服务,试了以下两个,一言难尽,质量还不如谷歌在线翻译。

    https://github.com/argosopentech/argos-translate

    https://github.com/winstxnhdw/nllb-api

    求一个好用的!先谢谢了!

    15 条回复    2025-08-25 11:59:27 +08:00
    Leon6868
        1
    Leon6868  
       13 天前
    可以试试 RWKV ,端侧小模型,0.6B 即可胜任翻译任务。

    RWKV Chat 2.1.0(build 513) 版本已发布

    🔄 最近更新

    ▸ [新增] 新增高级设置, 对话模板设置
    ▸ [新增] 手动检查更新
    ▸ [新增] 离线翻译功能
    ▸ [新增] 离线翻译服务器 (桌面版)
    ▸ [修复] 修复了多个小问题

    ⬇️ 客户端下载通道

    ▸ Android: https://www.pgyer.com/rwkvchat
    ▸ iOS: https://testflight.apple.com/join/DaMqCNKh (正在审核中)
    ▸ Windows:群文件: RWKV Chat 2.1.0(513) for Windows.zip
    ▸ macOS:群文件: RWKV Chat 2.1.0(513) for macOS.zip

    🔗 开源代码地址

    ▸ Frontend: https://github.com/RWKV-APP/RWKV_APP
    ▸ Backend: https://github.com/MollySophia/rwkv-mobile
    ▸ Python: https://github.com/BlinkDL/RWKV-LM
    ▸ 权重文件地址: https://huggingface.co/mollysama/rwkv-mobile-models/tree/main

    我们同时开还发了一款 Google Chrome 浏览器插件, 叫做 RWKV Offline Reader

    https://chromewebstore.google.com/detail/rwkv-offline-reader/mfiemlmkmdgefcohjnbkhbnmnjlhccmh

    这款插件的主要功能是使用 RWKV Chat for Desktop 作为引擎, 来实现知名浏览器插件:

    沉浸式翻译( https://immersivetranslate.com/zh-Hans/)的功能

    这款浏览器插件也是开源的:

    https://github.com/RWKV-APP/offline_reader
    Leon6868
        2
    Leon6868  
       13 天前
    @Leon6868 #1 可在 RWKV 应用内测群( 332381861 )下载桌面端
    krystal9527
        3
    krystal9527  
       13 天前   ❤️ 1
    poiz
        4
    poiz  
       13 天前
    https://developer.chrome.com/docs/ai/translator-api

    chrome v138 提供 client side 翻译 api ,跑的是 gemini nano (貌似),先不管准不准,反正很快(核显也挺快的)
    yek
        5
    yek  
       13 天前
    jifengg
        6
    jifengg  
       13 天前
    《质量还不如谷歌在线翻译》
    本地要跑过谷歌在线也很难吧
    SanjinGG
        7
    SanjinGG  
       13 天前 via Android
    你有点瞧不起谷歌啊
    cutecore
        8
    cutecore  
       12 天前
    firefox 最近发布了一个本地翻译模型 github 上有开源
    zealotxxxx
        9
    zealotxxxx  
       12 天前
    @Leon6868 #1 RWKV 哈哈哈哈,好少看到推广呢。该多推推
    iorilu
        10
    iorilu  
       12 天前
    非大模型翻译本来就不可能比谷歌强阿

    ollama 装个 qwen 模型用来翻译不就行了
    includewins0ck2h
        11
    includewins0ck2h  
       12 天前
    字节刚推出一个 Seed-X ,7B 参数,我看宣传的是接近商业大模型翻译能力,正准备试试。
    indexError
        12
    indexError  
       12 天前 via Android
    10 楼的可行 Chrome 和 obsidian 装个 沉浸式翻译 插件,可以实现网页、pdf 、md 文件的翻译
    我笔记本 3050ti 用的 0.6b 的 qwen3 感觉还行
    jwh199588
        13
    jwh199588  
       11 天前
    如果只是在浏览器使用的话,可以直接使用 chrome 最新版本自带的模型
    FrankAdler
        14
    FrankAdler  
       11 天前
    @Leon6868 写小黄文用 RWKV 的比较多,不知道翻译咋样
    molezznet
        15
    molezznet  
       10 天前
    @krystal9527 这个第一次看到, 部署看看了
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3364 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 33ms · UTC 04:55 · PVG 12:55 · LAX 21:55 · JFK 00:55
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.