V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
lihuashan
V2EX  ›  Local LLM

有人在本地跑模型吗?

  •  
  •   lihuashan · 75 天前 · 1479 次点击
    这是一个创建于 75 天前的主题,其中的信息可能已经有所发展或是发生改变。

    我最近在学习 AI ,想本地搭建调试。我前段时间刚买了一台二手 m3max 128G 内存 1T 硬盘,不知道行不行?

    6 条回复
    lihuashan
        1
    lihuashan  
    OP
       75 天前
    英伟达 9 越左右要出新机器:NVIDIA DGX Spark ,https://www.nvidia.cn/products/workstations/dgx-spark/

    2 万多元,感觉可以买?
    xou130
        2
    xou130  
       75 天前
    如果只是调试,可以用小模型,比如 7b ,0.7b 规模,CPU 强行跑也行
    lihuashan
        3
    lihuashan  
    OP
       75 天前
    @xou130 只是调试学习,后续可以从事 ai 相关的开发工作,我是 java 后端开发。7b 是不是太小了?
    maximdx
        4
    maximdx  
       75 天前
    只是跑模型的话肯定没啥问题
    xou130
        5
    xou130  
       75 天前
    @lihuashan 7B 够大了,实在要用大的模型可以 api
    lihuashan
        6
    lihuashan  
    OP
       72 天前
    @xou130 嗯,7b 或者 13b 好像是支持的,后续搞起来
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   943 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 22:55 · PVG 06:55 · LAX 15:55 · JFK 18:55
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.