V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
MHPSY
V2EX  ›  Local LLM

本地跑 AI,该买什么设备,不想折腾又想省点钱, mac m4 怎样,有哪些坑需要注意

  •  
  •   MHPSY · 7 天前 · 587 次点击

    如题:

    我最近想尝试在本地跑一些 AI 模型,只是想玩一玩,但对硬件需求不太了解。 希望设备性能足够跑主流模型,但又不想折腾太多,同时预算也有限,想尽量节省一点。

    1 条回复    2025-04-02 16:34:17 +08:00
    tomczhen
        1
    tomczhen  
       7 天前
    用买 m4 的预算装台无显卡主机,再买块 5090 ,用完出掉显卡说不定还能赚点。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5749 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 01:53 · PVG 09:53 · LAX 18:53 · JFK 21:53
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.