首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX
›
Local LLM
本地跑 AI,该买什么设备,不想折腾又想省点钱, mac m4 怎样,有哪些坑需要注意
MHPSY
·
7 天前
· 587 次点击
如题:
我最近想尝试在本地跑一些 AI 模型,只是想玩一玩,但对硬件需求不太了解。 希望设备性能足够跑主流模型,但又不想折腾太多,同时预算也有限,想尽量节省一点。
AI
设备
预算
1 条回复
•
2025-04-02 16:34:17 +08:00
1
tomczhen
7 天前
用买 m4 的预算装台无显卡主机,再买块 5090 ,用完出掉显卡说不定还能赚点。
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
5749 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 27ms ·
UTC 01:53
·
PVG 09:53
·
LAX 18:53
·
JFK 21:53
Developed with
CodeLauncher
♥ Do have faith in what you're doing.