首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX
›
Local LLM
有人在本地跑模型吗?
lihuashan
·
75 天前
· 1479 次点击
这是一个创建于 75 天前的主题,其中的信息可能已经有所发展或是发生改变。
我最近在学习 AI ,想本地搭建调试。我前段时间刚买了一台二手 m3max 128G 内存 1T 硬盘,不知道行不行?
AI
模型
本地
6 条回复
1
lihuashan
OP
75 天前
英伟达 9 越左右要出新机器:NVIDIA DGX Spark ,
https://www.nvidia.cn/products/workstations/dgx-spark/
2 万多元,感觉可以买?
2
xou130
75 天前
如果只是调试,可以用小模型,比如 7b ,0.7b 规模,CPU 强行跑也行
3
lihuashan
OP
75 天前
@
xou130
只是调试学习,后续可以从事 ai 相关的开发工作,我是 java 后端开发。7b 是不是太小了?
4
maximdx
75 天前
只是跑模型的话肯定没啥问题
5
xou130
75 天前
@
lihuashan
7B 够大了,实在要用大的模型可以 api
6
lihuashan
OP
72 天前
@
xou130
嗯,7b 或者 13b 好像是支持的,后续搞起来
关于
·
帮助文档
·
自助推广系统
·
博客
·
API
·
FAQ
·
实用小工具
·
943 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 25ms ·
UTC 22:55
·
PVG 06:55
·
LAX 15:55
·
JFK 18:55
Developed with
CodeLauncher
♥ Do have faith in what you're doing.
❯