首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
V2EX
›
Mac mini
Mac mini 适合跑什么本地模型?
silencelixing
·
11 天前
· 353 次点击
我跑了一个 llama2 ,速度好慢啊
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt":"Why is the sky blue?"
}'
用官方的指令,竟然花了 1 分多钟,才回答完……
大家的 mac mini 跑的都是什么本地模型?
目前尚无回复
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
1086 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 19ms ·
UTC 23:30
·
PVG 07:30
·
LAX 15:30
·
JFK 18:30
Developed with
CodeLauncher
♥ Do have faith in what you're doing.