ollama 用法跟 docker 很类似,指定 run 哪个模型就会自动去下载使用。
我用我的 1650 笔记本允许 mistral ,跑起来速度还行。
模型列表: https://ollama.com/library
方法: 建议采用 wsl2 运行 ollama ,安装 cuda 后即可利用显卡跑 ollama ,否则会利用 cpu 跑大模型。
wsl2 安装 cuda 直接用我这个链接即可: https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=WSL-Ubuntu&target_version=2.0&target_type=deb_local
1
cwyalpha 2024-02-28 16:08:14 +08:00
1650 显存多少?能跑什么量级的模型?
|
2
ahsjs 2024-02-28 16:11:42 +08:00
嗯嗯,我也用的这个,只能跑小模型,谷歌的 gemma 之类的
|
3
o562dsRcFqYl375i 2024-02-28 16:20:54 +08:00
确实很方便。至于能跑多大的模型主要看机器的硬件配置吧,跟 ollama 这个工具应该没多大关系
|
4
ChaoYoung 2024-02-28 16:22:20 +08:00
同类 LM Studio 可视化相当不错
|
5
keepRun OP @cwyalpha 显存 4g ,不过 win11 会自动把显存和内存同时用上,所以即使跑 7B 模型也可以,只是速度会慢些
|
![]() |
6
Rrrrrr 2024-02-28 16:42:11 +08:00
Macbool air M2 可以跑吗,给个教程
|
7
panxiuqing 2024-02-28 16:43:49 +08:00
Mac 上用 m1 很快。
|
![]() |
8
l4ever 2024-02-28 16:45:30 +08:00
早就试过, 没有好用的模型. 有更好的推荐吗?
|
11
supergeek1 2024-02-28 17:08:47 +08:00
可以,m1 pro 跑个小模型速度很快
|
12
monsterx2a 2024-02-28 17:42:02 +08:00
它和 docker 啥关系? 有啥优势吗?
|
![]() |
13
kwater 2024-02-28 18:02:28 +08:00
ollama 安装后, 跑 17g 模型在 m1 还行,下载速度飞快,
加载首次等待比较久。 ollama run gemma:7b-instruct-fp16 可以自己开多会话 在 内存紧张就选小的 ollama run gemma:7b |
![]() |
14
dacapoday 2024-02-28 18:02:37 +08:00
主要是它底层的 ggml 库的功劳,作者是个肝帝,移植了大量 开源的 llm 和 权重
|
15
keepRun OP @monsterx2a 跟 docker 没关系,只是使用方式像 docker
|
16
McVander 2024-02-28 22:07:16 +08:00
m2 max 运行 gemma:7b 速度飞快
|
17
CyouYamato 2024-02-28 22:13:06 +08:00
手里有台闲置的 4060,目前测试了 gemma 7B ,2B,llama2 。目前来说,2B 快又还不错。搭配 chatbox 还不错。
|
![]() |
18
kaichen 2024-02-28 23:16:05 +08:00
@Rrrrrr #6
到 https://lmstudio.ai/ 下载个客户端,搜索对应大小的模型( apple silicon 是内存的 3/4 可以作为显存),可以先搜索 qwen gguf 找个合适大小的玩玩看 然后可以直接对话,或者启动一个与 openai api 兼容的 api server |
19
cyp0633 2024-02-29 08:36:50 +08:00
怎么在我的 1650 笔记本上就用 CPU 跑 mistral-7b...
|
![]() |
20
weilongs 2024-02-29 10:59:26 +08:00
目前在用 m2 pro 跑. 客户端本地使用 chat box. 后面考虑是否搞个 Mac 盒子 穿透玩一下.
|
![]() |
21
skywalkerfc 2024-02-29 11:33:35 +08:00
确实很方便,用公司的 m2 很快,在家用自己的 18 款 intel 就风扇直响
|
23
freedom1613 352 天前
本地跑个小模型,用用沉浸式翻译、Openai-Translator 很不错,感谢推荐
|
![]() |
24
kangfenmao 236 天前
给你推荐一个支持 Ollama 的本地客户端,可以自动加载 Ollama 下载的模型 https://github.com/kangfenmao/cherry-studio
|