Ollama 运行 Llama2 大模型,怎么友好的支持中文 xiaohupro • 166 天前 • 最后回复来自 kangfenmao | 13 |
离线大模型有支持文档翻译的吗 gtese • 277 天前 • 最后回复来自 MapleEve | 9 |
Mac 上有哪些适合本地运行的 llm 呢 sheller • 279 天前 • 最后回复来自 sheller | 4 |
想用手头的硬件最低成本尝试下本地 LLM 推理,请教一下方案 avalox • 281 天前 • 最后回复来自 GeekGao | 15 |
Air M3 24G 能不能跑不量化的 7B 本地大模型推理? CatCode • 283 天前 • 最后回复来自 ozOGen | 14 |
推荐各位利用 ollama 在自有电脑上跑大模型,使用非常方便 keepRun • 171 天前 • 最后回复来自 kangfenmao | 24 |
求推荐开源 AI 模型 balabalaguguji • 294 天前 • 最后回复来自 weixind | 11 |
在 2024 年 3 月这个时间节点,有哪些可以开箱即用私有化部署的 gpt 大模型可以使用?内网部署仅对投喂导入的资料做回答这种? retrocode • 299 天前 • 最后回复来自 retrocode | 2 |
有没有现成的 chrome 插件,能使用 gpt 一键翻译网页内容。 longchisihai • 266 天前 • 最后回复来自 sola97 | 40 |
gemma:2b 这个模型想要流畅运行起来需要什么配置的电脑 abcfreedom • 305 天前 • 最后回复来自 abcfreedom | 30 |
如何系统的深入 LLM?求资源 lemoon • 312 天前 • 最后回复来自 Morriaty | 12 |
7B 大模型不量化, 16G 显存就差那么一点儿,难道消费级显卡只有 90 系能跑? CatCode • 306 天前 • 最后回复来自 basncy | 6 |
Google Gemma 开源没人讨论下吗? Jinnrry • 315 天前 • 最后回复来自 snowflake007 | 54 |
ollama 平时不使用的时候会占用内存吗? coinbase • 317 天前 |
有人买英特尔 14 代 ultra 系列的 cpu 了么,里面的 npu 运行 ollama 速度大概什么样? PungentSauce • 318 天前 • 最后回复来自 Track13 | 1 |
运行 LM Studio 的电脑硬件配置 cmonkey • 241 天前 • 最后回复来自 fushenzhi | 11 |
ollama 推出 windows 版的 preview,可以在本地跑大模型,在老机器上跑感觉效果不错 frankyzf • 324 天前 • 最后回复来自 frankyzf | 6 |
求推荐 基于本地文件的大模型? dropdatabase • 338 天前 • 最后回复来自 luguhu | 5 |
有人(个人)自己使用开源的 LLM 大模型吗? yuyue001 • 346 天前 • 最后回复来自 kennylam777 | 66 |
各位大佬,想玩玩 70B 参数规模的大模型,有没有什么推荐的云服务? Int100 • 357 天前 • 最后回复来自 akin520 | 4 |