beginor 最近的时间轴更新
beginor

beginor

V2EX 第 56321 号会员,加入于 2014-02-19 21:29:19 +08:00
今日活跃度排名 14517
gitlab.com 上的账户被禁用了,有没有办法申述?
GitLab  •  beginor  •  233 天前  •  最后回复来自 beginor
6
Google Chrome 无法使用 Mac 的位置服务?
macOS  •  beginor  •  2023-08-19 20:16:58 PM  •  最后回复来自 shenyuzhi
9
Switch 模拟器 Ryujinx 在 Mac M1 上的体验
  •  1   
    macOS  •  beginor  •  2023-07-28 13:37:16 PM  •  最后回复来自 remember5
    17
    beginor 最近回复了
    1 天前
    回复了 Leon6868 创建的主题 程序员 现代化 SSH 客户端求推荐
    M1 Max 感觉 tabby 太慢了, 装了 warp 正在玩
    1 天前
    回复了 Leon6868 创建的主题 程序员 现代化 SSH 客户端求推荐
    @hucw21750 谢谢,我看看
    1 天前
    回复了 GeekGuru 创建的主题 Apple M4 Mac mini 这么火,但是可能存在重大 BUG
    Mac 默认的风扇策略就是懒,装个 Macs Fan Control , 根据传感器温度范围自己调整一下,就舒服多了
    1 天前
    回复了 Leon6868 创建的主题 程序员 现代化 SSH 客户端求推荐
    感觉 JetBrains 2024.3 内置的新终端非常舒适,不知道有没有类似的独立终端应用?
    关注,没用过 Ava ,准备入坑
    4 天前
    回复了 baxia 创建的主题 程序员 现在程序员是不是没必要刷 leetcode 了
    @starqoq 赞同!

    自己不懂,连问 AI 的机会都没有。
    这说明是真果粉,苹果设备适应性强。

    弄个个 60Hz 的安卓试试?
    @emberzhang 补全代码用 starcoder2-3b.q8_0.gguf 就好,超过 7b 的都是浪费。chat 可以再跑一个大一点儿的
    看来 M1 Max 还是很能打的嘛, 本地用 llama.cpp 跑 qwen2.5-coder-32b-instruct-q8_0.gguf 结果如下:

    ```
    prompt eval time = 2354.87 ms / 117 tokens ( 20.13 ms per token, 49.68 tokens per second)
    eval time = 71813.88 ms / 521 tokens ( 137.84 ms per token, 7.25 tokens per second)
    total time = 74168.75 ms / 638 tokens
    srv update_slots: all slots are idle
    request: POST /chat/completions 127.0.0.1 200
    ```

    自己用的话还是可以的,继续等 M5 、M6 、M7 ...
    @kennylam777 continue 的本地话提示分两种,

    一种是 tabAutocompleteModel 也就是写代码时的智能提示,这个本地模型推荐的是 starcoder2-3b.q8_0.gguf ,这个只有 3G 大小, 一般的显卡甚至 CPU 都可以跑,效果不错, 基本上每天都在用;

    另一种是 chat , 也就是问答, 资源富裕的话跑 gemma 2 27b 或者 qwen 2.5 coder 32b 都可以这个规模的模型应对代码问答肯定没问题了;, 如果不富裕的话,跑个 7b/8b 的做问答也不是不行,但是效果肯定不如 27b/32b 规模的。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5290 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 08:37 · PVG 16:37 · LAX 00:37 · JFK 03:37
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.