t41372 最近的时间轴更新
t41372

t41372

哈哈
V2EX 第 583966 号会员,加入于 2022-06-06 20:06:39 +08:00
今日活跃度排名 5422
1 G 41 S 59 B
免费的 6 个月卡巴斯基,感谢美国商务部
  •  2   
    分享发现  •  t41372  •  3 天前  •  最后回复来自 javazero
    68
    很讨厌桌面端系统的权限管理模式
    操作系统  •  t41372  •  87 天前  •  最后回复来自 kuanat
    11
    llama 3 发布了,我感觉挺猛的...
  •  2   
    分享发现  •  t41372  •  2 天前  •  最后回复来自 kangfenmao
    12
    为什么用 telegram 的人这么多
  •  1   
    Telegram  •  t41372  •  114 天前  •  最后回复来自 buytraffic
    148
    t41372 最近回复了
    3 天前
    回复了 WMutong 创建的主题 OpenAI 求助, python3.11 调用 chatGLM2_6b 模型
    @WMutong ...跑不跑的动要看那个 "6b", "9b",也就是参数量。大模型迭代速度很快的,新的小模型打爆一年半年前的大模型是很常见的。还有你的 m2 32gb 能跑的模型应该挺多的。我自己的 m1pro 16gb 基本上 12B 左右都能跑的很流畅,glm4 不在话下。去下个 ollama 吧,一行命令直接下载运行最新的大模型。
    @Andim 你可以用 OpenVPN connect 连他的服务器,在你的订阅页面右上角 vpn 的选项,下面有个给 router 用的东西,那里可以搞到 openvpn 或 wireguard 的配置,不过好象只能选一个服务器用
    当然,这其实听起来挺可疑的,他们想破罐子摔碎也不是完全没可能...
    7 天前
    回复了 WMutong 创建的主题 OpenAI 求助, python3.11 调用 chatGLM2_6b 模型
    不跑个量化版本的吗
    我不知道是不是配置不够,不过一般你跑非量化版本的 llm 对配置要求都挺高的。一般用 mac 的会用 llama.cpp 或 ollama 或别的什么跑量化过的 llm ,也有针 Mac 的优化。
    还有现在都什么年代了你还在跑 chatGLM2... glm4 都出了...
    如果你不需要 GUI 的话,用 orbstack 开 x86 Linux 虚拟机很快,用的好像是 Rosetta 2 。
    21 天前
    回复了 t0rp3d0 创建的主题 信息安全 3300 万 Authy 用户手机号泄漏
    存 totp 的东西就不该联网
    32 天前
    回复了 FirefoxChrome 创建的主题 互联网 我, zlib,打钱,这邮件是真的吗?
    用 Anna's archive 吧
    33 天前
    回复了 baoshu 创建的主题 Linux 有没有适合开发者的 Linux 系统
    提醒一下,你要确保你足够信任提供配置的人。开源不保证安全,供应鍊投毒发生过很多。
    开源的安全来自于 code review ,但真的去做 code review 的人其实很少。
    另外,感觉会做 code review 的人不会去看这种帮你配 linux 的懒人包,很有可能会有人在里面加料... 这种懒人包在我印象中算是一个病毒的重灾区...
    33 天前
    回复了 googol2chen 创建的主题 互联网 为什么有的网站至今还不升级为 https?
    @tool2dx 我这方面没有很懂 但这不是就只是单纯的从丢密码变成丢通行证了吗 中间人还是可以拿着这个信息登入用户帐号不是吗
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1106 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 36ms · UTC 23:33 · PVG 07:33 · LAX 16:33 · JFK 19:33
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.