bwnjnOEI 最近的时间轴更新
bwnjnOEI

bwnjnOEI

V2EX 第 545030 号会员,加入于 2021-05-11 13:45:47 +08:00
今日活跃度排名 13266
根据 bwnjnOEI 的设置,主题列表被隐藏
二手交易 相关的信息,包括已关闭的交易,不会被隐藏
bwnjnOEI 最近回复了
不出意外应该是 oai 开的头,researcher 觉得这样很好但感觉有时候挺 sb 的,谁让人家牛 b 呢
给 t1 队员都打笑了
第五把 t1 选完下路双人,tabe 下台时表情就不好了。
6 天前
回复了 youzhiqing 创建的主题 分享发现 如何修改 X 算法推荐
没懂
6 天前
回复了 qdwang 创建的主题 问与答 目前医疗类 AI 哪个最好?
我觉得 aq 很拉,蚂蚁买完好大夫,好好的数据就这么浪费了,其他的国内没用过,考虑个人隐私这方面不打算用国内的(比如上传化验报告懒得/忘记去名字还是把个人信息给大洋对面)。感觉还是 chatgpt 好用,开源的话就 medgemma27b 消费级也能部署。
6 天前
回复了 scim 创建的主题 问与答 wxauto 也归档了,大家怎么看
这种东西出来一个腾讯就会清除一个,我比较好奇他们都是怎么找到作者的,这比翻墙协议作者还严重吗
@Saunak 现在官方店都是 5090d v2 吧,官方店好像只有超级雕有 d
@Saunak 电源黑匣子吗? 1600w 够了吧,尽可能买贵的,用显卡带的线安装时最好拍个视频(虽然也没啥用 要是不放心再上个稳压器或者 ups 之类的(其实没啥大用 显卡待机也就 2 3 十瓦 你跑模型多说飙到 100w (我说的是推理,我微调或者 rl 都用实验室的卡或者买 gpu 云
买新不买旧啊,那个 48g 的我也心动过,但是毕竟改装卡。只要是 moe 架构的模型都可以把专家权重卸载到 cpu 只把前 n 曾放在 gpu flash-atten kv 都不用设 q8 也就是说 60g 以内的模型在权衡质量和 tps 和预算的情况下你都能跑 gpt-oss-120b qwen3-30b ,4090 也能到 20-25tps ,当然还能优化
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5491 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 11ms · UTC 06:32 · PVG 14:32 · LAX 22:32 · JFK 01:32
♥ Do have faith in what you're doing.