V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  lrigi  ›  全部回复第 4 页 / 共 30 页
回复总数  586
1  2  3  4  5  6  7  8  9  10 ... 30  
@Aspector 能跑 30B 其实就够了,再大的话不如直接模型并行丢服务器了
@siriussilen 我也是这样想的呀😌本地要是能高速跑跑大模型 int4 推理就更好了。我就用 vscode ,transmit ,pdf ,网页一般不超过十个。之前试过 8G 的 mac mini 完全够了。
@mmdsun 都用了快十年 Mac 了,就从来没考虑过 Windows 。没事俺有服务器,显卡其实无关紧要
@ShadowPower youtube 看了下 确实有差距😌和 4090 差距在十倍吧我笑死。V100 都是要淘汰的卡了,那苹果这个确实不太行,那感觉 64G 内存确实没啥用,甚至 max 都没必要上了
@ShadowPower 显卡肯定不缺啊😂各种都有
@neopenx 确实,你说到重点了,这里是问题
@AnsonUTF8 你说的也有道理,现在用了快十年的 Mac 就是 16G ,总是要升级一点的嘛
@czfy 我没怎么看过那个视频,你觉得我哪里说的不对你可以反驳我,而不是说一些没意义的话。相比专业的计算卡,mac 是不是在价格和显存容量上都有优势? m2 max 的 tflops 是不是跟 v100 差不多?
@czfy 😏时代变了大兄弟,m2 max 已经和 v100 计算力差不多了,以后可能真的很多论文用 mac 实现了。毕竟学界很多组还在 2080ti 和 titan 呢
@ZedRover 现在适配的应该不错了,毕竟 llama 和 sd 里面都有包含很多比较新的算子吧。服务器不缺,但不是要换机吗,3000 块加 32G 显存打着灯笼也找不到吧,还是挺心动的。
@ZedRover 我现在就是 16G+vs remote ,但既然买电脑了,要求不高( 7B 到 65B 都能推理不过分吧
@murmur 我也想问这个问题,之前有人说 32G 的内存只能让 22G 当显存,有这样的限制吗?
@swulling 训练肯定不行,内存大就可以平时玩玩推理么(不过好像也没时间

@deplivesb 和 4090 的差距不应该这么小吧,难道是 batch 大了一倍?你这个 sd 是不是 batch 开的很大还是怎么样,sd 的参数量好像不多,请问除了 sd 的话 64G 显存还有什么玩耍的场景吗?
升呗,不升级系统有漏洞的话等着人家攻击吗。
279 天前
回复了 cczvip 创建的主题 Apple iPad pro 11 寸 256 和 iPad air 256 怎么选
这完全没可比性啊,pro 暴打 air
280 天前
回复了 techtony 创建的主题 NAS 想买一台 NAS,大家给点建议
自己组个主机装 trueNAS 美滋滋
@klementina 我还真去看了,pro 哪有 64 内存….m1 max 有吗?
@MASAILA 这完全不可能啊,copilot 才出来一两年?怎么可能写 41%
性能好不就等于更费电吗……
之前 air 是手机 cpu ,现在是电脑 cpu
另外 120hz 的屏幕肯定比 60hz 更耗电
1  2  3  4  5  6  7  8  9  10 ... 30  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   3270 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 27ms · UTC 12:36 · PVG 20:36 · LAX 05:36 · JFK 08:36
Developed with CodeLauncher
♥ Do have faith in what you're doing.