V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  neteroster  ›  全部回复第 1 页 / 共 40 页
回复总数  781
1  2  3  4  5  6  7  8  9  10 ... 40  
你说的对但是 +2000 左右我能更换到下面的内存/存储配置

https://i.imgur.com/reV7S2y.png

等什么时候 MacBook 能做到体验后再来评论(
6 天前
回复了 9yu 创建的主题 分享创造 我用 Rust 写了一个日漫汉化工具
@RedNax

已经有一些辅助的,比如
https://github.com/dmMaze/BallonsTranslator

多模态完全成熟之后也许可以全自动化
有可能,不过原因几乎都仅仅是供电能力和散热能力的差别。甚至说同一 GPU (例如 4060 ),不同笔记本可能会有不同的功率限制,这时候可以查看别人测试的芯片能效曲线确认。
10 天前
回复了 knowckx 创建的主题 编程 常用大模型编程项目得分排名 04-19
注意这是 WebArena ,仅限前端编程
从来没有禁止过讨论 AI 新闻动态什么的,为什么会有这种奇怪的印象... 而且站内很多 AI 讨论啊,你看看他们被封了吗
非业界,只是对大模型有一定了解。

1. 很显然大模型不是所谓的“更高级”检索。大量例子表明 LLM 具有真正的泛化性,至少也是具有“通用模式匹配”的能力。

2. 很多人刚刚了解一点大模型的原理,就以 LLM 是“学习文本统计意义下的预测”这一点来否决 LLM 具有的泛化能力(他们通常还会辅以“LLM 具有幻觉”这一点作为例证)。LLM 是学习文本的统计学规律没错,但是我见过的任何一个持此类观点的人都无法陈述为什么学习统计学规律就无法产生真正意义下的“智能”(事实上,他们甚至无法准确地定义“智能”,就大谈“LLM 永远不可能有真正的智能”),LLM 会产生幻觉这一点也不蕴含 LLM 不能泛化,无法产生“智能”。

3. 与其关注“真正的智能”这种难以定义虚无缥缈的东西,还不如关注 LLM 能怎么用,缺乏什么能力阻止他变得更有用。我在这里得出的严重乃至本质上的需要克服的缺陷有两个:1. 无衰减的超长上下文 2. 持续学习(更新参数的那种)。只要解决这两点,大模型在实际生活生产中的应用可以大幅拓宽。甚至我觉得就凭现在先进的推理模型(比如 Gemini 2.5 Pro / o3 )加上上述两点就能实现非常接近 AGI 的存在。
15 天前
回复了 Fdyo 创建的主题 GitHub GitHub 网页版彻底崩了?
目前条件如下可复现

1. 大陆 IP ,无代理
2. 未登录情况(开无痕窗口)
#20 是对的,MoE 名字有些误导,实际上稀疏化才是目的和作用。并没有什么语义理解、问题拆分等模块。
31 天前
回复了 vagranth 创建的主题 奇思妙想 现在还有人需要“翻译 API 服务”吗?
这种不是很多,就算细分领域都一大堆了,比如日语游戏小说翻译:

https://github.com/NEKOparapa/AiNiee
https://github.com/neavo/LinguaGacha

还有提高翻译质量的译前自动术语表生成

https://github.com/neavo/KeywordGacha

更便捷的 gui 参数设置和 llama.cpp 启动器

https://github.com/PiDanShouRouZhouXD/Sakura_Launcher_GUI

甚至社区算力共享:
https://github.com/1PercentSync/sakura-share
41 天前
回复了 moudy 创建的主题 Apple Mac Studio 实战 671B 全量大模型成绩出来了
@wclebb

https://github.com/kvcache-ai/ktransformers/blob/main/doc/en/DeepseekR1_V3_tutorial.md

0.3-preview, 6454S×2, 4090D, D5-4800

pp~250, tg~12 ,我没记错的话这个 pp 远超 m3u ,tg 差些

更好的硬件:
https://zhuanlan.zhihu.com/p/30079534043
43 天前
回复了 NianBroken 创建的主题 问与答 可以画涩图的非本地 AI 有哪些?
novelai
43 天前
回复了 886106 创建的主题 Apple Studio M4max 128G 是否合适跑大模型
[同时]满足下面几个要求的情况下有优势:
1. bs=1 (不并发)
2. 轻 prefill 负载(仅类似 chatbot 任务,没有 rag 这样的工况)
3. 静音与便携
4. 需要跑较大的模型(很慢但能跑)

---

一旦你要并发或者重 prefill 任务就会原地爆炸,被多消费卡方案杀出几十上百倍的吞吐都不是不可能的。就算你不考虑吞吐只是单线程,也只有跑 MoE 的时候有比较显著的性价比优势,可惜这 128G 左右也没啥合适的 MoE 。

综合意见就是,大体上优势只有功耗静音。Ultra 的话能装下 R1 还有点看头,Max 除了功耗这些外围的基本可以说没什么跑 LLM 的优势。
46 天前
回复了 ayang23 创建的主题 分享发现 这道数学题能让目前所有 AI 原地爆炸
@wulili 每个周期内水位是先升后降的,19.6 小时处的那个尖峰其实已经注满了,19.6 是考虑了这一点下的结果。你直接忽略内部过程按周期看就是不一样的,但是你不能说 19.6 是错的
46 天前
回复了 ayang23 创建的主题 分享发现 这道数学题能让目前所有 AI 原地爆炸
o3-mini-high (api): 19 小时 36 分钟。

promptTokens=126, completionTokens=4342, 总时间=32s, tps=136
给张例图
47 天前
回复了 shuiguomayi 创建的主题 问与答 3000 元以内最强半高刀卡显卡推荐?
半高刀卡限制太严格了,技嘉有张 4060 Low Profile ,不过 8G 跑 14B 还是太勉强了
跑 memtest ,大概率内存本身就有问题
53 天前
回复了 atao777 创建的主题 计算机 diy 主机: itx 值得选择吗?
能不装不装,ITX 箱子装起来非常麻烦,没注意很容易这儿冲突那冲突,安装操作起来也很困难。如果实在要装也建议考虑大点的紧凑机箱,比如闪鳞 G300/400/500 这种 10-20L 的,硬件兼容性也会好很多。

最近装了台 G300 + ITX 板 + ATX 电源 + 4070 ,这个大小的机箱都不怎么好处理了。另外装极限小机箱或者紧凑机箱可以考虑 MoDT CPU ,7945HX 或者 Intel 对位的,能效比好很多,紧凑机箱散热比较紧张,散热多给显卡留些。
56 天前
回复了 klo424 创建的主题 Local LLM 求 DeepSeekR1 性价比硬件推荐
只有 671B 是“真正的” R1 ,其他蒸馏版本都没有跑过本体的训练管线,其实不能叫 R1
1  2  3  4  5  6  7  8  9  10 ... 40  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1135 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 41ms · UTC 23:05 · PVG 07:05 · LAX 16:05 · JFK 19:05
Developed with CodeLauncher
♥ Do have faith in what you're doing.