V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  maolon  ›  全部回复第 1 页 / 共 4 页
回复总数  73
1  2  3  4  
3 天前
回复了 kodise 创建的主题 Android 讨论一下安卓瞎眼屏
不是杠,我确实比较好奇关于瞎眼护眼(频闪对眼睛影响)有没有相关的研究?
感觉一谈这个话题都是某某 up 视频某某 kol 的微博
反正综合现在 signal65 的报告,宏基这个内鬼的图,还有 gb6 泄露跑分来看 X elite 这个 u ,单核性能不如 m3 ,同样是 surface 模具满载温度比 surface 上代 i7 还高,signal65 报告里写续航比 m3 air 长 25%,但是宏基的图说 50wh 电池播视频 7 小时。就不知道谁真谁假了。
但是考虑到他 12 大核的配置没小核,续航理应不会好看。
要我猜就是 arm 笔记本的优势他一个不沾: 高单核,高续航,高能耗比
@tyrone2333 compare ipad models -> summary -> chip ,这年头人懒得的连动动手指头看个官网都不会了?
@shellname 不合理啊,但是贵不贵和值不值是另一个问题,跟标多少卖多少所以苹果不要脸有关系么
@tyrone2333 但凡你去官网瞄一眼再回来跟我对线呢?
@nuomi196500 我是不是很理解,内存芯片的带宽是同一等级的,最后到消费者手上大小是固定的,消费者最终体验也是一致的,ab 供从来只保证结果,不保证过程。你非要纠结行业老大的 dos and donts 那也只是你的一厢情愿的想法。
@nuomi196500 先不纠结你这个说法是否合理,这里有一个逻辑: 你怎能够仅凭市面上少数几个拆解就认定这代发售的所有内存芯片都是通过 6+6 软屏蔽成 8g 而不是 4+4 和 6+6 混用?
顺带一提这事儿是极客湾飘哥发现的,他甚至在视频里提都没提这一点就是因为他也没法通过少数几个拆解实锤这事
8 天前
回复了 mogutouer 创建的主题 Apple AI 开发时代, APPLE MAC 落后了
@James2099 mac 上的一个叫 rewind 的 app 了解下? recall 不就是个 win 版的 rewind 嘛,人还出的早多了
他标的几 g ? 8g , 他卖给你的几 g ?哦也是 8g 。 “苹果不要脸”
10 天前
回复了 alexcding 创建的主题 Apple 微软发布 ARM 版本的 Surface Pro 系列
@zhaidoudou123 他 ppt 里是半个字都没提单核的事儿,比多核峰值,比多核持续能力,然后比续航(纯播视频时间比 mba 看网页播视频长😂),最后比 ps 的滤镜。
10 天前
回复了 alexcding 创建的主题 Apple 微软发布 ARM 版本的 Surface Pro 系列
@zhaidoudou123 你还真说对了他 ppt 上拿着 12 大核的 xe 打 4 大 4 小的 m3 而且是 8g 版的,然后结论是: 赢
12 天前
回复了 ugpu 创建的主题 TypeScript TypeScript 现在的应用场景
nextjs + t3 stack + vercel 全栈部署一把梭
你需要这种要求就不要选 kimi, kimi 跟随人类指令的能力很差。以及楼上说的对,你真要做这种就前置一个意图识别,识别完再调用回答
kimi 跟随人类指令的能力相当差,优势只在超长上下文。 文心没怎么用不评价。
国内外一起算的话 qwen 应该是国产最强模型。yi 就一魔改 llama ,没啥前景。
deepseek 还有待进一步观察他那个 MHL 是否在回答质量上优于 MHA
15 天前
回复了 Hamao 创建的主题 程序员 咨询一个意图识别(向量检索)方面的问题
这场景不是更适合 sqlretriever 么,你的问题转化 sql 然后查询数据库。vector db 更适合搞知识库(比如问答 qa)查询。
当然你硬要这么搞也行,调整存到数据库的 a 的字段,尽量把信息搞的精简 比如类似 json 的那种格式 “商品名: acd, 价格: xxx, 生产公司: xxx,” 然后多余信息一点都不要给。
我之前做过一个查询工作的也是上面类似的思路
15 天前
回复了 KepaThings 创建的主题 Apple 怎么 vision pro 没啥讨论度了
本来就是苹果在公开卖开发机,怎么可能很火
17 天前
回复了 wencan 创建的主题 机器学习 有没有专门智能解析 PDF 的开源模型?
提取块的: qanything, ragflow 但是是把整篇文章分块,你要求的段落在里面,然后 llm 问答,可以在管理界面查看管理提取过的段落
普通低配能跑: 这两都不怎么行
最后开源模型: qwen 1.5 的 7 或者 14 应该能满足你需求
接近是接近,推理和跟随用户指令上来说还是差点意思,中文能力更差点意思,另外用 groq 就可以了,个人用直接免费那一档不会超限制。
苹果的模型倾向就跟现在主流模型不同,
第一特别小 0.27b 0.35b 1b 和 3b 可以跑哪怕 4g 的内存里,其次他有自己的推理框架和压缩算法,这点上比安卓这边是个优势。
第二他估计是要搞 large action model ,也就是说只要能识别用户意图并操作用户手机执行操作就行了,不是我们一般意义上 all purpose 的 llm 大模型。传统功能的大模型应该他会放云端,也就是跟百度和谷歌合作那个
1  2  3  4  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   1823 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 00:38 · PVG 08:38 · LAX 17:38 · JFK 20:38
Developed with CodeLauncher
♥ Do have faith in what you're doing.