V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  cexll  ›  全部回复第 1 页 / 共 5 页
回复总数  99
1  2  3  4  5  
6 天前
回复了 darkce 创建的主题 程序员 字节的 Lynx 跨端框架开源了
看起来还可以嘛
15 天前
回复了 FlorentinoAriza 创建的主题 OpenAI 现在是 closeai 完整版了
不是挺好的吗? 大量封禁中国账号 然后没办法 只有选择国内的 给国内的厂商充值 把国内的厂商养起来,我的建议是封狠一点
15 天前
回复了 Jayleonc 创建的主题 MacBook Pro 月薪 1.4w 的程序员,应该升级 Mac 吗?
官网分期 24 期不就好了 电脑就是你吃饭的家伙 对自己好一点 我月薪没你高 一样买了 32g+1t 的 m1 pro,现在准备换 m4 max 64+4t golang+react 也是在学习 ai ,用了 mac 戒了游戏 天天就是工作 学习 挺好的 mac 搭环境太方便了 而且统一内存 跑大模型很方便
60 天前
回复了 coreJK 创建的主题 职场话题 避雷长沙的一家机器人公司
@beijing999923 #77 "小人得势" 这个词有点攻击性 “00 后” 这个词攻击性更是拉满了 我都不想过分解读你的心理了,op 只是让大家避坑 同时描述一下仲裁成功的喜悦 被你这样说 有点离谱
125 天前
回复了 Geele 创建的主题 京东 京东购买小米洗衣机后的垃圾体验!
建议完整描述你的操作步骤 使用过程 衣服在洗衣机待了多久 不要断章取义,最好就是录视频 然后写清楚你的整个过程 真的有问题就发微博发抖音 然后通过黑猫投诉申请解决
其实没有必要争论楼主是不是伪需求,菜鸟不就是这样吗? 根据运单尾号 之类的 查询在当前站点的快递单号,当然前提肯定是 WHERE + WHERE 你在亿级里面全量查询 必然不合理
macbook pro m1 pro 32g+1t
基本上 docker 全天开 30+微服务 感觉内存不够用 , 在写代码的时候 jb 也比较费 CPU
139 天前
回复了 Inuyashaaa 创建的主题 Apple M3 air 比 M1 air 使用体验有多大提升?
@marquina #14 不知道 WPS 的 bug 吧
139 天前
回复了 Inuyashaaa 创建的主题 Apple M3 air 比 M1 air 使用体验有多大提升?
从跑分上来看提升了 但是落实到你实际上 打开应用快 0.x 秒能感觉到吗 https://i.imgur.com/MX9Ku63.jpeg
140 天前
回复了 imsoso 创建的主题 问与答 今年双十一那么惨淡了嘛?
#小程序://京东购物/OruzeWiGOkRobig
无常大米 29.9 上车
149 天前
回复了 iamzcd 创建的主题 问与答 关于房价暴跌的一个想法:跟邻居换房
想想办法搞个公积金贷款 商转公 比你这个操作靠谱多了 https://i.imgur.com/Iy0taMy.png
抽象 真的是什么人都有 https://i.imgur.com/cPNPYD5.png
179 天前
回复了 aaxaax 创建的主题 生活 中秋三天大家什么安排?
@SvenWong #20 得打完全部隐藏 BOSS 才可以打隐藏杨戬
188 天前
回复了 vx7298 创建的主题 职场话题 golang 薪资调查-2024 年 9 月 4 日
重庆 12k 金融互联网 4 年 24
189 天前
回复了 michaelliuyang 创建的主题 生活 消费降级,我的订阅服务瘦身
富哥们 从小穷惯了 不习惯订阅付费 能白嫖尽量白嫖,你的 nas 也小贵,自己买一个 x86 主机装一个 nas 然后配置 docker 你那些大多数软件网站都可以找到开源平替 包括音乐源 开源的音乐 app 视频就各大平台搜 最多就是域名+主机(一次性投资)+宽带费+话费
202 天前
回复了 fingerxie 创建的主题 职场话题 最近有些迷茫,不知道该不该继续学习
送给你一句话
无人问津也好,技不如人也罢。你都要试着安静下来,去做自己该做的事,而不是让内心烦躁,焦虑,毁掉你本就不多的热情和定力。昨日之深渊,今日之浅谈。路虽远,行则将至。事虽难,做则可成。
给楼主几个可行方案
闭源大模型 or 开源大模型
1.如果你选择闭源大模型, 基本上只能使用 RAG 相关的技术,就是提前将数据给量化放在量化数据库,使用一些 python 库 例如(langchain or llama_index), 在 API 请求之后将用户内容放量化数据库去 search 然后再给到 LLM(大模型) 去推理,中间的延迟如果能过接受的话, 这个方案是最简单的。
2.选择开源大模型,你会有两个方案 本地部署 or 使用 API ,本地部署你要考虑的东西就非常多,其实不是特别推荐,可以选择一些能过使用自己提交 LLM 的平台进行部署在平台上,这样就可以微调大模型,将你的数据 write 进入大模型中,这样就不会有 RAG 方案那么高的延迟,但是这个方案就需要你去了解大模型微调,相对技术难度更高。
上面很多人推荐的我都看过了 GraphRAG 太费钱了 现目前根本无法商用的
买两块 4090 的也不太科学 首先是性能并不好 其次是价格 另外买不买得到的问题,我推荐直接用各种平台的显卡,用多久 扣多少钱
@nyw17 #34 数据量太大了 RAG 响应会很慢
早睡早起 健康饮食 运动起来
1  2  3  4  5  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   3150 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 34ms · UTC 13:11 · PVG 21:11 · LAX 06:11 · JFK 09:11
Developed with CodeLauncher
♥ Do have faith in what you're doing.