mdb 最近的时间轴更新
mdb

mdb

V2EX 第 405322 号会员,加入于 2019-04-23 22:24:39 +08:00
今日活跃度排名 10830
mdb 最近回复了
前段时间试了下 maxkb ,感觉一般,不能进行全局性的总结,后面又试了下 lightrag ,但是一直没运行成功过,同问
1 小时 15 分钟前
回复了 molika 创建的主题 程序员 国内机器 docker 的镜像到底应该怎么拽?
前段时间也发现镜像获取不到了,虽然可以用代理,但是这也耗我的流量啊
16 小时 4 分钟前
回复了 suke119 创建的主题 Python LightRAG: 轻量级检索增强生成系统
我本地试了下,用了阿西莫夫的最后的问题这篇文章做测试,结果感觉词提取不出来,一到最后问问题的时候就会报错:cannot unpack non-iterable NoneType object

INFO:lightrag:Logger initialized for working directory: ./dickens
INFO:lightrag:Load KV llm_response_cache with 20 data
INFO:lightrag:Load KV full_docs with 0 data
INFO:lightrag:Load KV text_chunks with 0 data
INFO:lightrag:Loaded graph from ./dickens\graph_chunk_entity_relation.graphml with 0 nodes, 0 edges
INFO:nano-vectordb:Load (0, 768) data
INFO:nano-vectordb:Init {'embedding_dim': 768, 'metric': 'cosine', 'storage_file': './dickens\\vdb_entities.json'} 0 data
INFO:nano-vectordb:Load (0, 768) data
INFO:nano-vectordb:Init {'embedding_dim': 768, 'metric': 'cosine', 'storage_file': './dickens\\vdb_relationships.json'} 0 data
INFO:nano-vectordb:Load (9, 768) data
INFO:nano-vectordb:Init {'embedding_dim': 768, 'metric': 'cosine', 'storage_file': './dickens\\vdb_chunks.json'} 9 data
INFO:httpx:HTTP Request: POST http://localhost:11434/api/chat "HTTP/1.1 200 OK"
INFO:lightrag:kw_prompt result:
{
"high_level_keywords": ["人物", "故事"],
"low_level_keywords": ["主人公"]
}

INFO:httpx:HTTP Request: POST http://localhost:11434/api/embeddings "HTTP/1.1 200 OK"
Traceback (most recent call last):
File "D:\download\ff\LightRAG-main\examples\lightrag_ollama_demo.py", line 40, in <module>
rag.query("这故事的主人公是谁?", param=QueryParam(mode="local"))
File "D:\download\ff\LightRAG-main\lightrag\lightrag.py", line 427, in query
return loop.run_until_complete(self.aquery(query, param))
File "E:\Python310\lib\asyncio\base_events.py", line 649, in run_until_complete
return future.result()
File "D:\download\ff\LightRAG-main\lightrag\lightrag.py", line 431, in aquery
response = await kg_query(
File "D:\download\ff\LightRAG-main\lightrag\operate.py", line 494, in kg_query
context = await _build_query_context(
File "D:\download\ff\LightRAG-main\lightrag\operate.py", line 552, in _build_query_context
(
TypeError: cannot unpack non-iterable NoneType object
4 天前
回复了 suke119 创建的主题 Python LightRAG: 轻量级检索增强生成系统
问下大佬,LightRAG 对聊天记录之类的数据支持怎么样,比如我想把所有的聊天记录扔给它,然后让它总结这几年的话题,不知道能不能实现
最近也在试用几款笔记软件,感觉难选,为知笔记本用了最长,是自己部署到云服务器上,用了五六年,考虑后面可能不续费了,就想换个笔记软件,onenote 用了两周,感觉凑合,优点是系统自带不用安装,支持数学公式,排版较自由,缺点是没有网页版,不好导出和迁移,不支持粘贴代码格式;有道打算下周开始试用,之前只是体验了一回,目前看来优点算是有网页版,支持代码,但不支持数学公式,不过这个功能用的不多,后期有可能就选有道云做为主力工具,其它的小笔记软件,要么不支持云同步需要自己做同步方案,要么就是得需要魔法才能同步
@xiaokangz 兄弟确实和你说的一样,普通的 RAG 对全局性的问题回答不好,我试了下用 maxkb 做了下测试,我上传的聊天记录被分成一百多个片段,然后想让它给我总结所有的聊天记录,结果输出的内容却好像是某个小片段的内容,而不是所有的,比如我全部聊天记录是从 2015 年到 2023 年的,但我问它最早的聊在日期和最晚的日期是什么,结果给出的回答是 2016 年某一天的,总感觉这个时间段外的记录没被它读到一样,这个问题后面我再研究下 LightRAG 和 GraphRAG 看看
9 天前
回复了 alan9999 创建的主题 信息安全 求助,被入侵了,如何减小损失?
@alan9999 写个服务定时检查 IP ,如果有变化就发个提醒给你
10 天前
回复了 alan9999 创建的主题 信息安全 求助,被入侵了,如何减小损失?
我是家里的电脑装 frp ,可以从公司远程回去,frp 服务端部署在腾讯云上,远程的端口限制了只能公司 IP 和家里 IP 访问,不知道这样安不安全
@xiaokangz 好的,感觉你说的这个比较符合我的理解,就是聊天内容属于 AI 基础知识的一部份,另外就是 GPT-4o mini 对本地配置要求是什么样的,不知道我的笔记本能不能跑得动
@clino 不知道属不属于知识库,就是想让它总结我给的内容,然后问它相关的问题,它可以根据我提供的内容进行总结回答,比如我问有谁向我借过钱,它可以列出在以前聊天的时候谁谁谁提到过借钱的事,QAnything 刚了解了下确实问答相关的,还有一个通义千问的模型不知道合不合适
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5424 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 18ms · UTC 07:11 · PVG 15:11 · LAX 23:11 · JFK 02:11
Developed with CodeLauncher
♥ Do have faith in what you're doing.