https://www.chinanews.com.cn/sh/2022/08-22/9833298.shtml
00 后 叶峻峣 这经历太棒了。
1
SuperDaniel313 4 天前
上次和他聊过,还在墨墨。
不过现在大模型对这种间隔重复的算法冲击非常大。因为预测能力是这种间隔重复算法的根源。而大模型的预测能力,哪怕是通用的,还不用专门的针对这种间隔重复训练的大模型,也已经非常牛逼了。本来还想搞一个大模型加成的间隔重复算法软件,后来想想还是算了。有了大模型,依赖记忆的地方越来越少。做出来应该是自嗨。 |
2
cornetCat 4 天前
@SuperDaniel313 大模型能预测文中提到的,某些不同难度的单词的遗忘概率?大佬有 prompt 参考一下吗
|
3
cwxiaos 4 天前 via iPhone
墨墨的算法确实 nb, 一直在用,基本上能命中遗忘的那些单词
|
4
SuperDaniel313 4 天前 @cornetCat #2 抱歉,没理解你的场景。
之前我构想的方案是传统 SRS 的那种方式,以卡片为最小单位,要输入他的历史评价,也就是它的遗忘程度,那个是主观的,比如你认为它很难,忘记了,或者记住了,很容易。大模型需要一定的数据量才能给你参考出来。传统的 SRS 的薄弱点在于知识之间的关联程度没有办法算出来。 打个比方,两张卡片是相邻的知识点,在传统的 SRS 里面就跟两篇笔记一样,除非你自己手动给它打标签,否则的话它们是孤立的。有了大模型,这些问题是可以解决的。可以在制卡的时候,让大模型把这些标签都算计好。多个卡片之间就有了共性关系。后面就可以水到渠成去通过这种关联性来改变它的遗忘程度。 但是你说单词这个维度,说实话,我个人的想法是,从语言学习的角度来说,它没什么意义。学语言最重要的是,至少以词组或者最好是用句子来记单词。孤立的学习单词,效果不是特别好。很多人都被闪卡这种背单词的方式带歪了。如果你感兴趣,你可以让大模型教你如何学会一个单词。它必然是给你举了很多场景,然后对应不同的词性以及含义,这个时候你学习最快的。所以我的概念里面挺难想象,就是你说的这个场景。 |
5
no13bus OP 你说的挺对的。我很少记单词,我会把单词放到句子里去记忆 @SuperDaniel313
|
6
superhot 4 天前
@SuperDaniel313 愿闻其详
|
7
superhot 4 天前
@SuperDaniel313 原来如此 之前没刷新出来 #4 的回复 受教了
|
8
slowman 4 天前
|
9
SuperDaniel313 4 天前 @superhot #7 难得有人愿意听,我就多讲几句。
有了大模型之后,间隔重复软件的市场其实被大大压缩了,基本缩减到了“应试教育”,因为只有在考试时大模型才无法被使用。 从长远看,大模型必然会越来越普及,准确率也会随技术升级不断提高。它最强大的地方在于能调动大脑的理解力、反应力和元能力,真正实现“场景式教学”。这就像有一个水平极高的一对一导师,随时随地满足你任何学习需求。我在 Google 的 NotebookLM 上已经深刻体会到了这种爽快感。 所以如果当下再继续投入资源去做这方面的研发,除非是去做专业的应试软件,不然收益不大。割韭菜倒是没问题的,韭菜最喜欢这种听起来不用学就能会的软件了。 |
10
est 4 天前
|
11
lingguo 4 天前 via Android
@SuperDaniel313 你的分析很有道理,感谢!
|
12
lingguo 4 天前 via Android
@SuperDaniel313 请问能分享一些你使用 NotebookLM 的经验吗?感谢!
|
13
dji38838c 4 天前
那个算研究背单词吧
这个人才是研究记忆: https://scholar.google.com/citations?user=iA0rQiwAAAAJ&hl=en https://www.nature.com/articles/s41562-024-01983-9 要“研究”,光兴趣还是不够的,还是要走专业道路 |
14
SuperDaniel313 4 天前 @lingguo #12 我的步骤是这样:
1. 看书,只看一章; 2. 电子书搞 NLM 里头,提问; 3. 这章讲了什么?我的理解是....作者的意思是什么?我理解的对吗? 4. 对 NLM 的回答进行发散,不懂的全问一遍; 5. 要 NLM 批判我的想法,然后开始狡辩,直到心满意足; 6. 继续下一章; 传统学习不行了,哪有全才可以像大模型一样跟你彻夜辅导。 如果 Gemini 舔你了,你直接骂他:你不是真正的乐于助人的智能助手,你只会舔我,真正的乐于助人是讲真话,对我的想法进行批判,找出真正的问题。 吐槽一下,Gemini 网页版巨会舔,好几次给我舔的迷失自我,真以为自己手到擒来,直到我被现实干懵了。难怪皇上真以为天下太平,天天被人这样舔,谁遭得住啊 ![]() |
16
zooo 4 天前
我就觉得 Gemini 老是舔,和现在的推荐算法一样,令人恶心。
|
17
dawn009 3 天前
@SuperDaniel313 我的做法是让 LLM 出测试题检验自己是不是真懂了。有时候自己觉得懂了但是仍然存在想不到的地方,能通过测试题检验出来。
|
18
SuperDaniel313 3 天前 via Android
@dawn009 一样呀,都是让大模型来替我们做一次全面的检查,看看理解的偏差有多少,和大模型认为的真正理解还有多少差距?然后再进行二次校正。
你甚至可以让大模型在你学习之前给你一次提前测试,错误的结果会让你对这个知识点记忆更加深刻。 然后如果是传统学习的话,其实还有一轮间隔测试。 也就是你当下做对了,并不一定等于你记住了,你理解了也不等于你能运用了。需要不断地用间隔测试的方法,加大间隔,同时进行测试。如果你能长期地记得住且用得出来,那么你才算是真正地掌握了。 但是这些麻烦的做法,或者说传统学习方法下看起来的优势,在大模型面前已经没什么太大的价值。现在是信息过载的时代,还是依赖大模型吧,打不过就加入。 |
19
SantinoSong 3 天前
@SuperDaniel313 #9 并非只有应试教育。即便是主题学习,也有大量的碎片化的原子化的信息需要长期记忆,从而让大脑调用相关知识更顺畅,更有利于创造性工作,间隔重复软件干的是这部分的活。
至于前置的理解学习部分,你说的是很对的。 |
20
SuperDaniel313 3 天前 via Android
@SantinoSong #19 针对个人学习来说,是你说的那样。我上面更多是从一个学习型工具即将面对的市场的视角来看待。
我大概 Anik 用过两年,supermemo 用了五六年,现在都放弃了。不是不好,是我逐渐用不到了。知识开始冗余的越来越多,随着我环境的变化,很多知识已经用不到,但如果为了保持记忆,我需要花很多精力去维护。 我选择删库跑路。 也可能是度过那个外化阶段,逐渐开始不依赖工具了。 |
21
SantinoSong 3 天前
@SuperDaniel313 #20 感谢佬反馈。个人的经验,已有的体系结合 AI 的确好,知识笔记+agent ,作为外挂知识库,效果拔群;可是已有的 anki 卡组还是不能放弃,有太多需要临场发挥或者头脑风暴的时候,这些场景记忆内化还是无可替代的。
AI 工具就像开挂一样强,激动过后还是有点空虚,浮光掠影的感觉,一边怀疑自己以前记那么多东西有什么,一边对于知识的处理开始偷懒了,有些后怕。 |
22
no13bus OP 偷懒这个词用的好,我用过一阵 AI 功能,发现思想的懒惰非常快,很快就不想思考了,然后发现离了工具啥都不想记了,然后技能忘记的很快
|