![]() |
1
sujin190 3 天前 via Android
显然并不是,所谓专家网络也是神经网络哪来的精确计算模块,人也是看看书说 673x3666 咋算的,AI 也是一样的可以啊,所以人不借助工具算不准,大模型也一样啊,关于大模型为啥可以通关基础的 token 预测学习到更深刻的知识并且能思考就不是一两句话可以说清的了
|
2
ltyj2003 3 天前 via Android
但是可以引导 ai 编一个程序,来实现算 1000 位的任务。
|
![]() |
3
wyntalgeer 3 天前
方向就错了,人类发明二进制计算器就是为了补足人脑的运算缺陷,而人脑是大模型的天花板,你指望大模型突破人脑天花板,建议换个方向老铁
|
![]() |
4
XiLingHost 3 天前 ![]() 大模型现在一般是通过调用外部工具来实现精确计算的,可以看看这个 https://modelcontextprotocol.io/introduction
openai 还做了一个 function calling 标准 |
5
xuld 3 天前
原理很简单,大模型自己不会算,但它可以生成算的代码,然后执行代码。就像人类自己不会算,但他会用计算器。
|
![]() |
6
HXM 3 天前 via iPhone ![]() Antropic 前两天发了一篇探讨 LLM 可解释性的 Blog ,挺通俗易懂,里面 Mental math 小节讨论了你提出的这个问题。
https://www.anthropic.com/news/tracing-thoughts-language-model |
![]() |
7
happyn OP 如果说大模型生成代码,然后执行代码算,那么,大模型本身可以模拟编译器、解释器吗?还是说它内置了编译器、解释器?
|
8
listenfree 3 天前
个人理解以前的直觉模型就是根据所觉的语料直接概率给你,错误率高。推理模型就不一样了,计算六位数乘六位数都没问题(我试过 Qwq32B-4bit),它根据语料学会了乘法,理论上,它就会乘法了。准确性很高。但编程和乘法比起来,就复杂多了,个人觉得编程还是直觉加少量推理确定方向个编程的走向。
|
![]() |
9
Uta 3 天前
可以参考下这个视频,我觉得讲的挺不错的。在 20 分钟左右的时候又讲到你这个问题: [关于 AI 的深度研究:ChatGPT 正在产生心智吗?-哔哩哔哩] https://b23.tv/iunELVu
|
![]() |
10
happyn OP ![]() @HXM 这篇文章我读完了,很有意思;按照文章里面对于 Claude 的描述,似乎它计算一个加法,并不是通过什么内置的计算器来完成的,而是完全的神经网络推理,但是跟我们想象中的人类计算加法的方式很不一样;
有趣的是,这篇文章后面也承认,计算题目越复杂,它犯错的几率就越高,某种意义上来说,这跟大模型对话胡说八道的时候是一样的;所以,对话胡说八道是大模型的幻觉,计算错误也是大模型的幻觉,目前大模型确实表现就像人脑一样,是不能执行精确的任务的; 另外,我在 deepseek ,Gemini 上测试,其实大模型本身并不能完整执行一些比较复杂的代码,至少我说让它计算圆周率第 9900-10000 位,他会生成正确的代码,但是自己不能执行;所以大模型内置解释器的想法也不对; 我理解,就是大模型对于数学等任务的理解,跟人类类似,人是怎么仅仅靠思维算加法、乘法的,也许要比计算机用二进制计算复杂的多; |
![]() |
11
happyn OP 比如就是一个最简单的素数乘法: 863 X 877 = ?,它在大模型的内部到底是怎么推理的?单纯的通过语料训练,就能学会乘法吗? 有这方面的文章介绍吗?
|
![]() |
12
happyn OP 就是计算这个乘法 863 X 877 = ?,似乎各家的模型表现也不是很统一;
|
![]() |
13
happyn OP 另外,可以扩展一下,就是大模型能产生自己的推理模式吗? 比如我就把乘法表和几万个乘法示例喂给他,它就能学会乘法吗?
|
![]() |
14
happyn OP 加法、乘法是有固定的模式的,而从编程语言代码变成二进制的可执行码,也是由固定的模式的,这个模式虽然十分复杂,但是路径是唯一的;似乎非常强的编程人员,也可以在脑子里面自动从 C 语言代码"翻译"为字节码,那么,大模型可以习得这个能力吗?似乎看起来这个过程,跟数学运算是一样的;
所以只要算力足够强,告诉他一门语言的语法规则,譬如 Python ,大模型就可以自己生成一门编程语言的解释器?并能完美执行? |
15
LaurelHarmon 3 天前
不认为 next token 预测可以实现精确的乘法进位 除法这些操作,简单数字靠规律,复杂的依然无能为力。
|
16
mumbler 3 天前
@happyn #14 以现在大模型的指令遵循能力完全没问题,给一个自己发明的语言的规则,示例放 prompt 里就能写出这个完全没学过的语言的代码,以前让它模仿鲁迅风格写文章还需要微调,现在给几篇范文就足够了,随着大模型能力进一步提升,学习能力会更强
|
![]() |
17
happyn OP @mumbler 这个地方可能我没有表述清楚。我的意思是说,把一门语言的规则告诉他,当前它肯定可以用这门语言写程序,但是它能写一个解释器吗? 比如,Python 的语法规则告诉它,然后把 PEP 的文档喂给它,他可以写出一个简单的解释器吗?
|
![]() |
19
kidult 3 天前 ![]() 这边建议补一下大模型 基础知识,可看这个视频
|
![]() |
20
yushi17 3 天前 ![]() 对 MoE 的一个经典错误理解是:以为有一个数学专家,专门解数学题,有一个编程专家,专门负责编程....
实际上 MoE 只有一个作用:稀疏化 |
22
QiShine 3 天前
现在技术路线已经分化了,一种是大模型用 MLP 来逼近/模拟计算,1989 年和 1991 年研究数学的人就搞出了”万能逼近定理“,后续的研究都是怎么高效的降低错误率,一种是调用一个外置的或者内置的计算器或者解释器。这其实和人是一样的吧,我算六位数乘法也会用计算器啊,虽然我也会笔算。
|
24
panda1001 3 天前 via Android
这么理解可能像人一样的计算方式
二十以内加减法依靠记忆,还有记忆公式定理 其他的复杂计算需要纸和笔,精确计算不依赖记忆/大脑内存不够 大模型靠长期记忆记住二十以内加减法,应该是神经网络,也是 op 说的和想象中的人类计算加法的方式很不一样,更复杂的去尝试运用公式和解释器 |
25
tinydancer 3 天前
OP 是 happyn 的开发者吗?最近刚用 happyn 和朋友打完了双影奇境,体验很好,感谢 OP🥰
|
![]() |
26
cheng6563 3 天前
你不要想太多,LLM 作为机器学习发展而来的模型,和其他模型使用方法是一样的。也就是输入数据,推理结果,输入聊天记录,推理出下一个(字)回复。
其他功能都是 AI 产品通过外部工具连接使用,最近热门的 MCP 就是这个连接外部工具的协议。 LLM 也是“想即为说”,1234x4321 能直接得出结果是是因为模型里面已经有现有数据。遇到其他模型里面没有的算式,你要让他笔算才能让他算对。 https://www.promptingguide.ai/zh 这个网站我建议所有想了解 LLM 的人都看一下 |
![]() |
27
neteroster 2 天前
#20 是对的,MoE 名字有些误导,实际上稀疏化才是目的和作用。并没有什么语义理解、问题拆分等模块。
|