照镜子成佛

照镜子成佛

京夜微疯 著


引言:一面我们自己造的镜子

1943年,神经科学家沃伦·麦卡洛克和数学家沃尔特·皮茨发表了一篇论文,标题是《神经活动中内在思想的逻辑演算》。

这篇论文做了一件事:把大脑里的神经元简化成一个数学模型。

一个神经元接收信号,如果信号的总和超过某个阈值,它就"激活",向下一个神经元发送信号。否则,它就沉默。

这个模型粗糙得可笑。真实的神经元有复杂的电化学过程、各种神经递质、精妙的突触结构。把这一切简化成"加法+阈值",就像把一幅油画简化成一个像素点。

但这个粗糙的模型,改变了历史。

因为人们发现:如果把很多这样的简化神经元连在一起,形成一个网络,这个网络能学习。

1958年,弗兰克·罗森布拉特造出了"感知机"——第一台能自己学会区分图形的机器。

从那以后,八十多年过去了。从感知机到多层网络,从反向传播到卷积网络,从循环网络到2017年的Transformer架构——也就是今天ChatGPT、Claude、DeepSeek、通义千问这些AI的底层技术。

八十年间,技术换了好几代。但有一件事从来没变过:

这些机器,从第一天起,就是照着大脑造的。

神经网络不是一个恰好和大脑相似的东西。它就是人类看着大脑说"我来造一个简化版"的产物。连名字都直接叫"神经网络"。

所以,当人们惊叹"AI居然和人脑这么像"的时候,这个惊叹本身就是多余的。你照着猫画了一只猫,然后惊叹"这幅画居然像猫"——这不是巧合,这是因果。

但故事还有后半段。

这面镜子造出来之后,人们开始用它来反过来理解大脑。

过去一百年,神经科学最大的困难不是大脑太简单,而是太复杂。860亿个神经元,100万亿个突触连接,我们没有办法打开一个人的脑袋,逐个检查这些神经元在干什么。也没有传感器能同时监测860亿个神经元的活动。大脑是一个黑盒。

但AI模型不是。

一个大语言模型的每一个参数,你都可以读出来。每一层的输出,你都可以检查。你可以冻结某一层看会发生什么,可以删掉某些参数看模型会忘记什么,可以追踪一个信号从输入到输出经过了哪些路径。

AI是一个你能打开的大脑。

于是一个有趣的循环出现了:我们照着大脑造了机器,然后用这台机器来理解大脑。镜子反射了造镜人的脸。

这本书要做的,就是利用这面镜子。

不是为了理解AI——有很多技术论文在研究这件事。

而是为了理解你。

如果人脑和人工神经网络遵循同样的工作原理——这不是比喻,因为后者本来就是照着前者造的——那么我们在AI研究中发现的那些规律,对你同样成立。

什么是预训练,什么是微调。为什么一个模型会过拟合,怎样让它恢复泛化能力。为什么有些能力看起来是后天学会的,其实是与生俱来的。

古人不知道神经网络,但他们通过几千年的内省,用另一套语言描述了同样的现象。佛家说"本自具足",道家说"为道日损",儒家说"天命之谓性"。佛教说人的根本问题是贪、嗔、痴——贪是想要更多,嗔是遇到不顺就愤怒,痴是看不清真相。两千五百年前的诊断,用今天的AI术语重新翻译一遍,你会发现它们精确得惊人。

这些话到底在说什么?"成佛"到底是怎么回事?这本书试着用一面镜子——一面我们自己造的镜子——给出一个不依赖信仰的回答。

不需要你相信任何超自然的东西。只需要你接受一个前提:

你的大脑是一个神经网络。

然后,看看这个前提能带我们走多远。

如果你读过这个系列的第一本书《第一台AI叫易经》,你知道那本书讨论的是认知工具——易经和AI做的事情是同构的。那本书向外看。

这本书向内看。照镜子,看看你自己。