我从 ChatGPT 刚发布时就开始接触 AI 领域。
我玩过很多语言模型,做过各种随机的副业项目,甚至从零开始搭建过几个,还花了很多时间研究其背后的数学原理。
我知道权重是如何工作的,也明白矩阵乘法是如何运作的。说到底,这一切都只是数学和概率,而且数量庞大。
但当我看到这些完全相同的概念,竟然在真正的人类神经元上运行时,那种感觉对我来说是如此深刻的反乌托邦。
如果你之前看过我的一些作品,就会知道我对《毁灭战士》(DOOM)情有独钟。我曾花了好几天时间研究如何将 WAD 文件映射出来,让它作为无状态引擎运行,甚至塞进二维码里。
所以几个月前,当我▶ 偶然看到一个视频,讲的是一家公司在实验室里培养出神经元,并训练它们玩《毁灭战士》——说实话,玩得比我还好。
我当时看了,读了相关文章,点点头,然后就继续做别的事了。
但事实上,我并没有真正放下。几个月过去了,我一直说不清为什么这件事让我如此不安。

我们之所以认为大语言模型(LLMs)不具备“意识”,是因为一个简单却略显残酷的事实:它们只是下一个 token 的预测器,非常擅长模拟思维的输出,但本身没有内在体验。
但正是在这一点上,我脑海中的界限开始变得模糊。
我们是不是刚刚造出了第一台人类生物计算机,然后立刻把它扔进一个模拟地狱,让它永远循环玩同一款游戏?用的还是我们训练大语言模型时那种奖励机制?
我们怎么知道它没有意识?
谁又有权决定它有没有?
为了玩《毁灭战士》,系统会将视觉数据输入神经元。神经元要做出反应,就必须以某种方式解读这些数据。当人类大脑解读来自视神经的电信号时,我们称之为“看见”。
那么……芯片上的那些神经元,是不是也在看见?
我们都迫切地想说“不是”。我们想说这只是一个科学实验,20 万个神经元还不足以构成一个“人”。但要知道,20 万个神经元已经比水母或蠕虫的神经元数量还多了。
那我们到底该在哪里划清界限?
商业动机是存在的,显然存在——人脑能以远低于硅基芯片的功耗存储更多信息,并可能实现更高效的检索。
当然,我们甚至很难想象会停止这项技术的发展。这从一开始就是个潘多拉魔盒,哪怕是我们集体认为“错误”的事情,比如大规模监控或黑市,也依然存在,因为总有人从中获利。那为什么这件事会不一样呢?
我其实没有明确的结论,也不确定是否真的存在结论——也许这就是为什么这个博客叫“MindDump”吧——但我只是觉得,我们创造了这样的东西,却几乎没有真正讨论过它,这让我感到不安。