虽然ChatGPT之类的大语言模型如今在科技界风光无限,可为什么说它们永远无法拥有真正的智能呢?最近,有个消息在AI圈子里炸了锅,就是强化学习的创始人理查德·萨顿,他可是今年的图灵奖得主呢,在新加坡国立大学的演讲里说了一通直话。他说,像ChatGPT、Gemini这些AI系统,说到底就是在玩文字游戏,根本不懂真正的智能是啥样的。这话直接给那些疯狂追捧大模型的人泼了一盆冷水,也让人忍不住琢磨:这些能写诗写代码的家伙,在科学家眼里跟真正的聪明还差得老远。萨顿觉得,大模型有个要命的毛病——它们没法像人一样带着目标一直学下去。就像鹦鹉学舌那样,它们是靠吞了海量数据学会模仿人说话的,却从来搞不懂话背后的因果关系。你要是问它怎么用微波炉热冰淇淋,它虽然能说出一通话来让语法上没问题,心里其实完全没概念这操作有多离谱。这种对现实世界基本常识的缺失,正好暴露出光靠文字训练的缺陷。 在怎么跟环境打交道这事儿上,大模型更是显得特别笨拙。AlphaGo能靠跟自己下几百万盘棋学会围棋的路数,波士顿动力的机器人摔倒了还能自己调整姿势重新站起来——这些都说明真智能是在跟现实环境打交道中学来的。反观大模型,就像被锁在文字监狱里的天才一样,哪怕它读遍了所有书也没用,根本搞不清小孩子抓积木时就能明白的物理原理。还有个更要命的问题叫灾难性遗忘。咱们学骑自行车学过了就忘了,但大模型一旦开始学新东西,常常会把以前知道的全都忘掉。萨顿团队搞了个叫“持续反向传播”的算法(Continual Backprop),通过让部分神经元复位来保持学习能力。这跟LLM那种死守死数据的训练方式完全不一样。 萨顿和Yann LeCun都认为真正的智能应该是像小孩那样一边感受世界一边建立自己的理解模型。当大模型还在那纠结“天空为啥是蓝色”这种文字解释时,一个能动手动脚的AI可能早就通过摆弄棱镜把光怎么散射这事儿给搞明白了。这种主动探索的劲儿才是大模型最缺的那块智能基石。 现在业界也开始反思了。OpenAI搞的新一代GPT遇到了瓶颈;谷歌DeepMind也开始往多模态、能动手的智能方向转;萨顿还参加了个叫阿尔伯塔的计划,想造个能在虚拟厨房自己摸索的AI体。他们的论文显示这种能跟环境互动的系统比纯文字模型强多了。 站在技术分叉路口上的我们,或许该听听这位钻研AI45年的大佬的劝诫。现在那些科技巨头忙着搞什么千亿参数的军备竞赛的时候,萨顿提醒大家得把注意力放在更本质的问题上:如果没有目标驱动的学习,那只不过是个精致的统计学把戏;如果没法跟世界互动,那所谓的智能迟早得变成空中楼阁。就像他拿图灵奖时说的那句话——真正的智能时代到来之前,咱们得先学会别去模仿人类的数据。