
【按】 本文原文为一名大学生用英文写作高杠杆股票配资平台,以下是豆包翻译版。
自2022年末ChatGPT震撼全球以来,作为一名数据科学家兼语言学家,我被问及最多的问题始终是:“你怎么看待大语言模型?你觉得它们五年后还能立足吗?值得投资吗?”诸如此类。
我曾在数据科学领域研习过神经网络与Transformer架构,确实了解大语言模型的部分工作原理,但当时我自认专业功底尚浅,不足以形成笃定的观点。如今眼看五年之期将至,我对这件事的认知愈发清晰,看法也发生了转变。
彼时(2023年)
2023年时,我属于“大语言模型只是一时热潮”的阵营。毕竟,这类模型既无法证明具备认知能力,也没有真正理解语言的本质;正如近几年越来越多人常说的,它们“只是下一个词元预测器”。语言具有递归性,而大语言模型的序列生成逻辑,无法像人类(至少是乔姆斯基所定义的人类)那样构建语句。它们的工作原理,与我们数十年来精心搭建的语言学模型格格不入。
那时,我对“真正的人工智能”的构想,仍是打造一套复刻人类认知的完整模型:
- 人工智能若要真正实现“对话”,必须以人类的方式处理语言,即对语言符号进行递归解析并生成语义。
- 人工智能若要真正实现“思考”,必须拥有结构化的世界表征,以及一套能操控该表征的“思维过程”,语言生成仅作为输出端与之相连。
- 人工智能若要真正实现“感知”,必须拥有不依赖离散模态的统一世界感知系统。
我当时喜欢用这样一个类比:一台计算机需要键盘、显示器和CPU才能运行。如果有人把键盘直接连到显示器上,针对每一次按键模拟出“最可能出现的画面”(比如按下F4键屏幕闪烁),很多人就会误以为自己在和一台真正的计算机交互——但实际上,他们只是在看一段以假乱真的电脑屏幕录像,根本没有任何真实的计算过程发生。大语言模型恰恰比图像生成模型更具欺骗性,因为人们总会将语言与思维、智能绑定(就像把面部特征与人性绑定一样),可如今我们拥有的这个“会运用语言”的存在,实则毫无思考能力。
诚然,在2022年及更早的时候,这番话大体是成立的。我体验过GPT-2,见证过它从初级形态逐步迭代,因此很难被打动。2023年初,我甚至还故作懂行地用GPT-3.5做了一些“实验”,那时它给人的感觉仍只是个玩具。
此后技术不断迭代:微调、检索增强生成(RAG)、思维链、多模态注意力、智能体AI等技术层出不穷。我在2023年感受到的诸多痛点已然消失,与人工智能对话也变得越来越顺畅。但我们都清楚,从本质上看,大语言模型的核心工作原理从未改变。或许,是时候重新审视它了。
如今(2026年)
到2026年,我不再笃定认知只有唯一的实现方式。人类拥有独立于语言的抽象“思维”概念,我们自以为对此有所了解,可实际上知之甚少——因为我们的一切想法,都必须通过语言、肢体动作或其他形式向外呈现。脑成像技术的效果时好时坏,可解释性也不尽如人意。如果我们连自己如何思考都不清楚,又该如何打造一台和人类一样思考的机器?换个角度看,或许语言本身就是驱动思维的可行载体。
不妨这样理解:大多数机器都依靠“工作介质”运行,介质的运动或相变将能量从动力源传递到输出端,水、蒸汽、空气、油都可以,关键在于需要一种可运动的物质,将能量从A点输送到B点。同理,语言或许也能成为这样的工作介质,承载思维的运行。
我不确定这对人类而言是否完全成立,但也绝非毫无道理。有人会拿失聪者、非语言沟通者举例,证明“人类可以脱离语言思考”,但要知道,丧失口语能力并不代表失去了语言官能。失语症患者的认知能力或许值得研究,可他们无法表达自我、也难以理解复杂指令,相关结论很难界定。对我们大多数人来说,“出声思考”是真实存在的行为,其认知过程与大语言模型的工作逻辑相去不远。再举个例子:我认识一些人,无法立刻回答“字母K在N前面吗”这类问题,总要在心里默念一遍字母表才能得出答案。这就像大语言模型通过生成词元驱动思考——这些词元本身并无太大意义,却能将思维从A点传递到B点,最终推导出合理答案。
当然,还有一个核心问题:“大语言模型真的会说话吗?”在这一点上,我愈发确定:是的,它们会。尽管模型不会构建递归数据结构,但其注意力机制的运作方式,与人类处理语言的逻辑十分相似。我们解析句子时,并非依靠单一的“词汇栈”不断搭建与拆解,而是会追踪词汇间的依存关系,其中大部分依存关系会即时闭合(比如“闭合”与“即时”),无需记忆,只有少数会长期保持(比如“词汇栈”与“拆解”)。从这个角度来说,注意力机制同样实现了远距离关联效应,这也是人类语言的核心特征。如果人工智能能学会“an”只能接元音开头的单词、“he”后必须接第三人称单数动词、“what”必须在句中后续位置对应一个空缺成分,那即便我们无法在它的“大脑”里找到对应这一过程的具体数据结构,也很难断言它没有掌握语言。
未来
倘若大语言模型确实是未来的发展方向,那么目前的多模态交互协议(MCP)已具备对接任意工具的能力,类似于生物的运动控制;多模态注意力已能处理各类感知输入,至少涵盖视觉、文本,以及有限的听觉信息;整套智能体架构也适配复杂任务的协同执行。 但大语言模型若要真正实现“思考”,我认为至少还需要两项突破:对内,需要一套“真实准则”“核心逻辑”或“信念体系”(叫法因人而异)来解决幻觉问题;对外,需要具备“因果认知”,理解世界状态的演变规律。这些都是亟待攻克的重大难题,但我坚信 我们正稳步朝着这个方向迈进。
我知道有学者正在积极研究大语言模型的认知科学问题,比如保罗·斯莫伦斯基(Paul Smolensky),我曾听过他关于“人工智能是否证伪了生成语言学”的学术讲座。我不会自诩比普通人更懂这一领域,因为我的语言学教育背景并未涉及太多认知科学与大语言模型相关内容。我也了解,仍有许多人工智能研究者不认可大语言模型的路径,其中最知名的便是扬·勒丘恩,他致力于“世界模型”等方向的研究。当然,这是我们所有人的终极理想,但在实现这一理想之前,我至少已经说服自己:大语言模型的未来充满希望。
注释
1. 顺带一提,2024年末,真的有人实现了这个构想——绿洲人工智能(Oasis AI)。
2. 举个实例:有研究报告显示,布洛卡失语症患者能理解“狗追猫”中的主题关系,却无法理解“猫被狗追”中的同一关系。这或许说明其句法处理能力受损,也可能是整体认知能力出现了退化。
来源:陈果George高杠杆股票配资平台
赤盈配资提示:文章来自网络,不代表本站观点。