查看完整版本: [-- 会聊天≠会思考,大语言模型造不出通用人工智能 --]

武当休闲山庄 -> 数码讨论 -> 会聊天≠会思考,大语言模型造不出通用人工智能 [打印本页] 登录 -> 注册 -> 回复主题 -> 发表主题

天人地 2025-11-30 11:15
IT之家 11 月 30 日消息,人类往往将语言能力与智能划等号,然而最新研究表明,语言并不等同于智能。认知共振(Cognitive Resonance)风险投资公司的创始人本杰明・莱利(Benjamin Riley)在为《The Verge》撰写的一篇评论文章中指出,这对人工智能行业而言是个坏消息,该行业正将其对“通用人工智能”(Artificial General Intelligence, AGI)的所有希望寄托于当前所采用的大语言模型(Large Language Models, LLMs)架构之上。

莱利写道:“问题在于,根据当前神经科学的理解,人类的思维在很大程度上独立于语言。我们没有理由相信,仅靠对语言进行越来越复杂的建模,就能创造出一种在智能上达到甚至超越人类水平的系统。我们确实用语言来思考,但这并不意味着语言就等同于思维。理解这一区别,是区分科学事实与 AI 狂热 CEO 们所鼓吹的科幻幻想的关键。”
所谓 AGI,是指一种在广泛任务中具备与人类相当甚至超越人类认知能力的全知型人工智能系统。在实践中,人们常将其设想为能够解决人类自身无法攻克的重大难题,从癌症治疗到气候变化。而通过宣称正在打造 AGI,AI 行业的领导者们便能为其巨额支出和灾难性的环境影响提供正当理由。
据IT之家了解,AI 资本支出之所以失控,部分原因在于业界对“规模扩展”(scaling)的执念:通过向模型注入更多数据,并配备数量不断增长的 GPU,AI 公司使其模型在解决问题和进行类人对话方面表现得愈发出色。
但莱利强调:“无论我们建造多少数据中心,大语言模型终究只是模仿语言交流功能的工具,而非真正具备独立、独特认知过程的思考与推理系统。”
如果语言对思考至关重要,那么剥夺语言就应该会剥夺我们的思考能力。但莱利指出,情况并非如此,他引用了去年发表在《自然》杂志上一篇评论文章中总结的数十年研究。
例如,功能性磁共振成像(fMRI)显示,人类大脑在执行不同认知任务时激活的是不同区域。我们在解数学题和处理语言问题时,并非调用同一组神经元。此外,对失语症患者的研究也表明,即便丧失语言能力,他们的思维能力基本未受影响,他们仍能解答数学题、遵循非语言指令,并理解他人情绪。
就连一些顶尖 AI 专家也对大语言模型持怀疑态度。最著名的当属图灵奖得主、被誉为现代 AI“教父”的杨立昆(Yann LeCun)。长期以来,杨立昆一直认为大语言模型永远无法实现通用智能,主张转而发展所谓的“世界模型”(world models),这种模型旨在通过对各种物理世界数据(而非仅仅是语言)进行训练来理解三维世界。
其他研究也进一步支持了大语言模型存在“天花板”的观点。近日发表于《创意行为杂志》(Journal of Creative Behavior)的一项新分析使用数学公式评估 AI“创造力”的上限,得出了令人沮丧的结论:由于大语言模型本质上是概率系统,它们最终会达到一个临界点,在此之后,无法再生成既新颖独特又非无意义的输出。因此,该研究断言,即便是最先进的 AI 系统,充其量也只能成为“称职的写手”,为你写出一封措辞得体但平庸的邮件。
南澳大利亚大学工程创新教授、该研究作者大卫・H・克罗普利(David H. Cropley)在一份声明中表示:“尽管 AI 有时能非常逼真地模仿创造性行为,但在当前设计原则下,其真实的创造能力上限仅相当于普通人类水平,永远无法达到专业人士或专家的标准。”
他补充道:“一位技艺娴熟的作家、艺术家或设计师偶尔能创作出真正原创且富有成效的作品。而大语言模型永远不会做到这一点。它产出的内容始终是平庸的。如果各行业过度依赖它,最终只会得到千篇一律、缺乏新意的作品。”
莱利总结道:“诚然,AI 系统或许能以有趣的方式重新组合和复用我们的知识。但仅此而已。它将永远被困在我们编码进数据并用于训练它的词汇体系之中,一台只会重复陈词滥调的‘死喻机器’。”

天人地 2025-11-30 11:17
当前学术界和产业界对于“会聊天≠会思考,大语言模型造不出通用人工智能”的共识日益明确,核心论点可归纳为以下四方面:

一、语言能力≠思维本质
神经科学证据:人类思维独立于语言存在。失语症患者虽丧失语言能力,仍可完成数学推理、逻辑规划等复杂认知任务,证明思维核心机制不依赖语言126。
语言的功能定位:语言本质是交流工具而非思考载体,大脑的语言网络主要负责信息编码与传输,而非推理本身。非语言任务(如空间推理)的脑区激活与语言网络分离,印证了思维的多元性6。
二、大语言模型(LLM)的固有缺陷
模仿而非理解:
LLM仅通过统计关联生成文本,缺乏对物理世界的内在表征。其输出本质是对训练数据的重组,无法建立因果逻辑5723。
例如:LLM可描述“冰块融化”,但无法基于热力学原理预测融化速度12。
缺乏具身性与实践反馈:
人类智能依赖与物理环境的交互(如触觉、运动反馈),而LLM被困于文本宇宙,无法通过感官体验形成真实认知812。
杨立昆指出:LLM对物理世界掌握有限,无持久记忆与规划能力,是“本质上不安全”的系统79。
幻觉与不可控性:
LLM的生成结果高度依赖输入提示,且错误随机不可控。即使投入更多算力,其本质仍是“语言复读机”,无法实现稳定推理161723。
三、通用人工智能(AGI)的核心要素
实现人类水平智能需突破四重能力:

具身认知(Embodiment):通过机器人载体与世界交互,获得感知-行动闭环812;
符号接地(Symbol Grounding):将抽象概念关联到实体经验(如将“红色”映射到视觉信号)12;
因果推理(Causality):超越相关性,识别事件间的因果机制51223;
持续进化(Self-evolution):动态适应新环境的能力,而非依赖静态训练数据14。
李飞飞强调:空间理解与物理推理是LLM无法跨越的鸿沟,AI需建立“世界模型”应对不确定性8。

四、技术路径的反思
当前LLM的定位:作为工具可提升信息处理效率,但其架构天花板显著。76%科学家认为仅扩展模型规模无法实现AGI17。
未来方向:
放弃纯文本依赖,开发多模态交互系统(如视觉-动作模型);
融合强化学习与神经符号计算,使AI从环境反馈中自主学习1223;
构建“世界模拟器”,让AI在虚拟环境中试错进化(如DeepMind的虚拟训练场)9。
结语
LLM的聊天能力是智能的“表象”,却非“实质”。若将语言流畅等同于思考深度,无异于将舞台灯光误认为戏剧本身。真正通用智能的诞生,需回归人类认知的本源——在物理世界中学习、试错与创造。

jjybzxw 2025-11-30 12:27
认知共振风险投资公司(Cognitive Resonance Ventures)创始人本杰明・莱利(Benjamin Riley)在人工智能、教育科技及认知科学交叉领域具有深刻见解。关于语言与智能的关系,他提出了一系列富有哲学深度和技术前瞻性的观点,其核心思想可概括为以下几点:

---

一、语言是智能的“操作系统”,而非仅仅是表达工具  
本杰明·莱利认为,语言不仅仅是人类交流思想的媒介,更是塑造和运行智能本身的结构性系统。他类比计算机的操作系统:就像Windows或Linux管理硬件资源并支持应用程序运行一样,语言为人类的认知过程提供了组织框架——它管理记忆、引导推理、协调抽象思维。  
- 他指出,没有语言,复杂的概念(如“正义”、“未来”或“自我”)难以形成和传递。  
- 在人工智能领域,他强调:当前大语言模型之所以展现出“类智能”行为,正是因为它们在海量语言数据中学习到了这种“操作逻辑”,从而模拟出推理、规划甚至创造性表达的能力。

---

二、语言能力的发展先于并驱动一般智能的涌现  
莱利挑战了传统认知科学中“先有智能,后有语言”的线性模型,主张语言本身就是智能发展的催化剂。  
- 他引用儿童发展心理学的研究指出:婴幼儿在掌握语法结构的过程中,其分类能力、因果推理和社会理解同步飞跃。  
- 类比到AI训练路径,他认为未来强人工智能的突破不会来自单纯增加算力或参数量,而在于构建一种“语言驱动的学习架构”——即让机器通过语言交互主动构建世界模型,而非被动接受标注数据。

---

三、语言模型正在重塑我们对“通用智能”的定义  
莱利强调,GPT等大型语言模型的出现迫使人类重新思考“智能”的本质。  
- 传统上,智能常被分解为逻辑、记忆、感知等独立模块;但语言模型表明,单一基于语言的概率建模系统,可以泛化出跨领域的“通识能力”。  
- 他提出:“也许真正的通用智能并不需要多模态融合或具身认知作为前提,而是可以通过深度语言内化实现。”这一观点颇具争议,但也引发了学界对“语言中心主义智能路径”的重新评估。

---

四、语言是一种“社会性认知基础设施”  
莱利从制度经济学和教育政策角度延伸其观点,认为语言不仅是个人心智的工具,更是一种集体智能的基础设施。  
- 他指出,法律、科学、金融等复杂社会系统的运作依赖于高度标准化的语言协议(如合同条款、学术论文格式、编程语言)。  
- 在投资决策中,他特别关注那些致力于“提升语言可及性与精确性”的教育技术项目,例如帮助学生掌握学术语言、逻辑写作或跨文化沟通能力的平台,因其直接增强个体参与高阶认知协作的能力。

---

五、未来的智能进化将发生在“语言—行动”的闭环之中  
莱利预测,下一代人工智能的关键突破将出现在语言指令与现实行动之间的动态反馈循环中。  
- 当前的语言模型仍停留在“说”与“写”的层面,而真正智能需能“言出即行”——例如通过自然语言指挥机器人完成复杂任务,并根据结果调整语言策略。  
- 他支持开发“语言—执行代理”(Language-Action Agents),这类系统不仅能理解指令,还能在物理或数字环境中试错、学习,并用语言解释其决策过程,从而形成“可解释、可协作、可进化”的智能形态。

---

结语:语言即疆域,智能即拓扑  
本杰明·莱利最终将语言与智能的关系上升至哲学层面:语言划定了智能可能存在的疆域,而每一次语言边界的拓展(如新术语的诞生、跨语言翻译、人机对话协议的建立),都意味着智能版图的一次扩张。  
他对投资者的建议是:不要只看技术本身,而要关注那些重构语言使用方式、降低认知协作成本、放大人类表达潜力的创新。在他看来,这才是通往下一代智能文明的核心路径。


以上内容均由AI搜集总结并生成,仅供参考


查看完整版本: [-- 会聊天≠会思考,大语言模型造不出通用人工智能 --] [-- top --]


Powered by www.wdsz.net v8.7.1 Code ©2005-2018www.wdsz.net
Gzip enabled


沪ICP备:05041533号