在 2024 年 8 月 14 日,深度学习库 Keras 的创建者 François Chollet 在社交媒体上转发了一篇发表于 2023 年 9 月的论文,再次表达了他对大语言模型(LLM)“不具备智慧” 的观点。Chollet 指出,LLM 无法应对与训练数据大相径庭的情况,因此不具备发展成为通用人工智能(AGI)的能力。他认为,LLM 的真正作用在于为 AGI 提供记忆,尽管智慧不仅仅是记忆,但记忆仍然是智慧不可或缺的一部分。
Chollet 转发的论文《Are Emergent Abilities in Large Language Models just In-Context Learning?》通过在 22 个任务上使用 20 个不同模型进行的超过 1000 次实验,提出 LLM 的能力主要是上下文学习的结果。研究者使用了包括指令调整(instruction-tuned)和非指令调整(non-instruction-tuned)两大类模型,并使用 BERTScore 等评价指标来衡量模型输出的准确性。
François Chollet 的观点并非首次提出。早在 2023 年 2 月,他就曾在推特上表达过类似的看法。当时,LLM 技术正处于炒作的高峰期,许多人认为 “规模就是你所需要的”,甚至有人宣称 “AGI 将在 1-2 年内到来”。Chollet 对此保持冷静评估,认为这些言论过于乐观,并指出 LLM 的局限性。
社交媒体上,Chollet 的观点引发了广泛讨论。一些用户支持他的看法,认为 LLM 确实在处理与训练数据大相径庭的情况时表现不佳。用户 @AI_Researcher 评论道:“Chollet 的观点很有道理,LLM 在面对新情况时确实显得力不从心。” 另一位用户 @TechGuru 则表示:“LLM 的记忆功能虽然强大,但这并不等同于智慧。”
然而,也有不少人持不同意见。用户 @FutureTech 认为:“LLM 的能力正在不断提升,虽然目前还不完美,但未来有可能实现 AGI。” 另一位用户 @AI_Optimist 则指出:“我们不应该低估技术的进步速度,LLM 的潜力远未被完全挖掘。”
除了社交媒体上的讨论,其他专家也纷纷发表了自己的看法。纽约大学教授兼 Meta 首席 AI 科学家杨立昆(Yann LeCun)在社交媒体上表示,LLM 无法回答其训练集中未包含的问题,无法解决未被训练过的问题,无法在没有大量人类帮助的情况下获取新技能或知识,也无法发明新事物。他认为,LLM 只是 AI 技术的一部分,单纯扩大 LLM 规模并不会赋予系统这些能力。
OpenAI 的 CEO Sam Altman 也表达了类似的观点。他在一次采访中提到:“LLM 在某些特定任务上表现出色,但要实现真正的 AGI,我们还需要更多的技术突破。”Altman 认为,LLM 的记忆功能是 AGI 的重要组成部分,但智慧不仅仅是记忆,还包括理解、推理和创造能力。
尽管存在争议,LLM 在实际应用中已经展现出强大的能力。以 OpenAI 的 ChatGPT 为例,它在法律、金融、营销等领域得到了广泛应用。用户可以通过 ChatGPT 生成创意文本、回答问题、进行头脑风暴等。然而,LLM 在处理与训练数据大相径庭的情况时,确实存在局限性。
例如,在医疗领域,LLM 可以帮助医生快速查找相关文献、生成诊断报告,但在面对罕见疾病或新出现的病症时,LLM 的表现可能不如人类专家。类似地,在法律领域,LLM 可以生成法律文书、提供法律咨询,但在处理复杂案件时,仍需要人类律师的介入。
当前技术的局限性主要体现在以下几个方面:
- 上下文理解能力有限:LLM 在处理长文本或复杂上下文时,容易出现理解错误或信息丢失。
- 缺乏常识推理能力:LLM 在面对需要常识推理的问题时,表现不如人类。例如,比较两个数字的大小,LLM 有时会出现错误。
- 无法处理新情况:LLM 在面对与训练数据大相径庭的情况时,表现不佳。这是因为 LLM 主要依赖于上下文学习,而不是真正的理解和推理。
- 高昂的计算成本:训练和运行 LLM 需要大量的计算资源,这限制了其在某些场景下的应用。

