所有文章 > 正文

被OpenAI CEO取关后,Yann LeCun再次抨击:ChatGPT对现实的把握非常肤浅

作者: 学术头条

时间: 2023-02-02 16:13

尽管 Yann LeCun 或者一部分学者对 ChatGPT 的评价不高,但其商业化的成功仍是不可阻挡的。

大佬之间的关系,有时真是扑朔迷离。

昨天,有人发现,OpenAI CEO Sam Altman 已经在推特上取关了 Meta 首席人工智能科学家 Yann LeCun。

34-psm7xNnT9s.png

我们很难确定这次取关发生的具体时间点,但基本能够确定事件原因 —— 几天前,Yann LeCun 在前段时间的一次小型媒体和高管在线聚会上发表了自己对 ChatGPT 的看法:

「就底层技术而言,ChatGPT 并没有什么特别的创新,也不是什么革命性的东西。许多研究实验室正在使用同样的技术,开展同样的工作。」

在 ZDNet 的「ChatGPT is 'not particularly innovative,' and 'nothing revolutionary', says Meta's chief AI scientist」报道中,LeCun 演讲的一些细节被披露出来。其中有一些很惊人的评价:

  • 「与其他实验室相比,OpenAI 并没有什么特别的进步。」
  • 「ChatGPT 使用的 Transformer 架构是以这种自监督的方式预训练的。自监督学习是我很长一段时间以来一直倡导的,甚至可以追溯到 OpenAI 出现之前。」
  • 「Transformer 是谷歌的发明,这类语言项目的工作可以追溯到几十年前。」
  • ……

如此,Sam Altman 的取关行动也是情有可原。

在「取关」被人发现的四个小时后,Yann LeCun 更新了动态,再次转发了一篇「阴阳」ChatGPT 的文章:

35-cjMbQtFf8R.png

为什么像 ChatGPT 这样的大型语言模型可以滔滔不绝地胡说八道?它们对现实的把握是非常肤浅的

有人就不同意了:「ChatGPT 是广泛知识和巨大创造力的源泉,已经在大量书籍和其他信息源上接受过训练。」

36-6Fu3r6zW0S.png

对此,LeCun 也表明了自己观点:「没人说 LLM 没用。FAIR 的 Galactica 短暂发布期间,我自己也曾这么说过。人们把它钉在十字架上,因为它会产生胡说八道。ChatGPT 做了同样的事情。但同样,这并不意味着它们没有用。

实际上,这篇《大西洋报》的文章是对麻省理工学院认知科学小组的一篇论文进行了评论。让我们看一下具体的研究内容。

这篇论文说了啥?

这篇论文的标题为《Dissociating Language and Thought in Large Language Models: a Cognitive Perspective》,作者分别来自得克萨斯大学奥斯汀分校、MIT 和 UCLA。

37-D7zSds6ivu.png

论文链接:https://www.aminer.cn/pub/63c8b59490e50fcafd90b5ca

我们知道,如今的大型语言模型(LLM)通常能够生成连贯、合乎语法且看起来有意义的文本段落。这一成就引发了人们的猜测,即这些网络已经是或者很快将成为「思维机器」,从而执行需要抽象知识和推理的任务

在本文中,作者考虑了两个不同方面的语言使用表现来观察 LLM 的能力,分别如下:

  • 形式语言能力,包括给定语言的规则和模式知识;
  • 功能语言能力,现实世界中语言理解和使用所需的一系列感知能力。

借鉴认知神经科学的证据,作者表明人类的形式能力依赖特定的语言处理机制,而功能能力需要语言之外的多种能力,它们构成了形式推理、世界知识、情境建模和社会认知等思维能力。与人类的两种能力区别相似,LLM 在需要形式语言能力的任务上表现出色(尽管还不完美),但在很多需要功能能力的测试中却往往失败

基于这一证据,作者认为,其一现代 LLM 应该被认真地作为具备形式语言技能的模型,其二玩转现实生活语言使用的模型需要合并或开发核心语言模块以及建模思维所需的多种非特定语言的认知能力。

总之,他们认为,形式语言能力和功能语言能力之间的区别有助于理清围绕 LLM 潜力的讨论,并为构建以类人方式理解和使用语言的模型提供了途径。LLM 在很多非语言任务上的失败并没有削弱它们作为语言处理的良好模型,如果以人类的思维和大脑作为类比,未来 AGI 的进步可能取决于将语言模型以及代表抽象知识和支持复杂推理的模型相结合

ChatGPT 数学水平仍需要提升

LLM 在语言之外的功能能力(如推理等)方面有所欠缺,OpenAI 的 ChatGPT 正是一个例子。虽然此前官宣数学能力再升级,但被网友吐槽只能精通十以内的加减法。

近日在一篇论文《Mathematical Capabilities of ChatGPT》中,牛津大学、剑桥大学等机构的研究者在公开可用和手工制作的数据集上测试 ChatGPT 的数学能力,并衡量了它与在 Minerva 等数学语料库上训练的其他模型的性能。同时通过模拟数学家日常专业活动(问答、定理搜索)中出现的各种用例,来测试 ChatGPT 是否可以称为专业数学家的有用助手。

38-KPk2KGbx6w.png

论文链接:https://www.aminer.cn/pub/63d9d99590e50fcafd5b85c6

研究者引入并公开了一个全新数据集 —— GHOSTS,它是首个由数学研究人员制作和管理的自然语言数据集,涵盖了研究生水平的数学,并全面概述语言模型的数学能力。他们在 GHOSTS 上对 ChatGPT 进行了基准测试,并根据细粒度标准评估性能。

测试结果显示,ChatGPT 的数学能力明显低于普通数学研究生,它通常可以理解问题但无法给出正确答案

二维码 扫码微信阅读
推荐阅读 更多