教授说 | ChatGPT是通用人工智能吗?进来辩论!

来源:法国里昂商学院时间:2024-04-02

ChatGPT从进入大众视野后热度居高不下,它能称得上是数字化时代跃进的代表性产物之一,然而大家对于其商业用途及数据安全性一直抱有争议。ChatGPT的发展速度之快时常让人感叹:它究竟智能到了什么地步?

本次针对ChatGPT是否可以定义为通用人工智能 (AGI) 提出了自己的见解,并且从多个方面细致举例做出佐证。

*通用人工智能 (AGI) 是人工智能类型的其中一种,它能在广泛的认知任务中表现得和人类一样好,甚至比人类更好。


Clement Levallois
里昂商学院教授


ChatGPT 是AGI的一种吗?我周围许多人都明确地回答“不”。而我的回答则是肯定的。

*在下文中,将交替使用“ChatGPT”和“LLM”,因为 ChatGPT 已成为大型语言模型 (LLM) 家喻户晓的名字

为什么人们会关心ChatGPT是否是AGI?

这并不是一场文字游戏辩论。我的观点是,如果ChatGPT不是AGI,那么我们还有几年的时间来应对可能出现的一些负面后果。

如果ChatGPT确实是一个AGI,则意味着:

由于我们与AGI共存,并且AGI有着非常大的影响力,我们不应该坐等假设中的情况发生。“变化会在何时产生?”是一个不恰当的问题,因为它可能已经毫无征兆地出现了。AGI 的出现应该是在几年内逐步形成的。如果该假设成立,我们应当承认一些早期形式的通用人工智能已经出现,并采取相应的行动,那么,以个人、组织和社会的形式我们人类如何与“类人”的人工智能共存?

所以ChatGPT是否是AGI这个问题相对复杂,我们来看一下正反方的观点。

ChatGPT不是AGI

人们一致认为,通用人工智能将在几年或几十年后,甚至永远不会出现。“已经存在”的情况并不在考虑范畴中:

*图片与数据来源:emerji.com

针对“AGI已经存在”被认为是幼稚的,我总结了几个相关论点:

  • 大型语言模型(LLM即ChatGPT)“仅仅依靠强大的统计关联模式输出文本”。
  • LLM不是自主的,他们只是回答人类输入的提示
  • 没有自我意识
  • 证明LLM不是AGI的证据来自于他们输出结果中出现的错误:幻觉、有8个手指的手、不真实等。

ChatGPT是AGI

什么是AGI?定义很模糊。通过阅读许多不同的资料,我列出了这些标准:

  1. 自我意识
  2. 自主性
  3. 能够完成一般任务
  4. 能够完美模仿人类智能
  5. 能够完美模仿人类认知的各个方面(智力、情感、创造力、主观想法等)
  6. 如果失调,将对人类造成直接的生存威胁

我认为:

  • LLMs满足标准3、4和5;
  • LLMs不满足标准2,但当前的技术水平可以达到这个阶段;
  • 标准1与该假设并非完全相关;
  • 标准6是一项结果预测并非AGI本身的部分定义

接下来,让我们来逐一分析这些标准:

1. 自我意识是AGI的重要标准吗?

我们是否应该在观察到LLMs具有自我意识的明确迹象后再判断AI是否是AGI?我想说,绝对不是。原因有很多,我更喜欢的一个是,自从弗洛伊德以来,我们已经接受了人类本身没有完全的自我意识。认知心理学又提供了成堆的证据,证明我们人类在某种程度上是有意识的,但不是绝对意义上的。在我看来,要求满足“人工智能具有自我意识”才能被称为“AGI”是没有意义的——我们没有衡量自我意识的标准。它只需要模仿人类的自我意识即可。正如我们从当前的LLMs中发现的那样,他们模仿人类思维过程的能力非常令人惊叹。

2. 自主性

诚然,当前版本的LLMs并没有自主性。它们仅在人类请求的提示下发挥作用,一旦请求得到答复,它们就会停止运行。但是建立一个自动执行要求并自主解决的无限循环非常简单。事实上,目前有成千上万的软件开发人员公开致力创建自主形式的LLMs。

因此,“自主性”可能不是AGI的一个特征,它更像是一种训练后的结果,使用者需要使用一些经典工具推动实现“自主性”。

他们很清楚这有一定风险。虽然不是存在性风险 (见下文第 6 点),但仍然值得关注:

3. 完成一般任务的能力

人们对LLMs的该特点能够达成共识,它们擅长完成一般性任务,并且每天都会带来更多进展。

我听到的最新反对意见是“一般任务,但仅限于文本”。这并不是一个坚定的反对意见,因为LLMs可以生成图像,自2023年9月26日起也完成做多种模式任务:

它仍然是软件和屏幕,而不是“现实世界”中的实际操作和动作。诚然,非数字类型操作的发展总是较慢,但我将其视为“操作范围”的限制,而不是缺乏智能的表现。

4. 完美模仿人类智慧的能力

你还记得图灵测试吗?这包括一名人类审讯员分别与一名人类和一台计算机进行讨论,但在该过程中,与审讯员交流对象的身份会被隐藏起来。经过长时间的对话后,如果人类审讯员无法判断出哪些对话是与电脑进行的,那么电脑就通过了图灵测试。在我的记忆中,这项测试是人工智能无法达到的真正高难度标准。

然而你猜怎么着:ChatGPT破坏了图灵测试。我想,任何使用过ChatGPT的人都不会感到惊讶。有趣的是,维基百科上关于AGI定义的页面仍然将图灵测试列为AGI必须通过的标准——同时还坚持认为,AGI是一种假设,并不存在。

5. 能够完美模仿人类认知的各个方面(智力,还有情感、创造力、主观观点等)

  • 人类有由 ChatGPT 驱动的恋人。
  • 人工智能与患者的对话内容被认为比人类的实际反应更具同理心。
  • 人工智能生成的图像赢得了摄影比赛,而人类拍摄的照片可能会被取消资格,因为它们反被误认为是人工智能生成的产品!
  • ChatGPT 在亚马逊上掀起了人工智能编写电子书的热潮。

6. 如果不协调,会对人类造成直接的生存威胁

在我看来,第2点到第5点是定义AGI是最有效的标准。我希望通过我上文的分析能让你相信当前的LLMs(截至2023年)符合这些标准。

第6点,关于其存在产生威胁,是 AGI可能产生的后果之一,但它往往被视为定义的一部分。我很想把这归咎于《终结者》电影:它给我们留下了一个 “开关”可以“唤醒” AGI的想法,并立即将人类面临的生存威胁问题放在了首位。

相反,上述第 2 至第 5 点表明,根据所有合理的定义,AGI 已经出现。LLMs 是通才,模仿人类智能,模仿人类主观能动性,可以自主,它们是否具有自我意识的能力是一个悬而未决的问题。而摆在我们面前的并不是对人类生存的威胁,而是一些更为紧迫的问题,比如与AGI一起工作、学习,建立情感上的关系,制定社会政策,让其参与战争等等……会发生些什么?

这些问题不应该在 AGI 出现后才着手解决,它们现在就应该被提出。