大语言模型有意识吗?

自从大语言模型推出后,由于这些大模型的出色表现,各种传闻就纷纷出现。其中比较耸人听闻的就是,关于大模型拥有意识的各种新闻。比较值得关注的有:

2022年谷歌的 Blake Lemoine 就宣称谷歌的 LaMDA 拥有意识。然后他被谷歌开除了。https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

2023 年 OpenAI 的首席科学家 Ilya Sutskever 认为,ChatGPT 可能是有意识的,然后 OpenAI 闹了一出开除 CEO 的风波。 https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

那么大语言模型到底有没有意识呢?我们一起来看一下。

我们先来看一下正方的观点。我收集了以下正方的一些主要观点:

  1. 大语言模型有自我认知,能自我报告,在和人交流时,能够自我介绍,自称。
  2. 大语言模型表现出了相当高的智能,有些智能超过了人类,有些需要意识参与,比如:
    • 逻辑推理和符号演绎能力,这个能力是通过神经网络,而不是形式系统实现的,看起来更像一种天然的实现。在同样是神经元的人脑里,这些能力往往需要意识的参与。
    • 不同领域的专家能力。
  3. 语言感知能力,对话能力和情感感知能力,这些都和意识高度相关。
  4. 会灌心灵鸡汤,写诗歌,写小说,画画,谱曲,这些和下棋有本质区别,不是靠穷举法能够完成的。
  5. 大语言模型的一个核心技术是注意力机制,注意力是人类意识的重要体现。

我实际是反方,我就一条条来反驳一下.

  1. 大模型表现出的自我认知不能作为有意识的表现,因为我们很容易通过一些程序手段实现,比较典型的就是游戏里的那些性格各异的NPC。如果游戏公司愿意,他们可以让那些NPC拥有各种性格特征,甚至精神分裂都可以。现在我们还可以通过特殊的训练语料来训练出一个具有“自我认知”的模型。这些都不能真正说明,大模型拥有意识。
  2. 意识需要智能,但需要的智能水平非常低。智能不能用来判断是否具有意识。科学家一致认为很多动物具有意识,一个5-6岁的小孩是有意识,但他们的智力水平比很多大模型差远了。AlphaGo能够战胜柯洁,不等于AlphaGo拥有意识。逻辑推理和符号演绎,很早就可以通过形式系统实现。在大模型中的逻辑能力,并不是意识推理的结果,而是通过词向量和模型中的概率分布方式来实现。
  3. 语言感知,对话能力不是意识的必要条件。动物有意识,但他们不会说话。情感感知能力,甚至通过其他的老式机器学习方法,而不是神经网络来侦测。这些都是训练资料和输入在概率上的作用。
  4. 会灌心灵鸡汤,写诗歌,写小说,画画这些都是语言感知、情感感知能力的表现。
  5. 我们都知道意识是需要注意力的。大模型里使用的注意力机制,可能是最让人迷惑并做出错误判断的根源。我们需要指出:大模型的注意力机制和意识里的注意力是两个不同的概念。大模型的注意力机制是处理输入内容关联性的方法,它通过计算序列中不同位置之间的相关性实现。它是一种局限于部分训练数据的特定模型的方法。意识领域的注意力,是全局的,可以涉及单个领域内,但相当不同或者相反的内容,但更多的是跨领域的。举个不恰当的例子,你在和一个专门处理编程的大模型讨论编程问题,突然告诉它你肚子饿了,你一定会得到一些哭笑不得的答案。

在进一步讨论之前,我们先来简单总结一下,什么是意识,或者什么不是意识。我们必须承认,目前没有公认的关于意识的定义,更没有认可的测试标准。所以这个总结需要一些基础,否则就会陷入无休止的争论。

  1. 我们不考虑泛神论或泛灵论,不假设宇宙万物有灵。
  2. 我们不基于伦理道德、哲学、社会学,而只是基于普遍认可的经验和假设,科学的开展探讨
  3. 我们也不卷入潜意识、梦境等比较烧脑的话题。

首先,我们不能简单的把意识和以下这些划上等号

  1. 意识需要的智能非常低,智能不等于意识。动物和智力发展阶段的小孩有意识。
  2. 很多物理感知对意识不是必须的。盲人看不见,但他们有意识。
  3. 感情感知不是必须的。很多动物、小孩甚至成年人无法感知和共情人的感受,但他们有意识。
  4. 意识需要的逻辑推理能力也相当低,有逻辑推理不等于意识。狗的逻辑推理弱于AlphaGo,但狗有意识。这点和智能类似。
  5. 语言能力不是必须的。很多动物没有语言能力,或者他们的语言能力相当弱,但它们有意识。
  6. 图灵测试是一个相当被认可的测试,很多人用来测试模型是否有意识。但我认为作弊通过了图灵测试,也不能证明有意识。我知道很多团队为了通过某些测试,使用了很多针对性的方法,我统称为作弊。用这种方法通过了图灵测试,并不能证明模型有意识。

这是我目前想到的,欢迎大家补充。

现在我来探讨一下,我认为一个人工智能体具有那些特征,可以被认为是通用人工智能,或者具有意识。我觉得,这些可以成为人工智能专家们的研究方向。我把需要的条件罗列在下面:

  1. 拥有一定的感知能力和智能
    • 有足够的语言感知能力-交流
    • 有足够的逻辑感知能力-推理
    • 有感情感知能力,但不是必须的
    • 其他一些必备的感知和智能
  2. 拥有一个世界模型
    • 这个模型覆盖了世界的大部分领域,而不是局限于特定领域。
    • 这个模型必须覆盖世界的生存必须的领域。
    • 这个模型是活的,不是训练后固化的,能够随时通过学习而更新。
    • 这个模型有自己的发展历史轨迹,能够被意识用来审查
  3. 拥有一个自我认知的模型
    • 这个模型覆盖了社会人格的大部分领域
    • 这个模型有自省的能力,能够自我认识,自我否定,自我提升
    • 这个模型是活的,不是训练后固化的,能够随时通过自省而更新。
    • 这个模型有自己的发展历史轨迹,能够被意识用来审查
    • 这个模型有基于自我认知的信念,这些信念不会被简单的摧毁或改变。
  4. 如果是一个有身体的人工智能体,那么它还需要一些和自然世界相关的感知和智能:
    • 各种必要的对物理世界的感知能力
    • 行动感知能力和操控能力
  5. 一个全局工作空间
    • 全局工作空间理论由美国心理学家伯纳德·巴尔斯提出,并被很多意识领域的科学家认可。我这里采纳这个理论,但没有完全照搬。
    • 这个空间是意识思考的场所,是注意力的来源。这个空间可以能够协同不同功能模型共同工作。
    • 这个空间有注意力切换能力,一定的联想能力,能够关联不同模型间的相似处。
    • 这个空间需要调用或执行逻辑推理、决策等系列需要意识参与的工作。
    • 这个空间有构建新世界模型和自我认知模型的能力,包括在大模型中构建小模型的能力。一个婴儿从到出生到成长,就是他的世界模型和自我认知模型构建的历程。
    • 这个空间能够用来更新其他模型,包括世界模型和自我认知模型,突破模型训练数据构建的藩篱,针对世界环境,做出合理的决策行为。也就是这个空间能够为其他模型提供持续学习的能力。
    • 这个空间能够不依赖外部输入,利用各种内部模型之间的互相反馈进行工作,这是人类思考和内省的来源。

有了上面这些,我组合和这样一些情况

需要的特征虚拟世界现实世界
无意识的通用人工智能1,2,51,2,4,5
有意识的通用人工智能1,2,3,51,2,3,4,5

有了这些我们很容易就能判断,一个简单的大语言模型,单一功能的大模型,没有意识,甚至不是通用人工智能。目前多模态的大模型,也不是通用人工智能,且没有意识。

一个通用人工智能必须是多模态,拥有世界模型和全局工作空间。

一个有意识的人工智能,必须是拥有自我认知模型的通用人工智能。

上面这个分类方法,是我的原创。欢迎大家传播。

Category:

Related Posts