大语言模型的参数量己经超过人脑了吗?

每次那些 AI 公司放大礼炮的时候,总有人问一些这样的问题:

大语言模型超过人脑了吗?大语言模型的参数量超过人脑的神经元数量了吗?大语言模型的参数量超过人类神经元的突触数量了吗?等等这些问题。今天就来和大家一起讨论一下。

第一个问题,大语言模型超过人脑了吗?没有。人脑有很多功能,语言只是其中一个,差老多了。

衍生问题:大语言模型的文字能力超过人脑了吗?这个问题的答案有些复杂。

大语言模型拥有的相关知识肯定超过人类,这主要是因为我们使用了远超个人所能学习的知识量,基于这些知识,大模型的输出显然能够包含更多的知识,而各种知识是语言能力的基础。一个懂得很多典故,知道很多常用写作套路的人,其写作能力肯定比一般人要强。但是作为一个经常使用大模型的人,我想告诉你,我只把大模型作为一个超级棒的搜索引擎,我总感觉它的输出有些奇怪的东西需要确认,需要修改,如果拿来直接用,我保证你会翻车。我感觉在一些联想,深度语义,比喻,幽默等方面,大语言模型还需要提高。另外,模型的输出严重依赖训练数据,它本身没有其他办法来验证输入数据是否合理。

第二个问题,大语言模型的参数量超过人脑的神经元数量了吗?

这个问题就像是问老鼠的腿毛比蜈蚣的腿多吗?但是,我们还是来回答一下,能够让大家对两者有个大概的认识。

大语言模型的参数主要是由每个神经元的权重和偏置构成,比如 LLaMA-7B 就表示它的参数总量在 7 Billion,即70亿左右。神经元的权重和偏置可以类比为大脑神经元的突触。目前比较著名的大模型的参数如下

模型名称参数量公司
Grok-1314B x.ai
Claude 3 Opus2TAnthropic 
Claude Sonnet70BAnthropic 
Claude Haiku20BAnthropic 
GPT3175BOpenAI
GPT41TOpenAI
Llama-70B70BMeta
Llama-20B20BMeta

人类的大脑到底有多少神经元,有很多说法,但大都在一个量级,我这里使用最新的一组数据:大脑大约有860亿(86B)个神经元,总突触数大约是100万亿(10^15, 1000T)个突触,平均每个神经元拥有超过1万个突触。目前最大的 Claude 3 Opus 模型的参数和人脑突触差了5000倍。当然这样比还不是很公平。

  • 首先,人脑神经元的复杂度远超人工神经元,很多不同类型的神经元,具有不同的功能,人工神经元相对比较单一
  • 其次,人脑神经元内部,神经元之间传递了三种不同的信息,电信号,化学物质和自身状态,而人工神经元只有权重。
  • 第三,突触有兴奋\抑制类型,抑制类型起关键作用。人工神经元没有抑制类型。
  • 第四,人工神经元的信号是实数,而生物神经元是脉冲,可以近似为二进制,应该说人工神经元的表达了要强。

综上所述,拿大模型和人脑神经元比较没意义,只能图个乐子。

Category:

Related Posts