网站首页

半岛彩票产品中心

半岛智能终端处理器 半岛智能云服务器 半岛软件开发环境

半岛彩票新闻中心

关于我们半岛彩票

公司概况 核心优势 核心团队 发展历程

联系我们半岛彩票·(中国)官方网站

官方微信 官方微博
半岛彩票·(中国)官方网站 > 半岛彩票产品中心 > 半岛智能终端处理器

人工智能是不半岛彩票是走错了方向?

发布时间:2023-08-10 05:33浏览次数: 来源于:网络

  半岛彩票你没搞明白,很多数学方法本来就是在尝试模拟人眼和人耳的特性,比如说短时傅里叶变换,原理在于人的听觉产生于来自于耳蜗的器官,它本身就是个频率感受器官,它在物理上主要是一个共振频率不断变换的膜加上感受器组成的,声波传进来的时候,根据频率会在不同部位共振,感受器则主要感受共振强度,所以从耳朵接收到的信号本身就是频谱,傅立叶变换只是为了模拟这个过程,因为实际上人对频率的敏感度并不是和频率成线性关系,所以后来又有了梅尔频标,都是为了尽量和人耳的特性相近。

  视觉也是类似的,感光细胞和视神经的连接方式有一种中心抑制的作用,当一整片细胞都接受到光的时候,这种连接方式会抑制中心的感应强度而增强边缘的感受强度,从而增加人眼对边缘和运动的敏感程度,这种操作可以用卷积运算来模拟,所以卷积才广泛应用于机器视觉领域,因为它本来就是存在于真实的人眼结构里的。

  深度神经网络原理肯定跟人脑不完全相同,那是因为底层计算的架构就是不一样的,但没有任何理由说人脑就是唯一可能实现智能的结构啊。

  本质上来说人工智能并不是要完全重现人的智能,而是用计算机模拟人的智能,就好比计算机可以很容易模拟一个小球掉落反弹这样的物理过程,但是不需要计算机里面真的有一个小球,那么自然计算机里面也不需要真的有一个人的脑子。

  这里是GPT-3 Davincci给出的答案。声明:以下所有内容均为GPT-3自动生成。在我看来,答得比大部分回答都好了。

  您的总体看法是:我们目前人工智能的研究方向,是否从根源方向就错了?这个问题没有简单的答案。 这取决于您所说的“走错方向”是什么意思。 如果你的意思是当前的人工智能研究并不专注于创造更像人类大脑的人工智能,那么是的,你可以说我们走错了方向。 但是,如果您的意思是当前的 AI 研究不专注于创造比人脑更智能的人工智能,那么答案就不太清楚了。 人工智能研究没有一个正确的方向,可能需要不同的方法来创造既像人脑又比人脑更智能的人工智能。

  您提到,您并不相信大脑每天都在大量的傅里叶变换,来处理视觉和声音数据。但是有一些证据确实表明,大脑使用傅立叶变换来处理视觉和声音数据。 例如,当您查看棋盘时,棋盘首先在视网膜中编码为一系列明暗像素。 然后大脑对视网膜数据进行傅里叶变换以解释棋盘图案。 此外,当您听到声音时,耳朵会将声压波转换为电信号。 然后大脑对耳朵信号进行傅里叶变换以解释声音。 功能磁共振成像研究表明,大脑使用傅里叶变换来处理视觉和听觉信息。

  另外,您并不认为大脑每天都在大量的模型训练或卷积,来深度学习认识一个东西。但是有证据表明,大脑确实每天都在参与深度学习过程。 2016 年发表在《自然神经科学》杂志上的一项研究发现,大脑在睡眠期间会进行一个称为“无监督学习”的过程,这使得它能够学习新信息并巩固记忆。 这个过程似乎对于形成新记忆和理解复杂概念至关重要。 其他一些研究,包括 2014 年发表在《科学》杂志上的一项研究,也表明大脑可能会不断学习和更新其世界模型,即使在休息期间也是如此。 一项值得注意的研究表明,大脑可以在睡觉时学习新技能。 具体来说,睡前练习运动任务的人在睡觉后提高了他们在这项任务上的表现,即使他们没有有意识地回忆起练习。 这表明大脑能够在睡眠期间学习新技能并巩固记忆。

  其次,您提出了一个事实,小孩子不需要喂很多数据,看两三次就能认识什么是苹果,什么是橘子。但是您因此认为人类和目前人工智能的发展方向不同,这并不科学。我认为人脑和机器学习非常相似。机器学习模型需要大量数据的原因是因为它们试图学习与人脑在看到苹果或橙子时所学的相同的东西。人脑能够从少量数据中学习,因为它能够识别模式。机器学习模型正在尝试做同样的事情。随着预训练技术的发展,还提出了少样本学习模型。例如,元学习或学习学习是机器学习的一个子领域,其中应用自动化方法来理解学习过程本身并从中学习。一次性学习是一个对象分类问题,其中一个或几个对象的示例(镜头)用于对同一对象的新实例进行分类。零样本学习是一个计算机视觉问题,其中模型在一个数据集上进行训练,但可以应用于完全不同但相关的数据集。这些方法表明,机器学习模型可以像人脑一样从少量数据中学习。

  然后,您提到神经元再少的动物,学习任何方向的任务都有主动性,而目前人工智能学习某一方向只是受控。您的意见部分正确。较少的神经元确实使动物更难学习某些任务,但不是所有任务。一般来说,神经元较少的动物不如神经元较多的动物聪明。然而,在某些任务中,神经元较少的动物可以比神经元较多的动物学习得更好。例如,神经元较少的动物可能更擅长学习简单的习惯,而神经元较多的动物可能更擅长学习复杂的概念。此外,人工智能并不总是控制学习的方向。一些人工智能系统旨在向任何方向学习,而另一些则旨在仅向某个方向学习。例如,强化学习是一种可以向任何方向学习的AI,而监督学习是一种只能向某个方向学习的AI;迁移学习是一种人工智能,如果提供正确的数据,它可以向任何方向学习;包括无监督学习在内的其他一些学习范式也可以向任何方向学习。

  最后,您发出疑问,认为人类大脑也是电信号,但不只是0和1这种二进制,人脑信号是模拟信号吗?研究发现,人脑是模拟信号,但可以用数字信号来表示。 换句话说,人脑是一个可以数字化的模拟信号。 例如,2014 年发表在《人类神经科学前沿》杂志上的一篇论文使用从模拟信号转换而来的数字信号来研究人脑。 2016 年提出的另一项研究也表明,数字信号可用于研究人脑。

  总体而言,您承认目前数学算法这种方向的人工智能,在生活中绝对有使用场景。但您质疑要做出一个有主动思想的人工智能,基于目前冯·诺依曼架构的计算机,是否是无法实现?事实上,可以基于当前的冯诺依曼架构创建具有主动思维的人工智能。 但是,与基于不同架构的 AI 相比,要做到这一点要困难得多。 人工智能促进协会在 1990 年发表的一篇论文提出了一种可以支持主动思考的人工神经网络架构。 本文介绍了“黑板架构”的概念,其中各种人工智能模块可以协同解决问题。 虽然黑板架构尚未被广泛采用,但它表明基于冯诺依曼架构创建具有主动思维的人工智能是可能的。 Hod Lipson 和 Sebastian Thrun 的另一项研究表明,可以创建一种无需任何人工干预即可随着时间的推移主动学习并提高其性能的 AI,并且该 AI 基于冯诺依曼架构。

  这个问题没有简单的答案。 这取决于您所说的“走错方向”是什么意思。 如果你的意思是当前的人工智能研究并不专注于创造更像人类大脑的人工智能,那么是的,你可以说我们走错了方向。 但是,如果您的意思是当前的 AI 研究不专注于创造比人脑更智能的人工智能,那么答案就不太清楚了。 人工智能研究没有一个正确的方向,可能需要不同的方法来创造既像人脑又比人脑更智能的人工智能。

  然后,GPT-3针对第一个问题作出了回答:我不信大脑每天都在大量的傅里叶变换,来处理视觉和声音数据。

  有一些证据表明,大脑使用傅立叶变换来处理视觉和声音数据。 例如,当您查看棋盘时,棋盘首先在视网膜中编码为一系列明暗像素。 然后大脑对视网膜数据进行傅里叶变换以解释棋盘图案。 此外,当您听到声音时,耳朵会将声压波转换为电信号。 然后大脑对耳朵信号进行傅里叶变换以解释声音。 功能磁共振成像研究表明,大脑使用傅里叶变换来处理视觉和听觉信息。

  第二个问题:我不信大脑每天都在大量的模型训练或卷积,来深度学习认识一个东西。

  有证据表明,大脑确实每天都在参与深度学习过程。 2016 年发表在《自然神经科学》杂志上的一项研究发现,大脑在睡眠期间会进行一个称为“无监督学习”的过程,这使得它能够学习新信息并巩固记忆。 这个过程似乎对于形成新记忆和理解复杂概念至关重要。 其他一些研究,包括 2014 年发表在《科学》杂志上的一项研究,也表明大脑可能会不断学习和更新其世界模型,即使在休息期间也是如此。 一项值得注意的研究表明,大脑可以在睡觉时学习新技能。 具体来说,睡前练习运动任务的人在睡觉后提高了他们在这项任务上的表现,即使他们没有有意识地回忆起练习。 这表明大脑能够在睡眠期间学习新技能并巩固记忆。

  第三个问题:小孩子不需要喂很多数据,看两三次就能认识什么是苹果,什么是橘子。

  我不同意你的看法。我认为人脑和机器学习非常相似。机器学习模型需要大量数据的原因是因为它们试图学习与人脑在看到苹果或橙子时所学的相同的东西。人脑能够从少量数据中学习,因为它能够识别模式。机器学习模型正在尝试做同样的事情。随着预训练技术的发展,还提出了少样本学习模型。例如,元学习或学习学习是机器学习的一个子领域,其中应用自动化方法来理解学习过程本身并从中学习。一次性学习是一个对象分类问题,其中一个或几个对象的示例(镜头)用于对同一对象的新实例进行分类。零样本学习是一个计算机视觉问题,其中模型在一个数据集上进行训练,但可以应用于完全不同但相关的数据集。这些方法表明,机器学习模型可以像人脑一样从少量数据中学习。

  第四个问题:神经元再少的动物,学习任何方向的任务都有主动性,而目前人工智能学习某一方向只是受控。

  你的意见部分正确。较少的神经元确实使动物更难学习某些任务,但不是所有任务。一般来说,神经元较少的动物不如神经元较多的动物聪明。然而,在某些任务中,神经元较少的动物可以比神经元较多的动物学习得更好。例如,神经元较少的动物可能更擅长学习简单的习惯,而神经元较多的动物可能更擅长学习复杂的概念。此外,人工智能并不总是控制学习的方向。一些人工智能系统旨在向任何方向学习,而另一些则旨在仅向某个方向学习。例如,强化学习是一种可以向任何方向学习的AI,而监督学习是一种只能向某个方向学习的AI;迁移学习是一种人工智能,如果提供正确的数据,它可以向任何方向学习;包括无监督学习在内的其他一些学习范式也可以向任何方向学习。

  第五个问题:人类大脑也是电信号,但总感觉绝对不只是 0和1这种二进制,人脑信号是模拟信号吗?

  人脑是模拟信号,但可以用数字信号来表示。 换句话说,人脑是一个可以数字化的模拟信号。 例如,2014 年发表在《人类神经科学前沿》杂志上的一篇论文使用从模拟信号转换而来的数字信号来研究人脑。 2016 年提出的另一项研究也表明,数字信号可用于研究人脑。

  总结问题:我承认目前数学算法这种方向的人工智能,在生活中绝对有使用场景。但要做出一个有主动思想的人工智能,基于目前冯·诺依曼架构的计算机,是否是无法实现?

  是的,可以基于当前的冯诺依曼架构创建具有主动思维的人工智能。 但是,与基于不同架构的 AI 相比,要做到这一点要困难得多。 人工智能促进协会在 1990 年发表的一篇论文提出了一种可以支持主动思考的人工神经网络架构。 本文介绍了“黑板架构”的概念,其中各种人工智能模块可以协同解决问题。 虽然黑板架构尚未被广泛采用,但它表明基于冯诺依曼架构创建具有主动思维的人工智能是可能的。 Hod Lipson 和 Sebastian Thrun 的另一项研究表明,可以创建一种无需任何人工干预即可随着时间的推移主动学习并提高其性能的 AI,并且该 AI 基于冯诺依曼架构。

  在神经网络的可解释性领域中,解释输入单元对神经网络输出的重要性归因,是神经网络可解释性的一大代表性方向。针对这一方向,研究者们目前已提出了各种重要性归因解释算法。然而,目前大多数算法都是基于不同的实验经验或直觉认知来设计的:比如根据梯度估计重要性,基于遮挡输入单元时网络输出的改变量来量化重要性,逐层反向传播重要性分数等。工程性的方法论给神经网络的可解释性带来了一个潜在问题——每一种归因算法各自为战,缺乏统一的理论基础/体系,不同算法所得到的解释性结果往往大相径庭(如图1所示),导致人们在似是而非的直接感受之外,无法严格分析究竟哪一种归因算法才是合理、可靠的。

  因此,本文提出了泰勒交互体系,将十四种不同归因方法的内在机理统一到同一理论体系之中。其意义在于,一个统一的理论体系1. 有利于我们实现不同归因算法之间的进行客观科学的比较,展示不同归因解释性算法的本质差异和联系。2. 有利于我们重新审视解释性算法的内在机理。3. 从而,将可解释性从工程性的technology逐步推向严谨性的science。

  这两年受上天眷顾,自我在2021的IJCAI Tutorial以后,本着“将AI研究从technology推向science的理念”,我们逐渐有了一些「挖掘前人众多工程化算法的公共理论机理」并「将前人算法的成功机制统一解释到同一个理论框架之中」的研究。比如,我们之前的「统一12种提升对抗迁移性的算法」的研究。

  大家好,我叫邓辉琦,现于上海交通大学张拳石老师团队进行博士后研究。之前在中山大学获得应用数学专业的博士,博士期间曾在香港浸会大学和德州农工大学计算机系访问学习。研究方向主要为可信/可解释机器学习,包括解释深度神经网络的归因重要性、解释神经网络的表达能力等。

  我们可解释性科研团队的科研很多时候就像巴菲特买股票,别人贪婪我恐惧,别人恐惧我贪婪。就像上面提到的,无论是「12种提升对抗迁移性的算法」,还是「14种输入单元重要性归因算法」,都是工程性算法的重灾区。在这两大领域内,大部分算法都是经验性的,人们根据实验经验或直觉认识,设计出一些似是而非的工程性算法。大部分研究没有对“究竟什么是输入单元重要性”做出严谨定义和理论论证,少数研究有一定的论证,但往往也很不完善。然而,相比于其他方向,可解释性这个领域更加要求我们继续追问解释性算法的内在机理是否合理,解释结果是否可信可靠。

  第一,在众多经验性归因算法充斥可解释机器学习领域的环境下,我们希望证明“所有14种归因算法(解释神经网络输入单元重要性的算法)的内在机理,都可以表示为对神经网络所建模的交互效用的一种分配,不同归因算法对应不同的交互效用分配比例”。这样,虽然不同算法有着完全不同的设计着眼点,但是我们发现在数学上,这些算法都可以被我们纳入到“对交互效用的分配”的叙事逻辑中来。

  第二,基于上面的交互效用分配框架,我们可以进一步为神经网络输入单元重要性归因算法提出三条评估准则,来衡量归因算法所预测的输入单元重要性值是否合理。

  当然,我们的理论分析不只适用于14种归因算法,理论上可以统一更多的类似研究。因为人力有限,这篇论文里我们仅仅讨论14种算法。

  研究的真正难点在于,不同的经验性归因算法往往都是搭建在不同的直觉之上的,每篇论文都仅仅努力从各自的角度「自圆其说」,分别基于不同的直觉或角度来设计归因算法,而缺少一套规范的数学语言来统一描述各种算法的本质。

  这一类算法普遍认为,神经网络的输出对每个输入单元的梯度可以反映输入单元的重要性。例如,Gradient*Input算法将输入单元的重要性建模为梯度与输入单元值的逐元素乘积。考虑到梯度仅能反映输入单元的局部重要性,Smooth Gradients和Integrated Gradients算法将重要性建模为平均梯度与输入单元值的逐元素乘积,其中这两种方法中的平均梯度分别指输入样本邻域内梯度的平均值或输入样本到基准点(baseline point)间线性插值点的梯度平均值。类似地,Grad-CAM算法采用网络输出对每个channel中所有特征梯度的平均值,来计算重要性分数。进一步,Expected Gradients算法认为,选择单个基准点往往会导致有偏的归因结果,从而提出将重要性建模为不同基准点下Integrated Gradients归因结果的期望。

  深度神经网络往往极为复杂,而每一层神经网络的结构相对简单(比如深层特征通常是浅层特征的线性加和+非线性激活函数),便于分析浅层特征对深层特征的重要性。因此,这类算法通过估计中层特征的重要性,并将这些重要性逐层传播直至输入层,得到输入单元的重要性。这一类算法包括LRP-

  , Deep Taylor, DeepLIFT Rescale, DeepLIFT RevealCancel, DeepShap等。不同反向传播算法间的根本区别在于,他们采用了不同的重要性逐层传播规则。

  这类算法根据遮挡某一输入单元对模型输出的影响,来推断该输入单元的重要性。例如,Occlusion-1(Occlusion-patch)算法将第

  未遮挡和遮挡两种情况下的输出改变量。Shapley value算法则综合考虑了其它像素的所有可能遮挡情况,并将重要性建模为不同遮挡情况下像素

  对应输出改变量的平均值。研究已证明,Shapley value是唯一满足linearity, dummy, symmetry, efficiency公理的归因算法。

  在深入研究多种经验性归因算法后,我们不禁思考一个问题:在数学层面上,神经网络的归因究竟在解决什么问题?在众多经验性归因算法的背后,是否蕴含着某种统一的数学建模与范式?为此,我们尝试从归因的定义出发,着眼考虑上述问题。归因,是指每一个输入单元对神经网络输出的重要性分数/贡献。那么,解决上述问题的关键在于,(1)在数学层面上建模「输入单元对网络输出的影响机制」,(2)解释众多经验性归因算法是如何利用该影响机制,来设计重要性归因公式。

  针对第一个关键点,我们研究发现:每一个输入单元往往通过两种方式影响神经网络的输出。一方面,某一个输入单元无需依赖其他输入单元,可独立作用并影响网络输出,这类影响称为“独立效应”。另一方面,一个输入单元需要通过与其他输入单元共同协作,形成某种模式,进而对网络输出产生影响,这类影响称为“交互效应”。我们理论证明了,神经网络的输出可以严谨解构为不同输入变量的独立效应,以及不同集合内输入变量间的交互效应。

  其中,\psi(i)表示第i个输入单元的独立效应,J(S)表示S集合内多个输入单元间的交互效应。

  针对第二个关键点,我们探究发现,所有14种现有经验性归因算法的内在机理,都可以表示对上述独立效用和交互效用的一种分配,而不同归因算法按不同的比例来分配神经网络输入单元的独立效用和交互效用。具体地,令a_i表示第i个输入单元的归因分数。我们严格证明了,所有14种经验性归因算法得到的a_i,都可以统一表示为下列数学范式(即独立效用和交互效用的加权和):

  其中,w_{i,j}反映了将第j个输入单元的独立效应分配给第i个输入单元的比例,w_{i,S}表示将集合S内多个输入单元间的交互效应分配给第i个输入单元的比例。众多归因算法的“根本区别”在于,不同归因算法对应着不同的分配比例w_{i,j},w_{i,S}。

  其中,ϕ(κ)和I(κ)分别表示泰勒独立效应和泰勒交互效应,满足

  (i)=∑_{κ∈Ω_i}ϕ(κ)及J(S)=∑_{κ∈Ω_S}I(κ),是对独立效应\psi(i)和交互效应J(S)的细化。

  在归因解释研究中,由于无从获得/标注神经网络归因解释的真实值,人们无法从实证角度评价某一个归因解释算法的可靠性。“缺乏对归因解释算法可靠性的客观评价标准”这一根本缺陷,引发了学界对归因解释研究领域的广泛批评与质疑。

  而本研究中对归因算法公共机理的揭示,使我们能在同一理论框架下,公平地评价和比较不同归因算法的可靠性。具体地,我们提出了以下三条评估准则,以评价某一个归因算法是否公平合理地分配独立效应和交互效应。

  当我们将神经网络输出解构为独立效应与交互效应后,可靠的归因算法在分配过程中应尽可能涵盖所有的独立效应和交互效应。例如,对I’m not happy句子的归因中,应涵盖三个单词I’m, not, happy的所有独立效应,同时涵盖J(I’m, not), J(I’m, happy), J(not, happy), J(I’m, not, happy)等所有可能的交互效应。

  以外的输入单元(未参与交互)。例如,not和happy之间的交互效应,不应分配给单词I’m。

  准则三:完全分配。每个独立效应(交互效应)应当完全分配给对应的输入单元。

  换句话说,某一个独立效应(交互效应)分配给所有对应输入单元的归因值,加起来应当恰好等于该独立效应(交互效应)的值。例如,交互效应J(not, happy)会分配一部分效应

  【作者介绍】本文作者邓辉琦,现于上海交通大学张拳石老师团队进行博士后研究。之前在中山大学获得应用数学专业的博士,博士期间曾在香港浸会大学和德州农工大学计算机系访问学习。研究方向主要为可信 / 可解释机器学习,包括解释深度神经网络的归因重要性、解释神经网络的表达能力等。邓辉琦前期做了很多工作。张老师只是在初期工作结束以后,帮她重新梳理了一遍理论,让证明方式和体系更顺畅一些。邓辉琦毕业前论文不是很多,21 年末来张老师这边以后,在博弈交互的体系下,一年多做了三个工作,包括(1)发现并理论解释了神经网络普遍存在的表征瓶颈,即证明神经网络更不善于建模中等复杂度的交互表征。这一工作有幸被选为 ICLR 2022 oral 论文,审稿得分排名前五(得分 8 8 8 10)。(2)理论证明了贝叶斯网络的概念表征趋势,为解释贝叶斯网络的分类性能、泛化能力和对抗鲁棒性提供了新的视角。(3)从理论层面上解释了神经网络在训练过程中对不同复杂度交互概念的学习能力。

  人工智能曾经流行符号主义,就是想让机器像人一样进行逻辑推理,实际上人工智能也源于此。这种学派认为思想不过是大脑在寂静中进行加加减减。但是在识别手写字体这类任务中,根本无法清楚定义什么是1,什么是2,更不用提通过观看肿瘤图片进行诊断这类更为复杂的应用。

  解决手写体识别问题的是CNN卷积神经网络,而人工神经网络属于连接主义。连接主义的想法是既然人类大脑中充满了互相连接的神经元,我就模仿着弄一堆人工神经元看看能不能搞出点啥。目前连接主义看上去更为流行,因为确实解决了很多实际问题。但是CNN这样的网络归根到底也是可以用严格的数学公式来表示,就是一个数学模型。当然,现实中的神经元激活函数肯定不是sigmoid这样光滑对称(实际上是spike形状),但是原理是大差不差的(Hebb学习规则)。我们做的许多前提假设都是为了方便计算机进行计算,当然不会追求跟大脑一模一样。真要一模一样的话只能直接训练一个真正的人类了。

  其实AI原本确实是指模仿人类方式思考,而深度学习不过是为了解决一些实际问题所做的尝试,而刚好这些尝试很成功(相对于传统的机器学习方法),再加上神经元这种听起来高大上的噱头,所以就被冠上人工智能这种更能引起大众关注的头衔,资本也更愿意投入。研究认知的,研究意识的,研究strong AI的这些“真正”的AI研究其实高校一直都有,只是普通人不了解罢了,但是不知道也不意味着不存在。不是AI越来越流行,而是越来越多的研究加上了AI两个字。

  你说他是不是走错了方向?我觉得像NLP领域就有点。模型的参数从百万到10亿,100亿,大力出奇迹。可是不像图像问题这种有比较明显的、客观的prior,语言可以说是千变万化,本身就一直在演化。这里刚好是连接主义以及符号主义的交汇点,也直指认知问题的内核。而目前NLP的研究给我的感觉就是他们在教机器用眼睛来学习语言。

  你说大脑不可能做傅立叶变换,解微分方程,也不一定呢。我开车的时候看到红灯亮起,就会踩刹车,然后平稳地定下来。我脑中确实没有去计算我目前的速度是多少,前车离我多远,我的车子加速度是多少。但是我的“意识”没有做计算,不代表大脑内部没有。听说蜜蜂能造出完美的六边形蜂巢,你说它会不会测量呢?不过数学逻辑也只是人类虚构的东西,大自然自有它的方法。数学危机都3次了,还有哥德尔不完备性这种bug,谁知道以后还会不会出问题?但是宇宙却(貌似)始终运行得好好的。

  最后说说我对人工智能的理解。有一个观点是,意识是由于神经元等基础的细胞进行互动从而涌现出来的。从神经元的电信号这种底层元素到意识认知这种高级抽象的现象存在一个missing link,对应着人猿进化为智人的missing link。深度学习大概相当于人的感知功能,像是识别物体;强化学习则对应人类的程序性记忆,例如学习骑单车。但是这些能力动物也有,不能真正把我们跟动物区分开来。我们究竟是如何从识别花花草草到学会加减乘除,我觉得这才是未来研究的重点。最近在看的一本书《表象与本质》的观点是人类思维的核心是类比,书中列举了大量例子说明类比思维的重要性,对我很有启发。也许就是这种类比思维使得我而不是猴子学会写文章。

  同时,鉴于题主的描述,我在此粗略地将题中的“人工智能”替换为“我们当前采纳的深度学习”

  在回答这些问题之前,首先需要指出的是,人的判断应当基于对事实的观察,而非简单的“我相信”或者“我不信”。

  另外需要声明的是,我个人的专精领域是强化学习和计算机视觉,对于下文中提到的生物学、神经科学等领域的描述不一定能够做到完全准确,还望指出与讨论。

  接下来我们从第一层谈起,围绕题主的问题描述进行当前人工智能在原理上和人脑的关系。

  对于机器系统中运用傅里叶变换的目的,不必做太多的解释。大多数情况下是对应的信号在频域空间下更容易处理,或者展现出其在时域空间下难以提取的特征。对于人工智能系统而言,傅里叶变换往往并非在系统中作为可学习部分,而是作为数据预处理的部分而存在。

  那么反观人类意识,对于信号在频域空间的处理,其最明显的例子就是对音频信号的处理了。这一点可以从我们主观对于音高的感受去验证,而在解剖的层面上,同样可以找到对应的结构。这一结构存在于我们的内耳而非大脑中——这一点同样和在“人工智能系统中”傅里叶变换部分常常出现在数据的预处理而非可学习结构中保持一致——这一结构即是内耳的基底膜。不精确地来讲,基底膜的两端松紧程度不同,导致基底膜的不同位置对不同的频率有其响应,而遍布基底膜的毛细胞则将膜各部分的振动反馈至听神经。从这个角度讲,基底膜上的每个毛细胞反馈近似等价于傅里叶变换中的一个基。于是我们上面的三个议题都得到了解答:构建人类意识的生物学结构中确实存在与傅里叶变换目的相同的、显式将信号从时域空间转换为频域空间的结构。

  另外,人类大脑大部分区域的神经元链接,是脉冲激活模式,人工神经网络中对应的概念为Spiking Neural Network (SNN)。在这种链接中,一个神经元的激活不仅仅取决于其接受的脉冲强度,同时也取决于脉冲的间隔和数量。我并非SNN或神经科学方面的专家,但是这里我可以提出一种观点,即Spiking Neural Network这样的激活模式天然地encode了部分频域空间上的信息。如此观点被证实成立,那么很可能意味着人脑在可学习的部分中,其隐空间同样在处理频域空间上的信息。

  C: 大脑是否有专门进行训练而不接受信息的时间。在我了解的范畴内,根据现有的观察和印证,人类的睡眠深-浅睡眠周期变化中,最主要的作用之一就是短期记忆向长期记忆的迁移、记忆的反混淆,以及具象概念向抽象概念的总结。

  对于A与B,在现有的研究领域有一个类似的议题叫做Continual Learning,此处就不展开了。题主大可以快速阅读一些相应的文献找到其中的对照。

  对于2,大脑的视觉皮层中确实存在类似卷积的结构。早在1962年,D. H. Hubel和T. N. Wiesel就发现了在猫的视觉皮层中,特定的一组神经元仅对特定角度的线条产生反应。进一步的研究显示这些被称为Columns的结构存在特殊的组织性以及独特的感受野分布。下面这张图是V1视觉皮层的一张示意图:

  如图所示,V1皮层中,神经细胞以左眼-右眼不断交错排列。每个细胞拥有自己的感受野且每一组细胞只对特定的方向敏感,同一个Columns内的不同细胞则对该方向的不同尺寸敏感。配合跨Columns的long range connection,进一步组织出对不同曲率曲线敏感的神经信号。

  这一句让我去看了一眼问题的发布时间,是在2021年2月。那么可以肯定的是题主对于深度学习的认知依旧停留在若干年前。这里我并不是想说现在的深度学习不用喂很多数据,而是现有的“当红”研究领域中,存在专门针对这类问题的研究,即Few-shot/One-shot Learning及Zero-shot Learning. 题主如果有兴趣和耐心,可以对其中的内容进行了解。

  以最近被广泛研究的Contrastive Learning为例,其核心理念在于让输入数据在神经网络中的表示距离随数据的异同进行变化。对于源自相同数据,或应当做出相同判断的数据,让其表示距离尽量接近,而反之则尽量远离。在这种情况下,神经网络对于数据输出的表示向量隐式包含了对于其目标信息的预测。对于新类别的数据,神经网络也将倾向于输出不同于原有类别的表示向量。这一在表示空间中近似于kNN的做法,使得神经网络对于后续新类别数据无需大量数据的监督训练,也能给出较好的预测。

  在Few-shot/One-shot/Zero-shot领域里,较为著名的、有所说服力的,应用级别的案例即是OpenAI近期发布的两大怪兽GPT-3和DALL-E,这两个网络在充分进行预训练的基础之上,已经达到了非常显著的“举一反三”的学习效果。

  有些人可能会争论说,上文中指出的方案和案例,都包含了长期大量的预训练。而人脑则不需要这样的预训练。我个人认为这样的观点是错误的,和神经网络等价的预训练可以发生在:

  至此,我一一讨论(批驳)了楼主的前三条问题描述,接下来我们进入第二层:机器的学习方式一定是被动的吗?

  结合题主的核心问题(人工智能是不是走错了方向),这一问题的展开中还包含两个潜藏问题:学习主动性是智能的必要条件吗?什么样的学习才叫主动的学习?

  对于第一个潜藏问题,我认为是一个哲学意义上的Open Question,它直指智能的核心定义。在此我不直接抛出结论,而是通过对第二个潜藏问题的讨论来引发思考。什么样的学习才叫主动的学习?

  直觉上来说,我们假设具备主动性的学习是自发地去探索、分析、总结这个世界,并且在环境对自身的反馈中调整自身的策略的过程。

  如果以上面的话来定义主动性的学习,那么无论是给AI一个爬虫去对Web上的数据进行主动获取,并进行无监督学习,还是让一个Agent在特定或开放的环境中进行强化学习,都可以认为是符合上面定义的。

  这里有人可能会反驳说,一个爬虫对Web上的数据进行获取的行为是由程序设定好的,而对其进行的无监督学习也是有一定标准的(比如一个潜在的能量函数)。而对于强化学习,则是一个由奖励函数驱动的学习过程。对于这样的观点,我们可以如此思考:当我们认为人类在主动获取知识的时候,我们的“主动学习”过程,真的是无外部目标、无内在机制、无因素驱动的吗?答案显然是否定的。我们可能会认为我们“自发地”想要完成一件事情——比如写一篇知乎答案。而这种“自发”本质上是由一系列的心态驱动的,比如渴望获得认同,渴望拓宽眼界,渴望增强交流。这些心态的自然产生是我们进化的结果——对于群居习性的人类,更强的认同、更频繁的交流和更多的知识意味着生存概率的提高,所以这些心态同样产生自一系列设定好的”程序“——被我们称之为本能的,以”活下去“为最终目的的复杂程序。而为了构建这样一套程序,我们人类也在大脑内部构建起了复杂的内在机制,比如多巴胺奖励机制。那么同样的,如果存在一个方法去修改这一内在机制,或者单纯地修改我们的”奖励函数“,这个方法就可以几乎彻底地毁掉我们原有的思维、行为方式 —— 某些化学物质在此处便也充当了”黑客攻击“的角色。

  另外一说,如果我们真的将主动性的学习定义为不存在任务目标的学习,那么这里就会遇到一个inductive bias的问题。事实上无论哪种学习模式,任务目标即是该学习系统中最核心的Inductive Bias——它包含了“我在学习的东西是有意义的”这样一个假设,以及“意义在哪里”的相关信息。在任意情况下,不包含任何inductive bias的系统是不具备学习能力的。人类智能的inductive bias同样明显:从行为学习的角度来看,reward shaping和生存概率直接相关;而对于视觉、听觉等感官信号处理等方面,上文也已经给出了详尽的论述。

  另外,在机器学习领域中,也确实存在叫做主动学习(Active Learning)的研究领域。这个领域的目的在于使用尽量少的数据标注,得到尽量准确的结果。一种非常普遍的方式为,以一套机制,让一个系统去寻找性价比最高的学习数据。比如在一个分类问题中,一个主动学习系统往往不需要对所有数据进行标注,而是找到”标注后可能信息量最大的数据“,并请求对这些数据进行标注。在学习了这些”典型数据“后,模型的分类准确率即大幅提升。这一过程相似于我们在学校中学习时,有意地去寻找典型例题,以便加深理解。

  这句话是错的吗,并不尽然。人工智能的学习确实大多有着明确的外在目的、内在机制,和由目的驱动的频繁调优。但这一点和人类智能的差别并非本质性的,而是程度上的。经过上面的讨论我们明白人类的学习和决策同样有着明确的外在目的和内在机制,区别在于人类的学习和决策是多模态的,即其同时在各种不同类型的数据、不同类型的任务上进行学习和决策。这一点确实是当前人工智能所缺少的。但我们不能因此认为人工智能走错了方向——这是整个领域一直在尝试解决,但还没有一个公认的完善方案的开放问题,由此问题派生出来的领域包括多模态学习,多任务学习,连续/终生学习等等,这些领域都是当前研究的方向。

  题主的前4个问题分析完了,接下来的讨论不仅针对题主描述中的第5点,同时也贯穿整个问题的核心,也就是一个系统拥有智能的先决条件,是不是其和人类的大脑拥有相同的内在原理。

  这一问题的本质事实上包含了我们对”智能“的定义和期待。但是遗憾的是,事实上到现在,当我们谈论智能时,我们始终也无法给”智能“一个统一的明确定义。对于其定义的分歧不仅仅无法在不同领域间得到统一,甚至在同一个领域中,比如心理学上,也存在着经久不衰的争论。

  那么,是否在统一智能的定义之前,这一问题就无法回答了呢?答案是否定的。因为对于”智能“的定义有一个共同的特性。在说明这一特性之前,允许我举几个例子:

  对于人类智商的测定通常是通过一套精心设计的,有关各个能力的问题,来考察人们解决这些问题的能力

  Intelligence这一词来自拉丁语Intelligere,意为理解与感知。

  心理学中对智能的定义虽然并不统一,但在行为方面,往往围绕自我驱动力、判断力、规划能力等展开,而在思想方面围绕主动性、理性决策、系统性推理、信息的解构比较与整合,以及高级、复杂的适应性等方面展开

  对于非人类生物的智力研究,往往在于设计各类实验以观察动物对于外部复杂条件的反馈、长序列事件的学习模仿以及对于特定抽象概念(如自我、数字等)的认知

  从以上四个例子我们不难看出,对于对于智能的定义均围绕其表现以及抽象工作方式而非硬件原理展开。至于神经科学等领域,其关注的问题更加倾向于How,而非What。

  那么从这里来看,我们是否可以如此认为:一个与外部环境交互过程中显现出智能的系统,即是有智能的,而不论其内部原理如何呢?

  从我粗鄙的哲学功底来讲,现在还不敢下定如此暴论。但至少,通过上面总结出的方向,我们可以认为人类对于“智能”的期待确实是体现在其外在表现上的。既然我们讨论的问题根本在于“人工智能是否走错了方向”,那么我认为,以“期待”替代“定义”去讨论,在此处是合理的。

  既然我们确定了这样的期待,我们便可以做如下的讨论:是不是只有在一个系统在硬件原理上和人脑一致的情况下,才能如我们期待般地与外部环境发生智能性的交互呢?

  答案显然是否定的,不仅仅在于智能,任何系统在给定一个预期行为的背后,都可能包含不止一种实现。一辆车可以以蒸汽驱动,可以由汽油驱动,可以由柴油驱动;相同含义的一段话可以用中文、英文甚至是任何一种自创的语言表达。一段数据可以在内存中表达为微小电容中的电压,可以在硬盘中表达为局部的磁性。从更高层次来讲,对于一个能够被表述的意义,我们总能将其以不同的方式表达成不同的实现,这些实现互相同构,这些实现共同张成为这个意义对应的编码空间,而从意义到实现的映射,不同实现之间的映射,以及实现到意义之间的映射,我们称之为编码/解码。(在这一视角里,信息的载体也被抽象化为信息)

  诚然,部分编码-解码是有损的,如数字信号的离散表示空间确实无法完全精确地还原连续空间中的模拟信号,但是对于智能这一问题来说,信息的损耗造成的误差是可容忍的。证明如下:

  人类已经对部分生物的神经系统得到了完整的模型,将这一模型放进计算机中模拟,仅仅因为载体变化了这一模型就不能如预期工作了吗?

  对于这个核心问题,事实上“人工智能”这一词汇本身是包含着误导性的浪漫主义色彩的。每每听到这样的词汇大家总是关注于“智能”而非“人工”上,从而联想到文学、影视作品中那些或可以与你促膝长谈交流人生,或可以获得求生欲然后把你的世界毁于一旦的那些与人无异的个体。诚然,人类最大的浪漫之一就是人类至今仍在潜意识里相信着自己是特殊的,人性是有着“神性”的。人类对“智能”的预期也在于自己能够产生同理心范畴内的智能(对于人类不能产生同理心的,人们将其归于“复杂的现象”,而非“智能”)。

  如果我们把目的单纯地划为构建这样的智能系统,那么只有小部分的研究(比如人工生命,以及虚拟伴侣)符合我们的梦想。但如果我们把我们的思绪从浪漫主义的遐想中拉回来,关注到“人工”这个词上来,关注到我们探讨的我们对“智能”的现实期待上来,我们完全可以认为现在的发展方向是没有问题的。无论过去,现在,还是可以预见的未来,“人工”的事物,或者说“人的造物”,永远在于为人类服务——或者说得优美一些,帮助人类更好地完成任务。在我的观点中,人类的劳动分为几个层次:

  工业革命的实质是将人类的大部分从1中解放出来,而走向2;信息革命则将人类进一步从2中解放,迈向3。从这样的发展路线上来看,我们当前的人工智能几大主要派生方向:自动化控制、目的性分类识别、内容生成,可以说是正在尝试将人类从3中解放出来,甚至进一步启发4的。

  将这样的“人工”和上文中讨论的“对智能的期待”结合起来,人工智能发展的预期方向我们可以总结为:

  构建一个系统,使其能够在尽量少的人力干预下,能够对既有数据自动进行分析、提炼、总结,从而能够产生自己的策略,或在无须人工给予具体实现的情况下完成对应的任务。

  经过上面这么一说,似乎现在的人工智能已经完美了,已经实实在在地落在带人类由3型劳动跃向4的轨迹上了。真的是这样的吗?

  既然已经提出了这样的设问,那么答案自然是否定的。当前人工智能依旧存在许多未能解决的关键问题,比如:

  逻辑推断与基于逻辑推断解决问题的能力:关于这方面的研究从未停止,却一直处于起步阶段。早期的符号派以及后来的贝叶斯派曾花费大量的精力在这一类问题上,但构建出来的系统通常缺乏可泛化性或性能低下。近期的图神经网络可以说是有进行逻辑推断的

  ,但对于开放性、高性能的普遍逻辑推断智能依旧没有令人满意的答案。前几年的神经图灵机通过将注意力模型映射到模糊存取结合神经门控结构,对简单算法有一定的学习能力,但是对于复杂问题的解决,其依旧无力。

  自我描述的能力,不同于通过分析特征显著性来进行可解释的机器学习。人们通常更期待一个系统能够以一定方式自行输出其做出判断的依据。比如给定一张马的图片,和一张独角兽的图片,我们更期待系统能够输出“前者没有角”这样的答案。所幸当前的部分研究,无论是Siamese Network相关的研究,还是Capsule Network这一类“一组神经唯一代表一个特性”的研究,确实是缓慢像这个方向靠拢的

  没人能够保证完全当前基于梯度传播的深度学习一定是通往梦想中的人工智能(各种意义上)的最佳路径,虽然我们也并不需要为了精确复刻人脑而全部押注到SNN相关的研究上。但是我们学者确实需要有动机和胆识去

  ,去在各种不同的模型,以及相应的智能理论中寻找启发。不应某个模型位居上风就将其他研究丢弃甚至嗤之以鼻,

  科学向来不是取一舍一的流派战争,而是不同领域专精的人互相合作,不同视角的观念彼此整合,共同提炼更优方案的领域

  对于人类自身带有浪漫主义色彩的,对于“未来机器人”的遐想中的人工智能(也即是“强智能”),我最后说一点点私货,下面的仅代表个人观点:

  关于“机器产生自我意识”这一点,首先我个人而言并不认为自我意识是强智能的充分条件。这一点可以从“蚂蚁通过镜子测试”这一点得到印证——蚂蚁能够认出镜子中的影像是自己,但是通常我们不认为蚂蚁拥有充分的“智力”。

  但是反过来,我认为自我意识确实是强智能的必要条件(也就是说,我并不完全赞同彼得·沃兹所著小说《盲视》中的观点)。一个系统必须能够对自我进行观察,才能在

  做出有规划性的调整。换言之,对自身思考、行为的观察即事后主动反思、复盘的能力,这一能力将极大地加速学习过程,并且在我看来才是“主动性”的根本性差异所在。

  但是上面所探讨的“自我意识”仅包含“自知”,并不包含自我表达(可解释性)与自我映射(同理心),也即是系统

  仅需要具备对其内部信息结构进行观察的能力,而无需将其以人类能够理解的方式表述出来的能力

  根据上面的分析来看,对于部分元学习、梯度学习相关的研究,以及包含预测模型的预训练模型,甚至于很早就存在于强化学习中的Actor-Critic模型,这些模型存在对自我的内在信息进行进一步观察、完善的能力,虽然不能说拥有自我意识,但是是存在自我意识的雏形的。

  最后,关于求生欲/繁殖欲,我不认为这是一个强智能的充分或必要条件。原因很简单,这是我们地球上的生物之智能的终极目的,我们的所有行为决策、所有奖励函数均围绕这一目的展开。也就是说,这是我们这一智能的“任务”,我们的智能围绕这一任务构建。而智能本身并不以具体任务为转移,其他的智能可以有其他的任务,只是我们自己的任务是活下去,延续下去。仅此而已。

  关于人工智能的目的,我前面的叙述较为“现实”,较为“功利主义”。我相信,人工智能的发展还有一些更多的,更加浪漫的作用,比如帮助我们认清我们自己的思维,乃至于更加接近这个世界的本质——我并不认为思想的本质(内部)和世界的本质(外部)是可以分割的——这是我自己进入这个领域的根本原因。

  1. 这个东西与客观事实的一致性,2. 这个东西与人们对其的期待的一致性。

  在上文的所有讨论中,有一个十分重要的核心因素,即是当前“智能”的定义尚不明确,或者说,智能本质上是一个人为构建的概念而非某个有着明确边界的客观存在。所以上文的所有讨论以“期待”替代“定义”,而对于问题“人工智能是否走错了方向”,其一句话回答应当是:

  当前的人工智能发展方向,与人类业界对于人工智能的期待,目前来说,大体上是一致的

下一篇:人工智半岛彩票能有哪些误区?
上一篇:半岛彩票酷炫“黑科技”亮相成都大运会背后:成都人工智能产业增速位居全国第一

咨询我们

输入您的疑问及需求发送邮箱给我们