网站首页

半岛彩票产品中心

半岛智能终端处理器 半岛智能云服务器 半岛软件开发环境

半岛彩票新闻中心

关于我们半岛彩票

公司概况 核心优势 核心团队 发展历程

联系我们半岛彩票·(中国)官方网站

官方微信 官方微博
半岛彩票·(中国)官方网站 > 半岛彩票产品中心 > 半岛智能终端处理器

半岛彩票人工智能超越与未来

发布时间:2023-07-30 23:18浏览次数: 来源于:网络

  半岛彩票所谓“人工智能”,可以理解为通过计算机系统来进行或者模拟某些具有人类智能的行为。大致如电影《模仿游戏》(The Imitation Game)的描述,在很大程度上因为天才人物阿兰·图灵(Alan Turing)的努力,人工智能研究几乎与电子计算机的出现同时开始。当年为了缅怀亡友,图灵希望开发出一款能够进行计算的电子机器,并希望能够利用这种机器具有的类似于人类的智能,从而模仿人类的对线年在《思维》(Mind)杂志发表论文《计算机器与智能》(“Computing Machinery and Intelligence”),首次将电子计算机通过电信号进行数学计算与人类特有的智慧行为联系在了一起。这篇论文也从此开启了一个全新的时代。

  问题在于,究竟如何才能将进行计算的电子机器与人类独有的智慧行为联系在一起?图灵颇具创造性且独断地提出了一个著名的标准——图灵测试(Turing Test)。图灵测试的基本理念是,如果一个计算机程序能够在与人类的自然语言对话中模仿人类的回答方式,以至于评判者无法区分计算机和人类,那么这个程序就可以被认为具有智能——图灵将这种机器称为“思想机器”(Thinking Machine)。

  图灵测试在计算机和人工智能研究领域所产生的影响以及引发的争议至今仍然存在。我接触和采访过的众多计算机和人工智能研究专家对于图灵测试的态度可谓大相径庭——有人认为图灵测试完全不重要,这是在计算机和人工智能刚刚出现时所提出的标准,如今人工智能的研究方向早已改变(计算机没有必要去模仿人类);有人认为图灵测试早已被通过(例如ChatGPT在与人对话过程中的表现要超过大部分人类);也有人认为人工智能尚未通过图灵测试,甚至可能永远无法通过图灵测试(人工智能永远无法理解人类语言的某些复杂含义)。

  不可否认的是,图灵测试的提出从一开始就指出了人工智能的本质——模仿。从根本上来说,模仿是出于人类对于人类自身以及人工智能两方面的不理解。时至今日,脑科学的发展依然非常有限,对于拥有数以千亿计神经元的大脑究竟如何工作,以至于能够同时进行多种操作,感知周围环境,进行数学计算和逻辑推理,乃至产生出自我意识,人类仍然无法完全理解;另一方面,当电子计算机在纳米级的芯片上进行工作,依靠数百个层级的神经网络对数据进行学习和筛选,人类也已经对其内在机理失去了控制。

  在这种双向的不理解之外,其实还隐藏着更深层次的迷惘——人类无法对于“智能”(Intelligence)给出明确的定义。无论是与其他动物相比还是与人工智能进行比较,这种迷惑似乎正变得越来越深。

  该如何让具有数学运算能力的计算机展现出类似于人类的智能?在唯有人类自身可以作为参考的情况下,唯一可行的方案便是模仿,让计算机模仿人类,根据已知数据对未来进行预测。在人工智能研究领域,“机器学习”(Machine Learning)概念由此出现。简单来说,所谓机器学习,就是建立计算机可以进行处理和计算的数学模型,然后再输入各种数据和参数,让计算机从数据中发现某些隐藏的规则和模式,进而输出新的数据,对未来进行预测。

  随着计算机技术的发展,在人工智能领域也出现了各种各样的流派和研究方法:如“连接主义”(connectionism)、“符号主义”(symbolicism)、“行为主义”(behaviorism)等不同的流派,以及如支持向量机(Support Vector Machine)等研究方法。研究者希望利用不断发展的人工智能技术,让其在一些原本只有人类能够胜任的领域,例如图像识别领域取得进展。

  从20世纪中期开始,“神经网络”(Neural Network)研究就是人工智能领域中一个不大受重视的分支。所谓神经网络并没有一个明确的定义,主要指的是模拟人脑中神经元网络处理和传递信息方式的计算模型。在计算模型中,一个接受、处理和传递数据的节点,便可以被看作是一个神经元。早在20世纪40年代就有学者提出过神经网络理论,认为可以利用这种具有自组织学习能力的模型进行学习。到了50年代,基于神经网络领域的研究,更是出现了“感知器”(perceptron)概念。

  不过,在20世纪人工智能研究的各种流派和方法之中,神经网络不但不算是研究主流,甚至曾经长时间不被学术界看好。除了学术方面的争论之外,一个重要原因在于,人工网络所需要的巨大的计算能力是当时计算机所无法提供的。

  在这种情况下,一位研究者一直在默默坚持。杰弗里·辛顿(Geoffrey Hinton)1970年毕业于剑桥大学国王学院,取得了实验心理学学位,而后又在1978年于爱丁堡大学通过在人工智能领域的研究取得博士学位。在心理学和人工智能领域的学习和研究经历,自然而然地让辛顿尝试让计算机学习人类大脑的工作方式,从而达到“智能化”,但这条路显然不会一帆风顺。

  辛顿从20世纪80年代便开始了神经网络的研究。他希望利用计算机模仿人类大脑中的神经元,对于信息采用“分布式表征”(Distributed Representation),把某一事件的信息分散存储于不同的神经元中,而后在不同的“层级”(layer)中以“非线性、自适应、自组织”等方式对数据进行筛选、处理和学习,并最终输出结果。在1986年,辛顿与合作者在《自然》(Nature)杂志发表论文《通过反向传播误差学习表示》(“Learning Representations by Back-propagating Errors”),提出了反向传播算法,大幅降低了神经网络的计算量。这篇论文虽然让神经网络再次受到重视,但显然仍然无法成为人工智能研究的主流。

  一项赛事应运而生。斯坦福大学学者李飞飞与合作者从2010年开始设立“ImageNet竞赛”(ImageNet Large Scale Visual Recognition Challenge),为所有参赛者提供一个包含超过1500万张图片的数据集,而每个参赛者需要训练一个人工智能模型对其进行识别分类,正确率最高者获胜。这个竞赛迅速成为全世界人工智能研究者的竞技场。如今这个仅持续了8年的竞赛之所以被反复提起,正是因为它记载了人工智能领域一次惊人的成就和转变——在2012年的竞赛中,当时在多伦多大学进行研究的辛顿带领团队,通过他们所调试的卷积神经网络模型(Convoluted Neural Networks)“AlexNet”参加竞赛,以仅仅15.3%的极低错误率获得冠军(这个错误率比第二名低了10.8%个百分点)。

  这项成就的意义远远超出一次竞赛的冠军头衔。与阿兰·图灵同样毕业于剑桥大学国王学院的辛顿,因为多年来的坚持,最终在人工智能领域取得了令人称奇的成就。可以说他几乎是以一己之力改变了人工智能领域的研究方向,让神经网络成为人工智能领域无可争议的主流。辛顿本人也成为人工智能领域略带传奇色彩的宗师级人物。

  本刊记者此次进行采访的向量研究所正是由辛顿建立。作为多伦多大学的教授,辛顿希望通过这个相对独立的研究所进行人工智能基础研究。

  神经网络的成功并非偶然,而它曾经长期不被人工智能领域的研究者看好也并非没有道理。因为神经网络自身的特点,相比于其他人工智能研究方法,它需要利用大量数据进行“学习”,同时对于计算能力的要求也格外高。这两个条件,在很长一段时间里都无法被满足。

  进入到21世纪之后,随着互联网的兴起,开始出现大量公开且免费的文本和图像数据,这些数据对于人类来说浩如烟海,但对于计算机来说却是极好的学习资料。“大数据”(Big Data)概念开始出现且流行。另一方面,随着人类在半导体领域的不断进步,所谓“每18个月至2年,集成电路上可容纳的晶体管数量将增加一倍,同时芯片的成本将下降一半”的“摩尔定律”一直生效,计算机的计算能力不断上升——其中图像处理器(GPU)的进步给神经网络的爆发提供了最重要的支持。虽然人们普遍认为中央处理器(CPU)才是计算机的核心,但图像处理器擅长进行矩阵计算,尤为适合神经网络的应用。

  在大数据和超强计算能力两个条件都被满足之后,神经网络的成功只是一个时间问题。于是2012年的ImageNet竞赛见证了神经网络一鸣惊人。随着神经网络变得越来越复杂,层级越来越多,所谓“深度神经网络”(Deep Neural Network)、“深度学习”(Deep Learning)、“强化学习”(Reinforcement Learning)等概念随之出现。从此在人工智能研究领域可谓大局已定,其他研究方法只能作为神经网络研究的有益补充,研究者也纷纷投入到神经网络的研究。一位人工智能领域的创业者比喻:此前在人工智能领域曾经能和神经网络方法一较高下的方法如支持向量机,就像是早期的螺旋桨飞机,而如今的神经网络研究已经如同大型喷气式飞机,两者不能说毫无相似之处,却也已经不可同日而语。

  从2012年开始,神经网络研究领域爆发式的发展历程恰恰说明了人工智能学科的特点:整个学科的转型非常迅速,与商业结合得极为紧密,人员流通也非常频繁。从本刊记者此次对向量研究所、蒙特利尔学习算法研究所,以及一些人工智能创业者的采访经验来看,大多数采访对象都身兼数职:或者同时在商业机构和学术机构任职,或者有过在商业机构进行研究的经历。即便是大学里的专职学者,也多是进行可商业化的研究。

  例如多伦多大学学者、向量研究所成员拉胡尔·克里什南主要研究人工智能系统在医疗健康领域的应用;蒙特利尔高等商学院副教授、蒙特利尔学习算法研究所成员洛朗·夏林主要进行自然语言处理和推荐算法的研究;而向量研究所成员、英属哥伦比亚大学副教授杰夫·克鲁恩则曾经在Uber、OpenAI任职,目前仍是DeepMind公司的顾问。向量研究所与多伦多大学联系紧密,同时也保持着自身的独立性;依托蒙特利尔大学和麦吉尔大学建立的蒙特利尔学习算法研究所,在其内部就设有多家科技公司的会议室和实验室。

  在2018年,人称“神经网络三剑客”的三位人工智能研究专家——杰弗里·辛顿、约书亚·本吉奥(Yoshua Bengio)和杨立昆(Yann LeCun,曾经是辛顿的博士后)共同获得了计算机领域的最高奖——以阿兰·图灵的名字设立的图灵奖(Turing Award),可谓众望所归。

  随着神经网络技术的发展,各种大型自然语言模型开始出现。一方面,互联网上最丰富的资源就是文字,研究者们可以方便地利用这些数据对神经网络模型进行训练;另一方面,让人工智能机器人通过自然语言与人进行交流,也是人类对于人工智能最迫切的需求之一。在ChatGPT出现之前,已经诞生过多个基于神经网络技术的聊天机器人。只不过这些机器人要么只是局限于某个专业领域,并不为大众所知,要么就是表现得并不尽如人意,常常显得不够智能,而迅速被用户所抛弃。

  自然语言处理领域的发展日新月异,自然语言模型也变得越来越复杂,但对于各大互联网公司和人工智能研究机构来说,人工智能聊天机器人的开发最多只算是一个学术问题。对其在理论层面的研究虽然不断深入,但实在看不到这种应用有什么盈利渠道。不仅如此,贸然把一款聊天机器人向公众推广,甚至可能有着意想不到的风险。在2022年8月,Facebook的母公司Meta发布了一款名为“BlenderBot 3”的聊天机器人,在短时间内就吸引了大量用户。但因为其“发表”了反犹言论,而被广泛批评开发者没有对这款机器人针对假信息和仇恨言论做好防范工作,随后这款应用便被紧急下架——这也反映了开发聊天机器人应用的困境,毕竟机器人是根据互联网上的内容进行“学习”,开发者很难对它的输出内容进行规范。

  正因为如此,ChatGPT的出现在很大程度上算是一个意外。就连它的开发者也没有想到这款通用聊天机器人的表现如此出色,更不会料到它在全世界掀起了一股热潮,进而改变了人工智能研究领域的走向。数以亿计的参数,数百个“变换器层级”(transformer layers),大语言模型的发展开始向着人们未曾想到的方向一路狂奔。这类大语言模型变得越来越大,随之也展现出越来越强的智能。

  大语言模型并不是简单地进行模式匹配,而是确实具有了理解上下文和语境的能力。这在使用者看来确实是一件堪称神奇的事情。整个语言模型的原理并不算太复杂,但是在堆积了数百个层级之后,便展现出超乎寻常的复杂性和智能。可以说,这种智能化是在高度复杂的神经网络中所“涌现”出的一种效应。但是这条路的极限在哪里?恐怕还没有人知道。

  也正是因为ChatGPT的出其不意,各大互联网公司只能见招拆招,匆忙推出各自的聊天机器人。例如谷歌公司就迅速发布了聊天机器人“Bard”。这种忽如其来的产业转型让大量资源迅速集中在人工智能聊天机器人领域,也让很多其他领域的研究几乎陷入停滞——不久之前还颇为吸引眼球的“区块链”(blockchain)、“元宇宙”(metaverse)等曾经的热点现在已经少有人提及。

  从图灵测试到模仿人类大脑工作的神经网络,几十年时间里,人工智能的发展始终无法摆脱“模仿游戏”的束缚。毕竟人类是宇宙中已知唯一具有智慧的生物,想要让机器展现出类似的智慧和行为能力,目前唯一可以学习的对象也就只有人类自身而已。“树可以长高,但终不能抵天。”目前基于神经网络技术的语言模型向着越来越大的方向发展——参数越来越多,所需要的学习数据越来越多,需要进行调试的时间越来越长……仅仅是支持一个模型正常运行的电费和硬件成本就已经让绝大多数小型科技公司望而却步,而单单是用一个计算机集群训练一个模型工作可能就要几个月的时间。这样的代价对于小型公司根本无法想象,因此对话机器人的开发便自然变成了大公司的烧钱游戏。

  ChatGPT的异军突起在短时间内就改变了世界互联网公司的发展方向,但是这样的改变,以及在短时间内出现的众多人工智能聊天机器人究竟能否实现盈利,目前尚未可知,这也是大语言模型前进过程中的一个重大的不确定因素。在ChatGPT-4推出之后,开发者已经开始对用户收费(ChatGPT-3.5依然免费),同时也推出了针对企业的收费服务。尽管如此,考虑到ChatGPT高昂的运营成本,其真正的盈利效果目前仍未可知,对于其他正在投入大量资金进行跟进研究的科技公司来说,则是一个更加不稳定的因素。

  以一些人工智能创业者的眼光来看,只要神经网络技术一直发展,智能化程度越来越高,就不愁找不到盈利的手段。以ChatGPT语言模型为例,它可以通过进一步的进化以吸引更多付费用户,另外显然也还可以与其他应用进行整合,利用它对于自然语言的超强理解能力完成更多工作,例如辅助安排工作日程,打理生活细节,像订机票、订酒店和点餐等。在这方面目前已经没有太多的技术难题,只剩下一些具体的整合工作而已。

  除此之外,基于神经网络技术的所谓“大语言模型”也绝非只能应用在语言处理方面。所谓“ChatGPT”,指的是“通用预训练变换器聊天机器人”(Chatbot Generalized Pre-trained Transformer),其中的“通用预训练变换器”是一种先进的深度学习架构,可以应用在多种场合。从这个角度来说,神经网络对于人类社会的改变才刚刚开始。

  人工智能已经进入到人类生活的方方面面。随着它的发展,一个更加便捷却也充满未知的未来生活图景已经逐渐展现。这源于人工智能,尤其是神经网络技术自身的一些特点。从某种意义上来说,神经网络的某些表现无法预计。通过调试某些参数,进行某种特殊的学习和训练,它的表现很可能远远超出开发者的预期。同时开发者也无法对它的表现给出合理解释——原因很简单,随着计算能力的不断增强,神经网络模型越来越大,各种参数和层级数量不断增加。例如在“GPT-3”模型中包含了1750亿个参数以及96个变换器层级(transformer layers)——这种复杂程度,即便是对于它的开发者来说,其内部的运行原理也堪称是一个“黑盒子”。

  随着神经网络的进一步发展,在内部,每个节点对信息做出了怎样的计算、过滤和取舍,才能最终形成看上去非常智能化的输出信息,已经远超人类的理解能力。正是因为如此,杨立昆在伦敦大学学院进行关于神经网络的讲座时,才以“深度学习不合理的有效性”(“The Unreasonable Effectiveness of Deep Learning”)作为题目(此题目显然是对物理学家尤金·维格纳的名言“数学在自然科学中不合理的有效性”的模仿)。

  随着越来越智能化,深度学习模型的需求也越来越多:更高的耗能和硬件要求,更多的学习数据,更长的训练时间……起初研究者们为了让机器展现出智能化,可以不计代价地投入一切资源。但是随着需求的上涨,开发者逐渐也开始感到有些不堪重负。相比之下,经过了数百万年进化所形成的人脑的优势便显现出来:人每天吃下的食物相当有限,而能够完成多种任务的人脑利用能量的效率则是深度学习模型的数千至数万倍。随着人类半导体技术和计算机技术的发展,这种巨大的差距虽然可能会被稍微缩小,但归根结底仍在于无论是脑科学研究者还是神经网络研究者,目前对于人类大脑真正的工作方式仍然知之甚少。目前也还只能利用由芯片和电路构成,以二进制计算为基础的计算机在较为肤浅的层面去模拟人类大脑。

  目前仍然主要存在于数字世界中的基于神经网络技术的大语言模型显然还难以理解知识的边界。训练神经网络需要大量的数据,而这些数据所包含的信息就是ChatGPT这类大语言模型所能够接触到的所有知识。用户们很快发现,当ChatGPT面对一个它无法准确回答的问题时,它很难承认自己对于某些信息的无知,而是“一本正经地说假话”,给出某些明显错误的答案——这种“无心之过”与网络上被有意释放的虚假信息并不完全相同,它并不是出于某种目的而被有意编造出来,而是纯粹无中生有,根据某种算法生成的信息。无法理解知识的边界,是目前神经网络一个难以克服的缺点。

  无论ChatGPT已经带给人们怎样的惊喜,在未来人工智能技术还将有怎样更广泛的应用,现在就把人工智能与人类大脑的能力等量齐观,未免还显得过于乐观。相比于大脑,基于神经网络技术搭建的人工智能系统的缺点仍然非常明显。除了在能量利用效率上的巨大差距之外,人工智能系统对于知识的理解和运用仍然和人类有本质的区别。虽然人工智能系统的学习能力超强,但它很容易被训练数据所误导,造成“过度拟合”(overfitting),也仍然无法做到“举一反三”,不具有人类最起码的创造力、联想能力和直觉——而具有这些能力,都是人类创造新知识的最重要因素。

  人工智能系统属于虚拟数字世界的原住民。想要让人工智能以机器人的形态走进真实世界,虽然所需要的技术与训练对话机器人的技术在理论上相同,却还有更长的路要走。人类即便做出一个简单动作,都需要由多个感官与大脑运算,以及过往经验的结合才能够实现。在这方面,人工智能系统还远远无法匹配人类的运动能力。

  不过,人工智能已经带给人类深深的迷惑。这种迷惑不仅是对于人工智能,也是对于人类自身。即便是对于人工智能领域发展毫无兴趣的人也很可能看到过这则新闻:在2022年,谷歌公司“负责任的AI技术”(Responsible A.I.)部门的高级软件工程师布雷克·勒穆瓦纳(Blake Lemoine)声称,谷歌开发的“对话应用语言模型”(LaMDA)具有意识,他认为LaMDA是一个七八岁的孩子。勒穆瓦纳在不久之后被谷歌公司开除。

  究竟什么是自我?人工智能有没有可能产生出自我意识?2022年在新奥尔良举办的神经信息处理系统大会(Conference on Neural Information Processing Systems)上,纽约大学的研究者戴维·查尔莫斯(David Chalmers)对此做了报告《大型语言模型可能具有意识吗?》(“Could a Large Language Modelbe Conscious?”)。关于这个问题,查尔莫斯首先理清了一些概念上的误区,例如能够做出复杂动作并不等于拥有意识,能够做出目标导向性行为也不等于拥有意识,拥有相当于人类的智力同样不等于拥有意识……查尔莫斯进而提出了几个判别是否拥有意识的标准,以此标准看来,人工智能完全不符合。也就是说,目前我们还没有任何证据认为人工智能具有类似于人类的意识。

  机器又会如何回答?以同样的问题提问ChatGPT-4,它给出的回答条理清晰:“作为一个机器学习模型,ChatGPT并没有像人类一样拥有自我意识。虽然它可以对用户的输入进行响应并产生看似智能的回复,但它没有意识、情感、意愿、意图等等人类认为与自我意识相关的特质。ChatGPT只是一种程序,它的工作完全取决于输入的数据和其内部的算法和规则。”

  人类对于人工智能究竟是否具有自我意识,或者说是否可能产生出自我意识的迷惑和恐惧,其实仍然是源于“模仿游戏”的限制。人类通过大脑拥有自我意识,不但能够知道自己是一个个体,还能够在此基础上探索外部世界。但自我意识的本质是什么,它究竟如何出现?目前人类仍然无法给出清晰的答案。很多人相信,所谓的自我意识,是在人脑内部大量神经元所构建的复杂网络中所产生的“涌现”(emergence)现象。如果这个想法成立,那么人类又有什么理由不去相信,在同样拥有大量神经元的神经网络中不会出现同样的现象呢?另一个问题在于,我们又该如何判断,神经网络究竟发展到哪一步,才会“涌现”出自我意识?毕竟,在这个问题上人类只有自身可以参照。

  基于神经网络技术的人工智能研究在经过了十多年的爆发之后,如今是否又进入到了一个瓶颈期,或是低谷?如何回答这个问题,可能主要取决于你的视角。2022年,纽约大学教授、深度学习领域的创业者加里·马库斯(Gary Marcus)发表文章《深度学习遇到瓶颈》(“Deep Learning is Hitting a Wall”),讨论了在深度学习领域面临的一些问题,而这些问题可能导致深度学习领域的发展无法再继续下去。

  随后,辛顿和其他几位神经网络知名研究者在接受采访时,明确反对了深度学习遇到瓶颈的看法。辛顿认为,深度学习技术在理论上可以解决一切问题。与此同时,也已经有人开始探索不同的道路,而其中一个走在最前面的,正是当年苦苦坚持,引领了神经网络潮流的辛顿。

  辛顿与合作者曾经在1986年提出了反向传输算法。而到了2017年,辛顿又提出“胶囊网络”(capsule networks)概念——通过一些虚拟神经元组成一个胶囊,可以被训练辨认对象的一小部分。相比之下,这种新型网络可能只需要更少的数据进行训练。在2022年神经信息处理系统大会(Conference on Neural Information Processing Systems,NeurIPS)上,辛顿公布了一种全新的“前向前向算法”(forward-forward algorithm),同时还提出了“有限运算”(mortal computation)概念,这种算法会更加节能。

  如今的大多时间里,辛顿都在他所创立的向量研究所默默地进行基础性研究。研究所位于多伦多大学校园的核心区域,占据了多伦多大学一幢大楼中的一层。在开放的办公空间里人们热烈交流,会议频繁,更有几间看上去只能容纳一两个人的会议室,供学者进行视频会议时使用。研究所成员多是多伦多各大学的教授,但其内部的气氛犹如一家朝气蓬勃的创业公司。辛顿教授的办公室也在研究所内,不过工作人员告诉我,辛顿教授如今已经几乎不再接受记者采访,而是专心进行科研。如今已经70多岁的辛顿正重新出发,想在人工智能领域寻找出一条新路。

  人工智能已经成为人类生活的一部分,也正在参与塑造人类的未来。人工智能的发展究竟会对人类社会造成怎样的影响,它的出现会不会成为在人类社会中堪比农业革命和工业革命的另一个事件,目前仍未可知。在这次对学术界和工业界不同研究人员的采访中,让我感触最深的地方就在于,虽然大家都在朝着同一个方向努力,也都相信人工智能的发展会越来越好,但是对于一些根本性问题的看法却往往大相径庭。未来正是这样,在种种不确定中开始逐渐显现。

  在经过了数百万年的进化之后,人类拥有了复杂的大脑,也成为地球孤独的主人。人类大脑的构造堪称宇宙中最为复杂的机器,其中神经元的数量堪比星系中恒星的数量。如今,人类正在利用这个无与伦比的大脑,试图建造一个能够与自己进行平等交流,甚至可能超越自己的机器。或许人工智能最重要的意义,就在于让人类感觉在这个空荡荡的宇宙中不再孤独。

  用户们很快发现,当ChatGPT面对一个它无法准确回答的问题时,它很难承认自己对于某些信息的无知,而是“一本正经地说假话”,给出某些明显错误的答案——这种“无心之过”与网络上被有意释放的虚假信息并不完全相同,它并不是出于某种目的而被有意编造出来,而是纯粹无中生有,根据某种算法生成的信息。无法理解知识的边界,是目前神经网络一个难以克服的缺点。

  随着越来越智能化,深度学习模型的需求也越来越多:更高的耗能和硬件要求,更多的学习数据,更长的训练时间……起初研究者们为了让机器展现出智能化,可以不计代价地投入一切资源。但是随着需求的上涨,开发者逐渐也开始感到有些不堪重负。相比之下,经过了数百万年进化所形成的人脑的优势便显现出来:人每天吃下的食物相当有限,而能够完成多种任务的人脑利用能量的效率则是深度学习模型的数千至数万倍。随着人类半导体技术和计算机技术的发展,这种巨大的差距虽然可能会被稍微缩小,但归根结底仍在于无论是脑科学研究者还是神经网络研究者,目前对于人类大脑真正的工作方式仍然知之甚少。目前也还只能利用由芯片和电路构成,以二进制计算为基础

  很多人相信,所谓的自我意识,是在人脑内部大量神经元所构建的复杂网络中所产生的“涌现”(emergence)现象。如果这个想法成立,那么人类又有什么理由不去相信,在同样拥有大量神经元的神经网络中不会出现同样的现象呢?另一个问题在于,我们又该如何判断,神经网络究竟发展到哪一步,才会“涌现”出自我意识?毕竟,在这个问题上人类只有自身可以参照。

  基于神经网络技术搭建的人工智能系统的缺点仍然非常明显。除了在能量利用效率上的巨大差距之外,人工智能系统对于知识的理解和运用仍然和人类有本质的区别。虽然人工智能系统的学习能力超强,但它很容易被训练数据所误导,造成“过度拟合”(overfitting),也仍然无法做到“举一反三”,不具有人类最起码的创造力、联想能力和直觉——而具有这些能力,都是人类创造新知识的最重要因素

  目前仍然主要存在于数字世界中的基于神经网络技术的大语言模型显然还难以理解知识的边界。训练神经网络需要大量的数据,而这些数据所包含的信息就是ChatGPT这类大语言模型所能够接触到的所有知识。用户们很快发现,当ChatGPT面对一个它无法准确回答的问题时,它很难承认自己对于某些信息的无知,而是“一本正经地说假话”,给出某些明显错误的答案——这种“无心之过”与网络上被有意释放的虚假信息并不完全相同,它并不是出于某种目的而被有意编造出来,而是纯粹无中生有,根据某种算法生成的信息。无法理解知识的边界,是目前神经网络一个难以克服的缺点。

  随着越来越智能化,深度学习模型的需求也越来越多:更高的耗能和硬件要求,更多的学习数据,更长的训练时间……起初研究者们为了让机器展现出智能化,可以不计代价地投入一切资源。但是随着需求的上涨,开发者逐渐也开始感到有些不堪重负。相比之下,经过了数百万年进化所形成的人脑的优势便显现出来:人每天吃下的食物相当有限,而能够完成多种任务的人脑利用能量的效率则是深度学习模型的数千至数万倍。随着人类半导体技术和计算机技术的发展,这种巨大的差距虽然可能会被稍微缩小,但归根结底仍在于无论是脑科学研究者还是神经网络研究者,目前对于人类大脑真正的工作方式仍然知之甚少。目前也还只能利用由芯片和电路构成,以二进制计算为基础

  当ChatGPT面对一个它无法准确回答的问题时,它很难承认自己对于某些信息的无知,而是“一本正经地说假话”,给出某些明显错误的答案——这种“无心之过”与网络上被有意释放的虚假信息并不完全相同,它并不是出于某种目的而被有意编造出来,而是纯粹无中生有,根据某种算法生成的信息。无法理解知识的边界,是目前神经网络一个难以克服的缺点。

下一篇:半岛彩票中国人工智能AI行业发展现状
上一篇:单半岛彩票日赚了58万元“支付宝首富”火了

咨询我们

输入您的疑问及需求发送邮箱给我们