半岛彩票嘉宾:中国科学院自动化研究所研究员、类脑智能实验室副主任、人工智能伦理与治理中心主任、联合国人工智能高层顾问机构专家组专家 曾毅
中国网:各位网友大家好!《中国访谈》世界对话,欢迎您的收看。从衣食住行到大国重器,从万米深海到浩渺太空,快速发展的人工智能技术,正在以前所未有的方式,悄然改变着这个世界,不断突破各行各业的创新边界。人工智能为全球繁荣与发展带来巨大机遇,同时带来复杂挑战,很多未知的风险需要全人类携手应对,人工智能的全球治理迫在眉睫。
10月18日,中国发布的《全球人工智能治理倡议》,以及11月1日,首届人工智能安全峰会发布的《布莱奇利宣言》,都呼吁人们关注人工智能的安全风险,加强全球协作。当下,人工智能的发展到了怎样的阶段?未来社会,会被人工智能所主导吗?人工智能时代的全球治理该怎么做,有哪些难点?本期节目,特邀中国科学院自动化研究所研究员、类脑智能实验室副主任、人工智能伦理与治理中心主任、联合国人工智能高层顾问机构专家组专家曾毅进行解答。
图为中国科学院自动化研究所研究员、类脑智能实验室副主任、人工智能伦理与治理中心主任、联合国人工智能高层顾问机构专家组专家曾毅曾毅 摄影/伦晓璇
中国网:发展人工智能技术的初衷是造福人类,这方面的成效和进展都非常显著。目前,全球人工智能技术的发展到了怎样的阶段和水平?
曾毅:人工智能作为一个学科提出是在1956年,那时候讲的人工智能和现在大家听到的人工智能其实还是挺不一样的。人类的学习或者是智能的方方面面能够被精确地描述,并且你可以用一个机器去模拟它的话,我们把这样的系统叫做人工智能。所以,人工智能最开始提出的时候就是面向通用化的,面向人类水平智能并且是去模仿人类智能的。
但实际上,现在在产业当中、生活当中用的人工智能,其实是一个看似智能的信息处理的基础设施,它可以做数据分析,可以辅助人类做一些任务,但是实际上它的内部机理和人类智能可能没有太多的关系。
我认为,在科学上,应该说人工智能其实这几十年没有特别多的进展。但是,它的用户体验的水平可以说在今年达到了前所未有的高度,应用的广泛程度达到了前所未有的高度。所以,应当客观看待人工智能的进展。它这种用户的体验达到了前所未有的高度是因为大规模数据的积累,大规模算力,具备这样的基础设施,在这个基础之上,然后应用人工智能的模型和算法,它能够具备处理如此海量数据的规模以及人类的反馈等等,再加上很多工程化的处理使得用户体验达到了前所未有的水平,但是科学上的进展人工智能其实还需要进一步的突破。
中国网:就像您说的,人工智能这些年飞速的发展其实分两个方面,一个是科学方面的进展相对来说没有那么快,但是应用大家的感受是非常良好的,您怎么看待未来人工智能发展的前景以及方向呢?
曾毅:人工智能的发展,未来应当呈现至少两个途径。一个途径是,我们在产业当中使用的,这种比较宽泛的看似智能的信息处理工具的人工智能,它要从现在的看似智能但是有时候还会犯很多人不犯的错误的这个阶段,让它把信息处理变成真正的具有一定程度的理解能力。所以,现在大家看到人工智能虽然说它在体验上绝大多数情况下好像还不错,但是当它犯错的时候它犯的其实很多是人不会犯的错误。
中国网:比如前段时间我们看到新闻有机器杀人的情况出现,这其实还都给大家带来很多担忧和恐慌的。
曾毅:所以人工智能缺乏真正的理解能力,如果它是一个信息处理的工具它就仍然会(犯错).其实我认为人工智能比人类最大的优势是什么,人是很难遍历生活当中、场景当中所有的错误的,但是人工智能这一点是比人强多了,所以它会在人很不经意的时候遍历人所有的错误,这也就是人工智能现在真正的风险所在。所以,我其实就想起来“现代控制论”最重要的奠基人之一罗伯特·维纳1960年时,在《科学》期刊上曾经写过一篇文章里有一句话,他说,“我们最好非常确定我们让计算机干的事情是我们真正本来的意图。”这句话什么意思呢?就是你不管作为程序员还是作为用户,要非常精确地描述你的用户需求,但是你自己也要把风险避免清楚。但这实际上现在的技术上就很难做到。近期的生成式人工智能的发展,特别是类似于最近OpenAI又推出了一个版本叫做GPT Turbo,可以让用户基于自然语言交互的形式生成自己的软件,这个看起来非常酷,因为你以后甚至不需要去编写软件了。我们本科学人工智能包括计算机科学,一个非常重要的课就是信息安全,这几乎是所有的本科生都需要去学习的。
曾毅:因为你去构造一个软件它有可能从哪些方面产生风险这些必须从专业的角度去看,但对于一个用户来讲,如果你让它说几句话就生成一个这样的软件,可能这种风险和隐患绝大多数的公众是没可能掌握的。在这种情况下他创造的软件如果要在互联网平台上服务于成千上万甚至上亿的人时,它的这种风险也就可能波及给上亿人。所以,人工智能应用的前景非常广泛,应用的范围也非常可期,但是,随之而来的这种风险我们至少要同等程度地重视,才能够保证人工智能能够稳健地发展。
中国网:10月18日中国发布了《全球人工智能治理倡议》,倡议提出要尽快达成具有全球共识的人工智能治理的框架以及标准规范,对此您怎么看?您有哪些建议?
曾毅:中国提出《全球人工智能治理倡议》,实际上是在全球很多的国家都形成了人工智能安全伦理治理的规范,但缺乏全球协作这样的大背景下生成的。世界上有很多区域性的网络,比如经合组织有人工智能工作组,世界上还有一个叫做全球人工智能伙伴关系的组织,但这些可以说是全都是区域型的组织,几十个国家、二三十个国家这样的,而且它不致力于扩大规模。这个时候来自于发展中国家的声音,来自于亚洲的声音很多其实都是被忽略的。
另外,在各个国家的伦理治理甚至是关于人工智能的法律,相互之间如何具备互操作性,有一个接口能够协作,这些问题其实都需要全球的协作的机制。应该说中国从2017年发布了《新一代人工智能发展规划》到2019年发布《新一代人工智能治理原则》,2021年推出《新一代人工智能伦理规范》,这一系列的努力之下到2023年的时候,在已经参与了一些全球对话的基础之上,意识到全球人工智能治理已经迫在眉睫,在那个文件当中,中国政府表态的是什么?第一,经中国政府的总结,全球的共识有哪些。第二,全球的协作机制,中国政府认为应当信任什么样的机制。虽然全球人工智能倡议是由中国政府提出的,但是中国政府它的决定并不是说全球的人工智能治理应该由一个国家来做,而是提出应该积极地支持联合国来进行全球人工智能治理的协同。
可以看到,现在所有的人工智能区域性的对话机制、协作机制其实全都是非常有限的地域性的,而且它很少考虑到其他地域的利益,大国之间的竞争有的时候其实会忽略这个技术、科学比较捉襟见肘的一些国家,它应得的一些发展的机遇,可能给它带来的风险和隐患。所以,这个时候一定要有一个相对中立的国际协调机制,才能够做这样的全球人工智能的治理。
图为中国科学院自动化研究所研究员、类脑智能实验室副主任、人工智能伦理与治理中心主任、联合国人工智能高层顾问机构专家组专家 曾毅接受《中国访谈》专访 摄影/伦晓璇
曾毅:首先,基本上从2020年以后中国积极参与了一些真正具有国际性的协作的机制。比如,在2021年的时候联合国教科文组织的《人工智能伦理建议书》,这是由193个会员国磋商协调一致发布的一个关于全球人工智能伦理治理的第一份真正的共识性文件。再比如说在特定的领域,世界卫生组织成立了专家组,专门为全球的卫生健康领域人工智能伦理和治理制定了健康领域人工智能伦理和治理的原则。这两项主要的都是建议性的,它是一种软性的约束,它还不是人工智能的法律。真正有一定区域性代表性的法律性质的实际上是欧盟的《人工智能法》,它不是针对具体领域制定的,它是针对整个人工智能及其应用这样的一个法律,但是,它是非常特定的就是欧盟这个区域。
我国其实在人工智能立法方面也很早,最开始先是信息推荐算法的管理规定,后来又出了深度合成的管理规定,以及今年推出生成式人工智能的管理办法。我国立法的特点就是垂直领域,欧盟是水平领域的。垂直领域的好处是对新近的发展能够非常快地给它管起来,促进它发展的同时避免它没有注意到的底线的问题。但是现在中国也在发展自己的人工智能法,因为确实也是需要一个更上位的法律,对未来前瞻性的可能的方向和更广泛的人工智能进行规制。
所以,我们看到这些虽然有全球协调,但是,这些全球协调现在其实停留在软性约束的阶段,但是整个全球人工智能治理体系是从这种伦理治理原则、标准规范、法律,整个要形成一个体系,现在应该说是在这些方面的互操作性,其实还是非常缺乏的。所以,应该说全球人工智能治理工作现在还处于一个非常初步的、万事开头难的阶段。
中国网:其实很多国家都意识到形成这样一个全球合作机制的重要性,但真正推动和落实其实还需要很长的路要走。
中国网:《倡议》还提出发展要坚持“智能向善”的宗旨,要坚决防范、极端势力以及跨国有组织犯罪集团对人工智能技术的恶用滥用,尤其是在军事领域的研发和使用更要谨慎负责,对此您怎么看?“智能向善”是我们的宗旨,但如何形成真正的约束和管控呢?
曾毅:首先,发展赋能性。因为人工智能是一个赋能性的技术,中国在推出自己的人工智能治理的原则伦理规范的时候,里面写得就很清楚,作为一个赋能性技术它应该推进全球可持续发展目标的实现和人类命运共同体的形成,其实这和有些国家有差异的。有些国家的人工智能就提出需要服务于本国人民,需要服务于本国的价值观,但我们国家的治理原则和伦理规范是从全球可持续发展目标的实现和人类命运共同体形成的角度去提出的。
什么是真正的AI向善,所说向善就是全球人类福祉,以此为目标。其实我们说向善,进一步解释就和倡议中提到的“以人为本”很相关了,我们说的“以人为本”不是human centric人类中心主义,人类中心主义更强调在整个生态中人类的位置,但实际上我们说“以人为本”首先服务于人类,提升人类福祉,但另一方面它会关照人类作为生态的一部分,如何去跟其他的生命和谐共生,人工智能能否促进人类和其他的生命之间的和谐共生,这背后就是有非常深刻的意义。
刚才你讲到,现在有一些国家开始脱钩断链、构筑小院高墙来影响部分国家的人工智能的发展,我个人看来,这肯定是一个非常错误的决定。最终的效果只会促进像中国这样有自主能力研发人工智能整个体系发展的国家的自主创新,它会短期内,几个月内,最多一两年稍微延缓一下像中国这样的国家的人工智能整体发展水平,但是,我相信超不过三年,这些问题我认为对于中国来讲都可以解决。所以,在我看来这样的尝试会加快中国的自主创新,换到其他的国家我相信其实也是一样的。所以,它对于真正人类命运共同体,对于我们说全球人类的福祉,都是有百害无一利的。
中国其实也是在这样的环境下,人工智能的软硬件的基础设施,其实现在应该说是在快速地崛起。当我们在这样的环境下成长起来,我们如何去对别人,这个就非常关键了。所以,我们刚才讲到了,如果我们把人工智能看作是赋能社会发展、生态可持续性的基础设施,那像中国这样的负责任创新大国也就有义务把这个基础设施提供给全球南方国家、中低收入的国家,为它们提供基础设施的服务。在开发应用的层面,我们国家可以通过“一带一路”或其他的机制赋能当地,为他们开发更符合他们的语言文化生活习惯的这样的应用,这样的话实际上我认为它是一个双赢的发展。
你刚才讲到的一个问题非常关键,就是虽然愿景是好的,我们应该本着“智能向善”的目标,但是现在在武装军事冲突当中人工智能慢慢也被引入,用到军事领域智能还怎么向善呢?未来军事领域的人工智能如何管理呢?现在对于全球来讲这是在人工智能安全领域最大的挑战。
首先我想即使是在军事领域的应用也是有“智能向善”的理念的。首先在军事领域,人工智能作为一种赋能性的技术它可以提升军事的管理方面的效率,它可以让态势感知预测方面的能力有所提升,但是,人工智能如果应用于构建致命性的自主杀伤武器,这应当是不被支持的。人工智能因为快速的发展,代替人类决策这个我觉得也不应当被支持。另外,这种军事人工智能的武器被民间滥用和恶用的时候,特别是到了的手里,这时候对于全球来讲都是一个巨大的冲击和挑战了。更何况是现在人工智能自主性越来越高的时候,这种风险就变得越来越大了。
最终能不能管控起来,能不能形成在军事领域的人工智能的安全伦理、治理的原则、规范、法律,这是一个全球议题。其实在联合国的场景下,特别是关于致命性自主武器规制的问题也已经进行了很长时间的谈判,但是我认为我们远远可以比那个做得更好。所以,我相信在全球人工智能治理倡议的框架基础上,对于人工智能在国防军事领域的应用应该有一个更扎实的推进。
去年在荷兰召开了负责任的军事人工智能论坛,在提升军事人工智能安全意识方面也达成了相对广泛的,有几十个国家参与的一个共识,当时中国也做了贡献,也参与了这个共识。但我想远远不够,未来在风险防范、人工智能风险自动化的检测经验分享等等方面,应该在全球国防领域可以进行更多的沟通。
中国网:现在大家普遍的感受是,对于风险防范也好,规则标准法律的制定也好,是慢于人工智能技术发展的速度的。
曾毅:我觉得这是一个问题,人工智能的伦理安全治理只会保证人工智能稳健的发展,防止它的野蛮生长,防止它的滥用,人工智能的伦理安全治理从来不会阻碍人工智能的健康稳健的发展,我们要防止的是这种野蛮的滥用,所以,治理它不会阻碍发展。
在这种前提下,应该采取的不是现在的这种相对来说被动性的治理,而是应该更主动性的、前瞻性的(治理),尤其人工智能领域经常这样说,有时候国际上也有很多讨论,人工智能可能会给人类带来风险,甚至是生存风险,甚至威胁到人类的存在,有些人说,这种事情五十年到一百年都不会发生的。但是当你反思这个问题本身的时候,你是不是能够在五十年到一百年之内能够找到解决它的方法,未必,所以,这就是说从现在开始思考那个问题有可能都来不及了。
曾毅:对,绝对不是杞人忧天,是你从现在就要开始做好准备,如果你的一切的准备是很完善的,它二十年、三十年、五十年之后才到来,那么人类有足够充分的时间去准备。但如果它真正随着计算智能化、人工智能的快速迭代演化、智能的涌现认知的升级,以一种不可预计的速度人工智能、超级智能到来了,这个时候人类完全没有做好准备,我们如何应对,这个时候对人类社会才是最大的挑战。
中国网:有的时候我们也会想,为什么对于安全风险的防范似乎是滞后于我们对这个技术速度的追赶,这两部分工作是同一批人在做吗?
曾毅:对于人工智能风险的预期,绝大多数更具前瞻性的风险的预期,我现在很遗憾地说绝大多数不是由计算机人工智能的从业者所提出的,比如最开始的时候,霍金、马斯克,包括物理学家MIT的迈克斯·泰格马克等等,他们提出的更前瞻的人类面对人工智能的问题,其实都是从人工智能的发展相对旁观者的视角去提出的。因为在人工智能发展的过程中,人工智能从业者总会觉得技术的进展不会那么快,因为在他们看来更多的是需要去解决的问题,智能水平还非常有限。但是,这些年的实践,越来越涌现出来的是,由于技术发展认知升级的速度变快,开始风险的判断预研就显得非常不足,所以,这些年应该说人工智能的创新者自身重视到了人工智能可能的风险、安全和伦理的隐患。所有的担忧,绝大多数最开始是来自于大规模的工程领域,社会科学领域的一些担忧。
最开始人工智能领域的人绝大多数会认为杞人忧天。但这些年,应该说人工智能领域的从业者,已经对风险的类型、风险到来的速度,也慢慢地首先意识到它;第二,即使是专业人士也很难准确地预测,而且表示出了更多的担忧。所以,人工智能风险伦理安全的这些问题,其实未来不是一个人工智能研究的分支领域,它是所有的人工智能从业者的必修课。而且即使在这种情况下,即使你提升了这些意识,风险到来的方式仍然很难预期,所以,我们应该感到非常紧迫,而且确实要提前的布局。
我记得今年,人工智能大模型进展到将近GPT4的时候,美国生命未来研究所就提出说是不是能够暂停人工智能研究六个月。很多人就是不理性地看待这个事情,当时说为什么要暂停,这个技术的发展大家看不到,那个提议其实在说的事情是,先去处理风险的问题。因为它的进展和风险同步增长的情况下,你对它的进展非常激动的时候,你对它的风险是没有太多的处置的。在这种情况下,我们应该先把伦理安全风险框架做好,再去推进技术的发展。
图为中国科学院自动化研究所研究员、类脑智能实验室副主任、人工智能伦理与治理中心主任、联合国人工智能高层顾问机构专家组专家 曾毅接受《中国访谈》专访 摄影/伦晓璇
中国网:可以说最初这种杞人忧天的声音来自圈外,但最终它的落实还是需要靠人工智能行业的从业者来完成。
曾毅:我认为它未来应该变成一个人工智能的内生的基础设施,现在是我们用一些规则,用一些检测来封堵这个可能的漏洞,但是大家要知道,封堵的都是一些临时处理的方案。
曾毅:对,被动的行为。而且它什么时候又漏了其实你也不知道,因为有些地方现在看起来好好的没漏的,那只是你没有发现而已。一旦人工智能基础设施有内生的安全伦理的机制,这个时候它就会非常不一样了,但是要注意一点,虽然我们要非常扎实地去部署人工智能伦理安全检测这些评估的工作,但是即使你通过了所有的安全检测也不能说你没问题,你只能说,就我现在已知的范围内没有发现明显的问题,没有发现明显的问题不代表没问题。实际上一直要保持一个非常清醒的头脑,对风险时刻警惕。
中国网:11月1日-2日,首届全球人工智能安全峰会召开了,会上也发布了《布莱奇利宣言》,您作为中国学者也是在会上进行了讲话,在这个会上中国传递了怎样的中国声音和中国态度呢?
曾毅:我认为是这样,人工智能的安全是一个全球性的议题,可以说来自于中国的声音首先是对全球认知的一个一致性的赞同,人工智能可能存在着近期、长远的风险,我们都要给予充分的重视,采取充分的行动。在里面我也提出几个看法。第一,人工智能的进展的方式,其实很难预期,进展的速度也很难预期,这样也就带来了可能的风险其实也变得难以预期。人类可能并不能成功地预见人工智能的风险,但我们是否就因此可以放弃,反正我们都预计不准,是不是就可以不去做预研预判了?答案也是否定的,我们绝对不能停止。实际上这样的话,更要进行前瞻性的这种预研,这个大家还是广泛地赞同的。
另外,当时对于在人工智能领域是否适合开源的生态这件事情,其实是存在着广泛地质疑的。因为人工智能系统一旦开源,它所有的安全风险伦理的漏洞就更容易被发现,所以大家说是不是不开源就直接提供这些商业性的服务、学术性的服务比较好,这样的话风险可能还没有那么大。但是大家也看到了,几十年来计算机科学人工智能的发展之所以这么迅速,各个国家的技术都能被很多个国家应用起来,正是因为开源带来的好处。但是在西方国家对于人工智能是否开源与否的讨论,很多的时候是比较一边倒的。
但是我们从中国发展的和谐共生的观点来看,风险和机遇一定是相伴相生的,但是如何去最大化它的机遇,最小化它的风险,如何去习得这种平衡,这其实是需要不断地探索。所以,当时我们也提出了一些方案。甚至,我们看到有些人在发现人工智能系统的安全隐患时,开始利用这个作为挣钱的契机,就相当于说告诉大家,所有的系统都具备这样的风险,只有我有解决方案,如果你想买这个漏洞的补救的措施就向我买。我们甚至看到了这样的尝试,当时我们也对这样的尝试进行了非常鲜明的批评。我们觉得在制度上需要重新设计,而不是要停止开源的人工智能。而是说,你在发现风险的同时要公布这种风险漏洞的补丁,不是说你不可以盈利。比如说计算机的时代、信息技术的时代,也有杀毒软件是付费的,但是我觉得要有一种新的制度设计,比如公布了这个大家可以先免费地使用,但有一个使用期,先解决了眼前的问题。
另一方面,我提出人工智能安全的问题,没有一个国家能够独善其身,你的人工智能是安全的,但人工智能是一个全球化的服务,你自己的人工智能也可能和其他人工智能系统间存在接口,所以任何一个国家的人工智能只要是不安全的,全球的人工智能产业链和平台系统就可能有风险和隐患。
《布莱奇利宣言》现在是28个国家加上欧盟共同签署的,但是这个范围很显然还非常不够的。所以,在最后其实我也提出了,就是要更包容性的发展,不能使任何一个国家掉队。所以,我当时也提出了,如果第一年有28个国家,希望第二年有40个国家,未来希望全球能够参与,其实这也是为什么中国会去更支持联合国的协作的机制。
《布莱奇利》宣言是继联合国教科文组织《人工智能伦理全球建议书》的基础之上具有相当广泛参与度的一个主要面向民用领域人工智能的、二十多个国家的共识。但是真正落地,真正全球的这种实践可能还是要回到联合国的机制,以及再加上中国和各个国家共同的贡献,比如来自中国的《全球人工智能治理倡议》,一个是共识性的我们有表达,但中国当时也提出了很多问题,应当防止“脱钩断链”,应当防止“小院高墙”,应当防止大国对其他国家的负面影响等等。所以,真正开展全球范围内的实践,不管是《人工智能问题伦理建议书》,还是《布莱奇利宣言》,还是中国的《全球人工智能治理倡议》,我认为现在都是在为开始做准备,而不是我们已经准备好了。
未来我们应该在联合国的协作机制之下,来构建一个全球人工智能治理的网络,这个网络没有中心,它是一个不同的区域性的节点,进行自主性的协作。当然联合国也有不同的分支机构,它要去协作这些不同的分支机构,如何去服务于各个国家不同区域性组织之间的协调当中。所以,我认为未来联合国的机制应该是在前瞻性的议题上提供一定的建议,在全球协调方面去发挥区域性的组织不能发挥的作用,以及需要它站出来进行全球协调的时候,各个国家的领导人应该支持联合国的这个工作。
更关键的是如何在类似于像联合国提出的Leaving no one behind(不使任何一个人掉队)的机制之下,大国的创新同时关照到全球所有国家的发展,共享发展,共护安全。
中国网:未来世界各国,如何在对于人工智能技术的竞争以及安全风险防范方面的合作,这两者如何达成一个最大的共识,您认为还有哪些难点呢?
曾毅:我认为现在就是对于人工智能安全风险的认知,各个国家还有不同的认知。在民用的领域,可能存在一定的竞争,但是在人工智能安全领域其实不存在竞争。因为任何的这些方面的努力、经验的分享,都会使得人工智能朝着更安全、更扎实、更稳健的方向发展。所以,人工智能安全伦理治理方面的合作,在我看来应当是放在第一位的,因为在这方面达成了一致,有了合作的基础,人工智能应该往哪个方向去应用,也就有了更多的基础。中国的实践以及包括来自世界的实践,非常重要的一点就是两件事情。
第一,在人工智能技术还不是足够稳健,还没有达到真正的智能和智慧水平,还只是一个看似智能的信息处理工具的前提下,在能不用的前提下其实也可以不使用。第二,人工智能不应当遍布所有的位置,有一句话叫做Make AI everywhere(使人工智能无处不在),我对这个观点不太赞同,因为使人工智能无处不在也就使人工智能的风险无处不在。所以,其实来自于中国的实践以及像联合国教科文组织的建议书当中就提到了,实际上人工智能应当适度的使用,它就像我们发展城市一样,城市当中很多部分是规划的,但你也会发现城市当中还有一部分其实它还是留给人与人之间的交流的。比如说在很特殊的时期,我们可能会开一些线上的会议,但是,当具备开线下会议的条件时,你会发现人们还是非常乐意去线下分享交流,这些并不是技术的赋能,使得技术让我们远距离的交流成为可能的时候,人们就永远地会去使用那样的技术。
(本期人员:编导/主持:佟静;拍摄:董超 刘凯;摄影:伦晓璇;后期:刘凯;主编:郑海滨)