半岛彩票从一份公约到一次政府间对话首次会议,从一场峰会到一份法规的签署,前后两周内,人工智能(AI)的全球治理正被紧锣密鼓地提上各方议程。
21日,韩国将和英国共同在首尔主办第二届人工智能安全峰会,大会将重点讨论人工智能安全问题,并探讨最先进的人工智能模型的潜在能力。同日,欧洲理事会将通过欧盟《人工智能法案》,这意味着相关规则将于6月开始实施。
而在刚刚过去的周五(17日),欧洲委员会(The Council of Europe)通过了一份AI公约,并称这是有史以来AI领域首个具有法律约束力的国际条约,并对非欧洲国家开放签署。另据中国外交部美大司消息,当地时间2024年5月14日,中美人工智能政府间对话首次会议在瑞士日内瓦举行。双方围绕人工智能科技风险、全球治理、各自关切的其他问题深入、专业、建设性地交换了意见。
一直以来,如何推出能被广泛接受的人工智能治理原则挑战重重。意大利经济发展部前副部长、意大利独立党外交及国际贸易负责人杰拉奇(Michele Geraci)近期接受第一财经记者采访时,直截了当地回答说,他认为无法对AI技术实现全球监管。
▲这是美国开放人工智能研究中心(OpenAI)发布GPT-4o的直播视频截图。
然而,从经合组织(OECD)到联合国,国际层面始终在努力推进这一议程,并找到监管的“公约数”。金杜律师事务所合伙人吴涵律师告诉第一财经,从监管内容来看,中国、美国和欧盟在一定程度上均具有共性。
欧洲委员会秘书长佩奇诺维奇(Marija Pejčinović)介绍,该机构17日通过的《人工智能框架公约》提出了一个法律框架,涵盖了AI系统的整个生命周期,旨在促进负责任的技术创新、利用AI的益处,并解决可能的技术风险。
与今年3月13日在欧洲议会通过的《欧盟人工智能法案》相同,该公约对人工智能系统的设计、开发、使用和退役采用基于风险的方法,要求仔细考虑使用人工智能系统的任何潜在负面后果。
而时隔两个月,欧盟《人工智能法案》也将于21日在欧洲理事会签署,这是全球首部AI领域的全面监管法规,违反法规的相关方将被追究责任。为了帮助欧洲企业为这一法案的实施做好准备,欧盟委员会还制定了《人工智能契约》。该契约旨在帮助领先企业测试,并与其他公司分享其AI解决方案,以迎接即将到来的监管框架。
吴涵称,值得注意的是,从《通用数据保护条例》(GDPR)到《数字服务法案》《数字市场法案》,再到欧盟《人工智能法案》,欧盟在数字经济监管上的创新不仅仅体现在具体的监管措施,其规则输出的“布鲁塞尔效应”愈发凸显。从GDPR等可以看出,欧洲的数据监管规则一定程度上不仅输出了部分监管工具(比如GDPR下的标准合同条款),更尝试在价值观等方面获得更多国家的共识。
除欧洲外,根据外交部美大司消息,在中美人工智能政府间对话首次会议上,双方介绍了各自对人工智能技术风险的看法和治理举措以及推动人工智能赋能经济社会发展采取的措施。中方强调人工智能技术是当前最受关注的新兴科技,中方始终坚持以人为本、智能向善理念,确保人工智能技术有益、安全、公平。中方支持加强人工智能全球治理,主张发挥联合国主渠道作用,愿同包括美方在内的国际社会加强沟通协调,形成具有广泛共识的全球人工智能治理框架和标准规范。中方就美方在人工智能领域对华限制打压表明严正立场。
在全球层面,第二届人工智能安全峰会将于21日在首尔举办。去年11月举行的第一届峰会发布的《布莱奇利宣言》称,AI的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。与会国家和地区同意协力打造一个“具有国际包容性”的前沿AI安全科学研究网络,以对尚未被完全了解的AI风险和能力加深理解。
早在2019年,OECD就首次发布了其人工智能原则。这些原则已成为全球人工智能政策制定的参考点,欧盟、美国和联合国在其立法和监管框架中都使用了经合组织对人工智能系统和生命周期的定义。
但在“定义”之外,对于全球治理能否实现这个问题,欧洲复兴开发银行前行长查克拉巴蒂(Suma Chakrabarti)近期接受第一财经记者专访时表示,全球数字治理的核心问题是各国政府能否统一标准,以实现数字基础设施的跨国互操作性。但其中存在很大的障碍,例如不同国家和地区的公民对政府和私营部门处理数据的信任程度差别很大。
“这些信任缺失的挑战,无论是个人与政府之间,还是政府与政府之间,都使全球治理变得复杂。”他认为,全球治理应该从简单的、有共识的领域切入。
查克拉巴蒂解释:“加州大学伯克利分校计算机科学教授拉塞尔(Stuart Russell)对此有一个关于医药业的形象类比。药品的制造商需要证明其药物能够提供公共利益,无论在美国、中国还是英国,对有效药物的需求已达成普遍共识,不存在政治争议。我们可以将类似的框架应用于人工智能,比如强制要求开发人工智能技术的公司证实其对公众的益处。此类评估应公正进行,确保评估在技术上保持中立。”
吴涵对第一财经记者介绍,从《人工智能法案》等相关数字立法来看,欧盟均以事前监管为重点,构建涵盖事前、事中和事后的全链条监管体系。
这至少折射出两个方面的信号。一方面,欧盟贯彻“以风险为进路”的监管模式,无论是对个人数据,数字服务企业还是AI系统,均整合了规制对象的相关特征,对特定规制对象进行分类,并施加差异化的监管规则。另一方面,GDPR和《数字服务法案》《数字市场法》等几部欧盟法案均是欧盟的正式法律,具有强行性法律效力,并非市场主体可以任意选择遵循或不遵循的倡导性提议。
在AI技术更迭迅速、风险具有不确定性的现阶段,吴涵表示,我国和欧盟均采取了重事前监管、兼顾事中和事后监管的全生命周期监管模式。
比如,欧盟要求高风险AI系统提供者在将其系统投放市场或投入使用前开展符合性评估,并加贴CE标识;而结合《生成式人工智能服务管理暂行办法》与实践的监管动态,我国生成式人工智能服务领域则形成了由算法备案和大模型评估构成的“双备案”制,体现了我国的事前监管要求。
但吴涵称,从AI立法进展来看,尽管在事前监管上有相同理念,相较于欧盟历时三年制定的《AI法案》,我国采取了“小切口法”的立法策略,深入特定应用领域提出监管要求,体现了我国在AI领域中的“敏捷治理”理念。
“与此同时,我国也正在积极推进《人工智能法草案》的立法工作。此外,虽然我国和欧盟在AI治理领域均采取了风险分类分级的手段,但基于彼此具体社会情境的现实差异与法律基础等的差异,我国与欧盟对AI的风险认知框架存在不同。”吴涵说。
但美国的AI治理思路明显存在差异。吴涵称,在AI治理文件方面,美国虽然也开始了一定的AI治理规则制定工作,但大多为政策或指引,正式立法尝试较少,且暂未在美国范围形成内具有广泛适用性与法律效力的统一监管规则,倡议性文件居多。在治理模式上,现阶段,美国主要由各监管部门开展自上而下的分散监管,这与欧盟制定《AI法案》的思路也存在较大的差异。
吴涵认为:“尽管存在诸多差异,但根据目前美国公开发布的AI相关文件,如美国国会人工智能小组发布的《人工智能基础模型透明法(草案)》,与中国和欧盟相似,美国也重点关注AI系统的透明度披露、训练数据治理、知识产权保护、内容安全与伦理等。在监管内容方面,美国与中欧在一定程度上均具有共性。”
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担