半岛彩票2021年5月,欧洲议会批准通过了《人工智能法案》草案,此为全球首个人工智能法案,旨在制定在欧盟范围内统一的人工智能治理体系。该法案充分考虑了当时人工智能的技术水平,并由此确立了以风险为基准的人工智能治理框架。
然而,以ChatGPT为代表的生成式人工智能的问世,标志着人工智能技术的发展已经进入到一个新的阶段。鉴于生成式人工智能滥用带来的数据泄露、虚假信息等风险,欧盟亟需修订《人工智能法案》,以加强对生成式人工智能的监管。
斯科特·马库斯(Scott Marcus),比利时布鲁盖尔研究所(Bruegel)资深研究员
(3)如果生成式人工智能的训练数据存在某种程度的偏见或者歧视,那么在使用生成式人工智能的过程中会进一步放大此种负面效果;
针对上述潜在风险,我们有必要对生成式人工智能的基础模型进行更深入的研究。
在通常情况下,生成式人工智能的所有基础模型接受的均是“无监督学习”的训练,即使用无标记的数据来训练模型,让模型自动去寻找数据中隐藏的关系或者规律。这表明生成式人工智能基础模型的能力要远大于其纸面能力。
《人工智能法案》是根据人工智能模型的预期用途进行风险等级划分的。该做法在很大程度上反映了欧盟产品责任立法的一贯做法,即只有在产品用途明确的情况下,才能够对产品进行责任立法。然而,基础模型具有许多潜在用途,其带来的风险也必须重视。
第一,基础模型研发者即使无法确定模型的所有潜在风险,他们也应当注意到某些风险向量。
例如,美国人工智能研究公司(OpenAI)了解GPT-4存在语言偏差的问题,因为其训练数据主要以英语为主。在此情况下,基础模型研发者应当聘请外部专家就识别和减轻潜在风险提供对策建议。
第二,基础模型作为下游人工智能模型的参照物,因此基础模型研发者应当对其产品进行综合测试,以确保性能、可预测性、可解释性、安全性和网络安全能力达到合理的水平。
第三,基础模型研发者应当为其产品提供详细且浅显易懂的使用说明,这将有利于下游企业更深入地了解基础模型的工作原理,进而促使更多的企业遵守监管要求。
虽然上述建议能够对优化人工智能监管框架产生积极的影响,但是缺乏细节。若要得到采纳,
第一,要求所有科技公司承担同样的监管义务,这样可能会削弱中小型科技公司的创新动力,无形中巩固了科技巨头的主导地位。
由此可见,《人工智能法案》的修订应当根据系统的重要性来确定科技公司履行监管义务的多少,例如系统重要性越高的科技公司,履行的监管义务就越多,反之亦然。该建议与《欧盟数字服务法案》的规定相符,即监管义务应当根据数字服务的类型、规模和性质进行调整。此外,《欧盟数字服务法案》明确规定,大型科技公司(例如超大型在线平台和搜索引擎提供商)必须履行更多的监管义务。
要求系统重要性高的科技公司履行更多的监管义务有两个原因。首先,具备研发基础模型能力的科技公司普遍为科技巨头,因此比其他科技公司更有能力承担履行监管义务产生的费用。其次,系统重要性低的科技公司,即使履行较少的监管义务,也无伤大雅。
根据现有文献,我们可以根据数据源、计算资源和投资额度来判断科技公司研发的模型是否属于基础模型的范畴。此外,开源程度也是一个重要的判断标准,例如是否同意开放应用程序编程接口和接受外部审查。模型的下载量及其产生的营收也同等重要,但营收数据只有模型在市场上站稳脚跟后才能够获得。更重要的是,上述信息不仅能够反映科技公司的系统重要性,而且能够反映科技公司履行监管义务的能力。
第二,基于风险的规制思路虽然有不少可圈可点之处,但是中小型科技公司也可能会研发高风险模型。因此,评估产品潜在风险的义务应当适用于所有科技公司。
对于系统重要性低的科技公司,对模型进行综合测试、让模型接受外部审查和提供模型使用说明的条款可以有所放宽。至于如何放宽,欧盟应当为此专门制定一套标准。
对科技公司进行系统重要性分类是实现渐进、动态监管措施的重要一步。随着市场需求的变化,对基础模型的定义会不断变化。在该过程中,欧盟可以将不再符合基础模型定义的模型从监管名单中移除。
第三,《数字化单一市场版权指令》提出了有限制的文本与数据挖掘行为,即允许行为主体在不受版权法的约束下合理地使用现有的文本和数据。
然而,该指令并未对使用受版权保护的文本和数据训练基础模型的行为做出明确规定。有鉴于此,欧盟应当制定强制性法规(例如收取版税)来限制使用可用于训练基础模型的文本和数据。
第四,如何对基础模型进行第三方监管,一直是一个棘手的难题。如果企业内部质量管理体系不足以承担风险评估任务,那么企业就需要聘请外部专家来开展相关的工作。
鉴于外部专家的稀缺,企业应当与民间携手合作,共同承担风险评估任务。此外,欧盟应当参照经济合作与发展组织(OECD)正在拟议中的“人工智能突发事件报告机制”来制定一套类似的法规。
第五,大规模基础模型的研发需要消耗大量的电力,并由此产生大量的碳足迹。确立针对基础模型的共性指标是实现可比性的一个必要步骤,这将有助于提高模型的能源效率。
科技公司应当投入大量的资金,用于确保基础模型的安全。随着全球基础模型投资的不断增长,日趋频繁的网络攻击对基础模型的研发构成了重大风险。然而,对人工智能安全性和校准研究的投资依然不足。确保基础模型的安全是防止基础模型输出有害信息的关键。除此之外,欧盟还应当打击通过不法手段获得基础模型的行为。
目前来看,欧盟有望成为生成式人工智能领域的领导者。这将有助于确保该领域以符合欧盟利益和价值观的方式发展。
《人工智能法案》虽然具有开创性的意义,但是需要在不削弱中小型科技公司创新动力的前提下,精准地管控基础模型带来的风险。如果无法做到这一点,就可能会阻碍欧盟人工智能产业的发展。