半岛彩票8 月 15 日,由网信办等七部门发布的《生成式人工智能服务管理暂行办法》(下文简称“《办法》”)正式施行,这也是全球第一部AIGC(AI生成内容)管理办法。
三六零集团创始人周鸿祎对贝壳财经记者表示,与征求意见稿相比,《办法》中增加了“鼓励各行业、各领域的创新应用”,支持行业组织机构开展协作;增加了“推动基础设施和公共平台建设”、“促进算力共享”、“推动公共数据开放”等内容,表明了有关部门鼓励创新,支持大模型发展的态度,为科技企业创新提供了信心和保障。
中国政法大学传播法研究中心副主任朱巍在接受新京报贝壳财经记者采访时表示,《办法》明确了必须对AIGC生成的内容进行标记,这降低了一些真假难辨的AIGC内容可能造成的风险。此外,相比此前版本的征求意见稿,《办法》对违法内容的管理责任体现了包容审慎的态度,“AI只是一个工具,如果要求生成式人工智能服务提供者为生成的内容承担责任并不公平,对此《办法》要求提供者发现违法内容后应及时采取处置措施并向主管部门报告,这一改动很亮眼,实践表现也不错。”
国家网信办有关负责人表示,《办法》提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
周鸿祎表示,《办法》针对大模型生成式的特点,遵循促进创新和依法治理相结合的原则,“有关部门的监管方式非常先进,将有效助推生成式人工智能的发展。”
“我认为《办法》是积极的,总体来讲是鼓励深层次人工智能发展,鼓励我们自己发展芯片,同时里面也有对尊重知识产权、个人信息保护的相关要求。” 谈到对此次出台《办法》的感受,网络安全研究专家、北京汉华飞天信安科技有限公司总经理彭根告诉新京报贝壳财经记者。
贝壳财经记者注意到,在《办法》第二章技术发展与治理中,“鼓励”一词高频出现。
如第五条提到“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。”第六条提到“鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定。”
对于《办法》的发布,北京理工大学法学院教授、外交部国际法咨询委员会委员洪延青简评称,整个《办法》往促进生成式AI发展这个方向,靠了很大一步,“第二条强调了‘面向公众提供’服务,进一步明确了监管意图;第四条基本围绕着内容管理、歧视性待遇、商业和市场秩序保护、个人合法权益保护,以及生成内容的准确性和可靠性;第七条依旧强调了训练数据的重要性,这是生成式AI监管的重要切入点。”
在回答《办法》对促进生成式人工智能健康发展有哪些考虑这一问题时,国家网信办有关负责人提到,支持行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等在生成式人工智能技术创新、数据资源建设、转化应用、风险防范等方面开展协作。推动生成式人工智能基础设施和公共训练数据资源平台建设。促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。鼓励采用安全可信的芯片、软件、工具、算力和数据资源。
“《办法》明确了适用边界,既能够规范大模型的公众服务,同时也有利于组织机构的研发和应用。我认为,大模型未来真正的发展机会就是企业级市场。产业数字化战略背景下,大模型作为工业革命级的生产力工具,应当帮助传统产业特别是制造业实现数字化转型到智能化升级。从《办法》来看,国家对企业级场景的应用研发和落地整体持大力支持的态度,对科技企业推动大模型在企业级场景的落地有积极意义。”周鸿祎对贝壳财经记者表示。
中国互联网协会研究中心副主任、北京师范大学法学院博士生导师吴沈括在接受新京报贝壳财经记者采访时表示,相比较于征求意见稿阶段,《办法》在发布主体、文件名称、内容宽度上有很大的变化,本身也反映了我们国家在治理决策层面对AGC治理的思路的进一步深化和延伸,“它作为全球第一部AIGC法,反映的是中国在数字治理和人工智能治理层面新的思路,强调的是一种生态式的治理方案。”
贝壳财经记者注意到,从4月11日《办法》征求意见稿出台,到本次《办法》正式发布,在对大模型的内容监管方面,均明确提供和使用生成式人工智能服务应当坚持社会主义核心价值观,不得生成煽动颠覆国家政权、民族歧视,暴力色情、虚假有害信息等法律和行政法规禁止的内容。
但另一方面,由于生成式AI底层算法的本质就是“猜出”最符合上文内容的“下文”,具备一定随机性,因此如何应对生成式AI难以避免出现的“幻觉”问题也成为了难题。对此,《办法》第十四条第二款规定,提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。
朱巍认为,该条款是此次《办法》的亮点之一,“之前版本的征求意见稿中曾提到‘人工智能的服务提供者和内容提供者’,这种表述对平台和服务提供者来说,可能责任太大了,因为AI只是一个工具,别人用它来干坏事但责任主体却是服务提供者,这可能不公平。因此,我认为此次《办法》相关条款体现了包容审慎的态度,一旦提供者发现违法内容,需要采取必要措施。”
AI只是一个工具,如果要求生成式人工智能服务提供者为生成的内容承担责任并不公平,《办法》要求提供者发现违法内容后应及时采取处置措施并向主管部门报告,这相比此前的征求意见稿有了很大进步。
“一直以来,我国坚持发展和安全并重,在鼓励自主创新的同时,《办法》强调提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。我对此表示认同,大模型是数字化的顶峰,同样是把双刃剑,带来生产力提升的同时存在安全风险,包括网络安全、数据安全、算法安全和生成内容安全。比如算法攻击有可能致使大模型沦为犯罪工具,协助黑客写攻击代码或钓鱼邮件。”周鸿祎说。
在周鸿祎看来,大模型存在“幻觉”问题,会“胡说八道”,难以确保生成内容符合法律法规和伦理道德,“未来人工智能会跟整个数字化系统紧密结合,需要从现在开始关注和探索AI安全的解决之道。360拥有全球规模最大的安全大数据、世界领先的APT捕获能力,是世界领先、中国第一的安全企业,攻克大模型安全这一世界性课题是题中之义。”
另一个解决方案是,大模型生成的内容的素材来源于其预训练数据,因此对这些数据进行把控,就能大概率降低生产内容的风险。《办法》第七条或体现了这一观点,第七条规定,生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,应使用具有合法来源的数据和基础模型,涉及知识产权的,不得侵害他人依法享有的知识产权等。
洪延青认为,《办法》第七条依旧强调了训练数据的重要性,这是生成式AI监管的重要切入点,但对训练数据的质量作出了尽职性的要求,而非结果式的要求。
在朱巍看来,目前我国于国外在大模型技术上的差距并不在算法端,而在训练数据数量和质量,“我们对于数据来源这一条持有保留意见,训练数据应该多多益善,如果要求所有数据都具有合法性或明确授权,有可能导致大模型训练者不能在公共领域中抓取数据,这可能会影响国内AI大模型的发展。虽然使用收集来的数据训练出的大模型也会带有倾向性,但我认为这可以通过算法进行修正,更多的数据可以帮助我们更好的‘弯道超车’。”
吴沈括对贝壳财经记者表示,在《办法》的文本设计当中,对于产业生态的培育和促进,对于各方主体合规治理的指引,以及对于安全底线的坚守是三个非常重要的制度基础和切入的重点,其中值得注意的地方是《办法》突出了关于AIGC的分类分级监管思路,以及后续细化监管规则的持续出台。
根据《办法》第十七条,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
洪延青表示,第十七条事实上提出了生成式AI的分类分级管理思路,对具有舆论属性和社会动员能力的生成式AI,沿用网信办过去的监管工具。
国家网信办有关负责人说,《办法》在治理对象上,针对生成式人工智能服务。在监管方式上,提出对生成式人工智能服务实行包容审慎和分类分级监管,要求国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。此外,《办法》要求采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。规定提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。
“我最大的感受是《办法》进一步强调了深度合成管理规定的内容,要对图片和视频进行标注,让我们能够判断出到底图片视频是由AI生成的,还是人去录制和拍摄的,这是一个很关键的一个地方。”彭根说。
“前不久,出现了许多利用生成式人工智能语音、视频,结合账号盗取进行电信诈骗的情况,《办法》结合此前发布的关于深度合成的相关规定,为解决此类问题提供了思路。”朱巍说。
《办法》第九条第二款规定,提供者应当与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务。而第十四条第二款则规定,提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。
“《办法》在安全层面坚持了技术要素层面的安全、组织管理层面的安全以及数字内容层面的安全,结合了安全性设计、合法性设计和伦理性设计的综合治理思路。对于各方主体的合规义务、法律责任做出了明确的规定。同时,对包括用户数字素养在内的基础性生态要素也做出了专门的要求。从这个意义上来讲,目前的办法在制度的宽度、广度和深度上都有显著的延伸。”吴沈括对贝壳财经记者表示。