网站首页

半岛彩票产品中心

半岛智能终端处理器 半岛智能云服务器 半岛软件开发环境

半岛彩票新闻中心

关于我们半岛彩票

公司概况 核心优势 核心团队 发展历程

联系我们半岛彩票·(中国)官方网站

官方微信 官方微博
半岛彩票·(中国)官方网站 > 半岛彩票产品中心 > 半岛智能终端处理器

A半岛彩票I治理观察:人工智能的法律风险与三项治理原则

发布时间:2023-08-24 20:20浏览次数: 来源于:网络

  半岛彩票新一代人工智能技术的发展,可以推动数字经济各式应用场景的落地,赋能千行百业。今年ChatGPT的火爆标志着中国已经正式进入数字时代,笔者认为,2023年可以称为数字时代元年。

  2023年8月15日起中国正式施行的《生成式人工智能服务管理暂行办法》,是全球首个全面监管生成式人工智能的立法文件,并传递出强烈信号,包括中国政府在内,全球对人工智能发展中问题的治理行动正在发力。

  2015年,德国一名大众汽车厂员工在工作中被机器人抓住并压死在金属板上的智能机器人杀人事件。2015年2月,英国人工智能机器人在做心瓣修复手术时出现大失误,导致患者死亡。2019年,某智能音箱在回复用户心动周期的相关问题时,建议用户自杀。2016年,装载自动驾驶系统的某汽车因出现误认而造成全世界首宗自动驾驶系统致人死亡的车祸。此后,某汽车 “突然失控”“自动加速”“刹车失灵”等事件频繁不断发生。2023年,在国外一次黑客大会上,法国网络安全公司Synacktiv的研究人员在2分钟时间内就入侵了一辆某汽车的网关和信息娱乐子系统,通过以太网接管了车辆。

  人工智能实施了危害行为,需要区分人工智能行为背后是否体现了人的意志。如果体现了人的意志说明,人工智能技术只是犯罪工具,不存在刑法学的难题;如果单纯是人工智能的行为,则需要考量能否让人来负责、让谁来负责。

  在智能汽车自动驾驶系统致人死亡案例中,需要厘清责任主体:究竟是智能汽车或系统的研发者、设计者的责任还是所有者、使用者利用智能汽车或系统的缺陷?制造者或设计者承担刑事责任的边界在哪里?如何证明制造者或设计者在主观上有故意或者过失,故意或者过失是否需要重新定义解释,是否适用产品严格责任。比如:在完全自动驾驶状态之时,无需操控车辆的人类无须更不愿保持高度警戒状态,自然无需承担刑事责任;而如果在人类与智能驾驶同时驾驶还是轮流驾驶之时,此时自然人负有高度的注意义务,倘若发生交通肇事则需要承担刑事责任。若所有者、使用者违反使用说明擅自对汽车和智能驾驶系统进行改造,则有可能需要承担刑事责任。

  在人工智能医疗事故案例中,人工智能外科医生对病人进行安装新髋关节的手术,手术中人工智体能却出现机械性误差。负责监控手术的人类医生未能尽职地中途介入降低手术风险,履行监管义务的人类医生懈怠监管义务可追究过失犯罪的刑事责任。

  2022年,有人冒充马斯克以新身份“币圈慈善家”的形象在Youtube、推特发起一个送钱项目--给我你的币,我给你每天30%的回报率。这一片段是诈骗团队利用DeepFake,也就是深伪技术换脸“导”出的一场戏。通过截取马斯克在TED采访的视频,并为其配音,为的就是推出BitVex比特币诈骗平台。(BitMex是一个正规比特币交易平台)该诈骗平台仅仅在一周之内就成功诈骗2亿资金,令人不寒而栗。

  近日,北方某地警方发布了一起利用“AI换脸”对当事人实施诈骗的案件。诈骗分子运用人工智能技术,通过微信视频通话模拟一名领导干部与受害人进行了十多分钟交流,骗子“换脸”后面部表情自然,声音逼真,受害人便放松了警惕并转账数百万元。

  2023年8月10日,公安部在北京召开新闻发布会,针对“AI换脸”导致群众被欺诈的问题,公安机关发起专项会战,侦破相关案件79起,抓获犯罪嫌疑人515名。

  人工智能的数据处理能力以及自我学习能力将使得部分传统犯罪更加隐蔽,危害性更大。尤其是深度合成技术已经成为网络诈骗犯罪的“神器”。还有因为设计上的缺陷或者硬件缺陷、故障等原因,人工智能实施了危害行为是否构成犯罪都值得我们思考,比如:智能驾驶交通肇事、人工智能伤害案等。人工智能犯罪形态通常总是和数据、个人信息相伴出现,现有传统犯罪治理模式已经难以应对。

  中国ChatGPT刑事第一案,值得业界深思。2023年4月25日,洪某某使用ChatGPT强大的改写功能旧新闻改写成《今晨甘肃一火车撞上修路工人,致9人死亡》的文章,后在多个自媒体账号发布,累计点击量在侦查期间就已达1.5万余次。平凉市公安局已经以涉嫌寻衅滋事罪,对犯罪嫌疑人洪某某采取了刑事强制措施。

  《关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释》第五条规定,编造虚假信息,或者明知是编造的虚假信息,在信息网络上散布,或者组织、指使人员在信息网络上散布,起哄闹事,造成公共秩序严重混乱的,依照刑法第二百九十三条第一款第(四)项的规定,以寻衅滋事罪定罪处罚。本案中,洪某某编造了虚假信息,但是否“造成公共秩序严重混乱”?网络型寻衅滋事罪中的“造成公共秩序严重混乱”是否应当造成了与“肆意挑衅,随意殴打、骚扰他人或者任意损毁、占用公私财物,或者在公共场所起哄闹事”等行为危害性相当的后果,才能以寻衅滋事罪定罪处罚,这都值得我们思考。

  2023年1月,著名科技新闻网CNETT用生成式人工智能生成文章并以“CNET Money Staff”署名,读者误以为文章是由人类作者撰写,引发民众不满,同时文章却出现错误又不得不做出“实质性”更正。

  2023年2月,图像授权巨头盖蒂公司声称Stability AI从其图片社的收藏中未经授权复制了1200多万张照片,也提起了诉讼。2023年5月,美国一位执业30多年的律师首次利用ChatGPT检索案例来为其客户辩护,结果法官发现其提交的研究案例中有6个是虚假的,法官要追究其法律责任。

  2023年7月初,美国8500名作家在一封联名信中要求包含OpenAI、微软、Meta等人工智能公司赔偿其版权损失,因为ChatGPT、Bard、LLaMa 等大型语言模型背后的科技公司因未经许可或无偿使用他们的作品。7月14日,拥有16万名会员的美国影视演员协会和演员17万人宣布加入罢工队伍,编剧们担忧电影公司会使用AI来生成剧本;演员们担忧电影公司无偿使用AI制作他们肖像的数字人。

  2023年,美国平等就业机会委员会因招聘年龄歧视,对中国教培公司麦奇教育科技在美国纽约东区地方法院提起了法律诉讼,声称是发起人工智能和算法公平倡议的一个例子。2023年8月9日,最终以中国公司赔偿36.5万美元达成和解。

  虚拟人属于弱人工智能。在“虚拟人第一案”中,杭州互联网法院认为:真人驱动型虚拟数字人背后的中之人是必不可少的参与主体,虚拟数字人所作的“表演”实际上是对真人表演的数字投射、数字技术再现,其并非《著作权法》意义上的表演者,不享有表演者权。当虚拟数字人参与拍摄或作为角色出演,其行为、表演活动被记录下来并被摄制在一定介质上形成连续动态画面,其也不享有视听作品的著作权或录像制作者的邻接权。因此,在现有的著作权法律体系的框架下,虚拟数字人不享有著作权和邻接权。虚拟数字人的表现形式借鉴了真人的体格形态,同时又通过虚拟美化的手法表达了作者对线条、色彩和具体形象设计的独特的美学选择和判断,构成美术作品。使用虚拟人形象的相关视频分别构成视听作品和录像制品。

  ChatGPT属于类人工智能,引发了人们对生成式AI输出内容可著作权的思考。2023年2月21日,美国版权局在“黎明的扎利亚版权注册案”中认为,“用户利用Midjourney这一AI绘图工具生成的漫画内容不构成版权作品,因为在图像生成过程中没有自然人的创造投入,而是由Midjourney自动随机形成”。2023年3月16日,美国版权局发布了《版权登记指南:包含人工智能生成材料的作品》,美国版权局认为,Midjourney是以一种用户不可预测的方式直接生成图像,由于用户对Midjourney生成的图像不具有控制力和预期性,所以无法论证用户在其中的创造性投入或干预。

  在“腾讯诉网贷之家案”中,法院明确表示“Dreamwriter软件”是一种“写作助手和辅助创作工具”,而在“菲林诉百度案”中法院对威科先行数据库“可视化报告”功能强调的是“自动生成工具”。AI工具的不同内在机制和原理,决定了生成内容版权属性的判定。“prompt”本身具有独创性可能构成文字作品,但改变不了生成式AI类输出内容作为AI“自动生成”而非“辅助创作”的本质,因为生成式AI类输出内容是随机产生的,具有一定的偶然性,用户本质上仍无法直接控制和准确预见输出的内容。

  2017年在有益人工智能大会上制定的最早、最具影响力的人工智能治理原则之一阿西洛马人工智能原则指出:人工智能研究的目标应该是创造有益(于人类)而不是不受(人类)控制的智能;价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致;人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权力、自由和文化多样性的理想相一致;个人隐私:在给予人工智能系统以分析和使用数据的能力时,人们应该拥有权力去访问、管理和控制他们产生的数据;自由和隐私:人工智能在个人数据上的应用不能充许无理由地剥夺人们真实的或人们能感受到的自由;分享利益:人工智能科技应该惠及和服务尽可能多的人;共同繁荣:由人工智能创造的经济繁荣应该被广泛地分享,惠及全人类;人类控制:人类应该来选择如何和决定是否让人工智能系统去完成人类选择的目标;非颠覆:高级人工智能被授予的权力应该尊重和改进健康的社会所依赖的社会和公民秩序,而不是颠覆;风险:人工智能系统造成的风险,特别是灾难性的或有关人类存亡的风险,必须有针对性地计划和努力减轻可预见的冲击。1

  2018年4月,《英国人工智能发展的计划、能力与志向》为人工智能准则的制定提出了五条初步的原则:一,开发人工智能应当为了共同利益和人类福祉;二,人工智能的运行应符合可理解原则和公平原则;三,不应利用人工智能来削弱数据权利或隐私;四,所有公民都有权获得教育,以便享有人工智能带来的好处;五,伤害、毁灭或欺骗人类的自主权力绝不应委托给人工智能。2

  2019年4月,欧盟委员会发布《可信赖人工智能道德准则》,《准则》列出了可信赖人工智能系统应满足的七项重要要求:人类代理和监督、技术强大性和安全性、隐私和数据治理、透明度、多样性、非歧视性和公平性、社会和环境福祉以及问责制。

  2019年通过的经合组织(OECD)《确定OECD的人工智能发展原则》报告,提出了人工智能的五项原则:包容、可持续发展与福祉;以人为本的价值观和公平;透明和可解释性;健壮性和安全性;可问责制。3

  2019年2月,特朗普总统签署行政令启动《美国人工智能倡议》,提出了六个方面的重大战略举措:投资于人工智能研发、开放人工智能资源、除人工智能(AI)创新的障碍、培养符合人工智能领域需求的劳动力、促进形成支撑美国人工智能创新的国际环境、为实现政府服务和使命采纳可信赖的人工智能(AI)技术。

  2019年2月,特朗普总统签署行政令启动《美国人工智能倡议》,提出了六个方面的重大战略举措:投资于人工智能研发、开放人工智能资源、除人工智能(AI)创新的障碍、培养符合人工智能领域需求的劳动力、促进形成支撑美国人工智能创新的国际环境、为实现政府服务和使命采纳可信赖的人工智能(AI)技术。

  国内方面,2017年7月,国务院印发《新一代人工智能发展规划》,要求到2030年中国人工智能产业竞争力达到国际领先水平,指出:人工智能发展的不确定性带来新挑战。人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。

  2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出新一代人工智能治理原则——发展负责任的人工智能,人工智能发展相关各方应遵循以下原则:和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理。

  2023年8月15日起施行的《生成式人工智能服务管理暂行办法》,要求提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,遵守以下规定:(一)坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容;(二)在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视;(三)尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为;(四)尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;(五)基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。

  人工智能安全事件的频发及相关法律风险,引发了社会、企业、个人对人工智能发展的担忧,此时人工智能治理这一概念开始应运而生。

  人工智能治理是一项复杂的系统工程,既需要明确治理原则、目标以及厘清治理主体,又需要提出切实有效的治理措施。全球正在逐步构建起人工智能治理框架,以坚持科技造福人类,平衡创新发展与有效治理的关系作为治理目标,采用多元主体参与、协同共治的治理机制,通过制定伦理原则、设计技术标准、确立法律法规等综合治理手段,推动人工智能健康有序发展。 4

  2019年10月,美国联邦政府独立咨询机构“国防创新委员会”发布《人工智能准则:美国国防部使用人工智能的伦理建议》报告指出,国防部的人工智能伦理原则主要涵盖五大领域:负责任(Responsible)、公平性(Equitable)、可溯源、可信赖(Reliable)、可控性(Governable)。2021年11月,联合国教育、科学及文化组织(教科文组织)大会提出了《人工智能伦理问题建议书》,指出:考虑到人工智能技术可以对人类大有助益并惠及所有国家,但也会引发根本性的伦理关切,例如:人工智能技术可能内嵌并加剧偏见,可能导致歧视、不平等、数字鸿沟和排斥,并对文化、社会和生物多样性构成威胁,造成社会或经济鸿沟;算法的工作方式和算法训练数据应具有透明度和可理解性;人工智能技术对于多方面的潜在影响,包括但不限于人的尊严、人权和基本自由、性别平等、民主、社会、经济、政治和文化进程、科学和工程实践、动物福利以及环境和生态系统,又认识到人工智能技术会加深世界各地国家内部和国家之间现有的鸿沟和不平等,必须维护正义、信任和公平,以便在公平获取人工智能技术、享受这些技术带来的惠益和避免受其负面影响方面不让任何国家和任何人掉队,同时认识到各国国情不同,并尊重一部分人不参与所有技术发展的意愿,注意到应对风险和伦理关切的努力不应妨碍创新和发展,而是应提供新的机会,激励合乎伦理的研究和创新,使人工智能技术立足于人权和基本自由、价值观和原则以及关于道义和伦理的思考。

  2019年7月,中央全面深化改革委员会第九次会议审议通过《国家科技伦理委员会组建方案》,这表明科技伦理建设已经进入国家层面。2022年11月,中国政府在瑞士日内瓦举行的联合国《特定常规武器公约》缔约国大会上正式提交《中国关于加强人工智能伦理治理的立场文件》,指出:中国始终致力于在人工智能领域构建人类命运共同体,积极倡导“以人为本”和“智能向善”理念,主张增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉。为实现这一目标,中国呼呼各方秉持共商共建共享理念,推动国际人工智能伦理治理。

  2022年3月,中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,《意见》指出:科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,要进一步完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险,不断推动科技向善、造福人类。科技伦理治理要求伦理先行,明确科技伦理原则,包括:增进人类福祉,不断增强人民获得感、幸福感、安全感,促进人类社会和平发展和可持续发展;尊重生命权利,科技活动应最大限度避免对人的生命安全、身体健康、精神和心理健康造成伤害或潜在威胁,尊重人格尊严和个人隐私;坚持公平公正,公平、公正、包容地对待不同社会群体,防止歧视和偏见;合理控制风险,防止科技成果误用、滥用,避免危及社会安全、公共安全、生物安全和生态安全;保持公开透明,公布科技活动相关信息时应提高透明度,做到客观真实。

  人工智能伦理是指处理人与机器、机器和社会之间相互关系时应遵循的道理和准则,包含着人与机器、机器和社会之间的行为规范。人工智能最大的弱点是缺乏直接的感受能力,在价值判断上存在弱点,而人工智能伦理准则所倡导的造福人类、避免伤害、公平正义等价值理念,为人工智能技术层面的开发和运用提供了价值判断标准。5

  人工智能的研发与应用首先应当为了共同利益和人类福祉,以促进人类向上向善为目的,保护人类在社会和工作中的尊严、诚信、自由、隐私和安全,推动全社会公平共享人工智能带来的益处,不断增强人民获得感、幸福感、安全感,促进人类社会和平发展和可持续发展;其次,运行应符合可理解原则和公平原则,人工智能应该能够为人类社会现有的道德所理解,切实保护各相关主体合法权益,促进社会公平正义和机会均等;再其次,人工智能的运行应当保持透明可见的原则,不让特定个人或少数群体遭受偏见、侮辱和歧视;再次,尊重生命权利,人工智能应最大限度避免对人的生命安全、身体健康、精神和心理健康造成伤害或潜在威胁,尊重人格尊严和个人隐私,保障人工智能参与者的知情权和选择权;最后,人工智能的发展应当可控,人类不从属于人工智能也不应受到人工智能的胁迫,保障人类在人工智能中的决定作用,当人工智能失控时应当有毁灭装置。

  以机器学习为代表的人工智能技术需要大量的数据,数据是机器学习的根基,数据的真实性、完整性、规模和质量是人工智能进行分析与建模的关键。人工智能公平性的核心基础是数据,数据的不公平主要体现在:不同群体在数据中所占比例不均衡,数据固有的歧视,数据固有的偏见,数据的包容性不够,数据的通用性以及数据的准确性等。数据固有的歧视和偏见,是因为一些带有歧视和偏见的价值观映射在数据上。如果没有对上述数据不公平现象进行调试和校验,就将反馈到人工智能算法模型并将最终映射到人工智能公平性上。

  2018年,德国成立了数据伦理委员会,负责为德国联邦政府制定数字社会的道德标准和具体指引。德国数据伦理委员会认为,人格尊严、自我决策、隐私、安全、民主、正义、团结、可持续发展等应被视为德国不可或缺的数字社会行为准则,这一理念也应在“数据”和“算法系统”的监管中加以贯彻。6人工智能数据伦理以人格尊严、自我决策、隐私、安全、民主、正义、团结、可持续发展等为原则,尊重人在科技时代的主体地位,构建人与机器、机器与社会之间的和谐关系,增进人类和社会福祉。我们要强调人在数据中的主体地位,尊重人的权利和自由,实现有秩序有规范的数据共享。

  数字经济时代的来临,算法已经广泛应用于在线社交、游戏、媒体、学习、医疗、教育、工作、生活等诸多数字经济场景,全面渗透于人们的现实世界和虚拟世界。数字经济时代,同时也是一个算法的时代,算法合规与否直接决定了数字经济合规与否。算法时代,是一个由政府机构、社会团体、商业平台等基于大量数据利用并通过算法进行自动化决策的时代,是广泛应用在医疗、教育、就业、金融等行业决策的时代。算法,源自计算机科学的一个概念,是执行预定良好计算过程的计算机代码或指令,基于原始数据的输入通过自动化决策产生结果数据的输出。算法的出现和使用,是为了执行大规模重复的任务和计算,是为了实现商业上高效快速的交易,是为了实现公权力具有广度、深度和效率的运行。随着算法的日益广泛应用,算法已经成为促进政治、经济、文化和社会发展的工具。算法,简而言之就是“数据处理活动”,收集处理数据,挖掘数据价值,涵盖了数据的生成、采集、存储、转换、处理和输出的全过程。算法,应当遵循人类共同价值观,遵守国家或地区伦理道德;算法应当尊重人类主体地位,给用户选择权和决策权;算法应当抑制人类社会无处不在的歧视和偏见;算法应当保障用户的人身权和财产权。

  政府机构、社会团体、商业平台等将算法内嵌在健康码、个人征信、风险评估、金融风控、智能安防、公共卫生防治等应用场景中,可以支配数据流动挖掘数据价值并构建新的社会秩序。算法,已经不是纯粹的的计算机代码或指令,不再是简单的数据处理工具,而是被政府机构、社会团体、商业平台等预设了其利益或偏见的不透明自动化决策系统。“算法滥用”,即算法的不正当使用,借助算法的工具属性和算法“技术中立”的本质属性,将其利益或偏见嵌入到算法运行的各个微观层面,嵌入到新生产生活资料引发的经济秩序和社会秩序重构,可能对公民权利、社会秩序、政治权力体系等造成一定的冲击。算法治理,就是对政府机构、社会团体、商业平台等控制算法的人采集、传输、分类、选择、分析、评估、控制数据方式的治理,是对算法自动化决策系统本质方面的深入理解,也是对社会秩序的一种治理。比如:麻省理工学院的研究人员开发了一种新的深度学习算法,旨在帮助机器在真实的、不完美的世界中导航,通过对它们收到的测量和输入建立健康的 怀疑论。7IBM 研究人员开发了一种方法来减少训练数据集中可能存在的偏见,这样之后利用该数据集进行学习的AI 算法就能尽量保持公平。8

  3. 参考网,高玉英,科技启智向善:OECD《人工智能原则》解读与启示,

  6.百度,腾讯研究院,德国发布AI和数据伦理的75项建议,提出数据和算法协同治理等理念|腾讯网络法专报,

  8.中国安全防范产品行业协会,IBM发布未来五年五大科技预测之AI偏见,

  作者:黄斌《互联网法律评论》特约专家、北京德和衡(深圳)律师事务所高级联席合伙人

  【免责声明】此文仅代表作者个人观点,与本平台无关。本平台对文中陈述、观点判断保持中立,不对所包含内容的准确性、完整性或可靠性提供任何明示或暗示的保证。

  未来的中国市场,仓储会员店这一业态,本土企业与外资企业间的角逐也将会更为激烈。

下一篇:算力产业保持高速增长 人半岛彩票工智能算力占比超四分之一
上一篇:乘科技之翅 圆强国之梦——第六届全国青少年人工智能创新挑战赛决赛纪实半岛彩票

咨询我们

输入您的疑问及需求发送邮箱给我们