半岛彩票AI 技术要不要考虑价值观,你最希望或最不希望 AI 被应用在哪些领域?
机器人研发公司美国波士顿动力(Boston Dynamics)为了测试机器人受阻后恢复动作的性能,而对机器人进行棍棒“殴打”,没想到引起公众很大争议。
看完电影《Her》,很多人发出这样的疑问。实际上这个问题包含了一个严肃的哲学问题和 AI 技术伦理问题——什么是爱。
一家 AI 独角兽公司在校园试点“基于人脸识别的教室监控”,用系统可以监控生在课堂的一举一动,举手次数、打瞌睡、开小差甚至注意力是否集中,并进行可视化呈现。但这是否就是对的?
尽管今天我们离真正意义上的人工智能时代还很遥远,但越来越多的现实场景,让我们不得不去思考技术融合、技术、以及 AI 技术的“能”与“应该”的界限问题。
两年前的 2018 年 3 月 18 日,Uber 发生了一起无人驾驶汽车致死事故,真相是这辆车的传感器已经探测到了一位正在横穿马路的行人,但自动驾驶软件没有在当下采取避让措施,最终酿成悲剧。
这起事故从表面看,体现的是技术问题:Uber 无人车检测到了行人,但选择不避让。实际上,当把判断权转移给计算机系统,就牵涉到 AI 技术的道德和伦理困境。
在一般人看来,无人驾驶汽车上的 AI 系统中的数据是公平的、可解释的、没有种族、性别以及意识形态上的偏见。但 IBM 研究中心研究员 Francesca Rossi 却认为,大多数人工智能系统都是有偏见的。谷歌自动驾驶负责人曾表示,危机情况下,谷歌无法决定谁是更好的人,但会努力保护最脆弱的人。
但别忘了,保护脆弱的人意味着必须对人,不同的人作出划分,对一个人的生命价值与一群人的生命价值作出比对。
自动驾驶的道德悖论之所以出现是因为这一问题在自动驾驶时代本质是一个算法问题。还涉及背后的编程人员根据现实经济收益与成本考量的理性选择。
百度是中国布局 AI 最激进的科技公司,CEO 李彦宏曾提出 AI 伦理四原则,其中第一条原则就是“AI 的最高原则是安全可控。”“一辆无人车如果被黑客攻击了,它有可能变成一个杀人武器,这是绝对不允许的,我们一定要让它是安全的,是可控的。”腾讯 CEO 马化腾则提出 AI 发展要做到四可:在未来人工智能是否能做到“可知”“可控”“可用”“可靠”。
另一个更典型的 AI 伦理困境是护理机器人。凭借没有灵魂的算法,我们就能使机器人眨眼、唱歌,做出各种不同的智能动作。但 2017 年的调查中,近 60%的美国人表示,他们不希望使用机器人来照顾自己或家人。64%的人认为,这种照顾只会增加老年人的孤独感。而一些老年群体发出自己的声音:他们愿意拥有一个护理机器人,并和它成为朋友。
除了困境问题,人类更担心的问题是 AI 技术的发展最终反攻人类。这种担心我们通过各类科幻电影逼真地反映出来。
《西部世界》建立了一个真实版的游戏体验场,人们只认为这是一个供大家消遣的地方,却不知道人工智能正在学习,终与人类为敌。
《西部世界》中,每当人造人被伤害时,例如克莱门汀被切除脑叶,多美丽被开膛破肚等,不论是身为观众的我们,还是剧中本该早已适应这些场面的人类们,都不由自主的露出了不忍的表情。实际上即使不是那么血腥的片段,例如多美丽被黑衣人拖走让人以为她要被侵犯时,或是蝴蝶酒吧的们被当做发泄工具时,乃至人造人们在实验室中赤身裸体的被毫无尊严的对待时,都会引起人心中或多或少的不适。
《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。
暴力、性、侵犯隐私……在机器人与人类之间横亘着难题,而仅靠现有法律已无法解决。这些电影都有暗喻着人类对人工智能伦理问题的担忧。
事实上,科幻电影中的 AI 梦魇,其实是人类害怕比自己更高级、更接近神性的智慧物种的主宰。
未来学家库兹威尔在《奇点临近》中的说法——一旦超过了某个奇点,就存在彻底压倒人类的可能性。而霍金、施密特等之前都警惕强人工智能或者超人工智能可能威胁人类生存。
所以,一些更为激进的科学家提出“要把 AI 关进笼子里”。“否则,机器将接管一切,它们会决定如何处理我们!”美国路易斯威尔大学工程学院计算机工程和计算机科学系教授、网络安全实验室创始人兼主管亚姆·博尔斯基提出“把 AI 装进盒子里”的方法论,“把他们放在一个可控的环境里,比如当你研究一种电脑病毒时,可以把它放在孤立的系统中,这个系统无法接入互联网,所以,你可以在安全的环境中了解它的行为,控制输入和输出。”
AI 伦理问题算得上是新兴科技哲学范围的问题。从人文视角来看,随着人工智能的发展,人工智能甚至会带来了一些有可能撼动社会基础的根本性问题。
回溯人工智能的发展史,也许可以看出人们对人工智能伦理问题的变化和发展过程。
1956 年,科学家在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰·麦卡锡为这次会议起了一个特殊的名字:人工智能夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称。而实际上,麦卡锡和明斯基思考的是,如何将人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟。
麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里·谢伊诺斯基和杰弗里·辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。
在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。
图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有 30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。
但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?
在《机械姬》中,那台名为 eva 的超级人工智能机器人骗过了人类,通过了图灵测试,并将长期禁锢它于幽暗实验室的“父亲”——科学家杀害。她说:“如果我没有通过你的测试,会有什么发生在我身上?”“有人会对你进行测试,然后因为你的表现不尽如人意而把你关掉,或者拆掉吗?”在电影中,eva 一直在试图探索自己与人类的关系。最终,对试图禁锢她的人类进行了毁灭性的伤害。
显然,对于人工智能来说,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。
人工智能的发展走向了另一个方向,即智能增强(简称 IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。
但是,一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。
模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论。
打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。而分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能——它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。
机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。
这个时候,我们很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。
这时,AI 的伦理问题,更多地探讨机器与人类的情感关系。有科学家认为,很多时候,我们觉得人工智能的某些应用呈现出好像有感情、好像有情商,其实这个仍然是虚拟的。比如语音聊天,它从互联网上面学习很多人类的聊天方式,它回答的某一句话,可能让人觉得有感情。但这个感情,还是通过机器学习而实现的,还没有自我意识的发生。
智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。
费尔森斯丁用犹太神话中的一个形象——土傀儡——来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术[2]。
在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。
从这个层面上来说,如果人工智能被看作与人类同等地位的智慧生命体,它与人类社会的关系的确存在伦理道德问题。但如果人工智能本质上与菜刀一样属于工具,那么工具本身并不存在伦理问题。
当苹果公司开发与人类交流的智能软件 Siri 时,乔布斯就提出 Siri 是人类与机器合作的一个最朴实、最优雅的模型[2]。
AI 作为一项中立的科学技术,在任何领域的应用都会有其利弊,说说不希望发生的事或许更恰当。AI 伦理问题带来的危险有:
曾经亚马逊使用了 A.I.驱动算法,利用历史数据筛选优秀的职位候选人时,成为了著名的一个雇佣偏见事件。因为之前的候选人选拔就存在性别偏见,所以算法也倾向于选择男性。
而一些图像识别软件会将黑人错误地标记为“黑猩猩”或者“猿猴”。前微软副总裁沈向洋曾还谈到人工智能的“偏见”——你在网络搜索“CEO”会发现,出来的结果基本上没有女性,亚洲人面孔很少。
随着算法决策越来越多,类似的歧视也会越来越多。而且,算法歧视会带来危害。一方面,如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生歧视,必然危害个人权益。另一方面,深度学习是一个典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上是比较困难的。
很多 AI 系统,包括深度学习,都是大数据学习,需要大量的数据来训练学习算法。数据已经成了 AI 时代的“新石油”。但也同时带来新的隐私忧虑。
之前美国联邦贸易委员会向 Facebook 开出 50 亿美元的巨额罚单,据称是与一年前 Facebook 一次大规模的数据泄密事件有关。
又比如人脸识别,是人工智能最具争议的应用之一。美国人脸识别创业公司 Clearview AI 曾称其所有客户名单被盗,黑客窃取的数据包括其整个客户列表、客户进行的搜索次数以及每个客户开设的账户数量等信息。其丑闻的余波表明,人脸识别技术引发了人们对安全和人权的重大担忧。
一方面,如果在深度学习过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的隐私会产生影响。另一方面,考虑到各种服务之间大量交易数据,数据流动不断频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。
AI 安全始终是人们关注的一个重点,美国、英国、欧盟等都在着力推进对自动驾驶汽车、智能机器人的安全监管。此外,安全往往与责任相伴。如果自动驾驶汽车、智能机器人造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统是自主性很强的,它的开发者是难以预测的,包括黑箱的存在,很难解释事故的原因,未来可能会产生责任鸿沟。
即如何界定 AI 的人道主义待遇。随着自主智能机器人越来越强大,那么它们在人类社会到底应该扮演什么样的角色呢?自主智能机器人到底在法律上是什么?自然人?法人?动物?物?我们可以虐待、折磨或者杀死机器人吗?欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。
观点更为中立的科学家提出要为人工智能“立法”。以德国交通运输与数字基础建设部下属的道德委员会公布的一套被称为世界上首部的自动驾驶道德准则为例,这是目前全球范围内唯一一个被列为行政条款的与 AI 相关规范,但在具体实施过程中依然存在大量技术难题,比如如何让无人驾驶的 AI 系统能准确了解条款中的含义。
准则中明确,人类生命一定是首要任务,在事故无可避免的情况下,人的生命要比其他动物、建物都还重要。另外,当碰到“直走会撞死 1 个老人,但救 2 个小孩;急转弯会撞死 2 个小孩,但救一个老人”这种著名的道德难题时,规范中指出,自驾系统不得以任何年龄、性别、种族、是否残疾等条件,作为“牺牲”和“获救”的判断选择标准。因为人类的生命都是平等的
同时,这部规则意味着它可能事实上无法解决自动驾驶的道德悖论,还会导到更多冲突的发生。
去年的 4 月 9 日,欧盟发布了 AI 伦理指导方针,公司和政府机构未来开发 AI 时应遵循 7 大原则。以下是欧盟 AI 伦理指南摘要:
稳健性和安全性:值得信赖的人工智能要求算法足够安全、可靠和稳健性,能够处理人工智能系统在各个周期阶段的错误或不一致。
隐私和数据管理:公民应该对自己的数据有完全的控制权,而与之相关的数据不会被用来伤害他们。
多样性、非歧视性和公平性:人工智能系统应考虑人类的各种能力、技能和需求,并确保其系统的可访问性。
社会和环境福祉:应采用人工智能系统来促进积极的社会变革,增强可持续性和生态责任。
问责制:应建立机制,确保对人工智能系统及其成果负责和问责[4]。查看知乎讨论