半岛彩票“现在计算机和人工智能可以帮助我们做很多重要的事,逐渐渗透到日常生活和工作中,但是人工智能也面临‘信任危机’,人们需要更加‘可信’的人工智能。”在2023西丽湖论坛上,硅谷人工智能研究院创始人、《硅谷百年史》《智能的本质》《人类2.0》作者皮埃罗·斯加鲁菲说道。
11月15日上午,2023西丽湖论坛在广东深圳大学城国际会议中心拉开帷幕,多位企业界领袖与教育界精英集聚西丽湖论坛,分享对前沿科技的观察与思考。
开幕式上,皮埃罗·斯加鲁菲以《技术突破与可信赖的人工智能》为题作了主旨报告。他认为,人工智能的安全和可靠非常重要,这需要在人工智能系统开发的每一个步骤确保它的可靠性,保证技术的安全、可信,最终建立可信赖的人工智能。
皮埃罗·斯加鲁菲表示,人工智能基于Transformer的新架构,与传统架构非常不同。过去,人们问计算机任何一个问题,得到的将是精准的答案,比如3+5=8,中国的首都为北京,等等。然而,如今当我们问Chatgpt一个问题,将会得到千奇百怪、不同的答案。“它们不再能给我们精准答案,因此我们需要去猜测,也便带来了信任问题。”皮埃罗·斯加鲁菲说。
皮埃罗·斯加鲁菲进一步解释,现在对于“信任”的定义是多元的,包括可靠性、安全性、安保性、隐私性、可用性、易用性,需要解决的问题也很多。例如,系统是否在做正确的事?是否会造成危害?系统易受攻击的程度如何?是否保护个人的身份和数据?当人们需要访问系统时,系统是否正常运行且能供人们轻松使用,等等。
如何达成可信赖的人工智能?目前,加强人工智能安全与伦理管理是各个国家和地区发展人工智能技术中重点关注的议题,包括欧盟、中国等在内的国家地区都已发布相关的法律法规。皮埃罗·斯加鲁菲分享了由美国国家标准和技术研究所制定的可解释人工智能系统必须满足的四大原则:即能为结果和过程提供附带的证据或原因,提供个人用户可以理解的解释,提供正确反映系统生成输出这个过程的解释,以及仅在其设计的条件下运行并对其输出结果有足够的信心。
皮埃罗·斯加鲁菲表示,人类将面临一轮人工智能生成式文本的大爆发,但它们有时候是不可靠的,会为我们提供一些不准确的答案,需要进行有效识别和校正。他进一步分享了学界和业界所进行的一些探索,例如开发一些工具用以检测哪些内容是由人工智能生成的。
“对我来说,能够帮助我们达成可信赖的人工智能工具,至少需要在内容中加以标注,表示这是人工智能生成的内容,供使用者自己去辨别。”皮埃罗·斯加鲁菲说。
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担