网站首页

星空官网产品中心

半岛智能终端处理器 半岛智能云服务器 半岛软件开发环境

星空官网新闻中心

关于我们星空官网

公司概况 核心优势 核心团队 发展历程

联系我们星空官网

官方微信 官方微博
星空官网 > 星空官网产品中心 > 半岛智能终端处理器

采取更强有力行动防范AI风险星空体育官方网站

发布时间:2024-05-22 12:22浏览次数: 来源于:网络

  星空体育官网平台因为这是人类第一次由一个庞大的国际顶尖专家组,就先进AI的风险推进全球政策制定。

  人们已清晰认识到:我们离不开AI,亦需要大力推动AI技术发展,但我们必须有能力防范其中的风险。

  自6个月前在英国布莱奇利公园举行第一届AI安全峰会以来,世界各国领导人承诺以负责任的方式管理AI,但是AI专家认为这依然不够。随着第二届AI安全峰会(5月21日至22日)在韩国首尔举行,25位世界顶尖AI科学家呼吁,全世界应对AI风险采取更强有力的行动。

  发表于《科学》杂志的一份专家共识文章中,专家组概述了全球应采取的紧急政策优先事项。文章作者之一、英国牛津大学工程科学系教授菲利普托尔表示:“在上届AI峰会上,世界一致认为我们需要采取行动,而现在是时候将模糊的建议转变为具体的承诺了。”

  这25位全球顶尖的AI及其治理专家来自中国、美国、欧盟、英国和其他AI技术强国,其中包括图灵奖获得者以及诺贝尔奖获得者。这也是首次由国际专家组就AI风险的全球政策制定达成一致星空体育官方网站。

  文章指出星空体育官方网站,全球领导人需认真考虑,在未来十年内可能开发出超越人类能力的通用AI系统。他们表示,尽管世界各国政府一直在讨论先进AI,并尝试引入初步指导方针,但这与许多专家期望的快速、变革性进展仍有距离。

  目前关于AI安全的研究严重缺乏,只有1%3%的AI出版物涉及相关安全问题。此外,全球没有适当的机制或机构来防止滥用和鲁莽行为,包括如何使用能独立采取行动和自行实现目标的自治系统星空体育官方网站。

  文章建议,各国政府需建立可快速行动的AI监管机构,并为这些机构提供资金。美国AI安全研究所目前的年度预算为1000万美元,听起来并不少,但相比之下,美国食品和药物管理局(FDA)的预算达67亿美元。

  AI领域需要更严格的风险评估并制定可执行的措施,而不是依赖一些不甚明确的模型评估。应要求AI研发企业优先考虑安全性,并证明其系统不会造成伤害,AI开发人员要承担起证明安全性的责任。

  人们还要有一个与AI系统带来的风险水平相称的缓解办法,解决之道是制定一个“自动”政策,当AI达到某些能力里程碑时“自动触发”如果AI发展迅速,这一严格的要求就会自动生效;如果进展缓慢,要求将相应放缓。

  对于能力超凡的未来AI系统,政府必须作好带头监管的准备。这包括许可开发,限制其在关键社会角色中的自主权,停止部署部分能力,强制执行访问控制,以及要求对国家级黑客采取强有力的信息安全手段,直到人们准备好足够的保护措施。

  不列颠哥伦比亚大学AI教授、强化学习领域专家杰夫克伦纳表示,太空飞行、核武器和互联网等技术在数年内就从科幻变成了现实,AI也不例外。“我们现在必须为那些看似科幻小说的风险做好准备”。

  现在,AI已经在黑客攻击、社交操纵和战略规划等关键领域取得了快速进展,并可能很快带来前所未有的关于“控制”的挑战。AI系统可能会为了实现某个“不良目的”而骗取人类信任、获取资源并影响关键决策者星空体育官方网站。为了避免人为干预,它们还可以在全球服务器网络上复制自身算法。

  在这种情况下,大规模网络犯罪、社会操纵和其他危害会因此迅速升级。而在公开冲突中星空体育官方网站,AI系统能自主部署各种武器,甚至包括生物武器。因此,当AI的进步不受控制,很可能最终导致大规模生命损失、生物圈破坏、人类边缘化甚至灭绝。

  美国加州大学伯克利分校计算机科学教授斯图尔特卢塞尔表示:“此次是权威专家的共识文章,其呼吁政府严格监管,而不是自愿制定一些规范行业的行为。”

  “企业可能抱怨说满足这些法规太难,但所谓法规扼杀创新的说法是荒谬的。”卢塞尔这样说,“是时候认真对待先进AI系统了,它们不是玩具。在我们了解如何确保它们的安全性之前,轻易增强它们的能力是完全鲁莽的行为。”(科技日报)

  成都市12345“亲清在线”直播间·高新专场:解读关于推动成都未来科技城主导产业“建圈强链”政策 助力构建亲清新型政商关系

下一篇:星空体育官网平台人工智能首尔峰会召开OpenAI等16家AI公司作出了什么安全承诺?
上一篇:星空体育网站入口欧盟最终批准全球首部人工智能法律

咨询我们

输入您的疑问及需求发送邮箱给我们