网站首页

半岛彩票产品中心

半岛智能终端处理器 半岛智能云服务器 半岛软件开发环境

半岛彩票新闻中心

关于我们半岛彩票

公司概况 核心优势 核心团队 发展历程

联系我们半岛彩票·(中国)官方网站

官方微信 官方微博
半岛彩票·(中国)官方网站 > 半岛彩票产品中心 > 半岛智能终端处理器

半岛彩票苏纳克在AI峰会上警告:人工智能可能给人类带来与核战争规模相当的风险

发布时间:2023-11-02 21:19浏览次数: 来源于:网络

  半岛彩票【环球网报道 记者 张晓雅】11月1日,首届全球人工智能(AI)安全峰会在英国拉开帷幕,为期两天的会议在布莱切利庄园举行。据英国《卫报》最新消息,英国首相苏纳克2日在会议期间警告说,AI可能会给人类带来与核战争规模相当的风险。

  苏纳克在首届全球人工智能(AI)安全峰会会议期间警告称,人工智能可能给人类带来与核战争规模相当的风险 图自天空新闻网

  《卫报》称,苏纳克表示,他对先进的AI模型给公众带来的风险感到担忧。报道说,这与该领域内一些资深人士最近发出的警告相呼应。

  “开发这项技术的人们已经提出了AI可能带来的风险,重要的是不要对此过于危言耸听。关于这个话题存在争议。业内人士对此看法并不一致,我们也无法确定。”苏纳克告诉记者,“但有理由相信,它可能会带来与大流行病和核战争规模相当的风险,这就是为什么,作为领导人,我们有责任采取行动,采取措施保护人民,这正是我们正在做的事情。”

  报道说,苏纳克希望获得包括美国、欧盟、日本和加拿大在内的多国政府同意,就如何在AI工具发布之前进行合作、以测试其安全性达成协议。

  报道还提到,苏纳克的话呼应了美国企业家马斯克的说法。马斯克在11月1日的会议上表示,人工智能是“对人类最大的威胁之一”。

  《卫报》提到,此次峰会开始时,正式发表了一份由英国、美国、欧盟和中国在内的28个政府达成的《布莱切利宣言》,这是全球第一份针对人工智能这一快速新兴技术的国际性声明,旨在关注对未来强大人工智能模型构成人类生存威胁的担忧,以及对人工智能当前增强有害或偏见信息的担忧。

下一篇:半岛彩票中方派代表出席人工智能安全峰会
上一篇:半岛彩票工信部:开发基于人工智能大模型的人形机器人“大脑”

咨询我们

输入您的疑问及需求发送邮箱给我们