半岛彩票美国《国会山》日报网站10月8日刊登题为《人工智能心跳调节:人类与时间的赛跑》的文章,作者是美国防务创新委员会人工智能研究分析师乔·布奇诺。全文编译如下:
快速发展的人工智能(AI)为社会最棘手的问题提供了无尽的希望。每天这些系统都变得更加智能、强大和胜任自己的工作。人工智能模型将在未来几年加速开发能够拯救生命、塑造社会的药物。人工智能平台将更准确地预测极端天气事件和气候模式的变化。
超级机械化算法将很快能够分析来自广阔景观中的“物联网”设备的数据,优化灌溉、肥料使用和害虫控制,从而提高作物产量和发展中国家的粮食分配效率。
尽管如此,这种改变社会的前景也为两个灾难性的风险敞开了大门:恶意行为者的滥用以及机器学习系统摆脱开发人员控制的可能性。降低这些风险需要规范人工智能的硬件基础。
恶意行为者滥用的危险既包括大规模的超强虚假信息活动,也包括毁灭性的网络攻击。前者已经很容易通过当前的大语言模型搭配聊天机器人大军来实现。两者都可能造成混乱,迷惑大众,或伤害另一群人类。如果图谋不轨的人类行为者掌握了充足的人工智能工具,那么美国民主制度的削弱、国家军事响应机制的破坏以及灾难性的股市都有可能发生。
第二个风险即失控的人工智能,是全人类面临的威胁。在这里,风险不是由人类构成的,而是由自我改进的人工智能训练其他人工智能造成的。在这个噩梦般的场景中,人工智能训练自己获得相对于全人类的优势,进而击败人类。
今天的人工智能不会对人类构成生存风险。然而,人工智能有可能以前所未有的方式超越人类的能力,这使得预测或确保控制人工智能的持续发展或扩散变得具有挑战性。一套接受过智能训练且以人类行为为模型的人工智能系统,可能会发展出自己的目标,而不限于人类统治者规定的目标。
接下来,这样的系统可以训练其他人工智能系统来欺骗人类程序员。然后,人工智能可以控制资源、权力和影响力。在最坏的情况下,国际经济市场严重中断、大规模停电甚至调动针对人类的军事力量,最终可能都会成为人工智能系统能力所及之事。
虽然领先的人工智能公司最近同意为这项技术建立护栏,但目前还没有针对人工智能的具体立法或规定。减轻这些灾难性威胁需要对人工智能监管采取战略性和前瞻性的方法。它还要求国际社会共同努力。与对抗气候变化最具危害性的后果一样,在这方面单边行动是不够的。这种努力必须优先考虑对计算的控制和治理。计算是人工智能研究和开发的基本组成部分。
计算是人工智能创新的命脉:开发人员拥有的计算能力越多,其人工智能创造成果就越强大、越有影响力。高级人工智能模型训练需要大量的计算,通常依靠图形处理单元或其他专用芯片来完善神经网络。限制对这些先进芯片的访问或限制批量购买标准芯片可以限制人工智能的发展。
对算力的监管可以防止不良行为者获得大量计算资源并为邪恶目的释放强大人工智能技术的风险。
在人工智能的开发中,硬件是政府可以合理监管的唯一环节。数据和算法能够以政府监控系统无法检测到的方式传输和存储。然而,人工智能芯片是有形的、可跟踪的和可管理的。此外,计算资源是不可实时复制的。虽然算法很容易复制和共享,但在任何给定时刻只有一个用户可以使用特定的芯片。此外,只有少数关键参与者主导着复杂的全球芯片生产过程,这表明有凝聚力的联盟可以为人工智能芯片进口设定安全基准。
为了防止人工智能不受限制地进步,监管机构应该监督高性能芯片的收购。1957年,在核军备竞赛的早期时刻,艾森豪威尔总统鼓励国际社会成立国际原子能机构,负责监督和管理可用于制造核武器的浓缩铀等材料的转让。同样,今天国际社会建立一个国际机构来规范大量芯片的转移,以对冲神经网络最具破坏性的力量。
具有隐喻意义的人工智能末日钟表越来越接近午夜。人工智能的每次进步,虽然都有望带来前所未有的解决方案,但也带来了潜在的危险,在把末日钟表的分针向前推进。
计算资源的监管不仅仅是一种预防措施;它是一种让时钟倒流的机制,为我们安全和负责任地利用人工智能潜力提供宝贵的时间。
为此,人类可以建立一个国际机构。正如我们过去采取集体行动来应对生存威胁一样,我们现在必须团结起来,确保人工智能的曙光造福于人类,而不是危及人类。