北约发布首个人工智能战略
人工智能(AI)正在改变全球国防和安全环境,为此,北约国防部长发布了该技术的首个战略,以负责任的方式促进其开发和使用。
以下是北约在国防中负责任地使用人工智能的原则:
A. 合法性: 将根据国家和国际法(包括适用的国际人道主义法和人权法)开发和使用人工智能应用程序。
B. 责任和问责: 人工智能应用程序的开发和使用将具有适当的判断和谨慎水平;应适用明确的人为责任,以确保问责。
C. 可 解释性和可追溯性: 人工智能应用程序将具有适当的可理解性和透明度,包括通过使用审查方法、来源和程序。这包括北约和/或 国家层面的验证、评估和验证机制。
D. 可靠性: AI 应用程序将具有明确的、定义明确的用例。此类功能的安全性、保障性和稳健性将在这些用例的整个生命周期内进行测试和保证,包括通过既定的北约和/或 国家 认证程序。
E. 可 治理性: 人工智能应用将根据其预期功能进行开发和使用,并允许: 适当的人机交互;检测和避免意外后果的能力;以及在系统表现出意外行为时采取措施的能力,例如脱离或停用系统。
F. 偏差缓解: 将采取积极措施,尽量减少人工智能应用程序和数据集的开发和使用中的任何意外偏见。
新战略还旨在加速和主流人工智能在能力开发和交付中的采用,增强联盟内的互操作性。北约鼓励保护和监控其成员使用的人工智能技术。
该联盟警告威胁行为者恶意使用人工智能,并敦促采取措施和技术来识别和防范这些威胁。
北约盟国已经确认了七个高度优先的国防和安全技术领域,包括人工智能。这些技术包括量子技术、数据和计算、自主、生物技术和人类增强、高超音速技术和空间。
北约强调以合乎道德的方式处理这些技术的重要性,所有这些技术都是双重用途且非常普遍。
“一些国家和非国家行为者可能会寻求利用我们人工智能技术中的缺陷或限制。盟国和北约必须 努力保护人工智能的使用免受此类 干扰、操纵或破坏, 符合负责任使用的可靠性原则,同时利用支持人工智能的网络防御应用程序。” 宣布结束。“盟国和北约应为人工智能制定足够的安全认证要求,例如特定的威胁分析框架和为‘压力测试’目的量身定制的安全审计。人工智能可以影响关键基础设施、能力和民事准备——包括北约七项弹性基线要求所涵盖的那些——创造潜在的漏洞,例如网络空间、 这可能会被某些国家和非国家行为者利用。”
