鉴于上述风险和挑战,可能有必要对在军事决策中使用 AI DSS 采取进一步的措施和限制,特别是在可能对人员造成伤害或死亡或对物体造成损害的情况下,以及更普遍的在决策受国际人道主义法管辖的情况下。最近发表的报告(一份专家咨询报告和一份红十字国际委员会委托的顾问报告)提出了其中的一些措施和限制。值得注意的是,在武装冲突中使用武力的军事决策中维护人类的判断力,可能需要采取新的方法来应对人类与 AI DSS 之间互动所产生的现有挑战,以及与使用 AI DSS 有关的技术要求。有些方法可能有助于解决现有的技术挑战(如可预测性、可理解性和偏差),而另一些方法可能有助于提高人类决策者批判性地参与和使用 AI DSS 输出的能力(如减轻自动化偏差)。例如,AI DSS 的设计和使用需要允许人类用户理解和质疑系统的输出。要做到这一点,可以让人类用户根据另一来源的数据对 AI DSS 的输出结果进行交叉核对,并确保用户保留足够的时间和空间批判性地参与系统输出,以维护人类在敌对行动决策中的判断和深思熟虑。可能还需要某些限制,例如将 AI DSS 的使用限制在某些明确界定的任务和/或某些情况下。此外,鉴于军方对在 DSS 中集成 ML 的兴趣与日俱增,在使用这些系统执行指令性任务(如建议行动方案)或进行预测(如预测某些个人或团体的行动所带来的风险)时,需要特别谨慎。根据 AI DSS 输出的训练数据,在使用武力的军事决策中使用此类建议或预测的合法性可能会受到质疑。AI DSS 的某些用途也可能被完全排除。一个明显的例子是,绝不能将此类工具纳入核武器指挥和控制系统。由于具有持续学习功能的 AI DSS 特别难以预测,限制其使用可能也是必要的。希望这些建议和考虑能够为国际和国家层面关于武装冲突中人工智能军事应用的国际法和政策的应用和可能的进一步发展的辩论提供参考。近年来,多方利益相关者关于人工智能军事应用国际治理的讨论有了显著发展,特别是在军事领域负责任的人工智能(REAIM)峰会上(首届会议于 2023 年 2 月在海牙举行,第二届会议即将于 2024 年 9 月在首尔举行)。尽管如此,从十年前开始,《特定常规武器公约》致命性自主武器系统政府专家组和最近的联合国大会(第 78/241 号决议)就已触及人工智能和 ML 在武器系统中的应用。一些国家和军队最近制定了人工智能原则和政策,以规范军事应用,包括美国的《关于负责任地在军事上使用人工智能和自主权的政治宣言》、中国的《全球人工智能治理倡议》、法国国防部的《人工智能支持国防报告》、英国的《国防人工智能战略》、日本防卫省的《促进使用人工智能的基本政策》以及北约的《人工智能战略》。所有这些以及未来的任何努力都应有助于确保 AI DSS(包括基于 ML 的 DSS)在军事决策中始终是帮助和支持人类的手段,而不是阻碍或取代人类的手段。在对受武装冲突影响者的生命和尊严构成风险的决策中保留人类的判断力,对于维护道德价值观和确保尊重适用法律(包括国际人道主义法)至关重要。 本文来源:专知智能防务