因此鉴于机器人技术和人工智能的现状

Dive into business data optimization and best practices.
Post Reply
pappu6329
Posts: 259
Joined: Sat Dec 28, 2024 3:14 am

因此鉴于机器人技术和人工智能的现状

Post by pappu6329 »

将这些合法使用要求应用于自主武器系统并非没有复杂性。1949 年《日内瓦公约》及其 1977 年《附加议定书》无疑是在考虑国家和个人作为行使和实施由此产生的权利和义务的主体的情况下制定的。此外,国际人道法的许多关键规则都假定应用评估性决定和价值判断,例如在“有疑问”的情况下推定平民身份(见《国际人道法》第 50(1) 条和第 52(3) 条)、评估与预期军事优势相关的预期附带损害的“过度性”,背叛国际人道法中关于禁止背信弃义的“信任”,以及禁止破坏平民财产,除非战争必要“迫切”要求(见《海牙规则 IV》第 23(g) 条和《日内瓦公约 IV》第 53 条)。预防原则甚至明确提到“那些计划或决定进行”袭击的人(见印度法典第 57(2)(a) 条),而确定严重违反国际人道法行为的刑事责任的规定也是基于对人类行为的明显推定(见日内瓦公约第 49/50/129/146 条以及印度法典第 V 部分第 II 节)。

此外,所有交战方“在任何情况下”都“尊重并确保尊重”国际人道法这一总体义务似乎意味着,他们还有一项衍生义务,即对自主武器系统的开发和/或使用进行充分控制或监督,以确保完全遵守国际人道法并防止出现现行国际法规定的非法结果。根据这项义务,毫无争议的是,必须采取准备措施以允许实施国际人道法,并且应监督实施情况(见此处对《国际人道法》第 1 条(第 41 段)的评论和《国际人道法》第 80 条,其中要求缔约方和冲突各方“采取一切必要措施履行其义务”,“下达命令和指示以确保遵守”并“监督其执行”)。

现在很难想象会出现一种自主 日本资源 武器系统,它能够完全遵守现有国际人道法所产生的所有义务,并在武力使用过程中,特别是在瞄准周期中,不受任何人为控制,从而可靠地运行。

因此,基于此,问题不在于国家是否有责任控制或监督自主武器系统的开发和/或使用,而在于应如何有效地定义和实施这种控制或监督。例如,依靠高级编程和严格的可靠性测试是否足以使自主武器系统在其预期的操作参数上可预测地符合国际人道法?如果是,是否可以将人类的参与限制在这种自主武器系统的正确启动上?本工作文件并不试图预先判断这些问题。

然而,认识到控制可以以各种不同的方式实施是有益的,既可以独立实施,也可以组合实施。可以说,在未来,可以在开发和编程阶段施加相当大的控制。通过在武器审查过程中测试和评估自主武器系统,还可以加强此类系统的可预测性和可靠性。通过根据系统的合规能力限制自主武器系统的交战参数,也可以提高可预测性和可靠性。根据操作要求和系统能力,可以通过实时监督或通过自主或人工操作的超控机制实施进一步的控制,以避免故障或确保安全故障。评估与现有武器系统相关的这些参数等,可能有助于更好地理解在开发和使用军事用途的自主武器系统时确保遵守国际人道法的适当方法。例如,那些预计在有限的人类控制下运行的现有武器系统,例如某些诱杀装置,通常受到地理区域和使用方式的严格限制。可以评估此​​类限制对于具有更大、更复杂自主性的系统的适用性,以了解其在国际人道法遵守方面的相关性。
Post Reply