2019年10月,美国国防创新委员会( Board)发布《人工智能准则:推动国防部以符合伦理的方式运用人工智能的建议》报告。2020年2月24日,美防长正式签署这一文件,使其成为美国防部在人工智能伦理领域的官方政策。作为美军推出的世界上第一份军事领域的人工智能伦理准则,该报告对于研究美军和人工智能军事伦理规范具有重要参考价值,故将其重要内容编译如下,以飨读者。
01、
为什么美国防部要制定军事人工智能伦理准则问题?
该报告认为,人工智能正深刻改变社会,影响经贸、社交和作战的方式。在许多方面,人工智能领域正处于蓬勃发展的阶段。近年来计算领域的快速发展使得数十年来一直停留在理论层面的人工智能在应用上取得了显著进展。然而,人工智能的实际应用往往是脆弱的,人工智能相关学科也在不断发展,使得关于人工智能使用的规范还处于起步阶段。在全球范围内,公共部门、私营企业、学术界和公民社会正在就人工智能的前景、危险和如何适当使用等问题展开持续辩论,国家安全也是争论的一个重要方面。现在是时候在人工智能兴起的早期阶段、在事故发生之前,就人工智能发展的规范和在军事环境中的使用进行严肃的讨论。
美国《2018年国防战略》要求国防部加大对人工智能和自主性的投资,为美国提供具有竞争力的军事优势。国防部的人工智能战略与国防战略相适应,认为国防部正致力于挖掘人工智能的潜力“积极推动部门转型,从而支持和保护军人、保卫美国公民、维护盟友和伙伴、提高负担能力、效率和速度”。美国防部人工智能战略进一步指出,它“将阐明以合法和合乎道德的方式使用人工智能的愿景和指导原则,以增强我们的价值观。”国防部强调有必要加强与学术界、私营企业和国际社会的接触和交流,以“促进人工智能在军事领域运用中的伦理和安全”,并强调其对开发和部署人工智能的伦理和负责任的承诺。“引领军事人工智能伦理和安全”是该战略的五大支柱之一。
02、
美国防部的五大人工智能伦理准则
美国防部提出了人工智能军事应用的五大原则,分别是:
1.负责任的()。
对国防部人工智能系统的开发、部署、使用和结果,人类应进行一定判断并为之负责。
2.公平的()。
国防部应采取审慎的行动,避免在开发战斗或非战斗人工智能系统时出现意外偏差和无意中对人造成伤害。
3.可追溯的()。
国防部的人工智能工程学科应足够先进,以便技术专家对其人工智能系统的技术、开发流程和操作方法有适当的了解,包括透明和可审核的方法、数据源以及设计程序和文档。
4.可靠的()。
国防部人工智能系统应具有清晰和明确定义的使用领域,并且此类系统的安全性、安全性和鲁棒性应在其整个生命周期内进行测试和保证。
5.可管控的()。
国防部人工智能系统的设计应满足其预期功能,同时具有检测和避免意外伤害或中断的能力。
03、
美军将如何推动这五大原则的落地?
该报告还为美国防部推行人工智能伦理准则的落实提出了12条建议,具体如下。
1.通过国防部的官方渠道正式确定这些原则。
联合人工智能中心应向国防部长建议适当的沟通和政策发布,以确保这些人工智能伦理准则的持久性。
▲2019年2月24日,美国防部正式采用这五大原则
2.建立一个国防部范围的人工智能指导委员会。
国防部副部长应建立一个高级委员会向他/她报告,负责确保监督和执行国防部人工智能战略,并确保国防部的人工智能项目符合国防部的人工智能道德原则。坚持人工智能伦理原则要求国防部将它们集成到决策的基本方面,从概念层面(如)到更有形的人工智能相关领域,如数据共享、云计算、人力资本和IT策略。
3.培育和发展人工智能工程学科。
负责研究、工程与服务的国防部副部长办公室(OUSD)应通过建立国防部长期以来培养的健全工程实践支持人工智能工程学科的成长和成熟,使从事人工智能研究的群体更为广泛,为早期职业研究人员提供具体操作的机会,并将该部门的安全和责任传统融入人工智能领域,将人工智能技术纳入更大的领域复杂的工程系统。
4.强化国防部培训和劳动力计划。
各军种、作战司令部、国防部长办公室下属部门、国防机构、国防现场活动应建立与各自国防部人员相关的人工智能技能和知识培训教育计划。各种培训计划应向从初级人员到人工智能工程师再到高层领导等广大人员广泛提供,利用现有数字内容并结合领导和专家的专门指导。初级军官、应征入伍人员和文职人员在工作初期必须要进行人工智能培训教育,并且国防部在其整个职业生涯期间通过正式职业军事教育和实际应用提供继续学习机会。
5.加大对研究人工智能带来的新型安全问题的投资力度。
负责政策的国防部副部长办公室(The of the Under for )和净评估办公室(the of Net )应该对人工智能时代的战略竞争和新型威慑领域进行重点投资,特别是与网络安全、量子计算、信息战或生物技术等其他领域相结合时。需要重点加强的领域包括人工智能竞争性和升级动态、避免危险扩散、对战略稳定的影响、威慑选择以及国家间作出积极承诺的机遇。
6.加大对提高可重复性的相关研究。
负责研究与工程的国防部副部长办公室(OUSD(R&E)应投资于使人工智能系统具有可重复性的相关研究。人工智能在这一领域所面临的挑战,为国防部致力于研究复杂人工智能模型的具体机理提供了机遇。这项工作还将有助于解决人工智能的“黑箱”问题。
7.制定可靠性的具体基准。
负责研究与工程的国防部副部长办公室(OUSD(R&E))应探索如何最好地制定适当的基准,以衡量人工智能系统的性能,包括相对于人类来说的性能。
8.强化人工智能测试和评估技术研究。
在开发测试与评估办公室(the of Test & ,ODT&E)的领导下,国防部应使用或改进现有的测试、评估和验证程序,并在必要时为人工智能系统创建新的基础设施。这些程序应遵循国防创新委员会“软件获取与实践”(SWAP)研究中详述的软件驱动的T&E指南。
9.研究风险管理的具体方法。
联合人工智能中心应根据其道德、安全和法律风险考虑,创建国防部使用人工智能的分类。此分类应鼓励和激励在低风险应用中迅速采用成熟技术,并强调和优先考虑更加谨慎地审查不太成熟和/或可能导致更重大不利后果的应用。
10.确保正确实施人工智能伦理原则。
联合人工智能中心应评估这些原则和任何有关指令的适当实施情况,作为2019年《国防授权法》第238节或其他未来指示所要求的治理和监督审查的一部分。
11.展开了解如何实施人工智能道德原则的研究。
负责研究与工程的国防部副部长办公室(OUSD(R&E))应与各军兵种的研究办公室合作,共同组织一个“多学科大学研究计划”(MURI)项目,研究人工智能的安全性、安全性和稳健性。MURI项目应当作为在这些领域进行持续的基础和学术研究的起点。
12.召开关于人工智能安全和鲁棒性的年会。
鉴于人工智能广泛领域的快速演变性质,联合人工智能中心应召开年会,研究人工智能安全和鲁棒性等方面的伦理问题,广泛听取内外部的意见。