迅速到来的军事机器人革命是空前的。这些技术带来了伦理、法律、政策等问题,可能构成在某些人看来关乎生死存亡的一种危险。
(模式化先进武器机器人系统)
联合国《特定常规武器公约》(CCW)相关会议已经进行了有关致命自动武器的讨论,该公约禁止或限制一些被认为会引起不合理痛苦的武器。 CCW去年11月一场会议召集了一批政府专家和阻止杀手机器人运动组织的非政府组织代表。阻止杀手机器人运动组织希望达成一项具有法律约束力的国际条约,禁止使用致命自动武器,就像此前禁止集束弹药、地雷和致盲武器一样。
棘手的是,自动武器包括从能够有选择性地瞄准的导弹到具有能够决定打击谁、何时打击以及如何打击等认知技能的学习型机器等一系列武器。大多数人认为,当使用致命武器时,应当由人来负责启动。但要确定哪类人工控制是适宜的则更为棘手,并且相关技术发展太快,导致国际外交无法跟上形势。
令情况更加复杂的是,人工智能和自动机器最引人注目的进展正由具有商业动机的私企实现。即使能够达成禁止军用机器人的协议,催生自动武器的技术也会很快普及并容易转让。
防务分析人士彼得·辛格指出,人工智能竞赛由不可阻挡的力量驱动:地缘竞争、知识前沿领域的科学动力以及追求利润的科技企业。因此,是否能抑制人工智能竞赛一些更令人不安的方面以及如何抑制成为问题所在。简单来说,一个令大多数人惊恐的想法是让能够思考的机器自行选择是否杀死人类。而且,尽管有关机器人暴动的终极噩梦仍是小说,但其他担忧则具有现实性。
专家保罗·沙雷担心自动系统可能因代码编写质量不高或对手发动网络攻击而失灵。这可能致使机器人攻击人类部队,或导致局势快速升级,以至于人类无法做出反应。自动武器的可靠性非常难以。会思考的机器可能以人类操控者从未设想过的方式行事。
关于与机器人系统“合作”的讨论大多围绕人类在“观察、调整、决策、行动”(OODA)这一决策循环周期中所处的位置。一架遥控武装“死神”的操控人员处于OODA循环以内,因为他决定无人机飞往何处以及飞抵目的地时采取何种措施。相比之下,有人类跟踪OODA循环的系统会在无人操控的情况下完成大部分任务,但人类可随时介入,例如在目标已经改变的情况下放弃任务。完全自动化的系统(操控人员仅需按下启动按钮)负责执行全部任务,包括目标选择,则处于OODA循环以外。
美国前国防部副部长詹姆斯·米勒说,尽管美国将设法让人类处于OODA循环之内或跟踪OODA循环,但对手可能不会这样。
米勒认为,如果自动系统在竞争激烈的地区执行任务,让机器全权负责的诱惑将变得难以阻挡。
- LTC3630AHDHC 4V 至 63V 输入至 -12V 输出、正负转换器的典型应用电路
- LM393电压比较器 光电开关/光敏感应 2合1模块
- LT1117IST-3.3 用于遥感的低压差正稳压器的典型应用
- LTC4150 的典型应用 - 库仑计数器/电池电量计
- DS51510A,用于服务器微处理器电源监控的演示板
- BW6101超级电容充电板
- 用于电池充电指示器的 NCP300LSN30T1 3V 电压检测器的典型应用
- 使用 Diodes Incorporated 的 ZR78L12 的参考设计
- 卫星:具有VL53L0X的微型PCB,可轻松集成到客户设备中
- 用于消费电子产品的密封铅酸电池充电器