上周在奥地利维也纳,一场聚焦人工智能与军事技术融合的国际会议吸引了来自全球100多个国家和地区的官员参与。会议探讨的主题暗示,随着人工智能驱动的致命性自主武器系统逐步进入实战,这可能标志着继火药和核武器之后的又一次军事变革。
近期,半岛电视台的报道揭示了一个名为“薰衣草”的AI作战系统正由以色列陆军在加沙地带测试。该系统能够迅速确定打击目标的时间、地点和方法,展示了AI在军事行动中的应用深度。
报道详细说明了“薰衣草”系统在实战中的角色,它被用于识别并锁定数千名巴勒斯坦人为潜在轰炸目标,特别是关联哈马斯的人员。据透露,以色列情报官员证实该系统在冲突初期发挥了关键作用,而人工审核往往仅是形式上的确认,平均每位目标的审核时间不超过20秒,主要确保目标性别为男性,缺乏对AI判定错误的有效监督。
随着冲突进展,以色列军方对“薰衣草”系统的依赖加深,其杀戮名单从辅助工具转变为行动依据。尽管系统存在约10%的误差率,但其在识别低级别哈马斯成员方面的速度受到重视。据报道,这导致数以万计的巴勒斯坦人被标记为武装分子并遭受打击,引发了广泛的生命损失和国际社会对平民伤亡的严重关切。
对此,以色列军方回应称其目标选择过程遵循国际法,否认“薰衣草”是具备自主决策能力的系统,强调其仅为情报整合工具。不过,有消息称,在特定行动中,为了击毙一名哈马斯高级官员,军方允许的平民连带死亡人数可高达100人,显示了在执行任务时采取的高风险策略。
联合国人权专家和人工智能学者均对使用AI进行目标瞄准提出法律和伦理质疑,认为某些行为可能构成战争罪。国际社会在面对AI武器带来的挑战时,正如会议中提及的“奥本海默时刻”隐喻,正站在一个关乎全球安全与道德抉择的十字路口,寻求国际合作与监管成为当务之急。