美以空袭首日伊朗南部学校遭袭事件引发问责难题
美以联合对伊朗发动打击的首日,南部城镇米纳布的一所学校遭到轰炸,造成包括学童在内的超过175人死亡。华盛顿与特拉维夫均未对此事件作出说明,迄今尚无任何一方宣布负责。一个疑问持续浮现:是否人工智能系统锁定了错误目标?
自动化作战系统的演进
在最初24小时内,美军打击了约1000个目标,平均每小时42处。CSET关于第18空降军的报告显示,借助“梅文”智能系统,20人即可完成伊拉克联合空中作战中心曾需2000人团队执行的任务。至2024年末,美军已将驱动消费级AI聊天机器人的同类型大语言模型嵌入“梅文”系统,这标志着该技术首次应用于实战目标锁定环节。
美国军方表示仍在调查米纳布袭击事件,未说明AI系统在引导导弹攻击该建筑过程中是否发挥作用及具体参与程度。《纽约时报》早前报道指出,该系统可能基于陈旧数据运行。驻外记者路易莎·洛夫勒克在社交媒体透露,此次袭击或许依赖“十年前的情报”,任何查看近期公开卫星图像者都能发现,原定打击坐标中清晰显示“配有运动场的学校”。
AI视觉系统的致命盲区
计算机科学家安·托蒂·阮的研究揭示了AI视觉系统的失误规律。其论文《视觉语言模型是盲视的:无法将细节视觉特征转化为语言》发现,当两座建筑相邻时,这类系统常难以准确区分。纽约时报提供的卫星图像显示,沙贾拉·塔伊贝小学正与伊朗革命卫队驻地紧邻,恰好印证了阮研究中警示的典型场景。
当AI出现误判时,责任应当由谁承担?前海军军官、安全与新兴技术中心高级研究员艾米莉亚·普罗巴斯科指出,军事行动的责任最终归于下达指令的指挥官,这是军队运作的基本准则。她表示AI系统的“黑箱问题”——即无法追溯其决策逻辑——仍是持续研究的课题,远未得到解决。
技术伦理与军事应用的冲突
战事爆发前,为“梅文”系统提供技术的Anthropic公司曾因两项争议与国防部发生合同纠纷:其一,AI是否足够可靠以做出生死决策;其二,运用AI整合零散数据是否会使其沦为大规模监控工具。
普罗巴斯科认为这两项担忧均具现实意义,同时指出“私营公司为军事行动划定界限本身即存在矛盾性”。分析人士霍兰德·米歇尔强调,当前讨论常滑向最极端的假设——完全脱离人类干预的自主杀戮机器。他表示这种风险确实存在,但并非现实状况。“更紧迫而艰巨的任务,是提升AI系统透明度,确保依赖其输出结果的人类能做出真正知情的决策,而非盲从机器建议。”米歇尔如是说。
AI生成战争内容的泛滥
与此同时,AI生成的战争内容在网络上急速扩散。BBC核查团队追踪到多条关于冲突的AI伪造视频与篡改卫星图像,累计获得数亿浏览量。昆士兰科技大学数字媒体研究员蒂莫西·格雷厄姆指出:“其规模已达到令人警醒的程度,这场战争使问题再无法被忽视。过去需要专业团队制作的视频,现在借助AI工具数分钟即可完成,制造逼真假战况影像的门槛已彻底崩塌。”
多家社交平台已对此作出反应。某平台宣布若创作者发布未标注的AI生成战争影像,将被移出创作者收益计划。牛津互联网研究所伊朗问题研究员玛赫萨·阿里马尔达尼称此举“表明平台方已意识到问题的严重性”。在被问及是否会采取类似措施时,其他主流社交平台尚未作出回应。

