智能化战争引发伦理争议 专家呼吁警惕技术异化风险

问题——智能化工具正把战场决策推向“按钮化”“自动化”的边缘。近年来,依托卫星遥感、无人平台、雷达侦测、电子侦收及公开信息等多源数据融合的指挥体系快速发展,算法被用于目标筛选、态势研判、火力协同和损失评估等关键环节。表面上看,信息获取与处置效率提升了,但“是否打击、是否升级”等重大决定也更容易被压缩为短时间内的流程选择,人类复核与道德权衡的空间被挤占,战争门槛与节奏随之改变。 原因——数据依赖、速度竞争与责任链条断裂叠加,带来系统性风险。其一,算法结论高度依赖输入数据与标注体系。战场环境复杂、噪声密集,数据缺失、误标、伪装欺骗等都可能让模型输出偏离真实。其二,对抗中的“抢时间”逻辑强化了速度优先的激励。高强度对抗下,各方倾向于压缩“发现—确认—决策—打击”链条,以更快形成优势,“谨慎核验”容易被视为拖慢效率的代价。其三,技术分工细化带来责任分散:研发、训练、集成与操作各按流程推进,若权责界定和追责机制不清,关键判断可能在传递中被“交给”系统建议,最终落入“人人参与、无人负责”的灰色地带。 影响——误判伤及平民、冲突螺旋上升与认知空间被操控等后果值得警惕。首先,目标筛选一旦偏差,可能误伤非战斗人员和民用设施,带来更大人道代价并加剧地区动荡。其次,决策链“秒级化”容易推动冲突走向不可逆升级。过去从侦察、研判到下达命令尚有缓冲期,可用于追加核实、纠错与风险评估;而当系统持续给出下一步建议并以“窗口期”施压时,决策者可能在高压节奏中被动跟随。再次,战争正从物理打击延伸到认知对抗。深度伪造音视频、拼接图像与定向传播降低了造假门槛,可能在更短时间内制造恐慌、误导判断、撕裂社会共识,甚至干扰指挥链条与国际舆论环境,使“真假难辨”本身成为战场。 对策——守住“人类掌控”底线,完善审查机制与规则框架迫在眉睫。一是建立关键环节的人类复核与“可暂停”机制。对目标确认、打击授权、升级评估等设置刚性的人类决策门槛与多源交叉验证要求,避免将系统建议直接等同命令。二是强化算法透明度与可追溯性。建立记录数据来源、模型版本、参数变更与决策路径的审计体系,形成可回溯证据链,为问责提供技术基础。三是将国际人道法原则嵌入流程设计,突出必要性、比例原则与区分原则,建立平民风险的前置评估与红线约束。四是提升反欺骗与反伪造能力,完善舆情应对与信息核验机制,建设权威发布渠道和多方协作的事实核查体系,降低认知战对社会运行的冲击。五是推动国际层面对话与规范。围绕自主武器、人类控制程度、测试验证标准以及出口与扩散风险等议题加强沟通,探索形成兼具约束力与可操作性的制度安排。 前景——技术进步不可逆,但治理窗口仍在。可以预见,智能化应用将继续在侦察预警、后勤保障、态势预测诸上扩展,军事体系数字化、网络化、智能化的融合趋势将更明显。,若缺乏统一标准与有效约束,技术外溢、误判累积与升级冲动可能让局部冲突更易外溢并长期化。未来关键不在于是否使用有关技术,而在于能否把“速度优势”纳入法律与伦理框架,把“工具理性”置于可监督、可解释、可追责的制度轨道,避免战争在不知不觉中走向更高烈度与更低可控性。

技术进步可以压缩时间,但不应压缩责任与良知。面对人工智能深度嵌入作战链条带来的新变量,各方既要看到效率优势,也要正视误判、操纵与失控的代价。把“可控、可审、可追责”落实到制度与规则上,为高速运行的系统装上可靠的“刹车”,才能避免在追求速度的竞赛中把世界推向更高的不确定性与更危险的边缘。