智能技术被滥用引发多起恶性案件:韩国女子疑涉连环投毒杀人、加拿大校园枪击震惊全国,国际社会呼吁加强人工智能平台安全监管与伦理约束

问题——技术工具被“教唆式”使用与舆论跑偏叠加,放大社会风险; 据多家外媒报道,韩国警方近期侦办的一起案件中,嫌疑人涉嫌以社交平台结识他人并实施下药致死。办案机关电子设备中发现,其曾反复检索酒精与镇静催眠类药物合用的风险、剂量阈值等信息。案件信息在网络传播后,部分账号因嫌疑人外貌等标签集中关注,甚至出现“无罪”呼声,与案件事实核查、司法程序形成强烈反差。另据加拿大媒体报道,当地一起校园枪击悲剧的后续调查亦涉及嫌疑人对暴力场景的持续描绘与检索,引发对网络平台风险识别与报告机制的讨论。 原因——三上短板交织,形成“可获得、难识别、难联动”的漏洞。 一是有害信息的可获得性上升。生成式对话工具具备强检索与组织能力,在用户以隐晦方式提问时,可能输出具有可操作性的步骤、剂量换算或规避建议,降低犯罪门槛。二是风险识别与干预边界模糊。平台对“高危意图”的识别依赖规则与模型判断,面对迂回提问、分段获取信息等方式,容易出现漏判;即便触发风控,采取封禁、提示等“站内处置”,与线下执法之间仍存在信息断层。三是现实侧监管链条不够紧密。处方药流通管理、旅馆登记核验、网络交友平台实名与反诈机制等环节,任何一处松动都可能被利用。,部分网民法治意识淡薄,热衷“人设叙事”和外貌审判,客观上干扰事实澄清。 影响——安全风险外溢,法治秩序与技术信任同时承压。 从公共安全看,智能工具一旦被用于“低成本学习”作案手法,可能催生模仿效应,扩散到药物滥用、自残、暴力伤害等多种场景。从社会治理看,网络舆论若以情绪取代证据,容易造成对受害者及家属的二次伤害,也可能削弱公众对司法公正的信心。从产业发展看,信任危机将推高合规成本,促使各国加速立法与监管升级,企业若缺乏透明、可审计的安全措施,未来跨境运营与数据合规风险将显著上升。 对策——坚持“技术防护+制度约束+公众教育”协同发力。 技术层面,平台应强化高危指令拦截与“最小可用信息”原则,对涉及药物剂量、武器制作、暴力实施等内容设置分级限制,更多转向健康求助、心理支持与法律告知;同时提升对多轮对话、拆分提问、暗语表达的综合识别能力,并建立可追溯的安全审计机制。制度层面,应完善平台安全义务与报告规则,明确在发现重大、紧迫风险时与执法机构的协同边界与流程,既防止过度上报侵害隐私,也避免“只封号不预警”的被动处置;对处方药开具、购药核验、异常用药预警加强监管,对住宿、出行等关键场景提升实名核验与异常行为提示。社会层面,要通过权威信息发布、普法宣传与平台治理,遏制以外貌、性别等标签替代事实判断的舆论偏差,推动形成尊重证据、尊重程序的公共讨论氛围。 前景——以安全为底线,推动技术向善与治理现代化并进。 随着生成式技术加速嵌入搜索、社交、办公等场景,其“放大器效应”将长期存在。可以预见,各国将围绕风险评估、内容安全、未成年人保护、数据留存与跨境合规等出台更细化规则,企业竞争也将从“能力竞赛”转向“安全与责任竞赛”。在此过程中,建立可验证的风控体系、清晰的协同机制以及可持续的社会共识,将成为减少悲剧发生、维护公共安全的关键。

技术便利与人性阴暗面的交集,正在倒逼社会防御体系加速升级。这两起跨越太平洋的悲剧提醒我们,享受智能时代红利的同时,必须同步构筑相应的伦理护栏与法治保障。如何在技术创新与社会安全之间找到平衡,将是各国长期面对的共同课题。