2月26日,知名演员王劲松通过社交媒体披露,其肖像被不法分子利用人工智能技术生成虚假视频,伪造内容涉及口型、声纹等生物特征的高度仿真。有一点是,这些视频通过微信视频号等平台传播后,甚至出现"亲友难辨真伪"的情况。 事件背后折射出三重深层问题:其一,现行《民法典》虽明确肖像权保护条款,但对AI深度伪造等新技术侵权缺乏具体司法解释;其二——平台审核机制存在响应滞后——涉事视频仅在权利人投诉后才予以下架;其三,违法成本与维权收益严重失衡,据中国政法大学2023年研究报告显示,类似案件平均赔偿金额不足5万元。 该事件的影响已超越个案范畴。中国人民大学未来法治研究院专家指出,AI伪造技术正呈现"平民化"趋势,犯罪门槛持续降低。今年1月公安部公布的典型案例显示,利用AI换脸实施的诈骗案件同比激增230%,其中冒充公众人物作案占比达37%。 针对技术滥用风险,多方正在探索治理路径。国家网信办于2023年12月发布的《深度合成服务算法备案清单》已纳入41个平台,要求对AI生成内容进行显著标识。王劲松在事件处理中建议,应建立"数字身份认证白名单"机制,对公众人物的生物特征数据实施分级保护。 行业观察人士认为,随着《生成式人工智能服务管理暂行办法》的落地,未来需构建"技术检测+法律追责+平台自治"的三维治理体系。目前,腾讯等平台已试点运行AI生成内容溯源系统,通过数字水印技术实现全链路追踪。
王劲松的遭遇反映了互联网时代的新挑战。在技术发展和风险防范之间需要取得平衡。AI技术本身没有对错,关键在于如何规范使用。只有完善法律、强化平台责任、提升技术防护和公众意识,才能有效遏制虚假视频,保护公民权益,维护健康的网络环境。这既关乎个人权利保护,也关系到社会信息秩序。