近期,生成合成技术在内容生产领域加速普及的同时,也被少数账号用于制造、传播虚假信息。一些账号发布合成图片、视频、音频时刻意不作标注,借“感人救援”“离奇事故”等情节博取关注;还有账号通过换脸、声音克隆等手段,假冒运动员、演员、主持人、企业家等公众人物散布不实言论,甚至在未经授权的情况下售卖“祝福”“拜年”等合成视频牟利;更有账号以虚构火灾现场等方式编造、炒作突发事件,误导公众判断。对此,网信部门督促网站平台开展排查整治,依法依约处置账号13421个,清理违法违规信息54.3万余条,并对部分典型案例予以通报。 一是问题呈现“技术门槛更低、传播更快、牟利动机更强”的特点。从通报案例看,有的账号围绕动物“救人”“拆弹”等虚构叙事制作合成视频,以煽情叙事叠加猎奇元素,在短时间内聚拢流量;有的账号利用公众对名人言行的关注,借高仿真面部与声音合成制造“名人表态”“名人带货”假象,形成“吸粉—引流—变现”的灰色链条;还有的账号将灾害事故当作流量入口,用合成画面拼接“现场”,引发情绪扩散与舆情波动。此类内容表面“故事化”“娱乐化”,实质以误导换取关注,突破网络信息传播底线。 二是成因既有技术扩散的客观因素,也叠加了流量机制与治理短板的影响。生成合成工具越来越易用,模板化操作降低了造假成本;部分平台推荐机制偏好“高互动”内容,客观上为虚假叙事提供了传播空间;一些账号规避标识要求、刻意淡化来源,普通用户难以辨识;同时,部分领域对肖像权、声音等人格权益保护意识不足,使“冒用名人”被包装成可交易商品。多重因素叠加,推动虚假合成信息走向规模化生产与分发。 三是危害不止于个别谣言,更在于对公共信任与社会秩序的持续侵蚀。未标注的合成内容混入信息流,会削弱公众对真实信息的判断,抬高辟谣与应急处置成本;假冒公众人物发布不实言论,可能损害个人名誉与合法权益,扰乱正常商业秩序与舆论环境;编造火灾等突发事件信息,容易引发不必要的恐慌与资源误投,干扰公共管理。更深层的影响在于,当“真假难辨”成为常态,社会信任将被持续消耗,网络空间生态也会受到流量劣币的冲击。 四是对策上,需要监管部门、平台、机构与用户形成闭环治理。此次集中处置与案例通报,体现出对虚假合成信息发现即查、从严整治的态度,也对平台落实主体责任提出更明确要求。平台层面,应将生成合成标识纳入内容发布与分发的硬性规则,完善技术识别与人工复核协同机制;对灾害事故、公共安全、名人形象与声音等高风险领域,设置更严格的审核与溯源要求。对以合成方式售卖“名人祝福”等产品的,应强化授权核验、交易管理与投诉处置,切断牟利链条。监管层面,应持续细化规则并强化执法联动,提高对跨平台、跨链路违规行为的发现与处置效率。社会层面,媒体机构、行业组织可加强科普与辟谣协作,提升公众识别能力,推动形成“先核实、再转发”的传播习惯。 五是前景判断上,生成合成技术仍将深度融入内容生产与传播,治理关键在于“鼓励正当创新应用,遏制违法违规滥用”。随着标识规范、鉴别技术、信用惩戒与权利保护机制逐步完善,虚假合成信息的传播空间有望继续收缩。但也要看到,对抗性技术可能持续升级,治理需常态化、系统化推进,尤其要把“标识可见、来源可溯、责任可追”落到具体场景和传播链条中,以规则与技术双轮驱动维护网络空间秩序。
此次专项整治行动表明了监管部门维护网络空间秩序的态度与力度。在数字化时代,如何在促进技术创新与强化内容治理之间取得平衡,将是一项长期课题。坚持法治化、规范化路径,完善规则与执行机制,才能营造真实可信、健康有序的网络环境,为经济社会发展提供稳定的数字基础支撑。