随着生成式内容工具快速迭代,“娱乐”与侵权、创新与风险之间的边界再次进入公众视野;近期,一款新模型平台内测并上线不久后,平台发布公告称将开展紧急优化,阶段性暂停“输入真人图片或视频作为主体参考”的功能,并表示待机制完善后再恢复。公告提出——创作应以尊重为前提——目的是维护更健康、可持续的创作生态。涉及的信息引发广泛讨论,舆论焦点集中在“如何在鼓励创作表达的同时,避免肖像权、名誉权等权益受损,并防止内容被用于违法用途”。问题在于,生成式内容能力增强、门槛降低,使“以真人为参照生成音视频”的链条更短、扩散更快。缺少有效约束时,轻则导致公众人物或普通用户形象被恶搞、被误读,重则可能被用于造谣、诈骗、敲诈等违法犯罪,冲击社会信任与网络秩序。尤其在社交平台上,传播往往情绪化、碎片化,误导性内容更易被二次加工并跨平台扩散,后续纠偏成本高、追责难度也更大。原因主要来自三个层面。其一,技术进步改变了内容生产方式。深度伪造并非新事物,数年前面部替换、声音克隆等已具备较高拟真度;而新一代工具更强调“即用即得”,将复杂流程压缩为少量指令与素材输入,客观上扩大了使用人群。其二,平台治理面临新的压力。平台既是技术提供者,也是内容流通的关键节点,若审核机制、权限控制、溯源标识等跟不上,容易出现治理空档。其三,公众对“玩梗”与“侵权”的边界理解不一。有的用户自认为是幽默表达,但一旦涉及真人形象、声音及人格利益,就可能触碰法律红线;若再被别有用心者利用,娱乐也可能滑向伤害甚至犯罪。影响层面,需要关注“多重外溢效应”。对个人而言,肖像被滥用可能带来名誉受损、隐私暴露,甚至影响现实生活;对企业与平台而言,内容安全事件频发不仅带来合规压力与信任流失,也可能打乱产品与创新节奏;对行业发展而言,当社会对风险的感受明显高于对价值的认同,容易滋生“谈技术色变”的情绪,反而不利于技术在合法合规轨道上释放生产力。也有研究者指出,相关领域是国际科技竞争的重要方向,治理目标应是“可控可用”,而不是简单“一停了之”。对策上,应坚持依法治理与行业自律并举,明确责任边界与处置链条。一是用好法律工具,形成震慑与示范。对利用深度合成实施诈骗、造谣传谣、侮辱诽谤等行为,依法从严打击;同时推动发布具有代表性的典型案例,以案释法、以案促治,形成更清晰的规则预期。二是压实平台主体责任,建立“技术+管理”一体化防线。从源头输入、生成过程、发布传播到事后追溯完善全链条机制,例如:对涉及真人形象的功能设置更严格的权限与审核;强化水印与可追溯标识,提高识别与取证效率;完善投诉处置与快速下架通道,降低受害者维权成本;对高风险内容与高风险账号实行分级管理与动态风控。三是理清公民责任与平台责任,引导合理表达。对正常的二创、戏仿等网络文化现象,可合法合规前提下给予空间,但必须明确规则:未经授权不得冒用他人身份制作“足以被当真”的音视频,不得制作和传播损害他人名誉或引发公共恐慌的信息。四是加强社会共治与公众教育。通过媒体报道、法治宣传与平台提示,提升公众对肖像权、名誉权以及深度合成风险的识别能力,减少“无意侵权”和“跟风传播”。前景判断上,生成式内容工具仍将持续迭代,未来更需要制度供给、技术治理与产业发展同向发力。一上,随着识别技术、溯源标准、内容标识等体系逐步完善,合规使用空间有望深入拓展;另一方面,平台在商业化与责任之间必须建立更稳固的平衡,把风险控制嵌入产品设计与运营流程。对公众人物等高暴露群体,社会在依法保护权益的同时,也应鼓励更成熟的沟通与应对:对善意表达保持适度包容,对恶意侵害坚决依法维权,形成清晰、可预期的边界。
生成式AI的发展是大势所趋,创意应用潜力也不容忽视,但技术能力必须被正确使用与有效约束;通过完善法律制度、压实平台责任、健全行业规范,既能保护创新活力,也能守住内容生态的底线。“即梦”平台的紧急优化提醒我们,拥抱技术进步的同时更要保持理性:在创意表达中纳入尊重与责任,生成式AI才能成为推动文化创新的力量,而不是风险的来源。