AI换脸短剧侵权事件引热议 专家呼吁平台强化监管责任

近期出现的AI合成短剧事件再次将生成式人工智能的法律边界问题推向舆论焦点。

据报道,多部使用AI技术生成特定明星面部特征的短剧在各平台传播,因未获授权引发广泛关注。

这些作品在被曝光后,制作方采取了局部打码、更改人物名字等规避措施,但相关内容仍可通过直链访问,反映出当前内容监管的薄弱环节。

从法律层面看,此类行为已触及明确的法律红线。

根据现行法律规定,只要AI生成的图像、视频或声音能够被公众识别为特定自然人,即构成对肖像权的侵害。

若相关内容用于商业盈利,涉及金额较大的情况下,可能面临刑事处罚。

这意味着,通过AI合成明星形象制作短剧并进行付费点播、广告分成等商业运营的行为,已经超越了技术创新的范畴,演变成了明确的违法侵权。

这类侵权行为的危害是多维度的。

一方面,它直接损害了明星艺人的商业权益。

通过"借用"明星的知名度和粉丝基础,不劳而获地获取流量和收益,实质上是对其商业价值的无偿挪用,压缩了正当的商业空间。

另一方面,部分AI短剧还通过剧情设定对明星进行丑化或妖魔化,可能对其社会形象造成实质性伤害。

更值得警惕的是,这种技术被滥用可能演变成恶意合成工具,用于制造虚假信息、挑动社会对立。

值得注意的是,国家已出台相关规范性文件。

《生成式人工智能服务管理暂行办法》明确规定,提供和使用生成式人工智能服务不得侵害他人肖像权、名誉权、隐私权等合法权益。

这为平台的监管职责提供了明确的法律依据。

然而,从现实情况看,一些平台在发现侵权内容后,要么反应迟缓,要么采取消极的"躲猫猫"策略,通过删除搜索入口但保留链接等方式规避责任。

根据相关法律规定,平台接到侵权通知后未及时采取必要措施,需就损害扩大部分承担连带责任。

这意味着,平台的消极态度本身就可能构成新的法律风险。

从行业发展的角度看,AI短剧作为新兴内容形式,本身具有创新价值。

但创新不能成为突破法律底线的借口。

健康的产业生态应当建立在尊重他人权益的基础之上。

制作方应当通过原创设定、虚拟人物等合法途径进行创新,而非通过"蹭"明星流量的方式获取不当利益。

这不仅是法律问题,更是行业自律和商业伦理问题。

当前需要多方面的协同应对。

监管部门应当加强对AI内容生成的规范指导,明确平台的审核责任和处置标准。

平台应当建立更加严格的内容审核机制,对涉及真实人物肖像的AI生成内容进行重点把关,及时发现和处置侵权作品。

制作方则应当树立法律意识和伦理意识,主动规避侵权风险。

同时,也需要完善相关法律制度,对AI生成内容的认定标准、侵权判定、责任承担等问题进行更加细致的规定,为行业发展提供清晰的法律指引。

技术进步不应成为侵权的遮羞布。

无论是公众人物还是普通人,肖像与人格权益都应得到同等尊重。

让创新在规则之内奔跑,让治理为发展保驾护航,才能推动短剧等新业态在法治轨道上释放活力、赢得未来。