大家都在说AI偷走了配音演员的声音,最近有好几个人站出来维权了。他们都说,有些人偷偷把他们的声音拿去训练AI,用来合成音色还有赚钱,根本没经过他们的同意。有人评论说,这已经成了一条灰色产业链了。 以前用AI换脸大家都知道问题大,可这次AI仿声更隐蔽,维权太难了。那么,这些声音到底是怎么被偷走的?配音演员该怎么办?叶清老师给《甜蜜蜜》里的黎小军还有《无间道》里的刘建明配过音,大家都很熟悉他。前几天,短视频上有一部AI短剧出来了,大家发现旁白居然是叶清老师的声音。 记者采访他的时候,叶清老师说那个剧对他的音色还原度特别高。类似的情况在配音圈里经常发生,李龙滨导演也经常被这种侵权行为盯上。 季冠霖给《甄嬛传》和《疯狂动物城》这些知名影视作品配过音,她觉得这样发展下去会破坏行业的艺术水准。比如印度版的《甄嬛传》,用了季冠霖的声音去模仿角色,虽然声音听着很像角色不像。季冠霖还提到,如果不规范管理这些行为,不仅会降低艺术价值还会给个人带来法律风险。 那么法律是怎么看待这个问题的呢?中国政法大学人工智能法研究院院长张凌寒表示,这种行为可能侵犯了配音演员的人格权或者影视作品的著作权。 但是很多专家认为要认定侵权并不容易。首先取证太难了,很多网上传播的AI语音都是片段二次加工过的,很难找到源头和完整链路。 另一个难点是鉴定声音这个东西看不见摸不着抓不住,很容易被剪辑、篡改或者变速切换不同声线也很正常。就算AI微调音色语调跟得很像也不一定完全复制一样。 张凌寒也提到了训练数据不透明的问题难以证明数据来源是哪来的所以追责很难。 既然这么难怎么办呢?叶清老师认为首先要让使用方正视法律问题合法获取授权才能使用AI仿声技术。 中国政法大学知识产权中心特约研究员赵占领建议行业自律还有平台规则都很重要大家都得遵守。 现在司法实践经验还不是很足需要多积累经验再做判断,现在还没出台具体政策网络平台和AI软件平台可以先把规则定下来禁止未经授权使用别人声音进行生成。 多位受访者都希望通过加水印这样的技术手段建立一个可追溯可识别的安全框架保障大家的利益。 不过怎么加水印这事儿也得有统一标准才行还要让配音演员提前给自己的声音备案好以后好追责有了这些制度和判定以后保护机制就能迅速建立起来。