生成式视频技术的快速迭代正在改变内容创作的生态。
近日,豆包宣布其视频生成模型Seedance 2.0正式上线,支持原声音画同步、多镜头长叙事、多模态可控生成等功能,并已接入豆包App、电脑端和网页版等多个应用端口。
这一进展标志着国内AI视频生成技术的又一次突破。
然而,这次产品发布中的一项限制措施引起了业界关注。
豆包明确表示,Seedance 2.0暂不支持用户上传真人图片作为主体参考,这意味着用户目前无法通过该模型生成涉及真人明星的视频内容。
这一设定与当前生成式AI应用面临的现实挑战密切相关。
从法律和伦理层面看,真人素材的使用涉及多重风险。
首先是肖像权保护问题。
明星肖像作为重要的商业资产,其使用权受到法律严格保护。
未经授权利用真人肖像生成视频内容,可能构成对肖像权的侵犯,引发法律纠纷。
其次是虚假代言的风险。
通过AI技术生成的明星代言视频,若被误认为是官方发布的真实代言内容,可能对品牌声誉造成损害,同时误导消费者,破坏市场秩序。
此外,这类合成内容还可能被用于制造虚假信息,对社会舆论造成负面影响。
豆包的这一做法反映了当前AI内容生成平台的一种理性态度。
在生成式AI技术快速发展的背景下,如何在创新与规范之间找到平衡点,成为行业的共同课题。
相比于无限制地开放功能,豆包选择了更加谨慎的路线,通过技术限制来预防潜在的法律和社会风险。
这种主动的合规意识,既是对用户权益的保护,也是对平台自身的保护。
值得注意的是,这一限制措施并非技术能力的缺陷,而是基于风险防控的主动选择。
随着相关法律框架的完善和行业规范的建立,真人素材的使用条件可能会逐步明确。
未来,在获得充分授权、建立完善的验证机制的前提下,这类功能的开放也许会成为可能。
在技术创新与法律规范的动态平衡中,豆包的选择折射出数字内容产业的时代命题。
当合成技术模糊真实与虚拟的边界时,平台的责任不仅是开拓可能性,更需构建防范风险的"刹车系统"。
这场关于技术伦理的实践,或将成为中国人工智能治理进程中的重要注脚。