北京互联网法院审结AI生成不实信息侵权案 技术不能成为免责挡箭牌

问题:生成式工具被用于拼接信息、渲染情绪化内容,导致名誉侵权风险增加;北京互联网法院近日审理的一起案件显示——某机构签约主播去世后——有账号发布以“健康”“养生”为标签的视频,声称该主播“长期依赖药物和酒精维持状态”“每天直播时间过长”“随身携带抗抑郁药并伪装成润喉糖”“医生建议休息却遭团队施压继续直播”等。这些内容将矛头指向签约机构,机构认为其虚构事实、损害声誉并引发负面舆论,因此提起诉讼,要求删除视频、公开道歉并赔偿损失。发布者辩称文案由生成式工具生成,并参考了公开信息,认为不构成侵权。 原因: 1. 部分发布者过度依赖生成式工具,缺乏事实核查意识。法院调查发现,发布者仅输入简单指令(如“某主播去世”“撰写口播文案”“关注健康”),生成初稿后要求工具补充网络信息,未核实内容真实性便直接使用。 2. 流量驱动下,部分账号为吸引关注,刻意夸大细节,忽视信息真实性和当事人权益。 3. 公众对技术生成内容存在误解,误以为机器整合的信息必然可靠,助长了不实信息的传播。 影响: 法院指出,发布者作为内容传播者,有义务核实信息真实性。涉案视频未标注来源,也未验证关键表述(如“高强度直播”“团队施压”)的真实性。视频发布后,评论区出现大量针对机构的负面评价,导致其社会评价受损。法院最终认定发布者构成名誉权侵害,判令其公开道歉并赔偿损失。判决已生效。此案明确:技术生成内容不能免除法律责任。 对策: 1. 个人创作者:涉及具体个人或机构的指控性内容需遵循“三核”原则——核来源、核证据、核表述,避免以“网络传言”代替事实;对无法验证的敏感信息应谨慎表达或明确提示。 2. 平台与运营方:完善风险提示、来源标注、争议信息处理等机制,对疑似虚假或传播较广的内容及时核查或限流。 3. 技术服务与内容行业:建立清晰的生成内容标识和引用规范,形成可追溯、可解释的责任闭环,减少纠纷。 前景: 随着生成式技术广泛应用,内容创作门槛降低的同时,不实信息的传播风险也在上升。未来,名誉权、隐私权等纠纷可能增多。司法通过明确“核实义务”规则,在技术创新与法律治理间划定底线:鼓励技术应用,但要求内容发布基于事实与证据。行业自律、平台管理与司法规则的协同将是遏制虚假信息传播的关键。

技术进步不应成为逃避责任的借口;信息生成与传播速度越快,越需将核实置于发布之前,将法律边界置于流量之上。唯有以法治明确规则、以责任约束行为,新技术才能真正服务于公共利益和社会信任。