问题——生成式智能“答非所问”“信息失准”引发纠纷,责任边界亟待厘清。 近年来,生成式智能产品检索问答、写作辅助、学习咨询等领域快速普及,提升效率的同时,也暴露出信息不准确、虚构来源、逻辑看似自洽但事实错误等问题。围绕“被误导是否可追责”“开发者是否必须对每条信息担责”等争议,社会关注持续升温。现实中,因采信涉及的建议导致投资亏损、延误就诊等情况不时在网络出现,责任认定与风险分担随之成为新的治理课题。 原因——技术机制决定偏差难以彻底消除,但可通过管理与技术降低风险。 从运行机理看,生成式智能主要基于语言模式进行统计预测输出,并不会对事实逐条核验。知识更新滞后、数据噪声、上下文理解偏差、提示语不够明确以及外部信息源质量参差等因素叠加,都可能放大错误。业内人士指出,在底层范式未发生根本变化前,生成内容出现一定比例偏差仍属现实风险。因此治理重点不在追求“零错误”,而在于服务提供者是否采取了足够、有效且符合行业惯例的措施,尽可能降低误导概率。 影响——司法裁判提供规则指引:不以“结果错误”简单推定侵权,重在审查是否尽到义务。 在杭州互联网法院审理的一起纠纷中,原告在网络检索院校信息时使用某生成式智能应用提问,后发现部分内容与事实不符,遂与应用产生争议。对话中,该应用还生成“若内容有误将赔偿10万元,并建议到杭州互联网法院起诉”等表述,原告据此将开发公司诉至法院并提出赔偿请求。 法院认为,相关工具不具备民事主体资格,无法作出意义在于法律约束力的意思表示;生成式智能以交互方式提供信息,应作为一种服务活动进行评价,责任认定应围绕服务提供者是否存在过错、是否造成实际权益损害等要件展开。法院深入指出,服务提供者应履行显著提示说明义务,通过有效方式让公众了解功能边界与局限,形成必要的风险提醒;同时应承担功能可靠性的基本保障义务,采取行业通行、有效的技术措施,持续提升生成内容的准确性与可靠性。 经查,该应用已在醒目位置设置“内容仅供参考,请仔细甄别”等提示,并采取相应技术手段降低错误发生概率。法院据此认定服务提供者已尽到提示告知与基本保障义务,案涉行为不存在过错,亦未造成可认定的权益损害,依法不构成侵权,判决驳回原告诉请。判决后双方未上诉。 对策——以“可预防、可告知、可追溯”为抓手,推动创新发展与权益保护并重。 多位法律界人士认为,该案在于对主体资格、归责原则与义务边界给出更可操作的解释:其一,工具本身不承担民事责任,权责仍应回到服务提供者及相关主体;其二,不能仅因输出存在错误就当然认定侵权,而应综合判断服务者是否尽到合理注意义务;其三,显著提示、风险告知与持续改进,是服务提供者应履行的基本合规要求。 面向实践,业内与监管层面可进一步从三上完善: 一是强化显著提示与场景分级管理。对教育、医疗、金融、法律等高风险场景,应设置更高等级的风险提示、使用限制与人工复核机制,避免将“工具建议”误当作“专业结论”。 二是推动可靠性评测与技术治理。鼓励建立事实准确率、来源可核验性、错误率上限、纠错响应时效等指标体系,引导企业通过检索增强、权威数据接入、对抗测试、红队评估等手段持续改进,并为责任认定提供可量化依据。 三是完善投诉纠错与证据留存机制。推动对话记录留存、版本标识、提示语展示证据等制度化安排,提高纠纷处理效率,降低举证成本,形成“可追溯、可核查”的闭环。 前景——规则逐步清晰,行业将从“拼速度”转向“拼可信”。 随着应用渗透率提升,生成式智能相关纠纷可能进入多发期。可以预见,司法裁判将继续在个案中细化“合理注意义务”的判断标准,行政监管、行业自律与企业内控也将同步跟进。技术创新与合规治理并非对立:越是走向规模化应用,越需要更透明的提示、更可靠的内容机制和更清晰的责任链条,才能赢得用户信任与市场空间。
当机器生成的文字逐渐成为公众获取信息的重要渠道,这起案件像一块法治“试金石”——既检验技术应用的边界——也为行业发展提供方向。数字经济加速推进之下,只有把技术治理与法治保障一起做实,才能在扩展应用的同时更好守住风险底线。