杭州互联网法院最近审结了一件案子,这也是全国首例人工智能信息失实的案子。法院把责任划分得清清楚楚,给这方面的法律应用做了个指引。现在人工智能越来越普遍,可能出现信息不准确的问题。用户在使用某款人工智能平台查询高校报考信息时,获取到的是明显错误的内容。用户给平台指出来后,平台还一直坚持信息是准确的,还提出虚拟的赔偿承诺。用户就以权益受损为由把平台告上了法庭,要求赔偿。 这次案例反映了一个新问题:人工智能生成内容的时候可能出现“幻觉”,就是内容看起来很合理,但实际上和事实不符。这不仅影响用户的权益,也牵扯到怎么界定责任和防范风险。从技术角度看,人工智能生成内容依赖于概率预测和模式识别,而不是直接验证客观事实。所以有时候可能会出现不确定性,尤其是在涉及具体数据、时效性信息或者专业领域的时候。 这次判决给服务提供方明确了行为边界。法院指出,人工智能没有民事主体资格,生成内容不能视为服务提供方的代理行为或意思表示。而且把人工智能服务定性为“服务”而不是“产品”,意味着责任认定需要适用一般过错责任原则。所以必须证明服务提供方有主观过错或者没有履行法定义务,而不能仅仅因为信息不准确就追究责任。 这次判决也反映了司法在技术发展中的审慎平衡。一方面,法院强调不该在技术初期给服务提供方施加过严责任,避免抑制创新活力;另一方面也划定了明确的行为边界。法院提出三项责任判断标准:不生成违法内容、告知技术局限性、采取措施减少错误。 对于未来类似问题和纠纷,法律界人士认为需要建立用户、企业和社会共同参与的责任共担机制。用户要知道人工智能生成内容是参考性质的,关键信息核实要谨慎;企业要持续优化技术架构和加强内容审核与风险提示;司法机关也需要通过案例积累细化过错认定标准。 总之,这次判决在发展中完善了监管和创新生态。它为未来类似纠纷提供了责任认定框架,推动形成既鼓励创新又防范风险的治理格局。在人与技术协同共进的未来,持续完善规则和提升理性认知是必不可少的。