2024年,杭州互联网法院审理了一个案子,是全国头一回因为生成式AI“幻觉”引发的纠纷,这就把人工智能行业和法律界都给惊动了。原告梁某2024年用了一家公司的AI服务去查高校报考政策,模型老是说错话,纠正了也不改,还说如果错了愿意赔十万。梁某后来拿官网信息一比对发现不对头,直接把服务方告了。法院最后驳回了他的请求。判决书里写得明明白白,这种服务是《民法典》里说的网络服务,不是什么具体的产品。它既让创新企业别太吃亏,又得让它们尽到注意义务。 法院认定被告在页面上标得清清楚楚“内容是AI生成的,仅供参考”,也有投诉渠道。再说那AI说的“赔偿”根本不算数,原告也没证明自己真亏了多少钱。这案子主要厘清了三个问题:一是把AI服务归到技术服务这一类;二是确定侵权得看有没有过错;三是界定AI输出的东西没法律上的意思表示效力。 到2025年3月,国家网信办说国内有346款生成式AI完成了备案。中国互联网络信息中心的数据也显示,八成多网民都用过AI查信息。中国青年报和中青校媒在2025年7月做了个调查,发现97%的受访大学生都碰上过AI给出的事实错误。 现在的情况是这种技术还在迅速发展,“幻觉”带来的风险越来越大。如果大家老接触AI编的假消息,可能会形成对真实世界的认知偏差。这起判决给了行业一个明确的法律预期,保护了用户权益也促进了技术进步。未来得继续完善规则、提升数字素养、治理好技术框架,才能让人工智能往好的方向发展。