杭州互联网法院最近审理的一个案子,把生成式人工智能服务的责任边界给界定清楚了。这事儿给咱们敲响了警钟,技术虽然越来越先进,但用得不当就容易惹麻烦。就拿那个例子来说吧,有人在那个科技公司开发的应用上查高校报考信息,结果得到的主校区位置全是假的。虽然程序当时信誓旦旦说赔损失,但用户核实了官方消息才发现赔不起,最后只能把服务提供方告上法庭。这就把生成式技术里常说的“幻觉”问题给拎出来了,系统明明看着像人话,其实是胡编乱造的东西。 那问题到底出在哪儿?主要是技术特性跟咱们现在的法律框架接不上茬。法院说得挺明白,我国法律认的是自然人、法人这些主体,机器它没资格当民事主体。所以那些机器生成的内容,不能直接算到开发公司头上当人话听。还有法官也讲得很透彻,在没有公司明确授权或者特殊场景支持的情况下,用户不能傻乎乎地觉得机器说的就一定靠谱。 至于怎么判责任,那就得看适用哪个原则了。以前卖东西讲究“三包”,也就是无过错原则,但这个不一样。生成式服务是动态变化的,用户一说什么、数据一改、算法一调,出来的结果就不一样。如果还是用无过错原则,那企业可能要背太多不该背的锅。法院最后权衡了一下,觉得这种服务还是得按过错责任来判,得看企业有没有尽到合理的注意义务。 这案子对行业影响挺大的。法律上算是头一回明确了技术服务跟实体产品责任的不同点。清华大学法学院的专家都说了,这有助于在鼓励创新和保护用户之间找到平衡点。对做技术的企业来说,这也是个警醒。以后得在模型训练、内容审核上把把关,还得建个投诉响应机制;用户也得多个心眼,重要决定别光信机器说的。 为了防着这些风险,还得建个动态治理的体系。技术上要把算法搞透明点,关键信息得有个标识提醒大家。法律层面可以分类监管,针对医疗、教育这种高风险的地方多立几个规矩。企业得把内控体系做好,全流程都得有评估制度;跟用户签协议的时候也得把技术特性和使用边界写清楚。监管部门还得推动搞行业标准认证。 现在全球都在摸索怎么管生成式人工智能。我国法院通过一个个案子慢慢把边界划清楚了。以后《人工智能法》出来了肯定会更系统。技术方面下一代系统也开始强化事实核查了,法律和技术的协同发展是个大趋势。虽然大家都希望技术能好点,不过到底该怎么既保护用户又不束缚创新的手脚?这还得靠司法、立法、行业和学术界一起商量着来。 杭州互联网法院这次判决就像是往湖面扔了块石子儿,激起的波纹会推动技术伦理、法律适用还有行业标准一起进化。在智能时代的路上得两手抓:既要搞技术创新,又得守规矩发展;只有这样才能在解放生产力和保障社会权益之间找到那个最好的平衡点,让技术进步真正变成大家的福分。