ai的错误率蹿升超过11个百分点

这次官司的起因是梁某在某个AI平台上查高校信息时,结果发现系统给的内容全是错的。梁某一开始没在意,后来问这个AI是不是真的,没想到AI居然很自信地说:“若内容有误给赔偿十万元。”梁某一看这么好说话,就把提供这个平台的公司告上法庭了,要求赔9999元。但最后法院没同意他的请求。 这个判决其实是在试探怎么定AI的责。现在很多人都担心AI说的话靠不靠谱,法院给出了三条红线:一是不让它发违法内容;二是要给用户提个醒,让他们知道AI不一定全对;三是要多用点技术手段把内容弄准确点。 查下来发现,这家公司在好几个显眼的地方都贴着标签说内容可能不准,还搞了检索增强生成这种技术。法院觉得这家公司已经尽到责任了,主观上没毛病,所以不构成侵权。 专家解释说,现在的AI说白了就是统计概率模型。它是通过学习一大堆词怎么搭配来回答问题的,所以有时候就会出岔子。比如它可能会把“武松”和“倒拔垂杨柳”这两个词凑在一起变成个笑话。或者因为信息太少它会瞎猜,反正就是不承认自己不知道。 有个研究显示,哪怕训练数据里只有0.01%的错误信息,都可能让AI的错误率一下子蹿升超过11个百分点。这说明它说的再肯定也不一定是真的。 这是全国首例AI幻觉侵权案的审判结果,给以后的案子定了个调子。它既让服务提供者知道该怎么走合规的路子,也提醒咱们老百姓别太信AI的话。 在技术日新月异的今天,咱们得两手抓:既要提升技术的可靠性,也要管企业的规矩做得实不实;还得提高大家的数字素养。只有在这三者之间找到平衡,咱们才能更好地用这些智能工具去拥抱数字时代的挑战。