被指误导健康信息后谷歌下线部分搜索“概览”功能,医疗类生成内容治理再受关注

谷歌日前因其AI概览功能在处理健康有关搜索时存在信息误导风险,决定对部分医疗健康查询下线该功能。此举措源于英国媒体的深入调查,该调查发现谷歌AI系统在回答某些健康问题时提供了不够准确的信息。 问题的具体表现在于,当用户搜索"正常的肝脏血液检测范围"等医疗查询时,谷歌AI概览显示的数据存在明显缺陷。系统提供的参考值未能充分考虑用户的国籍、性别、种族和年龄等重要因素,这些因素对医学诊断具有重要影响。这种一刀切的做法可能导致用户对自身检测结果产生错误判断,进而影响其医疗决策。 谷歌随后采取了有限的纠正措施。根据最新报道,谷歌已在"正常的肝脏血液检测范围"和"正常的肝功能检测范围"等直接查询中移除了AI概览功能。然而,这一调整的覆盖面仍显不足。当用户以"lft参考范围"或"lft测试参考范围"等医学缩写进行搜索时,系统仍会继续生成AI摘要,这意味着问题并未得到根本解决。 对于这一做法,谷歌官方表示不对单个搜索结果的移除进行逐一评论,但承诺将进行更广泛的改进。谷歌的内部临床团队对相关查询进行了审查,并辩称在许多情况下,AI概览提供的信息本身"并非不准确",且得到了高质量网站的支持。这一表态反映出谷歌在承认问题存在的同时,对其AI系统的能力仍保持一定信心。 不容忽视的是,谷歌在2025年推出了多项新功能,包括增强的概览和专门的健康AI模型,旨在改善搜索引擎在医疗健康领域的应用效果。这些举措表明谷歌正在加大对医疗健康搜索准确性的投入,但同时也暴露了现有系统的局限性。 英国肝脏信任基金的传播与政策总监范妮莎·赫比奇对谷歌的调整表示欢迎,但其评价更多带有保留态度。她指出,谷歌仅针对某一搜索结果进行了微调,这项功能理论上可以完全关闭,但这只是表面文章。更深层的问题在于,AI概览在健康领域应用中存在的系统性风险远未得到解决。这一观点触及了问题的核心——仅仅移除部分功能无法从根本上解决AI在医疗信息传播中的准确性和安全性问题。 从更广阔的视角看,这一事件反映出人工智能技术在涉及人类健康和生命安全的领域应用时面临的挑战。医疗信息的准确性直接关系到用户的健康决策,任何误导都可能产生严重后果。搜索引擎作为信息获取的重要渠道,在提供医疗健康信息时需要承担更高的责任标准。

当AI技术介入医疗健康领域,每一次调整都关乎无数人的健康决策。谷歌此次功能调整给行业敲响警钟:在追求技术进步的同时,必须建立严格的跨学科审查机制。因为事关生命健康,"基本准确"永远不够。