飞利浦设计创新总监分享AI医疗应用经验 强调以人为本的设计理念

医疗场景对AI的需求在快速增长,但"用得上、用得好"仍是难点;随着医疗数字化推进,临床决策对时间高度敏感,影像判读、病程评估、术中支持、患者管理等环节对信息完整性和响应速度提出更高要求。然而许多解决方案在试点阶段表现良好,进入真实临床后却遭遇采纳率不高、使用体验割裂、责任边界不清等问题。 技术供给与临床现实之间存在多重错位。首先,AI建议的呈现时机和方式往往与医生工作节奏不匹配。临床医生时间紧、任务密、路径固定,若系统在不合适的节点推送建议或需要额外步骤才能获取信息,反而会增加负担。其次,可解释性不足削弱了可用性与可控性。医疗决策需要"为何如此"的依据,医生不仅要知道系统的建议,还要理解其依据、适用边界与不确定性。再次,信任机制缺位容易引发两种极端:过度依赖或完全不信,前者带来误用风险,后者让技术被束之高阁。最后,部分产品仍停留在"任务型优化",擅长解决特定条件下的单点问题,却缺乏对复杂情境、个体差异及组织流程的系统性考虑。 这些落地障碍不仅影响效率,更关系医疗质量与安全。若AI无法融入临床实践的关键环节,医护人员仍需在碎片信息中做高压决策,既增加工作负荷,也可能影响诊疗一致性。对患者而言,居家监测与数字指导本可改善慢病管理,但若系统交互缺乏同理心、反馈不清晰或触发频次不合理,可能造成焦虑、误解甚至放弃使用。在医疗该高责任行业,任何"黑箱式"建议都可能引发合规与伦理问题,影响机构对新技术的整体态度。 以人为中心的设计应成为医疗AI落地的共同语言。飞利浦在放射学、肿瘤学、介入程序、互联护理及数字指导等方向的探索表明,设计团队需要从临床与患者的真实任务出发,将数据与算法当作"可塑材料"而非独立的附加功能。具体而言,一是明确"何时需要算法",在不同临床节点界定算法介入的优先级与触发条件,把建议嵌入医生的自然决策路径。二是明确"解释到什么程度",针对不同使用者提供分层解释,既让一线医生快速获取关键依据,也为质控与追溯提供可审计的信息。三是建立"校准信任"的机制,通过不确定性提示、边界声明与反馈闭环,帮助临床用户在"过度信任"和"完全不信"之间找到平衡。四是强调人机协同而非替代,系统应减少医护人员的重复劳动、提升信息可达性,让医生把更多精力投入沟通、判断与照护。 未来医疗AI将从单点能力比拼走向体系化落地,比的是对流程、责任、体验与治理的整体理解。随着居家监测、互联护理和医疗信息学发展,跨地域、多学科、院内院外协同将更为常态,这要求产品在隐私保护、临床验证、风险管理与用户体验之间形成可持续平衡。面向不同地区医疗资源与行为习惯的差异化设计,将成为推动技术普惠与规模化应用的重要路径。

医疗创新的终极目标不是创造更聪明的机器,而是构建更有温度的治疗生态;那些既精通算法逻辑、又深谙人性需求的设计师,正在重新定义未来医疗的样貌。