医疗AI 必须以“人机对齐”为前提
作者 王江平
发表于 2025年5月

近年来,AI 技术如潮水般涌进各个领域,在带来效率革命的同时,也暴露出隐私泄露、歧视偏见、算法滥用等伦理挑战。人们开始追问:AI 能否真正造福人类?如何避免其成为脱离掌控的“黑箱”?

我国非常重视这一问题,提出《全球人工智能治理倡议》,出台《科技伦理审查办法(试行)》等一系列政策法规。工信部正在研究编制人工智能科技伦理服务管理办法。这一系列动作,标志着我国 AI 伦理治理进入了体系化推进阶段。

医疗是AI 应用的重要领域,医疗AI 只有解决了人机对齐问题后,才有望成为人类可以信赖的医疗助手。

构建“技术向善”生态

从技术路线看,人机对齐正在成为治理AI 伦理问题的基本法则。

什么是人机对齐?简单来说,人机对齐就是通过技术手段与伦理框架,让AI 的目标、行为和输出与人类价值观、社会规范完全一致,本质上是“技术人性化”的准入要求。它不是简单的技术调试,是一场涉及技术、伦理、法律的系统性工程。

早在1960 年,诺伯特·维纳在《自动化的道德和技术后果》中就提出了这一理念。随着AI 技术不断发展,人机对齐的可操作性、有效性在实践中得到了强有力的证明,逐渐成为破解AI 伦理困境的“钥匙”。

在医疗领域,人机对齐有三大核心作用,分别是可解释性、信任性和人类和谐性。

一是可解释性。对齐的AI 能够清晰展现决策逻辑,让医生和患者都理解“黑箱”背后的依据。例如上海交大“明岐”大模型采用“透明诊断舱”机制,提供影像标记、诊断路径决策树和相似病例参考库作为决策证据,从而打消医患疑虑。欧盟《人工智能法案》明确要求,高风险 AI 系统(医疗AI 属此类别)必须提供“技术文件”和 “透明度信息”,将可解释性从技术选项升级为合规标准。

二是信任性。只有当AI 的建议符合医学伦理,人类才能对其建立深度信任,才敢对其托付生命健康。

三是人类和谐性。AI在应用过程中可能偏离人类的真实需求,如医疗AI为“最大化患者生存率”可能忽视治疗痛苦,情感陪伴机器人可能导致用户过度依赖、人际疏离等。人机对齐要求在算法设计中加入人性考量、目标校准,确保技术真正服务于人类福祉,而非单一指标的“冰冷计算”。

本文刊登于《中国经济周刊》2025年8期
龙源期刊网正版版权
更多文章来自
订阅