手机版
您的位置: 首页 > 实时讯息 >

人机对齐:破解AI伦理困境的“钥匙”

0次浏览     发布时间:2025-05-06 17:33:00    


近年来,AI(人工智能)技术飞速发展,在带来效率革命的同时,也暴露出隐私泄露、歧视偏见、算法滥用等伦理问题。当AI在医疗健康领域的应用日益普及,人类能否对其托付生命健康?近日,健康报记者专访第十四届全国政协委员、研究员级高级工程师王江平,请他谈谈医疗AI存在的伦理风险以及应对策略。

医疗AI可能导致患者权益损害

健康报:在您看来,医疗AI带来的最大风险是什么?


王江平:医疗AI带来的最大风险是可能导致患者权益损害。医疗AI有三大特殊性,每一项都和患者权益息息相关。

一是数据敏感性。患者的生理指标、诊疗记录、病史等都属于敏感信息,直接关联个人生命权和隐私权。《中华人民共和国个人信息保护法》将医疗数据列为敏感个人信息重点保护。很多患者并不知道自己的医疗数据被用于AI训练。

二是结果不可逆性。在医疗场景中,AI容易产生“幻觉”,而“幻觉”可能导致误诊甚至危及患者生命。国际期刊《放射学》刊发的一篇研究论文显示,在磁共振/超声图像的阅片分析中,原始放射科医生与复查放射科医生的分析达到几乎完美的一致性,而大型语言模型与人类阅片者的分析仅达到中等程度的一致性,这会对临床管理产生负面影响。


三是责任主体复杂性。若AI参与决策导致医疗事故,责任主体涉及模型开发者、部署者(医疗机构)、使用者(医生)等,责任程度难以界定。2024年,欧盟颁布《人工智能法案》规定,以权责清单等形式明确责任判定原则和办法,避免出现技术出错、操作失误、患者买单的困局。这为国内相关实践提供了参考。


基于医疗行业的特殊性,必须将人机对齐法则深度融入医疗AI。

伦理不是枷锁而是技术发展的基石

健康报:人机对齐具体指什么?


王江平:人机对齐就是通过技术手段与伦理框架,让AI的目标、行为和输出与人类的价值观、社会规范保持一致。人机对齐是一项对齐伦理、对齐人性、维护人权的重要科学实践,是一项涉及技术、伦理、法律的系统性工程,被认为是破解AI伦理困境的“钥匙”。

健康报:人机对齐法则在医疗场景中能发挥什么作用?


王江平:第一,可解释性。对齐的AI能够清晰展现决策逻辑。例如,上海交通大学研发的医学影像多模态大模型矩阵“明岐”采用透明诊断舱机制,通过提供影像标记、诊断路径决策树、相似病例参考库三级决策证据,打消医患疑虑。

第二,信任性。当AI的诊疗建议与医学伦理深度对齐时,人类才能对其建立信任,才敢对其托付生命健康。

第三,人类和谐性。目标偏移是AI应用中一种常见且重要的风险。人类设计AI目标时通常无法将真实目标完全、准确地写入程序,因而AI达成的目标常常会偏离人类的真实需求。比如,医疗AI为提高患者生存率可能忽视治疗痛苦,情感陪伴机器人可能导致用户过度依赖、人际疏离等。人机对齐就是要在算法设计中加入人性考量、目标校准,确保技术真正服务于人类。

健康报:有观点认为,在发展技术的过程中过度强调伦理规范,可能会限制技术创新。您对此有何看法?


王江平:我认为恰恰相反,伦理不是枷锁,而是技术可持续发展的基石。人机对齐法则可以推动技术透明化、人本化,更能够激发技术创新。

在可以预见的未来,将出现某些智力和能力超越人类的“超人模型”,人工智能公司OpenAI提出了弱到强泛化技术,阿里通义实验室提出了基于辩论驱动的弱监督对齐技术等,这些研究为解决未来“超级对齐”问题提供了可能性。


数据飞轮是人机对齐法则的重要实现路径

健康报:在医疗领域中,如何实现人机对齐法则的全面渗透?


王江平:关键在于技术与管理双管齐下。具体来说,应从技术架构、数据集建设、医院管理、患者知情、行业监管五大环节协同发力。

在技术架构环节,要从源头上注入伦理基因,实现价值观驱动。在模型预训练阶段,应引入医学伦理知识图谱,让模型优先学习循证医学指南、临床诊疗规范等。在模型微调阶段,应通过人工反馈强化学习方法,让模型适应具体场景的伦理偏好,在给出方案时综合评估患者年龄、病情、经济状况等因素,避免“一刀切”决策。

在数据集建设环节,要充分考量医疗数据格式不统一、多模态混杂、小样本和高维度数据并存、隐私问题突出等难题。在技术层面,应运用隐私计算技术实现数据“可用不可见”,通过术语标准化打破数据孤岛,利用小样本增强技术解决标注数据不足问题。在机制层面,应设立数据过滤器,自动屏蔽包含歧视、错误伦理导向的数据源;建设医疗可信数据空间,推动建立统一数据规则和技术标准,促进合规共享。

在医院管理环节,在诊断、手术等高风险场景实施“双保险机制”,如由医生对AI提出的手术建议实时复核并留存记录。在健康咨询、用药提醒等中低风险场景,可允许AI自主决策,但需嵌入动态监控日志,记录交互细节,以供事后审计。同时,应开发可视化工具包,让医生快速理解模型逻辑;设立人机协作绩效指标,将AI使用规范纳入医生考核体系,避免盲目信任或过度抵触。

在患者知情环节,应向患者提供“可理解的AI决策报告”,用通俗语言解释推荐药物、治疗方案的理由;建立“患者一票否决通道”,当患者质疑AI建议时强制切换至人工服务,保障患者的否决权。

在行业监管环节,应建立国家统一的医疗AI人机对齐认证标准体系,由第三方机构开展测评,并作为市场准入前提;常态化开展“红蓝对抗演练”等对抗性测试,模拟罕见病误诊、数据投毒等极端场景,测试模型鲁棒性;设立由临床医生、AI工程师、伦理学家、患者代表等共同参与的多学科伦理委员会,定期评估模型对齐度;编制《医疗AI人工对齐白皮书》,为开发者、医疗机构等提供操作指南。

健康报:据了解,数据飞轮是人机对齐法则的重要实现路径。什么是数据飞轮?如何确保其在医疗行业的有效运转?


王江平:数据飞轮就是用户对AI输出进行标注、反馈,从而实现模型持续优化的闭环机制。数据飞轮不仅是AI技术迭代的引擎,更是人机对齐法则的重要实现路径。医疗行业有必要引入数据飞轮,通过“模型输出评估—数据收集—应用反馈—模型优化”的闭环,使医疗AI持续贴近真实医疗需求。

医疗行业的数据飞轮需建立准入机制和激励机制。建立准入机制的目的是确保数据干净合规。医疗数据贡献者(医疗机构、医生)需通过伦理审查和资质认证,以避免噪声数据污染模型价值观。建立激励机制的目的是让数据共享实现“双向受益”。比如参与数据共享计划的机构可优先使用定制化AI工具。只有让数据飞轮在真实医疗场景中持续运转,才能不断修正模型偏差,使模型“越用越聪明,越用越可靠”。

需要强调的是,医疗AI应用的终点绝不是取代医生,而是成为人类可以信赖的“医疗助手”,成为帮助医生、造福患者的高效工具。




文:健康报记者 宁艳阳

编辑:张昊华 真宇

校对:马杨

审核:秦明睿 徐秉楠


本文经「原本」原创认证,作者健康报社有限公司,访问yuanben.io查询【487G1CZ9】获取授权

相关文章
  • 人机对齐:破解AI伦理困境的“钥匙”

    近年来,AI(人工智能)技术飞速发展,在带来效率革命的同时,也暴露出隐私泄露、歧视偏见、算法滥用等伦理问题。当AI在医疗健康领域的应用日益普及,人类能否对其托付生命健康?近日,健康报记者专访第十四届全国政协委员、研究员级高级工程师王江平,请他谈谈医疗AI存在的伦理风险以及应对策略。 医疗AI可能导致

    时间:2025-05-06 17:33:00
  • 八旬院士“神预言”DeepSeek诞生!“真没料到会成预言家”

    陈润生是我国非编码基因研究的拓荒者,也是20世纪末至21世纪初全球规模最大的生命科学工程——“人类基因组计划”的参与者。很多人认识陈润生是在一条热传的短视频上。当DeepSeek成功崛起,很多人找出了两年前他说的一句话,“堆积算力的尽头是沙漠,不能够一味地堆积芯片,而是应该开发底层创新。”有人说当全

    时间:2025-05-06 16:17:00
  • 超越DeepSeek-R1,英伟达开源新王登顶,14万H100小时训练细节全曝光

    现在,英伟达Llama-Nemotron系列模型,正式超越DeepSeek-R1!而且,这些模型已经全部开源了。换句话说,在推理吞吐量和内存效率上显著超越DeepSeek-R1的一系列推理模型,已经开源可用了。超越DeepSeek-R1的模型,究竟是怎么炼出的?就在刚刚,英伟达发布了技术报告中,揭秘

    时间:2025-05-06 15:35:00
  • 中国援桑给巴尔医疗队跨岛联合完成高难度妇科手术

    中国医疗队专家与当地医生协同手术。中国援桑医疗队供图人民网约翰内斯堡5月4日电(记者邹松) 中国(江苏)第34期援桑给巴尔医疗队近日在妇科领域实现了一次意义非凡的跨岛合作。来自桑给巴尔岛医疗点的妇科专家秦珊珊、麻醉科李广明与奔巴医疗点的妇科专家胡林义在奔巴岛阿卜杜拉·姆才医院成功为两位患者实施高难度

    时间:2025-05-06 11:23:00
  • 投票通过 马斯克的星舰基地成了一座“真正的”城镇

    美国太空探索技术公司(SpaceX)火箭制造与发射基地所在的得克萨斯州南部墨西哥湾沿岸地区于5月3日投票,决定是否将当地升级为一座名为“星舰基地”的城镇。目前,有173票赞成,4票反对。只需143票赞成就算通过,“星舰基地”成为城镇已成定局。太空探索技术公司首席执行官埃隆·马斯克在社交媒体发文:“得

    时间:2025-05-04 10:44:00