春节期间,家在吉林的李沐的一颗旧痣旁边,长出了一条深色细线。尽管这颗痣直径不过一毫米,却边缘模糊、形状不对称,而且长在肘窝,经常会被摩擦到。她担心这是发病凶险的黑色素瘤。由于多年留学国外,对国内看病流程、医保报销不熟悉,加上假期就医不便,她试着将问题抛给AI。
她先问了常用的ChatGPT等通用大模型,得到的回答并不让她满意:要么列举多种可能,让她越看越晕;要么直接提示她,“立刻放下手头所有事情去医院”。 她转而求助几个健康AI应用。尝试之后,她的感受是“进入了一个线上诊室,AI像医生一样,一步步询问我的情况”。她告诉《中国新闻周刊》,健康AI应用给出的判断比较一致,认为这更像是色素痣的良性变化,不必过于担心。几天后,医生也给出了类似的诊断意见。
像李沐一样,将AI当作“健康顾问”的人,正迅速增多。这个春节,健康AI应用“蚂蚁阿福”用户规模突破1亿,连续多日登顶苹果应用商店下载榜。过去几个月,多个面向患者的医疗大模型密集上线。当越来越多患者正带着AI生成的“建议”走进医院,医疗的边界及医生的角色正被重新定义。

AI制图
回答问题“千人千面”
得到健康AI应用的回答前,按照提示,李沐先输入了年龄、病史等基础信息,又上传了痣的照片。她之所以信任这类产品,一是因为它们会给出判断的依据,并附上真实的参考资料;二是会推荐相应医生,让李沐觉得有真人“兜底”。于是,她最近遇到健康问题时,第一个想到的就是健康AI应用,甚至吃饭前,也会把每餐食物拍下来发给它,让它计算热量。
“‘蚂蚁阿福’的新增用户中,52%来自三线及以下城市。”蚂蚁健康公众沟通负责人沈云芳对《中国新闻周刊》介绍,在优质医疗资源相对稀缺的地区,公众使用线上医疗健康服务的需求更强。她还提到,用户中的年轻人占比较高,“80后”“90后”和“00后”占比超六成。不少年轻人也会在AI的帮助下,帮长辈解答检查报告、用药等方面的问题。
自生成式人工智能兴起以来,医疗健康一直是AI最常被提问的领域之一。2026年1月,OpenAI发布的报告显示,全球范围内,超过5%的ChatGPT问答与医疗健康相关,平均每周达到数十亿条,其中约七成发生在常规门诊时间之外。1月7日,OpenAI推出面向消费者的健康工具ChatGPT Health,向小部分用户开放。在国内,各大公司也在布局面向消费者的健康AI应用,除了蚂蚁集团的“蚂蚁阿福”,还有京东健康的“AI京医”、字节跳动的“小荷AI医生”、医联的“未来医生”等。
李沐在与健康AI应用交流时,面对的是一个更专业的智能体。以“蚂蚁阿福”为例,沈云芳介绍,其专业能力建立在三层基础之上:第一层是医学大模型的训练,采用医学指南、论文等材料;第二层是产品的问答逻辑,AI能像真人医生一样持续追问;第三层是建立用户的健康档案,并与其他健康设备连接,结合病史和实时数据,提供更个性化的健康建议。
目前,已有1000多位医生在“蚂蚁阿福”上开设了智能体“AI分身”。过去6个月,同济大学附属东方医院妇产科主任段涛的“AI分身”已为16万人回答了70多万个问题,而他本人每天通常只能接诊20名患者。
段涛对《中国新闻周刊》介绍,他对自己的“AI分身”提出了三个递进版本的要求。1.0版本要做到正确回答问题,为此,他把自己十余年的科普文章和视频内容“喂”给了“AI分身”,让回答更简单明了。2.0版本要做到根据不同用户的知识背景和交流语气,给出“千人千面”的回答。这也是当下正在应用的版本。
以早产问题为例,段涛的“AI分身”可以结合病史、症状、宫颈管长度等信息,给出更有针对性的回答。他介绍,和线下问诊不同,线上患者往往更缺乏耐心,如果经过多轮追问,仍得不到答案,用户很可能会直接退出。为此,“AI分身”要在三轮对话内给出初步判断,并在后续问答中不断细化。段涛介绍,未来3.0版本的目标,是让智能体“AI分身”更像真人,懂得人文关怀。
上海交通大学人工智能学院副院长张娅对《中国新闻周刊》介绍,由于难以找到合适的医生,很多罕见病患者辗转多年才能确诊。2025年7月,张娅牵头研发的全球首个罕见病在线诊断平台DeepRare上线。张娅介绍,DeepRare能结合患者症状和既往诊断,帮助其匹配更合适的医院和科室。“比如,原本可能要看30个医生,现在减少至3到5个。”这对于要“早诊断、早治疗”的罕见病患者来说,尤为重要。
段涛认为,在技术方面,国内大模型与国际最先进水平仍有差距,在场景应用上,国内应用的落地速度可能更快。沈云芳介绍,目前“蚂蚁阿福”的使用场景中,健康问答占比最高,其次是拍照和电话咨询。“比如老年用户,就更偏好电话咨询这种类似真人聊天的方式。”
红线内的风险
“‘蚂蚁阿福’的定位是健康AI,而不是医疗AI,主要是帮助用户自我管理。涉及医疗诊断,还是由真人医生来进行。”沈云芳说。
翟小军是国内一所三甲医院的感染科主任。他发现,自己接诊的不少患者,在去医院之前都会先问AI,但有时,AI的结论与他的诊断存在较大偏差。比如,有患者在出现甲胎蛋白(AFP)升高后,就会被AI怀疑可能患有肝癌。“这时,如果告诉他没有得肝癌,就要付出更多沟通成本。”
“AI会犯错,在医疗场景中,这尤为严重。”翟小军对《中国新闻周刊》说。他自己在使用过程中发现,AI有时甚至生成虚假文献。要识别这些问题,使用者要具备一定医学知识,甚至去核对原始论文。翟小军认为,这显然超出了普通患者的能力范围。
2月23日,《自然-医学》发表的一项研究对ChatGPT Health进行了960次模拟测试,其表现呈现明显的“倒U形”:在处理中等难度病例时相对稳定,但一旦遇到临床最轻微和最严重的情况,错误率就会明显上升。在需要紧急处理的病例中,有52%出现了分诊不足。而且,当家人或朋友在描述中淡化症状时,ChatGPT Health容易低估病情。
“同一个患者的病情,不同的人去问AI,得到的答案也可能不一样。”翟小军介绍,AI往往根据用户的主观表述和输入的关键词作出判断,掌握的信息有限,医生在诊断时,通常要综合多个因素。在需要医生检查的体征上,AI目前几乎无法获取这类信息。“比如,一位黄疸患者来到诊室,医生往往一眼就能作出初步判断,而AI很难单凭患者的描述判断。”
在国内现行监管框架下,对于普通用户,AI只能提供原则性的医疗建议。2022年2月,国家卫生健康委发布的《互联网诊疗监管细则(试行)》要求,严禁使用人工智能等自动生成处方。北京中医药大学医药卫生法学教授邓勇对《中国新闻周刊》分析,如果AI产品作出了明确疾病诊断、制定个性化治疗方案等行为,都属于违规开展诊疗活动,将直接触碰监管红线。
翟小军认为,尽管AI宣称不会直接给出诊疗意见,但其回答仍会影响患者对治疗方案的选择。更值得警惕的,是患者对AI的盲目信任。他发现,越来越多患者在得到AI的回答后,会自己买药治疗,不再去医院就诊。
自从去年年初帮父亲安装了DeepSeek后,家住北京的王芳发现,父亲开始频繁向AI描述自己设想中的病情,并不断引导AI给出“建议手术”的答复。多家医院的医生都认为,王芳父亲的主要问题是身体机能退化,以及抑郁症带来的躯体化症状。对于由此导致的椎管狭窄、骶管囊肿等,手术改善效果有限,还可能造成排便、排尿困难,甚至瘫痪。但王芳的父亲始终认定,AI给出的才是准确答案。
翟小军还发现,不少患者在就诊时会提到,“自己是被AI推荐来找他看病的”。他也尝试过让AI推荐医生,但发现一些推荐并不准确,比如会推荐一些已远离临床一线的行政管理者,也会优先推荐那些活跃于自媒体、拥有一定粉丝量的医生。
目前,围绕AI医疗的另一重担忧,在于数据与隐私安全。大量用户的个人信息和健康数据具有商业价值,也存在泄露风险。为此,各家公司都在采取数据脱敏、加密保护等措施。比如,“未来医生”产品负责人对《中国新闻周刊》介绍,“未来医生”搭建了分级隔离的数据沙盒,对原始数据进行物理隔离。但邓勇认为,在隐私合规方面,行业主要遵循最小必要收集、单独知情同意、加密存储保护等原则,但在模型训练数据的使用、数据跨境传输及责任划分等方面,仍缺乏明确而统一的规则。
“放手但不撒手”
带着AI建议走进医院的患者,已越来越多。对此,医生的反应并不一致。有不少医生表示,面对这类患者,自己会担心受到质疑,更倾向于严格按照指南,采取相对保守的治疗方案;也有医生认为,与患者一起使用AI,可以共同学习进步。
“和许多技术的发展路径相似,AI医疗也可能先从C端用户开始,反过来影响B端的医院。”段涛认为,医疗行业受传统惯性和监管要求影响,AI应用的落地相对较慢。随着面向用户的医疗大模型快速落地,医生也会被倒逼着使用AI。“如果不学会用AI,医生很可能反过来被用AI的病人挑战。”
2025年11月,国家卫生健康委等五部门印发《关于促进和规范“人工智能+医疗卫生”应用发展的实施意见》,提出到2027年,形成一批临床专病专科垂直大模型和智能体应用;到2030年,基层诊疗智能辅助应用基本实现全覆盖。
段涛表示,在线下门诊中,约70%的咨询都是基础性、重复性问题,AI可以帮助医生分担一部分重复劳动。而且,AI“平权”的特性逐步融入到医疗体系中,有望提升医疗服务的公平性、可及性和便利性。“目前一些优秀医疗AI的水平,已超过了国内医生的中位数。”段涛认为,尤其在县域地区,基层医生的诊疗能力相对有限,在部分场景下难以达到优秀医疗大模型的水准。
“有时候,面对成千上万种药物,我自己记不全,也会去问我的‘AI分身’。”段涛说。现在AI通过检索最新文献,可以在既有知识库基础上提出建议。相比之下,大多数医生很难持续完成同样强度的知识更新。段涛透露,同济大学附属东方医院今年将全面推进“大模型+智能体”的落地,未来3个月,上海浦东新区40余家社区卫生服务中心也将陆续部署同款AI。
在段涛看来,医生与AI的协作大致会经历三个阶段:第一阶段是把AI作为工具,类似于现在使用电脑;第二阶段是把AI作为协同者,帮助自己完成任务;第三阶段是把AI作为团队成员,可以完全信任。段涛认为,目前,国内大多数医生还处于第一阶段。
对于AI医疗带来的风险,段涛认为,人类对AI的使用应是“放手但不撒手”,即便AI替代了一部分工作,最终决策权仍应掌握在人手中,并由人来承担相应责任。他预计,未来AI不会代替医生,但是会用AI的医生,将代替不会用AI的医生。
(文中李沐、翟小军、王芳为化名)
发于2026.3.16总第1227期《中国新闻周刊》杂志
杂志标题:看病之前,先问AI?
记者:孙厚铭
编辑:杜玮
运营编辑:肖冉