2026年初,在一场“AI+医疗”行业论坛上,国家传染病医学中心(上海)主任张文宏直言:“我们医院目前拒绝将AI引入电子病历系统”,因为“会让医生变蠢”。
而就在这几天前,特斯拉首席执行官埃隆·马斯克向媒体表示,特斯拉的Optimus人形机器人能在三年内超越世界上最好的人类外科医生,学医将毫无意义。此言一出更是引发全球范围的“轩然大波”。
无论是否愿意承认,AI的快速发展已经开始改变各行各业,医学领域也不例外。一边是AI对于加速医学发展进程的帮助,一边是对AI取代人类的恐慌,让许多人对此喜忧参半。2026年伊始,中外多位专家不约而同就AI改变医疗行业的话题发表不同的观点。
马斯克:学医无意义,机器人将很快取代医生
近日,埃隆马斯克在特斯拉超级工厂接受专访时讨论了人工智能、机器人技术等议题。
在被主持人问及Optimus(擎天柱)人形机器人什么时候可以比顶尖外科医生厉害时,马斯克表示如果规模化应用,只需要三年,即便留一点余地预测:4年后它也将超越任何人类外科医生,5年后它将会完全碾压,每个人都将获得比现任总统现在所享受的更好的医疗服务。
马斯克表示,“目前优秀外科医生短缺,成为一名好医生需要很长时间的学习,而且即便如此,知识也在不断发展。医生的时间有限,他们也会犯错。”
他甚至断言,未来“不要让孩子学医”,认为学医将因AI的崛起而失去意义。
科技巨头描绘的医疗未来充满“赛博朋克”色彩。马斯克指出,AI具备超高的精准度、无疲劳操作能力,并能从海量手术视频中学习进化。他旗下的脑机接口公司Neuralink已展示出手术机器人在17秒内完成单根电极精准植入的能力。
当然,对于马克思的观点,一些专家并不完全认同。据外媒,一位卫生政策专家表示,马斯克“过于乐观”,他认为很多很多年内,机器人被广泛用于大型手术“是不可能的”。
张文宏的警告:AI可能让医生变蠢
与马斯克的“乐观”、甚至“激进”形成鲜明对比,张文宏的态度显得极为审慎。他表示,目前华山医院反对将AI引入医院病历系统,理由直指核心——AI可能让医生产生依赖,进而“变蠢”。
据《澎湃新闻》,这一观点与今年1月《英国精神医学杂志》的一篇题文章不谋而合,文章指出,过度依赖AI可能会降低临床推理和决策的质量,对医患沟通产生负面影响,并增加医学领域去技能化风险。随着AI成为医疗行为的常规环节,医生必须认识到这些工具的局限性。
对于年轻医生而言,这一风险尤为突出。如果住院医师面对复杂病例时不再反复推敲病理机制,而是习惯性点击AI弹出的“诊断建议”,他们的临床推理能力可能退化。
钟南山:AI不是取代医生,而是回归初心
在这场隔空的“对话”中,中国工程院院士钟南山提供了另一种视角。在2026大湾区医疗健康创新大会上,他表示:“推动智慧医疗不是为了取代医生,而是为了医生更好回归到‘以人为本’的初心。”
钟南山强调,医疗AI的发展“不是单纯为了炫技,而是为了解决老百姓看病贵、看病难的实际问题”。他指出,从疫情时期的远程会诊、智能流调到如今的慢病管理,数字技术正让优质医疗资源突破地区限制,惠及更多基层民众。
德国国家科学院院士Roland Eils也支持这一观点,他认为AI在疾病预防方面具有显著价值,能够帮助医学从“被动治疗”转向“主动健康”。 他建议利用大规模真实医疗数据构建用于疾病风险预测的AI大模型,包括电子健康记录等。
哈佛专家务实判断:人机协作,而非取代
针对“机器人医生”的讨论,早前,哈佛医学院外科专家给出了更为务实的评估。目前,大多数医疗机器人仅仅是医生双手的“延伸”,在腹腔镜等微创手术中辅助医生提高精度和降低操作疲劳。
这些系统在骨科或心脏介入等解剖结构明确、易于建模的微创手术领域表现出色,但面对软组织手术等复杂情况时,智能机器人只能作为“助手”。
哈佛专家强调,无论智能机器人自动化水平如何提升,医生的经验和精准判断、安全监管都是不可或缺的。真正“全自动”医疗操作仍需要解决技术、伦理及监管等多重挑战。
值得一提的是,除了技术可行性,医学伦理是AI医疗面临的关键挑战。2025年发表在《npj Digital Medicine》的一项研究揭示,AI在处理复杂医学伦理场景时存在严重缺陷:错误率高达76%-96%,机械套用训练数据中的高概率答案。
“如果AI诊断错误导致医疗事故,责任该由医生、医院还是技术提供商承担?”鉴于伦理的担忧,有业内人士认为责任认定是一大难题。在目前的法律体系中,对于AI领域的相关内容还处于空白,因此让AI取代人工全面运用于临床,显然还有很长很长的路要走。
对此话题你怎么看?欢迎在留言区区参与讨论! (本文为《看医界》发布,转载须经授权,并在文章开头注明作者和来源。)