量子AI:无忌,你忘了吗?
创始人
2025-09-07 21:44:51
0

你是否想过,我们每天依赖的AI——从手机相册的人脸识别到医院的疾病诊断系统——其实可能是个“玻璃心”?

当训练数据里混入错误标签(比如把“猫”标成“狗”),或是被恶意注入的“垃圾信息”污染,经典AI往往会照单全收,甚至把错误当成真理死记硬背。更麻烦的是,一旦学错了,想让它“忘记”这些错误比登天还难——就像给装满水的海绵挤掉特定几滴,几乎不可能。

但最近,中国科学家的一项研究让我们看到了新希望:量子机器学习(QML)或许天生带着“火眼金睛”和“橡皮擦”。它不仅能在混乱的数据中牢牢抓住核心规律,还能高效“删除”错误记忆。

一、经典AI的“死记硬背”与量子AI的“提纲挈领”

要理解量子AI的优势,得先看清经典AI的“痛点”。

研究团队做了一个对比实验:让经典的多层感知机(MLP)和量子神经网络(QNN)同时学习两类数据——一类是经典的MNIST手写数字(区分“1”和“9”),另一类是量子物理中的XXZ自旋模型基态(区分“无隙相”和“有隙相”)。随后,他们故意“污染”数据,看看两个模型的反应。

图1 量子AI对数据污染的优异抗干扰能力

1.当标签被故意标反:经典模型节节败退,量子模型稳如泰山

第一种污染方式是“标签翻转”:随机把20%的正确标签改成错误(比如“1”标成“9”,“9”标成“1”)。

经典MLP的表现堪称“灾难”:只要混入一点错误,它的泛化能力就开始持续下滑。就像一个固执的学生,非要把课本里的错别字也当成重点背诵,结果越学越糊涂。即便训练时正确率很高,面对新数据也会频频出错——因为它把错误信息和正确规律搅在了一起。

量子QNN则完全不同:在错误率低于50%时,它的正确率几乎纹丝不动,像一道坚固的堤坝,任凭小股洪水冲击也屹立不倒。直到错误率超过50%这个“临界点”,它的性能才会突然下降,如同堤坝超过承重后瞬间溃决。这种“非连续”的响应,像极了物理中的“相变”——从“有序”(正确学习)到“无序”(失效)的突然转变。

为什么会这样?QNN似乎天生懂得“抓大放小”:当错误数据是少数时,它能忽略这些“噪音”,专注于数据的整体规律;只有当错误成为主流,它才会“缴械投降”。而MLP却在一开始就试图记住每一个细节,最终被错误拖垮。

2.当特征被彻底打乱:数据越少,量子优势越明显

第二种污染方式是“特征随机化”:把20%的数据特征换成纯随机噪音(比如把手写数字的像素换成乱码)。

这时,两个模型都表现出一定的抗干扰能力——毕竟随机噪音和真实数据差异太大,容易识别。但在数据稀缺时,差距再次显现:

在样本量较小的XXZ量子数据集上,当错误率超过80%,经典MLP就扛不住了,像在茫茫大雾中找不到方向,无法形成稳定的判断标准。而QNN依然稳如老狗,哪怕干净数据所剩无几,也能精准揪出噪音并无视它们。

研究人员解释:这就像在堆满杂物的房间里找钥匙——经典模型会被杂物分散注意力,而量子模型能直接锁定钥匙的“本质特征”,不受干扰。

二、量子AI的“遗忘术”

如果AI已经学了错误信息,能不能让它“忘记”?这就是“机器学习遗忘”的核心问题。

经典方法的“笨办法”是“从头再学”:把干净数据重新训练一遍。但对大型模型来说,这相当于把整座房子拆了重建,成本高到离谱。于是科学家们想出了各种“偷懒”的近似方法,比如“微调”(在原有模型上继续训练干净数据)、“scrub”(让新模型远离错误答案)、“梯度上升”(反向修正错误)。

图2 量子AI的可遗忘特性

1.经典模型的“顽固记忆”:错误像刻在石头上

对MLP来说,“从头再学”能达到理想效果,但那些“偷懒”的方法全都失灵了。比如“微调”后,模型的正确率始终赶不上重新训练的结果,就像旧课本上的错别字,哪怕用涂改液盖住,还是会影响阅读——错误记忆已经根深蒂固。

研究人员用“损失景观”解释了这一点:经典模型的学习过程像在地形复杂的山地里找最低点。一旦学了错误数据,它就会掉进一个“陡峭的峡谷”——峡谷越深(记忆越牢固),就越难爬出来。想让它忘记错误,好比让球从深谷滚到平缓地带,几乎不可能。

2.量子模型的“灵活大脑”:错误像写在沙上

QNN的表现截然相反:“从头再学”反而效率低、不稳定,而那些“偷懒”的近似方法却效果拔群。比如“微调”和“scrub”,不仅能快速恢复正确率,甚至在相同时间内比重新训练效果更好。

更有趣的是,QNN在“遗忘”时会先经历一个短暂的“正确率下降”,就像清理房间时先把东西翻乱,再重新整理。这说明它在主动“挣脱”错误的局部最优解,寻找更正确的答案。而经典模型连这个“翻乱”的过程都没有——很难跳出错误的“峡谷”。

为什么量子模型这么“善忘”?关键还是“损失景观”:QNN的学习地形始终平缓开阔,就算学了错误数据,也只是停留在一个“浅坑”里,稍微推一把就能爬出来。它的“景观粗糙度(LRR)”几乎等于1,意味着数据污染几乎不会改变它的学习地形结构。

三、背后的秘密:量子力学如何塑造“聪明的AI”

量子AI的优势,藏在它的“数学基因”里。

研究团队通过简化模型(单神经元MLP vs 单量子比特QNN),从数学上揭开了谜底:

经典MLP的“Hessian矩阵”(描述损失景观曲率)永远是正数,意味着它的学习地形只会越来越“陡峭”。当数据有矛盾时,它只能被迫在陡峭的地形里找妥协,把错误和正确死死绑在一起。

而QNN的“Hessian矩阵”有一个特殊的“误差-相位交互项”,可以是负数。这相当于给地形装了“缓冲垫”——当错误数据出现时,负曲率能抵消部分陡峭度,让整体地形保持平缓。就像给紧绷的绳子松了个结,避免它被矛盾数据“扯断”。

这种数学特性,让QNN既能记住重要信息(高容量),又能主动忽略噪音(强正则化),堪称“鱼与熊掌兼得”。

结语:从“被动学习”到“主动思考”

经典AI像个勤奋但死板的抄写员,逐字逐句记录所有信息,哪怕内容矛盾也照单全收;而量子AI更像个明智的编辑,能从杂乱的稿件中提炼核心观点,还能果断删掉错误段落。

这种从“被动记忆”到“主动筛选”的转变,或许正是AI走向“真正智能”的关键一步。当量子计算的硬件成熟,我们或许会迎来一个“不纠结、不固执、能纠错”的AI新时代。

论文链接:

https://arxiv.org/abs/2508.02422v1

相关内容

最新资讯

难度不大?数千学生参加,今年全... 五十万宁波家长都在关注的教育平台 今天,全省各地均举办了2025 年全国高中生物理竞赛预赛,预计成绩...
月全食来了 今夜别忘抬头望望天 7日午夜到8日凌晨,本年度重磅天象月全食将现身天宇,夜空中将呈现一场精彩的天体魔术,月亮在地球和太阳...
今年的纯欲天花板,稳了 众所周知,岛国最擅长拍「三观不正」的剧。比如《昼颜:工作日下午三点的恋人们》,讲家庭主妇集体婚外情。...
流星蝴蝶剑:大陆经典古龙剧,1... 《流星蝴蝶剑》是古龙创作的一部武侠小说,自1971年问世以来,先后被改编成两部电影、四部电视剧等多个...
科大讯飞在线测评、社招校招笔试... 科大讯飞公开竞聘测评题目分布 科大讯飞公开竞聘测评题型攻略 科大讯飞在线招聘测评真题考点分析? 科大...
数千学生共同挑战,2025年全... 2025年全国中学生物理竞赛预赛于今天如火如荼地进行,吸引了数千名学生参与。这一备受关注的赛事,尤其...
兴趣不分年龄、热爱无需门槛!市... 来源:滚动播报 (来源:上观新闻) 当秋夜的晚风拂过街巷,结束了一天忙碌的你,是否还在为“下班后去...
该!买!包!了!30款绝美初秋... 好久没给你们安利过包包了,一翻收藏夹,才发现,我可囤了太多美包了,今天就分享给姐妹们吧~复古风一直是...
备考2026年湖北专升本怎么重... 备考湖北专升本是一场长期的过程,复习也需要考生一直坚持,面对繁杂的知识点和众多的考生竞争,大家难免会...
人物|40年来首位成年的男性皇... 据美联社报道,悠仁亲王是40年来首位成年的男性皇室成员,许多日本人担心,他也可能是最后一位。9月6日...