对抗协作+原型学习!深北莫FedPall开源,联邦学习破局特征漂移,准确率登顶SOTA
创始人
2025-09-24 18:44:10
0

本论文第一作者张勇为北京理工大学医学技术学院计算机技术专业硕士生,主要研究方向为联邦学习,多专家大模型,多任务学习和并行代理。通讯作者是深圳北理莫斯科大学人工智能研究院梁锋博士和胡希平教授。梁锋博士毕业于香港大学计算机科学专业,研究领域为分布式智能,包括分布式系统、分布式机器学习和大规模智能。胡希平教授博士毕业于加拿大不列颠哥伦比亚大学,研究领域为情感智能计算、移动信息物理系统、群智计算。

特征偏移问题是联邦学习数据异构场景下普遍存在的问题,是联邦学习中一个长期存在但尚未充分探索的挑战。特征偏移由于同一类别的样本在不同客户端上表现出不同特征分布的现象,导致决策边界模糊,严重影响了联邦学习模型的分类性能。

针对这个问题,深圳北理莫斯科大学人工智能研究院在 ICCV 上发表了结合原型对比学习和对抗协作学习联合训练的方式,提出了 FedPall 算法,在多种特征偏移的数据集上均获得 SOTA 性能:

  • 客户端与服务器之间引入对抗学习机制,并通过客户端间的协作学习,旨在将特征表示投影到统一特征空间并强化内在类别信息。
  • 开发了一种分层整合全局原型与局部特征的技术策略,以协调客户端-服务器端的协作。混合原型特征随后被用于训练全局分类器,通过跨客户端知识整合引导分类器提取判别性模式。

  • 论文题目:FedPall: Prototype-based Adversarial and Collaborative Learning for Federated Learning with Feature Drift
  • 论文地址:https://arxiv.org/abs/2507.04781
  • 项目主页:https://github.com/DistriAI/FedPall
  • 数据集:https://drive.google.com/drive/folders/1xLxaz3zJRqZbTVDzkoAoWZiX50gwZI_4

方法:对抗协作和原型学习的联合优化

全局原型生成:多项研究指出,以类别为中心的原型是一种隐私友好的全局知识形式。我们通过客户端间的协作来聚合并生成全局原型。通常而言,每个类别的类原型由该类别特征向量的均值表示。服务器端通过整合各个客户端传递局部原型信息形成全局原型后,将全局原型转发至各个客户端。

本地模型训练:在服务器端训练一个共享的全局放大器,在本地利用 KL 散度增强来自不同客户端的特征中的异构信息。并利用 CE 和全局原型对比损失训练一个有效的特征编码器,将来自不同客户端的原始数据映射到统一的特征空间,在此空间内实现特征分布对齐并增强类别相关信息。

全局模型训练:服务器通过整合来自各客户端的混合特征集及对应客户端 ID 来更新全局放大器,并利用来自客户端的混合原型特征和类别标签更新全局分类器。

全局分类器分发:我们将全局分类器部署至每个客户端,用以取代原有的本地分类器,此举旨在获得一个更具泛化能力的分类器,从而缓解特征漂移问题。

实测:基准数据集上的出色表现

我们在三个公开可用的特征漂移数据集(Digits、Office-10 和 PACS)上进行了评估,并将 FedPall 框架的性能与经典方法和最先进的基线进行了比较。

如表 1 所示,我们提出的框架在所有三个数据集上都达到了最先进的准确率。

在 Office-10 数据集上,FedPall 框架的总体准确率较第二名方法 ADCOL 高出约 3 个百分点。Digits 数据集的结果显示,FedPall 明显优于所有其他模型,其准确率比第二名模型 FedBN 高出约 1.1 个百分点。该数据集包含相对容易分类的图像,且特征漂移程度较 Office-10 数据集更小,所有基线模型在此数据集上都取得了较好的准确率。

特别值得注意的是,对抗学习有效缓解了 MNIST-M 客户端中的异构信息问题。同样,我们的算法在 PACS 数据集上也表现优异,总体准确率较 FedBN 产生的次优结果高出约 1.1 个百分点。FedPall 在所有子数据集上都取得了第一或第二的准确率。

FedPall 的平均准确率在三个数据集中均持续优于 ADCOL,提升幅度约 1.1 至 3 个百分点。尽管 FedBN 在 Digits 和 PACS 数据集上能相对接近我们方法的准确率,但我们的方法在 Office-10 数据集上以 31.5 个百分点的显著优势超越它。

如前所述,Office-10 数据集源自现实数据,其特征漂移现象尤为突出,且训练集与测试集之间存在显著分布差异,导致 FedBN 方法在该数据集上表现欠佳。相比之下,FedPall 融合对抗学习与协作学习的特殊设计,使其能良好适应 Office-10 数据集的特征。

本研究聚焦于联邦学习中的特征漂移问题。特征漂移问题会导致不同客户端上同类样本呈现显著差异的特征分布,使得传统模型聚合方法难以处理此类数据异质性。目前,该研究仅针对分类任务设计,并在基于图像的数据集上进行评估。

未来,我们计划系统验证该框架在其他模态数据、更多任务类型中的泛化能力。

相关内容

最新资讯

“澳门海水已涌入内陆”登上热搜... 极目新闻记者 胡秀文9月24日,“澳门海水已涌入内陆”登上热搜第一。据报道,受超强台风“桦加沙”影响...
警惕电信诈骗,守护青春财富 近年来,电信诈骗案件呈高发态势,而大学生群体因其 社会经验不足、防范意识较弱,成为不法分子的主要目标...
原创 斑... 9月24日,2025云栖大会在杭州开幕,这场以“云智一体·碳硅共生”为主题的科技盛会汇聚了来自50多...
中国皮卡首获安全双冠王,上汽大... 中国皮卡,终于在世界汽车的至高赛道上夺冕称王! 长久以来,全球高端皮卡市场的安全牌桌上,只见欧美日韩...
芯片主业承压!英伟达入局Rob... 近日,据36氪汽车报道,英伟达内部正在孵化Robotaxi(无人驾驶出租车)项目,引发市场关注。对此...
原创 开... 我想问问正在看文章的朋友,你开手动挡的车子时,有没有某一个瞬间会觉得自己的某个行为可能会对车不好,但...
原创 炸... 前言 一边是OpenAI和英伟达官宣10GW算力中心的“世纪合作”,涉及数百万颗GPU和千亿级资金...
宝钛集团板材厂:锚定精益核心 ... 宝钛集团板材厂(以下简称“板材厂”)秉持“全面协同 精细精益”的精益文化理念,锚定精益管理核心,从现...
从零打造智能驾驶小车?这门课获... 潮新闻客户端 记者 陈素萍 通讯员 庄静宜 在宁波诺丁汉大学(简称“宁诺”)的一间实验室里,一辆小车...