一种无线联邦学习方法及基于此的无线通信系统

专利检索2026-03-05  1


本发明涉及无线通信领域,具体来说涉及无线通信领域中的无线联邦学习,更具体地说,涉及一种无线联邦学习方法及基于此的无线通信系统。


背景技术:

1、随着人工智能(artificial intelligence,ai)技术的发展,智能化移动通信系统受到了广泛研究,特别是移动通信系统将具备支持ai模型学习的能力。具体地,移动通信系统通过配置经ai模型学习方法而得到的ai模型而变得智能化。传统的ai模型学习往往采用集中式架构,存储在通信节点的原始数据传输到服务器上进行模型训练。然而,集中式架构将原始数据直接暴露在网络中,威胁数据安全。同时,出于数据安全考虑,各个节点可能不愿意上传原始数据,导致集中式架构的可用数据有限,限制了ai模型的性能。为了解决集中式ai训练架构的种种缺陷,以无线联邦学习(wireless federated learning,简称wfl,本发明后续实施例中均以wfl代表无线联邦学习)为代表的分布式学习架构成为智能移动通信系统的关键技术之一[1]–[3]。wfl由google公司mcmahan等人提出[4],相比于集中式架构中节点向服务器传输原始数据,wfl只需要服务器与节点之间迭代ai模型参数来完成学习过程,而原始数据无需离开节点本地。因此wfl在提升ai性能的同时保证了节点数据安全。wfl受到广泛关注,并已经成功部署测试,例如,openmined、微众银行、百度等公司陆续推出wfl开源框架[5]–[7];google使用边缘服务器架构,成功将wfl用于智能手机语言预测模型训练任务中[8]。

2、一个wfl系统包括服务器(如基站)和多个通信节点,它们之间通过无线网络进行模型参数交互。wfl包括四个步骤:1)在每一轮的训练中,控制整个学习过程的服务器选择一组节点参加训练;2)服务器向被选择的节点传输全局机器学习(machine learning,ml)模型参数,之后等待节点上传本地更新模型;3)每个被选择的节点根据其本地数据并行地更新从服务器接收到的全局ml模型,然后将更新后的模型传输到服务器。成功上传模型的节点称为成功训练的节点(successful training client,stc);4)服务器收集本地模型,生成新的全局模型后进入下一轮迭代。这四个步骤迭代执行,直到达到预期的训练轮数。

3、其中,步骤1中的节点选择是wfl的关键问题。在wfl中,不同节点的通信计算资源不同,导致学习能力异构,而每轮训练时间的完成时间由最慢节点决定,高时延节点阻塞学习过程,学习性能强的节点需等待,这导致训练效率严重下降。因此,应选择通信计算能力更强的节点,尽快完成一轮训练,提高训练效率。另一方面,节点选择的频率决定了ai模型的有效性,应根据一定的公平原则选择节点参加训练,否则部分节点上的数据无法参与训练,模型性能降低[9]。因此,节点选择决定了训练效率并通过选择的公平性影响模型性能,这两者之间存在着权衡。

4、考虑到上述的节点学习能力异构性,目前wfl节点选择方案可以分为全等待策略(waiting-all,wa)和落后者丢弃策略(dropping-stragglers,ds)。wa是指服务器随机选择一组节点进行训练,直到所有选定的节点都完成本地模型的计算和上传后,服务器才能进行聚合并启动下一轮,如fedavg[4],q-ffl[10]等。wa保证了选择的公平性和模型的有效性,但落后者会导致训练效率低下。为了解决这一问题,提出了落后者丢弃策略ds。例如,如果某些选定的节点完成时间超过了时间阈值,则可以在一轮中丢弃它们,如fedcs[11]、hybridfl[12]、fedmccs[13]等方案。由于具有更强大的cpu/gpu和更高传输速率的节点更有可能被选择用于训练,这些方法会导致节点选择的不公平并降低所训练模型在这些节点上的性能。为了解决公平性问题,一类解决方法是添加选择频率约束,确保每个节点至少参加一定数量的轮数的训练[14]–[16]。但是,这个最小轮数很难设定,因为它涉及到神经网络和节点存储的不可知数据。采用缓存的方式可以保留超时的落后者节点的模型参数,并在后续轮次中聚合这些参数[17]。然而,wfl要求来自同一轮的局部模型应该基于相同的全局模型更新。当发生异步更新时,模型版本较高的方差会影响模型的收敛性[9]。因此,该方法只能应用于有轻微滞后时间的情况。因此,需要设计联合优化分布式学习训练效率和模型性能的节点选择方案。

5、参考文献列表:

6、文献[1]w.y.b.lim et al.,“federated learning in mobile edge networks:acomprehensive survey,”ieee communications surveys&tutorials,vol.22,no.3,pp.2031–2063,2020.

7、文献[2]y.shi,k.yang,t.jiang,j.zhang,and k.b.letaief,“communication-efficient edge ai:algorithms and systems,”ieee communications surveystutorials,vol.22,no.4,pp.2167–2191,2020.

8、文献[3]z.zhou,x.chen,e.li,l.zeng,k.luo,and j.zhang,“edgeintelligence:paving the last mile of artificial intelligence with edgecomputing,”proceedings of the ieee,vol.107,no.8,pp.1738–1762,2019.

9、文献[4]h.b.mcmahan,e.moore,d.ramage,s.hampson,and b.a.y arcas,“communication-efficient learning of deep networks from decentralized data,”arxiv:1602.05629[cs],feb.2017,accessed:mar.27,2022.[online].available:http://arxiv.org/abs/1602.05629

10、文献[5]“github-openmined/pysyft:data science on data withoutacquiring a copy.”https://github.com/openmined/pysyft(accessed aug.06,2022).

11、文献[6]“github-federatedai/fate:an industrial grade federatedlearning framework.”https://github.com/federatedai/fate(accessed aug.06,2022).

12、文献[7]“github-paddlepaddle/paddlefl:federated deep learning inpaddlepaddle.”https://github.com/paddlepaddle/paddlefl(accessed aug.06,2022).

13、文献[8]t.yang et al.,“applied federated learning:improving googlekeyboard query suggestions,”arxiv:1812.02903[cs,stat],dec.2018,accessed:may05,2022.[online].available:http://arxiv.org/abs/1812.02903

14、文献[9]z.xu,f.yu,j.xiong,and x.chen,“helios:heterogeneity-awarefederated learning with dynamically balanced collaboration,”arxiv,arxiv:1912.01684,mar.2021.

15、文献[10]t.li,m.sanjabi,a.beirami,and v.smith,“fair resourceallocation in federated learning,”arxiv:1905.10497[cs,stat],feb.2020,accessed:mar.27,2022.[online].available:http://arxiv.org/abs/1905.10497

16、文献[11]t.nishio and r.yonetani,“client selection for federatedlearning with heterogeneous resources in mobile edge,”in icc 2019-2019ieeeinternational conference on communications(icc),2019,pp.1–7.

17、文献[12]w.wu,l.he,w.lin,and r.mao,“accelerating federated learningover reliability-agnostic clients in mobile edge computing systems,”ieeetransactions on parallel and distributed systems,vol.32,no.7,pp.1539–1551,jul.2021.

18、文献[13]s.abdulrahman,h.tout,a.mourad,and c.talhi,“fedmccs:multicriteria client selection model for optimal iot federated learning,”ieeeinternet of things journal,vol.8,no.6,pp.4723–4735,mar.2021.

19、文献[14]t.huang,w.lin,w.wu,l.he,k.li,and a.y.zomaya,“an efficiency-boosting client selection scheme for federated learning with fairnessguarantee,”ieee transactions on parallel and distributed systems,vol.32,no.7,pp.1552–1564,jul.2021.

20、文献[15]w.xia,w.wen,k.-k.wong,t.q.s.quek,j.zhang,and h.zhu,“federated-learning-based client scheduling for low-latency wirelesscommunications,”ieee wireless communications,vol.28,no.2,pp.32–38,apr.2021.

21、文献[16]m.e.ozfatura,j.zhao,and d.gündüz,“fast federated edgelearning with overlapped communication and computation and channel-aware fairclient scheduling,”in 2021ieee 22nd international workshop on signalprocessing advances in wireless communications(spawc),sep.2021,pp.311–315.

22、文献[17]w.wu,l.he,w.lin,r.mao,c.maple,and s.jarvis,“safa:a semi-asynchronous protocol for fast federated learning with low overhead,”ieeetransactions on computers,vol.70,no.5,pp.655–668,2021.


技术实现思路

1、因此,本发明的目的在于克服上述现有技术的缺陷,提供一种保证训练模型有效性的前提下提高训练效率的节点选择方法。

2、本发明的目的是通过以下技术方案实现的:

3、根据本发明的第一方面,提供一种无线联邦学习方法,用于为无线通信系统训练机器学习模型,所述无线通信系统包括服务器和多个通信节点,其特征在于,所述方法包括:采用联邦学习的方式对待训练的机器学习模型进行多轮迭代训练,其中每轮训练包括:s1、由所述服务器根据预先设置的基于节点峰值信息年龄paoi的约束规则从所述多个通信节点中选择部分节点;s2、由所述服务器向被选择的部分节点分别发送上一轮训练生成的全局机器学习模型;s3、由所述被选择的部分节点根据其本地数据并行地更新从所述服务器接收到的全局机器学习模型,并且将更新后的本地机器学习模型传输到所述服务器;以及s4、由所述服务器基于收集到的更新后的本地机器学习模型生成新的全局机器学习模型。

4、在本发明的一些实施例中,所述约束规则为:所有节点在多轮训练中的paoi的加权和最小化,其中,每个节点在每轮训练中的paoi为该节点在多轮训练中的任一轮训练结束时距该节点上一次被选择时的时间间隔。

5、在本发明的一些实施例中,所述约束规则为:

6、

7、

8、

9、其中,表示以所有节点在多轮训练中的paoi的加权和最小化为标准选择节点,k表示多轮迭代训练的轮数,n表示所有通信节点的数量,k表示多轮迭代训练中的任一轮,n表示所有通信节点的中的任一节点,为所有节点在k轮训练中的paoi的加权和,表示节点n在第k轮训练是否被选择,其中,“0”表示节点被选择,“1”表示节点未被选择,表示节点n在第k轮训练结束时的paoi,表示节点n在第(k-1)轮训练结束时的paoi,以及为完成第k轮训练所需的时间。

10、在本发明的一些实施例中,所述约束规则为:基于节点的优先级,所有节点在当前轮训练结束时的paoi的加权和最小化,其中,每个节点在当前轮训练结束时的paoi为该节点在当前轮结束时距该节点上一次被选择时的时间间隔。

11、在本发明的一些实施例中,所有节点在当前轮训练结束时的paoi的加权和为:

12、

13、其中,p(k)为最高优先级节点集合,q(k)表示其训练完成时间小于或等于完成第k轮训练所需的时间但不在所述最高优先级节点集合中的节点的集合,αn是节点n的权重,其中,p(k)和q(k)中的所有节点共同构成被选择的部分节点。

14、在本发明的一些实施例中,完成一轮训练所需的时间为被选择的部分节点中的每个节点完成该轮训练所需的时间中的最大完成时间。

15、在本发明的一些实施例中,其中,表示节点n在第k轮完成训练所需的时间。

16、在本发明的一些实施例中,所述最高优先级节点集合是从多个候选最高优先级节点集合中按照所述约束规则选择的一个最高优先级节点集合,其中,所述多个候选最高优先级节点集合为按照预设的筛选方式从所有可能的最高优先级节点集合中筛选出的多个最高优先级节点集合。

17、在本发明的一些实施例中,所述预设的筛选方式为:每次训练开始前将所有节点根据其对应的优先级进行重排序,从优先级排序第一的节点开始,以步长为1,依次按照如下方式计算优先级排序靠前的连续多个节点组成的候选目标集合是否为候选最高优先级节点集合:t1、计算当前候选目标集合中的节点完成一次训练所需的时间中的最大完成时间;t2、计算重排序后的节点中,当前候选目标集合最后一个节点的下一节点完成一次训练所需的时间,如果所述下一节点完成一次训练所需的时间小于或等于所述步骤t1中得到的最大完成时间,则当前候选目标集合不是候选最高优先级节点集合。

18、在本发明的一些实施例中,每个节点的优先级为:

19、

20、其中,表示节点n在第k轮的优先级。

21、根据本发明的第二方面,提供一种无线通信系统,其包括服务器和多个通信节点,其特征在于,所述无线通信系统被配置为采用如本发明的第一方面所述方法训练其所需的机器学习模型。

22、根据本发明的第三方面,提供一种无线通信系统,其包括服务器和多个通信节点,其特征在于,所述服务器和多个通信节点均配置有采用如本发明的第一方面所述方法训练的机器学习模型。

23、根据本发明的第四方面,提供一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序可被处理器执行以实现本发明的第一方面所述方法的步骤。

24、根据本发明的第五方面,提供一种电子设备,其特征在于,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述电子设备实现如本发明的第一方面所述方法的步骤。

25、与现有技术相比,本发明的优点在于:

26、1、本发明通过信息年龄aoi的启发,提出了一种基于aoi的节点选择策略,所述节点选择策略一方面能够保证节点选择的公平性,另一方面能够保证节点选择的时效性,使得基于所述节点选择策略的无线联邦学习方法能够保证所训练得到的模型的有效性和训练效率。

27、2、本发明还对与上述优点1中的节点选择策略相对应的优化问题进行了简化求解,通过对与节点选择策略相对应的优化问题的目标函数进行下界推导、逼近下界和降低下界几个方面进行研究,将所述优化问题解耦为节点优先级计算和最高优先级节点数量确定两个子问题,实现了低复杂度的最优节点选择。


技术特征:

1.一种无线联邦学习方法,用于为无线通信系统训练机器学习模型,所述无线通信系统包括服务器和多个通信节点,其特征在于,所述方法包括:采用联邦学习的方式对待训练的机器学习模型进行多轮迭代训练,其中每轮训练包括:

2.根据权利要求1所述的方法,其特征在于,在所述步骤s1中,所述约束规则为:所有节点在多轮训练中的paoi的加权和最小化,其中,每个节点在每轮训练中的paoi为该节点在多轮训练中的任一轮训练结束时距该节点上一次被选择时的时间间隔。

3.根据权利要求2所述的方法,其特征在于,所述约束规则为:

4.根据权利要求2所述的方法,所述约束规则为,基于节点的优先级,所有节点在当前轮训练结束时的paoi的加权和最小化,其中,每个节点在当前轮训练结束时的paoi为该节点在当前轮结束时距该节点上一次被选择时的时间间隔。

5.根据权利要求4所述的方法,其特征在于,所有节点在当前轮训练结束时的paoi的加权和为:

6.根据权利要求5所述的方法,其特征在于,完成一轮训练所需的时间为被选择的部分节点中的每个节点完成该轮训练所需的时间中的最大完成时间。

7.根据权利要求5所述的方法,其特征在于,

8.根据权利要求5所述的方法,其特征在于,所述最高优先级节点集合是从多个候选最高优先级节点集合中按照所述约束规则选择的一个最高优先级节点集合,其中,所述多个候选最高优先级节点集合为按照预设的筛选方式从所有可能的最高优先级节点集合中筛选出的多个最高优先级节点集合。

9.根据权利要求8所述的方法,所述预设的筛选方式为:

10.根据权利要求9所述的方法,其特征在于,每个节点的优先级为:

11.一种无线通信系统,其包括服务器和多个通信节点,其特征在于,所述无线通信系统被配置为采用如权利要求1-10任一所述方法训练其所需的机器学习模型。

12.一种无线通信系统,其包括服务器和多个通信节点,其特征在于,所述服务器和多个通信节点均配置有采用如权利要求1-10任一所述方法训练的机器学习模型。

13.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序可被处理器执行以实现权利要求1-10任一所述方法的步骤。

14.一种电子设备,其特征在于,包括:


技术总结
本发明提供了一种无线联邦学习方法,包括:采用联邦学习的方式对待训练的机器学习模型进行多轮迭代训练,其中每轮训练包括:S1、由所述服务器根据预先设置的基于节点峰值信息年龄PAo I的约束规则从所述多个通信节点中选择部分节点;S2、由所述服务器向被选择的部分节点分别发送上一轮训练生成的全局机器学习模型;S3、由所述被选择的部分节点根据其本地数据并行地更新从所述服务器接收到的全局机器学习模型,并且将更新后的本地机器学习模型传输到所述服务器;以及S4、由所述服务器基于收集到的更新后的本地机器学习模型生成新的全局机器学习模型。通过上述无线联邦学习方法,从而高效得获得有效的机器学习模型。

技术研发人员:董立然,周一青,刘玲,周硕,石晶林
受保护的技术使用者:中国科学院计算技术研究所
技术研发日:
技术公布日:2024/5/29
转载请注明原文地址:https://win.8miu.com/read-1162137.html

最新回复(0)