联邦学习方法、装置、电子设备及计算机可读存储介质与流程

专利检索2025-05-17  10


所属的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830。其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(ram)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(rom)8203。存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。电子设备800也可以与一个或多个外部设备840(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)通信。如图8所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、rf等等,或者上述的任意合适的组合。在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如java、c++等,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(lan)或广域网(wan),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。在本公开的示例性实施例中,还提供了一种计算机程序产品,计算机程序产品包括计算机程序或计算机指令,计算机程序或计算机指令由处理器加载并执行,以使计算机实现本说明书上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围由所附的权利要求指出。


背景技术:

1、在机器学习技术领域中,联邦学习通过边缘服务器与参与节点协同训练模型方式,在保护参与节点数据隐私的同时,实现了对数据的高效利用。

2、相关技术中,联邦学习的边缘服务器将本轮联邦学习的初始模型参数下发给各个参与节点,各个参与节点接收并根据该初始模型参数进行本地训练,得到本地模型参数。之后,各个参与节点向边缘服务器上报本地模型参数,边缘服务器接收到各个参与节点上报的本地模型参数后,将各个本地模型参数按照相同的权重聚合,得到全局模型参数。

3、然而,将各个本地模型参数按照相同的权重聚合,得到的全局模型参数对应的全局模型的准确率较低。

4、需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。


技术实现思路

1、本公开提供一种联邦学习方法、装置、电子设备及计算机可读存储介质,至少在一定程度上克服了相关技术中全局模型的准确率较低的问题。

2、本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。

3、根据本公开的一个方面,提供一种联邦学习方法,应用于边缘服务器,包括:获取多组本地模型参数及每一本地模型参数对应的本地训练时长;根据所述多组本地模型参数和所述本地训练时长,确定每一本地模型参数的权重,每一本地模型参数的权重与相应的本地模型的准确率正相关;将所述多组本地模型参数按照相应的权重聚合,得到全局模型参数。

4、在本公开的一个实施例中,所述根据所述多组本地模型参数和所述本地训练时长,确定每一本地模型参数的权重,包括:根据所述多组本地模型参数和所述本地训练时长,利用沙普利值法确定参与本轮联邦学习的多个参与节点的本轮贡献量;根据所述本轮贡献量,确定每一本地模型参数的权重。

5、在本公开的一个实施例中,所述沙普利值法中价值函数的值基于半全局模型的准确率和目标训练时长确定,所述价值函数的值与所述半全局模型的准确率正相关,且与所述目标训练时长负相关;所述半全局模型基于所述价值函数的变量包括的参与节点的本地模型参数构建得到;所述目标训练时长是所述变量包括的参与节点对应的本地训练时长中的最大本地训练时长。

6、在本公开的一个实施例中,所述根据所述多个参与节点的本轮贡献量,确定每一本地模型参数的权重,包括:获取所述多个参与节点在上一轮联邦学习中的权重贡献量;根据所述本轮贡献量和所述多个参与节点在上一轮联邦学习中的权重贡献量,确定所述多个参与节点在本轮联邦学习中的权重贡献量;根据所述多个参与节点在本轮联邦学习中的权重贡献量,确定每一本地模型参数的权重。

7、在本公开的一个实施例中,还包括:获取每一参与节点的重要性指标,所述重要性指标基于参与节点的数据质量和在本轮联邦学习得到的本地模型的准确率确定;根据所述重要性指标,确定参与下一轮联邦学习的参与节点。

8、在本公开的一个实施例中,所述获取每一参与节点的重要性指标,包括:获取多个参与节点发送的数据质量指数和数据大小;获取每一本地模型参数的准确率;根据所述数据质量指数、所述数据大小和所述准确率,确定每一参与节点的重要性指标。

9、根据本公开的另一个方面,提供另一种联邦学习方法,应用于参与节点,包括:接收边缘服务器发送的初始模型参数;根据所述参与节点的本地数据对所述初始模型参数进行训练,得到本地模型参数;获取对所述初始模型参数进行训练的本地训练时长;向所述边缘服务器发送所述本地模型参数和所述本地训练时长,以便于所述边缘服务器根据所述本地模型参数和所述本地训练时长,生成全局模型参数。

10、在本公开的一个实施例中,确定所述本地数据的数据质量指数;确定所述本地数据的数据大小;接收其他参与节点发送的数据质量指数和数据大小;根据所述本地数据的数据质量指数、数据大小及其他参与节点的数据质量指数、数据大小,确定所述参与节点的重要性指标;向所述边缘服务器发送所述重要性指标,以便于边缘服务器根据所述重要性指标确定参与下一轮联邦学习的参与节点。

11、在本公开的一个实施例中,还包括:向所述其他参与节发送所述本地数据的数据质量指数和数据大小。

12、在本公开的一个实施例中,还包括:确定所述本地数据的数据质量指数;确定所述本地数据的数据大小;向所述边缘服务器发送所述数据质量指数和所述数据大小,以便于所述边缘服务器根据所述数据质量指数和所述数据大小,确定参与下一轮联邦学习的参与节点。

13、在本公开的一个实施例中,所述确定所述本地数据的数据质量指数,包括:确定所述本地数据在多个属性特征下的信息熵;根据所述信息熵,确定所述本地数据在每一属性特征下的熵权;根据所述熵权,生成所述数据质量指数。

14、根据本公开的再一个方面,提供一种联邦学习装置,应用于边缘服务器,包括:第一获取模块,用于获取多组本地模型参数及每一本地模型参数对应的本地训练时长;第一确定模块,用于根据所述多组本地模型参数和所述本地训练时长,确定每一本地模型参数的权重,每一本地模型参数的权重与相应的本地模型的准确率正相关;聚合模块,用于将所述多组本地模型参数按照相应的权重聚合,得到全局模型参数。

15、在本公开的一个实施例中,所述第一确定模块,用于根据所述多组本地模型参数和所述本地训练时长,利用沙普利值法确定参与本轮联邦学习的多个参与节点的本轮贡献量;根据所述本轮贡献量,确定每一本地模型参数的权重。

16、在本公开的一个实施例中,所述沙普利值法中价值函数的值基于半全局模型的准确率和目标训练时长确定,所述价值函数的值与所述半全局模型的准确率正相关,且与所述目标训练时长负相关;所述半全局模型基于所述价值函数的变量包括的参与节点的本地模型参数构建得到;所述目标训练时长是所述变量包括的参与节点对应的本地训练时长中的最大本地训练时长。

17、在本公开的一个实施例中,所述第一确定模块,用于获取所述多个参与节点在上一轮联邦学习中的权重贡献量;根据所述本轮贡献量和所述多个参与节点在上一轮联邦学习中的权重贡献量,确定所述多个参与节点在本轮联邦学习中的权重贡献量;根据所述多个参与节点在本轮联邦学习中的权重贡献量,确定每一本地模型参数的权重。

18、在本公开的一个实施例中,所述第一获取模块,还用于获取每一参与节点的重要性指标,所述重要性指标基于参与节点的数据质量和在本轮联邦学习得到的本地模型的准确率确定;所述第一确定模块,还用于根据所述重要性指标,确定参与下一轮联邦学习的参与节点。

19、在本公开的一个实施例中,所述第一获取模块,用于获取多个参与节点发送的数据质量指数和数据大小;获取每一本地模型参数的准确率;根据所述数据质量指数、所述数据大小和所述准确率,确定每一参与节点的重要性指标。

20、根据本公开的又一个方面,提供另一种联邦学习装置,应用于参与节点,包括:接收模块,用于接收边缘服务器发送的初始模型参数;训练模块,用于根据所述参与节点的本地数据对所述初始模型参数进行训练,得到本地模型参数;第二获取模块,用于获取对所述初始模型参数进行训练的本地训练时长;发送模块,用于向所述边缘服务器发送所述本地模型参数和所述本地训练时长,以便于所述边缘服务器根据所述本地模型参数和所述本地训练时长,生成全局模型参数。

21、在本公开的一个实施例中,所述装置还包括:第二确定模块,用于确定所述本地数据的数据质量指数;所述第二确定模块,还用于确定所述本地数据的数据大小;所述接收模块,还用于接收其他参与节点发送的数据质量指数和数据大小;所述第二确定模块,还用于根据所述本地数据的数据质量指数、数据大小及其他参与节点的数据质量指数、数据大小,确定所述参与节点的重要性指标;所述发送模块,还用于向所述边缘服务器发送所述重要性指标,以便于边缘服务器根据所述重要性指标确定参与下一轮联邦学习的参与节点。

22、在本公开的一个实施例中,所述发送模块,还用于向所述其他参与节发送所述本地数据的数据质量指数和数据大小。

23、在本公开的一个实施例中,第二确定模块,还用于确定所述本地数据的数据质量指数;所述第二确定模块,还用于确定所述本地数据的数据大小;所述发送模块,还用于向所述边缘服务器发送所述数据质量指数和所述数据大小,以便于所述边缘服务器根据所述数据质量指数和所述数据大小,确定参与下一轮联邦学习的参与节点。

24、在本公开的一个实施例中,所述第二确定模块,用于确定所述本地数据在多个属性特征下的信息熵;根据所述信息熵,确定所述本地数据在每一属性特征下的熵权;根据所述熵权,生成所述数据质量指数。

25、根据本公开的又一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任一所述的联邦学习方法。

26、根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一所述的联邦学习方法。

27、根据本公开的又一个方面,提供一种计算机程序产品,所述计算机程序产品包括计算机程序或计算机指令,所述计算机程序或所述计算机指令由处理器加载并执行,以使计算机实现上述任一所述的联邦学习方法。

28、本公开的实施例所提供的技术方案至少包括以下有益效果:

29、本公开的实施例所提供的技术方案,边缘服务器获取多组本地模型参数及每一本地模型参数对应的本地训练时长,之后根据该多组本地模型参数和本地训练时长,确定每一本地模型参数的权重。其中,每一本地模型参数的权重与相应的本地模型的准确率正相关,相应地,本地模型参数对应的本地模型的准确率越高,本地模型参数在参与聚合生成全局模型参数时的权重越大。此种方式,使得将多组本地模型参数按照相应的权重聚合,得到全局模型参数对应的准确率高,较高的准确率能够加快模型的收敛,减少完成模型训练所需的联邦学习轮次,提高联邦学习的效率。

30、应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。


技术特征:

1.一种联邦学习方法,其特征在于,应用于边缘服务器,包括:

2.根据权利要求1所述的方法,其特征在于,所述根据所述多组本地模型参数和所述本地训练时长,确定每一本地模型参数的权重,包括:

3.根据权利要求2所述的方法,其特征在于,所述沙普利值法中价值函数的值基于半全局模型的准确率和目标训练时长确定,所述价值函数的值与所述半全局模型的准确率正相关,且与所述目标训练时长负相关;

4.根据权利要求2所述的方法,其特征在于,所述根据所述多个参与节点的本轮贡献量,确定每一本地模型参数的权重,包括:

5.根据权利要求1所述的方法,其特征在于,还包括:

6.根据权利要求5所述的方法,其特征在于,所述获取每一参与节点的重要性指标,包括:

7.一种联邦学习方法,其特征在于,应用于参与节点,包括:

8.根据权利要求7所述的方法,其特征在于,还包括:

9.根据权利要求8所述的方法,其特征在于,还包括:

10.根据权利要求7所述的方法,其特征在于,还包括:

11.根据权利要求8或10所述的方法,其特征在于,所述确定所述本地数据的数据质量指数,包括:

12.一种联邦学习装置,其特征在于,应用于边缘服务器,包括:

13.一种联邦学习装置,其特征在于,应用于参与节点,包括:

14.一种电子设备,其特征在于,包括:

15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~11中任意一项所述的联邦学习方法。


技术总结
本公开提供了一种联邦学习方法、装置、电子设备及计算机可读存储介质,涉及机器学习技术领域。该方法包括:边缘服务器获取多组本地模型参数及每一本地模型参数对应的本地训练时长;根据多组本地模型参数和本地训练时长,确定每一本地模型参数的权重,每一本地模型参数的权重与相应的本地模型的准确率正相关;将多组本地模型参数按照相应的权重聚合,得到全局模型参数。此种方式,使得将多组本地模型参数按照相应的权重聚合,得到全局模型参数对应的准确率高,较高的准确率能够加快模型的收敛,减少完成模型训练所需的联邦学习轮次,提高联邦学习的效率。

技术研发人员:黄聪,李慧芳
受保护的技术使用者:中国电信股份有限公司
技术研发日:
技术公布日:2024/5/29
转载请注明原文地址:https://win.8miu.com/read-1153768.html

最新回复(0)