一种推理模型以及数据处理方法、装置及介质与流程

专利检索2025-04-20  17


本发明属于量子计算,特别是一种推理模型以及数据处理方法、装置及介质。


背景技术:

1、transformer模型是一种基于自注意力机制的深度学习模型,在自然语言处理、语音识别、计算机视觉等领域有广泛的应用前景。

2、然而,传统的transformer模型在时间序列预测任务中存在一些缺点,例如,不利于处理长期依赖关系的挑战,传统的transformer模型在捕捉时间序列中的长期依赖关系方面表现不佳。它们主要通过自注意力机制来建模序列中的关联性,但对于时间序列中的长期依赖关系,这种方法可能不够强大。

3、同时,在许多时间序列预测任务中,输入数据通常是高维的,包含多个观测指标或特征。传统的transformer可能需要大量的计算资源来处理这些高维数据,导致计算效率低下。


技术实现思路

1、本发明的目的是提供一种推理模型以及数据处理方法、装置及介质,以解决现有技术中的不足,通过设置推理模型,推理模型包括量子神经网络长短期记忆模型和量子自注意力机制的深度学习模型,由于量子神经网络长短期记忆模型可以高效地分析高维数据,并可以更好地分析长时间序列数据,而量子自注意力机制的深度学习模型又可以更好地捕获高维数据和复杂的序列之间的关联性,从而也就可以使得本公开的数据处理方法,可以更加高效准确地获得待推理数据的推理结果。

2、第一方面,本申请的一个实施例提供了一种数据处理方法,所述方法包括:获取待推理数据;

3、对上述待推理数据进行向量转换处理,得到上述待推理数据对应的向量矩阵;

4、将上述向量矩阵输入至预先训练完成的推理模型中,获得与上述待推理数据对应的推理结果;

5、其中,上述推理模型包括量子神经网络长短期记忆模型和量子自注意力机制的深度学习模型;上述量子神经网络长短期记忆模型设置在上述量子自注意力机制的深度学习模型的前端。

6、可选的,上述待推理数据符合长时间序列数据和高纬度数据的相关条件。

7、可选的,上述将上述向量矩阵输入至预先训练完成的推理模型中,包括:

8、对上述向量矩阵中的各向量进行位置编码,并将进行位置编码后的上述向量矩阵输入至上述推理模型中。

9、可选的,上述将上述向量矩阵输入至预先训练完成的推理模型中,包括:

10、将进行位置编码后的上述向量矩阵上述向量矩阵输入至上述量子长短期记忆模型,获得第一中间结果;

11、将上述第一中间结果输入至门控单元,获得第二中间结果;

12、将上述第一中间结果、上述第二中间结果和进行位置编码后的上述向量矩阵均输入至上述量子自注意力机制的深度学习模型中。

13、可选的,上述将上述第一中间结果、上述第二中间结果和进行位置编码后的上述向量矩阵均输入至上述量子自注意力机制的深度学习模型中,包括:

14、将上述第一中间结果、上述第二中间结果和进行位置编码后的上述向量矩阵通过残差连接结合在一起后,输入至上述量子自注意力机制的深度学习模型中。

15、第二方面,本申请的一个实施例提供了提供了一种推理模型,包括:

16、量子神经网络长短期记忆模型和量子自注意力机制的深度学习模型;

17、上述量子神经网络长短期记忆模型设置在上述量子自注意力机制的深度学习模型的前端;

18、上述量子神经网络长短期记忆模型用于接收待推理数据对应的向量矩阵,上述量子自注意力机制的深度学习模型用于输出上述待推理数据对应的推理结果。

19、可选的,上述推理模型还包括门控单元和残差连接单元连接,上述门控单元和上述残差连接单元设置在上述量子神经网络长短期记忆模型和量子自注意力机制的深度学习模型之间;

20、其中,上述残差连接单元的输入端与上述量子神经网络长短期记忆模型的输出端、上述门控单元输入端均连接;

21、上述残差连接单元的输出端与上述量子自注意力机制的深度学习模型输入端连接;

22、上述上述量子神经网络长短期记忆模型的输出端与上述门控单元的输入端连接。

23、第三方面,本申请的又一实施例提供了一种数据处理装置,上述装置包括:

24、获取模块,用于获取待推理数据;

25、得到模块,用于对上述待推理数据进行向量转换处理,得到上述待推理数据对应的向量矩阵;

26、输入模块,用于将上述向量矩阵输入至预先训练完成的推理模型中,获得与上述待推理数据对应的推理结果;

27、其中,上述推理模型包括量子神经网络长短期记忆模型和量子自注意力机制的深度学习模型;上述量子神经网络长短期记忆模型设置在上述量子自注意力机制的深度学习模型的前端。

28、第四方面,本申请的一个实施例提供了一种量子计算机操作系统,利用上述任一项上述的数据处理方法对待推理数据的进行处理。

29、第五方面,本申请的一个实施例提供了一种存储介质,上述存储介质中存储有计算机程序,其中,上述计算机程序被设置为运行时执行上述任一项上述的方法。

30、第六方面,本申请的一个实施例提供了一种电子装置,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为运行上述计算机程序以执行上述任一项上述的方法。

31、与现有技术相比,本发明将待推理数据转换为向量矩阵,并将向量矩阵输入至推理模型中,而由于推理模型可以包括量子神经网络长短期记忆模型和自注意力机制的深度学习模型,且量子神经网络长短期记忆模型设置在自注意力机制的深度学习模型的前端,这样,通过量子神经网络长短期记忆模型先对向量矩阵进行处理,从而可以一定程度加快针对高维数据的推理,且可以更好地发现长序列数据之间的依赖关系,然后在量子自注意力机制的深度学习模型进行进一步处理过程中,则可以进一步更好更高效地发现向量数据之间的关联性。这样,就算待推理数据是长时间序列数据,和/或,高维度数据,均可以利用推理模型高效准确地获得推理结果。



技术特征:

1.一种数据处理方法,其特征在于,包括:

2.根据权利要求1所述的数据处理方法,其特征在于,所述待推理数据符合长时间序列数据和高纬度数据的相关条件。

3.根据权利要求1所述的数据处理方法,其特征在于,所述将所述向量矩阵输入至预先训练完成的推理模型中,包括:

4.根据权利要求3所述的数据处理方法,其特征在于,所述将所述向量矩阵输入至预先训练完成的推理模型中,包括:

5.根据权利要求4所述的数据处理方法,其特征在于,所述将所述第一中间结果、所述第二中间结果和进行位置编码后的所述向量矩阵均输入至所述量子自注意力机制的深度学习模型中,包括:

6.一种推理模型,其特征在于,包括:

7.根据权利要求6所述的推理模型,其特征在于,所述推理模型还包括门控单元和残差连接单元连接,所述门控单元和所述残差连接单元设置在所述量子神经网络长短期记忆模型和量子自注意力机制的深度学习模型之间;

8.一种数据处理装置,其特征在于,所述装置包括:

9.一种量子计算机操作系统,其特征在于,利用权利要求1至5中任一项所述的数据处理方法对待推理数据的进行处理。

10.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至5任一项中所述的方法。

11.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至5任一项中所述的方法。


技术总结
本发明公开了一种推理模型以及数据处理方法、装置及介质,以解决现有技术中的不足,通过设置推理模型,推理模型包括量子神经网络长短期记忆模型和量子自注意力机制的深度学习模型,由于量子神经网络长短期记忆模型可以高效地分析高维数据,并可以更好地分析长时间序列数据,而量子自注意力机制的深度学习模型又可以更好地捕获高维数据和复杂的序列之间的关联性,从而也就可以使得本公开的数据处理方法,可以更加高效准确地获得待推理数据的推理结果。

技术研发人员:窦猛汉,请求不公布姓名,请求不公布姓名
受保护的技术使用者:本源量子计算科技(合肥)股份有限公司
技术研发日:
技术公布日:2024/5/29
转载请注明原文地址:https://win.8miu.com/read-1152741.html

最新回复(0)