本发明涉及机器人领域,特别涉及一种多功能教育机器人。
背景技术:
1、在当今社会,孤独症儿童的教育和社交技能训练日益受到关注。孤独症谱系障碍(asd)是一组影响个体社交互动、沟通能力以及行为模式的神经发展障碍。孤独症儿童在社交交往、情绪表达和理解他人情绪方面面临挑战,这些挑战对他们的日常生活和社会融入造成了显著影响。
2、传统的社交技能训练方法通常依赖于面对面的互动和直接指导,这对一些孤独症儿童来说可能是困难的,因为他们可能在人际互动中感到不适或焦虑。此外,传统方法的个性化程度有限,难以针对每个儿童的独特需求提供定制化的训练计划。随着技术的进步,教育机器人作为一种创新工具,为孤独症儿童的社交技能训练提供了新的可能性。
3、因此,开发一种多功能教育机器人非常有必要。
技术实现思路
1、本技术提供一种多功能教育机器人,以提高针对孤独症儿童的社交技能训练的训练结果。
2、本技术提供一种多功能教育机器人,包括:
3、互动单元,用于执行来自模拟社交场景库的社交场景,通过声音、视觉提示和触摸反馈与孤独症儿童互动,将社交场景呈现给儿童,并将互动数据实时传输给情绪分析单元和个性化学习引擎;根据孤独症儿童的感觉处理特性动态调整交互界面的参数,以最小化感觉过载的风险;其中,所述孤独症儿童的感觉处理特性包括对于声音的敏感度以及对触觉的偏好;所述交互界面的参数包括声音大小以及屏幕亮度;
4、情绪分析单元,用于接收所述互动单元传输的互动数据;对接收到的互动数据进行分析,识别孤独症儿童的情绪状态;将孤独症儿童的情绪状态传输到个性化学习引擎;
5、个性化学习引擎,用于根据互动单元提供的互动数据和情绪分析单元提供的情绪状态,调整社交技能训练计划;根据调整后的社交技能训练计划,生成指令,所述指令用于指导模拟社交场景库提供适合的社交场景;将生成的指令发送模拟社交场景库;
6、模拟社交场景库,用于根据个性化学习引擎的指令,向互动单元提供与调整后的社交技能训练计划相匹配的社交场景。
7、更进一步地,所述互动单元包括引导性活动模块,所述引导性活动模块用于在孤独症儿童首次使用所述机器人时执行非侵入性和游戏化的引导性活动;通过分析孤独症儿童对所述引导性活动的反应,识别孤独症儿童的感觉处理特性;根据识别出的孤独症儿童的感觉处理特性,调整交互界面的参数,从而最小化感觉过载的风险。
8、更进一步地,所述情绪分析单元具体用于:
9、获取孤独症儿童的互动数据,所述互动数据包括孤独症儿童在互动过程中的声音反应、面部表情、身体动作和触摸互动反馈;
10、对获取的孤独症儿童的互动数据进行预处理,获得关键特征数据;其中所欲预处理包括去噪、规范化和特征提取;
11、使用训练完成的支持向量机识别孤独症儿童的情绪状态。
12、更进一步地,所述个性化学习引擎具体用于:
13、对互动单元提供的互动数据进行预处理,所述预处理包括清洗和标准化处理;
14、从预处理后的数据中提取行为特征,所述行为特征包括语音的音调、语速,以及行为的持续时间和频率,并根据提取的行为特征,构建行为特征向量;
15、对于情绪分析单元提供的情绪状态进行编码,获得情绪状态编码;
16、根据所述行为特征向量和情绪状态编码,利用一个训练完成的基于图神经网络的情绪-行为响应模型,获得对于多个预设训练内容在当前情绪状态下的效果评分;
17、根据所述效果评分,获得预期效果最好的训练内容;
18、根据预期效果最好的训练内容,调整社交技能训练计划。
19、更进一步地,所述基于图神经网络的情绪-行为响应模型包括图构建层、图神经网络层以及预测层;
20、所述图构建层用于将接收到的情绪状态编码和行为特征向量整合成一个图结构,所述图结构中的节点代表行为特征,边代表行为特征之间基于情绪状态编码的关联性;
21、所述图神经网络层用于处理图构建层输出的图结构,通过多次迭代更新构建层输出的图结构中每个节点的表示,融合相邻节点的信息,获得处理后的节点表示;
22、所述预测层用于分析所述图神经网络层提供的处理后的节点表示,预测多个预设训练内容在当前情绪状态下的效果评分。
23、更进一步地,所述图神经网络层通过以下公式来更新图结构中每个节点v的表示
24、
25、其中,是节点v在第l+1次迭代后的新表示;σ是非线性激活函数;w(l)是图神经网络层中第l次迭代后的权重矩阵,用于调整节点表示的线性变换;agg是一个聚合函数,用于将节点v的所有邻居节点u∈n(v)的当前表示聚合成一个单一的向量;b(l)是第l次迭代后的偏置项,用于权重矩阵后的加法操作;n(v)是节点v的邻居节点集合。
26、更进一步地,所述模拟社交场景库包括一个用户界面模块,该用户界面模块允许教育者或照顾者能够根据孤独症儿童的个人兴趣或特定学习目标创建新的社交场景或调整现有场景的参数,其中,所述现有场景的参数包括场景中的角色行为、对话内容、声音和视觉效果,以及互动难度。
27、更进一步地,所述模拟社交场景库包括多模态反馈机制,所述多模态反馈机制通过声音、视觉动画、触觉反馈增强孤独症儿童的社交场景体验,为对特定感官输入敏感的儿童提供定制化的互动方式,以最大化学习效果和用户舒适度。
28、更进一步地,所述模拟社交场景库包括场景难度调节机制,所述场景难度调节机制允许教育者或照顾者根据孤独症儿童的具体需求和能力水平手动调整社交场景的复杂性和互动难度,从而提供完全定制化的学习路径。
29、本技术具有如下有益的技术效果:
30、(1)个性化互动体验:通过实时监测和分析孤独症儿童的互动数据,包括声音、视觉和触摸反馈,教育机器人能够根据每个儿童的独特感觉处理特性动态调整交互界面。这种个性化调整最小化了感觉过载的风险,为孤独症儿童提供了一个安全、舒适的学习环境。
31、(2)精准情绪识别:情绪分析单元的引入,使得机器人能够准确识别出儿童的情绪状态,如快乐、悲伤、焦虑或愤怒等。这种准确的情绪识别为后续的教育互动提供了重要的情感反馈,确保了教学活动能够更好地符合儿童的情感需求。
32、(3)自适应学习内容调整:个性化学习引擎根据儿童的互动数据和情绪状态动态调整社交技能训练计划,确保训练内容既符合儿童的学习需求,也适应其当前的情绪状态。这种自适应调整机制大大提高了训练的有效性和儿童的学习兴趣。
33、(4)丰富的社交场景模拟:模拟社交场景库根据个性化学习引擎的指令,为儿童提供与调整后的社交技能训练计划相匹配的社交场景。这些丰富多样的模拟场景能够模拟真实世界中的社交互动,帮助孤独症儿童在安全的模拟环境中练习和提高社交技能。
34、(5)提升教育效果:通过上述个性化互动、情绪识别、自适应学习内容调整以及丰富的社交场景模拟,本技术的多功能教育机器人显著提高了孤独症儿童社交技能训练的效果,帮助儿童更好地融入社会,增强其社交能力和生活质量。
1.一种多功能教育机器人,其特征在于,包括:
2.根据权利要求1所述的多功能教育机器人,其特征在于,所述互动单元包括引导性活动模块,所述引导性活动模块用于在孤独症儿童首次使用所述机器人时执行非侵入性和游戏化的引导性活动;通过分析孤独症儿童对所述引导性活动的反应,识别孤独症儿童的感觉处理特性;根据识别出的孤独症儿童的感觉处理特性,调整交互界面的参数,从而最小化感觉过载的风险。
3.根据权利要求1所述的多功能教育机器人,其特征在于,所述情绪分析单元具体用于:
4.根据权利要求1所述的多功能教育机器人,其特征在于,所述个性化学习引擎具体用于:
5.根据权利要求4所述的多功能教育机器人,其特征在于,所述基于图神经网络的情绪-行为响应模型包括图构建层、图神经网络层以及预测层;
6.根据权利要求5所述的多功能教育机器人,其特征在于,所述图神经网络层通过以下公式来更新图结构中每个节点v的表示
7.根据权利要求1所述的多功能教育机器人,其特征在于,所述模拟社交场景库包括一个用户界面模块,该用户界面模块允许教育者或照顾者能够根据孤独症儿童的个人兴趣或特定学习目标创建新的社交场景或调整现有场景的参数,其中,所述现有场景的参数包括场景中的角色行为、对话内容、声音和视觉效果,以及互动难度。
8.根据权利要求1所述的多功能教育机器人,其特征在于,所述模拟社交场景库包括多模态反馈机制,所述多模态反馈机制通过声音、视觉动画、触觉反馈增强孤独症儿童的社交场景体验,为对特定感官输入敏感的儿童提供定制化的互动方式,以最大化学习效果和用户舒适度。
9.根据权利要求1所述的多功能教育机器人,其特征在于,所述模拟社交场景库包括场景难度调节机制,所述场景难度调节机制允许教育者或照顾者根据孤独症儿童的具体需求和能力水平手动调整社交场景的复杂性和互动难度,从而提供完全定制化的学习路径。