1.本发明一般来讲涉及数字医学领域,更具体地涉及用于辅助视力受损人员的方法和装置。
背景技术:
::2.自科学诞生之日起,人类就一直在努力面对并寻找失明和视力受损的解决方案。盲人和视力受损人员一直很难与他们的环境带来的许多危险共存,但今天环境比以往任何时候都更加危险,因为道路众多、快速交通及更多因素。如今,盲人和视力受损人员在融入社会方面确实存在困难。3.全球统计数据表明,有超过3.4亿视力受损人员以及超过3900万盲人。4.根据医学杂志《柳叶刀全球健康》上公布的一篇新文章,来自英国“安格利亚鲁斯金”大学的研究人员声称,到2050年,世界上的盲人人数将增加到1.15亿。这些研究人员已经收集了来自188个国家的数据。此研究的负责人鲁珀特伯恩教授声称,到2050年,盲人的人数极有可能增长到5.5亿。伯恩说,“即使是轻微的视力损伤也可能对人的生活产生重大影响。这可能是表现在减少他们的独立活动,诸如禁止开车。”5.如今用于盲人和视力受损人员的解决方案是拐杖、导盲犬、智能手机上的应用以及最近用于阅读文本和改善视力受损人员视力的昂贵设备。6.目前市场上的所有系统大多仅用于视力受损人士,并且价格范围在3,055欧元(3500美元)至130,944欧元(150,000美元)之间,大多数人无法承受。7.如上所述,需要一种系统,使盲人和视力受损人员在合理的价格下能够独立行走、阅读文本以及识别物体,因为现在没有任何解决方案可以做到这一点。有很多人需要以他们可以购买的价格得到这种解决方案,而且这种趋势正在增长。8.蝙蝠是没有视觉的生物,并且它们是少数可以使用声音进行导航‑回声定位的哺乳动物之一,并且它们依赖于这一点来检测障碍物,找到自己的路以及寻找食物。回声定位是使用声波和回声来确定物体在空间中的位置。蝙蝠使用回声定位在黑暗中进行导航以及寻找食物。为了回声定位,蝙蝠从嘴巴或鼻子发出声波。当声波撞击物体时,它们会产生回声。回声从物体反弹并返回蝙蝠的耳朵。蝙蝠听回声以确定物体的位置、大小及其形状。9.通过使用回声定位,蝙蝠可以在完全黑暗中检测人类头发一样细的物体。回声定位使蝙蝠能够找到许多蝙蝠喜欢吃的蚊子大小的昆虫。蝙蝠能够适应各种环境情况、场景和事件,并根据具体场景而不同地使用它们的回声定位能力。10.回声定位呼叫通常是频率范围从20到200khz的超声波。就音高而言,蝙蝠产生具有恒定频率(cf呼叫)和频繁调整的变化频率(fm呼叫)两者的回声定位呼叫。大多数蝙蝠产生组合cf和fm分量的复杂呼叫序列。尽管低频声音比高频声音传播得更远,但是较高频率的呼叫为蝙蝠提供更详细的信息——诸如猎物飞行的大小、范围、位置、速度和方向。就响度而言,蝙蝠发出的叫声低至50分贝,高至120分贝。蝙蝠实时地根据实际场景使用回声定位方案,回声定位方案根据环境情况和蝙蝠的意愿或目标而变化。11.蝙蝠的耳朵和脑细胞被特别调谐至它们发出的声音和产生的回声的频率。蝙蝠的内耳中的受体细胞的集中使蝙蝠对频率变化极为敏感。12.人类的听觉是立体声的,并且它可以检测到不同频率和音量(范围从10‑150db)的音调。人类的听力在成人中可以检测20hz至20khz范围之间的频率,并且在儿童中可以检测高达40khz的频率。13.由于人类的听觉能力,人类可以检测相对于声源的方向和范围,并且可以识别不同声音/语音之间的差异。由此,人类可具有通过发声来理解周围环境的能力。由于人包括两只耳朵,因此可以向人类提供20,000×2×10位/秒=400,000位/秒的声音数据。这相当于低视频分辨率,足以发挥作用。因此,人类可以像蝙蝠一样根据他们的听力来进行活动,就好像他们可以看到一样。14.因此,提供系统和方法以辅助视力受损人员的需求仍未得到满足。技术实现要素:15.本发明的一些方面的目的是提供用于改善盲人和视力受损人员的生活质量的系统、方法、设备和软件。16.本发明提供了一种用于处理从传感器采集的信息和数据的系统和方法,通过音频将数据作为半原始数据传输给用户,其中他/她的思维/大脑能够处理,由此以“通过听来看”的方式使他/她能够理解周围环境。在本发明的一些实施例中,提供了改进的方法和装置以改善视力受损人员或用户的生活质量,以给予他们与普通人相同的机会。17.本发明提供了一种方法和可穿戴系统,其包括距离传感器、相机和耳机,它们都收集关于盲人或视力受损人员的周围环境的数据,并且都连接到便携式个人通信设备,此设备被配置为使用算法和a.i处理数据并向盲人或视力受损人员发送声音指令,以使他/她能够通过提供识别物体和阅读局部文本来独立导航和处理他/她的环境。18.根据本发明的一些实施例,系统使用回声定位,其在这里使用声音来确定物体在三维空间中的位置。19.根据本发明的一些实施例,此系统使用任何专用计算平台或商用现货(cots)计算平台,诸如手机、单板计算机(sbc)如raspberrypi平台、pc104计算机以及诸如上网本/笔记本电脑等其他计算平台。20.根据本发明的一些实施例,系统使用对从传感器采集的数据进行操作的基于场景的算法或应用。场景可以通过用户干预或命令、或者通过策略、或者通过基于从传感器采集的数据通过ai判定导出的上下文来描绘。21.根据本发明的一些实施例,场景是盲人或视力受损用户站立前方的适当情况和目的。例如,如果盲人或视力受损用户的意图是在街道上行走以安全导航到特定的终点目的地,则利用来自gps模块的数据的具有语音指导命令的gps导航sw可以利用如激光雷达或超声波距离传感器的距离传感器结合来自相机的数据进行操作,以利用aisw识别人行道路线,以确保盲人或视力受损人员按照人行道的路线行走。22.当要过马路时,ai检测到前方的道路,并通知盲人或视力受损人员。当ai检测到汽车时,场景将改变为过马路场景,该场景上的交通信号灯口头给出交通信号灯的颜色,并通知何时启动和停止道路上的汽车以及汽车是否响应和停止。所有这些都伴随有指南针和加速度计,以验证路线,甚至读取道路标志。另一种场景是如下情况,当盲人或视力受损用户进入建筑物时,则由gps进行的导航结束,并中继到ai上,ai检测灯光和其他不移动的参考点,这些与来自指南针、高度计和加速度传感器的数据融合,以测量位置。通过使用ai,可以识别门、电梯和墙壁,以引导盲人或视力受损用户到达他/她在建筑物中的目的地。23.当进入电梯时,系统需要识别电梯并进入电梯场景,ai相机需要识别电梯门是打开还是关闭,以及电梯命令面板在哪里,用户瞄准的按钮的编号并读出该编号,确定楼层号并口头通知等。另一个情形示例是当盲人或视力受损用户在水池附近行走时,水的表面对于如激光雷达和超声波的距离传感器而言看起来像是地板,但ai相机可检测到水池的边缘,并且可以通知危险。24.场景的另一个示例是当盲人或视力受损人员煮炖菜时。盲人或视力受损人员将一些食材放在桌子上,并且系统向盲人或视力受损人员指示每种成分的身份以及在桌子上的位置。25.根据本发明的一些实施例,系统使用回声和噪声消除,使得系统去除被识别为噪声的声音,并且用户可以清楚地获得周围声音信息。26.通过赋予盲人像普通人一样活动的能力,社会和国家将从这种变化中受益。盲人和视力受损人员将不会成为负担,因为社会将不必为他们提供救助金和护理,并且盲人和视力受损人员也能够轻松进入正常工作周期,从而提高生产力。这个开创性系统是可穿戴的,并且通过其传感器采集有关环境的数据,并以使人们能够像他可以看到一样识别、阅读和行走的独特方式,将信息传送给他。此产品设计用于批量生产。该革命性系统与竞争对手相比成本低,且价格负担得起。27.回声定位是使用声音来确定物体在空间中的位置。由于人类的听觉能力,人类可以检测到相对于声源的方向和范围,并且可以识别不同声音/语音之间的差异。系统包含用于识别物体和阅读文本的若干不同类型的距离传感器(超声波、激光雷达(lidar)等)、相机、神经网络,以及can‑u‑c的算法。此系统以数十mbps的中等带宽从传感器收集数据,如视频、长度和位置。系统处理数据并以高达400kbps的速率以模拟音频传输数据,这相当于低分辨率视频,但足以理解环境。即使在较小的带宽中,如50kbps,也可以稳定运行。此系统对以下信息进行编码:位置、速度、方向以及更多信息,并基于盲人或视力受损人员所处的场景,以他的思维能够快速且直观地处理所述信息的方式将其传输给该人员。28.在本发明的其他实施例中,描述了一种用于提供对系统的基于场景的操作进行管理和编排的过程的方法和系统。这种管理可以是用于处理os和设备管理组件的任务的算法,以便它可以处理从传感器和设备采集的数据,从而根据盲人或视力受损人员所处的场景传递过程听力数据。29.在本发明的附加实施例中,此方法包括至少一种两部分场景管理组件(算法)。第一部分是场景识别组件,它是一种软件,其目的是通过基于从传感器采集的数据的策略或上下文,或者通过用户干预或命令,判定在特定情况下对哪个场景身份进行操作。30.此软件可以是系统的os的一部分,或者作为系统的主应用的一部分。基于此场景,第二部分是应用于场景的合适应用的实施组件;应用配置,其使算法或子场景应用的配置作为完整配置运行。应用和算法的配置根据场景提供服务,此时传感器采集数据,所述数据通过os以及作为场景配置的实施而运行的应用而被融合在一起。31.在本发明的进一步实施例中,系统可以操作或包括可选的外部系统远程传感器和外围设备,它们可以用作系统的一部分或者甚至用作系统的组成部分。32.结合系统、工具和方法来描述和说明以下实施例及其方面,其旨在示例性和说明性而非限制范围。33.在实施例中,提供了一种利用盲人或视力受损辅助装置的方法。当在实施例中,组合从所有系统的传感器(距离、相机或其他手段)收集的全部结果数据、并对其进行分析并传输处理后的数据产生立体声声音(使其表示相对于物体的距离和方向)时,则使用此系统的人能够理解他周围的环境。34.在实施例中,提供了一种使用立体声发声的方法,其目的是基于右耳和左耳之间的声音延迟来提供相对于物体的方向,以及在一些实施例中通过如声音音量的强度来提供相对于物体的距离(较近的物体由较高音量的声音表示),或者在一些实施例中通过如周期性声音的周期性来提供相对于物体的距离(较近的物体由周期性声音的较短周期表示),或者在一些实施例中通过如声音的频率来提供相对于物体的距离(较近的物体由较高频率的声音表示)。35.在实施例中,还提供了包含a.i算法的系统,此a.i算法分析系统的相机捕获的内容并将分析结果语音传输给用户,使得他可以识别物体以及阅读文本。如果相机捕获到文本,ocr算法能够分析该文本并将其通过声音传输给用户,或者如果相机捕获到物体,ai分析物体是什么,并通过语音将物体的名称传输给用户。在一些实施例中,a.i可以具有处理相机图像的面部识别算法。36.在实施例中,还提供了包含若干距离传感器、相机、个人计算机、或者将作为小型单个板或若干板以及耳机设备的可穿戴系统。传感器可以是无线的,这将使此设计对于用户来说穿戴更舒适。37.在实施例中,提供了一种取决于目的、物品与人的距离、以及朝向而以不同音调和语音区分每个结果数据的方法。38.在一些实施例中,为了从不同的覆盖区域扫描和收集数据,系统包含若干距离传感器,或者使用以机械或数字方式进行扫描的扫描传感器。最理想的是使用广角收集、并且数据可以被拆分以逐个部分地处理的传感器。39.在实施例中,进一步提供了取决于方向来处理传感器数据的算法。特别是当处理距离感测时,朝向至关重要。在一些实施例中,朝向地平线看的人的脸上的长距离传感器将仅警告距离本身,而朝向地面看的传感器将仅警告凹坑和障碍物。40.在一些实施例中,系统还可以包含惯性和加速度计传感器以及磁场传感器,目的是为了警告用户他在哪里、他的朝向和他正在前进的方向。在实施例中,进一步提供了系统算法可以使用相对于惯性、加速度计和磁传感器的朝向,以更好地覆盖来自距离和相机的处理信息。在一些实施例中,系统算法可以使用惯性、加速度计和磁传感器,用于距离测量的计步器。41.在实施例中,还提供了传感器的瞄准方向信息,瞄准方向信息对于给出正确的解释以及为了更好地处理来自传感器的信息是至关重要的。42.除了上述示例性方面和实施例之外,还通过研究以下详细描述,进一步的方面和实施例也将变得显而易见。实施例43.1.一种用于处理与视力障碍用户的环境有关的基于场景的信息的系统,所述系统包括:44.a.多个传感器,被配置为收集信息,并将与所述信息相关联的环境数据传送到处理器;45.b.处理器,被适配为接收所述环境数据,以及输出声音数据;以及46.c.与所述视力障碍用户相关联的便携式通信设备,所述设备被适配为从所述处理器接收与所述环境数据相关联的所述声音数据,以及其中所述设备被适配为将所述声音数据转换为用于所述视力障碍用户的大脑可解释的(brain‑interpretable)声音,以向他/她提供对所述环境的实时理解。47.2.根据实施例1所述的系统,其中所述便携式通信设备输出基于场景的立体声声音以表示相对于所述用户附近的物体的距离和方向,由此使用户能够导航他的环境。48.3.根据实施例2所述的系统,其中基于所述用户的右耳和左耳之间的声音延迟,所述立体声声音向所述用户提供与相对于物体的距离和方向有关的信息。49.4.根据实施例2所述的系统,其中所述设备被配置为响应于所述距离来调整所述立体声声音的音量。50.5.一种用于处理与视力障碍用户的环境有关的基于场景的信息的方法,所述方法包括:51.a.从用户设备上的传感器收集信息和环境数据,所述数据与用户附近的物体相关联;52.b.使用基于场景的算法和数据处理所述信息,以输出相关联的声音数据;以及53.c.将与所述环境数据相关联的所述声音数据转换为用于视力障碍用户的基于场景的大脑可解释的声音,以向他/她提供对所述环境的实时理解。54.6.根据实施例5所述的方法,其中所述转换步骤输出立体声声音以表示相对于所述用户附近的物体的距离和方向,由此使用户能够导航他/她的环境。55.7.根据实施例6所述的方法,其中基于所述用户的右耳和左耳之间的声音延迟,所述立体声声音向所述用户提供与相对于物体中的至少一个物体的距离和方向有关的基于场景的信息。56.8.根据实施例7所述的方法,其中所述设备被配置为响应于所述距离来调整所述基于场景的立体声声音的音量。57.9.根据实施例8所述的方法,其中所述基于场景的立体声声音基于所述用户的右耳和左耳之间的声音的延迟提供相对于所述至少一个物体的方向,以及通过周期性声音的周期性提供距离的指示,其中较近的物体通过周期性声音的较短周期表示。58.10.根据实施例9所述的方法,其中所述基于场景的立体声声音基于右耳和左耳之间的声音延迟提供相对于所述至少一个物体的方向,以及通过声音频率提供距离,其中较近的物体通过较高频率的声音表示。59.11.根据实施例5所述的方法,其中所述基于场景的算法进一步通过实施光学字符识别(ocr)算法输出语音阅读的文本。60.12.根据实施例11所述的方法,其中所述ocr信息是来自用户的个人设备上的相机,以及其中所述相机用于ocr并且进一步用于回放所述用户附近的文本。61.13.根据实施例12所述的方法,其中所述基于场景的算法通过使用设置在个人设备上的人工智能(a.i.)算法来组合物体的语音识别。62.14.根据实施例13所述的方法,其中来自相机的所述信息被用于通过a.i识别物体,并回放在所述附近的物体的名称。63.15.根据实施例14所述的方法,其中所述a.i基于场景的算法包括面部识别算法,被适配为处理由所述相机捕获的图像。64.16.根据实施例5所述的方法,其中通过不同的语音和音调输出来自不同方向或目的的所述信息,使得用户能够识别和区分来自不同方向和/或源的信息。65.17.根据实施例16所述的方法,其中处理传感器数据的所述基于场景的算法是朝向依赖的。66.18.根据实施例7所述的方法,其中所述收集步骤包括以下中的至少一个:67.a.从不同覆盖区域收集数据;68.b.采用以机械或数字方式进行扫描的扫描传感器;以及69.c.使用广角范围的、且收集可被拆分以逐个部分地进行处理的数据的传感器。70.19.根据实施例5所述的方法,其中基于场景和传感器方向或布置,不同地对来自每个传感器的所述信息进行处理。71.20.根据实施例19所述的方法,进一步包括如果在所述附近有坑或障碍物,则向所述用户提供警示。72.21.根据实施例1所述的系统,其中所述系统是可穿戴的,并且包括无线传感器,由此使所述系统对于用户是穿戴舒适的。73.22.根据实施例21所述的系统,其中所有所述传感器都连接到主计算机或设备。74.23.根据实施例21所述的系统,其中所述系统包括无线耳机,其设计使得对于用户是穿戴舒适的。75.24.根据实施例23所述的系统,其中所述无线耳机连接到主计算机或用户携带的设备。76.25.根据实施例5所述的方法,其中所述基于场景的算法融合从所有传感器(方向传感器、相机、gps、导航传感器‑加速度计、磁传感器)收集的所有数据,并将其作为立体声声音传输给所述用户,使得它以不同的音调和语音表示相对于物体的距离和方向。77.26.根据实施例5所述的方法,其中所述传感器包括加速度传感器,用于解释用户的运动信息以及用户在其周围环境中的朝向。78.27.根据实施例26所述的方法,其中所述运动信息用于导航目的。79.28.根据实施例1所述的系统,其中所述系统包括gps,用于在户外导航用户以及向他提供朝向他的目的地的方向。80.29.根据实施例28所述的系统,其中所述系统进一步包括用于在建筑物内部导航的导航应用,其使用相机识别图像之间的基于场景的差异,并且通过机器学习,所述系统被配置为绘制建筑物内部的地图并指导用户。81.30.根据实施例29所述的系统,其中所述从相机获取的图像被a.i进行基于场景的分析,以理解人员是在室内还是室外,其中如果a.i从相机的图像中识别出通常在室内的若干光源和物品,系统理解该人员是在室内,并且将应用在建筑物内部导航的应用,以及如果相机捕获到太阳和如路灯的物品,并且通过使用gps,系统理解它在室外导航,并使用gps或其他室外导航应用来导航用户。82.31.根据实施例29所述的系统,其中所述系统使用回声和噪声消除,使得系统去除被识别为噪声的声音,并且用户可以清楚地获得周围声音信息。83.32.一种系统,包括至少一个硬件处理器;以及内置有基于场景的程序代码的非暂时性计算机可读存储介质,所述程序代码是通过所述至少一个硬件处理器可执行的,以执行根据实施例5‑20或25‑27中任一项所述的基于场景的方法。84.33.一种系统,包括至少一个硬件处理器;以及具有至少两部分软件的非暂时性计算机可读存储介质;85.a.场景标识选择。场景可以通过包括以下的任何方法来描绘:86.i.来自用户的干预或命令。87.ii.策略导出的选择。88.iii.基于从传感器采集的数据通过ai判定导出的上下文。89.实施基于场景的程序的算法或应用的实施组件,所述程序代码是通过所述至少一个硬件处理器可执行的,以执行根据实施例5‑20或25‑27中任一个所述的基于场景的方法。90.34.一种计算机程序产品,包括内置有基于场景的程序代码的非暂时性计算机可读存储介质,所述程序代码是通过至少一个硬件处理器可执行的,以执行根据实施例5‑20或25‑27中任一项所述的基于场景的方法。91.35.一种计算机程序产品,包括具有至少两部分软件;92.a.场景识别选择,场景可通过包括以下的任何方法来描绘:93.i.来自用户的干预或命令。94.ii.策略导出的选择。95.iii.基于从传感器采集的数据通过ai判定导出的上下文。96.实施基于场景的程序的算法或应用的实施组件,所述程序代码是通过所述至少一个硬件处理器可执行的,以执行根据实施例5‑20或25‑27中任一项所述的基于场景的方法。。97.结合附图,通过以下对本发明的优选实施例的详细描述,将更全面地理解本发明。附图说明98.现在将参考以下说明性附图结合某些优选实施例来描述本发明,以便可以更充分地理解本发明。99.现在具体详细参考附图,强调的是,所示出的细节是通过示例的方式,并且仅出于对本发明的优选实施例的说明性讨论的目的,并且被呈现以提供被认为是本发明的原理和概念方面的最有用和最容易理解的描述。在这点上,并未试图更详细地显示比基本理解本发明所必需的本发明的结构细节,结合附图进行的描述使本领域技术人员清楚本发明的几种形式如何可以在实践中具体实施。100.附图中:101.图1是根据本发明实施例的用于将物体的三维位置数据处理成基于场景的大脑可解释的声音的系统的简化示意图;102.图2是根据本发明实施例的场景管理组件方法的简化示意图;103.图3a是根据本发明实施例的场景识别组件方法的简化示意图;104.图3b是根据本发明实施例的实施组件方法的简化示意图;105.图4是示出根据本发明实施例的用于将物体的三维位置数据处理成基于场景的大脑可解释的声音的移动通信设备的简化示意图;106.图5是根据本发明实施例的将物体的三维位置数据处理成基于场景的大脑可解释的声音的方法的简化流程图;以及107.图6是根据本发明实施例的用于以大脑可解释的声音提供场景相关信息的方法的简化流程图。108.在所有附图中,相似的附图标记标识相似的部分。具体实施方式109.在详细描述中,阐述了许多具体细节以提供对本发明的透彻理解。然而,本领域技术人员将理解,这些是特定实施例并且本发明也可以以体现如本文所述和要求保护的本发明的特征的不同方式来实践。110.现在参考图1,图1是示出根据本发明实施例的用于将物体的三维位置数据处理成基于场景的大脑可解释的声音的系统[100]的简化示意图。[0111]系统[100]可以是任何专用计算平台或商用现货(cots)计算平台,诸如手机、单板计算机(sbc),如raspberrypi平台,pc104计算机和其他计算平台,诸如上网本/笔记本电脑等。图中描述的系统包括连接到远程设备[102]的可选连接,远程设备[102]可以用作系统[100]的一部分,甚至用作系统的组成部分。远程设备可以经由诸如线缆(虚线)之类的布线或者经由无线连接而连接到系统。在这种情况下,连接是通过通信设备[130],作为其他设备连接到系统的端口。[0112]远程设备可以是远程耳机,扬声器,麦克风,远程输入设备,诸如键盘,远程传感器,如诸如超声波测距、三角距离测量等距离测量传感器,诸如立体相机和激光雷达(lidar),方位传感器,如指南针传感器、加速度传感器、相机和诸如gps等定位设备。[0113]系统包括集成到系统中或作为远程设备的一部分的声音设备[104]。此类声音设备可以是扬声器或耳机。声音设备可以是立体声声音设备。声音设备用于通过声音向用户提供有关其周围环境的信息。系统包括集成到系统或作为远程设备的一部分的麦克风设备[106]。麦克风设备可以用作用于来自用户的声音命令和其他声音数据的输入设备;可以插入或记录到os或应用中以进行工作或进一步处理。由麦克风设备捕获的声音可以用作回声和噪声消除,以便系统去除被识别为噪声的声音,并且用户可以清楚地获得周围声音信息。麦克风设备可以由os或场景识别组件sw使用以理解用户所在场景。[0114]系统包括集成到系统中或作为远程设备的一部分的用户输入设备/迷你键盘[108]。输入设备/迷你键盘可以作为输入设备,用户想要提供给os或系统上运行的应用的命令和其他数据被传送到该输入设备中。输入设备也可以是可以提取和处理用于输入命令的用户手势的相机。[0115]系统包括集成到系统中或作为远程设备的一部分的相机[110]。相机用作输入设备,其将视觉数据插入系统中,以便os或应用可以提取和处理视觉信息,并根据由系统处理的场景进行数据拟合。作为场景的一部分,可以处理用于输入命令的用户手势。作为场景的一部分,场景识别组件‑sw可以使用来自相机的信息来判定哪个场景适合特定时刻或情况。[0116]系统包括集成到系统中或作为远程设备的一部分的传感器、朝向和定位设备[112]。传感器、朝向和定位设备是传感器,如诸如超声波测距、三角测距等测距传感器——诸如立体相机和激光雷达,方向传感器如指南针传感器,加速度传感器,相机,以及定位设备,诸如gps。这些传感器采集由作为场景配置实施而运行的os和应用融合在一起的数据。系统包括集成到系统中的电源/电池[114],以使系统能够作为独立的移动设备运行。系统包括一个或多个处理器[120],其集成到系统中并用于运行所有需要的算法。处理器可以是x86类型或基于arm或任何risk处理器,它可以是fpga或片上系统(soc)。它可以连接到附加的加速器,诸如hw、fpga、gpu等。处理器将激活存储在数据存储器[150]中的软件(sw)并作为应用或作为运行应用的操作系统(os)等来运行算法。[0117]处理器被配置为运行作为场景识别组件‑sw的软件部分,以及作为应用于场景的合适应用的实施组件;应用配置‑sw的软件部分。系统包括通信设备[130],其被集成到系统中以用作其他设备连接到系统以及从其他模块导入或导出数据的端口。从其他模块导入或导出数据的需求是为了os和应用根据他的要求进行操作。这包括软件应用更新,包括os,或者获取新的商店应用,或者传送所需的数据。系统可以具有标准的无线通信设备[140],诸如蜂窝模块、wifi模块等,它们被集成到系统中以用作其他设备连接到系统以及从其他地方导入或导出数据的端口。[0118]这些模块是上述通信设备的扩展,其可以是非通用或非标准的。标准无线通信设备具有天线[146]、发送模块(tx)[144]和接收模块(rx)[142]。系统包括数据存储器[150],此数据存储器被集成到系统中,并且用于存储作为应用或作为os以及系统操作所需的应用软件等的算法。[0119]数据存储保存作为场景识别组件‑sw[154]的软件部分、以及作为应用于场景的合适应用的实施组件;应用配置–sw[152]的软件部分。这对于运行足以应对基于场景的情况的系统是需要的。场景识别组件‑sw[154]是一种软件,其目的是通过基于从传感器采集的数据的策略或通过用户干预或命令来作出判定,即在特定情况下待操作的场景身份。此软件可以是系统的os的一部分,或者作为系统的主应用的一部分。[0120]场景是盲人或视力受损用户站立前方的适当情况和目的。例如,如果盲人或视力受损用户的意图是在街道上行走以安全导航到特定的终点目的地,则利用来自gps模块的数据的具有语音指导命令的gps导航sw可以利用如激光雷达或超声波距离传感器的距离传感器结合来自相机的数据进行操作,以利用aisw识别人行道路线,以确保盲人或视力受损人员按照该人行道的路线行走。当要过马路时,ai检测到前方的道路并通知盲人或视力受损人员。当ai检测到汽车时,场景改变为过马路场景,该场景上的交通信号灯口头给出交通信号灯的颜色,并通知何时启动和停止汽车道路,以及汽车是否响应和停止。所有这些都伴随有指南针和加速度计,以验证路线甚至读取道路标志。另一种场景是当盲人或视力受损用户进入建筑物时的情况,则由gps进行的导航结束,并中继到ai上,ai检测灯光和其他不移动的参考点,这些与来自指南针、高度计和加速度传感器的数据融合,以测量位置。[0121]利用ai,对门、电梯和墙壁作出识别,以将盲人或视力受损用户引导到他在建筑物中的目的地。当进入电梯时,系统需要识别电梯,并进入电梯场景,ai相机需要识别电梯门是打开还是关闭,以及电梯命令面板在哪里,用户瞄准的按钮编号并读取此编号,识别楼层编号并口头通知,等等。另一个情况示例是当盲人或视力受损用户在水池附近行走时,水的表面对于如激光雷达和超声波的距离传感器而言看起来像地板,但ai相机可以检测到水池的边缘,并且可以通知该危险。[0122]场景的另一个示例是当盲人或视力受损人员煮炖菜时。盲人或视力受损人员将一些食材放在桌子上,并且系统向盲人或视力受损人员指示每种成分的身份和在桌子上的位置。[0123]基于此场景,作为应用于场景的合适应用的实施组件;应用配置‑sw[152]的软件部分对算法或子场景应用进行配置以作为完整配置运行。应用和算法的配置根据场景提供服务,此时传感器采集数据,所述数据通过os和作为场景配置实施而运行的应用融合在一起。[0124]转向图2,可看到根据本发明实施例的场景管理组件方法[200]的简化示意图。[0125]方法包括算法,该算法用于根据当前在其中发现用户的特定场景,利用来自场景识别组件[202]的场景识别信息/数据重复地对用户进行更新,并向用户提供来自应用选择组件[204]的特定应用。[0126]此方法用于管理和编排基于场景的系统操作。[0127]场景是盲人或视力受损用户站立前方的适当情况和目的。例如,如果盲人或视力受损用户的意图是在街道上行走以安全导航到特定的终点目的地,则利用来自gps模块的数据的具有语音指导命令的gps导航sw可以利用如激光雷达或超声波距离传感器的距离传感器结合来自相机的数据进行操作,以利用aisw识别人行道路线,以确保盲人或视力受损人员按照该人行道的路线行走。[0128]当过马路时,ai检测到前方的道路并通知盲人或视力受损人员。当ai检测到汽车时,场景改变为过马路场景,该场景上的交通信号灯口头给出交通信号灯的颜色,并通知汽车道路何时启动和停止,以及汽车是否响应和停止。所有这些都伴随有指南针和加速度计,以验证路线甚至读取道路标志。[0129]另一种场景是当盲人或视力受损用户进入建筑物时,则由gps进行的导航结束,并中继到ai上,ai检测灯光和其他不移动的参考点,这些与来自指南针、高度计和加速度传感器的数据融合,以测量位置。[0130]利用ai,对门、电梯和墙壁作出识别,以将盲人或视力受损用户引导到他在建筑物中的目的地。当进入电梯时,系统需要识别电梯,并进入电梯场景,ai相机需要识别电梯门是打开还是关闭,以及电梯命令面板在哪里,用户瞄准的按钮编号并读出此编号,识别楼层编号并口头通知,等等。另一个情况示例是当盲人或视力受损用户在水池附近行走时,水的表面对于如激光雷达和超声波的距离传感器而言看起来像地板,但ai相机可以检测到水池的边缘,并且可以通知该危险。[0131]场景的另一个示例是当盲人或视力受损人员煮炖菜时。盲人或视力受损人员将一些食材放在桌子上,并且系统向盲人或视力受损人员指示每种成分的身份和在桌子上的位置。[0132]场景管理组件最少有两部分(算法)。第一部分是场景识别组件[202],它是一种软件,其目的是通过基于从传感器采集的数据的策略或通过用户干预或命令来作出判定,即在特定情况下待操作的场景身份。此软件可以是系统的os的一部分,或者作为系统的主应用的一部分。基于此场景,第二部分是应用于场景的合适应用的实施组件;应用配置[204],其对算法或子场景应用进行配置以作为完整配置运行。应用和算法的配置根据场景提供服务,此时传感器采集数据,所述数据提供os以及作为场景配置的实施而运行的应用融合在一起。尽管场景识别组件[202]是针对应用于场景的合适应用的实施组件;应用配置[204]的支配和判定,基于其场景作出应用配置,但是它们之间的连接是双向的[206],因为基于在特定配置下采集的、根据所实施的场景进行融合和ai分析后的传感器数据对下一场景情况作出的推荐被传送回场景识别组件,以便使该场景充分胜任指定的情况。[0133]现在参考图3a,图3a是根据本发明实施例的场景识别组件方法[300]的简化示意图。[0134]方法包括用于上下文场景识别[304]的算法或组件与用于基于用户身份作出场景判定的算法或组件[302]两者。这两个组件/算法相互更新,以根据反映用户身份的标准以及特定实时场景的上下文,输出用于特定用户的应用的优化选择或仅一个应用。[0135]图3a:场景识别组件[300]的选项部分的更详细说明。[0136]场景识别组件可以根据基于身份场景的识别组件[302]进行操作。在这种情形下,它是基于经由诸如键盘的输入设备插入的来自用户的命令,或者是由相机捕获的手势,或者通过语音命令,提供他们据此进行操作的特定场景身份。[0137]场景识别组件可操作以根据基于上下文场景的识别组件[304]。在此情形中,基于在特定配置下采集的、根据所实施的场景进行融合和ai分析后的传感器数据对下一场景情况作出的推荐被从应用于场景的合适应用的实施组件;应用配置[350]传送回到该基于上下文场景的识别组件[304],以便使该场景充分胜任指定的情况。[0138]显然,这两种场景识别方法可以根据场景管理组件应用算法,并行运行或者以它们之间的任意组合运行。[0139]图3b示出了根据本发明实施例的实现组件方法[350]的简化示意图。[0140]图3b:对应用于场景的合适应用的实施组件;应用配置[350]的选项部分的更详细描述。[0141]此部分包括两个子部分。第一部分是用于将合适应用映射到场景;应用配置[354]的算法。此部分作出需要一起运行以执行特定场景配置的算法/应用的列表。第二部分是启动合适场景应用配置[356],它执行根据所述将合适应用映射到场景;应用配置[354]已经作出的列表所需的应用/算法,并通过包封算法/应用连接它们以一起操作,以根据期望场景进行工作。[0142]现在参考图4,其是示出根据本发明的实施例的用于将物体的三维位置数据处理成基于场景的大脑可解释的声音的移动通信设备[400]的简化示意图。移动设备从系统([100],未示出)和/或从远程传感器和外围设备[102](如上所述)接收数据。[0143]移动设备[130]包括操作系统和设备管理单元[412],其构造和配置为接收数据并将数据提供给数据存储单元[416]。管理单元[412]进一步被配置为提供和接收来自远程传感器和外围设备,诸如立体相机和激光雷达、方向传感器如指南针传感器、加速度传感器、相机和定位设备,诸如gps[414]的数据。例如,移动设备接收关于用户周围的物体的数据,并用于将数据转换成一系列不同的声音、音乐音调或噪声,用户的大脑可以解释这些以向用户提供他/她周围物体的图像。[0144]图4:高级别移动设备系统[400]描述(更详细地参见图1[100])。[0145]此移动设备[410]可以是任何专用计算平台或商用现货(cots)计算平台,诸如手机、单板计算机(sbc),如raspberrypi平台,pc104计算机和其他计算平台,诸如上网本/笔记本电脑等。图中描述的系统包括连接到远程设备[102]的可选连接,远程设备[102]可以用作系统[100]的一部分,甚至用作系统的组成部分。远程设备可以经由诸如线缆(虚线)之类的布线或者经由无线连接而连接到系统。在这种情况下,连接是通过通信设备[130],作为其他设备连接到系统的端口。[0146]远程传感器和外围设备可以通过诸如电缆之类的电线或通过无线连接连接到系统(虚线)。移动设备[410]可以使用作为设备本身的一部分的集成远程传感器和外围设备[414]。远程传感器和外围设备可以是远程耳机,扬声器,麦克风,远程输入设备,诸如键盘,远程传感器,如诸如超声波测距、三角距离测量等距离测量传感器,诸如立体相机和激光雷达,方位传感器,如指南针传感器、加速度传感器、相机和诸如gps等定位设备。[0147]数据存储[416]存储需要运行系统的软件部分。os和设备管理[412]是运行设备的管理算法,使用来自传感器和外围设备的数据,并使用存储在数据存储器[416]中的应用和算法来运行足以满足基于场景的情况的系统。[0148]场景是盲人或视力受损用户站立前方的适当情况和目的。例如,如果盲人或视力受损用户的意图是在街道上行走以安全导航到特定的终点目的地,则利用来自gps模块的数据的具有语音指导命令的gps导航sw可以利用如激光雷达或超声波距离传感器的距离传感器结合来自相机的数据进行操作,以利用aisw识别人行道路线,以确保盲人或视力受损人员按照该人行道的路线行走。[0149]当要过马路时,ai检测到前方的道路并通知盲人或视力受损人员。当ai检测到汽车时,场景改变为过马路场景,该场景上的交通信号灯口头给出交通信号灯的颜色,并通知何时启动和停止汽车道路,以及汽车是否响应和停止。所有这些都伴随有指南针和加速度计,以验证路线甚至读出道路标志。[0150]另一种场景是当盲人或视力受损用户进入建筑物时的情况,由gps进行的导航结束,并中继到ai上,ai检测灯光和其他不移动的参考点,这些与来自指南针、高度计和加速度传感器的数据融合,以测量位置。通过ai识别门、电梯和墙壁,此方法可用于引导盲人或视力受损用户到达他在建筑物中的目的地。[0151]当进入电梯时,系统需要识别电梯,并进入电梯场景,ai相机需要识别电梯门是打开还是关闭,以及电梯命令面板在哪里,用户瞄准的按钮编号并读出此编号,识别楼层编号并口头通知,等等。另一个情况示例是当盲人或视力受损用户在水池附近行走时,水的表面对于如激光雷达和超声波的距离传感器而言看起来像地板,但ai相机可以检测到水池的边缘,并且可以通知该危险。[0152]场景的另一个示例是当盲人或视力受损人员煮炖菜时。盲人或视力受损人员将一些食材放在桌子上,并且系统向盲人或视力受损人员指示每种成分的身份和在桌子上的位置。[0153]现在参考图5,图5是根据本发明实施例的用于将物体的三维位置数据处理成基于场景的大脑可解释的声音的方法[500]的简化流程图。[0154]不失一般性,附图更详细地描述了用于处理图4[400]中描述的移动设备[410]中的os和设备管理组件[412]的任务的可能算法。[0155]此图更详细地描述了用于处理os和设备管理组件[500]的任务的可能算法。[0156]算法开始于开始[502]启动步骤,此时用户开启设备。然后,它进行到传感器和外围设备识别[504]步骤,此时它检查和识别附接到设备或嵌入设备的所有传感器和外围设备。下一步骤是从传感器和外围设备获取数据[506],此时算法从传感器和外围设备接收数据以进行分析。然后是判定任务,它包括用户请求场景判定步骤[508],其中它判定所选场景是基于上下文还是策略。如果问题的答案为“是”,并且通过语音命令或手势或从键盘或其他手段接收到特定命令,则它进行到定位合适应用步骤[518],并作出运行特定场景所需的应用或算法的列表。[0157]下一步骤是运行启动合适配置/应用组合步骤[520]的步骤,此步骤根据定位合适应用步骤[518]已作出的列表执行所需的应用/算法,并通过包封算法/应用连接它们以一起操作,以便根据期望场景工作。[0158]场景是盲人或视力受损用户站立前方的适当情况和目的。例如,如果盲人或视力受损用户的意图是在街道上行走以安全导航到特定的终点目的地,则利用来自gps模块的数据的具有语音指导命令的gps导航sw可以利用如激光雷达或超声波距离传感器的距离传感器结合来自相机的数据进行操作,以利用aisw识别人行道路线,以确保盲人或视力受损人员按照该人行道的路线行走。当要过马路时,ai检测到前方的道路并通知盲人或视力受损人员。当ai检测到汽车时,场景改变为过马路场景,该场景上的交通信号灯口头给出交通信号灯的颜色,并通知何时启动和停止汽车道路,以及汽车是否响应和停止。所有这些都伴随有指南针和加速度计,以验证路线甚至读出道路标志。[0159]另一种场景是当盲人或视力受损用户进入建筑物时的情况,由gps进行的导航结束,并中继到ai上,ai检测灯光和其他不移动的参考点,这些与来自指南针、高度计和加速度传感器的数据融合,以测量位置。[0160]利用ai,对门、电梯和墙壁作出识别,以将盲人或视力受损用户引导到他在建筑物中的目的地。当进入电梯时,系统需要识别电梯,并进入电梯场景,ai相机需要识别电梯门是打开还是关闭,以及电梯命令面板在哪里,用户瞄准的按钮编号并读出此编号,识别楼层编号并口头通知,等等。另一个情况的示例是当盲人或视力受损用户在水池附近行走时,水的表面对于如激光雷达和超声波的距离传感器而言看起来像地板,但ai相机可以检测到水池的边缘,并且可以通知该危险。[0161]场景的另一个示例是当盲人或视力受损人员煮炖菜时。盲人或视力受损人员将一些食材放在桌子上,并且系统向盲人或视力受损人员指示每种成分的身份和在桌子上的位置。[0162]在启动期望的场景配置后,系统返回从传感器和外围设备获取数据[506]步骤(虚线),或者转到停止[522]步骤,此步骤在用户关闭设备时完成。[0163]在用户请求场景的“是否”问题?[508]为“否”的情形中,它进行到如何确定选择和描绘哪个场景的过程。在不失一般性的情况下,它可以通过(pass)几个“是否”问题,诸如基于上下文场景?[510],在这种情形中,如果答案为“是”,则其进入ai场景选择[512]步骤,此步骤基于从传感器和外围设备获取数据[506]步骤采集的、经融合和ai分析的传感器数据对下一场景情况作出推荐,以使场景充分胜任指定的情况。[0164]然后,所选择的场景被传送到定位合适应用[518]步骤。如果答案为“否”,则可以进行将其传送到场景描述过程中的下一判定“是否”问题的循环。在此图方案中,我们不失一般性地选择使用已经描述过的从启动合适配置/应用组合[520]步骤到从传感器和外围设备获取数据[506]步骤(虚线)的循环返回,并且因此我们使判定通过至定位合适应用[518]步骤的判定,在这种情形中,使“空”场景通过至定位合适应用[518]步骤,该步骤为“空”(什么都不做)并返回循环。[0165]如果“是否”问题是基于策略场景基础?[514]并且答案为“是”,则它进入策略场景选择[516]步骤,此时取决于策略方案,此场景被选择并传送到定位合适应用[518]步骤。如果对“是否”问题给出“否”,则它将“空”场景通过至定位合适应用[518]步骤,并且循环继续(虚线)直到覆盖所有可能的场景驱动“是否”过程。[0166]现在参考图6,图6是根据本发明的实施例的用于在大脑可解释的声音中提供场景相关信息的方法[600]的简化流程图。[0167]此图更详细地描述了一种用于处理os和设备管理组件[600]的任务的可能算法。[0168]算法从开始[602]启动步骤开始,此时用户开启设备。[0169]然后,它进行到传感器和外围设备识别[604]步骤,此时它检查和识别附接到设备或嵌入其中的所有传感器和外围设备。接下来,有“是否”功能:根据传感器/设备的应用更新或新商店应用?[606],其检查是否存在os和设备管理组件[600]可以使用的、对盲人或视力受损用户有益的新算法/应用。[0170]如果答案为“是”,那么我们开始更新软件包的过程。在这个过程中,我们开始于从商店获得应用[608]的操作,下载需要安装的sw包。接下来,执行更新/安装应用[610],并安装新的sw包。[0171]在安装sw包后的下一步骤是更新场景数据库[612],其更新识别场景[616]和将合适应用映射到场景;应用配置[618]的指令,以便升级整体os和设备管理组件[600]。在更新整体os和设备管理组件[600]后,我们进入整体os和设备管理组件[600]的操作的普通/标准步骤。[0172]此操作的普通/标准步骤开始于从传感器和外围设备获取数据[614],此时算法从传感器和外围设备接收待分析的数据。在针对根据传感器/设备的应用更新或新商店应用?[606]中的“是否”问题的答案为“否”的情形中,我们直接进入操作的普通/标准步骤,其开始于从传感器和外围设备获取数据[614]。接下来,我们进入识别场景[616]的步骤,此时基于从传感器和外围设备接收的数据[614]、数据库中的用于场景识别的指令和ai处理,识别对于情况的合适场景。[0173]场景是盲人或视力受损用户站立前方的适当情况和目的。例如,如果盲人或视力受损用户的意图是在街道上行走以安全导航到特定的终点目的地,则利用来自gps模块的数据的具有语音指导命令的gps导航sw可以利用如激光雷达或超声波距离传感器的距离传感器结合来自相机的数据进行操作,以利用aisw识别人行道路线,以确保盲人或视力受损人员按照该人行道的路线行走。[0174]当要过马路时,ai检测到前方的道路并通知盲人或视力受损人员。当ai检测到汽车时,场景改变为过马路场景,该场景上的交通信号灯口头给出交通信号灯的颜色,并通知何时启动和停止汽车道路,以及汽车是否响应和停止。所有这些都伴随有指南针和加速度计,以验证路线甚至读出道路标志。[0175]另一种场景是当盲人或视力受损用户进入建筑物时的情况,由gps进行的导航结束,并中继到ai上,ai检测灯光和其他不移动的参考点,这些与来自指南针、高度计和加速度传感器的数据融合,以测量位置。[0176]利用ai,对门、电梯和墙壁作出识别,以将盲人或视力受损用户引导到他在建筑物中的目的地。当进入电梯时,系统需要识别电梯,并进入电梯场景,ai相机需要识别电梯门是打开还是关闭,以及电梯命令面板在哪里,用户瞄准的按钮编号并读出此编号,识别楼层编号并口头通知,等等。另一个情况示例是当盲人或视力受损用户在水池附近行走时,水的表面对于如激光雷达和超声波的距离传感器而言看起来像地板,但ai相机可以检测到水池的边缘,并且可以通知该危险。[0177]场景的另一个示例是当盲人或视力受损人员煮炖菜时。盲人或视力受损人员将一些食材放在桌子上,并且系统向盲人或视力受损人员指示每种成分的身份和在桌子上的位置。[0178]下一步骤是将合适应用映射到场景;应用配置[618],其作出运行特定场景所需的应用或算法的列表。下一步骤是运行启动合适场景应用配置[620]的步骤,此步骤根据将合适应用映射到场景;应用配置[618]步骤已作出的列表执行所需的应用/算法,并通过包封算法/应用连接它们以一起操作,以根据期望场景工作。[0179]在启动期望场景配置后,系统返回到从传感器和外围设备获取数据[614]步骤(虚线),或者转到停止[622]步骤,此步骤在用户关闭设备时完成。[0180]本文公开了系统方法、计算机程序产品或硬件产品和a.i,用于帮助穿戴此系统的盲人和视力受损人员仅在此系统本身的帮助下应对他们的环境、阅读文本和识别物体。[0181]如上所述,基于人类听觉是立体声、并且可以区分不同的频率和音量、并且这些能力用于通过发声来理解环境的假设,有可能为盲人和视力受损人员构建可穿戴技术系统来应对环境。[0182]因此,在一些实施例中,这样的系统将包含若干距离传感器、专用的高级算法和a.i,以基于场景融合从传感器收集的数据,并通过立体声发声(使其表示相对于物体的距离和方向),以一种能让穿戴该系统的人理解他的环境并相应地采取行动的方式向穿戴该系统的人传输所述数据。在一些实施例中,立体声发声将基于右耳和左耳之间的声音延迟来提供相对于物体的方向,以及通过在一些实施例中作为声音音量的强度(较近的物体由较高音量的声音表示)或者通过在一些实施例中作为周期性声音的周期性(较近的物体由周期性声音的较短周期表示)或者通过在一些实施例中作为声音的频率(较近的物体由更高频率的声音表示)来提供相对于物体的距离。[0183]在一些实施例中,为了覆盖环境,需要使用多个传感器来收集来自不同覆盖区域的数据,或者使用以机械或数字方式扫描的扫描传感器(类似于盲人使用的拐杖的用途)。最理想的方式是使用广角收集、且数据可以被划分以逐个部分进行处理的传感器(如拍摄图像的相机,所述图像可以被划分为单独处理的若干部分)。[0184]在一些实施例中,方法是在给定时间分别地对来自每个传感器的信息进行基于场景的分析,并将所有数据组合成立体声声音(使其表示相对于物体的距离和方向)。取决于目的、物品相对于人的距离和朝向,每个结果数据将以不同的音调和语音进行区分。在相机的情形中,系统分别地捕获每张图像,并用自己的语音和音调为其提供适合的基于场景的表示。[0185]在一些实施例中,处理传感器数据的基于场景的算法是朝向依赖的。特别是在处理距离感测时,朝向至关重要。例如,如果没有任何障碍物或坑,用于寻找障碍物或坑的传感器本来不应发出警报,但是在此时刻它检测到某物,它会相应地发出警报。为实现这一点,一特定距离将被校准为零点,并且在比它更长或更短的距离内;传感器将分别警告为负距离或正距离。然而,在一些实施例中,望向地平线的人的脸上的长距离传感器将仅警告距离自身,此时无限距离将被校准为零,并且警告将随着障碍物离人更近而强化。[0186]在一些实施例中,系统包括相机,因此当将存在例如充满水的水池时,距离传感器可能或可能不会对坑发出警报,但是处理来自相机的图像的a.i将检测到水的表面是水池,并警告人不要掉进水池里。[0187]在一些实施例中,系统可以包含无线传感器,这将使设计对于用户穿戴更舒适。所有传感器都将连接到主计算机或个人将携带的硬件设备。个人计算机或设备将是小型的单个板或若干板,但具有能够运行所有应用、算法和a.i的足够的处理硬件。系统将作为眼镜和腰带是可穿戴的,其将包含无线传感器和个人计算机或处理设备。[0188]在一些实施例中,耳机可以是无线的。[0189]在一些实施例中,基于场景的算法将包含多个部分,每个部分将分析不同的事物,例如在前置相机中,将存在文本的ocr分析,并以特定语音读出它。一种算法是分析传感器正在检测何物的a.i,例如,如果相机拍下杯子或计算机鼠标的图像,a.i将检测并分析该物体是什么,并以特定语音提醒用户。在一些实施例中,a.i可以具有处理相机图像的面部识别算法。[0190]在一些实施例中,取决于场景,不同传感器的不同距离将以立体声方式(使其表示相对于物体的距离和方向)发声为警告声音,其将向用户通知他周围的事物,并且将使得他能够独立行走和应对环境。[0191]在一些实施例中,本发明将来自所有距离传感器和相机的所有数据融合在一起,并且将基于场景以立体声方式(使其表示相对于物体的距离和方向)传输给用户。在一些实施例中,系统还可以包含惯性和加速度计传感器以及磁场传感器(霍尔效应和数字指南针),用于提醒用户他在哪里、他的朝向和他前进的方向。[0192]在一些实施例中,本发明的基于场景的系统算法,可以使用来自惯性、加速度计和磁传感器的朝向以更好地覆盖来自距离和相机的处理信息。系统算法可以使用惯性、加速度计和磁传感器用于计步器,以进行距离测量。在一些实施例中,上述所有信息可以与gps信息或其他导航程序(软件或硬件)基于场景融合,以便系统将把语音信息添加到gps导航或其他导航程序中。系统可以将所有传感器用于建筑物内导航应用。例如,基于场景的算法可以拍摄连续的相机图像,并检测连续图像之间的差异和变化,以检测运动并将其与来自里程表的信息融合以计算步数,并且还将其与惯性和加速度传感器及更多信息(如由于依据时间小时的太阳位置而进行的太阳识别和导航)融合,以获得更好的导航和地图绘制。在一些实施例中,传感器的瞄准方向信息对于给出正确的解释以及为了更好地处理来自传感器的信息是至关重要的。诸如,如果传感器指向下方,则它们用于检测坑或障碍物;另一方面,如果传感器指向水平线,则用于检测人前方的事物,诸如人和标志。[0193]在一些实施例中,此系统包括至少一个两部分软件;一部分是场景识别选择。场景可以通过包括以下的任何方法来描绘:[0194]1.来自用户的干预或命令。[0195]2.策略导出的选择。[0196]3.基于从传感器采集的数据通过ai判定导出的上下文。[0197]软件的第二部分是实施基于场景的程序的算法或应用的实施组件。[0198]本发明提供了用于改善盲人和视力受损人员的生活质量的系统、方法、设备和软件。[0199]本发明的系统被构建和配置为使盲人和视力受损人员能够在每种环境(室内和室外)中阅读文本、识别物体和颜色以及自由行走和行动,就好像他们能看见一样,所有这些都只需要系统的设备本身的帮助就能立刻实现。[0200]设备使盲人和视力受损人员能够实现自我,并在经济和社会上为社会做出贡献。盲人和视力受损人员不会成为负担,因为社会不必为他们支付福利和护理费用,而且盲人和视力受损人员还能够容易进入正常的工作周期,从而提高生产力。[0201]本发明涉及一种具有新颖的基于场景的方法的系统,用于处理从传感器采集的信息和数据,通过音频将数据作为半原始数据传输给用户,其中他/她的思维/大脑能够处理,由此以“通过听来看”的方式使他/她能够理解周围环境。这种技术使系统能够使用更少的计算机资源。[0202]根据本发明的一些实施例,系统使用回声定位,其使用声波来确定物体在三维空间中的位置。由于听觉能力,人类可以检测相对于声源的方向和范围,并且可以识别不同声音/语音之间的差异。系统包含若干不同类型的距离传感器(超声波、激光雷达等)、相机、用于识别物体和阅读文本的神经网络以及can‑u‑c的基于场景的算法。系统以数十mbps的中等带宽从传感器收集数据,如视频、长度和位置。[0203]根据一些实施例,本发明的系统处理数据并以高达400kbps的速率以模拟音频传输数据,这相当于低分辨率视频但足以理解环境。即使在如50kbps这样较小的带宽中也可以稳定运行。系统对信息:位置、速度、方向等进行编码,并以人的思维能够快速且直观地对其进行处理的方式基于场景地将其传输给人。[0204]本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括其上具有用于使处理器执行本发明的方面的计算机可读程序指令的计算机可读存储介质(或多种介质)。[0205]计算机可读存储介质可以是有形设备,其可以保留和存储供指令执行设备使用的指令。计算机可读存储介质可以是例如但不限于电子存储设备、磁存储设备、光存储设备和电磁存储设备、半导体存储设备或前述的任何适合的组合。更多计算机软盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读的存储器(eprom或闪存)、静态随机存取存储器(sram)、便携式光盘只读存储器(cd‑rom)、记忆棒、其上记录有指令的机械编码的设备,以及前面的适合的组合的非详尽列表。本文使用的计算机可读存储介质不应被解释为瞬态信号本身,诸如无线电波或其他自由传播的电磁波、通过波导或其他传输介质传播的电磁波(例如,通过光缆的光脉冲)或通过电线传输的电信号。相反,计算机可读存储介质是非瞬态(即,非易失性)介质。[0206]本文描述的计算机可读程序指令可以从计算机可读存储介质下载到相应的计算/处理设备或经由网络下载到外部计算机或外部存储设备,例如因特网、局域网、广域网和/或无线网络。网络可以包括铜传输电缆、光传输光纤、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或网络接口从网络接收计算机可读程序指令并转发计算机可读程序指令以存储在相应计算/处理设备内的计算机可读存储介质中。[0207]用于执行本发明的操作的计算机可读程序指令可以是汇编器指令、指令集架构(isa)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或源代码或以一种或多种编程语言的任意组合编写的对象代码,包括面向对象的编程语言,诸如java、smalltalk、matlab、c 等,以及传统的程序编程语言,诸如“c”编程语言或类似的编程语言。计算机可读程序指令可以完全在用户计算机上、部分在用户计算机上、作为独立软件包、部分在用户计算机上以及部分在远程计算机上或完全在远程计算机或服务器上执行。在后一种场景下,远程计算机可以通过任何类型的网络连接到用户的计算机,包括局域网(lan)或广域网(wan),或者可以连接到外部计算机(例如,通过使用互联网服务提供商的互联网)。在一些实施例中,包括例如可编程逻辑电路、现场可编程门阵列(fpga)或可编程逻辑阵列(pla)的电子电路可以通过利用计算机可读程序指令的状态信息来执行计算机可读程序指令以个性化电子电路,以便执行本发明的方面。[0208]这些计算机可读程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器以生产机器,使得通过计算机的处理器或其他可编程数据处理装置执行的指令,创建用于实现功能/动作的装置。这些计算机可读程序指令也可以存储在计算机可读存储介质中,此计算机可读存储介质可以指示计算机、可编程数据处理装置和/或其他设备以特定方式运行,使得其中存储有指令的计算机可读存储介质包括制品,其包括实现功能/动作的各个方面的指令。[0209]计算机可读程序指令也可以加载到计算机、其他可编程数据处理装置或其他设备上,以导致在计算机、其他可编程装置或其他设备上执行一系列操作步骤以产生计算机实现的过程,使得在计算机、其他可编程装置或其他设备上执行的指令实现功能/动作。[0210]本发明的各种实施例的描述是出于说明的目的而呈现的,但并非旨在穷举或限于公开的实施例。在不脱离描述实施例的范围和精神的情况下,许多修正和变化对于本领域普通技术人员来说将是显而易见的。选择本文使用的术语以最好地解释实施例的原理、实际应用或对市场上发现的技术改进,或者使本领域普通技术人员能够理解本文公开的实施例。[0211]本文引用的参考文献教导了适用于本发明的许多原理。因此,这些出版物的全部内容在适合附加或替代细节、特征和/或技术背景的教导的情况下通过引用并入本文。[0212]应当理解,本发明在其应用方面不限于在本文包含的描述中阐述的或在附图中示出的细节。本发明能够有其他实施例并且能够以各种方式实践和实施。本领域技术人员将容易理解,在不脱离由所附权利要求限定的范围的情况下,可以将各种修正和改变应用于如上文所述的本发明的实施例。当前第1页12当前第1页12
转载请注明原文地址:https://win.8miu.com/read-16752.html