一种智能机器人多模态交互方法和智能机器人的利记博彩app

文档序号:10512795阅读:427来源:国知局
一种智能机器人多模态交互方法和智能机器人的利记博彩app
【专利摘要】本发明公开了一种智能机器人多模态交互方法以及机器人系统。本发明的方法包括:采集多模态交互输入信息;分析所述多模态交互输入信息以获取用户状态信息并判断当前是否存在交互需求;当当前不存在交互需求时进入非交互行为模式;在所述非交互行为模式下输出多模态交互信息,所述多模态交互信息配置为与所述用户状态信息对应。根据本发明的方法以及系统,可以令机器人模拟人与人相处中陪伴状态,形成自然舒适的人机交互体验,大大提高了机器人的用户体验。
【专利说明】
一种智能机器人多模态交互方法和智能机器人
技术领域
[0001 ]本发明涉及机器人领域,具体说涉及一种机器人交互方法。
【背景技术】
[0002]随着计算机技术的不断发展以及人工智能技术的不断进步。在家用领域小型智能机器人的应用也越来越广泛,面向家用的小型智能机器人正在迅猛发展。
[0003]现有面向家用的小型机器人,多数是采用被动应答的交互方式,机器人在没有接收到交互输入时不能主动行为。这样的交互模式固化呆板,容易令人厌倦。为了提高机器人的用户体验,一些机器人采用了主动交互的交互方式,但是由于主动交互的切入时机把握不好,失去了主动交互的意义。甚至在某些情况下,机器人发起的主动交互会对用户造成干扰,反而降低了用户体验。
[0004]因此,为了让机器人的行为更自然生动,提高机器人的用户体验,需要一种新的机器人交互方法。

【发明内容】

[0005]为了让机器人的行为更自然生动,提高机器人的用户体验,本发明提供了一种智能机器人多模态交互方法,包括:
[0006]采集多模态交互输入信息;
[0007]分析所述多模态交互输入信息以获取用户状态信息并判断当前是否存在交互需求;
[0008]当当前不存在交互需求时进入非交互行为模式;
[0009]在所述非交互行为模式下输出多模态交互信息,所述多模态交互信息配置为与所述用户状态信息对应。
[0010]在一实施例中,在处理所述多模态交互输入信息的过程中,分析所述多模态交互输入信息以判断当前是否存在用户,其中,当不存在用户时进入所述非交互行为模式。
[0011]在一实施例中,在处理所述多模态交互输入信息的过程中,分析所述多模态交互输入信息以判断用户是否存在交互意愿,其中,当所述用户不存在交互意愿时进入所述非交互行为模式。
[0012]在一实施例中,在处理所述多模态交互输入信息的过程中,分析所述图像信息和/或所述声音信息进行以确定用户的身份,其中:
[0013]从所述图像信息中提取所述用户的面部图像信息,分析所述面部图像信息以确定所述用户的身份;
[0014]从所述声音信息中提取所述用户的语音信息,对所述语音信息进行声纹识别以确定所述用户的身份。
[0015]在一实施例中,在处理所述多模态交互输入信息的过程中,通过对所述图像信息和/或所述声音信息进行分析以确定所述用户的情绪,其中:
[0016]从所述图像信息中提取所述用户的面部图像信息,分析所述面部图像信息以确定所述用户的情绪;
[0017]从所述声音信息中提取所述用户的语音信息,对所述语音信息进行声纹识别以确定所述用户的情绪。
[0018]本发明还提出了一种智能机器人多模态交互系统,包括:
[0019]信息采集模块,其配置为采集多模态交互输入信息,所述信息采集模块包括图像采集装置和声音采集装置;
[0020]交互信息处理模块,其配置为处理所述多模态交互输入信息以获取当前用户所处状态信息并判断当前是否存在交互需求;
[0021]非交互行为输出模块,其配置为当当前不存在交互需求时输出多模态交互信息,所述多模态交互信息配置为与所述当前用户所处状态信息对应。
[0022]在一实施例中,所述交互信息处理模块包含用户辨别装置,所述用户辨别装置配置为分析所述多模态交互输入信息以辨别当前是否存在用户。
[0023]在一实施例中,所述交互信息处理模块包含交互意愿辨别装置,所述交互意愿辨别装置配置为分析所述多模态交互输入信息以辨别用户是否存在交互意愿。
[0024]在一实施例中,所述交互信息处理模块包含身份确认装置,所述身份确认装置配置为分析所述多模态交互输入信息以确定用户的身份。
[0025]在一实施例中,所述交互信息处理模块包含情绪确认装置,所述身份确认装置配置为分析所述多模态交互输入信息以确定用户的情绪。
[0026]根据本发明的方法以及系统,可以令机器人模拟人与人相处中陪伴状态,形成自然舒适的人机交互体验,大大提高了机器人的用户体验。
[0027]本发明的其它特征或优点将在随后的说明书中阐述。并且,本发明的部分特征或优点将通过说明书而变得显而易见,或者通过实施本发明而被了解。本发明的目的和部分优点可通过在说明书、权利要求书以及附图中所特别指出的步骤来实现或获得。
【附图说明】
[0028]附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。在附图中:
[0029]图1是根据本发明一实施例的流程图;
[0030]图2、图3、图4以及图5分别是根据本发明不同实施例的部分流程图;
[0031]图6是根据本发明一实施例的系统结构简图。
【具体实施方式】
[0032]以下将结合附图及实施例来详细说明本发明的实施方式,借此本发明的实施人员可以充分理解本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程并依据上述实现过程具体实施本发明。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
[0033]现有面向家用的小型机器人,多数是采用被动应答的交互方式,机器人在没有接收到交互输入时不能主动行为。这样的交互模式固化呆板,容易令人厌倦。为了提高机器人的用户体验,一些机器人采用了主动交互的交互方式,但是由于主动交互的切入时机把握不好,往往会陷入自言自语的状态,失去了主动交互的意义。甚至在某些情况下,机器人发起的主动交互会对用户造成干扰,反而降低了用户体验。
[0034]为了让机器人的行为更自然生动,提高机器人的用户体验,本发明提出了一种智能机器人多模态交互方法。接下来基于流程图详细描述根据本发明实施例的方法的具体实施步骤。附图的流程图中示出的步骤可以在包含诸如一组计算机可执行指令的计算机系统中执行。虽然在流程图中示出了各步骤的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
[0035]在本说明书描述中所涉及到的机器人由执行机构、驱动装置、控制系统和采集设备构成。所述执行机构主要包括头部、上肢部、躯干和下肢部,在驱动装置可包括电驱动装置等。控制系统作为机器人的核心部分,类似于人的大脑,其主要包括处理器和关节伺服控制器。
[0036]采集系统包括内部传感器和外部传感器。外部传感器包括摄像头、麦克风、红外装置,用以感知外界多种信息。摄像头可以设置在头部,类似于人眼。红外装置可以设置在躯干的任意部位上,或者其它位置,用以辅助摄像头感应物体的存在或者外界环境。机器人具有听觉、视觉、触觉采集能力。
[0037]这里需要说明的是,本发明所涉及的机器人的具体结构并不限于上述描述。根据实际需要,机器人在可实现本发明所述的方法的基础上,可以采用任意的其他硬件结构。
[0038]本发明的方法描述的是在计算机系统中实现的。该计算机系统例如可以设置在机器人的控制核心处理器中。例如,本文所述的方法可以实现为能以控制逻辑来执行的软件,其由机器人控制系统中的CPU来执行。本文所述的功能可以实现为存储在非暂时性有形计算机可读介质中的程序指令集合。当以这种方式实现时,该计算机程序包括一组指令,当该组指令由计算机运行时其促使计算机执行能实施上述功能的方法。可编程逻辑可以暂时或永久地安装在非暂时性有形计算机可读介质中,例如只读存储器芯片、计算机存储器、磁盘或其他存储介质。除了以软件来实现之外,本文所述的逻辑可利用分立部件、集成电路、与可编程逻辑设备(诸如,现场可编程门阵列(FPGA)或微处理器)结合使用的可编程逻辑,或者包括它们任意组合的任何其他设备来体现。所有此类实施例旨在落入本发明的范围之内。
[0039]在本发明一实施例中,如图1所示,首先执行步骤S110,采集多模态交互输入信息。然后执行步骤S120,分析采集到的多模态交互输入信息以获取用户状态信息(在本说明书中,用户状态信息包含但不限于下文提到的一切和用户状态、用户特征有关的信息)。接下来执行步骤S130,根据分析获得的用户状态信息判断是否存在交互需求,也就是判断当前是否需要机器人进行人机交互。如果存在交互需求,则执行步骤S140,机器人进入交互行为模式。如果不存在交互需求,则执行步骤SI 50,机器人进入非交互行为模式。
[0040]在交互行为模式下,机器人分析处理用户的交互输入信息以输出相应的多模态交互信息从而实现人机交互。
[0041]在非交互行为模式下,机器人输出与用户状态信息对应的多模态交互信息。与交互行为模式不同,在非交互行为模式下机器人输出的多模态交互信息并不是为了实现与用户的交互,而是避免机器人出现呆板等待的状态(通常机器人在不与用户交互时会呆立不动,傻傻等待,影响机器人拟人化水平,降低用户体验)。在本发明中,机器人在非交互行为模式下输出多模态交互信息,其目的是实现不无聊,吸引用户的注意,提高用户的交互兴趣(例如自助游走、低声哼歌或是四处张望等行为)。
[0042]这里需要注意的是,在本发明中,机器人在非交互行为模式下的输出的一切多模态交互信息都是以不干扰用户为前提的。例如,判断用户处于安静休息状态,机器人则不做大幅度的动作,避免发出声音,打扰用户休息。
[0043]特别的,机器人在非交互行为模式下分析用户状态信息,输出对应用户状态信息的非交互行为。例如在本发明一实施例中,机器人在非交互行为模式下具有自由活动、原地活动、自言自语、安静陪伴、休息等多个不同的行为状态模式。机器人根据具体的用户状态信息,选择进入相应的行为状态模式。
[0044]通过对当前是否存在交互需求的判断,机器人可以智能的选择自己的行为模式。这样不仅不会影响机器人实现正常的人机交互,而且还可以避免机器人的交互行为干扰用户。进一步的,机器人在非交互行为模式下输出与用户状态信息对应多模态交互信息,避免了机器人在非交互状态下的呆板等待状态,使得机器人的行为更加灵活生动。根据本发明的方法,以不打扰和不无聊为目的,模拟人与人相处中陪伴状态,形成自然舒适的人机交互体验,大大提高了机器人的用户体验。
[0045]本发明的方法,其关键点之一是判断当前是否存在交互需求。在本发明一实施例中,首先通过判断当前是否存在用户来判断当前是否存在交互需求。具体的,即是根据采集到的多模态交互输入信息判断当前是否存在可以交互的对象(用户)。当不存在可以交互的对象(用户)时,自然也不会存在交互需求,此时就可以进入非交互行为模式。
[0046]多模态交互输入信息包括图像信息。在本发明一实施例中,通过对图像信息的分析判断当前是否存在可以交互的对象。具体的,即分析图像信息中是否存在人形,如果存在人形,则说明机器人的可视范围内存在用户(可以交互的对象)。进一步的,在分析是否存在人形的过程中,为了保证分析结果的正确性,还需要对人形进行活体检测,排除把照片、影像等虚拟形象误识别为人。
[0047]多模态交互输入信息还包括声音信息。在本发明一实施例中,通过对声音信息的分析判断当前是否存在可以交互的对象。具体的,分析声音信息中是否包含可以识别的人声,如果包含可以识别的人声,则说明在机器人可交互范围内有人(可交互对象)的存在。
[0048]在本发明的实施例中,可以采用多种上述图像分析或声音分析中的一种来分析判断当前是否存在用户,也可以采用上述两种方法结合的方式来分析判断当前是否存在用户。
[0049]在实际交互环境下,存在用户(可交互的对象)并不等于用户希望与机器人进行交互。如果在用户不希望与机器人进行交互时与用户交互,那么必然是对用户的打扰。因此,为了避免打扰用户,在本发明一实施例中需要进一步判断用户是否具有交互意愿。
[0050]具体的,如图2所示,首先判断是否存在用户(执行步骤S210),如果不存在用户,执行步骤S250,进入非交互行为模式。如果存在用户,则执行步骤S220,判断用户是否具有交互意愿。当用户具有交互意愿时,执行步骤S240,进入交互行为模式。当用户没有交互意愿时,执行步骤S250,进入非交互行为模式。
[0051]进一步的,机器人在非交互行为模式下输出多模态交互信息的目的是在不打扰用户的前提下避免呆板等待(不打扰和不无聊)。然而如果当前不存在用户,自然也就不涉及到打搅用户。另外,如果不存在用户,那么也就不存在实施不无聊的表现客体(是否呆板等待都没有意义,因为没有用户会看到机器人现在的状态)。因此,为了节约能源,在本发明一实施例中,当不存在可以交互的对象(用户)时,机器人进入非交互行为模式,进一步的,以不存在可交互对象为前提,此时的机器人不进行任何自主行为,而是停止运行,进入休眠状
??τ O
[0052]在本发明一实施例中,通过对用户行为的分析来判断用户是否具有交互意愿。具体的,如图3所示,首先执行步骤S310,分析声音信息中是否包含用户语音。当声音信息中包含用户语音时执行步骤S320,根据用户语音判断交互意愿。
[0053]具体的,分析用户语音的具体语义,辨别用户语音是否包含与机器人交互的意愿。例如,如果用户语音的具体语义表明用户是在同其他人交谈,则当前用户没有交互意愿(与机器人交互的意愿)。如果用户语音的具体语义表明用户在对机器人交谈(例如,用户向机器人提问“现在几点了” ),那么当前用户有交互意愿。
[0054]如果根据用户语音无法断定当前用户是否有交互意愿(例如用户在哼歌,其具体的语义机器人无法理解识别)或者当前不存在用户语音,则进一步分析用户行为。首先执行步骤S330,分析图像信息中是否包含用户动作。当图像信息中包含用户动作时执行步骤S340,根据用户动作判断交互意图。
[0055]具体的,分析用户动作的具体含义,辨别用户动作是否包含与机器人交互的意愿。例如,如果用户动作的具体含义表明用户是在忙于做与机器人无关的事情(例如用户正在打字),则当前用户没有交互意愿。如果用户动作的具体含义表明用户是在对机器人动作(例如,用户向机器人挥手指示机器人靠过来),那么则当前用户有交互意愿。
[0056]实际交互中,如果用户主动发出交互请求(对机器人发出包含交互含义的声音或者动作),那必然可以直接视为用户具有交互意愿;如果用户行为明确表明用户在忙于其他事物,那可以直接视为用户不具有交互意愿。然而,如果用户没有发出任何交互请求(没有发出任何包含交互含义的声音或者动作,进一步的,用户处于静止状态,没有发出任何可以识别的声音或者动作)或是机器人无法从用户的行为中识别用户是否具有交互意愿时,并不能表明用户没有交互意愿。
[0057]针对上述情况,在图3所示实施例中采用了主动试探的方式。即如果无法根据用户行为识别用户是否具有交互意愿(根据用户语音、用户动作均无法识别或是当前不存在用户语音/动作)时,执行步骤S370,主动交互试探。在步骤S370中,机器人向用户主动发出交互请求,试探用户是否存在交互意愿。例如,机器人向用户打招呼“您好,今天天气不错”或是向用户提问“您现在忙么”。
[0058]在步骤S370之后,机器人等待用户回应并执行步骤S380,判断用户是否做出交互回应。当经过预设时间(根据通常的交互习惯设定问答等待时间)后并没有得到用户的交互回应,则说明用户不想回应机器人或是处于无法回应的状态,此时用户没有交互意愿。
[0059]如果机器人接收到用户的交互回应,则执行步骤S390,根据交互回应判断交互意愿,分析交互回应的具体语义,判断用户是否有交互意愿。例如,机器人向用户提问“您现在忙么”,用户回答“我很忙”,则可以判断用户没有交互意愿。
[0060]以一具体应用场景为例,用户在跑步机上跑步。机器人首先采集图像信息以及声音信息。虽然声音信息中不包含用户语音(用户没有说话),但图像信息包含人形,因此机器人判断当前存在用户。
[0061]接下来分析用户的交互意愿,由于声音信息中并不包含用户语音,因此分析图像信息中的用户动作,用户在跑步机上跑步,机器人无法识别这个跑步动作具体代表用户是否具有交互意愿,于是机器人发出主动交互试探。机器人向用户提问“您好,您在做什么呢”。
[0062]假设用户跑步很累,不想说话,那么用户可以不回答机器人。机器人没有得到交互回应,于是判断用户不具有交互意愿,机器人进入非交互行为模式,在用户附近自主的自由游走。
[0063]假设用户可以说话,但是正在思考问题,可以直接回答“我很忙”。机器人通过分析交互回应的语义判断用户不具有交互意愿,机器人进入非交互行为模式,在用户附近自主的自由游走。
[0064]假设用户想和机器人随便聊聊,那么用户可以顺着机器人的提问进行回答。机器人通过分析交互回应的语义判断用户具有交互意愿,机器人进入交互行为模式,顺着用户的回答开始和用户聊天。
[0065]进一步的,为了使机器人更加人性化,提高机器人的用户体验,在本实施例中,在判断用户是否具有交互意愿时还采用了情绪分析。具体的,在机器人主动交互试探(步骤S370)之前,如果经过步骤S310、320、330以及340无法根据用户行为识别用户是否具有交互意愿时,首先执行步骤S350,分析用户情绪。然后执行步骤S360,判断用户情绪是否适合交互。如果适合交互,则执行步骤S370。如果不适合交互,则判断用户不具备交互意愿。
[0066]具体的,在步骤S350中,可以采用声纹识别的方式分析识别用户情绪。即分析用户语音的语气、语调以及语义从而分析判断用户当前的情绪。也可以采用面部识别的方式分析识别用户情绪。即从图像信息中分析提取用户的面部图像,然后对用户的面部图像进行表情识别从而分析识别用户当前的情绪。
[0067]在这里需要说明的是,本实施例采用用户语音以及用户面部图像综合分析的方式来分析获取用户情绪。在本发明其他实施例中,可以采用以上两种方式中的任一种方式进行分析识别。
[0068]进一步的,在图3所示实施例中,判断用户情绪的目地是分析用户情绪是否适合交互,但是在实际交互时并不能准确判断用户的情绪是否适合交互,因此在本发明的另一实施例中,用户情绪的分析主要是辅助作用。例如,在进行主动交互试探(步骤S370)时基于用户情绪采用不同的试探内容/方式;在分析交互回应(步骤S390)时基于用户情绪辅助判断交互回应是否包含交互意愿。
[0069]另外,用户情绪的分析也可以贯穿整个交互执行过程,即在交互进行时随时监控用户情绪,基于用户情绪随时调整机器人具体输出的交互行为。例如,如果用户情绪低落,机器人在交互过程中可以针对性的唱歌或者讲笑话;如果用户在生气(其没有交互意愿,因此机器人进入非交互模式,自主自由行动),机器人可以降低自由行动的范围以及动作幅度(甚至直接进入休眠状态),避免干扰用户。
[0070]这里需要注意的是,在判断用户是否具有交互意图的过程中,由于主动交互试探行为(步骤S370)会打搅到用户。因此在本实施例中,在其他判断手段执行完毕且均不能做出有效判断时才执行步骤S370。
[0071]在人与人的正常交互中,人们会根据交互对象的不同身份采用不同的交互回应。为了提高机器人的拟人化水平,提高机器人的交互灵活性,在本发明一实施例中,采用了身份识别机制。
[0072]如图4所示,首先执行步骤S410,判断是否存在用户,不存在用户时则执行步骤S460,进入非交互行为模式。如果存在用户,则执行步骤S420,确定用户身份。
[0073]具体的,在本实施例中,通过分析声音信息来确定用户身份。即从声音信息中分离用户语音,然后对用户语音进行声纹分析以确定用户身份。进一步的,在本实施例中也基于图像分析来确定用户身份。即从图像信息中分析提取用户的面部图像,然后对用户的面部图像进行面部识别从而确定用户身份。
[0074]在这里需要说明的是,本实施例采用用户语音以及用户面部图像综合分析的方式来确定用户身份。在本发明其他实施例中,可以采用以上两种方式中的任一种方式进行分析识别。
[0075]当用户身份确定了之后,执行步骤S430,判断用户是否具有交互权限(在本实施例中,对应无法识别身份的用户,均认为其不具备交互权限)。如果用户没有交互权限(也就是说,不容许机器人与该用户进行交互),那么机器人执行步骤S460,进入非交互行为模式。如果用户有交互权限,则执行步骤S440,判断用是否具有交互意愿。如果有交互意愿,执行步骤S450,进入交互行为模式。如果没有交互意愿,执行步骤S460,进入非交互行为模式。
[0076]进一步的,为了提高机器人的拟人化水平,在本发明其他实施例中,可以根据实际需求做更为细致的划分。如图5所示,在步骤S510中判断是否有用户存在,当用户存在时确定用户身份(步骤S520),之后并不是直接基于用户身份划分是否进入非交互行为模式。而是执行步骤S540,判断用户是否有交互意愿。与图3所示实施例不同,在步骤S540中,会基于不同的用户身份采用不同的主动交互试探方式,从而使得机器人的主动试探行为更加人性化,大大提高了机器人的应用体验。
[0077]例如,如果无法识别用户身份,机器人可以提问“您是哪位”;如果识别出用户是机器人的拥有者,机器人可以打招呼“主人早上好”;如果识别出用户是机器人拥有者的朋友王某,机器人可以打招呼“王先生早上好,您找主人有事么”。
[0078]进一步的,身份识别结果在整个机器人的交互过程中都起辅助作用。机器人可以依照交互对象身份的不同采取不同内容的交互回应。例如,如果无法识别用户身份,那么机器人在交互时就会避免提及和拥有者隐私相关的内容,即使被问及也可以不做回答。
[0079]进一步的,机器人在非交互行为模式下也可以根据在场的用户的身份采取不同的行为输出。例如,如果是机器人拥有者在场(其没有交互意愿,因此机器人进入非交互模式,自主自由行动),机器人可以采用较为引人注目的自主行为吸引拥有者的注意,提高拥有者的交互兴趣;如果是不能识别身份的用户在场(其没有交互意愿,因此机器人进入非交互模式,自主自由行动),机器人可以采用比较悠闲的自主行为,甚至可以进入休眠状态(在这里设定机器人只需要吸引其拥有者的注意,不需要吸引不能识别身份的用户)。
[0080]这里需要说明的是,图1-图5所示实施例默认机器人的最初状态是刚启动(既不处于交互行为模式也不处于非交互行为模式,并没有开始和用户进行交互)ο当机器人进入交互行为模式或非交互行为模式后,也可以执行图1-图5所示流程判断自身下一步需要进入的模式。
[0081]以图2所示实施例为例,当机器人正在和用户交互时,随时监测用户状态(步骤S210),当用户离开(不存在用户),则意味着交互终止,机器人执行步骤S250。如果用户没有离开,则机器人在执行交互行为时随时判断用户是否有交互意愿(步骤S220),如果用户有交互意愿,则执行步骤S240,继续交互,如果用户没有交互意愿,则终止交互(结束话题,避免打搅用户),执行步骤S250。
[0082]当机器人处于非交互行为模式时,随时监测用户是否具有交互意图(图3所示流程),当用户具有交互意图时脱离非交互行为模式,进入交互行为模式。
[0083]这里需要注意的是,在监测用户是否具有交互意图的过程中,由于主动交互试探行为会打搅到用户。因此执行过主动交互试探且试探结果为用户不具备交互意愿时,在预设的时间段(根据用户通常的交互频次设定时间值)内不能再次执行主动交互试探。这样就能避免连续多次的主动交互试探打搅到用户。
[0084]综上,根据本发明的方法,以不打扰和不无聊为目的,模拟人与人相处中陪伴状态,形成自然舒适的人机交互体验,大大提高了机器人的用户体验。进一步的,相较于现有技术,本发明的系统更加全面的分析了机器人所处的交互环境以及用户的交互状态,从而可以输出更加匹配实际情况的机器人交互输出,机器人的拟人化程度和灵活性得到大大提高,进一步提高了机器人的用户体验。
[0085]基于本发明的方法,本发明还提出了一种智能机器人多模态交互系统。如图6所示,系统包括信息采集模块610、交互信息处理模块620、交互行为输出模块630以及非交互行为输出模块640。
[0086]信息采集模块610配置为采集多模态交互输入信息,其包括图像采集装置611和声音采集装置612;交互信息处理模块620配置为处理多模态交互输入信息(图像信息以及声音信息)以获取当前用户所处状态信息并判断当前是否存在交互需求;交互行为输出模块630配置为当当前存在交互需求时输出与当前用户所处状态信息对应的多模态交互信息;非交互行为输出模块640配置为当当前不存在交互需求时输出与当前用户所处状态信息对应的多模态交互信息。
[0087]交互行为输出模块630与非交互行为输出模块640输出的多模态交互信息的基本区别在于:
[0088]交互行为输出模块630输出的多模态交互信息主要用途是实现与用户的交互;
[0089]非交互行为输出模块640输出的多模态交互信息是要在不打搅用户的前提下避免机器人呆板的等待行为,实现不无聊。
[0090]为了提高机器人的人性化程度,交互信息处理模块620包含用户辨别装置621、交互意愿辨别装置622、身份确认装置623以及情绪确认装置624,其中:
[0091]用户辨别装置621配置为分析多模态交互输入信息以辨别当前是否存在用户;
[0092]交互意愿辨别装置622配置为分析多模态交互输入信息以辨别用户是否存在交互意愿;
[0093]身份确认装置623配置为分析多模态交互输入信息以确定用户的身份;
[0094]情绪确认装置624配置为分析所述多模态交互输入信息以确定用户的情绪。
[0095]基于上述装置,交互信息处理模块620可以更加精确的识别当前机器人所处的交互环境以及用户的具体交互状态等特征信息,从而更加人性化的判断是否进入交互行为模式/非交互行为模式。并且在交互行为模式/非交互行为模式基于不同的交互环境以及用户状态采取匹配的交互应对。
[0096]以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0097]根据本发明的系统,以不打扰和不无聊为目的,模拟人与人相处中陪伴状态,形成自然舒适的人机交互体验,大大提高了机器人的用户体验。进一步的,相较于现有技术,本发明的系统更加全面的分析了机器人所处的交互环境以及用户的交互状态,从而可以输出更加匹配实际情况的机器人交互输出,机器人的拟人化程度和灵活性得到大大提高,进一步提高了机器人的用户体验。
[0098]虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。本发明所述的方法还可有其他多种实施例。说明书中提到的“一个实施例”或“实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一个实施例”或“实施例”并不一定均指同一个实施例。
[0099]在不背离本发明实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变或变形,但这些相应的改变或变形都应属于本发明的权利要求的保护范围。
【主权项】
1.一种智能机器人多模态交互方法,其特征在于,包括: 采集多模态交互输入信息; 分析所述多模态交互输入信息以获取用户状态信息并判断当前是否存在交互需求; 当当前不存在交互需求时进入非交互行为模式; 在所述非交互行为模式下输出多模态交互信息,所述多模态交互信息配置为与所述用户状态信息对应。2.根据权利要求1所述的方法,其特征在于,在处理所述多模态交互输入信息的过程中,分析所述多模态交互输入信息以判断当前是否存在用户,其中,当不存在用户时进入所述非交互行为模式。3.根据权利要求1或2所述的方法,其特征在于,在处理所述多模态交互输入信息的过程中,分析所述多模态交互输入信息以判断用户是否存在交互意愿,其中,当所述用户不存在交互意愿时进入所述非交互行为模式。4.根据权利要求1-3中任一项所述的方法,其特征在于,在处理所述多模态交互输入信息的过程中,分析所述图像信息和/或所述声音信息进行以确定用户的身份,其中: 从所述图像信息中提取所述用户的面部图像信息,分析所述面部图像信息以确定所述用户的身份; 从所述声音信息中提取所述用户的语音信息,对所述语音信息进行声纹识别以确定所述用户的身份。5.根据权利要求1-4中任一项所述的方法,其特征在于,在处理所述多模态交互输入信息的过程中,通过对所述图像信息和/或所述声音信息进行分析以确定所述用户的情绪,其中: 从所述图像信息中提取所述用户的面部图像信息,分析所述面部图像信息以确定所述用户的情绪; 从所述声音信息中提取所述用户的语音信息,对所述语音信息进行声纹识别以确定所述用户的情绪。6.一种智能机器人系统,其特征在于,包括: 信息采集模块,其配置为采集多模态交互输入信息,所述信息采集模块包括图像采集装置和声音采集装置; 交互信息处理模块,其配置为处理所述多模态交互输入信息以获取当前用户所处状态信息并判断当前是否存在交互需求; 非交互行为输出模块,其配置为当当前不存在交互需求时输出多模态交互信息,所述多模态交互信息配置为与所述当前用户所处状态信息对应。7.根据权利要求6所述的系统,其特征在于,所述交互信息处理模块包含用户辨别装置,所述用户辨别装置配置为分析所述多模态交互输入信息以辨别当前是否存在用户。8.根据权利要求6或7所述的系统,其特征在于,所述交互信息处理模块包含交互意愿辨别装置,所述交互意愿辨别装置配置为分析所述多模态交互输入信息以辨别用户是否存在交互意愿。9.根据权利要求6-8中任一项所述的系统,其特征在于,所述交互信息处理模块包含身份确认装置,所述身份确认装置配置为分析所述多模态交互输入信息以确定用户的身份。10.根据权利要求6-9中任一项所述的系统,其特征在于,所述交互信息处理模块包含情绪确认装置,所述情绪确认装置配置为分析所述多模态交互输入信息以确定用户的情绪ο
【文档编号】G06F17/27GK105868827SQ201610179233
【公开日】2016年8月17日
【申请日】2016年3月25日
【发明人】郭家, 石琰
【申请人】北京光年无限科技有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1