3d显示系统用的测量人眼瞳距的方法及系统和显示设备的制造方法
【技术领域】
[0001] 本发明设及裸眼3D显示技术的改进,特别是设及一种测量人眼瞳距的方法及系统 和一种将该测量技术进行应用的裸眼3D显示设备。
【背景技术】
[0002] 裸眼式3D技术的研发分两个方向,一是硬件设备的研发,二为显示内容的处理研 发。第二种已经开始小范围的商业运用。大众消费者接触的不多。裸眼式3D技术最大的优势 便是摆脱了眼镜的束缚,但是分辨率、可视角度和可视距离等方面还存在很多不足。当然, 近几年国内又出现一种更简单的裸眼3D成像技术,也就是第二种技术。它是直接运用在特 定的所要需要表现3D效果的东西上,比如广告行业的平面海报上面,电子商务的产品展示 上面等等。
[0003] 但是,目前3D显示技术,在图像处理进行3D显示时,无论是基于9视点差等技术来 进行立体图像的显示,还是其他方式,由于裸眼3D没有眼镜设备的视差调节,并且每个人双 眼睛的瞳孔之间的距离是不同的,所W在立体显示场景(图像和视频)的获取和再现方面, 都采用理论瞳距来进行立体图像的显示,因为不同的人看到同样显示效果的立体图像时, 则会非常不适应,对有些观看者观看一定时间后会产生头晕,具有明显的眩晕感,从而无法 长时间裸眼观看3D成像效果,从而导致裸眼3D的显示技术无法大范围的进行商业推广。
【发明内容】
[0004] 基于现有技术中存在的问题,有必要提供一种可自动实时的测量观看者人眼瞳距 的方法。
[0005] -种测量人眼瞳距的方法,其包括:
[0006] 获取包含观察者脸部特征的图像数据;
[0007] 依据所述图像数据,基于人脸部特征分析获得左眼图像位置和右眼图像位置;
[000引根据所述左眼图像位置和右眼图像位置,获得人眼图像瞳距值;
[0009] 获取真实空间的尺寸因素检测结果,依据该结果将所述人眼图像瞳距值,转化为 S维空间系下的实际瞳距值;
[0010] 输出所述实际瞳距值。
[0011] 在其中一个实施例中,所述获取真实空间的尺寸因素检测结果,依据该结果将所 述人眼图像瞳距值,转化为S维空间系下的实际瞳距值的步骤包括:
[0012] 对所述图像数据进行图像特征分析;
[0013] 判断所述图像数据中是否存在参照物,
[0014] 若是,则测量参照物的图像尺寸,
[0015] 基于参照物的已知真实尺寸和参照物的图像尺寸,由所述人眼图像瞳距值获得所 述实际瞳距值。
[0016] 在其中一个实施例中,所述获取真实空间的尺寸因素检测结果,依据该结果将所 述人眼图像瞳距值,转化为S维空间系下的实际瞳距值的步骤包括:
[0017] 获取人脸实际位置距离深度相机模块的空间距离;
[0018] 将所述人眼图像瞳距值除W所述空间距离,再乘W拍摄系统常数,获得所述实际 瞳距值。
[0019] 在其中一个实施例中,所述获取人脸实际位置距离深度相机模块的空间距离的步 骤包括:
[0020] 判断所述图像数据是否是由深度相机模块采集的图像数据;
[0021] 若是,则执行W下步骤:
[0022] 将所述图像数据进行空间转换,获得深度图像数据;
[0023] 基于深度图像数据,获得人脸实际位置距离深度相机模块的空间距离。
[0024] 在其中一个实施例中,当所述图像数据不是由深度相机模块采集的图像数据时, 则提醒用户输入所述人脸实际位置距离深度相机模块的空间距离。
[0025] 在其中一个实施例中,若所述图像数据中不存在参照物时,则执行所述获取人脸 实际位置距离深度相机模块的空间距离的步骤。
[00%] 在其中一个实施例中,一种测量人眼瞳距的系统,其包括:
[0027] 图像获取模块,用于获取包含人物脸部特征的图像数据;
[0028] 图像位置计算模块,用于依据所述图像数据,基于人脸部特征分析获得左眼图像 位置和右眼图像位置;
[0029] 瞳距测算模块,用于根据所述左眼图像位置和右眼图像位置,获得人眼图像瞳距 值;
[0030] 空间数据转化模块,用于获取真实空间的尺寸因素检测结果,依据该结果将所述 人眼图像瞳距值,转化为S维空间系下的实际瞳距值;
[0031] 输出模块,用于输出所述实际瞳距值。
[0032] 在其中一个实施例中,所述空间数据转化模块包括:
[0033] 图像特征分析模块,用于对所述图像数据进行图像特征分析;
[0034] 第一判断模块,用于判断所述图像数据中是否存在参照物,若是,则测量参照物的 图像尺寸;
[0035] 第一计算模块,用于基于参照物的已知真实尺寸和参照物的图像尺寸,由所述人 眼图像瞳距值获得所述实际瞳距值。
[0036] 在其中一个实施例中,所述空间数据转化模块包括:
[0037] 距离获知模块,用于获取人脸实际位置距离深度相机模块的空间距离;
[0038] 第二计算模块,用于将所述人眼图像瞳距值除W所述空间距离,再乘W拍摄系统 常数,获得所述实际瞳距值。
[0039] 在其中一个实施例中,一种裸眼3D显示设备,其包括:
[0040] 裸眼3D显示屏,用于接收左右两路摄像机视频数据流并输出显示,用W在裸眼观 看下获得3D显示效果;
[0041] 设置在裸眼3D显示屏上的摄像模块,用于获取包含观察者脸部特征的图像数据;
[0042] 图像处理器,所述图像处理器的数据输入端连接所述摄像模块的输出,所述图像 处理器的数据输出连接所述裸眼3D显示屏的数据输入,所述图像处理器用于依据所述图像 数据,基于人脸部特征分析获得左眼图像位置和右眼图像位置,根据所述左眼图像位置和 右眼图像位置,获得人眼图像瞳距值,获取真实空间的尺寸因素检测结果,依据该结果将所 述人眼图像瞳距值,转化为=维空间系下的实际瞳距值,并将源3D视频图像数据中虚拟左 右摄像机的间距设定为所述实际瞳距值,计算更新后的深度图像数据,根据更新后的深度 图像数据,W设定的间距所对应的虚拟左右摄像机位置作为视角,生成左右两路摄像机视 频数据流,输出所述左右两路摄像机视频数据流至裸眼3D显示屏上。
[0043] 本发明提供一种新的图像处理方式,其可W自动实时获得观察的瞳距,提高瞳距 检测的实时性。并且基于此自动实时获取的瞳距,可W随着观察者自身的瞳距来自动调节 3D画面的数据源,从而使得3D显示效果能够跟随观察者的瞳距而发生改变,避免裸眼观看 3D显示时产生眩晕感,延长了裸眼观看3D的时间,有利于大范围的推广应用裸眼3D技术产 品。
【附图说明】
[0044] 图1为本发明一实施例中的空间结构示意图;
[0045] 图2为本发明一实施例中的电路结构示意图;
[0046] 图3为本发明一实施例中的方法流程示意图;
[0047] 图4为本发明一实施例中的图像域解析示意图;
[0048] 图5为本发明一实施例中的图像域解析示意图;
[0049] 图6为本发明一实施例中的方法流程示意图;
[0050] 图7为本发明一实施例中的系统框架示意图;
[0051 ]图8和图9为双眼视差和场景深度的示意图;
[0052] 图10为本发明一实施例中的系统框架示意图;
[0053] 图11为本发明一实施例中左右摄像机与物体的位置相对关系;
[0054] 图12为本发明一实施例中左右摄像机间距与图像其他参数之间的对应关系;
[0055] 图13为本发明实施例中投影图像转化示意图。
【具体实施方式】
[0056] 为了便于理解本发明,下面将参照相关附图对本发明进行更全面的描述。附图中 给出了本发明的较佳实施方式。但是,本发明可W W许多不同的形式来实现,并不限于本文 所描述的实施方式。相反地,提供运些实施方式的目的是使对本发明的公开内容理解的更 加透彻全面。
[0057] 需要说明的是,当元件被称为"固定于"另一个元件,它可W直接在另一个元件上 或者也可W存在居中的元件。当一个元件被认为是"连接"另一个元件,它可W是直接连接 到另一个元件或者可能同时存在居中元件。本文所使用的术语"垂直的"、"水平的"、"左"、 "右"W及类似的表述只是为了说明的目的,并不表示是唯一的实施方式。
[0058] 除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的 技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为