一种目标检测方法及装置以及移动终端的利记博彩app

文档序号:10625052阅读:353来源:国知局
一种目标检测方法及装置以及移动终端的利记博彩app
【专利摘要】本发明公开了一种目标检测方法及装置以及移动终端,属于图像分类检测技术领域;方法包括:输入多个训练样本并反复训练得到一级联分类模型的分类参数;根据分类参数在需要检测的图像上筛选出多个经过排序的候选窗口;训练生成相应的卷积神经网络模型,并采用卷积神经网络模型训练形成相应的分类器;根据训练完成的分类器对经过排序的所有候选窗口进行检测,以得到目标检测的输出结果。装置包括:第一训练单元、筛选单元、第二训练单元以及检测单元。上述技术方案的有益效果是:减少窗口获取的数据计算量,提升窗口获取的检测效率使得目标检测算法更简洁更高效,并且提升目标检测所针对目标的泛化性,使得目标检测适用于移动终端。
【专利说明】
-种目标检测方法及装置从及移动终端
技术领域
[0001] 本发明设及图像分类检测技术领域,尤其设及一种目标检测方法及装置W及移动 终端。
【背景技术】
[0002] 目标检测是一项设及计算机视觉和图像处理的重要技术,其主要目的是在图像和 视频中检测出某些类别(例如人类、建筑、车辆等)的目标实例。目标检测技术目前应用于 图像检索、视频监控W及人机交互领域。
[0003] 现有的目标检测技术,通常存在较大的局限性,并且由于采用滑动窗口检测方法, 使得需要检测和计算的数据量较大,从而导致计算复杂度增加,降低检测效率。

【发明内容】

[0004] 根据现有技术中存在的问题,现提供一种目标检测方法及装置W及移动终端的技 术方案,旨在现有技术中目标检测局限性较大,计算量较大,计算模型尚不够完善的缺陷。 阳0化]上述技术方案具体包括:
[0006] 一种目标检测方法,适用于移动终端;其中,其特征在于:
[0007] 输入多个训练样本并反复训练得到一级联分类模型的分类参数;
[0008] 训练生成相应的卷积神经网络模型,并采用所述卷积神经网络模型训练形成相应 的分类器;
[0009] 所述目标检测方法包括:
[0010] 根据所述分类参数在需要检测的图像上筛选出多个经过排序的候选窗口;
[0011] 根据训练完成的所述分类器对经过排序的所有所述候选窗口进行检测,W得到目 标检测的输出结果。
[0012] 优选的,该目标检测分类方法,其中,通过训练得到所述分类参数的过程具体包 括:
[0013] 步骤Sla,输入多个所述训练样本,并提取每个所述训练样本的范数梯度特征;
[0014] 步骤S2a,分别计算得到每个所述范数梯度特征的响应值,并进行统计计算,作为 所述分类参数输出。
[0015] 优选的,该目标检测方法,其中,所述步骤Sla具体包括:
[0016] 步骤S1 la,将输入的所有所述训练样本缩放至统一尺度;
[0017] 步骤S12a,获取每个所述训练样本的范数梯度特征;
[0018] 优选的,该目标检测方法,其中,所述步骤S12a中,首先采用一预定的滤波模板分 别对每个所述训练样本进行滤波,W计算得到对应于每个所述训练样本X轴方向的梯度图 像的,W及对应于每个所述训练样本y轴方向的梯度图像Gy;
[0019] 随后W下述公式计算每个所述训练样本的范数梯度特征: 阳020] Gn"m=min(|Gj + |Gy|,25W; 阳02U 其中,
[0022] 为对应所述训练样本的所述范数梯度特征的通项变量表示。
[0023] 优选的,该目标检测方法,其中,采用一预定的滤波模板分别对每个所述训练样本 进行滤波包括:
[0024] 采用一维中屯、滤波模板P = [-1,0, 1]分别对所述训练样本进行滤波,W及 [00巧]采用模板P的转置ρΤ作为滤波模板分别对所述训练样本进行滤波。
[0026] 优选的,该目标检测方法,其中,所述步骤S2a具体包括:
[0027] 步骤S21a,采用第一层的线性支持向量机提取所述范数梯度特征的第一响应值;
[0028] Sl=<Wi,Gl>;
[0029] 其中,
[0030] 或表示所述第一响应值,W 1表示第一层的所述线性支持向量机经过学习后得到的 参数,G,表示对应一预定的所述训练样本,下标L表示所述训练样本于相应的图像上的位 置;
[0031] 步骤S22a,对所述第一响应值进行非极值抑制处理;
[0032] 步骤S23a,采用第二层的线性支持向量机对经过非极值抑制处理的所述第一响应 值进行调整,W得到所述响应值: 阳 03引 CL=aq.SL+bq;
[0034] 其中,
[0035] C茂示所述第一响应值经过调整后得到的所述响应值,W2= <aq,bq>表示第二层 的所述线性支持向量机经过学习后得到的参数;
[0036] 提取所有所述训练样本对应的所述第一响应值W及相应的所述响应值,并做反复 计算和统计,W训练得到最终的所述第一响应值和相应的所述响应值;
[0037] 所述分类参数包括第一层的所述线性支持向量机的参数Wi、第二层的所述线性支 持向量机的参数W2、所述第一响应值或W及所述响应值C ^
[0038] 优选的,该目标检测方法,其中,所述步骤S22a中,使用累计直方图对所述第一响 应值进行非极值抑制处理。
[0039] 优选的,该目标检测方法,其中,所述分类参数包括第一层的线性支持向量机的参 数Wi,W及根据对应于范数梯度特征的第一响应值经过调整得到的响应值
[0040] 获得用于表示每个所述训练样本缩放前的尺度和横纵比的量化参数,所述量化参 数具有预设的取值范围;
[0041] 根据所述分类参数在需要检测的图像上筛选出多个经过排序的候选窗口的过程 具体包括:
[00创步骤Slb,根据所述量化参数,将需要检测的图像进行缩放,W得到缩放尺度处于 所述取值范围内的多幅缩放图像;
[0043] 步骤S2b,提取每幅所述缩放图像的范数梯度特征,将每个所述范数梯度特征与第 一层的支持向量机的参数Wi进行卷积计算,W得到对应于每幅所述缩放图像的匹配响应 图; W44] 步骤S3b,在所述匹配响应图上执行非极值抑制处理,W得到对应的所述缩放图像 上能够保留的窗口的最大数;
[0045] 步骤S4b,于每个所述缩放尺度上获取相应的所述缩放图像上的数量不多于所述 最大数的多个窗口;
[0046] 步骤S5b,根据所述响应值从大到小对需要检测的图像上的所有所述窗口进行排 序,选取预定数量的多个排序在前的所述窗口作为需要检测的图像上的候选窗口并保留。
[0047] 优选的,该目标检测方法,其中,训练生成相应的卷积神经网络模型的过程具体包 括:
[0048] 步骤Slc,构建一个初始的所述卷积神经网络模型;
[0049] 步骤S2c,使用稀疏自编码方法训练得到所述卷积神经网络模型的权重参数和偏 置参数;
[0050] 步骤S3c,继续训练得到所述卷积神经网络模型的其他参数,W构成训练完毕的所 述卷积神经网络模型。
[0051] 优选的,该目标检测方法,其中,所述步骤S2c具体包括:
[0052] 步骤S21C,输入多个所述训练样本,并对输入数据进行白化处理;
[0053] 步骤S22C,根据经过白化处理的所述输入数据进行稀疏自编码处理,W训练得到 相应的所述权重参数和所述偏置参数。
[0054] 优选的,该目标检测方法,其中,所述步骤S21C中,对所述输入数据进行白化处理 的方式具体包括: 阳化5] 步骤S211C,采用下述公式对所述输入数据进行主成分分析白化处理:
[0056]
[0057] 其中,
[005引 XpcAwhit。表示经过所述主成分分析白化处理后的所述输入数据;
[0059] U表示奇异值分解获得的正交矩阵,相应地护表示U矩阵的转置矩阵;
[0060] λ表示奇异值分解获得的对角矩阵;
[0061] ε表示正则化常数;
[0062] 步骤S212C,采用下述公式,在主成分分析白化处理后,继续对所述输入数据进行 白化处理:
[0063] XzCA_white -化 P心white;
[0064] 其中,
[00化]XzcA^hit。表示于主成分分析白化处理的基础上,继续进行白化处理后得到的所述 输入数据。
[0066] 优选的,该目标检测方法,其中,所述卷积神经网络中包括第一层的输入节点、第 二层的隐藏节点W及第Ξ层的输出节点,所述输入节点连接所述隐藏节点,所述隐藏节点 连接所述输出节点;
[0067] 所述卷积神经网络的总体代价函数如下:
[0069]共中,
[0068]
[0070] J(W,b)为经典神经网络中的基本代价函数;
[0071] β表示控制稀疏性惩罚因子的权重;
[0072] S2表示所述隐藏节点的数量; 阳〇7引 化(戶Μ A)为相对赌;
[0074] P为稀疏性参数;
[00巧]^表示所述隐藏节点的平均活跃度;
[0076] W表示所述权重参数,b表示所述偏置参数;
[0077] 所述步骤S22C中,训练得到使上述总体代价函数的代价最小的相应的所述权重 参数W及偏置参数。
[007引优选的,该目标检测方法,其中,W根据所述稀疏自编码方法计算输出的所述权重 参数和所述偏置参数作为输入,采用所述稀疏自编码方法多次迭代计算输出最终的所述权 重参数和所述偏置参数。
[0079] 优选的,该目标检测方法,其中,所述步骤S3c具体包括:
[0080] 步骤S31C,将输入的所述训练样本分别与所述步骤S2c中输出的对应每个所述隐 藏节点的所述权重参数进行卷积操作,W输出对应于每个所述隐藏节点的卷积特征图像:
[0081] I_ConVi= I convolution 化 W_Sparse i) I ; 阳0間其中,
[0083] I_Conv康示输入的一预定的训练样本I与第i个隐藏节点的权重参数¥_59曰'36 i 进行卷积操作后得到的卷积特征图像;
[0084] convolution表示卷积计算;
[00化]步骤S32C,对所述卷积特征图像进行池化操作,W提取相应的特征值;
[0086] 步骤S33C,根据所述特征值,训练一相应的分类器,W供后续进行目标检测使用:
阳0蝴 其中,
[0089] m表示特征值的数量,η表示特征值的维数,k表示对图像进行分类的类别数量, xW表示第i个特征值,y W表示第i个特征值的标注,λ表示权重衰减项,Θ表示需要训 练的所述分类器的参数;
[0090] 通过训练得到使得所述步骤S33C中的公式的总体代价最小的所述分类器的参数 并输出。
[0091] 优选的,该目标检测方法,其中,W所述步骤S33C中输出的所述分类器的参数作 为输入,采用所述步骤S33C中的的公式多次迭代计算,W得到最终的所述分类器的参数。
[0092] 优选的,该目标检测方法,其中,根据训练完成的所述分类器对经过排序的所有所 述候选窗口进行处理的过程具体包括:
[0093] 步骤Sld,将所有所述候选窗口缩放至统一的尺度和横纵比;
[0094] 步骤S2d,对每个经过缩放后的所述候选窗口,根据训练完成的所述卷积神经网 络参数计算相应的卷积特征图像,并进行池化操作,w获得对应每个所述候选窗口的特征 值;
[0095] 步骤S3d,根据训练完成的所述分类器的参数,分别对每个所述特征值进行分类, W确定每个所述特征值对应的分类标签;
[0096] 步骤S4d,捜索并选中预设的所述分类标签对应的所述候选窗口,作为本次目标检 测的输出结果。
[0097] 优选的,该目标检测方法,其中,执行所述步骤S4d时,在一次捜索和选择的结果 上进行预定次数的迭代捜索和选择;
[0098] 每次迭代捜索和选择的过程具体包括:
[0099] 步骤S41d,W被选中的候选窗口为中屯、,在具有预定的邻域半径的捜索范围内捜 索新的候选窗口;
[0100] 步骤S42d,比较捜索到的新的候选窗口的似然度与被选中的候选窗口的似然度, 并在新的候选窗口的似然度大于被选中的候选窗口的似然度,则改为选中新的候选窗口; 阳101] 下一次迭代捜索和选择的过程中,所依据的预定的邻域半径相对于上一次迭代捜 索和选择递减。 阳102] -种目标检测装置,适用于移动终端;其中,包括: 阳103] 第一训练单元,用于根据外部输入的多个训练样本反复训练得到一级联分类模型 的分类参数.
[0104] 筛选单元,连接所述第一训练单元,用于根据所述分类参数在需要检测的图像上 筛选出多个经过排序的候选窗口;
[01化]第二训练单元,用于采用稀疏自编码的方法训练生成相应的卷积神经网络模型, 并采用所述卷积神经网络模型训练形成相应的分类器;
[0106] 检测单元,分别连接所述筛选单元和所述第二训练单元,用于根据训练完成的所 述分类器对经过排序的所有所述候选窗口进行检测,W得到目标检测的输出结果。 阳107] -种移动终端,其中,采用上述的目标检测方法。 阳10引一种移动终端,其中,包括上述的目标检测装置。
[0109] 上述技术方案的有益效果是:
[0110] 1)采用目标性评估的方法(包括训练级联分类模型W及采用级联分类模型对候 选窗口进行排序)作为初始化,减少窗口获取的数据计算量,提升窗口获取的检测效率,使 得目标检测适用于移动终端; 阳111 ] 2)采用训练好的卷积神经网络模型和分类器对候选窗口中的图像进行分类,使得 目标检测算法更简洁更高效,并且提升目标检测所针对目标的泛化性,使得目标检测适用 于移动终端。
【附图说明】
[0112] 图1-10是本发明的较佳的实施例中,目标检测方法的具体流程示意图;
[0113] 图11是本发明的较佳的实施例中,卷积神经网络模型的示意图;
[0114] 图12是本发明的较佳的实施例中,对候选窗口进行微调处理的示意图;
[0115] 图13是本发明的较佳的实施例中,一种目标检测装置的结构示意图。
【具体实施方式】
[0116] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完 整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于 本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其 他实施例,都属于本发明保护的范围。
[0117] 需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可W相 互组合。
[0118] 下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
[0119] 现有的目标检测技术中,通常采用W下几种计算模型实现:
[0120] 1.自提升级联模型(AdaBoost Cascaded Model),主要和哈尔(Haar)特征一起应 用于人脸检测领域(Face Detection)。该方案使用简单的哈尔特征学习许多简单的弱分类 器(Weak Classifier),在训练阶段不断调整被错误分类样本的权重,最后通过加权平均来 获得最终分类器。在实际检测时采用级联结构,每一层滤掉大部分非人脸候选,同时让大部 分人脸候选通过,从而加速检测。 阳121 ] 上述哈尔特征和自提升级联模型目前主要用于人脸检测中,而在其他类别的目标 检测中的表现未必最好,因此具有一定的局限性。
[0122] 2.支持向量机(Supprot Vector Machine, SVM),主要和梯度方向直方图 化istogram ofOriented Gradients, HOG)特征一起应用于行人检测任edestrian Detection)领域。该方案计算稠密的梯度方向特征,使用简单的线性SVM对高维的册G描 述子进行分类就能取得很好的效果。
[0123] 上述HOG特征和SVM分类器所实现的行人检测器主要采用传统的滑动窗口方法对 图像做多尺度上的遍历检测。相比人类的视觉系统,上述方法非常耗时,数据计算量极大。
[0124] 3.基于部件的变形模型值eform油le Part-based Model, DPM),可W实现对泛化 目标(Generalization化ject)的检测和识别。在多类目标检测领域,通常的做法是把HOG 特征融入DPM模型。部件在整体模型下的两层金字塔进行训练和检测,将部件相对位置和 整体位置视为隐变量,使用隐形SVM化atent-SVM)完成半监督学习。运是目前最好的多类 目标检测方法之一。
[01巧]上述基于DPM模型和HOG特征的泛化检测器同样存在计算量较大的问题。而且,现 有技术中构建的上述模型还不完善,其中检测到的结果远低于人类视觉系统的检测水平。 阳126] 因此,上述多个问题使得现有的目标检测过程很难适用于移动终端。
[0127] 基于现有技术中存在的上述问题,现提供一种可适用于移动终端的目标检测方 法。
[0128] 本发明的较佳的实施例中,上述目标检测方法包括多个步骤,下文对每个步骤均 进行一一说明。
[0129] 本发明的较佳的实施例中,首先进行目标性评估的bjectness Estimation)。
[0130] 本发明的较佳的实施例中,目标性评估的过程总体分为两步:训练级联分类模型, W及在测试图像上筛选候选窗口W用于后续的检测任务。 阳131] 本发明的较佳的实施例中,首先,在执行目标检测方法之前,需要输入多个训练样 本并反复训练得到一级联分类模型的分类参数;下文中介绍输入多个训练样本并反复训练 得到一级联分类模型的分类参数的过程。
[0132] 本发明的较佳的实施例中,上述训练样本为图像上随意指定并输入的样本,可W 看做是图像上一个窗口中包括的图像数据。
[0133] 本发明的较佳的实施例中,训练样本可W被区分为正样本和负样本。所谓正样本 即为使系统得出正确结论的样本,在本发明的较佳的实施例中即为目标样本,例如人脸识 别样本、建筑物识别样本W及车辆识别样本等。所谓负样本,是指使系统得出错误结论的样 本,在本发明的较佳的实施例中即为随机选取的背景样本。本发明的较佳的实施例中,将随 机选取的训练样本(无论正样本或是负样本)输入至系统中,并进行反复训练,最终得到级 联分类模型,即得到该模型的分类参数。
[0134] 本发明的较佳的实施例中,如图1所示,上述过程具体包括:
[0135] 步骤Sla,输入多个训练样本,并提取每个训练样本的范数梯度特征;
[0136] 本发明的较佳的实施例中,采用范数梯度特征(Normed Gradient,NG)来区别正样 本或者负样本。此类特征的优点是具有平移、尺度W及横纵比的不变形,适用于进行类别无 关的目标检测。同时运类特征的计算效率较高,易于实时运算和汇编优化。
[0137] 本发明的较佳的实施例中,如图2所示,上述步骤Sla具体包括:
[013引步骤S1 la,将输入的所有训练样本缩放至统一尺度;
[0139] 本发明的较佳的实施例中,在进行训练之前,首先将输入的所有训练样本进行缩 放,缩放尺度相同,例如将所有训练样本缩放至M*N的大小,其中Μ为缩放后图像的宽,N为 缩放后图像的高。上述缩放尺度可W根据训练效果和计算效率进行权衡和调整。
[0140] 本发明的较佳的实施例中,在进行缩放前,保留每个训练样本的量化参数q。本发 明的较佳的实施例中,上述量化参数q用于表示相应的训练样本缩放前的尺度(Scale)和 横纵比(Aspect Ratios)。进一步地,本发明的较佳的实施例中,上述量化参数q为相应的 训练样本进行缩放前的尺度和横纵比的编码值。 阳141] 步骤S12a,获取每个训练样本的范数梯度特征。 阳142] 本发明的较佳的实施例中,上述步骤S12a中,首先采用一预定的滤波模板分别对 每个训练样本进行滤波,W计算得到对应于每个训练样本X轴方向的梯度图像的,W及对应 于每个训练样本y轴方向的梯度图像Gy; 阳143] 本发明的较佳的实施例中,上述预定的滤波模板,可W为:
[0144] 采用一维中心滤波模板P = [-1,0, 1]分别对训练样本进行滤波,W及
[0145] 采用模板P的转置ρτ作为滤波模板分别对训练样本进行滤波。 阳146] 本发明的较佳的实施例中,滤波模板Ρ = [-1,0, 1],是指W当前检测的像素点为 中屯、点(0位),W该像素点前一个像素点(-1位)W及该像素点后一个像素点(1位)为参 照对当前检测的像素点进行滤波; 阳147] 本发明的较佳的实施例中,相应地,滤波模板
是指W当前检测的像 素点为中屯、点(0位),W该像素点上一个像素点(-1位)W及该像素点下一个像素点(1 位)为参照对当前检测的像素点进行滤波。
[0148] 随后,本发明的较佳的实施例中,W下述公式计算每个训练样本的范数梯度特 征:
[0149] Gn"m=min(|Gj + |Gy|,25W; (1) 阳150] 其中,
[0151] 为对应训练样本的范数梯度特征的通项变量表示。 阳152] 步骤S2a,分别计算得到每个范数梯度特征的响应值,并进行统计计算,作为分类 参数输出。 阳153] 本发明的较佳的实施例中,如图3所示,上述步骤S2a具体包括:
[0154] 步骤S21a,采用第一层的线性支持向量机提取范数梯度特征的第一响应值;
[0155] 本发明的较佳的实施例中,提取上述范数梯度特征之后,使用两层的级联支持向 量机(Cascaded SVM)对训练样本进行分类。
[0156] 本发明的较佳的实施例中,如上文所述,首先在第一层使用线性支持向量机 (Linear SVM)计算范数梯度特征的响应值: 阳 157] Sl=<Wi,Gl>; (2) 阳15引其中,
[0159] 或表示第一响应值,Wi表示第一层的线性支持向量机经过学习后得到的参数,Gt 表示对应一预定的训练样本,下标L表示训练样本于相应的图像上的位置。
[0160] 步骤S22a,对第一响应值进行非极值抑制处理; 阳161] 本发明的较佳的实施例中,步骤S22a中所述的非极值抑制处理,实际为非极大值 抑制处理。
[0162] 现有技术中,普通的非极值抑制方法需要一个排序的预处理过程,而在目标检测 过程中,需要处理的数据量较大,即便使用平均复杂度较低的快速排序方法(如ick Sort) 也无法将数据处理量降低到一个比较适合的程度。为此,本发明的较佳的实施例中,采用了 累积直方图(Cumulate Histogram)来替代快速排序,可W将运一部分的平均算法复杂度从 0(nlog η)降低到 0(n)。 阳163] 步骤S23a,采用第二层的线性支持向量机对经过非极值抑制处理的第一响应值进 行调整,W得到响应值:
[0164] 本发明的较佳的实施例中,第二层同样采用线性支持向量机进行分类。该分类所 依据的特征是上一层线性支持向量机,分类的类别即为上文中所述的被保留的量化参数q。 因此,本发明的较佳的实施例中,W下文中所述的公式进行第二层的分类处理: 阳 1 化]CL=aq'SL+bq; 0) 阳166] 其中, 阳167] (:^表示所述第一响应值经过调整后得到的所述响应值,W2= <曰。,6。〉表示第二层 的所述线性支持向量机经过学习后得到的参数;则如上文中所述,aq,bq表示对应量化参数 为q的训练样本的参数。
[0168] 本发明的较佳的实施例中,上述过程可W反复进行,即根据每个训练样本均进行 第一响应值W及响应值的计算,经过迭代统计和反复训练,最终得到可W被输出的第一响 应值W及响应值。
[0169] 本发明的较佳的实施例中,上述分类参数包括第一层的线性支持向量机的参数 Wi、第二层的线性支持向量机的参数W2、第一响应值S山及响应值C ^
[0170] 本发明的较佳的实施例中,在训练形成级联分类模型的分类参数后,根据分类参 数在需要检测的图像上筛选出多个经过排序的候选窗口,上述过程即属于目标检测方法中 的一部分,其步骤如图4所示,具体包括: 阳171] 步骤S化,根据量化参数,将需要检测的图像进行缩放,W得到缩放尺度处于取值 范围内的多幅缩放图像;
[0172] 本发明的较佳的实施例中,量化参数q的取值范围q e [1,闲,即可W得到缩放尺 度处于对应取值范围1 一 N的范围内的对应需要检测的图像的N幅缩放图像。 阳173] 步骤S2b,提取每幅缩放图像的范数梯度特征,将每个范数梯度特征与第一层的支 持向量机的参数Wi进行卷积计算,W得到对应于每幅缩放图像的匹配响应图;
[0174] 本发明的较佳的实施例中,所谓匹配响应图(Match Response Map),实际为对应 于每幅缩放图像的一卷积图。 阳175] 步骤S3b,在匹配响应图上执行非极值抑制处理,W得到对应的缩放图像上能够保 留的窗口的最大数;
[0176] 本发明的较佳的实施例中,在匹配响应图上进行非极值抑制处理,获得不多于F 个候选匹配点,因此也就可W获得不多于F个窗口。本发明的较佳的实施例中,F即为每一 缩放尺度上缩放图像保留窗口的最大数。
[0177] 步骤S4b,于每个缩放尺度上获取相应的缩放图像上的数量不多于最大数的多个 窗口;
[017引步骤S5b,根据响应值从大到小对需要检测的图像上的所有窗口进行排序,选取预 定数量的多个排序在前的窗口作为需要检测的图像上的候选窗口并保留。
[0179] 本发明的较佳的实施例中,根据上文中所述的经过训练最终得到的响应值C苗f上 述选出的窗口进行排序。本发明的较佳的实施例中,排序为从大到小排序,即响应值较大的 候窗口排列在前。
[0180] 本发明的较佳的实施例中,根据排序,选择预设的多个窗口作为候选窗口并保留。 运些候选窗口可W作为后续目标分类的初始化窗口。 阳181 ] 本发明的较佳的实施例中,上述目标性评估结束后,可W开始进行目标分类。 阳182] 本发明的较佳的实施例中,目标分类同样分为两步:首先,在执行上述目标检测方 法之前,训练生成相应的卷积神经网络模型,并采用卷积神经网络模型训练形成相应的分 类器。 阳183] 本发明的较佳的实施例中,如图5所示,上述过程具体包括: 阳184] 步骤Slc,构建一个初始的卷积神经网络模型;
[0185] 本发明的较佳的实施例中,构建初始的卷积神经网络模型,并采用下文中所述的 方法不断训练该神经网络模型,W使该神经网络模型自学习并最终训练形成可W被实际使 用的神经网络模型。
[0186] 本发明的较佳的实施例中,该卷积神经网络模型的学习过程属于无监督学习 (Unsupervised Learning),其形式是学习一个恒等函数: 阳 187] F,,b(x)>x; (4)
[0188] 即只有输入数据没有设定期望输出,全凭神经网络模型自身的反复训练和统计最 终得到正确输出。
[0189] 本发明的较佳的实施例中,如图11所示,上述卷积神经网络模型包括Ξ层节点: 第一层为输入节点A11-A15,第二层为隐藏节点A21-A23,第Ξ层为输出节点A31-A35。本发 明的较佳的实施例中,隐藏节点A21-A23连接相应的输入节点A11-A15,输出节点A31-A35 连接相应的隐藏节点A21-A23。数据从输入节点A11-A15输入,经过隐藏节点A21-A23,由 输出节点A31-A35输出。
[0190] 本发明的较佳的实施例中,在卷积神经网络模型的训练过程中,采用稀疏自编码 (Sparse Autoencoder)方法即是对隐藏节点加入了稀疏限制,换言之,大部分隐藏节点处 于被抑制状态,而只有少部分隐藏节点处于被激活状态。上述方法能够处理卷积神经网络 模型中存在较多的隐藏节点的情况。 阳191] 步骤S2c,使用稀疏自编码方法训练得到卷积神经网络模型的权重参数和偏置参 数; 阳192] 本发明的较佳的实施例中,如图6所示,上述步骤S2C具体包括: 阳193] 步骤S21C,输入多个训练样本,并对输入数据进行白化处理;
[0194] 本发明的较佳的实施例中,如图7所示,对输入数据进行白化处理的过程具体包 括: 阳195] 步骤S211C,采用下述公式对输入数据进行主成分分析白化处理: 阳 196]
(5) 阳197] 其中,
[0198] 表示经过主成分分析白化处理后的输入数据;
[0199] U表示奇异值分解获得的正交矩阵,相应地护表示U矩阵的转置矩阵; 阳200] λ表示奇异值分解获得的对角矩阵; 阳201] ε表示正则化常数; 阳202] 步骤S212C,采用下述公式,在主成分分析白化处理后,继续对输入数据进行白化 处理: 悦〇引 XzCA_ivhite -化 PCA_ivhite;做 阳204] 其中, 阳205] XzcA_"hit。表示于主成分分析白化处理的基础上,继续进行ZCA狂ero-phase ComponentAnalysis,零相位成分分析)白化处理得到的输入数据。 阳206] 步骤S22C,根据经过白化处理的输入数据进行稀疏自编码处理,W训练得到相应 的权重参数和偏置参数。 阳207] 本发明的较佳的实施例中,使用稀疏自编码方法训练卷积神经网络模型,其总体 代价函数可W表示为下述公式: 悦卿
(7) 阳209] 其中,
[0210] J(W,b)为经典神经网络中的基本代价函数,由于现有技术中存在很多实现该基本 代价函数的方法,因此在此不再寶述; 阳211 ] β表示控制稀疏性惩罚因子的权重;
[0212] Sz表示隐藏节点的数量; 阳21引 化(戶I I A.)为相对赌;
[0214] P为稀疏性参数;
[0215] 表示隐藏节点的平均活跃度;
[0216] W表示权重参数(Wei曲t),b表示偏置参数度ias);
[0217] 因此,本发明的较佳的实施例中,上述步骤S22c中,通过反复训练(反复求导),得 到使上述总体代价函数的代价最小的相应的权重参数W W及偏置参数b。
[0218] 本发明的较佳的实施例中,在实际求解时,需要采用梯度下降法。本发明的较佳的 实施例中,上述梯度下降法可W选用共辆梯度法,最速下降法,随机下降法,牛顿法等等。
[0219] 本发明的较佳的实施例中,上述采用稀疏自编码方法进行训练的过程中,可W选 择采用找式自编码(StackedAutoencoder),即W根据稀疏自编码方法计算输出的权重参 数和偏置参数作为输入,采用稀疏自编码方法多次迭代计算输出最终的权重参数和偏置参 数。换言之,选用上一层稀疏自编码学习到的特征参数(权重参数和偏置参数)作为输入 数据,迭代学习更高层的特征参数。 阳220] 本发明的较佳的实施例中,学习得到特征参数W_Sparsei (对应第i个隐藏节点的 权重参数)并输出。 阳221] 步骤S3C,继续训练得到卷积神经网络模型的其他参数,W构成训练完毕的卷积神 经网络模型。 阳222] 本发明的较佳的实施例中,如图8所示,上述步骤S3C具体包括:
[0223] 步骤S31C,将输入的训练样本分别与步骤S2c中输出的对应每个隐藏节点的权重 参数进行卷积操作,W输出对应于每个隐藏节点的卷积特征图像: 阳224] I_ConVi= I convolution 化 W_Sparse i) I ; (8) 阳225] 其中, 阳226] I_ConVi表示输入的一预定的训练样本I与第i个隐藏节点的权重参数胖_59曰'36 i 进行卷积操作后得到的卷积特征图像; 阳227] convolution表不卷积计算;
[0228] 本发明的较佳的实施例中,如上述公式(8)所示,为了增强特征值的响应值,在公 式(8)中进行卷积运算后,采用绝对值计算的做法处理。 阳229] 本发明的其他实施例中,在公式(8)中,进行卷积运算后,同样可W采用例如 Sigmoid函数或者采用双曲正切型激活函数来代替上文中所述的绝对值计算的方法进行处 理。
[0230] 步骤S32C,对卷积特征图像进行池化操作,W提取相应的特征值; 阳231] 本发明的较佳的实施例中,上述池化操作任ooling)可W选择采用均值池化操作 (Mean 化0ling)进行。
[0232] 本发明的其他实施例中,上述池化操作也可W选择采用极值池化操作(Maximum 化oling)或者方差池化操作(Variance化oling)等进行。
[023引步骤S33C,根据特征值,训练一相应的分类器,W供后续进行目标检测使用: 阳234]
阳23引其中, 阳236] m表示特征值的数量,η表示特征值的维数,k表示对图像进行分类的类别数量, xW表示第i个特征值,y W表示第i个特征值的标注,λ表示权重衰减项,Θ表示需要训 练的分类器的参数; 阳237] 本发明的较佳的实施例中,上文中所述的包括特征值的数量m、特征值的维数η、 分类的类别数量k、第i个特征值及其标注W及权重衰减项λ等均为在计算得到如步骤 S32C中所述的特征值后已知的。因此上述公式(9)中的唯一变量为需要训练的分类器的参 数Θ。
[023引本发明的较佳的实施例中所使用的分类器为Softmax分类器。本发明的其他实施 例中,也可W使用其他分类器,例如SVM分类器、级联分类器W及Fisher分类器等。 阳239] 本发明的较佳的实施例中,在计算上述公式巧)时,同样可W采用迭代的梯度下 降法求解。
[0240] 本发明的较佳的实施例中,通过训练得到使得上述公式巧)的总体代价最小的分 类器(优选的为Softmax分类器)的参数并输出。 阳241 ] 本发明的较佳的实施例中,若上述步骤S22C中采用了找式自编码进行处理,即W 上一层输出作为输入,迭代计算得到最终的处理结果;则步骤S33C中同样采用找式自编码 处理。找式自编码的过程类似上文所述。通过找式自编码处理,可W训练得到更细致的结 果。 阳242] 本发明的较佳的实施例中,在对卷积神经网络模型W及分类器均训练完毕后,根 据训练完成的分类器对经过排序的所有候选窗口进行处理。上述过程属于目标检测方法中 的一部分。 阳243] 本发明的较佳的实施例中,如图9所示,上述处理过程具体包括:
[0244] 步骤Sld,将所有候选窗口缩放至统一的尺度和横纵比;
[0245] 本发明的较佳的实施例中,缩放尺度和横纵比可W根据实际需要进行设置。
[0246] 步骤S2d,对每个经过缩放后的候选窗口,根据训练完成的卷积神经网络参数计算 相应的卷积特征图像,并进行池化操作,W获得对应每个候选窗口的特征值; 阳247] 本发明的较佳的实施例中,上述计算卷积特征图像、进行池化操作W及获得每个 候选窗口的特征值等处理过程如上文所述,在此不再寶述。
[0248] 步骤S3d,根据训练完成的分类器的参数,分别对每个特征值进行分类,W确定每 个特征值对应的分类标签; 阳249] 步骤S4d,捜索并选中预设的分类标签对应的候选窗口,作为本次目标检测的输出 结果。
[0250] 本发明的较佳的实施例中,在进行检测的过程中,可能存在漏检的问题。控制检测 的漏检率在检测过程中的地位非常重要。本发明的较佳的实施例中,在执行检测的过程中 使用微调技术来降低漏检率。具体地如图10所示,在执行上述步骤S4d中,采用微调技术, 步骤包括: 阳251] 步骤S41d,W被选中的候选窗口为中屯、,在具有预定的邻域半径的捜索范围内捜 索新的候选窗口; 阳252] 步骤S42d,比较捜索到的新的候选窗口的似然度与被选中的候选窗口的似然度, 并在新的候选窗口的似然度大于被选中的候选窗口的似然度,则改为选中新的候选窗口。 阳253] 本发明的较佳的实施例中,下一次迭代捜索和选择的过程中,所依据的预定的邻 域半径相对于上一次迭代捜索和选择递减。迭代预定次数后输出最终选中的候选窗口。 阳254] 换言之,本发明的较佳的实施例中,上述微调技术即为:W被初步选中的候选窗口 为中屯、,捜索其邻域内的其他候选窗口。若邻域内的某个新的候选窗口的似然度大于被初 步选中的候选窗口的似然度,则转而新的候选窗口。本发明的实施例中,可W采用迭代逼近 的方式,即多次进行邻域捜索过程,每次捜索的中屯、候选窗口为上次捜索并选中的候选窗 口,每次捜索的邻域半径相对于上次捜索递减,如图12所示,第二次捜索(捜索框B2)的捜 索邻域半径相对于第一次捜索(捜索框B1)的捜索邻域半径更小。图12中,W实线表示第 一次捜索的邻域半径,W虚线表示第二次捜索的邻域半径。 阳巧5] 本发明的较佳的实施例中,上述递减幅度可W自行设定,迭代次数也可W自行设 定。本发明的较佳的实施例中,通过多次迭代捜索得到最终被选中的候选窗口并输出。 阳256]综上所述,本发明技术方案中,首先采用目标性评估操作(分为训练级联分类模 型和排序候选窗口两个步骤)得到最终排序完成的位于需要检测的图像上的多个候选窗 口;随后采用目标分类操作(包括稀疏自编码计算W及训练卷积神经网络和分类器两个步 骤)得到后续分类需要用到的训练完毕的卷积神经网络模型W及分类器相关参数;最后采 用训练完毕的卷积神经网络模型W及分类器相关参数对候选窗口进行分类,检测并输出处 于预设的分类标签下的候选窗口中的图像数据。上述技术方案可W解决现有的目标检测方 法中数据量处理较大W及检测时间过长的问题,提升目标检测的运算效率和检测精度。因 此上述目标检测方法可W适用于硬件资源有限、计算能力一般的移动终端内,用W实现移 动终端的快速多目标检测的目的。 阳257] 本发明的较佳的实施例中,上文中所述的"在执行目标检测方法之前"并非表示相 应的步骤不包括在本发明技术方案的保护范围之内。相反,上述在执行目标检测方法之前 进行的步骤为执行目标检测方法所必需的前置步骤,因此需要包括在本发明技术方案的保 护范围之内。上文中对执行目标检测方法之前W及执行目标检测方法之间进行的步骤进行 区分的目的仅在于表示执行目标检测方法之前的步骤并不是在每次执行目标检测方法时 进行的,而是执行目标检测方法的前置步骤。 阳25引本发明的较佳的实施例中,基于上文中所述的目标检测方法,提供一种目标检测 装置,同样适用于移动终端。本发明的较佳的实施例中,目标检测装置的具体结构如图13 所示,包括: 阳259] 第一训练单元1,用于根据外部输入的多个训练样本反复训练得到一级联分类模 型的分类参数;
[0260] 筛选单元2,连接第一训练单元1,用于根据分类参数在需要检测的图像上筛选出 多个经过排序的候选窗口; 阳%1] 第二训练单元3,用于采用稀疏自编码的方法训练生成相应的卷积神经网络模型, 并采用卷积神经网络模型训练形成相应的分类器; 阳262] 检测单元4,分别连接筛选单元2和第二训练单元3,用于根据训练完成的分类器 对经过排序的所有候选窗口进行检测,W得到目标检测的输出结果。 阳%3] 本发明的较佳的实施例中,上述单元中包括用于实现如上文中所述的目标检测方 法的各项功能模块,在此不再一一寶述。
[0264] 本发明的较佳的实施例中,还提供一种移动终端,其中采用上文中所述的目标检 测方法。
[02化]本发明的较佳的实施例中,还提供一种移动终端,其中包括上文中所述的目标检 测装置。 阳%6] W上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范 围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的 等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
【主权项】
1. 一种目标检测方法,适用于移动终端;其特征在于: 输入多个训练样本并反复训练得到一级联分类模型的分类参数; 训练生成相应的卷积神经网络模型,并采用所述卷积神经网络模型训练形成相应的分 类器; 所述目标检测方法包括: 根据所述分类参数在需要检测的图像上筛选出多个经过排序的候选窗口; 根据训练完成的所述分类器对经过排序的所有所述候选窗口进行检测,W得到目标检 测的输出结果。2. 如权利要求1所述的目标检测分类方法,其特征在于,通过训练得到所述分类参数 的过程具体包括: 步骤Sla,输入多个所述训练样本,并提取每个所述训练样本的范数梯度特征; 步骤S2a,分别计算得到每个所述范数梯度特征的响应值,并进行统计计算,作为所述 分类参数输出。3. 如权利要求2所述的目标检测方法,其特征在于,所述步骤Sla具体包括: 步骤Slla,将输入的所有所述训练样本缩放至统一尺度; 步骤S12a,获取每个所述训练样本的范数梯度特征。4. 如权利要求3所述的目标检测方法,其特征在于,所述步骤S12a中,首先采用一预定 的滤波模板分别对每个所述训练样本进行滤波,W计算得到对应于每个所述训练样本X轴 方向的梯度图像Gy, W及对应于每个所述训练样本y轴方向的梯度图像Gy; 随后W下述公式计算每个所述训练样本的范数梯度特征: G"""=min(|Gj + |Gj,255); 其中, 咕。"为对应所述训练样本的所述范数梯度特征的通项变量表示。5. 如权利要求4所述的目标检测方法,其特征在于,采用一预定的滤波模板分别对每 个所述训练样本进行滤波包括: 采用一维中屯、滤波模板P = [-1,0, 1]分别对所述训练样本进行滤波,W及 采用模板P的转置pT作为滤波模板分别对所述训练样本进行滤波。6. 如权利要求2所述的目标检测方法,其特征在于,所述步骤S2a具体包括: 步骤S21a,采用第一层的线性支持向量机提取所述范数梯度特征的第一响应值; Sl= <Wi,Gl〉; 其中, 或表示所述第一响应值,Wi表示第一层的所述线性支持向量机经过学习后得到的参 数,G,表示对应一预定的所述训练样本,下标L表示所述训练样本于相应的图像上的位置; 步骤S22a,对所述第一响应值进行非极值抑制处理; 步骤S23a,采用第二层的线性支持向量机对经过非极值抑制处理的所述第一响应值进 行调整,W得到所述响应值: Cl= a。. SL+bq; 其中, (:^表示所述第一响应值经过调整后得到的所述响应值,Wz=細。,6。〉表示第二层的所 述线性支持向量机经过学习后得到的参数; 提取所有所述训练样本对应的所述第一响应值W及相应的所述响应值,并做反复计算 和统计,W训练得到最终的所述第一响应值和相应的所述响应值; 所述分类参数包括第一层的所述线性支持向量机的参数Wi、第二层的所述线性支持向 量机的参数W2、所述第一响应值或W及所述响应值C ^7. 如权利要求6所述的目标检测方法,其特征在于,所述步骤S22a中,使用累计直方图 对所述第一响应值进行非极值抑制处理。8. 如权利要求1所述的目标检测方法,其特征在于,所述分类参数包括第一层的线性 支持向量机的参数Wi, W及根据对应于范数梯度特征的第一响应值经过调整得到的响应值 Cl; 获得用于表示每个所述训练样本缩放前的尺度和横纵比的量化参数,所述量化参数 具有预设的取值范围; 根据所述分类参数在需要检测的图像上筛选出多个经过排序的候选窗口的过程具体 包括: 步骤Slb,根据所述量化参数,将需要检测的图像进行缩放,W得到缩放尺度处于所述 取值范围内的多幅缩放图像; 步骤S2b,提取每幅所述缩放图像的范数梯度特征,将每个所述范数梯度特征与第一层 的支持向量机的参数Wi进行卷积计算,W得到对应于每幅所述缩放图像的匹配响应图; 步骤S3b,在所述匹配响应图上执行非极值抑制处理,W得到对应的所述缩放图像上能 够保留的窗口的最大数; 步骤S4b,于每个所述缩放尺度上获取相应的所述缩放图像上的数量不多于所述最大 数的多个窗口; 步骤S5b,根据所述响应值从大到小对需要检测的图像上的所有所述窗口进行排序,选 取预定数量的多个排序在前的所述窗口作为需要检测的图像上的候选窗口并保留。9. 如权利要求1所述的目标检测方法,其特征在于,训练生成相应的卷积神经网络模 型的过程具体包括: 步骤Slc,构建一个初始的所述卷积神经网络模型; 步骤S2c,使用稀疏自编码方法训练得到所述卷积神经网络模型的权重参数和偏置参 数; 步骤S3C,继续训练得到所述卷积神经网络模型的其他参数,W构成训练完毕的所述卷 积神经网络模型。10. 如权利要求9所述的目标检测方法,其特征在于,所述步骤S2c具体包括: 步骤S21C,输入多个所述训练样本,并对输入数据进行白化处理; 步骤S22C,根据经过白化处理的所述输入数据进行稀疏自编码处理,W训练得到相应 的所述权重参数和所述偏置参数。11. 如权利要求10所述的目标检测方法,其特征在于,所述步骤S21C中,对所述输入数 据进行白化处理的方式具体包括: 步骤S211C,采用下述公式对所述输入数据进行主成分分析白化处理:其中, XpcA_"hit :表示经过所述主成分分析白化处理后的所述输入数据; U表示奇异值分解获得的正交矩阵,相应地IJT表示U矩阵的转置矩阵; 入表示奇异值分解获得的对角矩阵; e表示正则化常数; 步骤S212C,采用下述公式,在主成分分析白化处理后,继续对所述输入数据进行白化 处理: XzCA-ivhit E - Ux PCA *hit E ; 其中, 表示于主成分分析白化处理的基础上,继续进行白化处理后得到的所述输入 数据。12. 如权利要求10所述的目标检测方法,其特征在于,所述卷积神经网络中包括第一 层的输入节点、第二层的隐藏节点W及第=层的输出节点,所述输入节点连接所述隐藏节 点,所述隐藏节点连接所述输出节点; 所述卷积神经网络的总体代价函数如下:其中, J (W,b)为经典神经网络中的基本代价函数; 0表示控制稀疏性惩罚因子的权重; Sz表示所述隐藏节点的数量; 姐! .1 P,)为相对赌; P为稀疏性参数; 表示所述隐藏节点的平均活跃度; W表示所述权重参数,b表示所述偏置参数。13. 如权利要求12所述的目标检测方法,其特征在于,W根据所述稀疏自编码方法计 算输出的所述权重参数和所述偏置参数作为输入,采用所述稀疏自编码方法多次迭代计算 输出最终的所述权重参数和所述偏置参数。14. 如权利要求9所述的目标检测方法,其特征在于,所述步骤S3c具体包括: 步骤S31C,将输入的所述训练样本分别与所述步骤S2c中输出的对应每个所述隐藏节 点的所述权重参数进行卷积操作,W输出对应于每个所述隐藏节点的卷积特征图像: I_ConVi= I convolution (I, W-Spars e ;); 其中, I_ConVi表示输入的一预定的训练样本I与第i个隐藏节点的权重参数W_Spars e i进 行卷积操作后得到的卷积特征图像; convolution表示卷积计算; 步骤S32C,对所述卷积特征图像进行池化操作,W提取相应的特征值; 步骤S33C,根据所述特征值,训练一相应的分类器,W供后续进行目标检测使用:其中, m表示特征值的数量,n表示特征值的维数,k表示对图像进行分类的类别数量,表 示第i个特征值,yW表示第i个特征值的标注,A表示权重衰减项,0表示需要训练的所 述分类器的参数; 通过训练得到使得所述步骤S33C中的公式的总体代价最小的所述分类器的参数并输 出。15. 如权利要求14所述的目标检测方法,其特征在于,W所述步骤S33C中输出的所述 分类器的参数作为输入,采用所述步骤S33C中的的公式多次迭代计算,W得到最终的所述 分类器的参数。16. 如权利要求1所述的目标检测方法,其特征在于,根据训练完成的所述分类器对经 过排序的所有所述候选窗口进行处理的过程具体包括: 步骤Sld,将所有所述候选窗口缩放至统一的尺度和横纵比; 步骤S2d,对每个经过缩放后的所述候选窗口,根据训练完成的所述卷积神经网络参数 计算相应的卷积特征图像,并进行池化操作,W获得对应每个所述候选窗口的特征值; 步骤S3d,根据训练完成的所述分类器的参数,分别对每个所述特征值进行分类,W确 定每个所述特征值对应的分类标签; 步骤S4d,捜索并选中预设的所述分类标签对应的所述候选窗口,作为本次目标检测的 输出结果。17. 如权利要求16所述的目标检测方法,其特征在于,执行所述步骤S4d时,在一次捜 索和选择的结果上进行预定次数的迭代捜索和选择; 每次迭代捜索和选择的过程具体包括: 步骤S41d,W被选中的候选窗口为中屯、,在具有预定的邻域半径的捜索范围内捜索新 的候选窗口; 步骤S42d,比较捜索到的新的候选窗口的似然度与被选中的候选窗口的似然度,并在 新的候选窗口的似然度大于被选中的候选窗口的似然度,则改为选中新的候选窗口; 下一次迭代捜索和选择的过程中,所依据的预定的邻域半径相对于上一次迭代捜索和 选择递减。18. -种目标检测装置,适用于移动终端;其特征在于,包括: 第一训练单元,用于根据外部输入的多个训练样本反复训练得到一级联分类模型的分 类参数; 筛选单元,连接所述第一训练单元,用于根据所述分类参数在需要检测的图像上筛选 出多个经过排序的候选窗口; 第二训练单元,用于采用稀疏自编码的方法训练生成相应的卷积神经网络模型,并采 用所述卷积神经网络模型训练形成相应的分类器; 检测单元,分别连接所述筛选单元和所述第二训练单元,用于根据训练完成的所述分 类器对经过排序的所有所述候选窗口进行检测,W得到目标检测的输出结果。19. 一种移动终端,其特征在于,采用如权利要求1-17所述的目标检测方法。20. -种移动终端,其特征在于,包括如权利要求18所述的目标检测装置。
【文档编号】G06K9/62GK105989368SQ201510080103
【公开日】2016年10月5日
【申请日】2015年2月13日
【发明人】刘阳, 陈敏杰, 林福辉
【申请人】展讯通信(天津)有限公司
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1