专利名称:基于多摄像机的目标连续跟踪方法
技术领域:
本发明属于模式识别领域,涉及图像处理和计算机视觉等技术,特别是涉及基于
多摄像机的目标连续跟踪的相关处理。
背景技术:
目前,我国已经有相当数量的摄像机监控系统投入到实际应用中对各种环境、区 域和场所进行实时监控。这些摄像机记录了大量的视频数据。而目前这些数据通常都是通 过安排专人监看来实现监控的,由于这项工作的强度大,连续监视使人变得疲倦,对危机事 件不敏感,从而容易出现疏漏的情况。为消除这些现存的弊端,迫切需要计算机能够在不需 要人参与的情况下,通过对摄像机拍摄的图像序列中的运动目标和行为进行跟踪与识别, 从而对异常事件自动做出预警,避免犯罪的发生。 智能视频监控技术正是计算机视觉和模式识别技术在视频监控的应用。智能视频 监控技术通过自动分析理解视频中的内容,提供对监控和预警有用的关键信息。目前,智能 视觉监控技术通常包括在单个摄像机下,对监控场景中的感兴趣目标即运动目标进行自动 检测、跟踪及行为分析,实现对场景的实时监控。然而单个摄像机的视野范围有限,为了满 足大范围监控的需要,就需要多个摄像机协同工作。随着摄像机数目的急剧增加,传统的基 于人工的被动监控已经无法满足监控任务的需要,如何自动分析多个摄像机所拍摄的视频 中的内容,真正意义上实现大范围监控仍然处在研究的初级阶段。 基于多摄像机的大范围智能视频监控的一个关键问题是如何利用空间上相邻的 摄像机,扩大监控范围,对穿过多个摄像机视野范围的运动目标进行连续跟踪。其中多个摄 像机的视野范围可能存在重叠区域,也可能存在非重叠区域。有重叠视野的多个摄像机是 指多个摄像机的视野范围之间存在部分重叠。非重叠视野摄像机是指多个摄像机的视野范 围之间存在一部分盲区,目标在这个盲区的运动无可预知,从而造成运动目标在空间和时 间上的不连续。在实际应用中,为了覆盖大范围场景,出于安装成本等考虑,非重叠视野摄 像机被广泛应用到监控系统中对各种环境、区域和场所进行监控。 目前多摄像机目标跟踪的相关研究主要集中在基于定标信息和基于单应 (homogr即hy)约束的求解方法。基于定标信息的多摄像机目标跟踪的相关技术需要定标好 的摄像机,这在实际情况中是不现实的,因为一旦摄像头的位置改变就需要对摄像机重新 进行标定。基于定标信息和基于单应约束的求解方法都要求摄像机的视野范围之间存在重 叠区域,从而限制了它在大范围智能视频监控系统中的应用。 基于多摄像机的大范围智能视频监控技术建立在单摄像机监控的基础之上,其主 要技术包括对每一路视频中的感兴趣目标即运动目标进行目标检测及跟踪,接着对每一运 动目标进行特征提取,结合摄像机的区域连接关系实现目标匹配,并通过相关数据关联技 术实现目标在多路摄像机下的连续跟踪。
发明内容
为了解决现有技术的局限性,无法直接应用于大范围监控的问题,本发明公开一 种基于多摄像机的目标连续跟踪方法,具体是指当运动目标离开一个摄像机的视野范围进 入另一个摄像机的视野范围内时,识别该运动物体并对它进行唯一的标识,并交接目标检 测和跟踪任务,实现运动目标在大范围场景内的连续跟踪。 为达成所述目的,本发明提供的基于多摄像机的目标连续跟踪方法,基于多路视 频,包括目标检测,目标跟踪,目标特征提取,计算到达区域和离开区域,计算摄像机区域连 接关系,目标匹配,数据关联以及目标连续跟踪过程,步骤如下 步骤S1 :对每一路摄像机所采集到的图像序列进行目标检测,用于得到运动目标;
步骤S2 :采用卡尔曼滤波技术对每一个运动目标进行目标跟踪,用于得到该运动 目标在每一路摄像机下完整的轨迹; 步骤S3 :计算每一个运动目标图像区域的颜色直方图实现颜色特征提取和平均 轮廓实现形状特征提取,用于得到该运动目标鲁棒的特征描述; 步骤S4 :采用k-均值技术聚类运动目标轨迹的起始点位置和终止点位置,用于得 到每路摄像机下的到达区域和离开区域; 步骤S5 :通过经验或者视频数据确定每一路摄像机的到达区域以及离开区域和 其它摄像机下的到达区域以及离开区域之间的连接关系; 步骤S6 :根据摄像机区域之间的连接关系,将不同摄像机下的运动目标进行目标 匹配,用于得到运动目标之间相似度; 步骤S7 :根据运动目标之间的相似度信息以及时间信息,计算从第i个摄像机下 离开的运动目标和从第j个摄像机下到达的运动目标之间的对应关系,实现数据关联;
步骤S8 :对穿过多个摄像机的运动目标进行唯一的标识实现多摄像机下运动目 标的连续跟踪。 本发明的有益效果本发明结合运动目标检测、跟踪和匹配技术,根据摄像机区域 连接关系,实现了运动目标在大范围场景内的连续跟踪。从而解决了单个摄像机视野范围 有限,无法对大范围场景进行监控的问题。该方法在多个摄像机视野范围之间存在重叠区 域和无重叠区域的情况下,都能对场景中的感兴趣目标即运动目标进行标识和跟踪。基于 多摄像机的目标连续跟踪对于提高网络化,大范围智能监控系统具有很重要的意义。用于 大范围智能视觉监控,扩大监控区域,对多个摄像机采集到的大量数据进行自动的处理和 分析。
图1示出基于多摄像机的目标连续跟踪方法流程图。 图2示出多个摄像机的位置关系示例。 图3示出运动目标检测流程图。 图4 (a)、图4 (b)示出运动目标检测的结果示例。 图5示出归一化后的运动目标所对应的前景区域。 图6示出运动目标跟踪流程。 图7 (a)至图7 (d)示出运动目标跟踪的结果示例。
图8示出目标特征提取流程图。 图9示出计算到达区域和离开区域流程图。 图10(a)、图10(b)示出摄像机的到达区域和离开区域示意图。 图11示出摄像机到达区域和离开区域之间的连接关系。 图12示出目标匹配和数据关联流程图。 图13(a)至图13(c)示出运动物体连续跟踪示意图。 图14示出目标连续跟踪流程图。
具体实施例方式
下面结合附图详细说明本发明技术方案中所涉及的各个细节问题。应指出的是,
所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。 实现本发明方法需要的硬件最低配置为在P43. OG CPU,512M内存的计算机;最
低分辨率为320X240的监控摄像头;帧率为25帧每秒的多路视频采集卡。在此配置水平
的硬件上,采用C++语言编程实现本方法,可以达到实时处理,其他方式不再赘述。 图1给出了基于多摄像机的目标连续跟踪方法流程图。包括摄像机1、摄像机2和
摄像机N,首先对摄像机l-N中的感兴趣目标即运动目标进行目标检测,然后分别对每一路
视频中的运动目标进行跟踪,得到每个场景下运动目标完整的轨迹。接着对每一运动目标
进行特征提取,并计算摄像机l-N到达区域和离开区域,特征提取的结果结合摄像机l-N区
域之间的连接关系实现目标匹配,最后通过相关数据关联技术实现目标在多路摄像机下的
连续跟踪。 图2给出了多个摄像机的位置关系示例图。图2中包括两路室外摄像机为摄像机 1和摄像机2,以及一路室内摄像机为摄像机3。图2中用虚线示出了每路摄像机的视野范 围区域,其中摄像机1、摄像机2和摄像机3之间不存在重叠的视野范围区域。值得注意的 是,图2仅给出多个摄像机位置关系的一个实例。摄像机的视野范围之间可存在非重叠区 域,也可存在重叠区域。 图3给出了运动目标检测流程图,所述运动目标检测步骤如下 步骤Sll :对每一路摄像机所采集到的图像序列构建背景模型; 步骤S12 :从图像序列中将变化区域从背景模型中提取出来,用于得到运动目标; 步骤S13 :将得到的运动目标进行形态学操作和连通域分析,得到分割准确的运
动目标。 在监控中,运动物体是监控的重点,运动目标检测的目的是从图像序列中将变化 区域从背景图像中提取出来。混合高斯模型法对背景的自适应性高,并对亮度的变化、背景 内物体的细微移动、慢速目标等具有良好的适应性,在本发明中,采用混合高斯模型方法对 图像序列进行背景建模。混合高斯模型方法所得到的二值前景图像中包含一些噪音点和空 洞。本发明采用中值滤波来去除噪声,另外采用形态学的腐蚀膨胀操作来去除前景图像中 的空洞。 所提取的图像序列的前景区域大小为320X240。其中前景区域可能包含多个运动 目标,通过连通域分析得到前景区域轮廓分割准确的运动目标,并将所有运动目标对应的 前景区域和图像区域归一化到相同大小。
6
图4(a)和图4(b)给出了运动目标检测的结果示例,其图4(a)为原始图像序列,图4(b)为混合高斯模型后中值滤波和形态学操作得到的二值前景图像。图5为归一化后的运动目标所对应的前景区域。
图6给出了运动目标跟踪流程 步骤S21 :首先根据运动目标检测结果,求取上一帧中每个运动目标所对应的图像区域的质心位置,该运动目标用A来表示。 步骤S22 :通过卡尔曼滤波预测由上一帧运动目标A的位置预测当前帧中的质心位置; 步骤S23 :然后将预测值和当前帧每个运动目标B的质心位置的观测值进行比较; 步骤S24 :计算运动目标A和运动目标B之间的欧式距离dist (A, B)。 步骤S25 :若这是运动目标A第一次比较,保存dist(A,B)值到mindist以及相应
运动目标B。若不是第一次比较,保存dist(A, B)和mindist的较小值到mindist以及相
应运动目标B。 步骤S26 :若mindist小于某个阈值T,则认为找到了上一帧中运动目标A在当前帧中的对应目标。将上一帧中运动目标的质心位置和当前帧中该目标的质心位置连接起来,得到目标轨迹。 步骤S27 :若mindist大于某个阈值T,则运动目标B为新出现的运动目标或者运动目标A已从当前场景中消失。阈值T在实施例中为5个像素值,其它不再赘述。
图7(a)、图7(b)、图7(c)和图7(d)给出了运动目标跟踪的结果示例。图7 (a),(b), (c), (d)分别为图像序列的第132,211,247,316帧,图中对每一个运动目标分别进行标号,其中图7(a)示出标号为010、011,图7(b)示出标号为010、011 ;图7(c)示出标号为010、011 ;图7(d)示出标号为010、011,图中示出标号相同表明为同一个运动目标。
图8示出目标特征提取流程图,所述目标特征提取步骤如下 步骤S31 :将所有运动目标对应的图像区域以及相应前景区域归一化到相同大小;
步骤S32 :计算每一个运动目标对应图像区域的颜色直方图实现颜色特征提取;
步骤S33 :计算每一个运动目标对应图像区域的平均轮廓实现形状特征提取。
由于摄像机到运动目标的距离较远,分辨率较低,无法有效的提取运动目标的人脸特征和步态特征。本发明通过提取运动目标的颜色特征等表象(appearance)特征,从而有效的刻画运动目标,使得运动目标之间具有可区分性。其中颜色特征可包含颜色模版(color templates)、直方图(histogram)、矩(moments)、主彦页色信息(dominant colors)等。形状特征可包含平均轮廓,形状上下文(shape context)等。需要注意的是,颜色特征和形状特征容易受到视角变化和光线变化的影响,所提取的特征应该对适度光照变化和视角变化鲁棒。可采用颜色恒常技术(color constancy)或者颜色归一化(colornormalization)对运动目标进行预处理后再提取颜色特征。也可采用形状归一化技术(pose normalization)对运动目标的形状校正到同一姿态,再提取其形状特征。
图9示出计算到达区域和离开区域流程图。步骤S41 :通过运动目标跟踪,可以获得每个场景下运动目标完整的轨迹。在一段时间内记录所有运动目标轨迹的起始点位置和终止点位置。步骤S42:采用k-均值技术聚类一段时间内所有运动目标的起始点位置和终机每个场景下的到达区域和离开区域。
图10(a)图10(b)示出了摄像机2和摄像机3中的到达区域和离开区域示意图。其中椭圆形区域示出运动目标的到达区域和离开区域,"+ "表示轨迹的起点或者终点位置。需要注意的是同一个区域既可以是到达区域也可以是离开区域。若某个运动目标即将离开摄像机的视野范围,则轨迹终点所在区域为离开区域。若运动目标第一次出现在摄像机的视野范围下,则轨迹起点区域为到达区域。到达区域和离开区域也可通过经验确定。
所述计算摄像机区域之间的连接关系是通过经验确定摄像机到达区域和离开区域之间的连接关系或者通过视频数据确定摄像机到达区域和离开区域之间的连接关系。图11示出了摄像机到达区域和离开区域之间的连接关系。图中包括摄像机1的到达区域和离开区域为区域1、区域2、区域3和区域4,摄像机2的到达区域和离开区域为区域5、区域6和区域7 ;摄像机3的到达区域和离开区域为区域8、区域9和区域10 ;例如,区域6和区域10之间的连线表示,从区域6出去的运动目标一段时间后可能会出现在区域10中,即运动目标从摄像机2的视野范围中消失后,进入一个盲区,一段时间后可能会出现在摄像机3的视野范围下。摄像机到达区域和离开区域之间的连接关系可通过经验指定,也可通过视频数据以及目标匹配信息自动学习得到。通过视频数据自动学习得到摄像机到达区域和离开区域之间的连接关系的相关技术包括"Inference ofnon-overl即ping camera networktopolog y by measuring statisticaldependence,,, Proceedings of InternationalConference on Computer Vision,2005, pp. 1842-1849,"Bridging the Gaps betweenCameras",Proceedings ofComputer Vision and Pattern Recognition,2004,pp. 205-210
等。需要注意的是摄像机到达区域和离开区域之间的连接关系可能随着时间变化而变化,
并且区域之间的连接关系不是双向的。例如上班时间,很少有运动目标穿过区域10到达区域6,所以区域10到区域6的连接不存在,然而区域6到区域10之间的连接存在。在下班时间,大部分运动目标穿过区域10后出现在区域6中。可以通过相关技术在线更新到达区域和离开区域之间的连接关系。区域10和区域6之间的连线表示,从区域10出去的运动目标一段时间后可能会出现在区域6中。区域2和区域5之间的连线表示,从区域2出去的运动目标一段时间后可能会出现在区域5中。区域5和区域2之间的连线表示,从区域5出去的运动目标一段时间后可能会出现在区域2中。区域2和区域10之间的连线表示,从区域2出去的运动目标一段时间后可能会出现在区域10中。区域10和区域2之间的连线表示,从区域10出去的运动目标一段时间后可能会出现在区域2中。
图12示出目标匹配和数据关联流程图,所述目标匹配步骤如下
步骤S61 :检验第i个摄像机下的离开区域和第j个摄像机下的到达区域之间是否存在连接关系; 步骤S62 :如果存在此类连接关系,计算从第i个摄像机下离开区域出去的所有运动目标和从第j个摄像机的到达区域的所有运动目标之间的相似度。所述数据关联是根据运动目标之间的相似度信息以及时间信息,计算从第i个摄像机下离开的运动目标和从第j个摄像机下到达的运动目标之间的对应关系。 目标匹配过程计算了运动目标特征之间的相似度。数据关联过程得到运动目标在不同摄像机下的对应关系。计算得到摄像机到达区域和离开区域之间的连接关系之后,则不需要将某个运动物体和其他摄像机下出现的所有的运动物体进行目标匹配。例如,在图11中,对于每一个从区域6中离开的运动目标,经过一段时间后,不可能出现在区域2中,所以不需要匹配从区域6中离开的运动目标和区域2中的到达目标。而只需要匹配有着连接关系的区域中的出现和离开的运动目标,如对于每一个从区域6中离开的运动目标^,我们只需将它与一段时间内到达区域10的运动目标x2进行匹配,即计算Xl和x2之间相似度Sim(Xl, x2)。利用摄像机离开区域和到达区域之间的连接关系信息进行目标匹配减少了目标匹配的次数,从而提高了算法效率并且减少了错误匹配的可能。运动目标Xl和x2相似度的计算取决于其特征相似度Sim—即p0q,X2)和Xl的离开时间^以及x2的到达时间t2。特征相似度Sim—即pOq,x》的计算取决于运动目标的特征提取形式。若运动目标xl的离开某个场景的时刻^晚于它到达另一个场景的时刻t2,则这两个场景之间存在公共区域,即两路摄像机的视野范围之间存在重叠区域。由于摄像机是相邻的,若运动目标x2到达某个场景的时刻t2远大于运动目标Xl离开某个场景的时刻t15即t2-^大于某个阈值1\,则Xl和&也不可能对应同一个运动目标。阈值T1在实施例中为2分钟。 一般来说,若^和^对应同一个运动目标,、和t2之间应满足一个时间关系。如t2-^服从一个单高斯或者多高斯分布。给定运动目标&的离开时刻^和运动目标x2的到达时刻t2,从时间关系上度量Xl和x2对应于同一个运动目标的概率为Sim—time(XpX2,t2-t》。在计算运动目标Xl和x2的相似度时,一般可假设特征相似度Sim—即pOq, x2)和时间关系度量Sim—timeOq, x2,t2-t》独立,则运动目标Xl和x2的相似度可表示为
Sim(x丄,x2) = Sim_app (x" x2) *Sim_time (x丄,x2, t2-t》 得到目标匹配的结果之后就可以实现数据关联,即判断运动目标^和^是否对应于同一个运动物体。对于每个从离开区域l中离开的运动目标^,计算符合时间关系的与所有到达区域2的运动目标x2的相似度,并且记录其最大值maxsim以及相应运动目标x2。若最大相似度maxsim大于某个阈值T2,则认为x2是Xl在另一个摄像机下的对应目标。
图13(a)至图13(c)示出了运动物体连续跟踪示意图。根据数据关联步骤,即可得到运动目标在多个摄像机下的对应关系。其中运动目标001穿过摄像机1和摄像机2的视野范围最终出现在了摄像机3的视野范围下,标号相同表明为同一个运动目标。
图14示出目标连续跟踪流程图,所述目标连续跟踪步骤如下
步骤S81 :根据运动目标之间的对应关系对穿越多个摄像机视野范围的运动目标进行唯一的标识; 步骤S82 :交接运动目标的检测以及跟踪任务。 图13中,当运动目标OOl穿越摄像机1的视野范围到达摄像机2的视野范围内时,对运动目标进行唯一的标识并将运动目标的检测以及跟踪任务由摄像机1传递到摄像机2下,即由摄像机2下的目标检测和跟踪模块接管相应检测、跟踪任务。相应的,当运动目标抵达摄像机3的视野范围内时,由摄像机3的检测和跟踪模块接管相应任务。010为运动目标002在第一个摄像机下的标号,Oll为运动目标001在第一个摄像机下的标号,035为运动目标001在第二个摄像机下的标号,085为运动目标001在第三个摄像机下的标号,081为运动目标003在第三个摄像机下的标号。 以上所述,仅为本发明中的具体实施方式
,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。
9
权利要求
一种基于多摄像机的目标连续跟踪方法,基于多路视频,其特征在于,包括目标检测,目标跟踪,目标特征提取,计算到达区域和离开区域,计算摄像机区域连接关系,目标匹配、数据关联和目标连续跟踪步骤,步骤如下步骤S1对每一路摄像机所采集到的图像序列进行目标检测,用于得到运动目标;步骤S2采用卡尔曼滤波技术对每一个运动目标进行目标跟踪,用于得到该运动目标在每一路摄像机下完整的轨迹;步骤S3计算每一个运动目标图像区域的颜色直方图实现颜色特征提取和平均轮廓实现形状特征提取,用于得到该运动目标鲁棒的特征描述;步骤S4采用k-均值技术聚类运动目标轨迹的起始点位置和终止点位置,用于得到每路摄像机下的到达区域和离开区域;步骤S5通过经验或者视频数据确定每一路摄像机的到达区域以及离开区域和其它摄像机下的到达区域以及离开区域之间的连接关系;步骤S6根据摄像机区域之间的连接关系,将不同摄像机下的运动目标进行目标匹配,用于得到运动目标之间相似度;步骤S7根据运动目标之间的相似度信息以及时间信息,计算从第i个摄像机下离开的运动目标和从第j个摄像机下到达的运动目标之间的对应关系,实现数据关联;步骤S8对穿过多个摄像机的运动目标进行唯一的标识实现多摄像机下运动目标的连续跟踪。
2. 按权利要求1所述的基于多摄像机的目标连续跟踪方法,其特征在于所述运动目 标检测步骤如下步骤Sll :对每一路摄像机所采集到的图像序列构建背景模型;步骤S12 :从图像序列中将变化区域从背景模型中提取出来,用于得到运动目标; 步骤S13 :将得到的运动目标进行形态学操作和连通域分析,得到分割准确的运动目标。
3. 按权利要求1所述的基于多摄像机的目标连续跟踪方法,其特征在于所述目标跟 踪步骤如下步骤S21 :根据运动目标检测结果,计算上一帧中运动目标A所对应图像区域的质心位置;步骤S22 :根据卡尔曼滤波预测运动目标A在当前帧中的质心位置;步骤S23 :对于当前帧中每个运动目标B,计算运动目标B所对应图像区域的质心位置;步骤S24 :计算运动目标A和运动目标B之间的欧式距离dist ;步骤S25 :若这是运动目标A第一次比较,保存dist(A,B)值到mindist以及相应运动 目标B ;若不是第一次比较,保存dist(A,B)和mindist的较小值到mindist以及相应运动 目标B ;步骤S26 :若mindist小于某个阈值T,连接运动目标在图像序列中的质心位置,得到该 运动目标在每一路视频中的完整轨迹序列;步骤S27 :若mindist大于某个阈值T,则B为新出现的运动目标或者A已从当前场景 中消失。
4. 按权利要求1所述的基于多摄像机的目标连续跟踪方法,其特征在于所述目标特 征提取步骤如下步骤S31 :将所有运动目标对应的图像区域以及相应前景区域归一化到相同大小; 步骤S32 :计算每一个运动目标对应图像区域的颜色直方图实现颜色特征提取; 步骤S33 :计算每一个运动目标对应图像区域的平均轮廓实现形状特征提取。
5. 按权利要求1所述的基于多摄像机的目标连续跟踪方法,其特征在于所述计算到 达区域和离开区域步骤如下步骤S41 :根据目标跟踪所得到的轨迹序列提取运动目标轨迹的起始点位置和终止点 位置;步骤S42 :采用k-均值技术聚类一段时间内所有运动目标的起始点位置和终止点位 置,得到每一路摄像机下的到达区域和离开区域。
6. 按权利要求1所述的基于多摄像机的目标连续跟踪方法,其特征在于所述计算摄 像机区域之间的连接关系是通过经验确定摄像机到达区域和离开区域之间的连接关系或 者通过视频数据确定摄像机到达区域和离开区域之间的连接关系。
7. 按权利要求1所述的基于多摄像机的目标连续跟踪方法,其特征在于所述目标匹 配步骤如下步骤S61 :检验第i个摄像机下的离开区域和第j个摄像机下的到达区域之间是否存 在连接关系;步骤S62 :如果存在此类连接关系,计算从第i个摄像机下离开区域出去的所有运动目 标和从第j个摄像机的到达区域的所有运动目标之间的相似度。
8. 按权利要求1所述的基于多摄像机的目标连续跟踪方法,其特征在于所述数据关 联是根据运动目标之间的相似度信息以及时间信息,计算从第i个摄像机下离开的运动目 标和从第j个摄像机下到达的运动目标之间的对应关系。
9. 按权利要求1所述的基于多摄像机的目标连续跟踪方法,其特征在于所述目标连 续跟踪步骤如下步骤S81 :根据运动目标之间的对应关系对穿越多个摄像机视野范围的运动目标进行 唯一的标识;步骤S82 :交接运动目标的检测以及跟踪任务。
全文摘要
本发明公开一种基于多摄像机的目标连续跟踪方法,基于多路视频,包括目标检测,目标跟踪,目标特征提取,计算到达区域和离开区域,计算摄像机区域连接关系,目标匹配、数据关联以及目标连续跟踪步骤。结合摄像机区域连接关系和目标匹配信息,判断摄像机下出现的目标是新出现目标还是其它摄像机下已出现过的目标,从而实现运动目标连续跟踪。基于多摄像机的目标连续跟踪对于提高网络化,大范围智能监控系统具有很重要的意义。用于大范围智能视觉监控,扩大监控区域,对多个摄像机采集到的大量数据进行自动的处理和分析。
文档编号G06T7/20GK101751677SQ20081024036
公开日2010年6月23日 申请日期2008年12月17日 优先权日2008年12月17日
发明者蔡莹皓, 谭铁牛, 黄凯奇 申请人:中国科学院自动化研究所