基于无人机的火灾发生测定方法及其装置的制造方法

文档序号:10553770阅读:212来源:国知局
基于无人机的火灾发生测定方法及其装置的制造方法
【专利摘要】本发明公开了一种基于无人机的火灾发生测定方法及其装置。采用主要由无人机、远程服务器和位于地面的控制系统组成的系统,无人机由火灾报警点的GPS位置信息飞行到达火灾报警区域,拍摄报警点的现场视频图像与热红外图像,通过4G移动蜂窝网络发送至远程服务器;远程服务器接收数据得到实时现场视频和热红外图像;通过肉眼识别或者将热红外图像经过分类器比较得到火灾是否发生的结果。本发明不仅能够在接到报警后及时派出无人机,节省了大量的消防的人力和物力资源;而且能快速掌握火灾发生点的现场情况,为救援工作的开展提供了可靠和有效的实时信息,弥补了现有方法确认火灾发生方法中不存在无人机航拍确认火灾发生方法的不足。
【专利说明】
基于无人机的火灾发生测定方法及其装置
技术领域
[0001] 本发明涉及一种确认火灾发生的方法,特别涉及无人机研究领域的一种确认火灾 发生的方法。
【背景技术】
[0002] 火灾是指在时间或空间上失去控制的燃烧所造成的灾害。在各种灾害中,火灾是 最经常、最普遍地威胁公众安全和社会发展的主要灾害之一。
[0003] 据公安部消防局统计,2014年,全国共接经确认的火灾报警39.5万起,死亡1817 人,受伤1493人,直接财产损失43.9亿元。然而,接到的报警数远远不止这些。如果,不经过 是否发生火灾的确认,而由消防部门盲目的赶去救援,将会浪费大量的消防的人力和物力 资源,甚至因为不同空间的同时报警,而使得真正需要救援的报警被耽误。因此,接到火灾 报警后的现场确认工作就显得十分重要。
[0004] 目前的现状是,当安防公司的火灾报警装置探测到火灾报警后,由驻派在附近待 命的工作人员驱车前往火灾发生地进行现场拍照取证。若确认的确有火灾发生,则再通知 消防部门赶去救援。但是这种方式因为城市交通拥堵,火灾发生地较远,或者其他突发情况 等因素影响,使得火灾确认浪费了大量时间,如果确实发生了火灾,则耽误了救援工作。因 此,现在急需一种能够在最短时间内确认火灾发生的方法。
[0005] 无人机利用其机动性好、操作简单、成本低廉等有利条件能在短时间内到达火灾 报警点用摄像头进行视频和照片的拍摄;利用4G移动蜂窝数据网络能够将数据实时的传送 回控制系统;通过卷积神经网络图像分类快速鉴别确认是否有火灾发生。结合起来能够简 单快速地对火灾警报进行现场确认、过滤误报和加速救援行动,对于消防工作具有非常有 利的作用。

【发明内容】

[0006] 为了解决【背景技术】中存在的问题,本发明的目的在于提供了一种基于无人机的确 认火灾发生的方法,该方法将无人机控制技术、航拍技术和网络视频图像流传输技术和卷 积神经网络图像分类巧妙地结合起来,从而完成对火灾警报的现场确认工作。
[0007] 本发明所要解决的问题包括如下步骤:
[0008] -、一种基于无人机的火灾发生测定方法:
[0009] 1)采用主要由无人机、远程服务器和位于地面的控制系统组成的系统,无人机上 装载有红外热像仪,GPS定位模块、气压计、陀螺仪、加速度计、带有摄像头的云台机构和4G 通信模块,服务器与无人机之间通过4G移动蜂窝网络进行通信;
[0010] 2)无人机通过自动巡航模式或者手动操控模式,由火灾报警点的GPS位置信息飞 行到达火灾报警区域,通过云台机构搭载的摄像头和红外热像仪分别拍摄报警点的现场视 频与热红外图像,将现场视频与红外热像图用4G通信模块通过4G移动蜂窝网络发送至远程 服务器;
[0011] 3)远程服务器侦听并接收无人机传输过来的数据解码得到实时现场视频和热红 外图像;
[0012] 4)将现场视频中的每帧照片图像和热红外图像通过肉眼识别获得火灾是否发生 的结果,或者将普通视频图像和热红外图像分别输入到已通过卷积神经网络训练的火灾图 像分类器中,经过分类判断得到火灾是否发生的结果。一旦分类器判断得出报警点发生火 灾,控制系统马上向消防部门报警。
[0013] 所述步骤2)中将所述现场视频进行H. 264编码压缩后,再根据RTP协议将视频数据 打包后发送到远程服务器。每摄像头捕获一帧就进行H. 264编码,编码完后需要将其中的 NAL单元解析出来,并采用RTP协议对编码完成后的视频数据打包;热红外图像采取JPEG编 码格式;最后打包完成的热红外图像和视频通过4G移动蜂窝网络发送至服务器。
[0014]所述步骤3)中远程服务器根据RTP协议解包对数据流进行H. 264解码得到现场视 频。热红外图像和视频的打包采用采用RTP协议实现;最后打包完成的热红外图像和视频通 过4G移动蜂窝网络发送至服务器。这也是为了有效降网络低数据量,使得视频和图像数据 传输流畅,实时显示。
[0015]所述步骤2)中,无人机将采用以下方式进行航拍视频:以被触发的火灾报警器为 原点,其中原点位置由GPS获得,在报警点所在的平面即报警点所在的楼层,先以20米至30 米为半径对报警建筑物墙体进行巡航拍摄,航拍角度为90°;再将无人机飞至建筑物屋顶上 方,飞行高度约为建筑物高度的三倍,采取的航拍角度为30°,以此来获取屋顶及其建筑物 周边的视频和热红外图像。
[0016]在所述步骤4)中,将普通视频图像和热红外图像分别输入到已通过卷积神经网络 训练的火灾图像分类器中,经过分类比对得到火灾是否发生的结果具体为:对带有着火和 非着火的两类建筑物样本图像输入到分类器中通过卷积神经网络进行预训练得到火灾图 像分类器,取卷积神经网络的全连接层中训练特征对被测火灾图像进行分类得到着火或者 非着火的结果。
[0017] 所述的卷积神经网络采用端对端的形式同时训练特征与分类,训练的特征为卷积 神经网络结构末端的全连接层,提取卷积神经网络结构末端的全连接层输出作为着火图像 的深度特征,得到的深度特征输入到支持向量机分类器中进行训练,得到火灾图像分类器。
[0018] 如图2所示,所述训练过程中对所有输入的样本图像具体为:
[0019] 1)先进行尺度归一化,归一化图像到32X32分辨率。
[0020] 2)卷积层计算:
[0021] 其中卷积层的参数表达形式:4X4X20+1(步长),表示卷积核的大小为4X4,数量 为20,步长为1,采用以下公式进行卷积层计算:
[0022] 為=fiz'j}
[0023] 2i ^ X Xi * K + ^i
[0024] 其中,<、X厂分别表示当前卷积层中第j个特征图、前一层的第i个特征图;< 表 示当前层的第j个特征图与前一层的第i个特征图之间的卷积核;M」表示需要卷积的前一层 的特征图的集合,^表示当前卷积层中第j个卷积核对应的偏置;f为激活函数,卷积层中的 权值与阈值通过随机梯度下降法得到;i和j均表示特征图的序数,1表示步长。
[0025] 3)池化层计算:
[0026]池化层采用最大池化方式,2 X 2+2 (步长)表示池化核大小为2 X 2,步长为2;最大 池化的计算采用以下公式:
[0027] h- = max {K-s+m,d-s+n } 0<m<s\i)<n<s
[0028] 式中,池化核大小为sXs,s表示池化核的边C长,表示当前池化特征图中第(C,d) 坐标位置的值,表示前一层特征图中池化核中的值集合;& 表示前一层 特征图中坐标位置为c ? s+m,d ? s+n的值,m,n表示池化核中的坐标。
[0029] 4)再次进行卷积层计算:
[0030]其中,卷积层的参数表达形式:3X3X40+1(步长),表示卷积核的大小为3X3,数 量为40,步长为1,此步骤卷积层的具体计算与步骤2)相同。
[0031] 5)采用与步骤3)相同过程再次进行池化层计算:
[0032] 6)全连接层计算:
[0033] 网络包含一个全连接层,共有两个节点单元,全连接层的计算公式为: .'AT 、
[0034] 、产i. /
[0035] 式中,f( ?)表示激活函数,采用的是Rectified linear unit激活函数,Rq表示全 连接层中第q个节点单元,uP表示池化层中第p个节点单元,表示两个节点的连接权值,N 表示池化层的节点单元个,P,q均为池化层的节点单元的序数;
[0036] 7)softmax层的计算公式如下:
[0039] 式中,Wt,w表示全连接层与softmax层之间的连接权值,Bt为偏置,Xt表示全连接层 的第t个节点单元值,rt表示第t个类别上的概率值,rt '表示第t个类别的概率密度;a表示类 另IJ的总个数,t为类别的序数,t取1或2,a = 2,w为第t类别下连接权值的序数;n表示输入的 场景图像为着火场景的概率,^表示输入的场景图像为非着火场景的概率;
[0040] 8)卷积神经网络的损失函数公式如下:
[0042] 式中,1 {}是一个指示性函数,9表示网络参数;gf5为第P个样本在类别Q上的概率 值,P表示一次迭代batch中图像的数目,Q表示图像类别的数目,C,D均为样本的序数。
[0043] 当火势较小时或者着火点在大楼内部深处的这种情况时,但从建筑物外部拍摄视 频的方式不足以完全确认火灾的发生,所以采用摄像头拍摄视频和红外热像仪拍摄热红外 图像相结合的方式。
[0044] 普通图像分类器和红外图像分类器最后进行求或运算,即两种分类器只要有一种 判断出火灾发生即确认火灾发生,这也是从最大程度上保证报警发生地的生命财产安全。
[0045] 在控制系统确认火灾发生后,及时报警通知消防部门赶往火灾现场进行救援。在 等待救援的过程中,无人机将继续在报警点周围巡航,执行航拍工作,实时监控火场,为消 防部门提供实时的火势发展信息,方便消防部门及时制定有效可行的救援方案。
[0046] 二、一种基于无人机的火灾发生测定装置:
[0047] 包括无人机及其无人机配套的遥控器;
[0048] 包括远程服务器,远程服务器与无人机之间通过4G移动蜂窝网络进行通信;
[0049] 包括位于地面的控制系统,控制系统与服务器之间通过互联网进行通信。
[0050] 优选地,控制系统可以架设在服务器本地端口,也可以架设在远端;如果架设在远 端,控制系统作为客户端向服务器请求视频、热红外图像数据。控制系统可以根据实时的监 控视频,在定时拍摄热红外图像的基础上,工作人员可以根据现场的具体情况在认为有必 要拍摄热红外图像的地方进行加拍,是的火灾确定工作更加迅速与准确。
[0051] 所述的无人机上装载有:
[0052] 带有摄像头的云台机构;
[0053]用于拍摄采集火灾报警点红外热图像的红外热像仪,红外热像仪装在云台机构 上;
[0054] 用于采集定位无人机位置的GPS定位模块;
[0055] 用于检测无人机飞行高度的气压计;
[0056] 用于检测无人机飞行角速度的陀螺仪;
[0057] 用于检测无人机飞行角度的加速度计;
[0058]以及与远程服务器通信的4G通信模块。
[0059]所述的无人机上还装载有主控MCU,主控MCU分别与带有摄像头的云台机构、红外 热像仪、4G通信模块以及无人机机载的飞控连接。
[0060] 与现有技术相比,本发明的有益效果在于:
[0061] 现有技术的确认火灾发生的方法中,必须依靠工作人员亲临报警现场,路途上浪 费时间,各种不确定因素影响或耽误救援工作。本发明方法利用无人机的航拍和卷积神经 网络图像分类技术,提出了一种能够确认火灾发生方法的全新方向,是对现在正在使用方 法的全面升级。
[0062] 本发明能够在接到报警后及时派出无人机,完全避免了地面交通拥堵,报警点较 远,和其他突发因素的干扰。通过机载云台摄像机和红外热像仪对报警点进行航拍,将实时 现场情况传给服务器和控制系统,通过火灾图像分类器快速确定火灾的发生。同时,实时的 监控火场的火势发展情况,可使消防部门快速及时的根据火灾现场具体情况制定救援计 划。
【附图说明】
[0063]图1为本发明的方法流程示意图。
[0064]图2为本发明的预训练卷积神经网络结构图。
[0065] 图3为本发明的无人机各部件的连接方式示意图。
【具体实施方式】
[0066] 以下将参照附图,对本发明的优选实例进行详细的描述。应当理解,优选实施例仅 为了说明本发明,而不是为了限制本发明的保护范围。
[0067] 如图1所示,本发明无人机在接到火灾报警就立即起飞到火灾报警点;达到目的地 后以报警点为原点,以报警楼层为所在平面,以20米的半径进行360°巡航状态拍摄视频和 热红外图像,拍摄完毕后在飞行高度约为建筑物三倍的飞行高度,航拍角度为30°,朝向建 筑物以俯视向下30°角度获取屋顶及其建筑物周边的图像;在拍摄的同时实时的将视频与 图像传送至服务器;最后,控制系统将从服务器里获取的实时现场视频图像和热红外图像 经过火灾分类器进行有无火灾二分类确定火灾是否发生。
[0068]如图3所示,本发明的无人机搭载有无人机云台机构、锂电池、PMU电源管理单元、 气压计、陀螺仪和加速度计、GPS模块、摄像头和热红外成像仪等装备,并带有遥控器。服务 器接收无人机用摄像头和热红外成像仪拍摄的视频和图像的同时接收无人机的飞行状态 数据,并发送到控制系统,控制系统的工作人员根据当前的飞行状态,操控遥控器将对无人 机的控制信号发送给服务器,再由服务器发送给无人机从而实现对无人机的手动控制。月艮 务器与无人机之间的各种数据的通信全部通过4G通信模块进行传输。GPS定位模块用于接 收GPS卫星传送的无人机实时位置数据;气压计用于测量无人机的实时高度数据;陀螺仪和 加速度计测得的数据用于无人机的姿态解析,实时计算无人机的姿态角;PMU电源管理单元 用于测量电池电量和状态的实时数据;云台机构用于摄像头和热成像仪的拍摄角度调整。
[0069] 本发明的控制机构由两方面构成,分别由两块MCU负责,一块为无人机自带机载的 飞行控制单元,另一块为用于负责无人机应用功能实现的主控MCU。
[0070] 飞行控制单元的MCU负责飞行控制,PMU、陀螺仪和加速度计、气压计和GPS模块这 些传感器的数据都由这块处理器进行处理。这块处理器负责,且仅负责飞行控制部分的处 理,具体表现为无人机姿态的解析和飞行速度和飞行位置的控制,同时向主控MCU发送当前 的无人机飞行状态数据并接收来自它的控制信号。
[0071] 主控MCU负责完成航拍任务和与服务器的数据通信任务,具体表现为通过调整云 台机构的旋转角度进行拍摄目标的选择;对摄像头和热成像仪设备的拍摄控制;对拍摄到 的视频和图像进行编码打包(视频编码使用H. 264,图像编码使用JPEG,网络打包发送使用 RTP协议);整合整个无人机装置的传输信息,通过4G模块发送数据,同时接收来自服务器的 数据并解析。
[0072]无人机云台机构包括无人机多轴云台、摄像机、热成像仪。摄像机和热成像仪安装 在无人机多轴云台上,能够随无人机多轴云台的转动而一起转动,从而能够更好的完成拍 摄工作,无人机多轴云台连接到无人机的应用功能实现MCU。
[0073]本发明在视频和热红外图像获取后继续对周边环境进行勘察,方便救援。根据报 警点现场周边的环境,当周边种植有大量树木,或者相邻建筑较近,已经有遮挡物或障碍物 时,可以采取飞手操控无人机执行航拍方案,当周边环境空旷时可以采用自动巡航实行航 拍方案。在航拍过程中,飞手通过控制系统接收到无人机的周围状态、高度、姿态角和现场 实时视频与图像来不断调整无人机的航拍角度、高度从而保证航拍工作的顺利进行;若为 无人机自动巡航方案是,飞手将图像采集点的坐标位置、顺序、航拍高度、航拍角度由服务 器传输给无人机,通过无人机进行自动巡航完成各个采集点下的视频和热红外图像拍摄工 作。
[0074]本发明的具体实施过程如下:
[0075] 1)选取某消防队的演习场地作为本实施例的实施对象,该演习场地为以大型废旧 仓库,该仓库长150米,宽30米,高10米,并在仓库某一随机位置用一火源模拟器,模拟着火 点,同时着火点附近安装有火灾警报装置。
[0076] 2)打开火源模拟器,模拟火灾发生情况,同时火灾警报装置探测到火灾发生,控制 系统接收到火灾确认请求,派遣无人机前往。飞手操控无人机飞行,根据GPS定位和周围环 境实时情况,选择最佳航行方案赶往火灾警报发生地。
[0077] 3)到达现场后对仓库周边进行高空观察情况确定航拍方案,在视频中明显发现在 仓库东北角有类似火灾发生的浓烟飘出。最终确定以东北角所在区域的墙体,进行270°的 巡航拍摄,飞行高度为2米(火灾报警器的高度),飞行半径为20米。无人机飞行速度设置为 15°/s。无人机在这段时间内持续拍摄视频,同时并以每秒1幅的速度拍摄热红外图像,共计 18幅图像和18秒的视频。完成后,无人机飞到仓库上方30米处,以航拍角度为30°,朝向建筑 物以俯视向下30°角度获取屋顶及其建筑物周边的图像和视频。由于仓库周边树木、标志牌 和障碍物比较多,所以采用飞手手动操控无人机执行航拍的方案。
[0078] 无人机在进行航拍任务的同时,进行编码工作。将拍摄到的视频进行H. 264编码, 拍摄到的图片进行JPEG编码。接着将完成编码的视频分析它的NAL单元,根据RTP协议组包。 将视频、热红外图像和飞控状态信息一同打包后通过4G通信模块走4G移动蜂窝网络发送至 服务器。
[0079] 本实施过程中,控制系统直接架设在服务器本地端口,控制系统直接读取服务器 中的视频、图像和飞控状态数据。飞手根据这些信息用遥控器操控无人机飞行,调整云台的 拍摄角度。
[0080] 4)本实施过程中的两种火灾场景图像分类器均采用以下方式获得:选取样本图像 的数量为10万张,共有2种不同的场景即着火与未着火,每种场景图像数为5万张。卷积神经 网络的训练的方式为随机梯度下降方法,权值衰减设置为5eT 4,势能为0.9,初始的学习率设 置为〇.〇1,固定学习率,当模型在测试集上的分类精度不再上升时,减小学习率,每次减小 方式为原来的学习率乘以0.1。
[0081] 分类器的最终分类性能如下表:

[0084] 7)控制系统中的火灾报警现场的视频图像和热红外图像,分别输入由卷积神经网 络训练的火灾场景普通图像分类器和火灾场景红外图像分类器中,两类图像分类器均判断 为发生火灾,所以经过或运算直接可以判断出报警点是真的发生了火灾,控制系统立即通 知消防部门进行救援行动。
[0085] 8)无人机完成上述工作后继续停留在报警点现场,通过航拍视频和热红外图像实 时监控现场火势的发展情况,并为消防部门提供救援信息,方便制定合理有效的消防救援 计划。
[0086] 由此可见,本发明通过摄像头和热红外成像仪对着火点仓库进行了航拍、无人机 与服务器之间的通讯技术,以及基于卷积神经网络的图像分类技术,实现了对火灾报警点 的火灾发生确认。同时,消防部门能比较准确的、迅速的掌握火灾现场内部的大致情况,为 实时救援提供了相当宝贵的实时信息。
[0087] 本发明确定火灾发生的方法不仅大大提高了确认的效率和准确性,同时更为救援 计划的制定和实施提供了非常可靠的技术支持,同时也将无人机的应用领域扩展至消防领 域。
[0088] 上述【具体实施方式】用来解释说明本发明,而不是对本发明进行限制,在本发明的 精神和权力要求的保护范围内,对本发明做出的任何修改和改变,都落入本发明的保护范 围。
【主权项】
1. 一种基于无人机的火灾发生测定方法,其特征在于包括如下步骤: 1) 采用主要由无人机、远程服务器和位于地面的控制系统组成的系统,无人机上装载 有红外热像仪,GPS定位模块、气压计、巧螺仪、加速度计、带有摄像头的云台机构和4G通信 模块,服务器与无人机之间通过4G移动蜂窝网络进行通信; 2) 无人机通过自动巡航模式或者手动操控模式,由火灾报警点的GPS位置信息飞行到 达火灾报警区域,通过云台机构搭载的摄像头和红外热像仪分别拍摄报警点的现场视频与 热红外图像,将现场视频与红外热像图用4G通信模块通过4G移动蜂窝网络发送至远程服务 器; 3) 远程服务器侦听并接收无人机传输过来的数据解码得到实时现场视频和热红外图 像; 4) 将现场视频中的每帖照片图像和热红外图像通过肉眼识别获得火灾是否发生的结 果,或者将普通视频图像和热红外图像分别输入到已通过卷积神经网络训练的火灾图像分 类器中,经过分类判断得到火灾是否发生的结果。2. 根据权利要求1所述的一种基于无人机的火灾发生测定方法,其特征在于:所述步骤 2) 中将所述现场视频进行H. 264编码压缩后,再根据RTP协议将视频数据打包后发送到远程 服务器。3. 根据权利要求1所述的一种基于无人机的火灾发生测定方法,其特征在于:所述步骤 3) 中远程服务器根据RTP协议解包对数据流进行H. 264解码得到现场视频。4. 根据权利要求1所述的一种基于无人机的火灾发生测定方法,其特征在于:所述的步 骤2)中,无人机将采用W下方式进行航拍视频: W被触发的火灾报警器为原点,在报警点所在的平面即报警点所在的楼层,先W20米 至30米为半径对报警建筑物墙体进行巡航拍摄,航拍角度为90%再将无人机飞至建筑物屋 顶上方,飞行高度约为建筑物高度的=倍,采取的航拍角度为30°。5. 根据权利要求1所述的一种基于无人机的火灾发生测定方法,其特征在于:在所述的 步骤4)中,将普通视频图像和热红外图像分别输入到已通过卷积神经网络训练的火灾图像 分类器中,经过分类比对得到火灾是否发生的结果具体为:对带有着火和非着火的两类建 筑物样本图像输入到分类器中通过卷积神经网络进行预训练得到火灾图像分类器,取卷积 神经网络的全连接层中训练特征对被测火灾图像进行分类得到着火或者非着火的结果。6. 根据权利要求5所述的一种基于无人机的火灾发生测定方法,其特征在于:所述的卷 积神经网络采用端对端的形式同时训练特征与分类,训练的特征为卷积神经网络结构末端 的全连接层,提取卷积神经网络结构末端的全连接层输出作为着火图像的深度特征,得到 的深度特征输入到支持向量机分类器中进行训练,得到火灾图像分类器。7. 根据权利要求5所述的一种基于无人机的火灾发生测定方法,其特征在于:所述训练 过程中对所有输入的样本图像具体为: 1) 先进行尺度归一化,归一化图像到32 X 32分辨率; 2) 卷积层计算: 其中卷积层的参数表达形式:4X4X20+1(步长),表示卷积核的大小为4X4,数量为 20,步长为1,采用W下公式进行卷积层计算:其中,X;' y,'-I分别表示当前卷积层中第j个特征图、前一层的第i个特征图;4表示当 前层的第j个特征图与前一层的第i个特征图之间的卷积核;表示需要卷积的前一层的特 征图的集合,表示当前卷积层中第j个卷积核对应的偏置;f为激活函数,卷积层中的权 值与阔值通过随机梯度下降法得到;i和j均表示特征图的序数,1表示步长; 3) 池化层计算: 池化层采用最大池化方式,2 X 2+2(步长)表示池化核大小为2 X 2,步长为2;最大池化 的计算采用W下公式:式中,池化核大小为S Xs,S表示池化核的边々二长,表示当前池化特征图中第(c,d)坐标 位置的值,C、d分别表示池化特征图的横纵坐标,衡表示前一层特征图中池化核中 。己巧:<王,0色〇己玉: 的值集合;表示前一层特征图中坐标位置为C ? s+m,d ? s+n的值,m,n表示池化 核中的坐标; 4) 再次进行卷积层计算: 其中,卷积层的参数表达形式:3X3X40+1(步长),表示卷积核的大小为3X3,数量为 40,步长为1,此步骤卷积层的具体计算与步骤2)相同; 5) 采用与步骤3)相同过程再次进行池化层计算: 6) 全连接层计算: 网络包含一个全连接层,共有两个节点单元,全连接层的计算公式为:式中,f( ?)表示激活函数,采用的是Rectified linear unit激活函数,Rq表示全连接 层中第q个节点单元,Up表示池化层中第P个节点单元,Vpq表示两个节点的连接权值,N表示 池化层的节点单元个数,P,q均为池化层的节点单元的序数; 7. softmax层的计算公式如下:式中,Wt, W表示全连接层与SOf tmax层之同的连接权值,Bt为偏置,X康示全连接层的第t 个节点单元值,rt表示第t个类别上的概率值,rt'表示第t个类别的概率密度;a表示类别的 总个数,t为类别的序数,t取1或2,a = 2,w为第t类别下连接权值的序数术表示输入的场景 图像为着火场景的概率,n表示输入的场景图像为非着火场景的概率; 8)卷积神经网络的损失函数公式如下:式中,1{}是一个指示性函数,e表示网络参数;为第P个样本在类别Q上的概率值,P 表示一次迭代batch中图像的数目,Q表示图像类别的数目,C,D均为样本的序数。8. 用于实施权利要求1~7任一所述方法的一种基于无人机的火灾发生测定装置,其特 征在于: 包括无人机及其无人机配套的遥控器; 包括远程服务器,远程服务器与无人机之间通过4G移动蜂窝网络进行通信; 包括位于地面的控制系统,控制系统与服务器之间通过互联网或本地端口进行通信。9. 根据权利要求8所述的一种基于无人机的火灾发生测定装置,其特征在于:所述的无 人机上装载有: 带有摄像头的云台机构; 用于拍摄采集火灾报警点红外热图像的红外热像仪; 用于采集定位无人机位置的GI^定位模块; 用于检测无人机飞行高度的气压计; 用于检测无人机飞行角速度的巧螺仪; 用于检测无人机飞行角度的加速度计; W及与远程服务器通信的4G通信模块。10. 根据权利要求8所述的一种基于无人机的火灾发生测定装置,其特征在于:所述的 无人机上还装载有主控MCU,主控MCU分别与带有摄像头的云台机构、红外热像仪、4G通信模 块W及无人机机载的飞控连接。
【文档编号】G08B17/12GK105913604SQ201610330274
【公开日】2016年8月31日
【申请日】2016年5月18日
【发明人】郑恩辉, 张汉烨
【申请人】中国计量大学
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1