当前位置:文档之家› 【CN110009661A】一种视频目标跟踪的方法【专利】

【CN110009661A】一种视频目标跟踪的方法【专利】

(19)中华人民共和国国家知识产权局
(12)发明专利申请
(10)申请公布号 (43)申请公布日 (21)申请号 201910249323.7
(22)申请日 2019.03.29
(71)申请人 大连理工大学
地址 116024 辽宁省大连市甘井子区凌工
路2号
(72)发明人 卢湖川 高凯 
(74)专利代理机构 大连理工大学专利中心
21200
代理人 温福雪 侯明远
(51)Int.Cl.
G06T 7/246(2017.01)
G06K 9/62(2006.01)
(54)发明名称一种视频目标跟踪的方法(57)摘要本发明属于图像视频目标跟踪技术领域,提供了一种视频目标跟踪的方法,能够对视频中特定单个目标进行持续跟踪,涉及到图像处理的相关知识。

首先,我们利用深度互学习和知识蒸馏的方法训练一个快速的目标跟踪器。

其次,在每一帧来临时,在上一帧周围撒很多粒子,粒子的分布是随机的。

然后我们选取一个大的图像区域,能够将所有粒子包含进去。

将图像区域和粒子的相对位置送入目标跟踪器,得到最后的得分,选取得分最高的结果。

将最后结果经过包围框回归之后作为最终结果。

最后,每次跟踪失败或者一定时间之后在线更新跟踪器。

本发明的益处在于改变传统的采样方法,将在图像层采样变为在特征层采样,大大提升了速度,在保证精度
的条件下提升了速度。

权利要求书3页 说明书5页 附图1页CN 110009661 A 2019.07.12
C N 110009661
A
1.一种视频目标跟踪的方法,其特征在于,步骤如下:
一、离线训练阶段:
步骤1:利用公开的数据库训练一个分类器网络,分类器网络的输入是图像块,输出为图像块的得分,其中图像块是目标前景则输出为1,图像块是背景输出则为0;分类器网络用于分辨输入图像块是目标前景还是背景,并对图像块进行打分;如公式(1),其中,表示在视频序列的第t帧取到的第i个图像块,
代表图像块在分类器网络1中第m类的特征,m取值1、2;表示分类器网络1中softmax层中第m类的输出;公式(2)表示分类器
网络的监督损失,
式中,表示视频序列中第t帧取得的第i个
图像块的真值标签,当真值标签与类别输出相同时,则结果为1,反之则为0;
表示分类器
网络1在图像序列中取N个图像块的损失;
步骤2:采用深度互学习的方法,用两个相同的分类器网络同时进行训练,并在结果之前的网络层建立连接,用KL散度进行相互监督,从而使得两个分类器网络获得更强大的分类能力;公式(3)D KL (p 2‖p 1)代表用KL散度相互监督,式中,分别表示分类器网络1、分类器网络2中softmax层中第m类的输出,KL散度是在图像序列中取N个图像块进行计算;公式
(4)分别表示分类器网络1、分类器网络2的最终损失,
其中
分别表示分类器网络1、分类器网络2在图像序列中取N个图像块的损失;λ1、λ2是
超参数,
用于调整损失之间的关系;
权 利 要 求 书1/3页2CN 110009661 A。

相关主题