目标跟踪groundtruth_rect.txt文件是拿来干嘛的?
最编程
2024-08-15 13:11:53
...
现在把下面的这个视频甩给电脑,让KCF算法来跟踪目标,KCF就很迷惑,这么多球员呢?你让我跟踪谁?
于是咱框出一个人,告诉KCF,你帮我跟踪这个人
上面那个红色的框由什么构成?
假如整幅图是一个坐标,左上角是原点,那么矩形框的位置就可以用矩形左上顶点的坐标唯一表示,比如上面的矩形就在(40,50)处,而且矩形的长是80,宽是100。于是就可以用(40 50 80 100)在上图画出来一个矩形框,也就是目标。
现在将(40 50 80 100)写进groundtruth_rect.txt文件,KCF运行的时候,读取了这个矩形框的信息,就知道要跟踪这个矩形框内的物体。然后就开始跟踪了。
现在有一个新视频,要让KCF跟踪小猫的头,那么用一个100*100的矩形框将猫头框出来,矩形框坐标如下,想想,这个视频的groundtruth_rect.txt文件里要写什么?
只写一行:40,20,100,100
可是为什么VOT给的序列groundtruth_rect.txt文档里坐标那么多?其实,除了第一行,其他的坐标对跟踪都是没有用的。
但对评价跟踪算法有用。以KCF为例。KCF只读取第一行,其他的行,都是人工标注的每一帧中目标的精确位置。KCF跟踪到目标后,要和人工的框进行比对,如果KCF跟踪到的目标和人工的框一致,说明跟踪到目标了,KCF性能好;如果没有重叠,说明没跟踪到目标,KCF性能差。就这么回事。
推荐阅读
-
目标跟踪groundtruth_rect.txt文件是拿来干嘛的?
-
计算机视觉中,究竟有哪些好用的目标跟踪算法(下)-快速变形主要因为CF是模板类方法。容易跟丢这个比较好理解,前面分析了相关滤波是模板类方法,如果目标快速变形,那基于HOG的梯度模板肯定就跟不上了,如果快速变色,那基于CN的颜色模板肯定也就跟不上了。这个还和模型更新策略与更新速度有关,固定学习率的线性加权更新,如果学习率太大,部分或短暂遮挡和任何检测不准确,模型就会学习到背景信息,积累到一定程度模型跟着背景私奔了,一去不复返。如果学习率太小,目标已经变形了而模板还是那个模板,就会变得不认识目标。(举个例子,多年不见的同学,你很可能就认不出了,而经常见面的同学,即使变化很大你也认识,因为常见的同学在你大脑里面的模型在持续更新,而多年不见就是很久不更新) 快速运动主要是边界效应(Boundary Effets),而且边界效应产生的错误样本会造成分类器判别力不够强,下面分训练阶段和检测阶段分别讨论。 训练阶段,合成样本降低了判别能力。如果不加余弦窗,那么移位样本是长这样的: 除了那个最原始样本,其他样本都是“合成”的,100*100的图像块,只有1/10000的样本是真实的,这样的样本集根本不能拿来训练。如果加了余弦窗,由于图像边缘像素值都是0,循环移位过程中只要目标保持完整那这个样本就是合理的,只有目标中心接近边缘时,目标跨越边界的那些样本是错误的,这样虽不真实但合理的样本数量增加到了大约2/3(padding= 1),即使这样仍然有1/3(3000/10000)的样本是不合理的,这些样本会降低分类器的判别能力。再者,加余弦窗也不是“免费的”,余弦窗将图像块的边缘区域像素全部变成0,大量过滤掉分类器本来非常需要学习的背景信息,原本训练时判别器能看到的背景信息就非常有限,我们还加了个余弦窗挡住了背景,这样进一步降低了分类器的判别力(是不是上帝在我前遮住了帘。不是上帝,是余弦窗)。 检测阶段,相关滤波对快速运动的目标检测比较乏力。相关滤波训练的图像块和检测的图像块大小必须是一样的,这就是说你训练了一个100*100的滤波器,那你也只能检测100*100的区域,如果打算通过加更大的padding来扩展检测区域,那样除了扩展了复杂度,并不会有什么好处。目标运动可能是目标自身移动,或摄像机移动,按照目标在检测区域的位置分四种情况来看: 如果目标在中心附近,检测准确且成功。 如果目标移动到了边界附近但还没有出边界,加了余弦窗以后,部分目标像素会被过滤掉,这时候就没法保证这里的响应是全局最大的,而且,这时候的检测样本和训练过程中的那些不合理样本很像,所以很可能会失败。 如果目标的一部分已经移出了这个区域,而我们还要加余弦窗,很可能就过滤掉了仅存的目标像素,检测失败。 如果整个目标已经位移出了这个区域,那肯定就检测失败了。 以上就是边界效应(Boundary Effets),推荐两个主流的解决边界效应的方法,但速度比较慢,并不推荐用于实时场合。