融合自注意力和自编码器的视频异常检测

Journal of Image and Graphics(2023)

引用 0|浏览19
暂无评分
摘要
目的 视频异常检测通过挖掘正常事件样本的模式来检测不符合正常模式的异常事件.基于自编码器的模型广泛用于视频异常检测领域,由于自监督学习的特征提取具有一定盲目性,使得网络的特征表达能力有限.为了提升模型对正常模式的学习能力,提出一种基于Transformer和U-Net的视频异常检测方法.方法 首先,编码器对输入的连续帧进行下采样提取低层特征,并将最后一层特征图输入Transformer编码全局信息,学习特征像素之间的相关信息.然后解码器对编码特征进行上采样,通过跳跃连接与编码器中相同分辨率的低层特征融合,将全局空间信息与局部细节信息结合从而实现异常定位.针对近景康复动作的异常反馈需求,本文基于周期性动作收集了一个室内近景数据集,并进一步引入动态图约束引导网络关注近景周期性运动区域.结果 实验在4个室外公开数据集和1个室内近景数据集上与同类方法比较.在室外数据集CUHK(Chinese University of Hong Kong)Avenue,UCSD Ped1(University of California,San Diego,pedestrian1),UCSD Ped2,LV(live videos)中,本文算法的帧级AUC(area under curve)值分别提高了1%,0.4%,1.1%,6.8%.在室内数据集中,本文算法相比同类算法提升了1.6%以上.消融实验结果分别验证了Transformer模块以及动态图约束的有效性.结论 本文将U-Net网络与基于自注意力机制的Transformer网络结合,能够提升模型对正常模式的学习能力,从而有效检测视频中的异常事件.
更多
查看译文
关键词
anomaly detection,convolutional neural network(CNN),Transformer encoder,self-attention mechanism,self-supervised learning
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要