本发明公开了一种基于深度融合的视频显著性检测方法,本发明方法包括深度特征提取网络、深度特征融合网络和显著性预测网络。模型的输入是当前帧图像和光流图像。首先,深度特征提取网络提取多级深度特征,产生深度空间特征和深度时间特征。然后,采用注意力模块分别强化学习两个分支中每级产生的深度特征,深度特征融合网络分级方式融合多级深度特征。将融合得到的深度特征与边界信息相结合并显著性预测网络进行预测,产生当前帧的最终显著性图。本发明方法提供的网络模型可以充分有效地利用空间信息和时间信息来实现对视频中显著性目标的预测。
声明:
“基于深度融合的视频显著性检测方法” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)