本发明公开了一种面向自动驾驶的多传感器深度融合3D目标检测方法,通过边缘校准技术,有效解决了传感器时空不同步的问题,通过目标中心数据增强,有效解决了标注不足时的深度估计模型训练问题,通过不确定性估计技术、场景关联损失函数,有效提高了深度估计模型在场景变化条件下的鲁棒性和精度。通过2D‑3D无损信息转化、体素转换为点技术、由粗到细的深度对齐、多分支监督流,有效的解决了不同模态特征空间不一致且转换有信息损失问题,最终的架构可以在自动驾驶场景中,增强多模态信息的互补作用,降低多模态信息相互之间的干扰,在遮挡、点云稀疏、光照变化等场景下均取得良好表现。
声明:
“面向自动驾驶的多传感器深度融合3D目标检测方法” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)