多核学习(MKL)的最优化问题由经验风险、正则项两部分组成,其解的稀疏性取决于正则项中的权值范数。多核学习(MKL)通过多种核函数的组合,实现了对多种特征集合的表示,有利于对多源数据的处理。本发明提出的非稀疏多核学习,采用凸优化学习算法,在组内的核函数采用l1范数,相当于仅选择最重要的核函数进行组合,以提升稀疏性;在组间采用l2范数,相当于平等地选择处于不同子空间的核函数,以提高学习和预测的精度。这种非稀疏多核学习问题采用,Mirro-Descent(MD)方法求解,达到了既提高学习精度,又提高学习速度的目的。
声明:
“基于凸优化的多核学习新算法” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)