| 《计算机学报》文章摘要 全文下载 |
文章题目 | 一种基于递增估计GMM的连续优化算法 |
作者 | 李斌1),2) 钟润添1),2) 王先基2) 庄镇泉2) |
作者单位 | 1)(中国科学技术大学自然计算与应用实验室 合肥 233027)
2)(中国科学技术大学电子科学与技术系 合肥 233027) |
发表年份 | 2007 |
发表月份 | 6期(979—985) |
文章摘要 | 摘要 目前的分布估计算法(estimation of distribution algorithms)中概率模型的学习或多或少存在着对先验知识的依赖,而这些先验知识往往是不可预知的.针对这一问题,文中提出采用集成学习(ensemble learning)的思想实现EDAs中概率模型结构和参数的自动学习,并提出了一种基于递增学习策略的连续域分布估计算法,该算法采用贪心EM算法来实现高斯混合模型(GMM)的递增学习,在不需要任何先验知识的情况下,实现模型结构和参数的自动学习.通过一组函数优化实验对该算法的性能进行了考查,并与其它同类算法进行了比较.实验结果表明该方法是有效的,并且,相比其它同类EDAs,该算法用相对少的迭代,可以得到同样或者更好的结果.
关键词 分布估计算法;连续优化;贪心EM算法;递增学习;高斯混合模型
中图法分类号 TP18 |