码迷,mamicode.com
首页 > 编程语言 > 详细

【机器学习】K均值算法(II)

时间:2017-08-16 11:24:13      阅读:175      评论:0      收藏:0      [点我收藏+]

标签:png   bsp   分享   根据   技术分享   均值   改善   局部最优   训练   

k聚类算法中如何选择初始化聚类中心所在的位置。

在选择聚类中心时候,如果选择初始化位置不合适,可能不能得出我们想要的局部最优解。

技术分享

而是会出现一下情况:

技术分享

为了解决这个问题,我们通常的做法是:

我们选取K<m个聚类中心。

然后随机选择K个训练样本的实例,之后令k个聚类中心分别与k个训练实例相等。

之后我们通常需要多次运行均值算法。每一次都重新初始化,然后在比较多次运行的k均值的结果,选择代价函数较小的结果。这种方法在k较小的时候可能会有效果,但是在K数量较多的时候不会有明显改善。

 

如何选取聚类数量

当我们研究聚类数量与畸变函数J的关系时候,发现“肘部法则”,也就是当k的数量逐渐增加时候,存在某一点成为J函数下降过程呢中的拐点。

技术分享

这个点之前,他的畸变的值迅速下降,在这个点之后,它的畸变值下变慢,那么看起来这个拐点通常会成为最合适的值。不过在实际情况中,我们会选择K值的数量取决于用聚类算法所需要解决的实际问题的目的出发。根据实际情况的需要选择K值的数量。

【机器学习】K均值算法(II)

标签:png   bsp   分享   根据   技术分享   均值   改善   局部最优   训练   

原文地址:http://www.cnblogs.com/KID-XiaoYuan/p/7371777.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!