主要内容:1、距离度量2、皮尔逊关系系数3、cosine相似度4、方法的选择1、距离度量距离度量是最简单的衡量相似度的方法,公式如下:当r=1时,为曼哈顿距离(manhattan distance);当r=2时,为欧几里得距离(Euclidean distance);优点:简单缺点:当数据某些属性或...
分类:
其他好文 时间:
2015-10-02 11:20:22
阅读次数:
220
1.原理 聚类是一种无监督学习的方法,其实质是依据某种距离度量,使得同一聚簇之间的相似性最大化,不同聚簇之间的相似性最小化,即把相似的对象放入同一聚簇中,把不相似的对象放到不同的聚簇中。聚类与分类不同,聚类的输入对象不需要带有类别标签,最后组成的分类是由使用的算法决定的。在聚类中,k-means由....
分类:
编程语言 时间:
2015-09-19 15:13:27
阅读次数:
226
附改进版代码,未改进版只要稍作改动即是。
function [ mhd ] = ModHausdorffDist( A, B )
% Format for calling function:
%
% MHD = ModHausdorffDist(A,B);
%
% where
% MHD = Modified Hausdorff Distance.
% A -> Point set 1
%...
分类:
其他好文 时间:
2015-08-28 13:24:18
阅读次数:
266
Matlab提供系列函数用于聚类分析,归纳起来具体方法有如下:
方法一:直接聚类,利用clusterdata函数对样本数据进行一次聚类,其缺点为可供用户选择的面较窄,不能更改距离的计算方法,该方法的使用者无需了解聚类的原理和过程,但是聚类效果受限制。
方法二:层次聚类,该方法较为灵活,需要进行细节了解聚类原理,具体需要进行如下过程处理:(1)找到数据集合中变量两...
分类:
其他好文 时间:
2015-08-25 23:49:20
阅读次数:
364
k近邻模型主要包含三个基本要素:距离度量、k值的选择、分类决策规则模型:k近邻法中,当训练集、距离度量、k值及分类决策规则确定后,对于一个新的输入实例,它所属的类唯一确定,这相当于根据上述要素将特征空间划分为一些子空间,确定子空间里的每一点所属的类。距离度量:特征空间中的两个实例点的距离是两个实例点...
分类:
其他好文 时间:
2015-08-18 11:44:41
阅读次数:
160
k近邻是一种特别简单的有监督学习算法。给定一个带标签的训练数据集,从中选择与预测样本最近的k个训练样本,用这k个样本投票决定预测样本标签。
k近邻法三要素:距离度量,k值选择和分类决策规则为了提高k近邻搜索效率,比较常用的就是线性扫描和kd树(二叉树)
kd树构造:对每个维度的特征依次寻找中位数划分子集,并以此中位数作为节点
代码:
pass
kd树搜索代码:
主要就是舍弃当前兄弟节点与...
分类:
其他好文 时间:
2015-07-29 19:17:31
阅读次数:
125
从K近邻算法、距离度量谈到KD树、SIFT+BBF算法 从K近邻算法、距离度量谈到KD树、SIFT+BBF算法前言 前两日,在微博上说:“到今天为止,我至少亏欠了3篇文章待写:1、KD树;2、神经网络;3、编程艺术第28章。你看到,blog内的文章与你于别处所见的任何都不同。于是,等啊等,等...
分类:
编程语言 时间:
2015-05-19 00:32:41
阅读次数:
294
在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。 本文的目的就是对常用的相似性度量作一个总结。本文目录:1. 欧氏距离2. 曼....
分类:
其他好文 时间:
2015-03-08 11:43:34
阅读次数:
196
对于集中任意元素,若实值函数符合以下三个条件,称它为一个伪度量(pseudometric)。它和一般距离(度量)的定义的分别只在于伪度量容许对于相异的元素,。
分类:
其他好文 时间:
2015-01-22 23:11:17
阅读次数:
117
惰性学习法:简单的存储数据,一直等待,直到给定一个测试元组时才进行泛化,根据对存储的元组的相似性进行分类。kNN(k近邻)分类方法于20世纪50年代提出,由于计算密集型算法,因此到60年代之后随着计算能力增强后才逐步应用。
kNN基于类比学习,将给定的测试元组表示为n维空间中的一个点,n代表属性数目。然后使用某种距离度量方式来寻找与给定测试元组最近的k个训练元组,对这个k个训练元组的类别进行统计...
分类:
其他好文 时间:
2014-12-08 17:47:16
阅读次数:
262