聚类是机器学习中的无监督学习方法的重要一种,近来看了周志华老师的机器学习,专门研究了有关于聚类的一章,收获很多,对于其中的算法也动手实现了一下。主要实现的包括比较常见的k均值聚类、密度聚类和层次聚类,这三种聚类方法上原理都不难,算法过程也很清晰明白。有关于原理可以参阅周志华老师的机器学习第九章,这里只做一下代码的实现。
运行环境是Python2.7+numpy,说实话,numpy坑还是挺多的,其...
分类:
其他好文 时间:
2016-04-29 18:44:40
阅读次数:
239
一个很普通的例题,求出一个整型数组的最小值、最大值、总和、平均值,利用调用函数的方法来ut参数实现 在上面的这个例题中,在被调用函数public static int[] GetMaxMinSumAvg(int[] arrNum)中,是很轻松的实现了四个值的求算,然后通过参数数组将4个值传递给主调函 ...
16.1 问题形式化 16.2 基于内容的推荐系统 16.3 协同过滤 16.4 协同过滤算法 16.5 矢量化:低秩矩阵分解 16.6 推行工作上的细节:均值归一化 16.1 问题形式化 16.2 基于内容的推荐系统 16.3 协同过滤 16.4 协同过滤算法 16.5 矢量化:低秩矩阵分解 16 ...
分类:
其他好文 时间:
2016-04-28 00:23:14
阅读次数:
339
1.数据标准化(Standardization or Mean Removal and Variance Scaling) 进行标准化缩放的数据均值为0,具有单位方差。 同样我们也可以通过preprocessing模块提供的Scaler(StandardScaler 0.15以后版本)工具类来实现这 ...
分类:
编程语言 时间:
2016-04-27 00:06:50
阅读次数:
527
Skew(偏度)
在概率论和统计学中,偏度衡量实数随机变量概率分布的不对称性。偏度的值可以为正,可以为负或者甚至是无法定义。在数量上,偏度为负(负偏态)就意味着在概率密度函数左侧的尾部比右侧的长,绝大多数的值(包括中位数在内)位于平均值的右侧。偏度为正(正偏态)就意味着在概率密度函数右侧的尾部比左侧的长,绝大多数的值(但不一定包括中位数)位于平均值的左侧。偏度为零就表示数值相对均匀地分布在平均值...
分类:
其他好文 时间:
2016-04-26 21:50:15
阅读次数:
533
聚类是机器学习中的无监督学习方法的重要一种,近来看了周志华老师的机器学习,专门研究了有关于聚类的一章,收获很多,对于其中的算法也动手实现了一下。主要实现的包括比较常见的k均值聚类、密度聚类和层次聚类,这三种聚类方法上原理都不难,算法过程也很清晰明白。有关于原理可以参阅周志华老师的机器学习第九章,这里只做一下代码的实现。
运行环境是Python2.7+numpy,说实话,numpy坑还是挺多的,其...
分类:
其他好文 时间:
2016-04-26 20:56:56
阅读次数:
128
实验名称 图像去噪 实验目的 1、掌握算术均值滤波器、几何均值滤波器、谐波和逆谐波均值滤波器进行图像去噪的算法 2、掌握利用中值滤波器进行图像去噪的算法 3、掌握自适应中值滤波算法 4、掌握自适应局部降低噪声滤波器去噪算法 5、掌握彩色图像去噪步骤 实验内容 1、均值滤波 具体内容:利用 OpenC ...
分类:
其他好文 时间:
2016-04-24 17:04:16
阅读次数:
454
斜率优化。。因为要求方差乘m^2...也就是每段距离与平均值的平方和再乘m。 f[i][j]表示i天后,走了j段的最小平方和。 求出最小平方和再乘个m就行了= = 需要注意,是可以停留在原地的。。。 1 #include<cstdio> 2 #include<iostream> 3 #include ...
分类:
其他好文 时间:
2016-04-24 15:31:04
阅读次数:
220
描述 分析 二分. 最大化平均值(同POJ 2976 Dropping Tests). 不等式变形做就可以了. 注意: 1.算c的值的时候不用担心算爆,int会先被提升为double再做运算,所以r取INF也没关系,不会爆(最多是INF*INF). 2.但是r取INF精度就不够了,所以还是乖乖取ma ...
分类:
其他好文 时间:
2016-04-23 08:57:40
阅读次数:
188
度量表
1.准确率
(presion) p=TPTP+FP
2.召回率
(recall)r=TPTP+FN
3. F值为p和r的调和平均值
F=2rpp+r
4.ROC曲线
对于0,1两类分类问题,一些分类器得到的结...
分类:
其他好文 时间:
2016-04-22 19:37:33
阅读次数:
1824