码迷,mamicode.com
首页 >  
搜索关键字:机器学习 模糊c均值 kmeans    ( 9578个结果
机器学习基础---神经网络(属于逻辑回归)(构建假设函数)
一:为什么需要神经网络 (一)案例 为了很好的拟合数据,我们需要保留较多的相关参数,虽然可以使用正则化进行优化。但是无论是线性回归还是逻辑回归都有这样一个缺点,即:当特征太多时,计算的负荷会非常大。 之前我们已经看到过,使用非线性的多项式项,能够帮助我们建立更好的分类模型。假设我们有非常多的特征,例 ...
分类:其他好文   时间:2020-05-02 22:37:21    阅读次数:208
最大熵和EM算法(机器学习)
机器学习中讲到的推荐系统(不单独写博了): ...
分类:编程语言   时间:2020-05-02 19:17:29    阅读次数:73
常用激活函数
Sigmoid Sigmoid 函数也叫 Logistic 函数,定义为 $$ Sigmoid:=\frac{1}{1+e^{ x}} $$ 它的一个优良特性就是能够把 ?? ∈ ?? 的输入压缩到 ??∈[0,1]区间,这个区间的数值在机器学习常用来表示以下含义: 1. 概率分布 [0,1] 区间 ...
分类:其他好文   时间:2020-05-02 19:12:06    阅读次数:58
数据和特征处理(机器学习中工作流程和模型优化)
...
分类:其他好文   时间:2020-05-02 18:52:48    阅读次数:59
机器学习——09、主成分分析
一、用自己的话描述出其本身的含义: 1、特征选择 特征选择就是在一大堆数据中删除相关性系数比较低对结果没什么影响的特征,从而降维优化计算程度。 减少特征具有重要的现实意义,不仅减少过拟合、减少特征数量(降维)、提高模型泛化能力,而且还可以使模型获得更好的解释性,增强对特征和特征值之间的理解,加快模型 ...
分类:其他好文   时间:2020-05-02 11:32:32    阅读次数:118
交叉熵误差函数
机器学习中的交叉熵 交叉熵的定义 概率分布p和q的交叉熵定义为: $$ {\displaystyle \mathrm {H} (p,q)=\operatorname {E} _{p}[ \log(q)]=\mathrm {H} (p)+D_{\text{KL}}(p\parallel q)} $$ ...
分类:其他好文   时间:2020-05-01 20:54:26    阅读次数:97
机器学习第九次
9.主成分分析 一、用自己的话描述出其本身的含义: 1、特征选择 2、PCA 二、并用自己的话阐述出两者的主要区别 答:一、特征选择就是特征降维中进行人工选择的方式,主观性剔除不要的特征。而PCA则是特征降维中除了特征选择的另一种降维方法,中文名为主成分分析技术,他的作用是尽可能降低原数据的维数,简 ...
分类:其他好文   时间:2020-05-01 19:02:44    阅读次数:72
机器学习第八次
8、特征选择 用过滤法对以下数据进行特征选择: [[0,2,0,3], [0,1,4,3], [0,1,1,3]] 要求: 1、Variance Threshold(threshold =1.0) 2、将结果截图放上来(没有条件的备注说明原因)注意:每个人的电脑ID是不一样的 ...
分类:其他好文   时间:2020-05-01 18:53:45    阅读次数:45
机器学习9 主成分分析
一、用自己的话描述出其本身的含义: 1、特征选择:从一组特征中挑选出一些最有效的特征来降低特征空间维数。去除不相关的特征,可以降低学习任务的难度,只留下关键特征,往往可以更容易看清真相。 2、PCA:主成分分析PCA是一种分析、简化数据集的技术,经常用于减少数据集的维数,同时保持数据集中的对方差贡献 ...
分类:其他好文   时间:2020-05-01 18:49:16    阅读次数:66
机器学习8 特征选择
用过滤法对以下数据进行特征选择: [[0,2,0,3], [0,1,4,3], [0,1,1,3]] 要求: 1、Variance Threshold(threshold =1.0) 2、将结果截图放上来(没有条件的备注说明原因)注意:每个人的电脑ID是不一样的 ...
分类:其他好文   时间:2020-05-01 18:34:48    阅读次数:41
9578条   上一页 1 ... 60 61 62 63 64 ... 958 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!