七,专著研读(Logistic回归) 分类:k 近邻算法,决策树,朴素贝叶斯,Logistic回归,支持向量机,AdaBoost算法。 运用 k 近邻算法,使用距离计算来实现分类 决策树,构建直观的树来分类 朴素贝叶斯,使用概率论构建分类器 Logistic回归,主要是通过寻找最优参数来正确分类原始 ...
分类:
其他好文 时间:
2019-07-28 09:35:44
阅读次数:
116
机器学习”小憩“——总结应用场景 常见的机器学习模型:感知机,线性回归,逻辑回归,支持向量机,决策树,随机森林,GBDT,XGBoost,贝叶斯,KNN,K-means等; 常见的机器学习理论:过拟合问题,交叉验证问题,模型选择问题,模型融合问题等; K近邻:算法采用测量不同特征值之间的距离的方法进 ...
分类:
编程语言 时间:
2019-07-20 13:00:47
阅读次数:
162
支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在支持向量机原理(一) 线性支持向量机中,我们对线性可分SVM的模型和损失函数优化做了... ...
分类:
其他好文 时间:
2019-07-19 18:59:11
阅读次数:
89
支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 支持向量机(Support Vecor Machine,以下简称SVM)虽然诞生只有短... ...
分类:
其他好文 时间:
2019-07-19 18:57:09
阅读次数:
106
在支持向量机(以下简称SVM)的核函数中,高斯核(以下简称RBF)是最常用的,从理论上讲, RBF一定不比线性核函数差,但是在实际应用中,却面临着几个重要的超参数的调优问题。如果调的不好,可能比线性核函数还要差。所以我们实际应用中,能用线性核函数得到较好效果的都会选择线性核函数。如果线性核不好,我们... ...
分类:
其他好文 时间:
2019-07-19 18:47:58
阅读次数:
124
支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在前面两篇我们讲到了线性可分SVM的硬间隔最大化和软间隔最大化的算法,它们对线性可分的... ...
分类:
其他好文 时间:
2019-07-19 18:41:54
阅读次数:
114
最大熵模型(maximum entropy model, MaxEnt)也是很典型的分类算法了,它和逻辑回归类似,都是属于对数线性分类模型。在损失函数优化的过程中,使用了和支持向量机类似的凸优化技术。而对熵的使用,让我们想起了决策树算法中的ID3和C4.5算法。理解了最大熵模型,对逻辑回归,支持向量... ...
分类:
其他好文 时间:
2019-07-19 18:26:51
阅读次数:
102
''' 支持向量机: 支持向量机原理: 分类原则:寻求最优分类边界 1.正确:对大部分样本可以正确地划分类别。 2.泛化:最大化支持向量间距。 3.公平:与支持向量等距。 4.简单:线性,直线或平面,分割超平面。 ... ...
分类:
其他好文 时间:
2019-07-17 09:24:53
阅读次数:
84
机器学习模型的参数和超参数 参数 :模型参数,可以用数据进行估计,是模型内部的配置变量,通常使用优化算法估计模型参数,优化算法是对参数的可能值进行的一种有效搜索。例如人造神经网络中的权重、支持向量机中的支持向量、 线性回归或逻辑回归中的系数 超参数 :必须手动设置,是模型外部的配置变量,模型超参数常 ...
分类:
编程语言 时间:
2019-07-10 22:54:07
阅读次数:
140
一、导入必要的工具包# 导入必要的工具包import xgboost as xgb # 计算分类正确率from sklearn.metrics import accuracy_score二、数据读取XGBoost可以加载libsvm格式的文本数据,libsvm的文件格式(稀疏特征)如下:1 101: ...
分类:
其他好文 时间:
2019-07-09 00:13:14
阅读次数:
569