在一般认知中,用模型对测试集进行分类预测,结果应该是X或者X'(也可以说是或者否)。根据混淆矩阵算出TP、FP、TN、FN,进一步算出TPR、FPR。一个测试集只会有一对TPR/FPR值,那么ROC曲线就只会有一个点,何谈曲线之说?难道是用多个测试集得到多对TPR/FPR值,来绘制ROC曲线吗?实则 ...
分类:
其他好文 时间:
2019-10-27 12:47:31
阅读次数:
464
五,论文研读 论文名称:陈子健,朱晓亮.基于教育数据挖掘的在线学习者学业成绩预测建模模型. 研究对象从教育数据中挖掘影响在线学习者成绩学业成绩的因素并构建分类预测模型。 研究动机学业成绩的预测和评价是全世界教育研究者共同关注的话题,如何对在线学习者的学业成绩进行预测便于提供预警和其他干预措施。 文献 ...
分类:
其他好文 时间:
2019-07-23 21:22:45
阅读次数:
139
学习大数据分析与应用课程的首要任务,是先了解统计与建模方法和数据挖掘方法所呈现出来的效果,然后依次学习Excel数据处理及编程、MySQL数据库的简单操作及Hadoop的基础知识。从而为进阶、提高打好基础。基础统计与建模方法演示探索性数据分析演示常用概率分布和渐进性演示置信区间和假设检验演示线性回归模型演示广义线性回归模型演示数据挖掘方法演示分类预测基本流程演示数据预处理演示分类方法演示聚类分析演
分类:
其他好文 时间:
2019-07-20 17:15:41
阅读次数:
121
智能运维用到的技术 1.数据聚合/关联技术概念聚类算法AOI分类算法K近邻/贝叶斯分类器/logistic回归(LR)/支持向量机(SVM)/随机森林(RF) 2.数据异常点检测技术独立森林算法 3.故障诊断和分析策略关联规则挖掘(Apriori算法/FP-growth算法)(有)决策树算法(迭代二 ...
分类:
其他好文 时间:
2019-06-19 16:43:16
阅读次数:
137
# Print accuracy predictions = predict(parameters, X) # (np.dot(Y, predictions.T) + np.dot(1 - Y, 1 - predictions.T)) / Y.size print ("Accuracy: {} %"... ...
分类:
其他好文 时间:
2019-01-24 01:18:38
阅读次数:
171
Apache Spark中的决策树 决策树是在顺序决策问题进行分类,预测和促进决策的有效方法。决策树由两部分组成: 决策(Desion) 结果(Outcome) 决策树包含三种类型的节点: 根节点(Root node):包含所有数据的树的顶层节点。 分割节点(Splitting node):将数据分 ...
分类:
Web程序 时间:
2019-01-11 23:23:51
阅读次数:
436
1、算法介绍k近邻算法是学习机器学习的入门算法,可实现分类与回归,属于监督学习的一种。算法的工作原理是:输入一个训练数据集,训练数据集包括特征空间的点和点的类别,可以是二分类或是多分类。预测时,输入没有类别的点,找到k个与该点距离最接近的点,使用多数表决的方法,得出最后的预测分类。2、算法优缺点优点:没有高深的数学思想,容易理解,精度高,对异常值不敏感,无数据输入假定;缺点:计算复杂度高,空间复杂
分类:
编程语言 时间:
2019-01-11 14:13:52
阅读次数:
207
logistic回归是使用最多的分类算法 二分类 预测值:yε{0, 1}, 0代表负类(No, 假设不成立);1代表正类(Yes,假设成立) 应用:邮件分类(垃圾邮件 or 非垃圾邮件) 假设函数 logistic函数又称Sigmoid函数,是一个在生物学中常见的S型函数,也称为S型生长曲线。由于 ...
分类:
其他好文 时间:
2018-12-28 00:08:35
阅读次数:
261
(1) 无监督和有监督算法的区别? 有监督学习: 对具有概念标记(分类)的训练样本进行学习,以尽可能对训练样本集外的数据进行标记(分类)预测。这里,所有的标记(分类)是已知的。因此,训练样本的岐义性低。 无监督学习: 对没有概念标记(分类)的训练样本进行学习,以发现训练样本集中的结构性知识。这里,所 ...
分类:
其他好文 时间:
2018-11-09 12:12:22
阅读次数:
220
概念 决策树(Decision Tree):它通过对训练样本的学习,并建立分类规则,然后依据分类,对新样本数据进行分类预测,属于有监督学习 优点:决策树易于理解和实现,决策树可处理数值型和非数值型数据 步骤 导入数据,确定虚拟变量的列,然后遍历这些列,将这些类的数据转换为分类型数据,再通过get_d ...
分类:
编程语言 时间:
2018-10-06 00:03:25
阅读次数:
288