算法原理 朴素贝叶斯是经典的机器学习算法之一,也是为数不多的基于概率论的分类算法。朴素贝叶斯原理简单,也很容易实现,多用于文本分类,比如垃圾邮件过滤。 该算法的优点在于简单易懂、学习效率高、在某些领域的分类问题中能够与决策树、神经网络相媲美。 但由于该算法以自变量之间的独立(条件特征独立)性和连续变 ...
分类:
编程语言 时间:
2020-06-17 20:14:27
阅读次数:
73
基本思路 Adaboost体现的是“三个臭皮匠,胜过一个诸葛亮”,它是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器), 然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。训练过程如下(参考Andy的机器学习--浅析Adaboost算法,他说得非常形象,贴切。) ...
分类:
编程语言 时间:
2020-06-17 20:12:02
阅读次数:
45
应用实例: 你是否玩过二十个问题的游戏,游戏的规则很简单:参与游戏的一方在脑海里想某个事物,其他参与者向他提问题,只允许提20个问题,问题的答案也只能用对或错回答。问问题的人通过推断分解,逐步缩小待猜测事物的范围。决策树的工作原理与20个问题类似,用户输人一系列数据,然后给出游戏的答案。如下表 假如 ...
分类:
编程语言 时间:
2020-06-17 20:03:36
阅读次数:
41
主要思想 根据现有数据对分类边界线建立回归公式,以此进行分类,其核心是通过最优化算法寻找最佳回归系数(权重系数),主要应用于二分类。 算法原理 二分类的特点是非此即彼,其数学特性符合单位阶跃函数,在某一点会发生突变。这也符合我们现实当中的一些应用场景(比如分数从0 到 60会很容易,越往上你所花的时 ...
分类:
编程语言 时间:
2020-06-17 19:55:29
阅读次数:
55
作者|Renu Khandelwal 编译|VK 来源|Medium 什么是梯度下降? 梯度下降法是一种减少成本函数的迭代机器学习优化算法,使我们的模型能够做出准确的预测。 成本函数(C)或损失函数度量模型的实际输出和预测输出之间的差异。成本函数是一个凸函数。 为什么我们需要梯度下降? 在神经网络中 ...
分类:
其他好文 时间:
2020-06-17 19:53:07
阅读次数:
51
1.KNN 分类算法 由于knn算法涉及到距离的概念,KNN 算法需要先进行归一化处理 1.1 归一化处理 scaler from sklearn.preprocessing import StandardScaler standardScaler =StandardScaler() standar ...
分类:
编程语言 时间:
2020-06-17 18:37:11
阅读次数:
74
非显著式编程的做法 收益函数 1998 Tom MitShell 第一本成熟的教科书:MACHINE LEARNING 典型的最优化问题 为数据打标签(独特行业) 监督学习 强化学习(与环境互动) 非监督学习 需要假设:同一类的训练数据在空间中距离更近->样本的空间信息->设计算法将其分成两类 非监 ...
分类:
其他好文 时间:
2020-06-17 10:44:59
阅读次数:
69
ML.net已经进到了1.5版本。作为Microsoft官方的机器学习模型,你不打算用用? 一、前言 ML.net可以让我们很容易地在各种应用场景中将机器学习加入到应用程序中。这是这个框架很重要的一点。 通过ML.net,我们可以使用手中的可用数据,进行预测、分析、检测,而不需要进行过于复杂的编程。 ...
分类:
Web程序 时间:
2020-06-17 10:34:42
阅读次数:
49
什么是监督学习?什么是无监督学习? 监督学习:有目标y值,如线性回归,分类算法 无监督学习:无目标y值,如聚类 逻辑回归是分类算法,不要被名字误导,得到的是离散值 引入逻辑回归 逻辑回归主要用于二分类 在线性回归中:Y=W1X1+W2X2+W3X3 +...+b=WT*X 在逻辑回归中,习惯用Z表示 ...
分类:
其他好文 时间:
2020-06-17 01:18:52
阅读次数:
55
目录 LDA概述 基础知识 LDA主题模型 总结 一句话简述:2003年提出的,LDA是一种无监督的词袋式隐含主题模型,LDA给出文档属于每个主题的概率分布,同时给出每个主题上词的概率分布。在文本主题识别、文本分类、文本相似度计算和文章相似推荐等方面都有应用。 一、LDA概述 在机器学习领域,LDA... ...
分类:
其他好文 时间:
2020-06-16 20:19:05
阅读次数:
50