前几天认把感知机这一章读完了,顺带做了点笔记 现在把笔记做第三次的整理 零、总结 1. 适用于具有 线性可分的数据集的二分类问题 ,可以说是很局限了 2. 感知机本质上是一个分离超平面 3. 在向量维数(特征数)过高时,选择对偶形式算法 在向量个数(样本数)过多时,应选择原始算法 4. 批量梯度下降 ...
分类:
其他好文 时间:
2018-05-01 12:39:37
阅读次数:
172
前言: 这是一篇记录渣本学习机器学习过程的随笔。 正文: 支持向量机(SVM)是一组用于分类, 回归和异常值检测的监督学习方法。 在分类问题中,SVM就是要找到一个同时离各个类别尽可能远的决策边界即最大化margin(margin为图中2虚线的距离)。这种尽可能远的思想能够提高模型的泛化能力。 虚线 ...
分类:
其他好文 时间:
2018-04-29 14:36:54
阅读次数:
353
整理自Andrew Ng的machine learning课程week 4. 目录: 为什么要用神经网络 神经网络的模型表示 1 神经网络的模型表示 2 实例1 实例2 多分类问题 1、为什么要用神经网络 当我们有大量的features时:如$x_1, x_2,x_3.......x_{100}$ ...
分类:
Web程序 时间:
2018-04-28 19:21:48
阅读次数:
215
1、做多分类问题时候(mutticlass),如果遇到 ...
分类:
其他好文 时间:
2018-04-28 14:23:53
阅读次数:
3083
一般来说,回归不用在分类问题上,因为回归是连续型模型,而且受噪声影响比较大。如果非要应用进入,可以使用logistic回归。logistic回归本质上是线性回归,只是在特征到结果的映射中加入了一层函数映射,即先把特征线性求和,然后使用函数g(z)函数来预测。 下面介绍一个线性逻辑回归的案例,这里被用 ...
分类:
其他好文 时间:
2018-04-25 22:10:48
阅读次数:
269
一、线性分类器: 首先给出一个非常非常简单的分类问题(线性可分),我们要用一条直线,将下图中黑色的点和白色的点分开,很显然,图上的这条直线就是我们要求的直线之一(可以有无数条这样的直线) 假如说,我们令黑色的点 = -1, 白色的点 = +1,直线f(x) = w.x + b,这儿的x、w是向量,其 ...
分类:
其他好文 时间:
2018-04-22 13:59:58
阅读次数:
188
1.不同输出空间上的学习 二分类问题 多分类问题 回归问题 结构化的问题(有趣且复杂,可从多分类的问题衍生而来) ... 2.不同数据标签上的学习 有监督的学习 无监督的学习 无监督的多分类 聚类 (比监督式的困难,但是更实用) 无监督的应用: 聚类 文章 = 主题 用户画像 = 用户群 密度分析 ...
分类:
其他好文 时间:
2018-04-21 19:41:03
阅读次数:
145
华盛顿大学 机器学习 笔记。 k-means的局限性 k-means 是一种硬分类(hard assignment)方法,例如对于文档分类问题,k-means会精确地指定某一文档归类到某一个主题,但很多时候硬分类并不能完全描述这个文档的性质,这个文档的主题是混合的,这时候需要软分类(soft ass ...
分类:
其他好文 时间:
2018-04-19 17:45:40
阅读次数:
244
1.回归问题:输入变量和输出变量均为连续变量的预测问题。等价于函数拟合,回归模型表示输入变量到输出变量之间映射的函数。 2. 分类问题:输出变量为有限个离散变量的预测问题称为分类问题 3.标注问题:输入变量和输出变量均为变量序列的预测问题 4.假设空间:模型属于有输入空间到输出空间的映射的集合,这个 ...
分类:
其他好文 时间:
2018-04-18 21:17:20
阅读次数:
138
八、神经网络:表述 8.1 非线性假设 为什么需要提出神经网络,当我们在用逻辑回归或者线性回归处理分类问题时,当特征的数量较少时我们可以很好的处理,但是当特征的数量很大时,比如特征的数量为n,而很多时候我们的这些特征可能还会组合在一起形成新的特征,例如每个都两两组合就会有n2/2,而如果考虑多个组合 ...
分类:
其他好文 时间:
2018-04-14 16:19:14
阅读次数:
254