转自 http://www.cnblogs.com/ModifyRong/p/7739955.html 1.简介 逻辑回归是面试当中非常喜欢问到的一个机器学习算法,因为表面上看逻辑回归形式上很简单,很好掌握,但是一问起来就容易懵逼。所以在面试的时候给大家的第一个建议不要说自己精通逻辑回归,非常容易被 ...
分类:
其他好文 时间:
2019-04-18 09:17:39
阅读次数:
120
在逻辑回归中,我们将二元响应\(Y_i \)回归到协变量\(X_i \)上。 下面的代码使用Metropolis采样来探索\(\ beta_1 \)和\(\ beta_2 \)的后验。 YiYi到协变量XiXi。让 定义expit和logit链接函数 这是MCMC的主要功能。can.sd是候选标准偏 ...
分类:
编程语言 时间:
2019-04-16 17:47:49
阅读次数:
381
这篇文章整理有关注意力机制(Attention Mechanism )的知识,主要涉及以下几点内容: 1、注意力机制是为了解决什么问题而提出来的? 2、软性注意力机制的数学原理; 3、软性注意力机制与Encoder-Decoder框架; 4、自注意力模型的原理。 一、注意力机制可以解决什么问题? 神 ...
分类:
其他好文 时间:
2019-04-16 01:12:27
阅读次数:
328
<机器学习基础> 逻辑回归,SVM,决策树 1、逻辑回归和SVM的区别是什么?各适用于解决什么问题? https://www.zhihu.com/question/24904422 2、Linear SVM 和 线性回归 有什么异同? 答案:https://www.zhihu.com/questio ...
分类:
编程语言 时间:
2019-03-25 17:55:13
阅读次数:
232
由于分类问题的输出是0、1这样的离散值,因而回归问题中用到的线性回归模型就不再适用了。对于分类问题,我们建立逻辑回归模型。 针对逻辑回归模型,主要围绕以下几点来讨论。 Logistic Regression (逻辑回归) Sigmoid Function (逻辑函数) Decision Bounda ...
分类:
其他好文 时间:
2019-03-22 00:30:49
阅读次数:
132
常见损失函数记录,主要是自己记一下公式,没啥讲解 均方误差,绝对值损失,0 1损失 最简单的几种,没啥好说的 $$ L(Y, f(X))=(Y f(X))^{2} \\ L(Y, f(X))=\left\{\begin{array}{ll}{1,} & {Y \neq f(X)} \\ {0,} & ...
分类:
其他好文 时间:
2019-03-14 14:59:01
阅读次数:
179
https://blog.csdn.net/red_stone1/article/details/80212814什么是梯度?对于梯度下降算法(Gradient Descent Algorithm),我们都已经很熟悉了。无论是在线性回归(Linear Regression)、逻辑回归(Logisti ...
分类:
其他好文 时间:
2019-03-14 10:24:37
阅读次数:
203
来自:刘建平 逻辑回归是分类算法,可以处理二元分类和多元分类。 名字里有“回归”二字,但不是回归算法。为什么名字有“回归”这个误导词?因为它的原理有回归模型的影子。 1. 从线性回归到逻辑回归 线性回归模型是求Y和X之间的线性关系系数Θ,满足Y= XΘ。此时Y是连续的,所以是回归模型。 Y是离散的话 ...
分类:
其他好文 时间:
2019-03-10 20:55:39
阅读次数:
750
神经网络的反向传播到底是个什么样的过程?今天就用链式求导揭开这个黑盒子。 这对于理解和设计神经网络很有帮助。 我们使用一个简单的逻辑回归的例子 这里绿色是前向计算,褐红色是反向传播。 0.73是最终输出,1是误差。 可以看到整个计算流程就是上面那个逻辑回归表达式。 好了,误差有了,开始反向传播吧 很 ...
分类:
其他好文 时间:
2019-03-04 19:15:39
阅读次数:
413
线性回归, 逻辑回归与神经网络公式相似点 + 线性回归与逻辑回归 线性回归的损失函数 $$ J(\theta)={1\over{2m}}\sum_{i=1}^{m}(h_\theta(x^{(i)}) y^{(i)})^2 $$ 逻辑回归的损失函数 $$ J(\theta)={ 1\over{m}} ...
分类:
其他好文 时间:
2019-03-03 18:50:12
阅读次数:
169