一、隐语义模型(LFM Latent Factor Mode) 基于样本的用户偏好信息,训练一个推荐模型,然后根据实时的用户喜好信息进行预测新物品的得分,计算推荐 目标:揭示隐藏特征 方法:矩阵分解进行降维分析【分解之后的矩阵代表了用户和物品的隐藏特征】 1、LFM降维方法-矩阵因子分解 想要发现K ...
分类:
编程语言 时间:
2019-09-03 09:16:02
阅读次数:
107
基本形式: $f(x_{i})=W^{T}X_{i} + b$,使得$f(x_{i}) \approx y_{i}$ 最小二乘估计: $\widehat{w}^{*}= \underset{\widehat{w}}{arg min}(y - X\widehat{w})^{T}(y - X\wideh ...
分类:
其他好文 时间:
2019-08-26 00:36:32
阅读次数:
74
Scipy库在numpy库基础上增加了众多数学,科学及工程计算中常用库函数。如线性代数,常微分方程数值求解,信号处理,图像处理,稀疏矩阵等。 如下理解通过Scipy进行最小二乘法拟合运算 最小二乘拟合(optimize子函数) from scipy.optimize import leastsq o ...
分类:
其他好文 时间:
2019-08-04 15:34:35
阅读次数:
123
最小二乘法是用来做函数拟合或者求函数极值的方法。在机器学习,尤其是回归模型中,经常可以看到最小二乘法的身影,这里就对我对最小二乘法的认知做一个小结。# 一、1.最小二乘法的原理与要解决的问题 最小二乘法是由勒让德在19世纪发现的,原理的一般形式很简单,当然发现的过程是非常艰难的。形式如下式:$$目标... ...
分类:
其他好文 时间:
2019-07-19 18:48:57
阅读次数:
107
在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。这里就对梯度下降法做一个完整的总结。# 一、梯度 在微积分里面,对多元函数的参数求?偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数... ...
分类:
其他好文 时间:
2019-07-19 18:28:57
阅读次数:
87
最小二乘法则是一种统计学习优化技术,它的目标是最小化误差平方之和来作为目标J(θ)J(θ),从而找到最优模型。 7. SciPy最小二乘法 最小二乘法则是一种统计学习优化技术,它的目标是最小化误差平方之和来作为目标J(θ),从而找到最优模型。 1、线性最小二乘法 假设真实的模型是y=2x+1,我们有 ...
分类:
其他好文 时间:
2019-07-15 17:29:33
阅读次数:
387
''' 岭回归: 普通线性回归模型使用基于梯度下降的最小二乘法,在最小化损失函数的前提下,寻找最优模型参数, 在此过程中,包括少数异常样本在内的全部训练数据都会对最终模型参数造成程度相等的影响, 异常值对模型所带来影响无法在训练过程中被识别出来。为此,岭回归在模型迭代过程所依据的损失函数中增加了正则... ...
分类:
其他好文 时间:
2019-07-14 09:37:12
阅读次数:
140
现性回归:若存在两个数据集合,它们几乎存在线性关系,通过最小二乘法原理,将它们拟合成一个线性函数,这个过程叫线性回归。 逻辑回归:是一个用于分类的模型,如果两个类别线性可分,在先验的类别信息已知条件下,通过线性映射和sigmoid函数;迭代调整决策平面,并将分类决策面两侧的类别数据映射到【0,1】的 ...
分类:
其他好文 时间:
2019-07-04 11:06:07
阅读次数:
136
1、线性回归 回归的目的是预测数值型数据的目标值。目标值的计算是通过一个线性方程得到的,这个方程称为回归方程,各未知量(特征)前的系数为回归系数,求这些系数的过程就是回归。 对于普通线性回归使用的损失函数一般为平方误差。把其用最小二乘法进行优化得到的关于系数w求导所得到的矩阵形式的表达式求得的w便为 ...
分类:
其他好文 时间:
2019-06-23 16:10:10
阅读次数:
139