本程序使用的是Jupyte Notebook ...
分类:
其他好文 时间:
2020-04-05 22:36:08
阅读次数:
81
BiasLFM(bias latent factor model)带偏置项的隐语义推荐模型,加入三个偏置项(所有评分的平均,用户偏置项表示用户的评分习惯和物品没关系, * 物品偏置项表示物品接受的评分中和用户没关系的因素)矩阵分解,训练得到U,I矩阵,以及用户偏置项和物品偏置项 * 对user-it ...
分类:
编程语言 时间:
2020-04-02 22:42:19
阅读次数:
116
Reference: https://developers.google.com/machine-learning/crash-course/reducing-loss/learning-rate Learning Rate 正如之前所述,梯度矢量具有方向和大小。梯度下降法算法用梯度乘以一个称为学习 ...
分类:
其他好文 时间:
2020-04-02 15:51:48
阅读次数:
91
1. 基本算法 1.1 随机梯度下降 1.2 动量算法 1.3 nesterov动量算法 2. 自适应学习率算法 2.1 AdaGrad 2.2 RMSProp 2.3 Adam 3. 二阶导数方法 3.1 牛顿法 3.2 共轭梯度法 1.1 随机梯度下降 从数据集中随机抽取m个小批量样本(满足样本 ...
分类:
编程语言 时间:
2020-04-02 01:36:38
阅读次数:
106
2020年04月01号 愚人时节在家作,期待清明小假期,此才星期三,心里压力大而影响睡眠,因而也引起了心跳不稳,心率紊乱,状态及精神严重不足。 继续沿用昨日的图来作为开篇之语! 今日之收获: ★ 学习了机器学习的数学课程,梯度下降及牛顿优化法。 ★ 开篇看道德经<众妙之门> ★ 记做case两年来, ...
分类:
其他好文 时间:
2020-04-02 01:12:31
阅读次数:
98
最初目的:搞清楚网络深度与模型的识别精度和准确率之间的关系。 获得的结果:不能无限制的加深网络,在网络加深到一定层数之后就会出现训练效果褪化、梯度消逝或者梯度爆炸等问题。 主要的贡献: 1、提出用多层3 x 3的卷积层来替换大尺寸的卷积核,从而提升网络深度。 2、使用1 x 1的卷积核进行各通道的特 ...
分类:
其他好文 时间:
2020-04-01 16:25:19
阅读次数:
91
在梯度提升树(GBDT)原理小结中,我们对GBDT的原理做了总结,本文我们就从scikit-learn里GBDT的类库使用方法作一个总结,主要会关注调参中的一些要点。 1. scikit-learn GBDT类库概述 在sacikit-learn中,GradientBoostingClassifie ...
分类:
其他好文 时间:
2020-03-31 23:06:06
阅读次数:
105
一、单层感知机(Perceptron) 1、定义:多个输入直接加权求和后,得到一个输出节点,经过激活函数,得到一个值 2、单层感知机求导 导数结果,只与激活函数 O0 和 输入节点 xj 有关 3、pytorch中实现单层感知机 二、多层感知机 多层感知机求导: 多层感知机pytorch的实现: ...
分类:
其他好文 时间:
2020-03-31 17:16:19
阅读次数:
64
1 什么是逻辑回归 1.1逻辑回归与线性回归的区别: 线性回归预测的是一个连续的值,不论是单变量还是多变量(比如多层感知器),他都返回的是一个连续的值,放在图中就是条连续的曲线,他常用来表示的数学方法是Y=aX+b; 与之相对的,逻辑回归给出的值并不是连续的,而是 类似于“是” 和 “否” 的回答, ...
分类:
其他好文 时间:
2020-03-30 19:35:21
阅读次数:
74
版本:Pytorch 1.0 代码是在jupter中执行的。 导包: import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torchvision imp ...
分类:
其他好文 时间:
2020-03-30 11:11:21
阅读次数:
71