背景 学习 "Linear Regression in Python – Real Python" ,对线性回归理论上的理解做个回顾,文章是前天读完,今天凭着记忆和理解写一遍,再回温更正。 线性回归(Linear Regression) 刚好今天听大妈讲机器学习,各种复杂高大上的算法,其背后都是在求 ...
分类:
编程语言 时间:
2020-01-09 00:40:01
阅读次数:
100
GBDT(梯度提升迭代决策树) 总结 优先解决回归问题,将第一个数据的残差传入到第二个数据中去 构建下一个数据集的数据是上一个数据集的残差 详述 GBDT也是Boosting算法的一种,但是和AdaBoost算法不同;区别如下: AdaBoost算法是利用前一轮的弱学习器的误差来更新样本权重值,然后 ...
分类:
编程语言 时间:
2020-01-01 17:03:27
阅读次数:
195
从本质上讲,深度残差收缩网络属于卷积神经网络,是深度残差网络(deep residual network, ResNet)的一个变种。它的核心思想在于,在深度学习进行特征学习的过程中,剔除冗余信息是非常重要的;软阈值化是一种非常灵活的、删除冗余信息的方式。 1.深度残差网络 首先,在介绍深度残差收缩 ...
分类:
其他好文 时间:
2020-01-01 09:44:06
阅读次数:
103
深度残差收缩网络是一种新颖的深度学习算法,实际上是深度残差网络的升级版本,能够在一定程度上提高深度学习方法在含噪数据上的特征学习效果。 首先,简单回顾一下深度残差网络,深度残差网络的基本模块如下图所示。相较于普通的卷积神经网络,深度残差网络引入了跨层的恒等映射,来减小模型训练的难度,提高准确率。 然 ...
分类:
其他好文 时间:
2019-12-28 22:54:46
阅读次数:
138
https://zhuanlan.zhihu.com/p/32525231 (yolo v1) https://zhuanlan.zhihu.com/p/35325884 (yolo v2, 相比较于v1,有了许多小tricks,包括BN;anchors;kmeans-prior聚类;置信度变为每个 ...
分类:
其他好文 时间:
2019-12-27 09:43:25
阅读次数:
99
奥卡姆剃刀:Occam’s razor 半监督学习:semi supervised learning 标注:tagging 不完全数据:incomplete data 参数空间:parameter space 残差:residual 测试集:test set 测试数据:test data 测试误差: ...
分类:
其他好文 时间:
2019-12-25 17:38:42
阅读次数:
127
残差网络(Residual Networks, ResNets) 1. 什么是残差 “残差在数理统计中是指实际观察值与估计值(拟合值)之间的差。”“如果回归模型正确的话, 我们可以将残差看作误差的观测值。” 更准确地,假设我们想要找一个 xx,使得 f(x)=bf(x)=b,给定一个 xx 的估计值 ...
分类:
Web程序 时间:
2019-12-21 22:22:31
阅读次数:
279
主要工作: 卷积神经网络 U-Net 改进注意力机制 ARU-Net网络与U-Net一样呈对称结构,无全连接层,输入的图像大小可不相同,但输出的结果与输入的图像大小一致,对于每一个像素点进行分类,从而实现图像的分割。该网络添加残差映射和注意力机制,可以提高了特征的使用率,进而提升钩骨分割的准确率。该 ...
分类:
Web程序 时间:
2019-12-21 15:41:19
阅读次数:
129
神经网络的层数决定了模型的容量 网络层数加深,容易陷入局部最优解,梯度消失问题严重 ResNet 解决或缓解深层的神经网络训练中的梯度消失问题 层数更深的网络反而具有更大的训练误差,很大程度归结于梯度消失问题 误差传播涉及非常多的参数和导数的连乘,很容易导致梯度消失或者膨胀 ResNet 既然离输入 ...
分类:
其他好文 时间:
2019-11-24 17:52:11
阅读次数:
62
1、经典网络: (1)LeNet-5:识别手写数字 (2)AlexNet: (3)VGG-16: 2、Residual networks(ResNets 残差网络): (1)Residual block(残差块): 多个残差块构成一个残差网络: (2)残差网络的优势: 理论上,随着神经网络的深入,训 ...
分类:
其他好文 时间:
2019-11-15 22:29:12
阅读次数:
81