深度学习常见问题解析 计算机视觉与自动驾驶 今天 一、为什么深层神经网络难以训练? 1、梯度消失。梯度消失是指通过隐藏层从后向前看,梯度会变得越来越小,说明前面层的学习会显著慢于后面层的学习,所以学习会卡主,除非梯度变大。 梯度消失的原因:学习率的大小,网络参数的初始化,激活函数的边缘效应等。在深层 ...
分类:
其他好文 时间:
2020-03-30 09:45:17
阅读次数:
97
角点广义定义: 不同方向线条的交点。如下图: 数字图像中角点定义: 像素点附近区域像素无论是在梯度方向,还是在梯度幅值上都发生较大变化 一阶导数(灰度图像的梯度)的局部最大所对应的像素点 两条及两条以上边缘的交点 图像中梯度值和梯度方向变化速率都很高的像素点 角点处一阶导数最大、二阶导数为0,指示物 ...
分类:
其他好文 时间:
2020-03-26 19:17:30
阅读次数:
102
介绍页面的角点提取,方便后续的homography warp,结合前面介绍的增强,基本可以完成一个简易的扫描功能 ...
分类:
其他好文 时间:
2020-03-25 23:05:09
阅读次数:
84
实质理解: 训练过程: CNN在做卷积的时候,每一层的输出(可理解为形成的高维特征向量)是通过卷积的前向传播算法和反向传播算法(也就是梯度下降算法),结合真实的标签(前向传播结果与真实标签做误差), 将前向传播的结果无限逼近具有真实标签,在此过程中不断的更新权重,形成具有真实标签类别信息的权重矩阵。 ...
分类:
其他好文 时间:
2020-03-23 20:35:15
阅读次数:
83
import cv2import numpy as npdef blur_demo(image): dst = cv2.blur(image,(5,5)) #5*5 blur[均值模糊] cv2.imshow('blur demo',dst)def median_blur_demo(image): ...
分类:
编程语言 时间:
2020-03-23 20:12:49
阅读次数:
76
LambdaMART 之 lambda 概念 LTR 排序学习主要用于对召回结果的精排,主流使用基于pair(文档对标记)的 LambdaMART 算法,该算法由两部分组成:lambda + MART(GBDT:梯度提升树)。lambda是MART求解过程使用的梯度,其物理含义是一个待排序的文档下一 ...
分类:
其他好文 时间:
2020-03-21 14:52:19
阅读次数:
66
https://www.bilibili.com/video/av89601743 哔哩哔哩上面有一位道友专门针对《简单粗暴》分享了他的个人经验,我也跟着复习了一遍,挑一些重点的记录一下 这是一个工程师的角度,从开发的角度理解t f的构建 其实求梯度、导数、斜率都差不多的概念 然后是求他们的损失函数 ...
分类:
其他好文 时间:
2020-03-20 16:53:08
阅读次数:
106
请注意本文的神经网络的结构略不同于以往的神经网络。在这里,只有点与点的连线上会有激活函数,一个节点本身是不会有运算的。 看了网上大部分文章和3B1B的视频,BP算法用到的就是链式法则。但由于数学家喜欢把一件事情复杂化,程序员喜欢用矩乘来优化复杂度,BP算法就看上去有些难以理解。 最近看了CNN,自己 ...
分类:
其他好文 时间:
2020-03-18 23:58:43
阅读次数:
199
本文始发于个人公众号: TechFlow ,原创不易,求个关注 今天是机器学习专题的第12篇文章,我们一起来看下Kmeans聚类算法。 在上一篇文章当中我们讨论了KNN算法,KNN算法非常形象,通过距离公式找到最近的K个邻居,通过邻居的结果来推测当前的结果。今天我们要来看的算法同样非常直观,也是最经 ...
分类:
编程语言 时间:
2020-03-18 09:47:48
阅读次数:
91
详细推导线性回归 关键词:线性回归; linear Regression. 绪论 根据李航的归纳,机器学习模型有三要素,分别是:模型、策略和算法。为了简单好记,本文认为,在线性回归问题中,模型、策略和算法可以做如下简记: 模型 = 模型 策略 = 损失函数 + 优化目标 算法 = 解析解/数值计算方 ...
分类:
其他好文 时间:
2020-03-17 23:51:18
阅读次数:
74