目录: 1.什么是迁移学习? 2.为什么现在需要迁移学习? 3.迁移学习的定义 4.迁移学习的场景 5.迁移学习的应用 从模拟中学习 适应到新的域 跨语言迁移知识 从模拟中学习 适应到新的域 跨语言迁移知识 6.迁移学习的方法 使用预训练的 CNN 特征 学习域不变的表征 让表征更加相似 混淆域 使 ...
分类:
其他好文 时间:
2017-05-14 16:54:56
阅读次数:
597
稍稍乱入的CNN,本文依然是学习周莫烦视频的笔记。 还有 google 在 udacity 上的 CNN 教程。 CNN(Convolutional Neural Networks) 卷积神经网络简单讲就是把一个图片的数据传递给CNN,原涂层是由RGB组成,然后CNN把它的厚度加厚,长宽变小,每做一 ...
分类:
其他好文 时间:
2017-05-14 13:44:22
阅读次数:
252
一、状态和模型 在CNN网络中的训练样本的数据为IID数据(独立同分布数据),所解决的问题也是分类问题或者回归问题或者是特征表达问题。但更多的数据是不满足IID的,如语言翻译,自动文本生成。它们是一个序列问题,包括时间序列和空间序列。这时就要用到RNN网络,RNN的结构图如下所示: 序列样本一般分为 ...
分类:
其他好文 时间:
2017-05-12 20:11:06
阅读次数:
2398
1.为什么局部连接? 局部感受野,局部连接可以学到边缘、端点等特征,然后经过CNN的逐层局部连接又可以讲这些组合得到主键抽象的高层特征 2.为什么权值共享? 为了学到图像的不同位置的相同类型的特征,比如学到斜线?直线?等,有效减少参数数目,比起全连接的网络模型也更加泛化? 2a,权值共享体现在哪里? ...
分类:
其他好文 时间:
2017-05-12 00:16:18
阅读次数:
138
首先看一下卷积神经网络模型,如下图: 卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC池化层:为了减少运算量和数据维度而设置的一种层。 代码如下: ...
分类:
其他好文 时间:
2017-05-10 11:27:16
阅读次数:
259
Model: 1、预处理 ,使用word2Vec 进行词向量转换 -> K维的词向量: ,所以一个句子就是 2、当过滤窗口设为h时,移动窗口设为1时,特征的卷积可变为之后特征便会缩减为 3、她的下一层设为softmax layer 作为分类标签的概率分布 4、特色在于设置了两种词向量,一种是在训练中 ...
分类:
其他好文 时间:
2017-05-09 21:40:24
阅读次数:
206
问题: 当使用Keras运行示例程序mnist_cnn时,出现如下错误: 'keras.backend' has no attribute 'image_data_format' 程序路径https://github.com/fchollet/keras/blob/master/examples/m ...
分类:
编程语言 时间:
2017-05-06 15:09:48
阅读次数:
711
一、CNN的引入在人工的全连接神经网络中,每相邻两层之间的每个神经元之间都是有边相连的。当输入层的特征维度变得很高时,这时全连接网络需要训练的参数就会增大很多,计算速度就会变得很慢,例如一张黑白的 2...
分类:
其他好文 时间:
2017-05-03 22:46:21
阅读次数:
1529
原文地址 图像卷积与滤波的一些知识点 zouxy09@qq.com http://blog.csdn.net/zouxy09 之前在学习CNN的时候,有对卷积进行一些学习和整理,后来就烂尾了,现在稍微整理下,先放上来,以提醒和交流。 一、线性滤波与卷积的基本概念 线性滤波可以说是图像处理最基本的方法 ...
分类:
其他好文 时间:
2017-05-02 21:09:08
阅读次数:
220