在公司晨会对称过程中,好几次问到了了相关性分析,正巧看到这个google的开源库,并把相关操作与调试结果记录下来。 小说集可以百度《金庸小说全集 14部》全(TXT)作者:金庸 下载下来。需要整理好格式,门派和武功名称之间需要有换行符,留意删除掉最后一行的空白区域。下载完成后可以用自己习惯的工具或程 ...
分类:
编程语言 时间:
2018-01-17 00:30:51
阅读次数:
211
TensorFlow四种Cross Entropy算法实现和应用 对比两个函数tf.nn.softmax_cross_entropy_with_logits和tf.nn.sparse_softmax_cross_entropy_with_logits 从神经网络视角看均方误差与交叉熵作为损失函数时的 ...
分类:
其他好文 时间:
2018-01-12 11:29:00
阅读次数:
177
昨天: (1)找到了一个Spyder,运行出了网上的一段代码。 (2)收到了老师的数据,目前的方向是CNN和hierarchical clustering(层次聚类) (3)在网上的视频看到了代码,应该看看并尝试运行。 今天: (1)运行:左边 Tensorflow(现已支持Windows) (2) ...
分类:
其他好文 时间:
2018-01-06 00:33:52
阅读次数:
172
学习目标 -理解分层查询概念 -创建树形组织报告 -格式化分层数据 -树形组织排除分支 分层查询 语法 SELECT [LEVEL],<column>,exper ... FROM <table_name> [WHERE condition(s)] START WITH condition(s) C ...
分类:
其他好文 时间:
2018-01-06 00:05:09
阅读次数:
187
大概用了有小半个月的时间断断续续的完成了作业1,因为期间每天都还在读论文,所以进度有些落后,不过做完感觉也是收获颇丰。 附上地址 http://note.youdao.com/noteshare?id=d9cadbb038e384c738c4bf27fcdec3fa ...
分类:
其他好文 时间:
2018-01-05 15:40:56
阅读次数:
138
我们知道卷积神经网络(CNN)在图像领域的应用已经非常广泛了,一般一个CNN网络主要包含卷积层,池化层(pooling),全连接层,损失层等。虽然现在已经开源了很多深度学习框架(比如MxNet,Caffe等),训练一个模型变得非常简单,但是你对这些层具体是怎么实现的了解吗?你对softmax,sof ...
分类:
其他好文 时间:
2018-01-04 12:26:27
阅读次数:
180
1.反向传播 关于反向传播我的理解是这样的,SVM和SoftMax可以看成一层神经网络,你如果想要调整它的W很简单,只有求导就可以了,但是当神经网络有多层的话,你无法直接求导来更新最开始层的W,于是就出现了反向传播这个工具。至于神经网络为什么需要多层,理由有很多,我先举个例子,比如一个汽车在图片里面 ...
分类:
其他好文 时间:
2018-01-03 14:09:32
阅读次数:
207
1.理解线性分类器 目前我了解学习的线性分类器有2个:SVM和逻辑回归(也就是SoftMax),这2个分类器的主体都是一样,不同的地方就是生成损失函数不一样。所以我先讲主体,再讲损失函数,关于线性分类器,大体就是这个样子: 图片说明:生成这三根直线就是三个线性分类器,如果生成了这三根直线后,后面再有 ...
分类:
其他好文 时间:
2018-01-03 14:04:14
阅读次数:
141
本文介绍如何使用keras作图片分类(2分类与多分类,其实就一个参数的区别。。。呵呵) 先来看看解决的问题:从一堆图片中分出是不是书本,也就是最终给图片标签上:“书本“、“非书本”,简单吧。 先来看看网络模型,用到了卷积和全连接层,最后套上SOFTMAX算出各自概率,输出ONE-HOT码,主要... ...
分类:
其他好文 时间:
2017-12-31 00:40:44
阅读次数:
218
RNN RNN无法回忆起长久的记忆 LSTM (long short Term memory长短期记忆)解决梯度消失或弥散vanishing 和梯度爆炸explosion 0.9*n-->0 1.1*n >无穷大 在RNN中增加了Gate 案例 所以RNN无法回忆起长久的记忆。LSTM为了解决该问题 ...
分类:
其他好文 时间:
2017-12-27 15:22:30
阅读次数:
315