torch.nn.utils.rnn.pack_padded_sequence() 这里的pack,理解成压紧比较好。 将一个 填充过的变长序列 压紧。(填充时候,会有冗余,所以压紧一下) 其中pack的过程为:(注意pack的形式,不是按行压,而是按列压) (下面方框内为PackedSequenc ...
分类:
其他好文 时间:
2018-10-23 00:43:42
阅读次数:
3346
如果想在训练和验证时监视不同的summary,将train summary ops和val summary ops放进不同的集合中即可。 ...
分类:
其他好文 时间:
2018-10-22 20:19:39
阅读次数:
348
1.算法描述 最近在做AutoEncoder的一些探索,看到2016年的一篇论文,虽然不是最新的,但是思路和方法值得学习。论文原文链接 http://proceedings.mlr.press/v48/xieb16.pdf,论文有感于t-SNE算法的t-分布,先假设初始化K个聚类中心,然后数据距离中 ...
分类:
编程语言 时间:
2018-10-22 00:07:02
阅读次数:
577
IRF典型配置举例(BFD MAD检测方式)1. 组网需求 由于网络规模迅速扩大,当前中心交换机(Device A)转发能力已经不能满足需求,现需要在保护现有投资的基础上将网络转发能力提高一倍,并要求网络易管理、易维护。2. 组网图 IRF 典型配置组网图(BFD MAD 检测方式) 3. 配置思路 ...
分类:
其他好文 时间:
2018-10-21 12:13:51
阅读次数:
257
网络要做的步骤:(一个中国人,给中国人教学,为什么要写一堆英语?) 1, sample abatch of data(数据抽样) 2,it through the graph ,get loss(前向传播,得到损失值) 3,backprop to calculate the geadiets(反向传 ...
分类:
其他好文 时间:
2018-10-16 11:54:07
阅读次数:
378
Siamese network 训练神经网络存在两种形式: 第一种:通过Siamese network 和 三元组损失函数 来训练图片之间的间隔 第二种: 通过Siamese network 和 sigmoid函数来实现二分类的训练 第一种情况: 在最后一层使用得是128, 1, d(x(1), x ...
分类:
编程语言 时间:
2018-10-15 14:28:59
阅读次数:
845
1)机器学习模型理解 统计学习,神经网络 2)预测结果的衡量 代价函数(cost function)、损失函数(loss function) 3)线性回归是监督学习 ...
分类:
编程语言 时间:
2018-10-14 22:01:05
阅读次数:
230
用keras搭好模型架构之后的下一步,就是执行编译操作。在编译时,经常需要指定三个参数 loss optimizer metrics 这三个参数有两类选择: 使用字符串 使用标识符,如keras.losses,keras.optimizers,metrics包下面的函数 例如: 因为有时可以使用字符 ...
分类:
其他好文 时间:
2018-10-13 19:55:59
阅读次数:
1383
softmax loss: N是样本的数量,i代表第i个样本,j代表第j个类别,fyi代表着第i个样本所属的类别的分数 fyi是全连接层的输出,代表着每一个类别的分数, 每一个分数即为权重W和特征向量X的内积 每个样本的softmax值即为: L-softmax loss: 假设一个2分类问题,x属 ...
分类:
其他好文 时间:
2018-10-12 13:57:31
阅读次数:
1385
Introduction Under some circumstances, it is useful for a client or server to become aware of the termination or loss of connection with its peer. In ...
分类:
其他好文 时间:
2018-10-11 01:30:47
阅读次数:
160