import numpy,math def softmax(inMatrix): m,n = numpy.shape(inMatrix) outMatrix = numpy.mat(numpy.zeros((m,n))) soft_sum = 0 for idx in range(0,n): out... ...
分类:
编程语言 时间:
2019-02-06 11:58:07
阅读次数:
202
Keras 文档http://keras.io 使用GPU加速模型训练: 训练深度神经网络的一些策略,用于提升模型精确度 1)选择合适的代价函数loss:MSE (Mean Squared Error)均方误差,Cross Entropy交叉熵。当输出层为softmax层时,选择交叉熵代价函数更为科 ...
分类:
其他好文 时间:
2019-02-03 18:24:02
阅读次数:
340
BIT has recently taken delivery of their new supercomputer, a 32 processor Apollo Odyssey distributed shared memory machine with a hierarchical commun ...
分类:
其他好文 时间:
2019-01-28 01:05:42
阅读次数:
128
函数说明: 1. from gensim.model import word2vec 构建模型 word2vec(corpus_token, size=feature_size, min_count=min_count, window=window, sample=sample) 参数说明:corp ...
分类:
其他好文 时间:
2019-01-27 14:42:31
阅读次数:
339
今天试用OpenVINO的例子,在过程中发现了一些其他人没有经历的坑特别记录一下。 出错时候:执行Intel OpenVINO示例的是时候,出错的提示代码: 原因:白痴Intel忘记在使用 “_mm_blendv_ps”的地方引入头文件了。 解决方法: 1.打开“ ”目录 2.打开softmax.h ...
分类:
其他好文 时间:
2019-01-25 16:31:44
阅读次数:
1120
>>> a=np.array([[-2.6, -1.7, -3.2, 0.1], [-2.6, -1.7, 3.2, 0.1]]) >>> z=tf.nn.sparse_softmax_cross_entropy_with_logits(logits=a,labels=[2,2]) >>> sess... ...
分类:
其他好文 时间:
2019-01-22 21:53:36
阅读次数:
194
上次写的一层神经网络也都贴这里了。 我有点困,我先睡觉,完了我再修改 这个代码写法不太符合工业代码的规范,仅仅是用来学习的的。还望各位见谅 import sys,ossys.path.append(os.pardir)import numpy as npfrom tensorflow.example... ...
分类:
其他好文 时间:
2019-01-22 13:14:54
阅读次数:
153
1.CNN_my_test.py 分3个部分 1.将需要记录的变量用一下函数记录 图像 散点图 2.生成实现变量记录的对象,和记录文件路径 3.训练时进行记录 ...
分类:
其他好文 时间:
2019-01-18 19:52:19
阅读次数:
283
1.训练数据: 2. 从保存的模型中读取数据 注意: 卷积神经网络:conv2d ->pool->relu(softmax二分类) 多层卷积神经网络的使用,注意使用卷积核的个数,步长及大小。 ...
分类:
其他好文 时间:
2019-01-14 01:04:58
阅读次数:
309
softmax函数: 交叉熵: 其中指代实际的标签中第i个的值(用mnist数据举例,如果是3,那么标签是[0,0,0,1,0,0,0,0,0,0],除了第4个值为1,其他全为0) 就是softmax的输出向量[Y1,Y2,Y3...]中,第i个元素的值 显而易见,预测越准确,结果的值越小(别忘了前 ...
分类:
其他好文 时间:
2019-01-09 11:19:39
阅读次数:
243