#导入数据 import numpy as np import tensorflow as tf import matplotlib.pyplot as plt from keras.datasets import mnist (train_images, train_labels), (test_... ...
分类:
其他好文 时间:
2018-12-29 21:11:57
阅读次数:
335
Eclipse崩溃,错误提示:MyEclipse has detected that less than 5% of the 64MB of Perm Gen (Non-heap memory) space remains. It is strongly recommendedthat you ex ...
分类:
其他好文 时间:
2018-12-27 18:37:06
阅读次数:
144
损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以 ...
分类:
其他好文 时间:
2018-12-24 19:04:06
阅读次数:
165
着重介绍hige loss 和 softmax loss。 "svm回顾" $C_1,C_2$是要区分的两个类别,通过分类函数执行时得到的值与阈值的大小关系来决定类别归属,例如: $$g(x) = g(w^Tx+b)$$ 我们取阈值为0,此时$f(x)=sgn[g(x)]$就是最终的判别函数。对于同 ...
分类:
其他好文 时间:
2018-12-22 13:06:44
阅读次数:
409
在前面讲到的DQN系列强化学习算法中,我们主要对价值函数进行了近似表示,基于价值来学习。这种Value Based强化学习方法在很多领域都得到比较好的应用,但是Value Based强化学习方法也有很多局限性,因此在另一些场景下我们需要其他的方法,比如本篇讨论的策略梯度(Policy Gradien ...
分类:
其他好文 时间:
2018-12-18 19:49:21
阅读次数:
353
二、训练 接下来回到train.py第160行,通过调用sw.train_model方法进行训练: 方法中的self.solver.step(1)即是网络进行一次前向传播和反向传播。前向传播时,数据流会从第一层流动到最后一层,最后计算出loss,然后loss相对于各层输入的梯度会从最后一层计算回第一 ...
分类:
其他好文 时间:
2018-12-17 02:20:31
阅读次数:
229
#!/usr/bin/envpython2#-*-coding:utf-8-*-"""CreatedonTueSep1909:42:222017@author:myhaspl"""importtensorflowastffromtensorflow.examples.tutorials.mnistimportinput_dataINPUT_NODE=784OUTPUT_NODE=10LAYER1_
分类:
其他好文 时间:
2018-12-15 20:58:53
阅读次数:
212
过程: Filling queue with 20000 CIFAR images before starting to train. This will take a few minutes. step 0, loss =4.68 (19.0 examples/sec; 6.734 sec/bat ...
分类:
其他好文 时间:
2018-12-14 22:49:43
阅读次数:
223
本文来自《Large Margin Softmax Loss for Convolutional Neural Networks》,时间线为2016年12月,是北大和CMU的作品。 0 引言 过去十几年,CNN被应用在各个领域。大家设计的结构,基本都包含卷积层和池化层,可以将局部特征转换成全局特征, ...
分类:
其他好文 时间:
2018-12-14 15:00:50
阅读次数:
194
最近在研究风格化得内容,发现搭建环境实在是很头疼的事情,虽然网上已经有各路大神总结整理好了很多搭建指南,各种问题的解决方案都已经罗列出来供大家参考。然后参考终究是参考,真正自己上手,发现仍旧是各种坑,各种问题层出不穷。所幸最后靠着大咖们的肩膀成功了,现想总结一下本人的搭建之路,也给后来人多一个参考。 ...
分类:
系统相关 时间:
2018-12-11 19:43:23
阅读次数:
338