Lesson outline Lesson outline Here's an overview of what you'll learn to do in this lesson. Documentation links are for reference. Read in multiple st ...
分类:
系统相关 时间:
2019-06-04 09:47:39
阅读次数:
183
工作所需写的小脚本。 # !/bin/bash # Author : 蛙鳜鸡鹳狸猿# create_ts : 2017年 01月 03日 星期二 14:48:14 CST# program : Incremental transfer table records between MySQL serv ...
分类:
数据库 时间:
2019-06-04 09:18:43
阅读次数:
247
[TOC] Supervised Learning Massive Unlabeled data Unsupervised Learning Why needed Dimension reduction Preprocessing:Huge dimension, say 224\ 224, is h ...
分类:
其他好文 时间:
2019-06-02 20:36:04
阅读次数:
103
Neural NetworksThe ‘one learning algorithm’ hypothesisNeuron-rewiring experimentsModel RepresentationDefineSigmoid(logistic) activation functionbias u... ...
分类:
Web程序 时间:
2019-06-02 19:26:43
阅读次数:
133
xgboost参数 选择较高的学习速率(learning rate)。一般情况下,学习速率的值为0.1。但是,对于不同的问题,理想的学习速率有时候会在0.05到0.3之间波动。选择对应于此学习速率的理想决策树数量。XGBoost有一个很有用的函数“cv”,这个函数可以在每一次迭代中使用交叉验证,并返 ...
分类:
其他好文 时间:
2019-06-02 16:30:18
阅读次数:
294
MNIST数据集介绍 MNIST数据集中包含了各种各样的手写数字图片,数据集的官网是:http://yann.lecun.com/exdb/mnist/index.html,我们可以从这里下载数据集。使用如下的代码对数据集进行加载: 运行上述代码会自动下载数据集并将文件解压在MNIST_data文件 ...
分类:
其他好文 时间:
2019-06-02 00:58:22
阅读次数:
110
学习率 learning_rate:表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最 小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢。 在训练过程中,参数的更新向着损失函数梯度下降的方向。 参数的更新公式为: 𝒘𝒏+𝟏 = 𝒘𝒏 ? 𝒍𝒆𝒂𝒓𝒏𝒊? ...
分类:
其他好文 时间:
2019-06-01 21:17:11
阅读次数:
121
深度学习来源(Deep Learning):让计算机从经验中学习,并根据层次化的概念体系来理解世界,而每个该奶奶则通过与某些相对简单的概念之间的关系来定义。层次化的概念让计算机构建较简单的概念来学习复杂的概念。如果绘制出表示这些概念如何建立在彼此之上的图,将得到一张“深”的图。 人工智能知识库方法: ...
分类:
其他好文 时间:
2019-05-31 23:24:27
阅读次数:
132
Neural NetworksThe ‘one learning algorithm’ hypothesisNeuron-rewiring experimentsModel RepresentationDefineSigmoid(logistic) activation functionbias u... ...
分类:
Web程序 时间:
2019-05-31 19:53:24
阅读次数:
106
CMake 入门实践 舒服的排版: https://xywang93.github.io/2018/05/02/DeepLearning/%E5%B5%8C%E5%85%A5%E5%BC%8FAI/%E7%8E%A9%E8%BD%ACncnn/03-CMake%E5%85%A5%E9%97%A8/ ...
分类:
其他好文 时间:
2019-05-31 01:17:46
阅读次数:
94