【校招面经】机器学习与数据挖掘常见面试题整理 part2 2018年07月25日 12:36:40 稻蛙 阅读数:150 【校招面经】机器学习与数据挖掘常见面试题整理 part2 2018年07月25日 12:36:40 稻蛙 阅读数:150 【校招面经】机器学习与数据挖掘常见面试题整理 part2 ...
分类:
其他好文 时间:
2019-02-06 22:29:44
阅读次数:
190
转自:https://zeebe.io/what-is-zeebe/ Zeebe is a workflow engine for microservices orchestration. This write-up will help you understand exactly what Zee ...
分类:
其他好文 时间:
2019-02-04 20:58:12
阅读次数:
214
Keras 文档http://keras.io 使用GPU加速模型训练: 训练深度神经网络的一些策略,用于提升模型精确度 1)选择合适的代价函数loss:MSE (Mean Squared Error)均方误差,Cross Entropy交叉熵。当输出层为softmax层时,选择交叉熵代价函数更为科 ...
分类:
其他好文 时间:
2019-02-03 18:24:02
阅读次数:
340
为了有效地同时解决样本类别不均衡和苦难样本的问题,何凯明和RGB以二分类交叉熵为例提出了一种新的Loss Focal loss 原始的二分类交叉熵形式如下: Focal Loss形式如下: 上式中,相对于原始的二分类交叉熵加入了两个量:1、modulating factor:(其中幂称为focusi ...
分类:
其他好文 时间:
2019-01-29 18:20:55
阅读次数:
140
相关描述 "https://discuss.pytorch.org/t/torch no grad affecting outputs loss/28595/3" 今天在训练网络的时候,发现mseloss在train和test时相差了好几个量级,后来发现是因为 ,并不是对称的,input的应该是网络 ...
分类:
其他好文 时间:
2019-01-28 15:12:40
阅读次数:
764
一、从LR到决策树 0.思考一些一个分类问题:是否去相亲,LR解决的问题可能是这样的 在下面各个特征下给定w1,w2,w3,w4等参数值,将wx+b送到sigmoid函数中去,拿到一个概率p,我们在使用这个函数的时候会有一个损失函数loss function,对于这个代价函数通过GD梯度下降完成优化 ...
分类:
其他好文 时间:
2019-01-26 13:14:30
阅读次数:
199
本文来自 AAAI 2019, Oral的一篇文章,主要的思想是通过知识蒸馏的方法将不同的已训练的teachers模型,压缩为一个简单的student网络,来学习多种模型的知识而不用产生额外的测试开销。作者使用的是基于对抗的学习策略,设计了一个block-wise training loss引导和优 ...
分类:
其他好文 时间:
2019-01-25 00:21:44
阅读次数:
509
如果主机坏了断开连接就用备机的镜像数据库 --主备互换,备机sql命令 USE master; ALTER DATABASE test SET PARTNER FORCE_SERVICE_ALLOW_DATA_LOSS; 之后会恢复两分钟,备机的数据库就能用了 如果主机恢复了就 --原来的主服务器恢 ...
分类:
数据库 时间:
2019-01-23 17:25:05
阅读次数:
325
机器学习中超参数搜索的常用方法为 Grid Search,然而如果参数一多则容易碰到维数诅咒的问题,即参数之间的组合呈指数增长。如果有 $m$ 个参数,每个有 $n$ 个取值,则时间复杂度为 $\Theta(n^m)$。 Bengio 等人在 " 《Random Search for Hyper P ...
分类:
其他好文 时间:
2019-01-21 21:07:10
阅读次数:
1307
模型接口建立 模型接口的建立 我们将模型接口都放在cifar_omdel.py文件当中,设计了四个函数,input()作为从cifar_data文件中数据的获取,inference()作为神经网络模型的建立,total_loss()计算模型的损失,train()来通过梯度下降训练减少损失 input ...
分类:
其他好文 时间:
2019-01-17 17:44:31
阅读次数:
227