码迷,mamicode.com
首页 >  
搜索关键字:loss    ( 720个结果
《用Python玩转数据》项目—线性回归分析入门之波士顿房价预测(二)
接上一部分,此篇将用tensorflow建立神经网络,对波士顿房价数据进行简单建模预测。 二、使用tensorflow拟合boston房价datasets 1、数据处理依然利用sklearn来分训练集和测试集。 2、使用一层隐藏层的简单网络,试下来用当前这组超参数收敛较快,准确率也可以。 3、激活函 ...
分类:编程语言   时间:2018-11-25 17:54:59    阅读次数:328
keras.callbacks的ModelCheckpoint参数
callbacks的ModelCheckpoint参数详解(原文:https://blog.csdn.net/breeze5428/article/details/80875323) keras.callbacks.ModelCheckpoint(filepath,monitor='val_loss ...
分类:其他好文   时间:2018-11-25 13:25:56    阅读次数:1193
LeetCode_16. 3Sum Closest
一、题目描述 Given an array nums of n integers and an integer target, find three integers in nums such that the sum is closest to target. Return the sum of ...
分类:其他好文   时间:2018-11-24 14:31:37    阅读次数:218
检测用户命令序列异常——使用LSTM分类算法
数据集示意: 效果: Training Step: 30 | total loss: 0.10088 | time: 1.185s| Adam | epoch: 010 | loss: 0.10088 - acc: 0.9591 | val_loss: 0.18730 - val_acc: 0.95 ...
分类:编程语言   时间:2018-11-22 12:30:18    阅读次数:183
sqlserver排名函数
在做开发的时候,排名函数是sqlserver经常用到的函数,在分页的时候需要用,分组的时候也要用,主要排名函数有row-number,rank(),dense-rank(),NTILE()接下来详细说明其使用 1.row-number 作用:排序,实现分页 例如: 结果如下: 注意:1、要使用ove ...
分类:数据库   时间:2018-11-21 21:01:52    阅读次数:207
随机梯度下降分类器和回归器
随机梯度下降分类器并不是一个独立的算法,而是一系列利用随机梯度下降求解参数的算法的集合。 from sklearn.linear_model import SGDClassifier clf = SGDClassifier(loss="hinge", penalty="l2") loss funct ...
分类:其他好文   时间:2018-11-16 22:35:16    阅读次数:258
focal loss 两点理解
"博客" 给出了三个算例。 可以看出,focal loss 对可很好分类的样本赋予了较小的权重,但是对分错和不易分的样本添加了较大的权重。 对于类别不平衡,使用了$\alpha_t$进行加权,文章中提到较好的值是0.25,说明在训练过程中仍然需要对正样本进行降权。 正常的理解是训练过程中负样本的数量 ...
分类:其他好文   时间:2018-11-15 22:25:20    阅读次数:453
『计算机视觉』mini深度学习框架实现
一、项目简介 手动实现mini深度学习框架,主要精力不放在运算优化上,仅体会原理 相关博客 『TensorFlow』卷积层、池化层详解 『科学计算』全连接层、均方误差、激活函数实现 文件介绍 Layer.py 层 class,已实现:全连接层,卷积层,平均池化层 Loss.py 损失函数 class ...
分类:其他好文   时间:2018-11-15 15:33:22    阅读次数:218
机器学习-交叉熵原理
参考了这个博客:https://blog.csdn.net/tsyccnh/article/details/79163834 主要用于多分类、单分类任务中,计算loss,交叉熵定义如下: 其中: p是实际概率,在机器学习中通常为label值,且取值为0或则1 q是预测概率,在机器学习中通常为预测结果 ...
分类:其他好文   时间:2018-11-13 23:55:38    阅读次数:201
记录下pytorch代码从0.3版本迁移到0.4版本要做的一些更改。
1. 解决方法:把 F.log_softmax(x)改为F.log_softmax(x,dim=0) , 而且我发现改为F.log_softmax(x,dim=1),这个到底哪个更合理需要进一步确认。 2. 解决方法:把 train_loss+=loss.data[0] 修改为 train_loss ...
分类:其他好文   时间:2018-11-13 20:16:09    阅读次数:6265
720条   上一页 1 ... 31 32 33 34 35 ... 72 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!