码迷,mamicode.com
首页 >  
搜索关键字:训练    ( 9216个结果
生成对抗网络GAN
生成对抗网络(GANs)由两部分组成: 生成器(Generator): 通过机器生成数据(图像),目的是骗过判别器 判别器(Discriminator): 判断这张图像是真实的还是机器产生的,目的是找出生成器做的“假数据” 详细过程: 第一阶段:固定【判别器一代 D1】, 训练【生成器一代 G1】 ...
分类:其他好文   时间:2021-04-10 13:27:10    阅读次数:0
6.2 GPT意境级讲解
OpenAI GPT 是在 Google BERT 算法之前提出的,与 BERT 最大的区别在于,GPT 采用了传统的语言模型进行训练,即使用单词的上文预测单词,而 BERT 是同时使用上文和下文预测单词。因此,GPT 更擅长处理自然语言生成任务 (NLG),而 BERT 更擅长处理自然语言理解任务 ...
分类:其他好文   时间:2021-04-06 15:20:32    阅读次数:0
正则化
当模型的复杂度增大时,训练误差会逐渐减小并趋向于0;而测试误差会先减小,达到最小值后又增大。当选择的模型复杂度过大时,过拟合现象就会发生。这样,在学习时就要防止过拟合。进行最优模型的选择,即选择复杂度适当的模型,以达到使测试误差最小的学习目的。 模型选择的典型方法是正则化。正则化是结构风险最小化策略 ...
分类:其他好文   时间:2021-04-06 14:11:34    阅读次数:0
ML_02
欠采样的逻辑中往往会结合集成学习来有效的使用数据,假设正例数据n,而反例数据m个。我们可以通过欠采样,随机无重复的生成(k=n/m)个反例子集,并将每个子集都与相同正例数据合并生成k个新的训练样本。我们在k个训练样本上分别训练一个分类器,最终将k个分类器的结果结合起来,比如求平均值。这就是一个简单的 ...
分类:其他好文   时间:2021-04-02 13:19:39    阅读次数:0
Deep Networks with Stochastic Depth
https://arxiv.org/abs/1603.09382 2021-03-30 随机深度:训练时每个batch随机dropout一些层,测试时用完整的网络 深层网路:后向传播梯度消失/爆炸,前向传播信息丢失,训练时间长 class StochasticDepthBottlencek(nn.M ...
分类:Web程序   时间:2021-03-31 12:20:09    阅读次数:0
PyTorch 神经网络学习(官方教程中文版)(一、利用Pytorch搭建神经网络)
利用Pytorch搭建神经网络 在完成李宏毅2020机器学习图像分类(hw3)时,需要具备会使用pytorch的能力,通过pytorch的官方教程进行学习https://pytorch123.com/ 训练神经网络的步骤如下: 1.定义神经网络(普通CNN为例) 这里的size = x.size() ...
分类:其他好文   时间:2021-03-31 12:17:16    阅读次数:0
梯度累加(Gradient Accumulation)
我们在训练神经网络的时候,超参数batch size的大小会对最终的模型效果产生很大的影响。一定条件下,batch size设置的越大,模型就会越稳定。batch size的值通常设置在 8-32 之间,但是当我们做一些计算量需求大的任务(例如语义分割、GAN等)或者输入图片尺寸太大的时候,我们的b ...
分类:其他好文   时间:2021-03-31 12:14:48    阅读次数:0
Pytorch-Load Predict
载入训练好的模型并且进行预测 代码: import torch import numpy as np import torchvision #torch的视觉包 import torchvision.datasets as datasets import torchvision.transforms ...
分类:其他好文   时间:2021-03-30 13:16:42    阅读次数:0
大屏23Tesseract字库训练Tesseract 3
大屏23Tesseract字库训练Tesseract 3 超级详细的Tesseract-OCR样本训练方法 Sharon Liu 2018-11-05 16:38:52 55039 收藏 163 分类专栏: C++ java 版权 Tesseract-OCR样本训练方法 一、简介 Tesseract ...
分类:其他好文   时间:2021-03-29 12:43:25    阅读次数:0
梯度下降法的三种形式BGD、SGD以及MBGD
阅读目录 1. 批量梯度下降法BGD 2. 随机梯度下降法SGD 3. 小批量梯度下降法MBGD 4. 总结 在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。 下面我们以线性回归算法来对三种梯度下降法进 ...
分类:其他好文   时间:2021-03-18 14:27:25    阅读次数:0
9216条   上一页 1 ... 4 5 6 7 8 ... 922 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!