码迷,mamicode.com
首页 >  
搜索关键字:优化算法    ( 512个结果
最大公因子求法
为方便讨论,m=max(m,n) n=min(m,n) 方法1:t=n 判断t是不是n的因子 判断t是不是m的因子 优化:只在n的因子中考察t 方法2:n,m作因式分解,提取公共小因子的乘积 方法3:筛选法得到质数表 思考,拓展 1.用质数表优化算法 2.算法输入数量的变化:多个整数求最大公因子 3 ...
分类:其他好文   时间:2018-05-27 12:01:32    阅读次数:161
快速排序
快速排序时间复杂度为O(logn)~O(n²)的不稳定排序 有很多快速排序优化算法。参考https://blog.csdn.net/hacker00011000/article/details/52176100 基本算法如下: 实验结果如下: ...
分类:编程语言   时间:2018-05-26 11:52:02    阅读次数:143
C#顺序表 & 单向链表(无头)
C# 顺序表 非常标准的顺序表结构,等同于C#中的List<T>,但是List<T>在排错查询和数据结构替换上存在缺陷,一些情况会考虑使用自己定义的数据结构 1.优化方向 下表使用冒泡排序,可以考虑优化算法 C# 链表(单向无头) 单向非闭环,无表头的链表,一般用于非队尾数据需要进行频繁删减的情况, ...
分类:Windows程序   时间:2018-05-21 12:38:29    阅读次数:252
几种常见的优化算法
https://www.cnblogs.com/xinbaby829/p/7289431.html 我们每个人都会在我们的生活或者工作中遇到各种各样的最优化问题,比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等。最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素 ...
分类:编程语言   时间:2018-05-18 20:07:11    阅读次数:233
补课系列:最小生成树
补课初衷:工作对算法能力的要求越来越高,减少刷剧刷微博的时间。所以想在2018年补基础算法的课,提高自己的同时打发一下时间。不一定在接下来的日子能够补完,看到哪里算哪里。 补课方法:结合应用,论文,数据,慢慢实现慢慢模拟慢慢总结。 内容包括 1.图算法; 2.优化算法; 3.分类/回归算法; 4.频 ...
分类:其他好文   时间:2018-05-18 00:33:31    阅读次数:158
图像分类实战(三)-pytorch+SE-Resnet50+Adam+top1-96
top1直达96的模型: pytorch框架、网络模型SE-Resnet50,优化算法Adam pytorch: pytorch官方文档,每个模块函数都有github源码链 教程的链接 http://pytorch.org/tutorials/ 官方网站的连接 http://pytorch.org/ ...
分类:Web程序   时间:2018-05-17 01:01:32    阅读次数:1515
[日常填坑]图像分类实战-服务器环境配置
服务器Ubuntu、pytorch框架、网络模型SE-Resnet50,优化算法Adam pytorch(python优先的深度学习框架,是一个和tensorflow,Caffe,MXnet一样,非常底层的框架,它的前身是torch) 主要步骤(环境配置): 1. 需要下载cuda8.0 2. 需要 ...
分类:其他好文   时间:2018-05-16 18:46:41    阅读次数:326
first order method in optimization
这篇文章想阐述一阶优化算法,尽可能的做到全面。 考虑无约束优化问题 Gradient Descent Method 有如下迭代形式: 这里的 为步长,不同的步长构造策略生成了不同的梯度算法,例如, 则为最速下降法,如果 这里的 , 这时候为BB算法。 还是考虑无约束凸优化问题 Proximal Po ...
分类:其他好文   时间:2018-05-05 15:29:53    阅读次数:349
caffe的python接口学习(2)生成solver文件
caffe在训练的时候,需要一些参数设置,我们一般将这些参数设置在一个叫solver.prototxt的文件里面 有一些参数需要计算的,也不是乱设置。 假设我们有50000个训练样本,batch_size为64,即每批次处理64个样本,那么需要迭代50000/64=782次才处理完一次全部的样本。我 ...
分类:编程语言   时间:2018-05-03 14:25:01    阅读次数:221
深度学习——优化算法
优化算法以加快训练的速度 1. mini-batch 把训练集划分成小点的子集(mini-batch) X{1}表示第一个mini-batch X(1)第1个样本 X[1]第一层的输入 1.1 mini-batch梯度下降方法过程:每次对一个mini-batch进行计算,包括J, w都是针对一个子集 ...
分类:编程语言   时间:2018-04-30 22:19:34    阅读次数:272
512条   上一页 1 ... 20 21 22 23 24 ... 52 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!