$A $算法是一种很神奇的搜索方法,它属于启发式搜索中的一种。A 最主要的功能当然就是用来剪枝,提高搜索的效率。A 主要的实现方法是通过一个估价函数,每次对下一步进行一个估价,根据估价出的值来决定下一步往哪走。因此, 估价函数的好坏决定了A 算法的优劣 。 估价函数分为三种情况: 如果估计的距离 小 ...
分类:
其他好文 时间:
2018-06-08 17:22:55
阅读次数:
1319
ZOJ Problem Set - 1008 Hart is engaged in playing an interesting game, Gnome Tetravex, these days. In the game, at the beginning, the player is given ...
分类:
其他好文 时间:
2018-06-07 20:08:30
阅读次数:
185
决策树的剪枝是将生成的树进行简化,以避免过拟合。 《统计学习方法》上一个简单的方式是加入正则项a|T|,其中|T|为树的叶节点个数。 其中C(T)为生成的决策树在训练集上的经验熵,经验熵越大,表明叶节点上的数据标记越不纯,分类效果越差。有了这个标准,拿到一颗生成好的树,我们就递归的判断一组叶节点,看 ...
分类:
其他好文 时间:
2018-06-04 11:47:05
阅读次数:
145
题目描述 有一棵苹果树,如果树枝有分叉,一定是分2叉(就是说没有只有1个儿子的结点) 这棵树共有N个结点(叶子点或者树枝分叉点),编号为1-N,树根编号一定是1。 我们用一根树枝两端连接的结点的编号来描述一根树枝的位置。下面是一颗有4个树枝的树 现在这颗树枝条太多了,需要剪枝。但是一些树枝上长有苹果 ...
分类:
移动开发 时间:
2018-05-24 19:58:56
阅读次数:
230
摘自《统计学习方法》 李航 第五章 决策树学习通常包括3个步骤:特征选择、决策树的生成、决策树的剪枝 决策树学习本质上是从训练集中归纳出一组分类规则。 决策树学习的损失函数通常是正则化的极大似然函数。 决策树的学习算法通常是采用启发式的方法,近似求解最优化问题 特征选择问题 特征选择在于选取对训练数 ...
分类:
其他好文 时间:
2018-05-23 00:01:55
阅读次数:
169
1.函数 view(t)%画出决策树 prune %剪枝决策树 t2=prune(t,'level','level'/'node')%level:0 不剪枝 1 剪掉最后一层 2 最后两层%node: 剪掉第node个分支后的所有 eval %预测yfit=eval(t,x)[yfit,nodes, ...
分类:
其他好文 时间:
2018-05-21 21:16:22
阅读次数:
428
https://leetcode.com/problems/race-car/description/ 1. BFS剪枝 0<=current position<=2*target。为什么2*target有点不太明白 1 class Solution { 2 public: 3 int dp[100 ...
分类:
其他好文 时间:
2018-05-19 21:27:44
阅读次数:
213
【学时·一】A 算法 ■基本策略■ ——A (A Star)无非就是BFS的升级,当BFS都超时的时候…… 同样以队列为基础结构,BFS使用FIFO队列(queue),而A\ 则使用优先队列(priority_queue)。与BFS的优化极其相似,但一般的BFS优化只是相当于使用了一个 最优性剪枝 ...
分类:
编程语言 时间:
2018-05-19 15:43:46
阅读次数:
239
题意:给出n根小棒的长度stick[i],已知这n根小棒原本由若干根长度相同的长木棒(原棒)分解而来。求出原棒的最小可能长度。 先说先具体的实现:求出总长度sum和小棒最长的长度max,则原棒可能的长度必在max~sum之间,然后从小到大枚举max~sum之间能被sum整除的长度len,用dfs求出 ...
分类:
其他好文 时间:
2018-05-18 20:05:51
阅读次数:
202
SGU 125 题意:给你一个数组b[i][j],表示i,j的四周有多少个数字大于它的,问你能不能构造出一个a矩形 收获:dfs + 剪枝 一行一行的dfs,然后第一行去枚举0-9,下一行判断当前选择能否满足上一行对应列的情况,可以的话就继续dfs #include<bits/stdc++.h> # ...
分类:
其他好文 时间:
2018-05-18 19:20:20
阅读次数:
190