码迷,mamicode.com
首页 > 其他好文 > 详细

大想法-(收藏)

时间:2019-03-17 21:24:14      阅读:213      评论:0      收藏:0      [点我收藏+]

标签:网络设计   科技   资源   资料   eccv   理论   add   机器学习   马尔科夫   

1. 第一弹

2. 第二弹

  • 小目标猜想【1】
    在two stage中,是不是在rpn中就没有处理好scale size,所以rpn就无法选到恰当的小目标候选区域,所以后面再怎么cnn也无法得到小目标的detection。是否考虑在rpn中加入attention,更加关注小目标,然后得到一系列的small obj的region proposals

  • 1*1的卷积降低计算量也绝对不是哆啦A梦的百宝袋。他的计算量的减小的同时也在减小input volume spatial resolution,损失了resolution一定程度上当然会降低精确度。换言之,这是用损失精确度的代价来降低计算量。所以这又是一个计算量和精确度的trade~ off。你需要通过实验精确度量到底怎样balance计算量和准确度。实验证明,googlenet那种程序的降低计算量的手法并不会对精确度造成很大的损失,损失可以忍受。所以googlenet的实验设计细节,就是我们学习怎么trade~ off的一个好例子。

  • 1/最大子团!=极大连通子图,最大子团祥细请参考算法导论【我也查一下】。貌似可以简单理解为:一个大图中某个子图,这个子图是完全图。(包含的任何两个节点都相连,且图不能再加点,比如,三角形,完备四边形,完备五角星,等等)

    2/无向图的什么性质推导出了局部和全局的马尔科夫性,局部与全局马尔科夫性各有什么特点?【貌似马尔可夫性可以简单理解为:无向图中,不相邻的任意两点独立。所以全局与局部只是描述独立性质所满足的区域大小吗?待考证】

    3/明白了softmax的一些细节了:已知每个y_predict对应的score了,就可以简单做归一化了,为何还要,对每个y_predict对应的score先做指数化,再归一化? 答:最大熵原理【数学之美】,指数函数有放大缩小功能:让score大者更大,score小者更小,使得每个y_predict对应的score之间原本不是巨大的差距,变得很大。这样每个y_predict对应的指数化及归一化后的概率,之间的区分度就很大了。分类工作【挑选那个最大概率值对应的y_predict】就非常容易了。再次领悟【站在巨人肩膀上】的真理及其内涵:我今天看到这两篇关于post,crf的科普文章,再次证明我之前对于看论文以及写代码做实验的猜想:如果是经典已发表过已经出来的工作论文代码工具书籍PPT等等资源。正确的理解学习方法是:先找科普文,先找科普文,先找科普视频PPT,tutorial也可以啊。等把科普工作以及必须的框架和核心思路搞清楚心里有数了,才能去看原paper看源代码,这样学习才不懵逼,学习效率才是最高的。

  • 关于object detection中region proposals的true label或者说grpund truth,为什么是 (让rp与手动打标的框的ground truth做iou,大于阈值的rp的ground truth就【被程序标记为】和手动打标框的ground truth相同。)? 因为,这么多rp,我不可能事先把所有可能的rp都标记下ground truth,所以天才的researcher们想到一个折中的办法:先打一些百分百正确的框的ground truth,然后通过计算rp与这些手工标记的框做重叠实验【更本质地说,是以重叠度iou作为指标评价rp与手工打标框的相似度】,如果足够相似,那么rp的ground truth就直接取手工打标框的ground truth. 这是一种【用有限样本的情况+相似性实验】来推导【无限样本的情况】,正是机器学习的精髓,也是transfer learning的精髓:【用有限样本的规律+无限样本与有限样本的相似性度量 来近似估计 无限样本的规律】

大想法-(收藏)

标签:网络设计   科技   资源   资料   eccv   理论   add   机器学习   马尔科夫   

原文地址:https://www.cnblogs.com/LS1314/p/10548836.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!