码迷,mamicode.com
首页 >  
搜索关键字:stanford    ( 475个结果
Stanford Algorithms(一): 大数相乘(c++版)
Stanford Algorithms(一): 大数相乘(c++版) 刚不就在中国大学Mooc上参加了陈越老师的 的课程,收获很大.觉得趁热打铁,也把算法的部分也给一块学了吧,就在Coursera上注册了一个斯坦福大学的算法课,课程的量很重,估计要学一个学期吧,慢慢的学,稳扎稳打. 课程里推荐了很多 ...
分类:编程语言   时间:2017-12-03 17:21:22    阅读次数:171
[学习笔记] CS131 Computer Vision: Foundations and Applications:Lecture 1 课程介绍
课程大纲:http://vision.stanford.edu/teaching/cs131_fall1718/syllabus.html 课程定位: 课程交叉: what is (computer) vision?: 1. a scientific field that extracts info ...
分类:移动开发   时间:2017-11-29 16:14:33    阅读次数:232
SDN 第一次作业
你会选择作 网络编程 方向的程序员吗?为什么? 答: 可能会选择吧。看了那篇文章感觉网络编程的程序员和其他的程序员都并不简单,网络编程的程序员可能更要对网络的知识更加了解。我现在也有机会能接触网络方向,可以借助这个机会能加深网络的知识以及现在网络的前沿技术。当个网络编程的程序员能自己写个协议我觉得是 ...
分类:其他好文   时间:2017-11-26 19:40:25    阅读次数:494
cs231n 学习笔记 by qscqesze
不学完直播吃屎。 官网链接:CS231n: Convolutional Neural Networks for Visual Recognition http://cs231n.stanford.edu/ Notes:链接:http://cs231n.github.io/ 英语版视频:https:/ ...
分类:其他好文   时间:2017-11-21 23:40:26    阅读次数:273
CS231n 2017 学习笔记03——损失函数与参数优化 Loss Functions and Optimization
本博客内容来自 Stanford University CS231N 2017 Lecture 3 - Loss Functions and Optimization 课程官网:http://cs231n.stanford.edu/syllabus.html 从课程官网可以查询到更详细的信息,查看视 ...
分类:其他好文   时间:2017-11-13 00:21:35    阅读次数:520
StanFord ML 笔记 第九部分
第九部分: 1.高斯混合模型 2.EM算法的认知 1.高斯混合模型 之前博文已经说明:http://www.cnblogs.com/wjy-lulu/p/7009038.html 2.EM算法的认知 2.1理论知识之前已经说明:http://www.cnblogs.com/wjy-lulu/p/70 ...
分类:其他好文   时间:2017-11-10 18:53:29    阅读次数:131
实测bbcp多线程传输工具
bbcp是由SLAC(斯坦福直线加速器中心)的Andy Hanushevsky创立的点对点网络文件拷贝工具。 1、安装 访问bbcp的主页:http://www.slac.stanford.edu/~abh/bbcp/,下载对应二进制版本或者源码,如果是源码,就需要自己编译。wget http:// ...
分类:编程语言   时间:2017-11-10 18:46:46    阅读次数:319
关于凸优化的一些简单概念
没有系统学过数学优化,但是机器学习中又常用到这些工具和技巧,机器学习中最常见的优化当属凸优化了,这些可以参考Ng的教学资料:http://cs229.stanford.edu/section/cs229-cvxopt.pdf,从中我们可以大致了解到一些凸优化的概念,比如凸集,凸函数,凸优化问题,线性 ...
分类:其他好文   时间:2017-11-06 20:14:49    阅读次数:151
StanFord ML 笔记 第八部分
第八部分内容: 1.正则化Regularization 2.在线学习(Online Learning) 3.ML 经验 1.正则化Regularization 1.1通俗解释 引用知乎作者:刑无刀 解释之前,先说明这样做的目的:如果一个模型我们只打算对现有数据用一次就不再用了,那么正则化没必要了,因 ...
分类:其他好文   时间:2017-11-04 11:14:33    阅读次数:169
StanFord ML 笔记 第六部分
第六部分内容: 1.偏差/方差(Bias/variance) 2.经验风险最小化(Empirical Risk Minization,ERM) 3.联合界(Union bound) 4.一致收敛(Uniform Convergence) ...
分类:其他好文   时间:2017-11-04 00:17:29    阅读次数:145
475条   上一页 1 ... 10 11 12 13 14 ... 48 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!