码迷,mamicode.com
首页 > 其他好文 > 详细

斯坦福大学机器学习(Andrew Ng@2014)--自学笔记

时间:2015-11-18 21:32:36      阅读:286      评论:0      收藏:0      [点我收藏+]

标签:

今天学习Andrew NG老师《机器学习》之6 - 6 - Advanced Optimization,做笔记如下:

用fminunc函数求代价函数最小值,分两步:

1、自定义代价函数

function [jVal,gradient] = costFunction(theta)
jVal = (theta(1)-5)^2 + (theta(2)-5)^2;
gradient = zeros(2,1);
gradient(1) = 2*(theta(1)-5);
gradient(2) = 2*(theta(2)-5);
end;

2、设置参数并调用fminunc
>> options = optimset(‘GradObj‘,‘on‘,‘MaxIter‘,‘100‘);
>> intialTheta = zeros(2,1);
[optTheta, functionVal, exitFlag] = fminunc(@costFunction, intialTheta, options)

另附老师讲课的截图如下:

技术分享

-----------------------------------------------------------------------------------------------------------

技术分享

斯坦福大学机器学习(Andrew Ng@2014)--自学笔记

标签:

原文地址:http://www.cnblogs.com/bobguo/p/4975804.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!