简化的代价函数 还记得上次的代价函数的Octave/MATLAB代码嘛: function [J, grad] = costFunction(theta, X, y) m = length(y); % number of training examples h = sigmoid(X * theta); J = 1 / m * (-y' * log(h) - (1 - y)' * log(1
阅读更多 →
简述 前面说到了线性回归,我们需要找到代价函数最小的相应参数。这里介绍一种寻找的方法,梯度下降法。 按字面意思理解,就是顺着斜坡一路向下,最终找
阅读更多 →