机器学习(七)逻辑回归与梯度下降 Nov 15, 2016 作者 许宏旭 标签: 学习笔记 机器学习 逻辑回归 梯度下降 分类: 机器学习 简化的代价函数 还记得上次的代价函数的Octave/MATLAB代码嘛: function [J, grad] = costFunction(theta, X, y) m = length(y); % number of training examples h = sigmoid(X * theta); J = 1 / m * (-y' * log(h) - (1 - y)' * log(1 阅读更多 →