简化的代价函数 还记得上次的代价函数的Octave/MATLAB代码嘛: function [J, grad] = costFunction(theta, X, y) m = length(y); % number of training examples h = sigmoid(X * theta); J = 1 / m * (-y' * log(h) - (1 - y)' * log(1
阅读更多 →
简述 前面几节都是在介绍回归问题,用于实现连续数据的机器学习。现在,进入分类问题,来处理离散的数据。 二元分类 回归问题中,我们的输出向量y可能是
阅读更多 →
正规方程 我们已经知道了如何利用梯度下降法求解线性回归方程的最佳参数,现在我们介绍一种更直接的方法——正规方程法。 正规方程 $$ \theta = (X^{T}X)^{-1}X^{T}\vec{y} $$ 推导与解释
阅读更多 →
简述 前面谈到了梯度下降算法,下降速度则与整个数据跨度有关。因此当存在多个特征时,如果特征数据范围不一致,可能会导致梯度下降的路径摇摆不定,效
阅读更多 →
简述 前面说到了线性回归,我们需要找到代价函数最小的相应参数。这里介绍一种寻找的方法,梯度下降法。 按字面意思理解,就是顺着斜坡一路向下,最终找
阅读更多 →
简述 线性回归,顾名思义,是用一条直线来拟合数据的分布情况。当然啦,前面说过回归方法用于解决连续性的问题,直线所拟合的也必然是一个连续函数。 下
阅读更多 →
起因 最近萌生了一个项目的想法,也从网上找到了相关项目的代码,但涉及机器学习的知识。因此,我决定开始了解并深入学习相关知识。 该系列文章即Cou
阅读更多 →
依赖环境 Mac OS X Yosemite (10.10.5) CMake GLFW3 后续需要环境: GLEW GLM 助教介绍的GLUT库很久没有维护了,在Mac OS X 10.9中已经强烈警告GLUT已被废弃。因此,推荐使
阅读更多 →