旭旭
  • 主页
  • 关于
  • 语言
    简体中文 English

机器学习(七)逻辑回归与梯度下降

Nov 15, 2016 作者 许宏旭
标签: 学习笔记 机器学习 逻辑回归 梯度下降
分类: 机器学习
简化的代价函数 还记得上次的代价函数的Octave/MATLAB代码嘛: function [J, grad] = costFunction(theta, X, y) m = length(y); % number of training examples h = sigmoid(X * theta); J = 1 / m * (-y' * log(h) - (1 - y)' * log(1

阅读更多 →

机器学习(六)分类问题和逻辑函数

Nov 6, 2016 作者 许宏旭
标签: 学习笔记 机器学习 二元分类 逻辑函数 Sigmoid
分类: 机器学习
简述 前面几节都是在介绍回归问题,用于实现连续数据的机器学习。现在,进入分类问题,来处理离散的数据。 二元分类 回归问题中,我们的输出向量y可能是

阅读更多 →

机器学习(五)正规方程、多项式回归

Oct 27, 2016 作者 许宏旭
标签: 学习笔记 机器学习 正规方程 多项式回归
分类: 机器学习
正规方程 我们已经知道了如何利用梯度下降法求解线性回归方程的最佳参数,现在我们介绍一种更直接的方法——正规方程法。 正规方程 $$ \theta = (X^{T}X)^{-1}X^{T}\vec{y} $$ 推导与解释

阅读更多 →

机器学习(四)特征归一化

Oct 23, 2016 作者 许宏旭
标签: 学习笔记 机器学习 归一化
分类: 机器学习
简述 前面谈到了梯度下降算法,下降速度则与整个数据跨度有关。因此当存在多个特征时,如果特征数据范围不一致,可能会导致梯度下降的路径摇摆不定,效

阅读更多 →

机器学习(三)梯度下降算法

Oct 22, 2016 作者 许宏旭
标签: 学习笔记 机器学习 梯度下降
分类: 机器学习
简述 前面说到了线性回归,我们需要找到代价函数最小的相应参数。这里介绍一种寻找的方法,梯度下降法。 按字面意思理解,就是顺着斜坡一路向下,最终找

阅读更多 →

机器学习(二)线性回归

Oct 16, 2016 作者 许宏旭
标签: 学习笔记 机器学习 线性回归
分类: 机器学习
简述 线性回归,顾名思义,是用一条直线来拟合数据的分布情况。当然啦,前面说过回归方法用于解决连续性的问题,直线所拟合的也必然是一个连续函数。 下

阅读更多 →

机器学习(一)监督学习和非监督学习

Oct 16, 2016 作者 许宏旭
标签: 学习笔记 机器学习
分类: 机器学习
起因 最近萌生了一个项目的想法,也从网上找到了相关项目的代码,但涉及机器学习的知识。因此,我决定开始了解并深入学习相关知识。 该系列文章即Cou

阅读更多 →

计算机图形学实验一:配置Mac OS X的OpenGL开发环境

Mar 17, 2016 作者 许宏旭
标签: 计算机图形学 CMake OpenGL macOS
分类: 学习笔记
依赖环境 Mac OS X Yosemite (10.10.5) CMake GLFW3 后续需要环境: GLEW GLM 助教介绍的GLUT库很久没有维护了,在Mac OS X 10.9中已经强烈警告GLUT已被废弃。因此,推荐使

阅读更多 →
  • ««
  • «
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • »
  • »»

近期文章

  1. Posts
  2. 一年
  3. 一年
  4. 读《大规模C++程序设计》,谈架构设计
  5. editflow系列(三):使用Blender制作宣传片

分类

cpp 学习笔记 开发笔记 机器学习 生活 阅读

标签

asp.net-core blender c++ cmake concept cpp dag git hooks laravel macos monaco opengl python react restful rvalue sigmoid traits type type-traits typescript workflow 二元分类 信念网络 公共自行车 动态链接库 北京师范大学 历史 反向传播 图模型 图论 多元分类 多项式回归 学习笔记 工作流 归一化 微信公众号 性能 敏捷 教务助手 数据库 旧事重提 机器学习 架构设计 校园 梯度下降 概率 正规化 正规方程 测试 生活 神经网络 算法 线性回归 编程 编译 计算机图形学 记忆 读书笔记 踏鸽行 逻辑函数 逻辑回归 重构 链接 随笔

Hongxu Xu © 2020 苏ICP备2021014763号-1

回到顶部