数学基础

Jensen's inequality

首先要明确下凸函数的概念:每条弦都位于图像或其上方,就称这个函数是凸函数。

根据数学归纳法,可以得到:

Jocobian矩阵&Hessian矩阵

Jocobian矩阵是由一阶偏导数构成的

Hessian矩阵是由二阶偏导数构成的

参考:

Jacobian矩阵和Hessian矩阵

梯度

在机器学习中,我们想要优化对应的损失函数,在损失平面上希望每次移动的方向是朝着下降最快的方向移动,这样才能够最快找到最优解。这一个方向称之为梯度。

梯度的计算就是求函数各个分量的偏导数。

参考:

为什么梯度反方向是函数值局部下降最快的方向?

张量

矩阵求导

reference: http://www.gatsby.ucl.ac.uk/teaching/courses/sntn/sntn-2017/resources/Matrix_derivatives_cribsheet.pdf

https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf

In these examples, b is a constant scalar, and B is a constant matrix:

矩阵的零空间(nullspace)

矩阵A的零空间就Ax=0的解的集合。

reference: https://blog.csdn.net/tengweitw/article/details/40039373?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-6&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromBaidu-6

Last updated