Last updated
Last updated
首先要明确下凸函数的概念:每条弦都位于图像或其上方,就称这个函数是凸函数。
从数轴的到中间的所有值可以写成,其中。弦(图中的蓝色直线)上的点可以写成,凸函数对应的值为,这样,凸函数的性质可以写成:
根据数学归纳法,可以得到:
如果把看成是取值为的离散变量的概率分布的话,那么上述的公式可以写成:
Jocobian矩阵是由一阶偏导数构成的
Hessian矩阵是由二阶偏导数构成的
参考:
在机器学习中,我们想要优化对应的损失函数,在损失平面上希望每次移动的方向是朝着下降最快的方向移动,这样才能够最快找到最优解。这一个方向称之为梯度。
梯度的计算就是求函数各个分量的偏导数。
参考:
In these examples, b is a constant scalar, and B is a constant matrix:
矩阵A的零空间就Ax=0的解的集合。
其中表示的是期望。对于连续变量,可以写成:
reference:
reference:
Scaler derivative
Vector derivative
(矩阵是对称矩)