机器学习的多元微积分基础
数学基础
偏导和梯度
考虑f(x1,x2,...,xn):Rn→R,对某一个自变量xi求导,其余参数视为常数,记为
∂xi∂f(x)
而f(x)的梯度就是每一维偏导构成的向量,表示是f在x这一点的“导数”的方向的推广,也就是在该点附近,用线性空间中的一组基来近似,沿着梯度方向走,f(x)增长最快。几何意义,就是该点等高线的切线的方向。
如何理解这个东西呢?
在一维的时候你很难联想到导数的正负和往哪边走函数会变大这回事,如果非要这样理解,高维的时候每一维的长度又会对方向起作用,这是不能合理外推的,更迷糊了。
但是微积分的核心思想还是线性化,可以这么考虑,每一维的梯度是对函数这一维的“切片”的线性近似,梯度就是在一点将函数近似为了一个高维立方体,偏导大小指示了这一维的变换速度,就相当于把函数简化到了一个高维立方体里面考虑,就自然多了。
可以用nabla算子∇来表示梯度。
∇f(x)=∂x1∂f(x)∂x2∂f(x)...∂xn∂f(x)
更广义的nabla算子定义是∇=(∂x1∂,∂x2∂,...∂xn∂),可以用来表示旋度散度。
像叉积一样,都是非常自由的记号。
散度(divergence)
表示向量场的发散强度。
divF=∇⋅F=∂x∂Fx+∂y∂Fy+∂z∂Fz
旋度(curl)
表示向量场对微元的旋转强度。
curlv=(∂y∂vz−∂z∂vy)i+(∂z∂vx−∂x∂vz)j+(∂x∂vy−∂y∂vx)k
∇×F=i∂x∂Fxj∂y∂Fyk∂z∂Fz
有一个性质,梯无旋,旋无散。
二阶导与海森矩阵
而f(x)的二阶导的推广到x是向量的情况,类似地,是一个矩阵(考虑每个维度两两求偏导),而一个事实是
∂xi∂xj∂f(x)=∂xj∂xi∂f(x)
学了数学会知道如果二者都连续的话是成立的,机器学习里面一般不会有太特殊的函数。
所以二阶导是一个实对称的矩阵,称为海森矩阵∇2=H
Hi,j=∂xi∂xj∂f(x)
如果H(x0)是半正定的,那么f在x0是凸的。
一些常见的梯度
∇x(xTAx)=2Ax∇x(vTx)=v∇A∣A∣=∣A∣(A−1)T
A是一堆数字到一个数字的映射。梯度就是泛函∣A∣对每个变量求导的结果。
考虑现在对a11求偏导
∂ai,j∂∣A∣=h→0limha1,1+ha2,1an,1a1,2a2,2an,2............a1,na2,nan,n−a1,1a2,1an,1a1,2a2,2an,2............a1,na2,nan,n=h→0limhhM=M
所以
∇A∣A∣=(A∗)T=∣A∣(A−1)T
雅可比矩阵
考虑更广泛的函数y=f(x):Rn→Rm,则记广义的梯度为雅可比矩阵
∂x1∂y1∂x1∂y2...∂x1∂ym∂x2∂y1∂x2∂y2∂x2∂ym.........∂xn∂y1∂xn∂y2∂xn∂ymm×n
注意这里y一个梯度变成行了。
然后还要定义对矩阵求导y=f(A):Rn,n→R
∇A=∂a1,1∂y∂a2,1∂y...∂an,1∂y∂a1,2∂y∂a2,2∂y∂an,2∂y.........∂a1,n∂y∂a2,n∂y∂an,n∂y
拉格朗日乘子之类的东西放到后面写。