【注】参考邱锡鹏《神经网络与深度学习》。
1. 简介
在数学中, 矩阵微积分是多元微积分的一种特殊表达,尤其是在矩阵空间上进行讨论的时候。它把单个函数对多个变量或者多元函数对单个变量的偏导数写成向量和矩阵的形式,使其可以被当成一个整体被处理。
2. 偏导数
矩阵微积分的表示通常有两种符号约定:
- 分子布局(Numerator Layout)
- 分母布局(Denominator Layout)
两者的区别是一个标量关于一个向量的导数是写成行向量还是列向量。
【注】向量一般未特殊说明都是用列向量表示。
2.1 标量关于向量的偏导数
对于 M 维向量 x∈RM 和函数 y=f(x)∈R,则 y 关于 x 的偏导数为:
∂x∂y=[∂x1∂y,⋯,∂xM∂y]T∈RM×1
∂x∂y=[∂x1∂y,⋯,∂xM∂y]∈R1×M
在分母布局中,∂x∂y 为列向量;而在分子布局中,∂x∂y 为行向量。
2.2 向量关于标量的偏导数
对于标量 x∈R 和函数 y=f(x)∈RN,则 y 关于 x 的偏导数为:
∂x∂y=[∂x∂y1,⋯,∂x∂yN]∈R1×N
∂x∂y=[∂x∂y1,⋯,∂x∂yN]T∈RN×1
在分母布局中,∂x∂y 为行向量;而在分子布局中,∂x∂y 为列向量。
2.3 向量关于向量的偏导数
对于 M 维向量 x∈RM 和函数 y=f(x)∈RN,则 f(x) 关于 x 的偏导数为:
∂x∂f(x)=⎣⎡∂x1∂y1⋮∂xM∂y1⋯⋱⋯∂x1∂yN⋮∂xM∂yN⎦⎤=J(f(x))T∈RM×N
∂x∂f(x)=⎣⎡∂x1∂y1⋮∂x1∂yN⋯⋱⋯∂xM∂y1⋮∂xM∂yN⎦⎤=J(f(x))∈RN×M
对于 M 维向量 x∈RM 和函数 y=f(x)∈R,则 f(x) 关于 x 的二阶偏导数为:
∂x2∂2f(x)=⎣⎡∂x12∂2y⋮∂xM∂x1∂2y⋯⋱⋯∂x1∂xM∂2y⋮∂xM2∂2y⎦⎤=H(f(x))∈RM×M
【注】J 和 H 分别为 Jacobian 矩阵和 Hessian 矩阵。
3. 偏导数法则
以下偏导数法则仅以分母布局为例:
3.1 加减法则
若 x∈RM,y=f(x)∈RN,z=g(x)∈RN,则
∂x∂(y+z)=∂x∂y+∂x∂z∈RM×N
3.2 乘法法则
- 若 x∈RM,y=f(x)∈RN,z=g(x)∈RN,则
∂x∂yTz=∂x∂yz+∂x∂zy∈RM
- 若 x∈RM,y=f(x)∈RS,z=g(x)∈RT,A∈RS×T 和 x 无关,则
∂x∂yTAz=∂x∂yAz+∂x∂zATy∈RM
- 若 x∈RM,y=f(x)∈R,z=g(x)∈RN,则
∂x∂yz=y∂x∂z+∂x∂yzT∈RM×N
3.3 链式法则
- 若 x∈R,y=g(x)∈RM,z=f(y)∈RN,则
∂x∂z=∂x∂y∂y∂z∈R1×N
- 若 x∈RM,y=g(x)∈RK,z=f(y)∈RN,则
∂x∂z=∂x∂y∂y∂z∈RM×N
- 若 X∈RM×N 为矩阵,y=g(X)∈RK,z=f(y),则
∂xij∂z=∂xij∂y∂y∂z∈R
4. 附录
4.1 记忆小技巧:
- 可以把「标量对向量」和「向量对标量」求导中的标量看作是一维的行向量,而向量则为一般理解的列向量,则分母/分子布局就表示求导后的向量的布局是跟求导式的分母还是分子保持一致。
- 「标量对向量」求导:分母布局结果为列向量,分子布局结果为行向量。
- 「向量对标量」求导:分母布局结果为行向量,分子布局结果为列向量。
- 对于「向量对向量」求导:既可以看作是分子向量中的每个标量元素对分母向量求导,也可以看作是分母向量对分子向量中的每个标量元素求导,然后便可以使用上一条记忆方法。最终将每个求导的结果向量拼接成一个矩阵,即得到最终的分母/分子布局结果。