1. 神经网络中进行加权求和为什么要将w矩阵进行转置?
下面以一个简单的神经网络作为举例:
我们要将输入特征与W进行加权求和,想要的是下面这种结果:
但是根据矩阵相乘的运算法则:
- 矩阵A的列数(column)必须等于矩阵B的行数(row);
- 矩阵C的行数等于矩阵A的行数,列数等于B的列数;
下面是我们目前拥有的A、B矩阵:
显然,这两个矩阵是不符合矩阵相乘的运算法则的,因为此时A
的列数为5
,B
的行数为3
,所以要将矩阵A
进行转置,转置之后列数就为3
了;