3.4 Multiplicação entre Matrizes
Dadas duas matrizes \(A=(a_{ij})\in M_{{m}\times {n}}(\mathbb {R})\) e \(B=(b_{jk})\in M_{{n}\times {p}}(\mathbb {R})\), definimos a matriz \(AB=(c_{ik})\in M_{{m}\times {p}}(\mathbb {R})\), onde
A entrada na linha \(i\) e coluna \(k\) de \(A\) leva em conta a linha \(i\) de \(A\) e a coluna \(k\) de \(B\). A operação realizada entre essa linha de \(A\) e a coluna de \(B\) tem uma interpretação geométrica muito importante que será vista em momento apropriado 1 .
\(\left[ \begin{array}{ccc} \textcolor{blue}{1}& \textcolor{blue}{0}& \textcolor{blue}{2}\\ \textcolor{red}{2}& \textcolor{red}{-1}& \textcolor{red}{0} \\ 3& 1& 4 \end{array}\right] \left[ \begin{array}{cc} \textcolor{red}{1}& \textcolor{blue}{0}\\ \textcolor{red}{2}& \textcolor{blue}{1}\\ \textcolor{red}{3}& \textcolor{blue}{-1} \end{array}\right]= \left[ \begin{array}{cc} 7& \textcolor{blue}{-2}\\ \textcolor{red}{0}& -1\\ 17& -3 \end{array}\right]\);
\( \begin{bmatrix} 1 & -1 \\ 0 & 2 \\ 3 & 1 \end{bmatrix} \begin{bmatrix} 1 & 3 & 2 \\ -4 & 0 & 3 \end{bmatrix}= \begin{bmatrix} 5 & 3 & -1 \\ -8 & 0 & 6 \\ -1 & 9 & 9 \end{bmatrix}\);
\( \begin{bmatrix} 0 & 2 & 3 \\ -1 & 5 & 0 \\ 2 & 1 & 4 \end{bmatrix} \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix}= \begin{bmatrix} 13 \\ 9 \\ 16 \end{bmatrix}\);
\( \begin{bmatrix} a & b \\ c & d \end{bmatrix} \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}= \begin{bmatrix} a & b \\ c & d \end{bmatrix}\).
Sempre que as multiplicações envolvidas nas expressões abaixo fizerem sentido, valem as propriedades:
\(A(BC)=(AB)C\) (associativa);
\(A(B+C)=AB+AC\) e \((A+B)C=AC+BC\) (distributivas à esquerda e à direita);
se \(A\in M_{{m}\times {n}}(\mathbb {R})\), existem \(I_m\in M_{m}(\mathbb {R})\) e \(I_n\in M_{n}(\mathbb {R})\) tais que \(I_mA=A\) e \(AI_n=A\) (elementos neutros à esquerda e à direta).
Aplicações diretas da definição de produtos e propriedades do somatório (podemos ver em sala, se necessário).
Podemos mostrar que as matrizes \(I_n\) e \(I_m\) acima são únicas e que \(I_k= \begin{bmatrix} 1 & 0 & 0 & \cdots & 0 \\ 0 & 1 & 0 & \cdots & 0 \\ \vdots & 0 & \ddots & \ddots & \vdots \\ 0 & \vdots & \ddots & 1 & 0 \\ 0 & 0 & \cdots & 0 & 1 \end{bmatrix}\) é uma matriz com a propriedade de ser elemento neutro. Tal matriz é chamada matriz identidade de ordem \(k\).
Ao contrário do que acontece com a multiplicação de números reais, nem sempre é verdade que \(AB\) e \(BA\) estejam definidas simultaneamente. Se \(A\in M_{{m}\times {n}}(\mathbb {R})\) e \(B\in M_{{n}\times {p}}(\mathbb {R})\), então \(AB\) está definida é uma matriz \(m\times p\). Para que \(BA\) também esteja definida é necessário que \(m=p\). Nesse caso, \(AB\in M_{m}(\mathbb {R})\) e \(BA\in M_{n}(\mathbb {R})\). Assim, a igualdade \(AB=BA\) só tem chance de ser verificada se \(m=n=p\), ou seja se \(A\) e \(B\) são quadradas e de mesma ordem. Mesmo sob essas condições não podemos garantir que o produto de matrizes seha comutativo:
\[ \begin{bmatrix} 1 & 1 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} 1 & 0 \\ 1 & 0 \end{bmatrix}= \begin{bmatrix} 2 & 0 \\ 0 & 0 \end{bmatrix}\neq \begin{bmatrix} 1 & 1 \\ 1 & 1 \end{bmatrix}= \begin{bmatrix} 1 & 0 \\ 1 & 0 \end{bmatrix} \begin{bmatrix} 1 & 1 \\ 0 & 0 \end{bmatrix}. \]De maneira tão surpreendente quanto a não comutatividade, é possível que o produto de duas matrizes não nulas resulta na matriz identicamente nula 2 :
\[ \begin{bmatrix} 1 & 0 \\ 1 & 0 \end{bmatrix} \begin{bmatrix} 0 & 0 \\ 1 & 1 \end{bmatrix}= \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix}. \]