6 Inversão e Transposição de Matrizes
No final da Seção 4, comentamos que se existisse um tipo de inverso multiplicativo para matrizes, este seria muito útil para encontrar soluções de sistemas lineares. Nos atemos aqui a matrizes quadradas para tratar indistintamente inversas à esquerda e à direita (uma vez que o produto de matrizes não é comutativo). Vejamos num exemplo \(2\times 2\): se \(A= \begin{bmatrix} 2 & 3 \\ -1 & -1 \end{bmatrix}\), queremos uma matriz \(X= \begin{bmatrix} x_{11} & x_{12} \\ x_{21} & x_{22} \end{bmatrix}\) tal que \(AX=I_2\) e \(XA=I_2\). Explicitando a primeira das igualdades, temos
um sistema \(4\times 4\), que pode ser desacoplado em dois sistemas, um com a primeira e segunda equações e outro com a terceira e a quarta. Ambos têm a mesma matriz de coeficientes, só mudando o nome das incógnitas (irrelevante) e os termos independentes. Chamando \(e_1= \begin{bmatrix} 1 \\ 0 \end{bmatrix}\) e \(e_2= \begin{bmatrix} 0 \\ 1 \end{bmatrix}\), as matrizes aumentadas são \([A|e_1]\) e \([A|e_2]\). Podemos discutir os dois sistemas simultaneamente aplicando a eliminação Gaussiana para a matriz \([A|e_1\ e_2]\):
ou seja \(x_{11}=-1\), \(x_{21}=1\), \(x_{21}=-2\) e \(x_{22}=2\), ou seja, a matriz \(X\) aparece “após a barra de separação”. Verifique \(AX=I_2\) e também que \(XA=I_2\) (isso não é automático em princípio, mas sempre funciona - detalhes mais adiante).
Covença-se que o procedimento acima generaliza-se para matrizes quadradas de qualquer ordem.
O procedimento acima não funciona se e somente, após a eliminação Gaussiana aplicada à matriz original, obtemos uma matriz resultante com pelo menos uma linha que é nula no bloco da esquerda e não nula no bloco da direita ((ou seja, o sistema não tem solução).
Dizemos que uma matriz quadrada \(A\in M_{n}(\mathbb {R})\) é invertível se existe \(X\in M_{n}(\mathbb {R})\) tal que \(AX=XA=I_n\). A matriz \(X\) é chamada inversa de \(A\) e é denotada por \(A^{-1}\) (pois é única como vemos abaixo).
Se \(A\in M_{n}(\mathbb {R})\) é uma matriz invertível, então sua inversa é única.
Sejam \(X\) e \(Y\) inversas de \(A\). Então \(AX=I=AY\) e, multiplicando ambos os lados à esquerda por \(X\), temos
Consseguimos caracterizar as matrizes invertíveis em termos do processo de eliminação Gaussiana:
\(A\in M_{n}(\mathbb {R})\) é invertível se e somente se o processo de eliminação Gaussiana aplicado a \(A\) resulta na matriz identidade \(I_n\).
Listamos a seguir algumas propriedades da inversão de matrizes:
Sejam \(A,B\in M_{n}(\mathbb {R})\) matrizes invertíveis. Então \((A^{-1})^{-1}=A\) e \((AB)^{-1}=B^{-1}A^{-1}\).
Basta verificar diretamente. A primeira afirmação segue da unicidade da inversa. Já a segunda obtemos calculando:
e, na outra ordem
Sejam \(\alpha \in \mathbb {R}\), \(\alpha \neq 0\) e \(A\in M_{n}(\mathbb {R})\) invertível. Calcule, caso exista, \((\alpha A)^{-1}\).
Sejam \(A,X\in M_{n}(\mathbb {R})\) tais que \(AX=I_n\). Mostre que \(XA=I_n\).
Assim, se temos o sistema quadrado \(Ax=b\), com \(A\in M_{n}(\mathbb {R})\) sendo uma matriz invertível, temos
Em termos de notação de matrizes aumentadas, temos \([A|b]\longrightarrow [I_n|A^{-1}b]\).
A transposição de matrizes é muito importante e se revelará útil nos conteúdos que se seguem. Formalmente temos a
Seja \(A=(a_{ij})\in M_{{m}\times {n}}(\mathbb {R})\). A transposta de \(A\) é a matriz \(A^t=(a_{ji})\in M_{{n}\times {m}}(\mathbb {R})\).
Em termos mais simples, a transposição de uma matriz produz uma matriz cujas linhas são as colunas da matriz original.
Inspirados pelo último exemplo acima, dizemos que uma matriz \(A\) é simétrica se \(A^t=A\). Isso implica automaticamente que a matriz deve ser quadrada.
Valem as seguintes propriedades para a transposição de matrizes:
Sejam \(A\) e \(B\) matrizes. Sem que fizerem sentido, valem:
\((A^t)^t=A\);
\((A+B)^t=A^t+B^t\);
\((\alpha A)^t=\alpha A^t\);
\((AB)^t=B^tA^t\).
Mostre, através de um exemplo, que \((AB)^t\neq A^tB^t\) (mesmo quando os produtos fazem sentido).
Mostre que se \(A\) e \(B\) são simétricas tais que \(AB=BA\) (ou seja, que elas comutam), então \((AB)^t=AB\).