Sistemas Lineares e Matrizes

6 Inversão e Transposição de Matrizes

No final da Seção 4, comentamos que se existisse um tipo de inverso multiplicativo para matrizes, este seria muito útil para encontrar soluções de sistemas lineares. Nos atemos aqui a matrizes quadradas para tratar indistintamente inversas à esquerda e à direita (uma vez que o produto de matrizes não é comutativo). Vejamos num exemplo \(2\times 2\): se \(A= \begin{bmatrix} 2 & 3 \\ -1 & -1 \end{bmatrix}\), queremos uma matriz \(X= \begin{bmatrix} x_{11} & x_{12} \\ x_{21} & x_{22} \end{bmatrix}\) tal que \(AX=I_2\) e \(XA=I_2\). Explicitando a primeira das igualdades, temos

\[ \begin{bmatrix} 2 & 3 \\ -1 & -1 \end{bmatrix} \begin{bmatrix} x_{11} & x_{12} \\ x_{21} & x_{22} \end{bmatrix}= \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}\implies \left\{ \begin{aligned} 2x_{11}+3x_{21}& =1\\ -x_{11}-x_{21}& =0\\ 2x_{12}+3x_{22}& =0\\ -x_{12}-x_{22}& =1\\ \end{aligned}\right., \]

um sistema \(4\times 4\), que pode ser desacoplado em dois sistemas, um com a primeira e segunda equações e outro com a terceira e a quarta. Ambos têm a mesma matriz de coeficientes, só mudando o nome das incógnitas (irrelevante) e os termos independentes. Chamando \(e_1= \begin{bmatrix} 1 \\ 0 \end{bmatrix}\) e \(e_2= \begin{bmatrix} 0 \\ 1 \end{bmatrix}\), as matrizes aumentadas são \([A|e_1]\) e \([A|e_2]\). Podemos discutir os dois sistemas simultaneamente aplicando a eliminação Gaussiana para a matriz \([A|e_1\ e_2]\):

\[ \left[ \begin{array}{cc|cc} 2& 3& 1& 0\\ -1& -1& 0& 1 \end{array}\right]\longrightarrow \left[ \begin{array}{cc|cc} 1& 0& -1& -3\\ 0& 1& 1& 2 \end{array}\right], \]

ou seja \(x_{11}=-1\), \(x_{21}=1\), \(x_{21}=-2\) e \(x_{22}=2\), ou seja, a matriz \(X\) aparece “após a barra de separação”. Verifique \(AX=I_2\) e também que \(XA=I_2\) (isso não é automático em princípio, mas sempre funciona - detalhes mais adiante).

Exercício

Covença-se que o procedimento acima generaliza-se para matrizes quadradas de qualquer ordem.

Observação

O procedimento acima não funciona se e somente, após a eliminação Gaussiana aplicada à matriz original, obtemos uma matriz resultante com pelo menos uma linha que é nula no bloco da esquerda e não nula no bloco da direita ((ou seja, o sistema não tem solução).

Definição 18 Inversa de uma Matriz

Dizemos que uma matriz quadrada \(A\in M_{n}(\mathbb {R})\) é invertível se existe \(X\in M_{n}(\mathbb {R})\) tal que \(AX=XA=I_n\). A matriz \(X\) é chamada inversa de \(A\) e é denotada por \(A^{-1}\) (pois é única como vemos abaixo).

Proposição 19

Se \(A\in M_{n}(\mathbb {R})\) é uma matriz invertível, então sua inversa é única.

Demonstração

Sejam \(X\) e \(Y\) inversas de \(A\). Então \(AX=I=AY\) e, multiplicando ambos os lados à esquerda por \(X\), temos

\[ X(AX)=X(AY)\implies (XA)X=(XA)Y\implies IX=IY\implies X=Y. \]

Consseguimos caracterizar as matrizes invertíveis em termos do processo de eliminação Gaussiana:

Teorema 20

\(A\in M_{n}(\mathbb {R})\) é invertível se e somente se o processo de eliminação Gaussiana aplicado a \(A\) resulta na matriz identidade \(I_n\).

Listamos a seguir algumas propriedades da inversão de matrizes:

Proposição 21

Sejam \(A,B\in M_{n}(\mathbb {R})\) matrizes invertíveis. Então \((A^{-1})^{-1}=A\) e \((AB)^{-1}=B^{-1}A^{-1}\).

Demonstração

Basta verificar diretamente. A primeira afirmação segue da unicidade da inversa. Já a segunda obtemos calculando:

\[ (AB)(B^{-1}A^{-1})=A(BB^{-1})A^{-1}=AI_nA^{-1}=AA^{-1}=I_n, \]

e, na outra ordem

\[ (B^{-1}A^{-1})(AB)=B^{-1}(A^{-1}A)B=B^{-1}I_nB=B^{-1}B=I_n. \]
Exercício

Sejam \(\alpha \in \mathbb {R}\), \(\alpha \neq 0\) e \(A\in M_{n}(\mathbb {R})\) invertível. Calcule, caso exista, \((\alpha A)^{-1}\).

Exercício

Sejam \(A,X\in M_{n}(\mathbb {R})\) tais que \(AX=I_n\). Mostre que \(XA=I_n\).

Assim, se temos o sistema quadrado \(Ax=b\), com \(A\in M_{n}(\mathbb {R})\) sendo uma matriz invertível, temos

\[ Ax=b\implies x=A^{-1}b. \]

Em termos de notação de matrizes aumentadas, temos \([A|b]\longrightarrow [I_n|A^{-1}b]\).

A transposição de matrizes é muito importante e se revelará útil nos conteúdos que se seguem. Formalmente temos a

Definição 22 Transposta de uma Matriz

Seja \(A=(a_{ij})\in M_{{m}\times {n}}(\mathbb {R})\). A transposta de \(A\) é a matriz \(A^t=(a_{ji})\in M_{{n}\times {m}}(\mathbb {R})\).

Em termos mais simples, a transposição de uma matriz produz uma matriz cujas linhas são as colunas da matriz original.

Exemplo
\[ \begin{bmatrix} 1 & 2 \\ 3 & 5 \\ 0 & 4 \end{bmatrix}^t= \begin{bmatrix} 1 & 3 & 0 \\ 2 & 5 & 4 \end{bmatrix},\quad \begin{bmatrix} x & y & z \end{bmatrix}^t= \begin{bmatrix} x \\ y \\ z \end{bmatrix}\quad \text{e}\quad \begin{bmatrix} 4 & 2 \\ 2 & 3 \end{bmatrix}= \begin{bmatrix} 4 & 2 \\ 2 & 3 \end{bmatrix}. \]

Inspirados pelo último exemplo acima, dizemos que uma matriz \(A\) é simétrica se \(A^t=A\). Isso implica automaticamente que a matriz deve ser quadrada.

Valem as seguintes propriedades para a transposição de matrizes:

Proposição 23

Sejam \(A\) e \(B\) matrizes. Sem que fizerem sentido, valem:

  1. \((A^t)^t=A\);

  2. \((A+B)^t=A^t+B^t\);

  3. \((\alpha A)^t=\alpha A^t\);

  4. \((AB)^t=B^tA^t\).

Exercício
  1. Mostre, através de um exemplo, que \((AB)^t\neq A^tB^t\) (mesmo quando os produtos fazem sentido).

  2. Mostre que se \(A\) e \(B\) são simétricas tais que \(AB=BA\) (ou seja, que elas comutam), então \((AB)^t=AB\).