Sistemas Lineares e Matrizes

5 Resolução de Sistemas Lineares e Escalonamento de Matrizes

Definição 12 Sistemas Equivalentes

Dizemos que dois sistemas lineares são equivalentes se compartilham o mesmo conjunto de soluções.

Exemplo

Os sistemas

\[ \left\{ \begin{aligned} 2x+3y& =7\\ x-y& =1 \end{aligned}\right. \quad \text{e}\quad \left\{ \begin{aligned} 2x+3y& =7\\ \hfill -y& =1 \end{aligned}\right. \]

são equivalentes, pois a única solução de ambos é \(x=2\) e \(y=1\). Já os sistemas

\[ \left\{ \begin{aligned} x+2y& =3 \end{aligned}\right. \quad \text{e}\quad \left\{ \begin{aligned} 2x+3y& =5\\ x+2y& =3 \end{aligned}\right. \]

não são, pois o primeiro sistema tem soluções da forma \(y=\lambda \) e \(x=3-2\lambda \), para qualquer \(\lambda \in \mathbb {R}\), enquanto o segundo tem solução única: \(x=1\) e \(y=1\).

Agora veremos uma maneira de obter um sistema linear equivalente a um outro dado sistema que nos permitirá entender o seu conjunto de soluções. Vamos pensar primeiro em matrizes e em seguida ver como isso se aplica aos sistemas lineares (através das matrizes aumentadas associadas).

Definição 13 Forma Escalonada Reduzida por Linhas

Dizemos que uma matriz \(A\in M_{{m}\times {n}}(\mathbb {R})\) está na forma escalonada reduzida por linhas se:

  1. o primeiro elemento não nulo de cada linha (chamado de pivô) é \(1\);

  2. cada pivô de uma coluna está sempre à direita do pivô da coluna anterior e é o único elemento não nulo de sua coluna;

  3. cada linha nula está abaixo das linhas não totalmente nulas.

Exemplo

As matrizes identicamente nulas (\(\mathbb {0}\)) e as matrizes identidade de qualquer ordem estão na forma escalonada reduzidas por linhas. Além delas, temos, por exemplo

\[ \begin{bmatrix} 1 & 0 & -6 & 0 & 69 \\ 0 & 1 & 3 & 0 & -32 \\ 0 & 0 & 0 & 1 & 4 \\ 0 & 0 & 0 & 0 & 0 \\ \end{bmatrix}. \]

Por outro lado,

\[ \begin{bmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 \end{bmatrix},\quad \begin{bmatrix} 1 & 0 & 9 & 0 & 1 \\ 0 & 3 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 & 4 \end{bmatrix},\quad \begin{bmatrix} 1 & 0 & 9 & 0 & 1 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1 & 4 \end{bmatrix}\quad \text{e}\quad \begin{bmatrix} 0 & 1 & 2 & 0 & 0 \\ 1 & 0 & 9 & 0 & 1 \\ 0 & 0 & 0 & 1 & 4 \end{bmatrix} \]

não estão na forma escalonada reduzida por linhas. Identifique o motivo em cada caso.

Apresentamos a seguir um método para obter a forma escalonada reduzida por linhas de qualquer matriz. Esse algoritmo é conhecido como eliminação gaussiana, desenvolvido por Carl Friedrich Gauss. São necessárias apenas 3 operações (executadas na ordem correta) para obter a matriz na forma desejada. São elas:

  • multiplicar uma linhas por um número real não nulo;

  • somar um múltiplo de uma linha a outra linha, onde será armazenado o resultado;

  • trocar duas linhas de posição.

Exemplo

Consideramos a matriz \(\begin{bmatrix} 1 & 3 & 1 & 9 \\ 1 & 1 & -1 & 1 \\ 3 & 11 & 5 & 35 \end{bmatrix}\). As operações executadas em cada passo estão indicadas na seta:

\begin{align*} \begin{bmatrix} 1 & 3 & 1 & 9 \\ 1 & 1 & -1 & 1 \\ 3 & 11 & 5 & 35 \end{bmatrix}& \xrightarrow [-3\times L_1+L_3]{-1\times L_1+L_2}& \begin{bmatrix} 1 & 3 & 1 & 9 \\ 0 & -2 & -2 & -8 \\ 0 & 2 & 2 & 8 \end{bmatrix}& \xrightarrow {-\frac{1}{2}\times L_2}& \begin{bmatrix} 1 & 3 & 1 & 9 \\ 0 & 1 & 1 & 4 \\ 0 & 2 & 2 & 8 \end{bmatrix}\\ & \xrightarrow [-3\times L_2+L_1]{-2\times L_2+L_3}& \begin{bmatrix} 1 & 0 & -2 & -3 \\ 0 & 1 & 1 & 4 \\ 0 & 0 & 0 & 0 \end{bmatrix}.& & \end{align*}

A seguir um exemplo onde a troca de duas linhas é necessária.

Exemplo
\begin{align*} \begin{bmatrix} 0 & 0 & 3 & 9 \\ 1 & 5 & -2 & 2 \\ 1 & 2 & 0 & 3 \end{bmatrix}& \xrightarrow {L_1\leftrightarrow L_3}& \begin{bmatrix} 1 & 2 & 0 & 3 \\ 1 & 5 & -2 & 2 \\ 0 & 0 & 3 & 9 \end{bmatrix}& \xrightarrow {-1\times L_1+L_2}& \begin{bmatrix} 1 & 2 & 0 & 3 \\ 0 & 3 & -2 & -1 \\ 0 & 0 & 3 & 9 \end{bmatrix}& \\ & \xrightarrow {\frac{1}{3}\times L_3}& \begin{bmatrix} 1 & 2 & 0 & 3 \\ 0 & 1 & -\frac{2}{3} & -\frac{1}{3} \\ 0 & 0 & 3 & 9 \end{bmatrix}& \xrightarrow {-2\times L_3+L_1}& \begin{bmatrix} 1 & 0 & \frac{4}{3} & \frac{11}{3} \\ 0 & 1 & -\frac{2}{3} & -\frac{1}{3} \\ 0 & 0 & 3 & 9 \end{bmatrix}& \\ & \xrightarrow {\frac{1}{3}\times L_3}& \begin{bmatrix} 1 & 0 & \frac{4}{3} & \frac{11}{3} \\ 0 & 1 & -\frac{2}{3} & -\frac{1}{3} \\ 0 & 0 & 1 & 3 \end{bmatrix}& \xrightarrow [\frac{2}{3}L_3+L_2]{-\frac{4}{3}\times L_3+L_1}& \begin{bmatrix} 1 & 0 & 0 & -\frac{1}{3} \\ 0 & 1 & 0 & \frac{5}{3} \\ 0 & 0 & 1 & 3 \end{bmatrix}. \end{align*}

O resultado abaixo é bastante importante e intuitivo, mas vamos omitir sua demonstração.

Teorema 14 Unicidade da Eliminação Gaussiana

O processo de eliminação gaussiana produz uma única matriz na forma escalonada reduzida por linhas.

Verifique isso no exemplo anterior, trocando as linhas \(L_1\) e \(L_2\) no primeiro passo do algoritmo.

Ao que interessa: aplicar o escalonamento a sistemas lineares!

Quando escrevemos um sistema na notação matricial, \(Ax=b\), temos a matriz aumentada associada ao sistema, \([A|b]\), vista na Seção 2. Usaremos o seguinte resultado, omitindo neste texto sua demonstração 1

Teorema 15

Sejam \(Ax=b\) e \([A|b]\) um sistema linear e sua matriz aumentada respectivamente. Se \([\tilde{A}|\tilde{b}]\) é a matriz obtida via eliminação Gaussiana aplicada a \([A|b]\), então os sistemas \(Ax=b\) e \(\tilde{A}x=\tilde{b}\) são equivalentes.

Vamos aplicar o resultado acima para discutir os sistemas vistos nos exemplos anteriores:

  • Consideramos \(\left\{ \begin{aligned} 2x+3y& =7\\ x-y& =1 \end{aligned}\right.\). Escrevemos a matriz aumentada e aplicamos o algoritmo de eliminação Gaussiana (faça todas as contas):

    \[ \left[ \begin{array}{cc|c} 2& 3& 7\\ 1& -1& 1 \end{array}\right]\longrightarrow \left[ \begin{array}{cc|c} 1& 0& 2\\ 0& 1& 1 \end{array}\right] \]

    A matriz resulta representa o sistema \(\left\{ \begin{aligned} x+0y& =2\\ 0x+y& =1 \end{aligned}\right.\), ou seja, \(\left\{ \begin{aligned} x& =2\\ y& =1 \end{aligned}\right.\), cuja solução é obviamente \(x=2\) e \(y=1\) (SPD). Em vista do teorema anterior a solução sistema original é a mesma, como pode ser verificado diretamente.

  • \(\left\{ \begin{aligned} 2x+y-z& =8\\ -3x-y+2z& =-11\\ -2x+y+2z& =-3 \end{aligned}\right.\):

    \[ \left[ \begin{array}{ccc|c} 2& 1& -1& 8\\ -3& -1& 2& -11\\ -2& 1& 2& -3 \end{array}\right]\longrightarrow \left[ \begin{array}{ccc|c} 1& 0& 0& 2\\ 0& 1& 0& 3\\ 0& 0& 1& -1 \end{array}\right], \]

    mostrando que a única solução do sistema é \(x=2\), \(y=3\) e \(z=-1\) (SPD).

  • \(\left\{ \begin{aligned} 2x+4y-3z& =3\\ \hfill -2y+z& =-1\\ 2x+2y-2z& =1 \end{aligned}\right.\):

    \[ \left[ \begin{array}{ccc|c} 2& 4& -3& 3\\ 0& -2& 1& -1\\ 2& 2& -2& 1 \end{array}\right]\longrightarrow \left[ \begin{array}{ccc|c} 1& 0& -\frac{1}{2}& 0\\ 0& 1& -\frac{1}{2}& 0\\ 0& 0& 0& 1 \end{array}\right], \]

    donde vemos que a última equação do sistema torna-se \(0=1\), que não admite soluções. Logo, o sistema original é incompatível (SI).

  • O método também se aplica a sistemas com matriz de coeficientes não quadrada. Fazemos isso neste exemplo, no qual também aparece algo interessante.

    \[ \left\{ \begin{aligned} x+y-3z+t& =41\\ x+y-3z\phantom{+t}& =37\\ x+2y\phantom{+z+t}& =5\\ -y-3z+t& =36 \end{aligned}\right. \sim \left[ \begin{array}{cccc|c} 1& 1& -3& 1& 41\\ 1& 1& -3& 0& 37\\ 1& 2& 0& 0& 5\\ 0& -1& -3& 1& 36 \end{array}\right]\longrightarrow \left[ \begin{array}{cccc|c} 1& 0& -6& 0& 69\\ 0& 1& 3& 0& -32\\ 0& 0& 0& 1& 4\\ 0& 0& 0& 0& 0\\ \end{array}\right] \]

    A última equação escreve-se como \(0=0\) e o sistema escalonado fica então na forma

    \[ \left\{ \begin{aligned} x-6z& =69\\ y+3z& =-32\\ t=4 \end{aligned}\right.. \]

    Isso mostra que, para qualquer número real \(z\), \(x=69+6z\), \(y=-32-3z\) e \(t=4\) é uma solução do sistema. Nesse caso temos infinitas soluções (SPI), onde as variáveis dependentes (\(x\) e \(y\) neste caso) são determinadas pelo valor das variáveis independentes (somente \(z\) aqui). Neste caso dizemos que o sistema é SPI com um grau de liberdade.

Exercício

Estabeleça um critério que use a eliminação Gaussiana para classificar um sistema linear como SD, SPI ou SPI. No caso d eum sistema SPI, como podemos detectar quais as variáveis livres e quais as variáveis dependentes de um sistema linear qualquer?

Definição 16

Um sistema linear da forma \(Ax=\mathbb {0}\) é chamado de homogêneo. Dizemos que o sistema \(Ax=\mathbb {0}\) é o sistema homogêneo associado ao sistema \(Ax=b\).

Observação

É fácil observar que todo sistema linear homogêneo tem pelo menos uma solução.

É possível relacionar as soluções de um sistema não-homogêneo com o o seu homogêneo associado.

Teorema 17

Se \(x_p\) é uma solução de \(Ax=b\), então qualquer outra solução é da forma \(x=x_p+x_h\), onde \(x_h\) é uma solução do sistema homogêneo associado.

Demonstração

Se \(x_p\) e \(x\) são soluções de \(Ax=b\), então \(x_h=x-x_p\) é solução do sistema homogêneo associado. De fato:

\[ Ax_h=A(x-x_p)=Ax-Ax_p=b-b=\mathbb {0}. \]

Logo \(x=x_p+x_h\).

Exercício

Verifique o teorema no caso do último item do exemplo anterior, resolvendo o sistema homogêneo associado e utilizando uma solução particular qualquer (você consegue descobrir uma a partir da solução ali apresentada).

(sistemas homogêneos e não-homogêneos; relação entre um sistema não-homogêneo e o homogêneo associado).

  1. Isso pode ser feito formalmente utilizando o conceito de combinações lineares e subespaços gerados. Vamos abordar isso neste semestre em casos específicos.