Operações com Matrizes

Como definições iniciais auxiliares, atente-se nas seguintes notações:

  • [A]ij[A]_{ij} corresponde à entrada na linha ii, coluna jj da matriz AA.
  • O conjunto das matrizes m×nm \times n é representado por Mm×n(R)\mathbb{M}_{m\times n}(\mathbb{R}).

Soma de Matrizes e Produto de uma Matriz por um Escalar

Tanto a soma de matrizes como o produto de uma matriz por um escalar são das operações mais simples que vamos encontrar em Álgebra Linear, também devido à sua semelhança com operações que já conhecemos do secundário.

Tendo duas matrizes AA e BB tal que

A=[a11a12a1na21a22a2nam1am2amn] e B=[b11b12b1nb21b22b2nbm1bm2bmn]A = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix} \text{ e } B = \begin{bmatrix} b_{11} & b_{12} & \cdots & b_{1n} \\ b_{21} & b_{22} & \cdots & b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ b_{m1} & b_{m2} & \cdots & b_{mn} \end{bmatrix}

Dizemos que a matriz-resultado da sua soma, A+BA + B, é a seguinte matriz:

A+B=[a11+b11a12+b12a1n+b1na21+b21a22+b22a2n+b2nam1+bm1am2+bm2amn+bmn]A + B = \begin{bmatrix} a_{11} + b_{11} & a_{12} + b_{12} & \cdots & a_{1n} + b_{1n} \\ a_{21} + b_{21} & a_{22} + b_{22} & \cdots & a_{2n} + b_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} + b_{m1} & a_{m2} + b_{m2} & \cdots & a_{mn} + b_{mn} \end{bmatrix}

Note-se que a operação pode ser feita com um número arbitrário de matrizes, seguindo as propriedades da soma nos reais já conhecidas: tendo A+B+CA + B + C, podemos escrever A+(B+C)A + (B + C), somando assim AA à matriz B+CB + C.

O produto de uma matriz por um escalar, αR\alpha \in \mathbb{R}, também não tem nada que saber: corresponde apenas à multiplicação de todas as entradas de AA por α\alpha.

αA=[αa11αa12αa1nαa21αa22αa2nαam1αam2αamn]\alpha A = \begin{bmatrix} \alpha a_{11} & \alpha a_{12} & \cdots & \alpha a_{1n} \\ \alpha a_{21} & \alpha a_{22} & \cdots & \alpha a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ \alpha a_{m1} & \alpha a_{m2} & \cdots & \alpha a_{mn} \end{bmatrix}

Propriedades

Podemos, claro, definir algumas propriedades quanto às operações referidas acima. Note-se que apesar de muitas das propriedades das operações nos reais transitarem para as operações no espaço matricial, tal não acontece sempre! Não devemos, portanto, assumir sem segurança que podemos recorrer a todas as propriedades que vimos no secundário.

A comutatividade, A+B=B+AA + B = B + A, e a associatividade, A+(B+C)=(A+B)+CA + (B + C) = (A + B) + C e (αβ)A=α(βA)(\alpha\beta)A = \alpha(\beta A), são válidas para este conjunto de operações, com provas relativamente triviais. Mais ainda, podemos afirmar que a propriedade distributiva se verifica, α(A+B)=αA+αB\alpha (A + B) = \alpha A + \alpha B e (α+β)A=αA+βA(\alpha + \beta)A = \alpha A + \beta A.

Podemos ainda afirmar que existe o elemento neutro, que na soma corresponde à matriz nula: tendo uma matriz AA, m×nm \times n, dizemos que a respetiva matriz nula é uma matriz 00, m×nm \times n, completamente preenchida por zeros, tal que A+0=AA + 0 = A.

As noções de simétrico e subtração transitam de igual forma dos reais.

Produto Matricial

O produto de matrizes é uma operação relativamente simples, mas que requer alguma prática para a sua interiorização.

Considerando duas matrizes AA e BB, respetivamente m×nm \times n e n×pn \times p, tal que

A=[a11a12a1na21a22a2nam1am2amn] e B=[b11b12b1pb21b22b2pbn1bn2bnp]A = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix} \text{ e } B = \begin{bmatrix} b_{11} & b_{12} & \cdots & b_{1p} \\ b_{21} & b_{22} & \cdots & b_{2p} \\ \vdots & \vdots & \ddots & \vdots \\ b_{n1} & b_{n2} & \cdots & b_{np} \end{bmatrix}

temos que o respetivo produto matricial, A×BA \times B, corresponde a uma matriz m×pm \times p, onde o valor de cada uma das suas entradas é dada pela soma seguinte:

[AB]ij=k=1naikbkj[AB]_{ij} = \sum_{k=1}^n a_{ik} b_{kj}

O excerto apresentado de seguida poderá ajudar a compreender melhor o que está de facto a acontecer:

Exemplo - Multiplicação Matricial

O produto matricial só pode ser realizado caso o número de colunas da matriz à esquerda seja igual ao número de linhas da matriz à direita. Isto impede, por exemplo, que o produto matricial goze da propriedade comutativa.

Podemos, por exemplo, pensar no excerto acima e perceber que só funciona porque o número de colunas da matriz à esquerda é igual ao número de linhas da matriz à direita: caso a matriz à direita tivesse três linhas, por exemplo, tentava-se multiplicar cada linha por cada coluna, mas havendo apenas 2 elementos por linha na matriz à esquerda, o terceiro elemento das colunas da matriz à direita ia ficar "sem par", invalidando assim a operação.

O produto de matrizes goza das propriedades associativa e distributiva:

  • (AB)C=A(BC)(AB)C = A(BC)
  • α(AB)=(αA)(B)=A(αB)\alpha (AB) = (\alpha A)(B) = A(\alpha B)
  • A(B+C)=AB+ACA(B + C) = AB + AC
  • (A+B)C=AC+BC(A + B)C = AC + BC

Note-se, como foi referido anteriormente, que não goza da propriedade comutativa.

Por fim, é relevante realçar que a lei do anulamento do produto, presente nos reais, não se aplica aqui: tendo o produto matricial ABAB, não é obrigatório que pelo menos uma das matrizes corresponda à matriz nula para o produto também o ser.

Matriz Identidade

Foi referido anteriormente o elemento neutro da soma de matrizes, a matriz nula. Tal como nos produto dos reais, existe também no produto matricial um elemento neutro, a matriz identidade.

A matriz identidade é dos elementos mais simples que vamos abordar nesta cadeira: uma matriz quadrada, isto é, m×mm \times m, onde todos os elementos são iguais a zero, exceto os elementos na diagonal, que são iguais a um.

Im=[100010001]I_m = \begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1 \end{bmatrix}

Sendo o elemento neutro do produto de matrizes, temos, claro, que Im×A=A×Im=AI_m \times A = A \times I_m = A.

Matriz Elementar

Foi referida anteriormente a noção de transformação elementar, que nos permitia obter matrizes equivalentes através de pequenas operações intermédias. O nome "elementar" advém das matrizes elementares, matrizes obtidas através de uma única operação, as tais transformações elementares. São exemplos as seguintes matrizes:

[100110001],[100001010],[100010001]L2+L1L2L3L3\begin{array}{ccc} \begin{bmatrix} 1 & 0 & 0 \\ \smartcolor{orange}{1} & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix}, & \begin{bmatrix} 1 & 0 & 0 \\ 0 & 0 & \smartcolor{green}{1} \\ 0 & \smartcolor{green}{1} & 0 \end{bmatrix}, & \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & \smartcolor{blue}{-1} \end{bmatrix} \\ L_2 + L_1 & L_2 \leftrightarrow L_3 & -L_3 \end{array}

Temos ainda que, dadas uma matriz elementar EE e uma qualquer matriz AA, a matriz EAEA corresponde precisamente à aplicação da transformação elementar correspondente a EE à matriz AA:

[100110001][a11a12a1na21a22a2na31a32a3n]=[a11a12a1na11+a21a12+a22a1n+a2na31a32a3n]\begin{bmatrix} 1 & 0 & 0 \\ \smartcolor{orange}{1} & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ a_{31} & a_{32} & \cdots & a_{3n} \end{bmatrix} = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{11} + a_{21} & a_{12} + a_{22} & \cdots & a_{1n} + a_{2n} \\ a_{31} & a_{32} & \cdots & a_{3n} \end{bmatrix}
[100001010][a11a12a1na21a22a2na31a32a3n]=[a11a12a1na31a32a3na21a22a2n]\begin{bmatrix} 1 & 0 & 0 \\ 0 & 0 & \smartcolor{green}{1} \\ 0 & \smartcolor{green}{1} & 0 \end{bmatrix} \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ a_{31} & a_{32} & \cdots & a_{3n} \end{bmatrix} = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{31} & a_{32} & \cdots & a_{3n} \\ a_{21} & a_{22} & \cdots & a_{2n} \end{bmatrix}
[100010001][a11a12a1na21a22a2na31a32a3n]=[a11a12a1na21a22a2na31a32a3n]\begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & \smartcolor{blue}{-1} \end{bmatrix} \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ a_{31} & a_{32} & \cdots & a_{3n} \end{bmatrix} = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ -a_{31} & -a_{32} & \cdots & -a_{3n} \end{bmatrix}

Podemos daqui retirar que, sendo EAEA o resultado de aplicar a transformação elementar correspondente a EE à matriz AA, EkE1A=LE_k \cdots E_1 A = L corresponderá a uma possível sequência de kk transformações elementares aplicadas a AA, com resultado LL - é isso, aliás, que acontece quando tentamos colocar AA sob a forma de escada de linhas!

Exemplo

É frequentemente pedido em exercícios que, dada uma matriz AA, cheguemos a uma matriz em escada de linhas equivalente, LL, e que indiquemos a sequência de transformações elementares, B=EkE1B = E_k \cdots E_1, que permitiram obter LL. Temos, claro, que a sequência EkE1E_k \cdots E_1 terá início na matriz identidade, II, pelo que podemos resolver o exercício da seguinte forma:

[022100113010022001]AIL1L2[113010022100022001]E1AE1IL3L2[113010022100000101]E2E1AE2E1\underbrace{\left[\begin{array}{ccc|ccc} 0 & 2 & 2 & 1 & 0 & 0 \\ 1 & 1 & 3 & 0 & 1 & 0 \\ 0 & 2 & 2 & 0 & 0 & 1 \end{array}\right]}_{A|I} \underrightarrow{L_1 \leftrightarrow L_2} \underbrace{\left[\begin{array}{ccc|ccc} 1 & 1 & 3 & 0 & 1 & 0 \\ 0 & 2 & 2 & 1 & 0 & 0 \\ 0 & 2 & 2 & 0 & 0 & 1 \end{array}\right]}_{E_1 A|E_1 I} \underrightarrow{L_3 - L_2} \underbrace{\left[\begin{array}{ccc|ccc} 1 & 1 & 3 & 0 & 1 & 0 \\ 0 & 2 & 2 & 1 & 0 & 0 \\ 0 & 0 & 0 & -1 & 0 & 1 \end{array}\right]}_{E_2 E_1 A|E_2 E_1}

Note-se que à direita vamos formando BB, a matriz correspondente à sequência de transformações elementares, e à esquerda LL, a matriz equivalente a AA sob a forma de escada de linhas.

Por fim, resta realçar que, dada uma matriz LL em escada de linhas, existe uma sequência de matrizes elementares EkE1E_k \cdots E_1 tal que EkE1L=IE_k \cdots E_1 L = I.

Matrizes Invertíveis

Definição

Uma matriz quadrada AA diz-se invertível caso exista uma matriz BB tal que AB=BA=IAB = BA = I.
BB será, caso exista, única para AA, designando-se inversa de AA, A1A^{-1}.

Note-se que a matriz nula é o caso mais simples de uma matriz não invertível, já que o seu produto por qualquer outra matriz será necessariamente a matriz nula - nunca a matriz identidade. Mais ainda, qualquer matriz com uma linha ou coluna nula será também não invertível, já que o seu produto por qualquer outra matriz terá uma linha ou coluna também nula, impossibilitando assim a obtenção da matriz identidade. A inversa da matriz identidade é a própria matriz identidade.

Propriedades

A matriz inversa de uma qualquer matriz elementar EE é a matriz elementar correspondente à transformação elementar "oposta" à que leva a EE. Seguem-se alguns exemplos:

[100030001]1=[1000130001];[100010201]1=[100010201]\begin{bmatrix} 1 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 1 \end{bmatrix}^{-1} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & \frac{1}{3} & 0 \\ 0 & 0 & 1 \end{bmatrix}; \qquad \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 & 1 \end{bmatrix}^{-1} = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ -2 & 0 & 1 \end{bmatrix}

A inversa da inversa é a própria matriz: (A1)1=A(A^{-1})^{-1} = A: sabemos, por definição, que

A1A=AA1=I,A^{-1} A = A A^{-1} = I,

pelo que tanto temos A1A^{-1} sendo a inversa de AA como o contrário.

Por fim, (AB)1=B1A1(AB)^{-1} = B^{-1} A^{-1} é outra propriedade com que vamos contactar bastante durante a cadeira. Podemos prová-lo da seguinte forma (recorrendo à propriedade associativa):

(B1A1)(AB)=B1(A1A)B=B1IB=(B1I)B=B1B=I\begin{aligned} (B^{-1} A^{-1}) (AB) &= B^{-1} (A^{-1} A)B \\ &= B^{-1} I B \\ &= (B^{-1} I) B \\ &= B^{-1} B \\ &= I \end{aligned}

Generalizando, e utilizando uma prova semelhante, podemos afirmar que:

(A1A2Ak)1=Ak1A21A11(A_1 A_2 \cdots A_k)^{-1} = A_k^{-1} \cdots A_2^{-1} A_1^{-1}

Algoritmo de Gauss-Jordan

Abordámos acima a invertibilidade matricial. Não vimos, contudo, como podemos chegar (algoritmicamente) à inversa de uma matriz. O algoritmo de Gauss-Jordan vai ajudar-nos nisso mesmo.

O algoritmo de Gauss-Jordan assenta em duas proposições fundamentais:

Proposições

Dada uma matriz AA, m×mm \times m, caso exista uma sequência de matrizes elementares E1,,EkE_1, \cdots, E_k e uma matriz LL em escada de linhas com menos de kk pivôs tal que

EkE2E1A=L,E_k \cdots E_2 E_1 A = L,

podemos afirmar que AA não é invertível. Ora, isto acaba por ser claro considerando a proposição seguinte: se existir uma sequência E1,,EkE_1, \cdots, E_k tal que

EkE2E1A=I,E_k \cdots E_2 E_1 A = I,

AA será invertível, com a respetiva inversa a corresponder precisamente ao produto EkE2E1E_k \cdots E_2 E_1.

O algoritmo de Gauss-Jordan será, portanto, parecido ao algoritmo apresentado no exemplo mais acima (onde foi demonstrada a transformação de uma matriz AA numa matriz LL equivalente em escada de linhas): aqui, contudo, em vez de querermos transformar AA em LL arbitrário, vamos querer transformá-la na matriz identidade: desta forma, à direita vamos obter A1A^{-1}, seguindo a mesma lógica apresentada anteriormente.

Procuremos então consultar o seguinte exemplo:

[110100010010122001]AIL3+L1[110100010010012101]E1AE1L3+L2[110100010010002111]E2E1AE2E1\underbrace{\left[\begin{array}{ccc|ccc} 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 & 1 & 0 \\ -1 & -2 & 2 & 0 & 0 & 1 \end{array}\right]}_{A|I} \underrightarrow{L_3 + L_1} \underbrace{\left[\begin{array}{ccc|ccc} 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 & 1 & 0 \\ 0 & -1 & 2 & 1 & 0 & 1 \end{array}\right]}_{E_1 A|E_1} \underrightarrow{L_3 + L_2} \underbrace{\left[\begin{array}{ccc|ccc} 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 & 1 & 0 \\ 0 & 0 & 2 & 1 & 1 & 1 \end{array}\right]}_{E_2 E_1 A|E_2 E_1}
12L3[110100010010001121212]E3E2E1AE3E2E1L1L2[100110010010001121212]E4E3E2E1AE4E3E2E1\underrightarrow{\frac{1}{2}L_3} \underbrace{\left[\begin{array}{ccc|ccc} 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 & 1 & 0 \\ 0 & 0 & 1 & \frac{1}{2} & \frac{1}{2} & \frac{1}{2} \end{array}\right]}_{E_3 E_2 E_1 A|E_3 E_2 E_1} \underrightarrow{L_1 - L_2} \underbrace{\left[\begin{array}{ccc|ccc} 1 & 0 & 0 & 1 & -1 & 0 \\ 0 & 1 & 0 & 0 & 1 & 0 \\ 0 & 0 & 1 & \frac{1}{2} & \frac{1}{2} & \frac{1}{2} \end{array}\right]}_{E_4 E_3 E_2 E_1 A|E_4 E_3 E_2 E_1}

Temos, assim que E4E3E2E1AE_4 E_3 E_2 E_1 A corresponde à matriz identidade, tendo portanto que A1=E4E3E2E1A^{-1} = E_4 E_3 E_2 E_1!

Podemos ainda, partindo daqui (existe uma prova adicional), afirmar que toda a matriz invertível corresponde ao produto de matrizes elementares.

Equações Matriciais

Resolver equações do tipo AX=BAX=B corresponde, com efeito, a um simples produto matricial:

  • X=A1BX = A^{-1}B, para AX=BAX=B
  • X=BA1X = BA^{-1}, para XA=BXA=B.

Estamos, assim, a resolver equações matriciais (com incógnita XX) através de um produto de matrizes!

Note-se que AA e BB terão de ter forçosamente:

  • igual número de linhas para o primeiro caso, já que o produto matricial AXAX terá necessariamente o mesmo número de linhas de AA;
  • igual número de colunas para o segundo caso, já que o produto matricial XAXA terá necessariamente o mesmo número de colunas de AA.
Exemplo

Tendo as seguintes matrizes:

A=[3210] e B=[6371]A = \begin{bmatrix} 3 & 2 \\ 1 & 0 \end{bmatrix} \text{ e } B = \begin{bmatrix} 6 & 3 \\ 7 & -1 \end{bmatrix}

Podemos facilmente chegar a XX, para XA=BXA = B:

XA=BX=BA1=[6371][3210]1=[6371][011232]=[323212172]\begin{aligned} XA &= B\\ X &= BA^{-1}\\ &= \begin{bmatrix} 6 & 3 \\ 7 & -1 \end{bmatrix} \begin{bmatrix} 3 & 2 \\ 1 & 0 \end{bmatrix}^{-1}\\ &= \begin{bmatrix} 6 & 3 \\ 7 & -1 \end{bmatrix} \begin{bmatrix} 0 & 1 \\ \frac{1}{2} & \frac{-3}{2} \end{bmatrix}\\ &= \begin{bmatrix} \frac{3}{2} & \frac{3}{2} \\ \frac{-1}{2} & \frac{17}{2} \end{bmatrix} \end{aligned}

tip

Caso queiram confirmar os resultados que obtiveram a fazer exercícios, quer seja na inversão de uma matriz como em outras operações, o site matrixCalc é uma ferramenta muito útil para o efeito.