Edit page

Espaços Vetoriais

Espaço Vetorial

Dizemos que um conjunto não vazio VV é um espaço vetorial (ou linear) sobre um conjunto K\mathbb{K} (com K{R,C,}\mathbb{K} \in \{ \mathbb{R}, \mathbb{C}, \cdots \}) se e apenas se lhe estiverem associadas duas principais operações (sendo que cada uma verifica um dado conjunto de propriedades):

  • Adição: x,yV    x+yVx, y \in V \implies x + y \in V; note-se que esta operação deve ser comutativa e associativa; deve ainda existir um único elemento neutro, 0V0 \in V, tal que x+0=xx + \overset{\rightarrow}{0} = x e ainda um único elemento simétrico, xV-x \in V, tal que x+(x)=0x + (-x) = \overset{\rightarrow}{0};
  • Multiplicação por escalar: xV,αK    αxVx \in V, \alpha \in \mathbb{K} \implies \alpha x \in V; esta operação deve ser associativa e distributiva, devendo ainda existir um elemento neutro (a identidade), tal que 1x=x1 \cdot x = x.

Extrai-se ainda, para a multiplicação por escalar, que xV,0x=0x=1x\forall x \in V, 0 \cdot x = \overset{\rightarrow}{0} \wedge -x = -1x.

A título de exemplo, tem-se que qualquer conjunto Rn\mathbb{R}^n é um espaço vetorial sobre R\mathbb{R}, já que, considerando x=(x1,x2,,xn)x = (x_1, x_2, \cdots, x_n) e y=(y1,y2,,yn)y = (y_1, y_2, \cdots, y_n):

  • x+y=(x1+y1,x2+y2,,xn+yn)x + y = (x_1 + y_1, x_2 + y_2, \cdots, x_n + y_n);
  • αx=(αx1,αx2,,αxn)\alpha x = (\alpha x_1, \alpha x_2, \cdots, \alpha x_n).

Note-se, claro, que para Rn\mathbb{R}^n todas as outras propriedades supra-referidas são também satisfeitas.

São exemplos, ainda, espaços como Pn\mathbb{P}_n, o conjunto de polinómios de grau n\leq n, F\mathbb{F}, o conjunto das funções reais de variável real f:RRf: \mathbb{R} \rightarrow \mathbb{R}, entre muitos outros.

Subespaços Vetoriais

Tendo abordado acima o conceito de espaço vetorial, podemos agora definir o de subespaço vetorial: tendo VV um espaço vetorial sobre K\mathbb{K}, dizemos que um subconjunto WVW \subseteq V é um subespaço vetorial de VV se e apenas se WW satisfaz as mesmas propriedades de VV - verificando todos os axiomas e propriedades que VV verifica, podemos então dizer que WW é também um espaço vetorial sobre K\mathbb{K}.

Podemos, por exemplo, procurar mostrar que S={x1,x2R2:x1+x2=0}S = \{x_1, x_2 \in \mathbb{R}^2: x_1 + x_2 = 0\}, o conjunto de todos os pares de reais que somados dão zero (i.e simétricos), é um subespaço de R2\mathbb{R}^2: para tal, basta verificar que SS satisfaz todas as propriedades de um espaço vetorial:

  • 0S\overset{\rightarrow}{0} \in S, já que 0+0=00 + 0 = 0;
  • a adição está definida para este conjunto: considerando x=(x1,x2)x = (x_1, x_2) e y=(y1,y2)y = (y_1, y_2), x,yS:x+y=(x1+y1)+(x2+y2)=0+0=0x, y \in S: x + y = (x_1 + y_1) + (x_2 + y_2) = 0 + 0 = 0, pelo que x+y=(x1+y1,x2+y2)Sx + y = (x_1 + y_1, x_2 + y_2) \in S;
  • por fim, a multiplicação por escalar está também definida para SS: considerando x=(x1,x2)x = (x_1, x_2), xSx \in S e αR\alpha \in \mathbb{R}, αx1+αx2=α(x1+x2)=α0=0\alpha x_1 + \alpha x_2 = \alpha (x_1 + x_2) = \alpha 0 = 0, pelo que αx=(αx1,αx2)S\alpha x = (\alpha x_1, \alpha x_2) \in S.

Note-se que subespaços de R2\mathbb{R}^2 são o vetor nulo, retas que passem pela origem, e o próprio R2\mathbb{R}^2, claro.

É igualmente possível provar, através de um contra-exemplo ou por contradição, que um conjunto WVW \subseteq V não é um subespaço vetorial de VV. Tomemos como exemplo o conjunto W={x1,x2R2:x1x2=0}W = \{x_1, x_2 \in \mathbb{R}^2: x_1 x_2 = 0\}, o conjunto de todos os pares de reais que multiplicados dão zero (i.e. ortogonais). Não podemos afirmar que WW é um subespaço vetorial de R2\mathbb{R}^2, pois, por exemplo, x=(1,0)x = (1, 0) e y=(0,1)y = (0, 1) são elementos de WW, mas x+y=(1,1)Wx + y = (1, 1) \notin W.

Interseção, Soma e União de Subespaços Vetoriais

Dado um conjunto de espaços vetoriais {V1,V2,,Vn}\{V_1, V_2, \cdots, V_n\}, todos eles subespaços de um espaço vetorial VV, podemos definir a interseção entre estes espaços vetoriais como sendo o conjunto i=1nVi\bigcap_{i=1}^n V_i, o conjunto de todos os elementos comuns a todos os espaços vetoriais do conjunto. Para o provar, consideremos, por exemplo, os conjuntos arbitrários S1,S2S_1, S_2, tal que ambos são subespaços de um espaço SS. Como já vimos anteriormente, o nosso conjunto S1S2S_1 \cap S_2 terá, por forma a ser um subespaço de SS, de satisfazer três principais propriedades:

  • 0S1S2\overset{\rightarrow}{0} \in S_1 \cap S_2, já que 0S1\overset{\rightarrow}{0} \in S_1 e 0S2\overset{\rightarrow}{0} \in S_2 obrigatoriamente, sendo ambos subespaços de SS;
  • a adição está definida para este conjunto: considerando x=(x1,x2)x = (x_1, x_2) e y=(y1,y2)y = (y_1, y_2), x,yS1S2:x,yS1x,yS2x+yS1x+yS2x+yS1S2x, y \in S_1 \cap S_2: x, y \in S_1 \wedge x, y \in S_2 \Rightarrow x + y \in S_1 \wedge x + y \in S_2 \Rightarrow x + y \in S_1 \cap S_2;
  • por fim, a multiplicação por escalar está também definida para S1S2S_1 \cap S_2: considerando x=(x1,x2)x = (x_1, x_2), xS1S2x \in S_1 \cap S_2 e αK\alpha \in \mathbb{K}, xS1xS2αxS1αxS2αxS1S2x \in S_1 \wedge x \in S_2 \Rightarrow \alpha x \in S_1 \wedge \alpha x \in S_2 \Rightarrow \alpha x \in S_1 \cap S_2.

Se é verdade que podemos afirmar que a interseção de dois espaços vetoriais é também um subespaço vetorial, não é igualmente verdade que o possamos afirmar para a união de dois espaços vetoriais: basta pensar, por exemplo, num cenário com dois subespaços vetoriais, S1S_1 e S2S_2, tal que S1S_1 corresponde ao conjunto de todos os pontos no eixo das abscissas e S2S_2 corresponde ao conjunto de todos os pontos no eixo das ordenadas. (3,0)S1(3, 0) \in S_1 e (0,3)S2(0, 3) \in S_2, mas (3,3)S1S2(3, 3) \notin S_1 \cup S_2, pois (3,3)(3, 3) não pertence a nenhum dos dois subespaços vetoriais. Assim sendo, a soma não se diz fechada para esta operação, pelo que a união de subespaços não é, de forma generalizada, um subespaço vetorial.

Note-se, contudo, que a soma de dois espaços vetoriais é também um subespaço vetorial! A prova é relativamente simples: consideremos os espaços vetoriais S1S_1 e S2S_2, tal que ambos são subespaços de um espaço SS. Como já vimos anteriormente, o nosso conjunto S1+S2S_1 + S_2 terá, por forma a ser um subespaço de SS, de satisfazer três principais propriedades:

  • 0S1+S2\overset{\rightarrow}{0} \in S_1 + S_2, já que 0S1\overset{\rightarrow}{0} \in S_1 e 0S2\overset{\rightarrow}{0} \in S_2 obrigatoriamente, sendo ambos subespaços de SS;
  • a adição está definida para este conjunto: considerando x=(x1,x2)x = (x_1, x_2) e y=(y1,y2)y = (y_1, y_2), x,yS1+S2:xS1yS2x+yS1x+yS2x+yS1+S2x, y \in S_1 + S_2: x \in S_1 \wedge y \in S_2 \Rightarrow x + y \in S_1 \wedge x + y \in S_2 \Rightarrow x + y \in S_1 + S_2;
  • por fim, a multiplicação por escalar está definida para S1+S2S_1 + S_2: considerando x=(x1,x2)x = (x_1, x_2), xS1+S2x \in S_1 + S_2 e αK\alpha \in \mathbb{K}, xS1xS2αxS1αxS2αxS1+S2x \in S_1 \wedge x \in S_2 \Rightarrow \alpha x \in S_1 \wedge \alpha x \in S_2 \Rightarrow \alpha x \in S_1 + S_2.

Expansão Linear e Conjunto Gerador

Dado um conjunto de vetores {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\}, elementos de um espaço vetorial VV sobre K\mathbb{K}, podemos dizer que wVw \in V se pode escrever como uma combinação linear desses vetores se e só se existir um conjunto de coeficientes {c1,c2,,cn}\{c_1, c_2, \cdots, c_n\}, todos eles elementos de K\mathbb{K}, tal que:

w=c1v1+c2v2++cnvnw = c_1 v_1 + c_2 v_2 + \cdots + c_n v_n

Mais ainda, dizemos que o subconjunto de VV formado pelos vetores ww que podem ser escritos como uma combinação linear dos vetores {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\} corresponde à expansão linear, vulgo span, de VV em relação aos vetores {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\}:

L{v1,v2,,vn}={wV:w=c1v1+c2v2++cnvn,c1,c2,,cnK}L\{v_1, v_2, \cdots, v_n\} = \{w \in V: w = c_1 v_1 + c_2 v_2 + \cdots + c_n v_n, \forall c_1, c_2, \cdots, c_n \in \mathbb{K}\}

Um conjunto de vetores {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\} diz-se gerador de VV se e só se V=L{v1,v2,,vn}V = L\{v_1, v_2, \cdots, v_n\}.

A título de exemplo temos, claro, que os vetores {(1,0,0,0),(0,1,0,0),(0,0,1,0),(0,0,0,1)}\{(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)\} são geradores do espaço vetorial R4\mathbb{R}^4: podemos escrever qualquer vetor (x,y,z,w)R4(x, y, z, w) \in \mathbb{R}^4 como uma combinação linear dos vetores em questão, através de um simples produto escalar; (3,1,8,2)(3, 1, 8, 2), por exemplo, pode ser escrito através da combinação linear:

(3,1,8,2)=3(1,0,0,0)+1(0,1,0,0)+8(0,0,1,0)+2(0,0,0,1)(3, 1, 8, 2) = 3 \cdot (1, 0, 0, 0) + 1 \cdot (0, 1, 0, 0) + 8 \cdot (0, 0, 1, 0) + 2 \cdot (0, 0, 0, 1)
Exemplo

Nem sempre é tão fácil determinar se um conjunto de vetores é gerador de um espaço vetorial como foi acima. Assim sendo, fará sentido considerar casos mais peculiares; consideremos os seguintes vetores de R3\mathbb{R}^3:

v1=(1,2,1),v2=(0,0,1),v3=(2,4,5),v4=(3,6,0)v_1 = (1, 2, 1), \quad v_2 = (0, 0, 1), \quad v_3 = (2, 4, 5), \quad v_4 = (3, 6, 0)

Procuremos, primeiro, determinar a forma geral da expansão linear de {v1,v2,v3,v4}\{v_1, v_2, v_3, v_4\}, e de seguida aferir se os vetores em questão são geradores de R3\mathbb{R}^3.

Ora, como sabemos, um vetor de R3\mathbb{R}^3 pertence à expansão linear de {v1,v2,v3,v4}\{v_1, v_2, v_3, v_4\} se e só se pode ser escrito como uma combinação linear dos vetores em questão - i.e, se e só se pode ser escrito como:

(y1,y2,y3,y4)=c1(1,2,1)+c2(0,0,1)+c3(2,4,5)+c4(3,6,0)(y_1, y_2, y_3, y_4) = c_1 \cdot (1, 2, 1) + c_2 \cdot (0, 0, 1) + c_3 \cdot (2, 4, 5) + c_4 \cdot (3, 6, 0)

Ora, isto é equivalente a dizer que tal só acontece caso o vetor (y1,y2,y3,y4)(y_1, y_2, y_3, y_4) seja solução do seguinte sistema de equações lineares:

[102320461150][c1c2c3c4]=[y1y2y3]\begin{bmatrix} 1 & 0 & 2 & 3 \\ 2 & 0 & 4 & 6 \\ 1 & 1 & 5 & 0 \end{bmatrix} \begin{bmatrix} c_1 \\ c_2 \\ c_3 \\ c_4 \end{bmatrix} = \begin{bmatrix} y_1 \\ y_2 \\ y_3 \end{bmatrix}

Por eliminação de Gauss, teríamos o seguinte:

[1023y12046y21150y3][1023y10133y3y10000y22y1]\left[\begin{array}{cccc|c} 1 & 0 & 2 & 3 & y_1 \\ 2 & 0 & 4 & 6 & y_2 \\ 1 & 1 & 5 & 0 & y_3 \end{array}\right] \overset{\cdots}{\rightarrow} \left[\begin{array}{cccc|c} 1 & 0 & 2 & 3 & y_1 \\ 0 & 1 & 3 & -3 & y_3 - y_1 \\ 0 & 0 & 0 & 0 & y_2 - 2y_1 \end{array}\right]

Assim sendo, teríamos que L{v1,v2,v3,v4}={(y1,y2,y3)R3:y2=2y1}L\{v_1, v_2, v_3, v_4\} = \{(y_1, y_2, y_3) \in \mathbb{R}^3: y_2 = 2y_1\}. Note-se, claro, que esta expansão linear não é geradora de R3\mathbb{R}^3, precisamente porque existem vetores em R3\mathbb{R}^3 que não pertencem a L{v1,v2,v3,v4}L\{v_1, v_2, v_3, v_4\} (tal como (1,1,1)(1, 1, 1)).

Neste último exemplo, podíamos ter afirmado que os vetores {v1,v2,v3,v4}\{v_1, v_2, v_3, v_4\} não são geradores de R3\mathbb{R}^3 sem sequer ter de calcular a expansão linear de {v1,v2,v3,v4}\{v_1, v_2, v_3, v_4\}; basta, para tal, verificar se o sistema de equações lineares que define a expansão linear de {v1,v2,v3,v4}\{v_1, v_2, v_3, v_4\} tem alguma linha nula (ou seja, se após transformar o SEL em escada de linhas existe alguma linha sem pivô) - caso tenha, podemos afirmar que não é gerador. Por consequência, todo o conjunto gerador de Rn\mathbb{R}^n terá obrigatoriamente dimensão n\geq n.

Dependência e Independência Linear

A noção de dependência linear está intimamente ligada à de combinação linear; um conjunto de vetores {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\} diz-se linearmente dependente caso exista pelo menos um vetor vi{v1,v2,,vn}v_i \in \{v_1, v_2, \cdots, v_n\} tal que a combinação linear dos restantes vetores seja igual a viv_i. Caso contrário, o conjunto de vetores é dito linearmente independente.

Isto é equivalente, claro, a dizer que para ocorrer dependência linear entre um conjunto de vetores terá de existir um conjunto de escalares {c1,c2,,cn}\{c_1, c_2, \cdots, c_n\}, não todos nulos, tal que j=1ncjvj=0\sum_{j=1}^n c_j v_j = \overrightarrow{0}.

Prova

A prova é relativamente simples: considerando um conjunto de vetores {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\} linearmente dependente, podemos escrever, para pelo menos um vetor vi{v1,v2,,vn}v_i \in \{v_1, v_2, \cdots, v_n\}:

j=1,jincjvj=vi\sum_{j=1, j \neq i}^n c_j v_j = v_i

Isto significa, claro, que c1v1++(1)vi++cnvn=0c_1 v_1 + \cdots + (-1) v_i + \cdots + c_n v_n = 0, pelo que garantidamente teremos escalares c1,,cnc_1, \cdots, c_n não todos nulos (já que ci=1c_i = -1) tal que:

i=1ncivi=0\sum_{i=1}^n c_i v_i = \overrightarrow{0}

Mais ainda, isto corresponderá precisamente a:

vi=(c1ci)v1++(cnci)vnv_i = \left(-\frac{c_1}{c_i}\right) v_1 + \cdots + \left(-\frac{c_n}{c_i}\right) v_n

Ou seja, o vetor viv_i é uma combinação linear dos restantes vetores, pelo que o conjunto de vetores é linearmente dependente.

Note-se, claro, que qualquer conjunto de vetores {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\} que contenha pelo menos um vetor nulo é linearmente dependente: basta, para tal, notar que o coeficiente associado ao vetor nulo pode ser qualquer número, e que mantendo todos os outros coeficientes iguais a zero, i=1ncivi=0\sum_{i=1}^n c_i v_i = \overrightarrow{0} obrigatoriamente.

Mais ainda, podemos rapidamente notar que a noção de colinearidade de vetores é aqui bastante relevante: se {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\} é um conjunto de vetores onde pelo menos dois vetores, viv_i e vjv_j, são colineares, então {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\} é linearmente dependente. Isto porque, se viv_i e vjv_j são colineares, então podemos escrever vi=αvjv_i = \alpha v_j para algum α0\alpha \neq 0. Assim sendo, temos o seguinte:

0v1++vi++(α)vj++0vn=00v_1 + \cdots + v_i + \cdots + (-\alpha) v_j + \cdots + 0v_n = \overrightarrow{0}

Quando não estamos perante um conjunto de vetores onde pelo menos dois vetores são colineares/não estamos na presença do vetor nulo, podemos ainda assim verificar se este é linearmente dependente; para tal, recorreremos, mais uma vez, à representação matricial de um sistema de equações lineares.

Exemplo

Consideremos o seguinte conjunto de vetores:

v1=(4,3),v2=(2,1)v_1 = (4, 3), \quad v_2 = (2, 1)

Caso este conjunto seja linearmente independente, podemos escrever o seguinte:

c1v1+c2v2=0c1[43]+c2[21]=[00]c_1 v_1 + c_2 v_2 = \overrightarrow{0} \leftrightarrow c_1 \begin{bmatrix} 4 \\ 3 \end{bmatrix} + c_2 \begin{bmatrix} 2 \\ 1 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix}

Como sabemos, isto é equivalente à seguinte representação matricial:

[4231][c1c2]=[00]\begin{bmatrix} 4 & 2 \\ 3 & 1 \end{bmatrix} \begin{bmatrix} c_1 \\ c_2 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \end{bmatrix}

Podemos utilizar eliminação de Gauss para colocar a matriz em escada de linhas, obtendo:

[42012]\begin{bmatrix} 4 & 2 \\ 0 & \frac{-1}{2} \end{bmatrix}

Visto que todas as colunas do sistema possuem pivô, o sistema é consistente e tem solução única, pelo que o conjunto de vetores é linearmente independente. Note-se que, estando na presença de uma matriz quadrada, podíamos ter verificado se o sistema é consistente e tem solução única através da determinante da matriz - caso seja não nulo, o sistema é consistente e tem solução única (e estaríamos na presença de um conjunto linearmente independente).

Generalizando o observado no exemplo anterior, podemos verificar o seguinte:

Teorema

Tendo nn vetores {v1,v2,,vn}\{v_1, v_2, \cdots, v_n\} em Rm\mathbb{R}^m, o conjunto diz-se linearmente independente se e só se a matriz abaixo puder ser transformada numa matriz em escada de linhas, com um pivô por coluna, utilizando apenas operações elementares de linha:

[v1v2vn]=[v11v12v1nv21v22v2nvm1vm2vmn]\begin{bmatrix} v_1 & v_2 & \cdots & v_n \end{bmatrix} = \begin{bmatrix} v_{11} & v_{12} & \cdots & v_{1n} \\ v_{21} & v_{22} & \cdots & v_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ v_{m1} & v_{m2} & \cdots & v_{mn} \end{bmatrix}

Caso m=nm=n, a matriz é dita quadrada, e podemos verificar a (in)dependência linear através da nulidade do determinante da mesma.

Como consequência do supra-definido, temos o seguinte:

  • Todo o subconjunto gerador de Rm\mathbb{R}^m tem pelo menos mm vetores;
  • Todo o subconjunto de vetores de Rm\mathbb{R}^m com dimensão superior a mm é linearmente dependente (terá mais linhas que colunas, pelo que pelo menos uma coluna terá um pivô nulo);
  • Todo o subconjunto de Rm\mathbb{R}^m com dimensão mm diz-se gerador de Rm\mathbb{R}^m se e só se for linearmente independente.
  • Todo o subconjunto de dimensão mm gerador de Rm\mathbb{R}^m é linearmente independente.

Note-se, por fim, que dizemos que um conjunto gerador de Rm\mathbb{R}^m linearmente independente diz-se uma base de Rm\mathbb{R}^m. Correspondendo a uma matriz quadrada, e tendo em conta o que já referimos sobre a nulidade do seu determinante anteriormente, podemos afirmar que um conjunto de vetores é uma base de Rm\mathbb{R}^m se e só se a matriz correspondente for invertível!