Edit page

Produto Interno e Ortogonalidade

Apesar da introdução a álgebra linear ter sido realizada até agora através de sistemas lineares, existe uma diversidade enorme de aplicações geométricas desta área. Podemos por isso, generalizar muitas noções geométricas a qualquer espaço linear, não só a Rn\R^n mas a qualquer espaço linear.

Produto interno usual em Rn\R^n

O produto interno usual em Rn\R^n pode ser definido simplesmente por

Definição

Sejam xx, yy vetores de Rn\R^n, tal que x=(x1,x2,x3,...,xn)x=(x_1,x_2,x_3,... , x_n) e y=(y1,y2,y3,...,yn)y=(y_1,y_2,y_3,..., y_n)

x,y=x1y1+x2y2+...+xnyn\langle x,y \rang =x_1y_1 +x_2y_2+...+x_ny_n

ou seja,

x,y=[x1x2...xn][y1y2...yn]=xTy\langle x,y \rang = \begin{bmatrix} x_1 & x_2 & ... & x_n \end{bmatrix}\begin{bmatrix} y_1 \\ y_2 \\ ... \\ y_n \end{bmatrix} = x^Ty

Produto interno em Cn\C^n

O produto interno usual em Cn\C^n é em muito similar ao produto em Rn\R^n, mas com algumas diferenças.
Segue-se a fórmula deste:

Definição

Sejam xx, yy vetores de Cn\C^n, tal que x=(x1,x2,x3,...,xn)x=(x_1,x_2,x_3,... , x_n) e y=(y1,y2,y3,...,yn)y=(y_1,y_2,y_3,..., y_n)

x,y=xˉ1y1+xˉ2y2+...+xˉnyn\langle x,y \rang =\bar{x}_1y_1 +\bar{x}_2y_2+...+\bar{x}_ny_n

ou seja,

x,y=[xˉ1xˉ2...xˉn][y1y2...yn]=xˉTy\langle x,y \rang = \begin{bmatrix} \bar{x}_1 & \bar{x}_2 & ... & \bar{x}_n \end{bmatrix} \begin{bmatrix} y_1 \\ y_2 \\ ... \\ y_n \end{bmatrix} = \bar{x}^Ty

Nota: Verifica-se que se a fórmula do produto interno usual for aplicada aos números reais, que se obtém a fórmula do produto interno usual dos números reais pois xˉ=x,xR\bar{x}=x, \forall x \in \R.

Propriedades do Produto Interno

Qualquer que seja o produto interno, este seguirá sempre as seguintes propriedades:

Simetria

x,y=y,x\langle x,y \rang = \langle y,x \rang (em R\R) ou x,y=y,x\langle x,y \rang = \overline{\langle y,x \rang} (em C\C)

Linearidade

x,αy+βz=αx,y+βx,z \langle x,\alpha y + \beta z \rang = \alpha \langle x,y\rang + \beta \langle x,z\rang

Positividade

x,x0\langle x,x \rang \geqslant 0 e x,x=0\langle x,x \rang = 0 apenas quando x=0 x=0

A partir destas características fundamentais pode-se definir o conceito de espaço Euclidiano.

Espaço Euclidiano

Espaço linear munido de munido de produto interno

Num espaço euclidiano definem-se os seguintes conceitos:

Norma

x=x,x\parallel x\parallel = \langle x,x \rang

Distância

dist(u,v)=uv\op{dist}(u,v) = \parallel u-v\parallel

Matriz de Gram

Matriz de Gram

Seja WW um espaço linear real (resp. complexo) munido de um produto interno e B=(v1,v2,...,vn)B=(v_1,v_2,...,v_n) uma base ordenada de WW. A matriz G=[vi,vj](i,j=1,...,n)G={[\langle v_i,v_j\rang]}_{(i,j=1,...,n)} dos produtos internos dos vetores da base BB é designada por matriz de Gram ou matriz da métrica, relativa a essa mesma base. A matriz GG verifica:

  1. GG é simétrica (respetivamente Hermitiana);
  2. GG é definida positiva, isto é, xBTGxb>0x^T_BGx_b>0 para todo x0x \not = 0 (resp. xBHGyB>0 x^H_BGy_B>0, para todo x0x \not = 0), ou seja, os valores próprios da matriz GG têm de ser todos positivos.

Em relação à base BB, o produto interno em WW escreve-se na forma

x,y=xBTGyB\langle x,y \rang = x^T_BGy_B

onde xBx_B e yBy_B são respetivamente, os vetores de coordenadas de xx e yy na base BB.

Desigualdade de Cauchy-Schwarz

Num espaço euclidiano qualquer verifica-se que

u,vuv1\large{\dfrac{| \langle u,v\rang |}{\| u \| \|v \|}} \leqslant 1

Esta desigualdade permite diretamente chegar à noção de ângulo entre vetores.

Ângulo entre vetores

u,vuv=cosθ,θ[0,π]\large{\dfrac{ \langle u,v\rang }{\| u \| \|v \|}} =\cos \theta, \quad \theta \in [0, \pi]

Ortogonalidade

Com todas as noções previamente discutidas, torna-se possível discutir ortogonalidade entre dois vetores.

Definição

uvu,v=0u \perp v \Leftrightarrow \langle u,v\rang=0

Com a definição de ortogonalidade, pode-se concluir que o Teorema de Pitágoras é válido, tal que, se uvu \perp v então uv2=u2+v2\|u-v\|^2=\|u\|^2+\|v\|^2.

Com a ortogonalidade entre vetores definida sai a definição de conjunto ortogonal.

Conjunto Ortogonal

S={v1,v2,...,vn} S=\{v_1,v_2,...,v_n\} é ortogonal se os vetores de SS são ortogonais 2 a 2, isto é:

vi,vj=0\langle v_i, v_j \rang= 0 para iji \not= j

De forma muito similar,

Conjunto Ortonormado

S={v1,v2,...,vn}S=\{v_1,v_2,...,v_n\} é ortonormado se os vetores de SS são ortogonais 2 a 2 e se a norma de todos os vetores for 1, isto é:

vi,vj={0se ij1se i=j\langle v_i, v_j \rang= \begin{cases} 0 &\text{se } i \not = j \\ 1 &\text{se } i = j \end{cases}

Proposição

Um conjunto ortogonal S={v1,v2,...,vn}S=\{v_1,v_2,...,v_n\} que não contenha o vetor nulo é linearmente independente.

Projeção ortogonal

Num espaço linear WW munido de um produto interno, a projeção ortogonal do vetor uWu \isin W sobre o vetor não nulo vWv \isin W é definida por

projuv=u,vu2\op{proj}_u v =\dfrac{ \langle u,v\rang }{\| u \|^2}

Desigualdade Triangular

u+vu+v\|u+v\|\le \|u\|+\|v\|

Complemento ortogonal

Dois subespaços UU e VV dizem-se subespaços complementares se qualquer vetor de WW se escreve na forma w=u+vw=u+v e se a interseção dos subespaços é nula (UV={}U\cap V=\{\empty \}).

Tendo em conta esta definição,

dimW=dimU+dimV\dim W= \dim U+ \dim V

Pode-se expandir esta noção, criando a noção de complemento ortogonal.

Complemento Ortogonal

Seja WW um espaço linear munido de um produto interno e SS um subespaço de WW O complemento ortogonal de SS é o conjunto de todos os vetores de WW que são ortogonais a qualquer vetor de SS. Designamos o complemento ortogonal do subespaço SS por SS^\perp.

Proposição

O complemento ortogonal SS^\perp do subespaço SS é um subespaço.

Proposição

Seja SS um subespaço e SS^\perp o seu complemento ortogonal. Verifica-se que:

SS={}S \cap S^\perp=\{\empty\}

Tendo em conta que a interseção de um subespaço com o seu complemento ortogonal é o vazio, e tendo em conta que a sua união é o espaço, fica a questão de se qualquer vetor do espaço pode ser decomposto em vetores dos dois espaços. (Sim, e faz-se da seguinte forma)

Teorema da decomposição ortogonal

Seja WW um espaço euclidiano e SS um subespaço de WW. Qualquer vector xWx\in W escreve-se de forma única como a soma de um vetor xSx_S de SS com um vetor xSx_{S^\perp} do complemento ortogonal de SS. Isto é, x=xS+xSx=x_S+x_{S^\perp} com xSSx_S \in S e xSx_{S^\perp}.

Define-se a projeção ortogonal de xx sobre o subespaço SS^\perp como projSx=xS\op{proj}_{S^\perp}x=x_{S^\perp}

Hiperplano

Num espaço linear de dimensão nn, chama-se hiperplano a um subespaço de dimensão (n1)(n-1)

Teorema da melhor aproximação

Sendo WW um espaço euclidiano e SS um subespaço de WW e vv um vetor de WW, então

xprojSxxu\| x-\op{proj}_Sx\|\le \|x-u\|

para qualquer uSu \in S

Distância a um subespaço

Seja WW um espaço linear, SS um subespaço de WW e xx um vetor de WW. A distância de xx a SS é:

dist(x,S)=projSxdist(x,S)= \|\op{proj}_{S^\perp}x\|

Ortogonalidade dos subespaços fundamentais de uma Matriz

(EL(A))=N(A)e(EC(A))=N(AT)(EL(A))^\perp=N(A) \quad \text{e} \quad (EC(A))^\perp=N(A^T)

Ortogonalização de Gram-Schmidt

Expressar vetores numa base ortonormada é relativamente simples, mas fica a questão de como obter uma tal base, a partir de um conjunto já existente de vetores. Para tal pode-se usar o método de ortogonalização de Gram Schmidt.

Ortogonalização de Gram Schmidt

Seja V={v1,v2,...,vk}V=\{v_1,v_2,...,v_k\}, com k>1k>1, um conjunto linearmente independente de um espaço euclidiano. O conjunto U={u1,u2,...,uk}U=\{u_1,u_2,...,u_k\} formado pelos vetores

u1=v1u2=v2u1,v2u12=uk=vkproju1vkproju2vkprojuk1vk\begin{aligned} u_1 &= v_1 \\ u_2 &= v_2-\frac{\langle u_1,v_2\rang}{\|u_1\|^2} \\ &= \dots \\ u_k &= v_k-\op{proj}_{u_1}v_k-\op{proj}_{u_2}v_k-\dots-\op{proj}_{u_{k-1}}v_k \end{aligned}

é ortogonal.

Os conjuntos UU e VV geram o mesmo espaço.