Sistemas de Equações Lineares com Coeficientes Constantes

Definição

Equação do tipo:

 ⁣dy ⁣dt=Ay+B(t)\frac{\d y}{\d t} = A y + B(t)

em que

  • AA é uma matrix quadrada n×nn \times n
  • y(t)y(t) é uma função RRn\R \to \R^n
  • B(t)B(t) é uma função continua de RRn\R \to \R^n

Se B(t)0B(t) \equiv 0 a equação designa-se por homogénea.

Se tivermos, por exemplo, o sistema, que podemos facilmente resolver linha a linha:

{ ⁣dx ⁣dt=x ⁣dy ⁣dt=x+yet ⁣dz ⁣dt=x+y+z2et{x=ety=etz=et\begin{cases} \frac{\d x}{\d t} = x\\ \frac{\d y}{\d t} = x + y - e^t\\ \frac{\d z}{\d t} = x + y + z - 2e^t \end{cases} \Leftrightarrow \begin{cases} x = e^t\\ y = e^t\\ z = e^t \end{cases}

Podemos reescrever o sistema acima para obter a forma de equação linear com coeficientes constantes.

 ⁣dw ⁣dt=[xx+yetx+y+z2et]=[xx+yx+y+z]+[0et2et]=[100110111][xyz]+[0et2et]=[100110111]w+[0et2et]\begin{aligned} \frac{\d w}{\d t} &= \begin{bmatrix} x\\ x+y-e^t\\ x+y+z-2e^t \end{bmatrix}\\ & = \begin{bmatrix} x\\ x+y\\ x+y+z \end{bmatrix} + \begin{bmatrix} 0\\ -e^t\\ -2e^t \end{bmatrix}\\ & = \begin{bmatrix} 1 & 0 & 0\\ 1 & 1 & 0\\ 1 & 1 & 1 \end{bmatrix} \begin{bmatrix} x\\ y\\ z \end{bmatrix} + \begin{bmatrix} 0\\ -e^t\\ -2e^t \end{bmatrix}\\ & = \begin{bmatrix} 1 & 0 & 0\\ 1 & 1 & 0\\ 1 & 1 & 1 \end{bmatrix} w + \begin{bmatrix} 0\\ -e^t\\ -2e^t \end{bmatrix} \end{aligned}

Equações Homogéneas

Começando então pelo caso em que B(t)0B(t) \equiv 0, temos que:

 ⁣dy ⁣dt=Ay\frac{\d y}{\d t} = A y

com uma matrix AA quadrada n×nn \times n.

Para n=1n=1 sabemos que y=keAty = k e^{At}. Para n>1n>1 vamos ter exatamente a mesma coisa, mas para isso temos de definir o exponencial de uma matriz.

Exponencial de matrizes

Por definição, tal como em dimensão 1, onde

eα=n=0+αnn!e^\alpha = \sum_{n = 0}^{+\infty} \frac{\alpha^n}{n!}

passamos a ter, para uma matrix AA quadrada n×nn \times n:

eA=Id+A+12A2+13!A3+=k=0+Akk!e^A = Id + A + \frac{1}{2} A^2 + \frac{1}{3!} A^3 + \dots = \sum_{k=0}^{+\infty} \frac{A^k}{k!}

Numa explicação mais teórica, dizemos que

eA=limN+k=0N1k!Ake^A = \lim_{N \to +\infty} \sum_{k=0}^{N} \frac{1}{k!}A^k

e poderíamos concluir que este limite é absolutamente convergente (carece de demonstração).

Exemplo pela definição

Queremos calcular o valor de eAte^{At} da matriz

A=[2100]A = \begin{bmatrix} 2 & 1\\ 0 & 0 \end{bmatrix}

Vamos então tentar descobrir AkA^k, para podemos utilizar a definição.

eA=Id+A+12A2+13!A3+e^A = Id + A + \frac{1}{2} A^2 + \frac{1}{3!} A^3 + \dots
A2=[2100][2100]=[4200]A^2 = \begin{bmatrix} 2 & 1\\ 0 & 0 \end{bmatrix} \begin{bmatrix} 2 & 1\\ 0 & 0 \end{bmatrix} = \begin{bmatrix} 4 & 2\\ 0 & 0 \end{bmatrix}
A3=[4200][2100]=[8400]A^3 = \begin{bmatrix} 4 & 2\\ 0 & 0 \end{bmatrix} \begin{bmatrix} 2 & 1\\ 0 & 0 \end{bmatrix} = \begin{bmatrix} 8 & 4\\ 0 & 0 \end{bmatrix}

Podemos então concluir que AkA^k:

Ak=[2k2k100],k1A^k = \begin{bmatrix} 2^k & 2^{k-1}\\ 0 & 0 \end{bmatrix}, k \geq 1

É possível verificar este resultado por indução matemática, mas tal prova foi omitida.

Assim temos que:

eAt=Id+k=1+Aktkk!=[1001]+k=1+1k![2ktktk2k100]=[1001]+[k=1+2ktkk!k=1+2k1tkk!00]=[k=0+2ktkk!12k=1+2ktkk!01]=[e2t12(e2t1)01]\begin{aligned} e^{At} &= Id + \sum_{k=1}^{+\infty} \frac{A^k t^k}{k!}\\ &= \begin{bmatrix} 1 & 0\\ 0 & 1 \end{bmatrix} + \sum_{k=1}^{+\infty} \frac{1}{k!} \begin{bmatrix} 2^k t^k & t^k 2^{k-1}\\ 0 & 0 \end{bmatrix}\\ &= \begin{bmatrix} 1 & 0\\ 0 & 1 \end{bmatrix} + \begin{bmatrix} \sum_{k=1}^{+\infty} \frac{2^k t^k}{k!} & \sum_{k=1}^{+\infty} \frac{2^{k-1}t^k}{k!}\\ 0 & 0 \end{bmatrix}\\ &=\begin{bmatrix} \sum_{k=0}^{+\infty} \frac{2^k t^k}{k!} & \frac{1}{2}\sum_{k=1}^{+\infty} \frac{2^k t^k}{k!}\\ 0 & 1 \end{bmatrix}\\ &= \begin{bmatrix} e^{2t} & \frac{1}{2} (e^{2t} - 1)\\ 0 & 1 \end{bmatrix} \end{aligned}

Proposição

Se A=SJS1A = S J S^{-1}, em que A,S,JA, S, J são matrizes n×nn \times n e SS é invertível (detS0\det S \ne 0), então

eA=SeJS1e^A = S e^J S^{-1}
Demonstração
A2=AA=SJS1SJS1=SJJS1=SJ2S1A3=A2A=SJ2S1SJS1=SJ2JS1=SJ3S1Ak=SJkS1\begin{darray}{l} A^2 = A A = S J S^{-1} S J S^{-1} = S J J S^{-1} = S J^2 S^{-1}\\ A^3 = A^2 A = S J^2 S^{-1} S J S^{-1} = S J^2 J S^{-1} = S J^3 S^{-1}\\ A^k = S J^k S^{-1} \end{darray}

Temos assim,

eA=k=0+1k!Ak=k=0+1k!SJkS1=Sk=0+1k!JkS1=SeJS1\begin{aligned} e^A &= \sum_{k=0}^{+\infty} \frac{1}{k!}A^k\\ &= \sum_{k=0}^{+\infty} \frac{1}{k!}SJ^kS^{-1}\\ &= S \sum_{k=0}^{+\infty} \frac{1}{k!} J^k S^{-1}\\ &= S e^J S^{-1} \end{aligned}

Esta proposição irá ser útil porque se repararmos, isto significa que se tivermos uma matriz diagonal JJ, ou seja, AA for diagonizável, podemos facilmente descobrir o exponencial de AA devido às seguinte duas propriedades:

Ak=[λ1k000λ2k00000λnk]etA=[eλ1t000eλ2t00000eλnt]\begin{darray}{cc} A^k = \begin{bmatrix} \lambda_1^k & 0 & \dots & 0\\ 0 & \lambda_2^k & \dots & 0\\ \vdots & \vdots & \ddots & 0\\ 0 & 0 & 0 & \lambda_n^k \end{bmatrix} & e^{tA} = \begin{bmatrix} e^{\lambda_1 t} & 0 & \dots & 0\\ 0 & e^{\lambda_2 t} & \dots & 0\\ \vdots & \vdots & \ddots & 0\\ 0 & 0 & 0 & e^{\lambda_n t} \end{bmatrix} \end{darray}

Se quisermos verificar que determinámos bem a exponencial de uma matrix AA, podemos usar os seguintes critérios de verificação:

  1. etAt=0=Ide^{tA} \big|_{t=0} = Id
  2.  ⁣detA ⁣dtt0=AetAt=0=A\frac{\d e^{tA}}{\d t} \big|_{t_0} = Ae^{tA} \big|_{t=0} = A
Exemplo 1

Determinar exponencial da matriz AA:

A=[3113]A = \begin{bmatrix} 3 & 1\\ 1 & 3 \end{bmatrix}

Determinar valores e vetores próprios:

det(AλI)=3λ113λ=(3λ)21\det(A - \lambda I) = \begin{vmatrix} 3 - \lambda & 1\\ 1 & 3 - \lambda \end{vmatrix} = (3-\lambda) ^2 - 1

Após calcular as raízes do polinómio, temos assim valores próprios: λ=2\lambda = 2 e λ=4\lambda = 4.
Vamos calcular agora os vetores próprios.

  • Para λ=2\lambda = 2:

    Nul(A2I)=Nul[1111]=L{(1,1)}\operatorname{Nul} (A - 2I) = \operatorname{Nul} \begin{bmatrix} 1 & 1\\ 1 & 1 \end{bmatrix} = \mathcal{L} \{(1,-1)\}
  • Para λ=4\lambda = 4:

    Nul(A4I)=Nul[1111]=L{(1,1)}\operatorname{Nul} (A - 4I) = \operatorname{Nul} \begin{bmatrix} -1 & 1\\ 1 & -1 \end{bmatrix} = \mathcal{L} \{(1,1)\}

Temos assim que A=SΛS1A = S \Lambda S^{-1} com

S=[1111]Λ=[2004]\begin{darray}{cc} S = \begin{bmatrix} 1 & 1\\ -1 & 1 \end{bmatrix} & \Lambda = \begin{bmatrix} 2 & 0\\ 0 & 4 \end{bmatrix} \end{darray}

A matriz SS corresponde aos vetores próprios, e a matrix Λ\Lambda aos valores próprios.

Então,

etA=SetΛS1=[1111][e2t00e4t]S1=[e2te4te2te4t]12[1111]=[e2t+e4t2e4te2t2e4te2t2e4t+e2t2]\begin{aligned} e^{tA} &= S e ^{t\Lambda} S^{-1}\\ &= \begin{bmatrix} 1 & 1\\ -1 & 1 \end{bmatrix} \begin{bmatrix} e^{2t} & 0\\ 0 & e^{4t} \end{bmatrix} S^{-1}\\ &= \begin{bmatrix} e^{2t} & e^{4t}\\ -e^{2t} & e^{4t} \end{bmatrix} \frac{1}{2} \begin{bmatrix} 1 & -1\\ 1 & 1 \end{bmatrix}\\ &= \begin{bmatrix} \frac{e^{2t} + e^{4t}}{2} & \frac{e^{4t} - e^{2t}}{2}\\ \frac{e^{4t} - e^{2t}}{2} & \frac{e^{4t} + e^{2t}}{2} \end{bmatrix} \end{aligned}

Vamos agora testar os critérios de verificação:

[e0+e02e0e02e0e02e0+e02]=[1001]=Id\begin{bmatrix} \frac{e^{0} + e^{0}}{2} & \frac{e^{0} - e^{0}}{2}\\ \frac{e^{0} - e^{0}}{2} & \frac{e^{0} + e^{0}}{2} \end{bmatrix} = \begin{bmatrix} 1 & 0\\ 0 & 1 \end{bmatrix} = Id
[2e2t+4e4t24e4t2e2t24e4t2e2t22e2t+4e4t2]t=0[3113]=A\begin{bmatrix} \frac{2e^{2t} + 4e^{4t}}{2} & \frac{4e^{4t} - 2e^2t}{2}\\ \frac{4e^{4t} - 2e^2t}{2} & \frac{2e^{2t} + 4e^{4t}}{2} \end{bmatrix} \underset{t=0}{\longrightarrow} \begin{bmatrix} 3 & 1\\ 1 & 3 \end{bmatrix} = A
Exemplo 2

Determinar exponencial da matriz AA:

A=[1111]A = \begin{bmatrix} 1 & -1\\ 1 & 1 \end{bmatrix}

Calculemos agora os valores e vetores próprios de AA:

det(AλI)=(1λ)2+1λ=1+iλ=1i\begin{darray}{c} \det(A - \lambda I) = (1-\lambda) ^2 + 1\\ \begin{darray}{cc} \lambda = 1 + i & \lambda = 1 - i \end{darray}\\ \end{darray}
  • Para λ=1+i\lambda = 1 + i:

    Nul(A(1+i)I)=Nul[i11i]=L{(1,i)}\operatorname{Nul} (A - (1 + i)I) = \operatorname{Nul} \begin{bmatrix} -i & -1\\ 1 & -i \end{bmatrix} = \mathcal{L} \{(1, -i)\}
  • Para λ=1i\lambda = 1 - i:

    Nul(A(1i)I)=L{(1,i)}\operatorname{Nul} (A - (1 - i)I) = \mathcal{L} \{(1, i)\}

Então, temos SS e Λ\Lambda que satisfazem SΛS1S\Lambda S^{-1}:

S=[11ii]Λ=[1+i001i]\begin{darray}{cc} S = \begin{bmatrix} 1 & 1\\ -i & i \end{bmatrix} & \Lambda = \begin{bmatrix} 1 + i & 0\\ 0 & 1 - i \end{bmatrix} \end{darray}

E finalmente:

etA=SetΛS1=[11ii][et+it00etit]12i[i1i1]=et2[11ii][eit00eit][1i11]==et2[eit+eitieitieitieit+ieiteit+eit]==et[costsintsintcost]\begin{aligned} e^{tA} &= S e^{t\Lambda} S^{-1}\\ &= \begin{bmatrix} 1 & 1\\ -i & i \end{bmatrix} \begin{bmatrix} e^{t+it} & 0\\ 0 & e^{t - it} \end{bmatrix} \frac{1}{2i} \begin{bmatrix} i & -1\\ i & 1 \end{bmatrix}\\ &= \frac{e^t}{2} \begin{bmatrix} 1 & 1\\ -i & i \end{bmatrix} \begin{bmatrix} e^{it} & 0\\ 0 & e^{-it} \end{bmatrix} \begin{bmatrix} 1 & i\\ 1 & -1 \end{bmatrix}\\ &= \dots\\ &= \frac{e^t}{2} \begin{bmatrix} e^{it} + e^{-it} & i e^{it} - i e^{-it}\\ - i e^{it} + i e^{-it} & e^{it} + e^{-it} \end{bmatrix}\\ &= \dots\\ &= e^t \begin{bmatrix} \cos t & -\sin t\\ \sin t & \cos t \end{bmatrix} \end{aligned}

Matrizes por Blocos

Por vezes as matrizes não são diagonizáveis. Vamos ver mais à frente como podemos usar matrizes divididas em blocos para determinar as exponenciais destas matrizes.

Uma matriz está dividida em blocos, se tiver blocos n×nn \times n na sua diagonal, em que todos os outros valores fora da diagonal são 00. Os blocos podem ser de qualquer tamanho, inclusive 1×11 \times 1.

etA=[etB1000000000etB200000000000000000000000000000etBj]\def\marray#1{\hspace{-5pt}\begin{array}{c}#1\end{array}\hspace{-5pt}} e^{tA} = \begin{bmatrix} \boxed{e^{tB_1}} & \marray{0&0&0} & 0 & \dots &\marray{0&0}\\ \marray{0\\ 0\\ 0} & \boxed{\marray{&&\\ &e^{tB_2}&\\ &&}} & \marray{0\\0\\0} & \marray{\dots\\\dots\\\dots} & \marray{0&0\\0&0\\0&0}\\ 0 & \marray{0&0&0} & \ddots & \dots & \marray{0&0}\\ \vdots & \marray{\vdots & \vdots & \vdots} & \vdots & \ddots & \marray{0& 0}\\ \marray{0\\0} & \marray{0&0&0\\0&0&0} & \marray{0\\0} & \marray{0\\0} & \boxed{\marray{e^{tB_j} &\\&}} \end{bmatrix}

Abaixo está um exemplo de uma matriz com três blocos:

etA=[200000000031432520000000000000000110]\def\marray#1{\hspace{-5pt}\begin{array}{c}#1\end{array}\hspace{-5pt}} e^{tA} = \begin{bmatrix} \boxed{2} & \marray{0&0&0} &\marray{0&0}\\ \marray{0\\ 0\\ 0} & \boxed{\marray{0&3&1\\4&-3&2\\5&2&0}} & \marray{0&0\\0&0\\0&0}\\ \marray{0\\0} & \marray{0&0&0\\0&0&0} & \boxed{\marray{0&1\\1&0}} \end{bmatrix}
Exemplo 3

Vendo o exemplo 1 e 2 do tópico anterior, podemos fazer uma matriz que tem dois blocos, um com cada uma das matrizes dos exemplos.

A=[1100110000310013]A = \begin{bmatrix} 1 & -1 & 0 & 0\\ 1 & 1 & 0 & 0\\ 0 & 0 & 3 & 1\\ 0 & 0 & 1 & 3 \end{bmatrix}

Assim, temos que

etA=[etcostetsint00etsintetcost0000e2t+e4t2e4te2t200e4te2t2e4t+e2t2]e^{tA} = \begin{bmatrix} e^t \cos t & -e^t \sin t & 0 & 0\\ e^t \sin t & e^t \cos t & 0 & 0\\ 0 & 0 & \frac{e^{2t} + e^{4t}}{2} & \frac{e^{4t} - e^{2t}}{2}\\ 0 & 0 & \frac{e^{4t} - e^{2t}}{2} & \frac{e^{4t} + e^{2t}}{2} \end{bmatrix}

Blocos de Jordan

Dá-se o nome de bloco de Jordan de dimensão nn a uma matriz JλJ_\lambda quadrada n×nn \times n da forma:

Jλ=[λ10000λ10000λ00000λ10000λ]J_\lambda = \begin{bmatrix} \lambda & 1 & 0 & \cdots & 0 & 0\\ 0 & \lambda & 1 & \cdots & 0 & 0\\ 0 & 0 & \lambda & \cdots & 0 & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots & \vdots\\ 0 & 0 & 0 & \cdots & \lambda & 1\\ 0 & 0 & 0 & \cdots & 0 & \lambda \end{bmatrix}

Portanto

Jλ=[ju,j]i,k=1,,ncomji,k={λse i=k1se i=k10nos restantes casos\begin{darray}{c} J_\lambda = [j_{u,j}]_{i,k = 1,\dots,n} & \text{com} & j_{i,k} = \begin{cases} \lambda & \text{se } i = k\\ 1 & \text{se } i=k-1\\ 0 & \text{nos restantes casos} \end{cases} \end{darray}
Exemplos

[3]\begin{bmatrix}3\end{bmatrix} é um bloco de Jordan de dimensão 11 (J3J_3)


[410041004]\begin{bmatrix}4&1&0\\0&4&1\\0&0&4\end{bmatrix} é um bloco de Jordan de dimensão 33 (J4J_4)


[0100]\begin{bmatrix}0&1\\0&0\end{bmatrix} é um bloco de Jordan de dimensão 22 (J0J_0)

É de realçar que um bloco de Jordan tem um único valor próprio e a dimensão do espaço próprio é unitária, isto é, tem apenas um vetor próprio linearmente independente.

Matrizes na forma canónica de Jordan

Uma matriz quadrada JJ é uma matriz na forma canónica de Jordan se é formada exclusivamente por blocos de Jordan sobre a diagonal:

J=[Jλ1000000000Jλ200000000000000000000000000000Jλj]\def\marray#1{\hspace{-5pt}\begin{array}{c}#1\end{array}\hspace{-5pt}} J = \begin{bmatrix} \boxed{J_{\lambda_1}} & \marray{0&0&0} & 0 & \dots &\marray{0&0}\\ \marray{0\\ 0\\ 0} & \boxed{\marray{&&\\ & J_{\lambda_2}&\\ &&}} & \marray{0\\0\\0} & \marray{\dots\\\dots\\\dots} & \marray{0&0\\0&0\\0&0}\\ 0 & \marray{0&0&0} & \ddots & \dots & \marray{0&0}\\ \vdots & \marray{\vdots & \vdots & \vdots} & \vdots & \ddots & \marray{0& 0}\\ \marray{0\\0} & \marray{0&0&0\\0&0&0} & \marray{0\\0} & \marray{0\\0} & \boxed{\marray{J_{\lambda_j} &\\&}} \end{bmatrix}

onde Jλ1,Jλ2,,JλjJ_{\lambda_1}, J_{\lambda_2}, \dots ,J_{\lambda_j} são blocos de Jordan.

Exemplos

A matriz [1000001000000002]\begin{bmatrix}1&0&0&0\\0&0&1&0\\0&0&0&0\\0&0&0&2\end{bmatrix} está na forma canónica de Jordan; é formada por 3 blocos de Jordan.


A matriz [2000020000210002]\begin{bmatrix}2&0&0&0\\0&2&0&0\\0&0&2&1\\0&0&0&2\end{bmatrix} está na forma canónica de Jordan; é formada por 3 blocos de Jordan.


A matriz [3000041000410002]\begin{bmatrix}3&0&0&0\\0&4&1&0\\0&0&4&1\\0&0&0&2\end{bmatrix} não está na forma canónica de Jordan.


A matriz [3000041000400002]\begin{bmatrix}3&0&0&0\\0&4&1&0\\0&0&4&0\\0&0&0&2\end{bmatrix} está na forma canónica de Jordan; é formada por 3 blocos de Jordan.


A matriz [3000041000410004]\begin{bmatrix}3&0&0&0\\0&4&1&0\\0&0&4&1\\0&0&0&4\end{bmatrix} está na forma canónica de Jordan; é formada por 2 blocos de Jordan.


A matriz [1201]\begin{bmatrix}1&2\\0&1\end{bmatrix} não está na forma canónica de Jordan.


A matriz [4100040000410004]\begin{bmatrix}4&1&0&0\\0&4&0&0\\0&0&4&1\\0&0&0&4\end{bmatrix} está na forma canónica de Jordan; é formada por 2 blocos de Jordan.


A matriz [1000000100000100000000001]\begin{bmatrix}1&0&0&0&0\\0&0&1&0&0\\0&0&0&1&0\\0&0&0&0&0\\0&0&0&0&1\end{bmatrix} está na forma canónica de Jordan; é formada por 3 blocos de Jordan.


A matriz [0010000000010000]\begin{bmatrix}0&0&1&0\\0&0&0&0\\0&0&0&1\\0&0&0&0\end{bmatrix} não está na forma canónica de Jordan.

Teorema

Teorema de Jordan

Seja AA uma matriz quadrada qualquer então existe SS tal que

A=SJS1A = S J S^{-1}

onde JJ está na forma canónica de Jordan formada por jj blocos de Jordan Jλ1,Jλ2,,JλjJ_{\lambda_1}, J_{\lambda_2}, \dots , J_{\lambda_j} de dimensão n1,n2,,njn_1, n_2, \dots , n_j respetivamente, onde jj é o número máximo de vetores próprios de AA linearmente independentes (λ1,λ2,,λj\lambda_1, \lambda_2, \dots, \lambda_j são valores próprios de AA).

É também importante observar que:

det(Aλ)=det(Jλ)=(λ1λ)n1(λ2λ)n2(λjλ)nj\det(A-\lambda) = \det(J - \lambda) = (\lambda_1 - \lambda)^{n_1} (\lambda_2 - \lambda)^{n_2} \dots (\lambda_j - \lambda)^{n_j}

Nota: Pode acontecer termos λa=λb\lambda_a = \lambda_b com aba \ne b.

Exponencial de Blocos de Jordan

Para um bloco de Jordan JλJ_\lambda de dimensão nn temos

etJλ=[eλtteλtt22!eλttn1(n1)!eλt0eλtteλt00eλtt22!eλtteλt000eλt]=eλt[1tt22!tn1(n1)!01t001t22!t0001]\begin{aligned} e^{tJ_\lambda} &= \begin{bmatrix} e^{\lambda t} & t e^{\lambda t} & \frac{t^2}{2!} e^{\lambda t} & \dots & \frac{t^{n-1}}{(n-1)!} e^{\lambda t}\\ 0 & e^{\lambda t} & t e^{\lambda t} & \ddots & \vdots\\ 0 & 0 & e^{\lambda t} & \ddots & \frac{t^2}{2!} e^{\lambda t}\\ \vdots & \vdots & \ddots & \ddots & t e^{\lambda t}\\ 0 & 0 & \dots & 0 & e^{\lambda t} \end{bmatrix}\\ &= e^{\lambda t} \begin{bmatrix} 1 & t & \frac{t^2}{2!} & \dots & \frac{t^{n-1}}{(n-1)!} \\ 0 & 1 & t & \ddots & \vdots\\ 0 & 0 & 1 & \ddots & \frac{t^2}{2!} \\ \vdots & \vdots & \ddots & \ddots & t \\ 0 & 0 & \dots & 0 & 1 \end{bmatrix} \end{aligned}

Funções Matriciais

Seja CC uma matrix m×nm \times n em que cada entrada é uma função escalar, e cijc_{ij} são as entradas de CC.

Podemos facilmente definir tanto a derivada como a primitiva de CC:

  • Derivada:

     ⁣dC ⁣dt=[ ⁣dcij ⁣dt]\frac{\d C}{\d t} = \begin{bmatrix}\frac{\d c_{ij}}{\d t}\end{bmatrix}

    Por exemplo:

    C=[tt2etsint] ⁣dC ⁣dt=[12tetcost]\begin{darray}{cc} C = \begin{bmatrix} t & t^2\\ e^t & \sin t \end{bmatrix} & \frac{\d C}{\d t} = \begin{bmatrix} 1 & 2t\\ e^t & \cos t \end{bmatrix} \end{darray}
  • Primitiva:

    abC ⁣dt=[abcij ⁣dt]\int_{a}^{b} C \d t = \begin{bmatrix}\int_{a}^{b} c_{ij} \d t\end{bmatrix}

Proposição

Se CC é uma matrix m×pm \times p e DD uma matrix p×np \times n, então

 ⁣d ⁣dt(CD)= ⁣dC ⁣dtD+C ⁣dD ⁣dt\frac{\d }{\d t} (CD) = \frac{\d C}{\d t}D + C \frac{\d D}{\d t}

Teorema

Seja AA uma matriz quadrada (constante). Então, a função matricial E(t)=etAE(t) = e^{tA} satisfaz as seguintes propriedades:

  •  ⁣dE(t) ⁣dt=AE(t)=E(t)A\frac{\d E(t)}{\d t} = AE(t) = E(t) A
  • E(0)=IdE(0) = Id
E(t)=Id+tA+t22A2+t33!+E(t) = Id + tA + \frac{t^2}{2}A^2 + \frac{t^3}{3!} + \dots
Demonstração
 ⁣dE(t) ⁣dt= ⁣d ⁣dt(k=0+tkk!Ak)=k=1+ktk1k!Ak=k=1+tk1(k1)!Ak=k=0+tkk!Ak+1=limn+(k=0Ntkk!Ak+1)=limn+(k=0Ntkk!Ak)A=etAA=AetA\begin{aligned} \frac{\d E(t)}{\d t} &= \frac{\d }{\d t} \left(\sum_{k=0}^{+\infty} \frac{t^k}{k!}A^k\right)\\ &=\sum_{k=1}^{+\infty} \frac{kt^{k-1}}{k!}A^k\\ &=\sum_{k=1}^{+\infty} \frac{t^{k-1}}{(k-1)!} A^k\\ &=\sum_{k=0}^{+\infty} \frac{t^k}{k!} A^{k+1}\\ &=\lim_{n \to +\infty} \left(\sum_{k=0}^{N} \frac{t^k}{k!} A^{k+1}\right)\\ &=\lim_{n \to +\infty} \left(\sum_{k=0}^{N} \frac{t^k}{k!} A^{k}\right)A\\ &=e^{tA}A = A e^{tA} \end{aligned}

Um corolário deste teorema é que

(eA)1=eA(e^A)^{-1} = e^{-A}

Resolução de Equações Homogéneas

Teorema

Seja AA matriz n×nn\times n (constante) e y0Rny_0 \in \R^n, t0Rt_0 \in \R, então o PVI (problema de valor inicial)

 ⁣dy ⁣dt=Ay com y(t0)=y0\frac{\d y}{\d t} = Ay \text{ com } y(t_0) = y_0

tem uma única solução y(t)y(t) que pode ser calculada por

y(t)=e(tt0)Ay0y(t) = e^{(t-t_0) A} y_0

Corolário: Sejam AA e BB duas matrizes n×nn\times n tais que AB=BAAB = BA, então eA+B=eAeBe^{A+B} = e^A e^B

Exemplo

Tomando agora como exemplo o seguinte sistema:

{ ⁣dx ⁣dt=2x+y ⁣dy ⁣dt=0 com y(t0)=[x0y0]\begin{cases} \frac{\d x}{\d t} = 2x + y\\ \frac{\d y}{\d t} = 0 \end{cases} \text{ com } y(t_0) = \begin{bmatrix} x_0\\ y_0 \end{bmatrix}

Podemos colocar agora na forma  ⁣dy ⁣dt=Ay\frac{\d y}{\d t} = Ay, com

y=[xy]A=[2100]\begin{darray}{c} y = \begin{bmatrix} x\\ y \end{bmatrix}& A = \begin{bmatrix} 2 & 1\\ 0 & 0 \end{bmatrix} \end{darray}

Sabemos, de um exemplo anterior, que

etA=[e2t12(e2t1)01]e^{tA}=\begin{bmatrix} e^{2t} & \frac{1}{2} (e^{2t} - 1)\\ 0 & 1 \end{bmatrix}

Então, pelo teorema acima, podemos concluir que

[x(t)y(t)]=e(tt0)A[x0y0]=[e2(tt0)12(e2(tt0)1)01][x0y0]\begin{bmatrix} x(t)\\ y(t) \end{bmatrix} = e^{(t-t_0) A} \begin{bmatrix} x_0\\ y_0 \end{bmatrix} = \begin{bmatrix} e^{2(t-t_0)} & \frac{1}{2} (e^{2(t-t_0)} - 1)\\ 0 & 1 \end{bmatrix} \begin{bmatrix} x_0\\ y_0 \end{bmatrix}
x(t)=x0e2(tt0)+y02(e2(tt0)1)y(t)=y0\begin{darray}{l} x(t) = x_0 e^{2(t-t_0)} + \frac{y_0}{2}\left(e^{2(t-t_0)} - 1 \right)\\ y(t) = y_0 \end{darray}

Teorema

Seja AA uma matrix n×nn \times n (constante). Então as soluções de

 ⁣dy ⁣dt=Ay\frac{\d y}{\d t} = Ay

constituem um espaço linear de dimensão nn.

Por outras palavras, este teorema diz que para uma equação da forma acima, com uma matrix n×nn \times n, existem nn soluções linearmente independentes.
Por exemplo, caso AA seja uma matrix 2×22 \times 2, iremos ter duas soluções linearmente independentes (isto é, como veremos abaixo, iremos encontrar dois vetores próprios).

Proposição

Um vetor vv é um vetor próprio de AA e corresponde ao valor próprio λ\lambda se e só se y(t)=etλvy(t) = e^{t \lambda} v é solução de  ⁣dy ⁣dt=Ay\frac{\d y}{\d t} = Ay.

Com esta proposição, podemos concluir que é possível resolver equações do tipo  ⁣dy ⁣dt=Ay\frac{\d y}{\d t} = Ay, se descobrirmos os vetores e valores próprios da matriz AA.

Exemplo

O exemplo seguinte corresponde ao exercício 2.1.2 a) da ficha de 2021/2022

Resolver a seguinte equação diferencial:

x=[5131]x,x(0)=[21]\begin{darray}{ccc} x' = \begin{bmatrix} 5 & -1\\ 3 & 1 \end{bmatrix} x &, & x(0) = \begin{bmatrix} 2\\ -1 \end{bmatrix} \end{darray}