Upload
others
View
0
Download
0
Embed Size (px)
Citation preview
Notas de F́ısica Matemática II
Domingos H. U. MarchettiDepto. F́ısica Geral
Ed. Principal, Ala I, Sala 328
Ramal 6797Email: [email protected]
Web: http://gibbs.if.usp.br/˜marchett/fismat2
Ifusp - 2007
2
Índice
Sobre o Programa 5
Motivações 7
1 Sistemas Dinâmicos Lineares 171.1 Noções Básicas de Algebra Linear . . . . . . . . . . . . . . . . . . . . . . 17
1.1.1 Espaços e Operadores Lineares . . . . . . . . . . . . . . . . . . . 171.1.2 Subespaço, Base e Dimensão . . . . . . . . . . . . . . . . . . . . . 231.1.3 Espaços Unitários e Euclideanos . . . . . . . . . . . . . . . . . . . 311.1.4 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . 38
1.2 Sistema de Equações Diferenciais Ordinárias . . . . . . . . . . . . . . . . 541.2.1 Equação Linear Homogênea com Coeficientes Constantes . . . . . 541.2.2 Estrutura das Soluções de ż = Az . . . . . . . . . . . . . . . . . . 601.2.3 Equações Diferenciais de Ordem n . . . . . . . . . . . . . . . . . . 661.2.4 Equação Linear Não–Homogênea . . . . . . . . . . . . . . . . . . 691.2.5 Cadeias Harmônicas e a Equação das Ondas . . . . . . . . . . . . 77
1.3 Distribuições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 851.3.1 Problema de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . 87
2 Funções Especiais 912.1 Método de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
2.1.1 Pontos Ordinários e Pontos Singulares . . . . . . . . . . . . . . . 912.1.2 Existência e Unicidade de Soluções na Vizinhança de Pontos Or-
dinários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 972.1.3 Pontos Regulares: Segundo Exemplo Ilustrativo . . . . . . . . . . 101
4 Índice
2.1.4 Sistema de duas Equações de Primeira Ordem . . . . . . . . . . . 1052.1.5 Pontos Regulares e a Equação de Euler . . . . . . . . . . . . . . . 1142.1.6 Singularidades no Infinito . . . . . . . . . . . . . . . . . . . . . . 117
2.2 Singularidades Irregulares e Confluência . . . . . . . . . . . . . . . . . . 1202.2.1 Equções Fuchsianas . . . . . . . . . . . . . . . . . . . . . . . . . . 1202.2.2 Equações Hipergeométricas . . . . . . . . . . . . . . . . . . . . . 1222.2.3 Equações Diferenciais com Três Singularidades . . . . . . . . . . . 1252.2.4 Funções Hipergeométricas Confluentes . . . . . . . . . . . . . . . 127
2.3 Propriedades e Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . 1292.3.1 Polinômios de Legendre . . . . . . . . . . . . . . . . . . . . . . . 129
Sobre o Programa
O presente curso de F́ısica–Matemática sobre equações diferenciais está dividido emquatro partes:
1. Dinâmica de Sistemas Lineares
2. O Problema de Sturm–Liouville
3. Equações a Derivadas Parciais
4. Funções Especiais
Na primeira parte vários tópicos de Álgebra Linear e Sistemas de Equações Dife-renciais ordinárias lineares são revistos e aprofundados. Os conceitos introduzidos nestaparte são básicos para a compreenção dos demais assuntos tratados no texto.
A segunda parte trata do problema de Sturm–Liouville regular. Este importantecaṕıtulo da Análise esclarece as razões de se procurar soluções em séries trigonométricasdas equações a derivadas parciais estudadas no primeiro curso de F́ısica–Matemática.Ainda nesta parte, será desenvolvido o método da função de Green para as equações deSturm–Liouville não homogêneas.
A terceira parte trata algumas equações a derivadas parciais. Aplica–se o método dascaracteŕısticas na obtenção de soluções de equações de primeira ordem e na classificaçãodas equações de segunda ordem. Fáz–se, em seguida, algumas aplicações de métodosdesenvolvidos anteriormente.
Finalmente, o problema de Sturm–Liouville singular é introduzido seguido de umaclassificação das singularidades. Algumas funções especiais serão tratadas nesta partepelo método de Frobenius. As funções hipergeométricas confluentes também serão tra-tadas neste texto.
6 Sobre o Programa
Segue uma pequena lista de sugestões de textos:R. Courant e D. Hilbert, Methods of Mathematical Physics, vol. 1, John Wiley & Sons
1989Jon Mathews e R. L. Walker, Mathematical Methods of Physics, Benjamin 1989, se-
gunda ediçãoH. Sagan, Boundary and Eigenvalue Problems in Mathematical Physics, Dover 1961D. G. de Figueiredo e A. F. Neves, Equações Diferenciais Aplicadas, IMPA 1997J. Sotomayor, Lições de Equações Diferenciais Ordinárias, Projeto Euclides, IMPA
1979
Motivações
Há textos em F́ısica-Matemática que abordam uma variedade de métodos matemáticosjuntamente a diversas aplicações sem a preocupação em dar unidade aos tópicos tratados.Esta forma de lidar com o assunto se contrapõe aos textos nas disciplinas de F́ısica eMatemática, separadamente, e ao próprio rigor Matemático no que se refere a exigênciado encadeamento daquilo que é necessário para a compreensão do tema em questão. Otratamento dado por estes textos, a meu ver, se assemelha ao que é denominado de livrode referência - apropriados para consulta mas não para segúı-los em classe.
Há, por outro lado, textos completos e excelentemente bem redigidos, como por exem-plo o escrito por Courant e Hilbert – fundadores da F́ısica–Matemática moderna, quetambém não podem ser seguidos em classe por serem demasiado extensos para cobŕı-losem um semestre. Instrutores do segundo curso em F́ısica-Matemática são, então, levadosa produzir seus próprios textos.
Afim de dar unidade ao presente curso e motivação aos alunos, escolhi trazer o temade uma conferência por Mark Kac cujo t́ıtulo é Can one hear the shape of a drum?,publicada na American Mathematical Monthly 73, 1-23 (1966). Farei uma apresentaçãolivre omitindo vários detalhes que merecem ser lidos no texto original.
Radiação de corpo negro. A teoria da radiação de Rayleigh–Jeans deu origem, segundoKac, às primeiras respostas ao t́ıtulo de sua conferência. Ondas eletromagnéticas es-tacionárias ocupam o interior de uma cavidade aquecida com paredes perfeitamenterefletoras e a intensidade de cada uma de suas freqüências caracteŕısticas (modos nor-mais de vibração) pode ser medida através de um orif́ıcio. Pela teoria, a potência P (ω)da radiação é proporcional ao número n(ω) de freqüências caracteŕısticas que se encon-tram entre ω e ω+dω vezes a energia E(ω) associada que, pelo teorema de equipartição,é igual a KT (constant de Boltzmann × temperatura da cavidade) independentementede ω.
8 Motivações
É posśıvel calcular as ondas estacionárias em uma cavidade cúbica Ω = [0, a]3 dedimensões lineares a pelo método de Fourier. Denotando por ∆ o operador diferencialde Laplace
∆u =∂2u
∂x21+∂2u
∂x22+∂2u
∂x23
e por ei o versor na direção i = 1, 2 e 3, as soluções na forma produto u(x) =X1(x1)X2(x1)X3(x1) da equação de Helmholtz
1
2∆u+ ω2u = 0
em x = (x1, x2, x3), 0 < xi < a, sujeita às condições periódicas de fronteira:
u(x + aei) = u(x) ,
podem ser obtidas a partir das equações ordinárias para cada i:
1
2X ′′i + λiXi = 0
cuja solução
Xi(xi) = exp(i√
2λixi
),
devido à condição periódica
Xi(xi + a) = exp(i√
2λi (xi + a))
= exp(i√
2λixi
)= Xi(xi)
seleciona os valores de λi tais que
exp(i√
2λia)
= 1 .
Os valores λi =2π2
a2n2i , com ni um número inteiro, são denominados autovalores do
problema e
ω2 = λ1 + λ2 + λ3 =2π2
a2(n21 + n
22 + n
23
)
são as freqüências admisśıveis das ondas estacionárias na cavidade cúbica.Para calcular a densidade de freqüência caracteŕısticas n(ω) para ω ≫ 1, introduzimos
N(ν) = número de freqüências admisśıveis menor que ν
= #
{n = (n1, n2, n3) ∈ Z3 :
2π2
a2(n21 + n
22 + n
23
)< ν2
}.
Motivações 9
N(ν) é, portanto, o número de vértices de uma grade de espaçamento√
2π/a em cadadireção que se encontram dentro da esfera de raio ν centrada na origem. Estimamos esta
função tomando a razão do volume da esfera4πν3
3pelo volume de cada célula
23/2π3
a3:
N(ν) ∼√
2a3
3π2ω3 .
O número n(ω) de freqüências admiśıveis entre ω e ω + dω é o coeficiente linear em dωna diferença
N(ω + dω) −N(ω) ∼√
2a3
3π2((ω + dω)3 − ω3
)=
√2a3
π2ω2dω +O
(dω2)
de onde se conclui
n(ω) ∼√
2
π2|Ω|ω2 .
onde |Ω| = a3 é o volume da cavidade cúbica.Em 1910, em uma série de conferências realizadas na Universidade de Göttingen, o
f́ısico holandez H. A. Lorentz sugeriu aos matemáticos que provassem a seguinte
Conjectura 0.1 A densidade das freqüências caracteŕısticas n(ω) em um corpo negroé, para ω suficientemente grande, proporcional ao volume |Ω| da cavidade porém inde-pendente de sua forma.
Na audiência se encontrava Hermann Weyl, na época orientado por Hilbert, que pou-cos anos mais tarde demonstrou a conjectura de Lorentz.
Vibrações de uma membrana. A formulação matemática da questão que deu origemao t́ıtulo da conferência é feita por Kac em termos das vibrações de uma membranaperfeitamente elástica estendida sobre uma região do plano Ω cuja borda Γ é mantidafixa. Se u = u(t, x) denota o deslocamento de um ponto x da membrana com respeito aposição de equiĺıbrio em um instante t, pela teoria da elasticidade, u satisfaz
1
v2∂2u
∂t2− ∆u = 0, t > 0 , x ∈ Ω
onde v é a velocidade de propagação da onda na membrana, com condição de fronteira
u(t, x) = 0 , t ≥ 0 , x ∈ Γ .
Por conveniência, escolhemos v2 = 1/2. As soluções estacionárias são da forma u(t, x) =U(x)eiωt com U satisfazendo a equação de Helmholtz
1
2∆U + ω2U = 0 , x ∈ Ω
U |Γ = 0
10 Motivações
Assumindo que Γ seja uma cuva simples e suave, a equação de Helmholtz admite umaseqüência de autovalores e autofunções associadas:
0 ≤ λ1 ≤ λ2 ≤ λ3 ≤ · · ·ψ1(x), ψ2(x), ψ3(x), . . .
com
∫
Ω
ψn(x)2dx = 1, soluções do problema de autovalores
−12∆ψn = λnψn , x ∈ Ωψn|Γ = 0 . (0.1)
Note que a enumeração conta multiplicidade dos autovalores e λn = λn(Ω) é o quadradode uma freqüência caracteŕıstica do problema das vibrações da membrana em Ω.
Problema 0.2 Considere a equação de autovalores (0.1) para duas regiões Ω1 e Ω2limitadas por fronteiras Γ1 e Γ2 simples e suaves. Suponha que os autovalores em ambosos problemas são idênticos: λn(Ω1) = λn(Ω2) para cada n. Pode–se inferir desta hipóteseque as regiões Ω1 e Ω2 são congruentes
1?
Desenvolveremos a seguir, a argumentação de Kac para demonstrar que o som emitidopela percussão de uma membrana circular se distingue de qualquer outra membrana. Emoutras palavras, sua seqüência de autovalores é distinta de qualquer outra seqüência. Oproblema assim formulado é ainda assunto de pesquisa. Gordon e colaboradores [Invent.Math. 110 (1992), 1–22] exibiram contra–exemplos de regiões distintas, formadas pelajustaposição de triângulos isóceles, com idêntico conjunto de autovalores. Note que nestesexemplos a fronteira não é suave pois tem derivada discont́ınua em alguns pontos. Poroutro lado, se considerarmos apenas regiões com dois eixos de simetria (uma eĺıpse,por exemplo), então o conjunto dos autovalores λn = λn(Ω) do operador de Laplacedistingue Ω [S. Zelditch. Geom. Funct. Anal. 10 (2000), 628–677].
Seja
N(λ) = N(λ; Ω) =∑
n:λn(Ω)
Motivações 11
e |Ω| é a área da membrana. De acordo com o resultado estabelecido por Weyl sobre ocomportamento assintótico (0.2), podemos ao menos ouvir a área de Ω.
Limite clássico de um gás ideal quântico. Passemos a um outro problema intimamenterelacionado. A probabilidade de encontrar M part́ıculas de um gás ideal contido em Ωnas regiões ∆1, ∆2, ... , ∆M é, classicamente,
|∆1| |∆2| · · · |∆M ||Ω|M
. (0.4)
Se o gás for quântico, as part́ıculas devem satisfazer a equação de Schrödinger
−ℏ22m
∆ψ = Eψ
sujeita a condição de impenetrabilidade da fronteira: ψ(x) = 0 se x ∈ Γ. A probabilidadede encontrar M destas part́ıculas de um gás ideal em Ω em uma vizinhança d2x(1) dex(1) . . . d2x(M) de x(M) é (assumindo incorretamente a estat́ıstica de Boltzmann)
M∏
k=1
∑
n≥1e−τλnψ2n(x
(k))
∑
n≥1e−τλn
d2x(k) (0.5)
onde τ = βℏ/m, β = (KT )−1 é o inverso da temperatura e λn e ψn, n ≥ 1, são osautovalores e autofunções correspondentes do problem (0.1).
No limite clássico τ → 0 (ℏ → 0) a probabilidade (0.5) deve convergir para (0.4),conduzindo à seguinte expressão
∑
n≥1e−τλnψ2n(x) ∼
1
|Ω|∑
n≥1e−τλn (0.6)
Note que o sentido da relação assintótica é o mesmo da relação anterior (0.3) porém como limite τ → 0. Afim de extrair conseqüencias desta expressão, é conveniente introduziruma generalização da integração por Riemann devido a Stieltjes.
Se f : [a, b] −→ R é uma função cont́ınua e α : [a, b] −→ R uma função monotona nãodecrescente, denotamos por ∫ b
a
f(x) dα(x)
a integral de f ponderada por α. O sentido atribuido a esta integral é o mesmo dadopara às integrais de Riemann, não sendo porém necessário que α seja uma função dife-renciável. De fato, cont́ınuidade uniforme e monotonicidade são, isoladamente, condiçõessuficientes para que uma função seja integrável por Riemann. Para que esta integral es-teja definida α pode ter, inclusive, um conjunto infinito de descontinuidades desde quenão se acumule e, para isso, o intervalo [a, b] não pode ser limitado. Se α for diferenciável,
dα(x) = α′(x)dx
12 Motivações
e, nestes casos, dizemos que a distribuição α é absolutamente cont́ınua.Uma breve introdução á teoria de integração, com detalhes não vistos no curso de
Cálculo, é dada no terceiro curso de F́ısica–Matemática. Seja Π uma partição do intervalo[a, b] em n subintervalos Ij = [xj−1, xj) com a = x0 < x1 < x2 < · · · < xn = b. Paracada Π, definimos as somas
S (f, α; Π) =n∑
j=1
Mj ∆j
s (f, α; Π) =
n∑
j=1
mj ∆j
onde ∆j = α(xj) − α(xj−1) é um incremento positivo, por hipótese e
Mj = supx∈Ij
f(x) e mj = infx∈Ij
f(x) .
Note ques (f ; Π) ≤ S (f, α; Π′)
é satisfeita para duas partições quaisquer e, portanto,
s(f, α) = supΠs (f, α; Π) ≤ inf
ΠS (f, α; Π) = S(f, α) .
Uma função f é integrável com peso α se e somente se
s(f, α) = S(f, α) =
∫ b
a
f(x) dα(x) .
A função contágem N(λ) é monotona não decrescente, constante nos intervalos entredois autovalores distintos e sucessivos, com descontinuidade igual a multiplicidade decada autovalor. Formalmente, temos
dN(λ) =∞∑
n=1
δ(λ− λn) dλ
com δ(η) a função delta de Dirac: δ(η) = 0 se η 6= 0 e∫ ∞
−∞δ(η) dη = 1 e, com esta
notação, o lado direito de (0.6) pode ser escrito como
1
|Ω|∑
n≥1e−τλn =
1
|Ω|
∫ ∞
0
e−τλdN(λ) . (0.7)
Analogamente,
F (λ, x) =∑
n:λn
Motivações 13
define para cada x uma função monotona não decrescente e o lado esquerdo de (0.6)pode ser escrito como
∑
n≥1e−τλnψ2n(x) =
∫ ∞
0
e−τλdF (λ, x) . (0.8)
Se admitirmos como verdadeira a conjectura de Lorentz e o limite clássico (0.6), então
F (λ, x) ∼ 1|Ω|N(λ) ∼1
2πλ (0.9)
uniformemente em x. O argumento para isso é um pouco tortuoso pois é necessárioevocar pelo menos dois outros teoremas de Análise, e não seguiremos este caminho. Arelação assintótica (0.9) foi demonstrada por Carleman em 1934. Substituindo (0.9) em(0.8), obtemos
∑
n≥1e−τλnψ2n(x) ∼
1
2π
∫ ∞
0
e−τλ =1
2πτ(0.10)
quando τ tende para 0 e esta relação será examinada a seguir por intermédio de umoutro problema clássico em equações diferenciais parciais: a difusão de alguma coisa naregião Ω.
Difusão de matéria. Part́ıculas de pólem ou giz difundem em uma região planar Ω limi-tada pela curva Γ, com uma constante difusiva κ = 1/2. Suponha que estas part́ıculas,inicialmente totalmente concentradas em um ponto x0 ∈ Ω, sejam absorvidas ao al-cançarem a fronteira Γ não retornando em nenhum momento a seguir à região Ω. Aequação satisfeita para densidade PΩ = PΩ(t, x) = PΩ(t, x|x0) destas part́ıculas é
∂PΩ∂t
− 12∆pΩ = 0 (0.11)
em Ω e t > 0 sujeita a condição inicial
PΩ(0, x|x0) = δ (x− x0) (0.12)
onde δ é a função delta de Dirac: δ (y) = 0 se y 6= x0 e∫
Ω
δ(y) d2y = 1; e condição de
fronteira
PΩ|Γ = 0 (0.13)para t ≥ 0.
Se não houvessem fronteiras e as part́ıculas de pólem pudessem difundir no plano R2
inteiro, a solução do problema seria uma Gaussiana
PR2(t, x|x0) =1
2πtexp
(−12t
|x− x0|2)
(0.14)
14 Motivações
onde |y| =√y21 + y
22 é a distância do ponto y à origem. Devido a condição absorvente de
fronteira, a solução pode ser escrita em termos do problema de autovalores do operadorde Laplace (0.1):
PΩ(t, x|x0) =∞∑
n=1
e−λntψn(x) ψn(x0) . (0.15)
Exerćıcio 0.3 Verifique que esta expressão é solução do problema de valor inicial efronteira (PVIF) (0.11)–(0.13).
Kac argumenta que as part́ıculas, inicialmente concentradas em x0, levam um certotempo até alcançarem a fronteira Γ e, para t suficientemente pequeno, a solução (0.15)pode ser substitúıda por (0.14). Isso sugere que
∞∑
n=1
e−λntψn(x) ψn(x0) ∼1
2πtexp
(−12t
|x− x0|2)
(0.16)
quando t → 0. Se de fato correta, tomando x = x0 obtemos o Teorema de Carleman(0.10). Integrando esta relação em x com x0 = x sobre a região Ω e usando a norma-
lização
∫
Ω
ψn(x)2dx = 1, temos
∞∑
n=1
e−λnt ∼ |Ω| 12πt
=|Ω|2π
∫ ∞
0
e−tλdλ (0.17)
de onde se conclui, em vista de (0.7), o teorema de Weyl (0.2).Afinal, o que resta para que o argumento de difusão das part́ıcula de pólem em sus-
pensão se torne um Teorema? Considere, para isso, uma região quadrada Q de dimensãolinear a. Por separação de variaveis, a equação (0.1) com Ω = Q possui autofunções
ψn1,n2(x) =2
asin
n1π
ax1 sin
n2π
ax2
correspondentes aos autovalores
λn1,n2 =2π2
a2(n21 + n
22
),
para n1 e n2 inteiros maiores ou iguais a 1. Note∫
Q
ψ2n1,n2(x) d2x =
2
a
∫ a
0
sin2n1π
ax1dx1 ·
2
a
∫ a
0
sin2n2π
ax2dx2 = 1 .
A densidade de pólens PΩ(t, x|x0) é, de fato, uma probabilidade sobre as trajetóriaserrantes destas part́ıculas e, da subaditividade desta função, sendo Q um quadradoinscrito em Ω, resulta
PQ(t, x|x0) ≤ PΩ(t, x|x0) ≤ PR2(t, x|x0) .
Motivações 15
O comportamento em (0.16) é uma cota superior e a cota inferior é obtida de
4
a2
∞∑
n1,n2=1
exp
(−π22a2
(n21 + n22)t
)
que para t tendendo a 0 é a aproximação de Riemann da integral da função Gaussiana(0.14). Isto demonstra, com alguns detalhes a mais, os Teoremas de Carleman e Weyl.
Primeira correção à expansão assintótica. Para evitar algumas complicações no cálculoda primeira correção à expansão (0.17), vamos assumir, além da regularidade de Γ, queΩ seja uma região convexa.2 Nesta situação a fronteira Γ vista de um ponto próximoa esta é aproximadamente plana. Aqui também é notavel a facilidade com que Kacreproduz corretamente o fator de correção por um argumento simples.
Infere–se das hipóteses sobre Ω, que existe δ0 tal que para todo 0 < δ < δ0 o conjuntodos pontos z que distam δ da fronteira Γ forma uma curva Γδ simples (isto é, semintersecção) inteiramente contida em Ω. Além disso, δ0 pode ser tomado tão pequeno deforma que exista um único ponto w ∈ Γ mais próximo de z para todo z ∈ Γδ e δ < δ0.Note que, se l(z) denota a reta tangente a Γ no ponto w, l(z) é ortogonal ao segmentode reta wz ligando w a z. Denotando por z∗ = z∗(z) a imagem especular do ponto zrefletida pela reta tangente l(z), temos
|z − z∗(z)| = 2δ . (0.18)Kac propõe que a solução PΩ(t, z|x0) do problema de difusão (0.11)–(0.13) em um
ponto z próximo a fronteira Γ pode ser estimada pelo método das imagens:
Pl(z)(t, z|x0) = PR2(t, z|x0) − PR2(t, z∗|x0)
=1
2πt
[exp
(−12t
|z − x0|2)− exp
(−12t
|z∗ − x0|2)]
(0.19)
Note que esta solução satisfaz a equação (0.11) e a condição de fronteira (0.13) poisquando z tende para um ponto w ∈ Γ, z∗ tende também para w e as duas exponenciaisem (0.19) se cancelam. Satisfaz também a condição inicial Pl(z)(0, z|x0) = 0 para todoz ∈ Ω\ {x0} e a normalização
limt→0
∫
Ω
Pl(z)(t, z|x0) d2z =∫
Ω
limt→0
Pl(z)(t, z|x0) d2z =∫
Ω
(δ(z − x0) − δ(z∗ − x0)) d2z = 1
pois o ponto z∗ se encontra fora da região Ω. Entretanto esta expressão está bem defi-nida somente para pontos que distam δ da fronteira pois, de ontra forma o ponto w, econseqüentemente a reta l(z) tangente a w, podem ser amb́ıgüos.
Tomando em (0.19) x0 = z, levando em consideração (0.18), temos
Pl(z)(t, z|z) =1
2πt
[1 − e−2δ2/t
]
2Quaisquer dois pontos podem ser ligados por um segmento inteiramente contido em Ω.
16 Motivações
Da equação (0.15) e normalização
∫
Ω
ψ2n(z)d2z = 1, obtemos
∫
Ω
PΩ(t, z|z) d2z =∞∑
n=0
e−λnt ∼ 12πt
[|Ω| −
∫
Ω
e−2δ2/t d2z
](0.20)
quando t→ 0.Denotando por L(δ) = |Γδ| o comprimento da curva Γδ e usando o fato que L(0) =
|Γ| = L é o comprimento do contorno Γ, estimamos a integral por∫
Ω
e−2δ/t d2z =
∫ δ0
0
e−2δ2/tL(δ)dδ + C |Ω| e−2δ20/t
para alguma constante C. Note que o segundo termo do lado direito desta expressão éexponencialmente pequeno para t suficientemente próximo a 0 e pode ser desprezado.Fazendo a mudança de variável ζ = δ/
√t na integral em δ, obtemos
∫ δ0
0
e−2δ2/tL(δ)dδ =
√t
∫ δ0/√t
0
e−2x2
L(x√t)dx
∼√tL
∫ ∞
0
e−2x2
dx =L
4
√2πt .
Substituindo em (0.20), concluimos
∞∑
n=0
e−λnt ∼ 12πt
|Ω| − 1√2πt
|Γ|4.
Esta relação juntamente com a desigualdade isoperimétrica
4π |Ω| ≤ |Γ|2 ,
cuja a igualdade é satisfeita apenas para a região Ω circular, implica na asserção de queo som emitido pela percussão de uma membrana circular se distinguir de qualquer outramembrana.
As vibrações da membrana circular serão estudadas em detalhes no presente curso.
1
Sistemas Dinâmicos Lineares
Neste caṕıtulo introdutório, trataremos do problema de valor inicial para equações dife-renciais ordinárias lineares. Noções de algebra linear são necessárias tanto para o cálculocomo para a compreenção da estrutura das soluções destes sistemas dinâmicos. Enfati-zaremos tanto o aspecto computacional como os conceitos básicos de sistemas de ordemfinita afim de posteriormente estendê–los para sistemas com número de variáveis infinito.
1.1 Noções Básicas de Algebra Linear
1.1.1 Espaços e Operadores Lineares
Começaremos enunciando uma série de propriedades satisfeitas por vetores em Rn. Sejax, y, z, . . . vetores e λ, µ, . . . números reais. Então,
x + y = y + x
x + (y + z) = (x + y) + z (1.1)
x + 0 = x
x+ (−x) = 0e
(λµ)x = λ (µx)
λ (x + y) = λx + λy (1.2)
(µ+ λ)x = µx + λx
1 · x = x(subentende–se nas duas últimas propriedades de (1.1) a existência do vetor neutro 0 ede −x, para cada vetor x).
18 1. Sistemas Dinâmicos Lineares
Escrevemos um vetor x ∈ Rn = R × · · · × R, pertencente ao produto cartesiano deR com ele mesmo n–vezes, como uma coleção de n números x = (x1, . . . , xn) ou comouma matriz coluna
x =
x1...xn
.
Em ambos casos a adição de dois vetores x, y corresponde ao vetor cujas componentesé a soma das componentes
x + y = (x1 + y1, . . . , xn + yn) ;
o produto de um vetor x pelo escalar λ é o vetor de componentes dadas pelo produtode λ por cada componente de x:
λx = (λx1, . . . , λxn) .
O comprimento de um vetor (norma Euclideana)
|x| :=(x21 + · · ·+ x2n
)1/2(1.3)
é a distância entre a origem e a extremidade do vetor. Note que dois vetores de mesmocomprimento e direção mas que diferem quanto ao ponto de referência, são consideradoso mesmo elemento. Tomaremos sempre a origem como referência. Por conseguinte,
|x − y| =((x1 − y1)2 + · · ·+ (xn − yn)2
)1/2
corresponde a distância entre a extremidade do vetor x e a extremidade do vetor y.A norma (1.3) introduz a noção de vizinhança: dois vetores estão “próximos” se as
extremidades destes estiverem “próximas”.As propriedades (1.1) e (1.2) são básicas no sentido que elas são suficientes para obter
regras computacionais para o conjunto de vetores, semelhente às regras da aritmética.Por exemplo, α0 = 0 para todo α ∈ R é conseqüência das seguintes propriedades:0
P1.4= α 0+ (−α0). Logo
α0P1.3= α 0+ (α 0+ (−α0)) P1.2= (α0 + α0) + (−α0)
P2.2= α (0 + 0) + (−α0) P1.3= α 0+ (−α0) P1.4= 0 .
Ocorre porém que muitos conjuntos, com operações definidas de maneira análoga aadição de vetores e multiplicação por um escalar, satisfazem estas propriedades básicase, por conseguinte, herdam as regras que os vetores possuem. Isto justifica a introduçãodo seguinte conceito unificador:
Definição 1.1 Um espaço linear E (ou espaço vetorial) sobre números reais (oucomplexos), é um conjunto de elementos fechado pela operação de soma e produto porum escalar: x + y, λx ∈ E se x, y ∈ E e λ ∈ R (λ ∈ C), satisfazendo as propriedades(1.1) e (1.2).
1.1 Noções Básicas de Algebra Linear 19
Exemplo 1.2 O produto cartesiano de n conjuntos reais Rn, ou complexos Cn; o con-junto Mnm (R) (Mnm (C)) das matrizes n×m com entradas reais (complexas); o conjuntode polinômios
Pn ={P (x) = a0x
k + a1xk−1 + · · · + ak : 0 ≤ k ≤ n e aj ∈ R (C)
}
de ordem menor ou igual a n; o conjunto C (I,R) das funções f : I −→ R cont́ınuas; oconjunto l (N) das sequências de números reais x = (xj)j≥1 tais que o limite limj→∞ xjexiste. São estes alguns exemplos de espaços lineares.
Exemplo 1.3 O espaço l2 (N) das sequências de números reais x = (xj)j≥1 de qua-drado somável, isto é, cuja a norma
‖x‖ :=( ∞∑
j=1
x2j
)1/2
é finita.
Exemplo 1.4 O espaço L2 ([−π, π] ,R) das funções
f : [−π, π] 7−→ R
tais que a norma
‖f‖ :=(∫ π
−π|f(x)|2 dx
)1/2(1.4)
é finita (funções de quadrado integrável).
Exerćıcio 1.5 Verifique que os conjuntos dos Exemplos 1.3 e 1.4 formam espaços line-ares.
Exerćıcio 1.6 Verifique que os seguintes conjuntos não formam espaços lineares en-contrando pelo menos uma propriedade de (1.1) e (1.2) que não se verifica.
1. O conjunto dos vetores em Rn de comprimento unitário.
2. O conjunto dos polinômios de grau extamente n.
3. O conjunto das rotações de um corpo ŕıgido em R3 ao redor de um ponto fixo.
Seja f , g em C (I,R) (ou em L2 (I,R)) e λ ∈ R. A adição f +g de funções é a função
(f + g) (x) = f(x) + g(x)
definida para todo x no domı́nio I. O produto λf de uma função por um escalar é afunção
(λf) (x) = λ f(x) ,
20 1. Sistemas Dinâmicos Lineares
para todo x ∈ I.Existe uma correspondência entre os espaços lineares nos Exemplos 1.3 e 1.4 que é
estabelecida pela identidade de Parseval
1
π
∫ π
−π|f(x)|2 dx = 1
2x20 +
∞∑
j=1
(x2j + y
2j
). (1.5)
Dada uma função f ∈ L2 ([−π, π] ,R), então podemos encontrar x0 e xj , yj, j = 1, 2, . . .,dados pela fórmula dos coeficientes de Fourier de f :
xj =1
π
∫ π
−πf(x) cos jx dx
(incluindo j = 0) e
yj =1
π
∫ π
−πf(x) sin jx dx .
Segue da relação (1.5),
x0 , ‖x‖ , ‖y‖
1.1 Noções Básicas de Algebra Linear 21
A cada mapeamento linear T : Rn 7−→ Rm pode–se associar uma matriz m× n
Ax =
a11 · · · a1n...
. . ....
am1 amn
x1...xn
=
a11x1 + · · ·+ a1nxn...
am1x1 + · · ·+ amnxn
definida a partir de sua regra. E vice–versa, cada matriz A define um mapeamentolinear T que associa a cada x ∈ Rn o vetor y = T (x) ∈ Rm de componentes yj =aj1x1 + · · · + ajnxn, j = 1, . . . , m. Uma matriz A é usualmente denotada por A = [aij].Exemplo 1.9 A transformação T que leva cada vetor x = (x1, x2, . . . , xn) em R
n novetor T (x) = (x2, . . . , xn, x1) em R
n pode ser representada pela matriz “deslocamentopara frente”
Π =
0 1 0 · · · 00 0 1 · · · 0...
......
. . ....
0 0 0 · · · 11 0 0 · · · 0
(1.7)
No caso em que E = E ′, a transformação linear T é chamada de operador linear.Usaremos a notação L (Rn) para o conjunto de todos os operadores lineares em Rn eL (L2 (I,R)) para o conjunto de todos os operadores lineares cont́ınuos
1 no espaçoL2 (I,R).
Exemplo 1.10
1. Seja Dj o operador diferencial definido no espaço C (k) (I,R) ⊂ C (I,R) dasfunções j–vezes diferenciáveis cuja j–ésima derivada é cont́ınua:
(Djf
)(x) =
djf
dxj(x) , j = 1, 2, . . .
Se P é um polinômio de ordem k: P (x) = xk + a1xk−1 + · · ·+ ak, então
P (D) f = g (1.8)
define uma equação diferencial de ordem k para f onde g uma função dada.
2. Seja C o seguinte operador integral
(Cf) (x) =
∫ π
−πcos(x− y) f(y) dy ≡ (cos ∗f) (x) .
definido no espaço C ([−π, π] ,R) das funções cont́ınuas. C é o operador de con-volução pela função cosseno.
1Todo operador linear T : Rn −→ Rn é cont́ınuo mas nem todo operador linear T : L2(I, R) −→ L2(I, R) é cont́ınuo.Este assunto será obordado no terceiro curso em F́ısica Matemática.
22 1. Sistemas Dinâmicos Lineares
Exemplo 1.11 Seja ∇ o operador de diferença finita definido no espaço l2 (N) desequências de quadrado somável:
(∇x)j = xj − xj−1 .
É conveniente introduzir também o operador de diferença finita adjunto ∇∗:
(∇∗x)j = xj − xj+1 .
O operador de segunda diferença finita de Laplace −∆ := ∇∗∇ = ∇∇∗ é dado pelacomposição de ambos (em qualquer ordem):
(−∆x)j = 2xj − xj+1 − xj−1 .
Se T e S são operadores lineares em L (Rn) , o mapeamento composto T ◦ S :Rn 7−→ Rn também pertence a L (Rn) : y = S (x) ∈ Rn para todo x ∈ Rn, z =T (y) = T (S (x)) = T ◦ S(x) ∈ Rn e
T ◦ S (αx1 + βx2) = T (αS(x1) + βS(x2)) = αT ◦ S (x1) + βT ◦ S (x2) .
A matriz C = [cij] que representa a composição W = T ◦ S, com A = [aij] e B = [bij ]representando T e S, respectivamente, tem seus elementos dados por
cij =
n∑
k=1
aik bkj . (1.9)
Exerćıcio 1.12 Verifique (1.9) aplicando o operador composto T ◦S a um vetor x ∈ Rn.Solução. Substituindo o vetor y = S (x) em z = T (y) = W (x), representados por
yk =
n∑
j=1
bkj xj e zi =
n∑
k=1
aik yk ,
obtemos (1.9) por inspeção:
zi =n∑
k=1
n∑
j=1
aik bkj xj =n∑
j=1
n∑
k=1
aik bkj xj =n∑
j=1
cij xj .
2
Se R = T + S, a matriz D = [dij ] que a representa possui elementos
dij = aij + bij ;
se V = λT , então F = [fij] que a representa é dada por
fij = λ aij .
1.1 Noções Básicas de Algebra Linear 23
O operador identidade E (x) = x, ∀x ∈ Rn, é representado pela matriz identidadeI = [δij ], cujos elementos diagonais são iguais a 1 e os elementos fora da diagonal iguaisa zero:
δij =
1 se i = j ,
0 se i 6= j .A matriz nula O = [oij ], que tem elementos identicamente nulos: oij = 0, representa ooperador nulo O (x) = 0.
Verifica–se que o conjunto dos operadores lineares L (Rn) satisfaz as propriedades(1.1) e (1.2) e portanto forma um espaço vetorial.
Além disso, os elementos de L (Rn) verificam as seguintes propriedades:
P ◦ (Q ◦R) = (P ◦Q) ◦Rµ(P ◦Q) = (µP ) ◦Q = P ◦ (µQ) (1.10)
P ◦ (Q+R) = P ◦Q+ P ◦R(Q+R) ◦ P = Q ◦ P +R ◦ P
para quaisquer P,Q,R ∈ L (Rn) e µ ∈ R (somente em situações muito particularesa propriedade comutativa P ◦ Q = Q ◦ P é satisfeita). Espaços lineares munidos daoperação de composição e satisfazendo as propriedades (1.10), formam uma álgebra.
Definição 1.13 Um operador T é inverśıvel se existir um operador S tal que T ◦S =S ◦ T = E. O operador S é chamado de inverso de T e será denotado por T−1.
O operador T , ou sua representação matricial A, é singular se T não for inverśıvel(não existe A−1).
1.1.2 Subespaço, Base e Dimensão
Seja E um espaço linear. Um conjunto não vazio F ⊂ E é chamado subespaço linearse F for fechado pelas operações de adição e multiplicação por um escalar.
Se F contém somente o vetor nulo 0, F é chamado subespaço trivial. Se F 6= E , Fé um subespaço próprio de E . Se F1 e F2 são subespaços de E e F1 ⊂ F2, então F1 éum subespaço de F2.
Exemplo 1.14
1. O subespaço F de Rn formado por uma reta passando pela origem
F = {(a1t, . . . , ant) : t ∈ R}
onde a1, . . . , an são n números reais.
2. O subconjunto Tn (R) formado pelas matrizes n× n triangulares superiores reais:
Tn (R) = {A = [aij ] ∈Mn (R) : aij = 0 se i < j} .
24 1. Sistemas Dinâmicos Lineares
3. O subconjunto Sn (R) formado pelas matrizes n× n simétricas reais:
Sn (R) = {A = [aij ] ∈Mn (R) : aij = aji} .
Como subespaços satisfazem as propriedades (1.1) e (1.2), o mapeamento linear T :E 7−→ E ′ pode ser restrito aos subespaços F1 ⊂ E e F2 ⊂ E ′ contanto que T : F1 7−→F2 seja definido: qualquer x ∈ F1, temos T (x) ∈ F2 e
T (αx + βy) = αT (x) + βT (y)
é claramente um elemento de F2 qualquer que seja x,y ∈ F1 e α, β ∈ R.Dois subespaços tem um papel importante para a determinação de uma transformação
linear T :N (T ) = {x ∈ F1 : T (x) = 0} ≡ T−1(0)
é denominado núcleo (ou conjunto nulo) da transformação T , e
I (T ) = {y ∈ F2 : T (x) = y para algum x ∈ F1} .
é denominado o conjunto imagem de T .
Exemplo 1.15 Seja
A =
(1 −1 01 1 1
).
O núcleo da matriz A,
N (A) ={x ∈ R3 : Ax = (0, 0)
}
é, geometricamente, formado pela reta perpendicular ao plano formado pelos vetores(1,−1, 0) e (1, 1, 1), que passa pela origem:
N (A) = {(α, α,−2α) : α ∈ R} .
A imagem de A é formada por todos vetores em R2.
As seguintes definições são relevantes para o entendimento da estrutura dos espaçoslineares.
Definição 1.16 Um conjunto S = {x1, . . . ,xk} de vetores de E gera o subespaço F ,se cada vetor x ∈ F puder ser escrito como uma combinação linear destes:
x = λ1x1 + · · · + λkxk (1.11)
para alguma escolha de escalares λ1, . . . , λk.Os vetores do conjunto S são linearmente independentes (L.I.) se a equação
λ1x1 + · · · + λkxk = 0
for satisfeita somente para λ1 = · · · = λk = 0.Se os vetores de S forem linearmente independentes, então S forma uma base de F .
1.1 Noções Básicas de Algebra Linear 25
Definição 1.17 A dimensão de um subespaço linear F é a cardinalidade do maiorconjunto S de vetores linearmente independentes. Se o maior conjunto S tiver k ele-mentos, escrevemos dim F = k.
Exemplo 1.18
1. O conjunto {(1, 0, 0); (0, 1, 0); (0, 0, 1); (1, 1, 0); (0, 1, 1)} gera o espaço vetorial R3porém não forma uma base para este espaço pois seus vetores não são linearmenteindependentes (note (1, 1, 0) = (1, 0, 0) + (0, 1, 0)). No entanto, os três primeirosvetores formam uma base.
2. A coleção dos monômios {1, x, x2, . . . , xn} forma um conjunto linearmente in-dependente de “vetores” pertencentes ao espaço C ([a, b]) das funções cont́ınuasdefinidas no intervalo [a, b]. Um polinômio Pn(x) de ordem n, é uma combinaçãolinear
a0xn + · · · + a1x+ a0
de monômios. O conjunto de todos monômios não tem dimensão limitada masforma uma base para as funções cont́ınuas no sentido que todo “vetor” f ∈C ([a, b]) pode ser uniformemente aproximado por polinômios. A demonstraçãodo seguinte resultado pode ser encontrada em Djairo G. Figueiredo “Análise deFourier e equações diferenciais parciais”, pag. 77.
Teorema 1.19 (da aproximação de Weierstrass) Dado ε > 0, existe n0 = n0(ε) <∞ tal que, para todo n ≥ n0, existe um polinônio de ordem n onde
|f(x) − Pn(x)| < ε
é satisfeita para todo x ∈ [a, b].
Afim de apreciar o conteúdo do conceito dimensão, formulamos o seguinte
Problema 1.20
1. Dado um conjunto de vetores S = {x1, . . . ,xk} de um espaço linear E , qual omı́nimo subespaço F0 ⊂ E que contém S?
2. Qual a condição, necessária e suficiente, sobre S para que F0 seja o menor su-bespaço que contém um subconjunto próprio S ′ de S?
É claro, pela Definição 1.16, que o conjunto F formado por todas combinações lineares(1.11) de vetores de S é um subespaço. Note que, se x = λ1x1 + · · · + λkxk, y =η1x1 + · · ·+ ηkxk, e λ ∈ R, então
x + y = (λ1 + η1)x1 + · · ·+ (λk + ηk)xk= α1x1 + · · · + αkxk
26 1. Sistemas Dinâmicos Lineares
e
λx = λ (λ1x1 + · · ·+ λkxk)= β1x1 + · · · + βkxk
são combinações lineares de vetores de S. Um subespaço F0 que contém S é mı́nimo setodos os subespaços F que contém S contém também F0:
F ⊃ F0 .
A partir destas duas noções pode–se concluir, por um argumento que leva ao absurdo,que o menor subespaço F0 que contém S é o subespaço gerado por S, o qual denotamospor
F0 = span {x1, . . . ,xk} ,e isso responde a primeira pergunta.
Para a segunda questão, notamos que a condição necessária para que um subconjuntopróprio S ′ de S, digamos S ′ = {x1, . . . ,xk−1}, seja tal que
F0 = span {x1, . . . ,xk−1}
é que {x1, . . . ,xk} seja linearmente dependente, isto é,
λ1x1 + · · · + λkxk = 0
tenha solução não trivial: λj 6= 0 para ao menos um ı́ndice j. Ou ainda,
xk = α1x1 + · · · + αk−1xk−1
com αj = λj/λk e λk 6= 0. Ocorre, porém, que esta é também uma condição suficientecomo mostra a seguinte
Proposição 1.21 Seja E = Rn. Qualquer conjunto de vetores S1 = {x1, . . . ,xn+1}é linearmente dependente. Por outro lado, qualquer conjunto S2 = {x1, . . . ,xn−1} devetores linearmente independentes não gera E . Logo, dim E = n.
Prova. S1 = {x1, . . . ,xn+1} é linearmente dependente se e somente se existir soluçãonão trivial λ1, . . . , λn+1 ∈ R de
λ1x1 + · · ·+ λn+1xn+1 = 0 . (1.12)
Escrevendo esta equação em componentes, com xj = (x1j , . . . , xnj), obtemos o seguintesistema de equações lineares
λ1x11 + · · · + λn+1x1 n+1 = 0...
......
λ1xn1 + · · · + λn+1xn n+1 = 0(1.13)
1.1 Noções Básicas de Algebra Linear 27
Seja X = [x1 · · · xn+1] a matriz n × (n + 1) que tem o vetor xj na j–ésima coluna, eseja λ a matriz coluna (n+ 1) × 1 com componentes λj . Então, (1.13) pode ser escritocomo
Xλ = 0 . (1.14)
A primeira afirmação da Proposição 1.21 segue de um resultado mais geral.
Teorema 1.22 Seja A uma matriz k × k. A equação
Ax = 0
tem uma solução não trivial (x 6= 0) se e somente se A for singular.
A condição detA = 0 é necessária e suficiente para que uma matriz A seja singular.Denotando por X̃ = [x̃1 · · · x̃n+1] a matriz (n+ 1)× (n + 1) com o vetor x̃j na j–ésimacoluna, onde
x̃ij =
xij se i = 1, . . . , n
0 se i = n+ 1,
a equação (1.14) é equivalente a
X̃ λ = 0 .
Como det X̃ = 0 (pois possui a última coluna com zeros), existe uma solução λ nãotrivial desta última equação e, consequentemente, uma solução não trivial de (1.12),concluindo a prova da primeira parte da proposição.
Vamos a seguir mostrar que nem todos vetores em Rn podem ser escritos como umacombinação linear de S2 = {x1, . . . ,xn−1}. Para isso, considere o conjunto de equações
e1 = α11x1 + · · ·+ α1n−1xn−1 + 0 xn...
......
en = αn1x1 + · · ·+ αnn−1xn−1 + 0 xn
onde ej = (0, . . . , 1, . . . , 0) tem somente a j–ésima componente não nula e xn ∈ Rn éum vetor arbitrário. Definindo as matrizes X = [x1 · · · xn], A = [αij ] e I = [e1 · · · en]como anteriormente, as equações acima podem ser escritas na forma
IT = AXT ,
onde XT denota a matriz transposta de X, que por sua vez implica uma contradição:
1 = det I = detA detXT = 0
em vista do fato que I é a matriz identidade e A é uma matriz singular (pois tem aúltima linha de zeros). Logo, os n vetores linearmente independentes {e1, . . . , en} (queformam a base canônica de Rn) não podem ser representados por uma combinaçãolinear de vetores de S2. Isto demonstra a segunda afirmação da proposição.
28 1. Sistemas Dinâmicos Lineares
A primeira asserção da Proposição 1.21 implica a afirmação: dim Rn ≤ n. A desigual-dade no sentido oposto segue da segunda asserção: dim Rn ≥ n. Logo, Rn é um espaçolinear de dimensão n.
2
A seguir enunciaremos uma série de resultados importantes sem demonstrações. Decerta maneira, estes estendem a Proposição 1.21 para espaços vetoriais quaisquer.
Teorema 1.23 Seja E um espaço linear de dimensão n. Então
1. Toda base de E tem exatamente n elementos.
2. Todo conjunto S de vetores em E , linearmente independentes, tem no máximo nelementos.
Definição 1.24 O mapeamento linear T : E 7−→ E ′ é um isomorfismo, se e somentese existir um transformação linear S : E ′ 7−→ E tal que se verifique
S ◦ T (x) = x e T ◦ S (x′) = x′
para todo x ∈ E e x′ ∈ E ′. Dois espaços lineares E e E ′, são isomorfos se e somentese existir um isomorfismo entre estes.
Em outras palavras, um isomorfismo estabelece uma relação um para um, x ↔ x′entre os elementos x ∈ E e x′ ∈ E ′, de forma que a linearidade seja preservada em ambossentidos: se x ↔ x′, y ↔ y′ e λ ∈ R, então x + y ↔ x′ + y′ e λx ↔ λx′. Como todoespaço linear é gerado por uma base, para que haja um isomorfismo, basta estabeleceruma relação um para um entre os elementos de uma base S = {x1, . . . ,xn} de E e oselementos de uma base S ′ = {x′1, . . . ,x′m} de E ′. Esse fato junto com o Teorema 1.23,leva ao seguinte
Teorema 1.25 Dois espaços vetoriais lineares são isomorfos, se e somente se tiverema mesma dimensão. Em particular, todo o espaço de dimensão n é isomorfo a Rn.
Uma transformação linear T : E −→ E ′ tem em geral diferentes representações ma-triciais A = A(S, S ′) = [aij]
n,mi=1,j=1 dependendo da base adotada para cada espaço. Uma
questão natural é: Que propriedades em comum tem todas as matrizes A(S, S ′) querepresentam o mesmo operador linear T ∈ L (E ) em uma base E ?
Este será o assunto mais relevante da subseção seguinte. Aqui, usaremos o Teorema1.25 para estabelecer a unicidade da representação matricial de um operador linearcom o par (S, S ′) de bases fixo.
Dadas as bases S e S ′ dos espaços lineares E e E ′, de dimensão n em, respectivamente,existe uma correspondência um para um T ↔ A, entre transformações lineares T : E −→E ′, cujo espaço é denotado por L (E , E ′), e matrizes A = [aij ]
n,mi=1,j=1 que as representam.
Esta correspondência é um isomorfismo entre os espaços lineares L (E , E ′) e Mm,n (R)dado pelas seguintes combinações lineares
T (xj) =
m∑
i=1
aijx′i , j = 1, . . . , n .
1.1 Noções Básicas de Algebra Linear 29
Exemplo 1.26 A matriz Π = [πij ] dada por (1.7) representa o operadorT (x1, x2, . . . , xn) = (x2, . . . , xn, x1) em R
n na base S = S ′ = {e1, . . . , en} canônica.Note que T (ej) = ej−1 é satisfeita para j = 2, . . . , n e T (e1) = en. Portanto,
πij =
{1 se i+ 1 = j (com n+ 1 = 1)0 de outra maneira
.
Exerćıcio 1.27 Represente a matriz
A =
1 1 22 1 31 0 1
na base S = {(1, 1, 0); (0, 1, 1); (1, 0, 1)} ≡ {f1,f2,f 3}, isto é, represente na base S aação da matriz A sobre os vetores da base S.
Solução. S forma uma base de R3 se qualquer vetor x ∈ R3 puder ser escrito como umacombinação linear
x = α1f1 + α2f2 + α3f 3= M α .
(1.15)
Aqui, α = (α1, α2, α3) é a incógnita do problema e
M = [f1 f2 f 3] =
1 0 11 1 00 1 1
é a matriz formada pelos vetores de S em suas colunas. Nesta formulação, S é uma base(S é L.I. e span {f 1,f2,f3} = R3) se e somente se
α = M−1x .
for a única solução da equação (1.15). Logo, S é uma base se e somente se M for nãosingular.
Calculando o determinante
detM =
∣∣∣∣∣∣
1 0 11 1 00 1 1
∣∣∣∣∣∣= 2
verificamos que M é inverśıvel e sua inversa é dada por
M−1 =1
2
1 1 −1−1 1 11 −1 1
,
o que prova ser S uma base.
30 1. Sistemas Dinâmicos Lineares
A seguir, a ação de A sobre os elementos da base S
v1 = Af 1v2 = Af 2 (1.16)
v3 = Af 3
deve ser representada na base S. Para isso, devemos encontrar os vetores β1, β2 e β3,de componentes βj = (β1j , β2j , β3j), tais que
vj =
3∑
i=1
βij f i = Mβj . (1.17)
Definindo V = [v1 v2 v3] a matriz que tem por colunas os vetores vj, as equações (1.16)podem ser escritas como
V = [Af 1Af2Af 3] = AM .
Como V também pode ser escrita, em vista de (1.17), como
V = [Mβ1Mβ2Mβ3] = MB
onde B = [β1 β2 β3] = [βij], concluimos
B = M−1AM (1.18)
representa a matriz A na base S. Temos
B =1
2
1 1 −1−1 1 11 −1 1
1 1 22 1 31 0 1
1 0 11 1 00 1 1
=
2 3 31 1 20 0 0
(note que detA = detB = 0).2
Uma transformação da forma (1.18) é denominada transformação de similaridade.Toda mudança de base em Rn é realizada por uma transformação de similaridade e vice–versa: toda transformação de similaridade corresponde a uma mudança de base. Noteque a relação (1.18) requer a existência de M−1 que é a condição necessária e suficientepara que se estabeleça um isomorfismo de Rn em Rn.
Em geral, se S = {f 1, . . . ,fn} e S ′ = {f ′1, . . . ,f ′n} forem duas bases de Rn e A umamatriz n × n, então B = M−1AM e B′ = M ′−1AM ′ representam A na base S e S ′,respectivamente. Logo P = M−1M ′ é a matriz de transição do sistema de referêncialinha para o sistema sem linha e B′ = P−1BP .
A proposição a seguir é conhecida por teorema da dimensão do núcleo e imagem eoferece uma outra caracterização dos isomorfismos.
1.1 Noções Básicas de Algebra Linear 31
Proposição 1.28 Seja T : E 7−→ E ′ um mapeamento linear. Então
dim I (T ) + dim N (T ) = dim E . (1.19)
Em particular, se dim E = dim E ′, as seguintes afirmações são equivalentes:
1. N (T ) = {0}
2. I (T ) = E
3. T é um isomorfismo.
Para ver que 1. ⇐⇒ 3., suponha que T seja um isomorfismo e que exista x ∈ E nãoidenticamente nulo tal que T (x) = 0. Então, pela primeira hipótese, existe uma relação1 para 1 entre as bases S = {x1, . . . ,xn} e S ′ = {x′1, . . . ,x′n} de E e E ′, dada porT (xj) = x
′j . A segunda hipótese
T (x) = T (λ1x1 + · · ·+ λnxn)= λ1T (x1) + · · ·+ λnT (xn)= λ1x
′1 + · · · + λnx′n = 0
gera a seguinte contradição: S ′ = {x′1, . . . ,x′n} é uma base de vetores linearmente de-pendentes! Ou T não é um isomorfismo ou a única solução de T (x) = 0 é x = 0. Logo,1.⇐⇒ 3..
2
1.1.3 Espaços Unitários e Euclideanos
Alguns espaços lineares possuem outras estruturas além da dimensão. Podemos atribuirum comprimento (1.3) a um vetor em Rn ou medir o ângulo θ entre dois vetoresx, y ∈ Rn pela relação
cos θ =(x,y)
|x| |y| (1.20)
onde(x,y) = x1 y1 + · · · + xn yn (1.21)
é o produto interno entre dois vetores. Note a seguinte relação entre comprimento eproduto interno
|x|2 = (x,x) ≥ 0 (1.22)com (x,x) = 0 se e somente se x = 0. Note ainda que as relações (1.20) e (1.22) sãoconsistentes com a lei dos cossenos:
|x − y|2 = (x − y,x − y)= |x|2 + |y|2 − 2 (x,y)= |x|2 + |y|2 − 2 |x| |y| cos θ
32 1. Sistemas Dinâmicos Lineares
de onde se conclui que a estrutura geométrica satisfeita pelos vetores pode ser deduzidaa partir do produto interno.
Outras relações deduzidas de (1.20) e (1.22) são:Desigualdade de Schwarz .
|(x,y)||x| |y| = |cos θ| ≤ 1 ;
Desigualdade triangular.
|x + y|2 = (x + y,x + y)= |x|2 + |y|2 + 2 |x| |y| cos θ≤ (|x| + |y|)2 .
Em resumo, relações geométricas como a lei dos cossenos e desigualdade triangularsão compat́ıveis com o produto interno (1.21) e a noção de distância induzida por este.Faremos agora o percurso inverso. Partiremos da seguinte
Definição 1.29 O produto interno (x, y) de dois elementos x, y de um espaço li-near E sobre R (ou C), é uma função E × E 7−→ R (ou C) satisfazendo as seguintespropriedades:
(x,x) ≥ 0(x,y) = (y,x) (ou (x,y) = (y,x) )
(αx + βy, z) = α (x, z) + β (y, z) (1.23)
com a igualdade na primeira relação satisfeita somente se x = 0. Aqui, z significa aconjugação complexa de z ∈ C.
Um espaço vetorial E sobre R (ou C) dotado de um produto interno (·, ·) é denominadoespaço Euclideano (ou espaço unitário).
Exemplo 1.30 1. E = Cn com (x,y) = x1 y1 + · · ·+ xn yn.
2. E = l2 (N) (sobre R) com (x, y) =∞∑
i=0
xi yi
3. O espaço L2 ([a, b],C) das funções de quadrado integraveis f : [a, b] −→ C com
(f, g) :=
∫ b
a
f(x) g(x) dx .
4. O espaço L2 (I,R; ρ) das funções de quadrado integrável com o produto internoponderado por uma função positiva, ρ(x) ≥ 0, no intervalo I ⊆ R
(f, g)ρ =
∫
I
f(x) g(x) ρ(x) dx .
1.1 Noções Básicas de Algebra Linear 33
Todo espaço linear E com produto interno é um espaço normado (isto é, possui anoção de comprimento) com a norma de x ∈ E dada por
‖x‖ :=√
(x,x) . (1.24)
Para verificar que ‖ · ‖ define uma função comprimento em E a desigualdade triangular
‖x + y‖ ≤ ‖x‖ + ‖y‖ (1.25)
deve ser satisfeita para todo x, y ∈ E . A seguinte desigualdade é útil para este finalidade.Proposição 1.31 (Desigualdade de Schwarz)
|(x,y)| ≤ ‖x‖ ‖y‖ . (1.26)
Prova. Usando a definição (1.24) e as propriedades (1.23), temos
0 ≤ (αx + y, αx + y)= |α|2 ‖x‖2 + 2ℜ (α (x,y)) + ‖y‖2
≤ |α|2 ‖x‖2 + 2 |α| |(x,y)| + ‖y‖2 (1.27)
onde ℜ (z) = (z + z) /2 é a parte real de z ∈ C. (1.27) define uma inequação para |α|que é satisfeita em R se e somente se o descriminante
∆ = 4(|(x,y)|2 − ‖x‖2 ‖y‖2
)
for negativo e ∆ ≤ 0 implica (1.26).2
Pela definição (1.24) e desigualdade de Schwarz, concluimos
‖x + y‖2 ≤ ‖x‖2 + 2 | (x,y)| + ‖y‖2
≤ ‖x‖2 + 2 ‖x‖ ‖y‖ + ‖y‖2
= (‖x‖ + ‖y‖)2 .
Uma vez verificada as relações geométricas da norma podemos definir, como em (1.20),o ângulo θ entre dois vetores x e y
cos θ =(x,y)
‖x‖ ‖y‖ ,
e introduzir a seguinte
Definição 1.32 Dois vetores x, y ∈ E são ortogonais entre si, se e somente se oproduto interno destes for nulo:
x ⊥ y ⇐⇒ (x,y) = 0.
34 1. Sistemas Dinâmicos Lineares
Enunciaremos a seguir dois resultados importantes.
Teorema 1.33 Qualquer conjunto de vetores mutuamente ortogonais são linearmenteindependentes.
Prova. Seja x1, . . . ,xn uma coleção de vetores mutuamente ortogonais:
(xi,xj) = 0
se i 6= j, e considere a equação
λ1x1 + · · ·+ λnxn = 0 . (1.28)
Tomando o produto escalar de (1.28) com o vetor xj e usando a ortogonalidade, resulta
λ1 (x1,xj) + · · · + λn (xn,xj) = λj ‖xj‖2 = 0
que por (1.23) implica em λj = 0 para todo j = 1, . . . , n.2
Teorema 1.34 Todo espaço linear E Euclideano (ou unitário) de dimensão n possuiuma base ortogonal normalizada (base ortonormal) {ej}nj=1.Prova. Denomina–se método de Gram–Schmidt o seguinte procedimento indutivo degerar uma base ortonormal a partir de uma base de vetores linearmente independentes.Seja x1, . . . ,xn uma coleção de vetores linearmente independentes e escolha
e1 =x1
‖x1‖.
Defina y2 = x2 − αe1 tal que (y2, e1) = 0. Isto determina α = (x2, e1). Escolha
e2 =y2
‖y2‖e note que e1 e e2 são vetores ortogonais normalizados e constrúıdos a partir da com-binação linear dos vetores x1 e x2.
Assuma, em seguida, que k vetores e1, . . . , ek, k < n, normalizados e mutuamenteortogonais, foram constrúıdos por combinações lineares de vetores de {x1, . . . ,xk}. Seja
Wk = span {x1, . . . ,xk} = span {e1, . . . , ek}
o subespaço gerado por estes. Defina
yk+1 = (E − Pk) (xk+1) (1.29)
onde E é o operador de identidade, E(x) = x e Pk : E 7−→ Wk é o operador de projeção(projetor) ortogonal no subespaço Wk:
Pk(x) := (x, e1) e1 + · · ·+ (x, ek) ek . (1.30)
1.1 Noções Básicas de Algebra Linear 35
Novamente, escolha
ek+1 =yk+1∥∥yk+1
∥∥e note que ek+1 é normalizado
‖ek+1‖2 = (ek+1, ek+1) =∥∥yk+1
∥∥−2 (yk+1,yk+1)
= 1
e ortogonal a Wk:(ej, ek+1) = 0 , j = 1, . . . , k . (1.31)
Como, por hipótese, e1, . . . , ek são combinações lineares de {x1, . . . ,xk}, yk+1 (e conse-quentemente ek+1) é uma combinação linear de {x1, . . . ,xk+1}. Isto conclui a induçãomatemática e prova o teorema de Gram–Schmidt. Note que é sempre posśıvel encontraruma base de vetores linearmente independentes.
2
Exerćıcio 1.35 Verifique as relações (1.31).
Exerćıcio 1.36 Um projetor P é um operador idempotente: P 2 = P ◦P = P . Verifiqueesta propriedade para Pk e (E − Pk) definidos em (1.30) e (1.29). Mostre que Pk e(E − Pk) são tais que: Pk ◦ (E − Pk) = (E − Pk) ◦ Pk = O.Exemplo 1.37 Considere a coleção S = {fj , gj}kj=1 de funções definidas em [−π, π]:
fj(x) =1√π
cos jx , gj =1√π
sin jx
e seja Wk o subespaço gerado por esta. S é um conjunto de funções normalizadas emutuamente ortogonais com respeito ao produto escalar do Exemplo 1.30.3 :
(fl, fm) =1
π
∫ π
−πcos lx cosmxdx
=1
2π
∫ π
−π{cos (l +m) x + cos (l −m) x } dx = δlm
e analogamente, (gl, gm) = δlm e (fl, gm) = 0 para todo l,m = 1, . . . , k.O projetor P no subespaço Wk é dado por
Pf (x) =
k∑
j=1
{(f, fj) fj(x) + (f, gj) gj(x)}
=
k∑
j=1
1
π
∫ π
−π(cos jy cos jx + sin jy sin jx) f(y) dy
=
k∑
j=1
1
π
∫ π
−πcos j (x− y) f(y) dy .
Note que P é a soma de operadores integrais dados pela convolução pela função cos jx.
36 1. Sistemas Dinâmicos Lineares
Exemplo 1.38 (Polinômios de Chebyshev) Considere a base de monômios 1, x, x2,. . . , xn que, segundo vimos, aproxima uniformemente as funções cont́ınuas definidasno intervalo [−1, 1]. Em C ([−1, 1] ,R), considere o produto interno com peso ρ(x) =1/√
1 − x2:
(f, g)ρ =
∫ 1
−1f(x) g(x)
dx√1 − x2
.
e note que as funções uniformemente cont́ınuas sendo integráveis por Riemann, sãoquadrado integraveis e, pela desigualdade de Schwarz e devido a singularidade de ρ emx = ±1 ser integrável, o produto interno está bem definido. Usando o método de Gram–Schmidt, tomamos o polinômio de ordem 0, T0 = 1 cuja normalização
‖T0‖2 =∫ 1
−1
dy√1 − y2
=
∫ π
0
dθ = π
e definimos e0(x) = T0(x)/ ‖T0‖ = 1/√π. Tomamos o próximo polinômio
T1(x) = x− (x, e0) e0(x)
= x− 1π
∫ 1
−1y
dy√1 − y2
= x
onde a integral se anula devido a anti–simetria da função y/√
1 − y2, e definimose1(x) = T1(x)/ ‖T1‖ onde
‖T1‖2 =∫ 1
−1y2
dy√1 − y2
=
∫ π
0
cos2 θ dθ
=
∫ π
0
1
2(cos 2θ + 1) dθ =
π
2.
Tomamos a seguir
T2(x) = 2(x2 −
(x2, e0
)e0(x) −
(x2, e1
)e1(x)
)(1.32)
= 2x2 − 2π
∫ 1
−1y2
dy√1 − y2
− 4πx
∫ 1
−1y3
dy√1 − y2
= 2x2 − 1
1.1 Noções Básicas de Algebra Linear 37
com a última integral se anulando devido a anti–simetria de y3/√
1 − y2, cuja norma-lização
‖T2‖2 =∫ 1
−1
(2y2 − 1
)2 dy√1 − y2
=
∫ π
0
(2 cos2 θ − 1
)2dθ
=
∫ π
0
cos2 2θ dθ
=
∫ π
0
1
2(cos 4θ + 1) dθ =
π
2.
O procedimento continua, definindo e2(x) = T2(x)/ ‖T2‖ =√
2/π (2x2 − 1) e tomandoo próximo polinômio T3(x) de forma análoga a (1.32). Os polinômios de Chebyshev sãopor convenção “normalizados” de forma tal que Tl(1) = 1 para todo l ∈ N.
Uma base S ′ = {y1, . . . ,yn} de vetores ortogonais, não necessariamente normalizados,pode ser obtida diretamente de uma base S = {x1, . . . ,xn} de vetores linearmenteindependentes. Como no procedimento de Gram-Schmidt, seja y1 = x1 e
yk = xk −k−1∑
j=1
αjk xj (1.33)
onde, para cada k = 2, . . . , n, α = (α1k, . . . , αk−1 k) é determinado por k − 1 equações
(xi,yk) = 0 , i = 1, . . . , k − 1 . (1.34)
Note que (1.34) implica(yj,yk
)= 0 para todo j < k (basta usar que yj é uma
combinação linear de x1, . . . ,xj).Definindo a matriz de Gram de ordem p como
G(p) =
(x1,x1) (x2,x1) · · · (xp,x1)(x1,x2) (x2,x2) · · · (xp,x2)
......
. . ....
(x1,xp) (x2,xp) · · · (xp,xp)
e usando as relações (1.34) em (1.33), cada α satisfaz a equação
G(k−1)α = β
onde β = ((x1,xk) , . . . , (xk−1,xk)), cuja solução é dada pela fórmula de Cramer
αjk =detG
(k−1)j
detG(k−1)
38 1. Sistemas Dinâmicos Lineares
onde G(k−1)j é a matriz G
(k−1) com a j–ésima coluna substitúıda pelo vetor β. Substi-tuindo este resultado em (1.33) e usando a desenvolvimento do determinante por La-place, obtemos
yk = xk −k−1∑
j=1
detG(k−1)j
detG(k−1)xj
=1
detG(k−1)
(detG(k−1) xk −
k−1∑
j=1
detG(k−1)j xj
)
=det Γ(x1, . . . ,xk)
detG(k−1)
onde a última linha faz sentido quando escolhemos a mesma componente dos vetoresyk = (y1k, . . . , ykk) e xj = (y1j, . . . , ykj), j = 1 . . . , k e, componente por componente,
Γ(xi1, . . . , xik) =
|G(k−1) β(k−1)
|xi1 xi2 · · · xik
.
1.1.4 Autovalores e Autovetores
O objetivo desta subseção é investigar os subespaços invariantes de uma transformaçãolinear T . Começaremos com a seguinte
Definição 1.39 Seja T um operador linear em um espaço vetorial E sobre C. Um vetorx ∈ E não nulo é um autovetor de T se a equação
T (x) = λx (1.35)
for satisfeita para um número λ ∈ C chamado autovalor de T ou valor próprio de Tassociado a x.
A equação de autovalores (1.35) pode ser reescrita na forma
(T − λE) (x) = 0 . (1.36)
De acordo com o Teorema 1.22, esta equação admite solução não trivial (x 6= 0) se esomente se (T − λE) for singular ou, equivalentemente, se e somente se
det (A− λI) = 0 (1.37)
onde A = A(S) é a matriz que representa T em alguma base S de E . Veremos emseguida que esta condição independe da representação.
1.1 Noções Básicas de Algebra Linear 39
O lado esquerdo de (1.37) define um polinômio mônico2 em λ de ordem n
cA(λ) = det (λI −A) = λn + c1λn−1 + · · ·+ cn (1.38)
denominado polinômio caracteŕıstico de A. Aqui, n = dim E e o determinante deuma matriz C = [cij ] de ordem n é uma função multilinear em cij de grau n, dada por
detC =∑
π
(−1)|π| c1π1c2π2 · · · cnπn ,
com a soma percorrendo todas as permutações π =
(1 2 · · · nπ1 π2 · · · πn
)de {1, . . . , n}
com |π| o sinal da permutação3 (Exemplo: Para n = 4, π =(
1 2 3 42 3 1 4
)e π′ =
(1 2 3 44 3 1 2
)são permutações de {1, 2, 3, 4} com |π| = 2 e |π| = 5).
A equação (1.37) identifica as ráızes do polinômio caracteŕıstico cA(λ) com os au-tovalores de T . Pelo teorema fundamental da álgebra, cA(λ) possui n ráızes {λj}nj=1,enumeradas contando multiplicidades, definidas sobre o corpo dos números complexosC e
cA(λ) =
n∏
j=1
(λ− λj) .
Definição 1.40 Denomina-se espectro σ(T ) de um operador T em E o conjunto{λ1, . . . , λn} de seus autovalores.
Mostre 1.41 1. que o polinômio caracteŕıstico cA(λ) independe da representaçãoA(S) da transformação T e, portanto, os autovalores {λj} de T são autovaloresde qualquer representação A(S) de T .
2. que autovetores {x1, . . . ,xs} de T associados a autovalores distintos {λ1, . . . , λs}são linearmente independentes.
Solução de Mostre 1.41.1. Seja A′ = A′(S ′) a representação matricial de T na base S ′
de E . Então, de acordo com os paragrafos seguintes ao Exerćıcio 1.27, A′ = P−1APonde P = P (S ′, S) = M−1M ′ é a matriz de transição da base S ′ para S. Note que P éinverśıvel e
1 = det I = detP−1P = detP−1 detP .
2Polinômios cujo o coeficiente c0 do termo de maior grau é igual a 1.3|π| é o número de permutações elementares (troca de ordem de dois elementos) necessário para retornar a ordem
original.
40 1. Sistemas Dinâmicos Lineares
Note que a escolha de S e S ′ é arbitrária e portanto P (S ′, S) é uma matriz inverśıvelarbitrária. Assim, cA(λ) é independe da escolha de base pois
cA′(λ) = det (λI −A′)= det
(λI − P−1AP
)
= det(P−1 (λI −A)P
)
= detP−1 det (λI − A) detP= det (λI −A) = cA(λ) .
2. Devemos mostrar que a equação
x = α1x1 + · · ·+ αsxs = 0 (1.39)
para os coeficientes {αi} tem uma única solução α1 = · · · = αs = 0. Aplicando ooperador
T (i) := (T − λ1) ◦ · · · ◦ (T − λi−1) ◦ (T − λi+1) ◦ · · · ◦ (T − λs)
nos dois lados de (1.39), obtemos
T (i) (x) = (λi − λ1) · · · (λi − λi−1) (λi − λi+1) · · · (λi − λs)αi xi = 0
que implica αi = 0 devido a hipótese de {λ1, . . . , λs} serem distintos. O resultado seguefazendo i = 1, . . . , s.
2
De maneira equivalente, porém complemetar à condição (1.37), x é um autovetorde T associado a λ se, e somente se, o núcleo do operador T − λE for não trivial,N (T − λE) 6= {0} e, portanto,
dim N (T − λE) ≥ 1. (1.40)
Se λ0 for uma raiz simples de cA então dim N (T − λ0E) = 1 e existe um autovetorx0 de T associado ao autovalor λ0 pela própria definição. Se λ0 for uma raiz de mul-tiplicidade ma > 1, não há garantia de que o subespaço N (T − λ0E) tenha dimensãoigual à multiplicidade ma de λ0. Pode–se mostrar que
mg := dim (N (T − λ0E)) ≤ ma (1.41)
Os sub́ındices g e a, referem–se a multiplicidade geométrica mg(λ0) e algébrica ma(λ0)do autovalor λ0.
Observação 1.42 Daremos um roteiro para a demonstração da desigualdade (1.41).Pela igualdade (1.19), dim (I (T − λ0E)) = n − mg e isso implica que os menoresprincipais de ordem p > n−mg4 se anulam. Devido a uma relação entre os coeficientes
4Os menores principais de uma matriz A de ordem p ≤ n, são os determinantes das matrizes A(i1, . . . , ip) obtidas pelaeliminação das linhas e colunas de A indexadas por 1 ≤ i1 < · · · < ip ≤ n.
1.1 Noções Básicas de Algebra Linear 41
do polinômio caracteŕıstico e os menores principais de A, por sua vez implica cn−mg =. . . = cn = 0, onde cj é o j–ésimo coeficientes do polinômio caracteŕıstico cA−λ0I(λ) deA− λ0I (ordenado como em (1.38)). Logo
cA(λ) = cA−λ0I(λ− λ0) = (λ− λ0)mgn−mg∏
j=1
(λ− λj)
e mg ≤ ma, com a igualdade somente se λj 6= λ0 para todo j.
Note que o subespaço N (T − λ0E) associado ao autovalor λ0 é invariante pelatransformação T : se x ∈ N (T − λ0E) então (T − λ0E) (x) = 0 e
(T − λ0I) ◦ T (x) = T ◦ (T − λ0I) (x) = 0 (1.42)
implica que T (x) ∈ N (T − λ0E).Sem perda de generalidade, as considerações com respeito a transformação linear T
em E podem ser examinadas em uma dada representação matricial A.
Definição 1.43 Uma matriz A é simples se a multiplicidade de cada autovalor λ deA for igual a dimensão de N (A− λI). Em outras palavras, A é simples se e somentese a mutiplicidade algébrica ma(λ) for igual a multiplicidade geométrica mg(λ) paracada autovalor λ distinto de A.
Exemplo 1.44 1. Seja T um operador linear em R3 definido por
T (x1, x2, x3) = (2x1, x1, x2 + x3) .
A equação T (x) = λx é equivalente a
2x1 = λx1
x1 = λx2
x2 + x3 = λx3
cujas soluções
λ1 = 2, x1 = (2, 1, 1)
λ2 = 0, x2 = (0, 1,−1)λ3 = 1, x3 = (0, 0, 1)
geram três subespaços invariantes N (T − 2I) = {(2α, α, α)}, N (T ) = {(0, α,−α)}e N (T − I) = {(0, 0, α)} de dimensão 1.
2. O operador linear T em R3, dado por
T (x1, x2, x3) = (2x1 + x3, 2x2, 3x3)
42 1. Sistemas Dinâmicos Lineares
é representado, T (ej) =3∑
i=1
aij ei, j = 1, . . . , 3, na base canônica, devido a
T (e1) = (2, 0, 0)
T (e2) = (0, 2, 0)
T (e3) = (1, 0, 3)
pela matriz
A = [aij ] =
2 0 10 2 00 0 3
.
λ = 2 é um autovalor de T de multiplicidade algébrica ma = 2. O subespaçoinvariante associado a este autovalor, N (T − 2I) = {(α, β, 0) , α, β ∈ R}, temdimensão mg = 2. Logo mg(λ) = ma(λ) = 2 para λ = 2.
3. Seja
A =
(2 10 2
)
a matriz com autovalor λ = 2 de multiplicidade algébrica ma = 2. Como o núcleoN (A − λI) = {(α, 0) : α ∈ R} tem dimensão mg = 1 6= ma, a matriz A não ésimples. Note
(A− 2I)(ab
)=
(0 10 0
)(ab
)6=(
00
)
se e somente se b 6= 0.A seguir enunciaremos os dois resultados mais relevantes desta subseção.
Teorema 1.45 Seja A uma matriz n × n definida sobre R (ou C). A é uma matrizsimples se e somente se A for diagonalizável. Isto é, se e somente se existir umabase S = {x1, . . . ,xn} (de autovetores) em Rn (ou Cn) tal que A representada na baseS é diagonal
D = diag {λ1, . . . , λn} =
λ1 · · · 0...
. . ....
0 · · · λn
.
Teorema 1.46 (Teorema Espectral) Seja A ∈Mn (R) (ou Mn (C)). A é uma matrizsimples se e somente se puder ser escrita na forma
A =n∑
j=1
λj Ej
onde λ1,. . ., λn são os autovalores de A (contando multiplicidade) e E1,. . ., En são ma-trizes de projeção
EiEj = δijEj
1.1 Noções Básicas de Algebra Linear 43
nas direções dos autovetores x1,. . .,xn, com δij = 1 se i = j e δij = 0 de outra forma.Consequentemente, se p(x) for um polinômio, temos
p (A) =n∑
j=1
p(λj)Ej .
Prova do Teorema 1.45. Pela Definição 1.43, se A ∈ Mn (C) for simples, é semprepossivel encontrar uma base S = {x1, . . . ,xn} em Cn de autovetores de A associadosaos autovalores {λ1, . . . , λn}. Note que autovetores associados a autovalores distintossão L.I. devido a Mostre 1.41.2. Note que o subespaço N (A− λI) é invariante e, porhipótese, pode–se encontrar ma(λ) = mg(λ) vetores L.I. neste espaço.
As equações Axi = λi xi, i = 1, . . . , n, podem ser colecionadas na forma matricial.Posicionando cada uma das equações nas colunas de uma matriz, temos
[Ax1 · · · Axn] = [λ1x1 · · · λnxn]A [x1 · · · xn] = [x1 · · · xn]D
AX = XD , (1.43a)
onde A = [aij]ni,j=1, xi = (x1i, . . . , xni) e
X = [x1 · · · xn]é a matriz X = [xij ]
ni,j=1 cujas colunas formam a base S = {x1, . . . ,xn} de autovetores.
Multiplicando (1.43a) a esquerda por X−1, temos
D = X−1AX (1.44)
de onde se conclui, juntamente com (1.18), a prova do Teorema 1.45.2
Multiplicando (1.43a) a direita por X−1, obtemos
A = XDX−1 = XDY T .
O enunciado do Teorema 1.46 é conseqüência da bi–ortogonalidade dos vetores nas
colunas de X e Y = (X−1)T
=(XT)−1
, isto é XY T = Y TX = I. Retornaremos a estaquestão ao final da subseção.
O fato da matriz A representada na base S dos autovetores ter a forma diagonal D =diag {λ1, . . . , λn} requer maior atenção. Retomaremos a questão levantada em Mostre1.41.1 aproveitando a oportunidade para fazer uma breve revisão sobre as propriedadesdas transformações de similaridade.
Denotamos por N (Cn) ⊂ L (Cn) o conjunto de todos os isomorfismos em Cn (i.e.,o conjunto de todos os operadores T não singulares) e por Nn(C) o conjunto das ma-trizes n × n inverśıveis. Se A é uma matriz n × n complexa, M ∈ Nn (C) define umatransformação de similaridade
B = M−1AM (1.45)
que satisfaz as seguintes propriedades:
44 1. Sistemas Dinâmicos Lineares
1. detB = det (M−1AM) = detM−1 detA detM = (detM)−1 detA detM = detA;
2. TrB = Tr (M−1AM) = Tr (AMM−1) = TrA (devido a propriedade ćıclica dotraço);
3. B−1 = (M−1AM)−1
= M−1A−1 (M−1)−1
= M−1A−1M ;
4. Bk = M−1AMM−1AM · · ·M−1AM = M−1AkM para todo k ∈ N. Logo, se P (λ)for um polinômio, então
P (B) = M−1P (A)M .
Pela propriedade 1. (veja solução de Mostre 1.41.1), cB(λ) = cA(λ) e o conjunto{λ1, . . . , λn} de autovalores de A e {η1, . . . , ηn} de B é o mesmo. Note que a trans-formação (1.45) não é unicamente implementada: se N for uma matriz n × n tal que[N,A] = NA− AN = 0, então B = (NM)−1ANM = M−1AM .
Exerćıcio 1.47 Uma relação ∼ definida em um conjunto X é dita ser uma relaçãode equivalência se as propriedades: (a) x ∼ x (reflexiva); (b) x ∼ y ⇐⇒ y ∼ x(simétrica); (c) x ∼ y e y ∼ z ⇐⇒ x ∼ z (transitiva); forem satisfeitas para todo x, ye z ∈ X . Mostre que a relação A ∼ B estabelecida pela transformação de similaridade(1.45) é uma relação de equivalência em Mn (C).
A relação de equivalência ∼ definida por (1.45) decompõe o conjunto Mn (C) emclasses de equivalência
Mn (C) =⋃
A[A],
onde[A] = {B ∈Mn (C) : B ∼ A} .
Note que, ou a classe [A] coincide com a classe [B] ou estas classes são disjuntas: [A] ∩[B] = ∅. Logo, o conjunto de todos operadores lineares similares a T (incluindo aquisuas representações matriciais)
[T ] ={S ∈ L (Cn) : S = M−1 ◦ T ◦M : M ∈ N (Cn)
}
forma uma classe de equivalência no sentido que todos os seus elementos possuem omesmo espectro σ(T ) = {λ1, . . . λn}. Além disso, seja
T (xj) = λjxj , j = 1, . . . , n (1.46)
e yj = M−1 (xj). Multiplicando por M
−1 a equação acima, obtemos a equação deautovalores para o operador S
S(yj)
= M−1 ◦ T ◦M(yj)
= M−1 ◦ T (xj) = λjM−1 (xj) = λjyj
com autovalores {λ1, . . . λn} e autovetores {y1, . . .yn}.
1.1 Noções Básicas de Algebra Linear 45
Exemplo 1.48 Seja
A =
1 0 01 2 01 0 −1
.
O autovalores de A são as ráızes λ1 = 1, λ2 = 2 e λ3 = −1, do polinômio caracteŕıstico:
cA(λ) =
∣∣∣∣∣∣
1 − λ 0 01 2 − λ 01 0 −1 − λ
∣∣∣∣∣∣= (1 − λ) (2 − λ) (−1 − λ) .
O autovetor correspondente a λ1 = 1 é a solução x1 = (x1,1, x2,1, x3,1) não identica-mente nula da equação
1 − λ1 0 0
1 2 − λ1 01 0 −1 − λ1
x1,1x2,1x3,1
=
000
que é equivalente ao sistema de equações
x1,1 + x2,1 = 0x1,1 − 2 x3,1 = 0
e cuja solução éx2,1 = −x1,1x3,1 =
1
2x1,1
com x1,1 arbitrário. Fixando x1,1 = 2 resulta em x1 = (2,−2, 1).O autovetor x2 correspondente a λ2 = 2 é a solução da equação
−1 0 01 0 01 0 −3
x1,2x2,2x3,2
=
000
equivalente ao sistema linearx1,2 = 0
x1,2 − 3 x3,2 = 0com x2,2 arbitrário. Podemos então escolher x2 = (0, 1, 0).
O autovetor x3 correspondente a λ3 = −1 é a solução da equação
2 0 01 3 01 0 0
x1,3x2,3x3,3
=
000
cuja solução é x1,3 = x2,3 = 0 e x3,3 qualquer. Escolhemos x3 = (0, 0, 1).
46 1. Sistemas Dinâmicos Lineares
A matriz de autovetores
X =
2 0 0−2 1 01 0 1
é um isomorfismo, pois detX = 2 6= 0, e define uma transformação de similaridadeque diagonaliza a matriz A com D = diag {1, 2,−1}. Afim de verificar a relação (1.44)neste exemplo, a inversa de X pode ser calculada por
X−1 =1
detXadjX (1.47)
onde adjX é a matriz adjunta de X: adjX = (cofX)T .A matriz dos cofatores, cofX, é obtida da seguinte forma. Se B = [bij ] é uma matriz
n× n o cofator Bij associado a entrada bij é dado pelo determinante da matriz B coma i–ésima linha e a j–ésima coluna removidas:
Bij = (−1)i+j
∣∣∣∣∣∣∣∣∣∣∣∣∣
b11 · · · b1 j−1 b1 j+1 · · · b1n...
. . ....
.... . .
...bi−1 1 · · · bi−1 j−1 bi−1 j+1 · · · bi−1 nbi+11 · · · bi+1 j−1 bi+1 j+1 · · · bi+1 n
.... . .
......
. . ....
bn 1 · · · bn j−1 bn j+1 · · · bnn
∣∣∣∣∣∣∣∣∣∣∣∣∣
.
A matriz dos cofatores é portanto cofB = [Bij ]. Por esta fórmula, obtemos
X−1 =1
2
1 0 02 2 0−1 0 2
e
X−1AX =1
2
1 0 02 2 0−1 0 2
1 0 01 2 01 0 −1
2 0 0−2 1 01 0 1
=
1 0 00 2 00 0 −1
.
Exemplo 1.49 Seja T o operador linear que associa a cada vetor x = (x1, x2, x3) ovetor
x′ = T (x) = (2x1, x1, x2 + x3) . (1.48)
Em componentes, (1.48) é equivalente a
x′1x′2x′3
=
2x1x1x2 + x3
= A
x1x2x3
1.1 Noções Básicas de Algebra Linear 47
onde
A =
2 0 01 0 00 1 1
é a matriz que representa T na base canônica, cujos autovalores e autovetores corres-
pondentes são, respectivamente, λ1 = 2; λ2 = 0; λ3 = 1 e v1 =
211
; v2 =
01−1
;
v3 =
001
. A matriz que diagonaliza A é dada por:
X =
2 0 01 1 01 −1 1
e sua inversa é dada por
X−1 =adjX
detX=
1
2
1 0 0−1 2 0−2 2 2
.
Note que as matrizes A, X e X−1 possuem a forma triangular inferior. O conjuntoTn (R) das matrizes triangulares superiores (inferiores) formam um subespaço vetoriale uma álgebra fechada pelas operações de produto matricial e inversa. Os autovalores deuma matriz triangular são os elementos de sua diagonal.
Miscelânea. Enunciaremos a seguir alguns resultados complementares. Seja E um espaçounitário (espaço vetorial com produto interno (·, ·)) e note que qualquer vetor z ∈ E édeterminado univocamente se (z,y) for conhecido para todo y ∈ E .
Definição 1.50 Dado um operador T sobre um espaço unitário E , a equação
(x, T (y)) = (T ∗ (x) ,y)
para todo x,y ∈ E define um operador T ∗ em E denominado operador adjunto de T .Denomina-se auto–adjunto (ou hermiteano) o operador que é igual ao seu ad-
junto:
T = T ∗.
A representação matricial A = [aij ] de um operador T ∈ L (Rn) auto–adjunto édenominada simétrica. Os elementos de uma matriz simétrica A = [aij ]
ni,j=1 satisfazem
aij = aji .
48 1. Sistemas Dinâmicos Lineares
Uma matriz A ∈Mn (R) é ortogonal se AT = A−1, isto é, se
AT A = AAT = I .
Seja E um espaço vetorial sobre os números complexos e S um operador em L (Cn).Se B = [bij ] for a representação matricial de S, a representação matricial de S
∗ é dadapela matriz hermiteana conjugada a B (complexo conjugado da transposta de B):
B† = BT =(B̄)T
onde B̄ = [̄bij ] é a matriz com b̄ij complexo conjugado a bij . A representação matricialB de um operador auto–adjunto é uma matriz hermiteana: B = B†. A matriz B é ditaser uma matriz unitária se B† = B−1, ou seja, se
BB† = B†B = I .
Operadores Auto-adjuntos tem propriedades especiais.
Teorema 1.51 Os autovalores de um operador auto–adjunto são reais e os autovetorescorrespondentes à autovalores distintos são ortogonais.
Prova. Seja T um operador auto–adjunto T = T ∗ e considere as equações
T (x1) = λ1x1 e T (x2) = λ2x2 .
Temos
(T (x1) ,x2) = (T∗ (x1) ,x2)
de onde segue
0 = (T (x1) ,x2) − (T ∗ (x1) ,x2)= (T (x1) ,x2) − (x1, T (x2))=
(λ1 − λ̄2
)(x1,x2)
Se x1 = x2 então (x1,x2) = ‖x1‖2 6= 0, λ2 = λ1 e λ1 − λ̄1 = 0. Por outro lado, seλ1 6= λ2 então os autovetores associados são ortogonais (x1,x2) = 0
2
Definição 1.52 Uma matriz A é normal se, e somente se, o conjunto de seus auto-vetores S = {x1, . . . ,xn} formarem uma base ortogonal de Cn.
Uma conseqüência desta definição é
Teorema 1.53 Toda matriz normal é uma matriz simples.
1.1 Noções Básicas de Algebra Linear 49
Prova. Se os autovalores forem simples é imediato. Se λ tiver multiplicidade algébricam então, pelo Teorema 1.34 de Gram–Schmidt, existem m autovetores ortogonais asso-ciados a λ que formam uma base para N (A− λI).
2
Seja A uma matriz normal e S = {x1, . . . ,xn} uma base ortonormal formada pelosautovetores normalizados de A. Então a matriz dos autovetores X = [x1 · · ·xn] é umamatriz ortogonal X−1 = XT (unitária X−1 = X† se A ∈Mn (C)). Verifique ! Neste caso,A é diagonalizavel pela transformação unitária de similaridade
D = X†AX (1.49)
com D = diag {λ1, . . . , λn}. Dado uma matriz A ∈ Mn (C), o conjunto [A] de todas asmatrizes da forma
B = U †AU ,
para alguma matriz unitária U , forma uma classe de equivalência.
Teorema 1.54 Uma matriz A é normal se e somente se for unitariamente equivalentea uma matriz diagonal D.
Nem toda matriz A ∈ Mn (C) é unitariamente equivalente a uma matriz diagonal Dmas pode–se, no entanto, afirmar
Teorema 1.55 (Shur–Toeplitz) Toda matriz pertencente a Mn (C) é unitariamenteequivalente a uma matriz triangular superior.
Segue deste resultado:
Teorema 1.56 A é uma matriz normal se e somente se
AA† = A†A (1.50)
Prova. (=⇒) Se A for normal, segue do Teorema 1.54 que A é unitariamente equivalentea uma matriz diagonal: A = X†DX. Por conseguinte
AA† = X†DXX†DX = X†DDX = X†DDX =(X†DX
)†X†DX = A†A ,
pois a relação de comutação DD = DD é sempre satisfeita para uma matriz diagonalD.
O sentido reverso (⇐=), pelo Teorema 1.55, existe uma transformação unitária Utal que B = U †AU é triangular superior. Se A satisfaz (1.50) então verifica–se queBB† = B†B. Esta equação combinada com o fato de B ser triangular superior implicaque B é diagonal e, portanto, uma matriz normal.
2
Note que qualquer matriz hermiteana ou unitária satisfaz a relação (1.50). Conse-quentemente,
50 1. Sistemas Dinâmicos Lineares
Corolário 1.57 Toda matriz hermitiana ou unitária pode ser diagonalizada por umatransformaçao unitária (1.49).
Segue das relações
A† =(X†DX
)†= X†DX ,
A = X†DX
e A† = A que D = D. Logo λj = λj (veja também Teorema 1.51) e o espectro σ(A) ={λ1, . . . λn} de uma matriz hermiteana A é real. O espectro σ(U) de uma matriz unitáriaU se encontra no ćırculo unitário {z ∈ C : |z| = 1}. Isto segue pois, se Ux = λx com‖x‖2 = (x,x) = 1, então
|(Ux, Ux)| = |λ|2 (x,x) = |λ|2 = 1
(note que U †U = I).Um outro grupo de matrizes relevantes:
Proposição 1.58 P ∈Mn (R) é uma matriz de projeção se P for idempotente
P 2 = P . (1.51)
Se P for idempotente, então
1. (I − P ) é idempotente;
2. N (P ) = I (I − P );
3. N (I − P ) = I (P ) .
Já hav́ıamos verificado anteriormente (veja Exerćıcio 1.36) que o operador P deprojeção ortogonal introduzido no método de Gram–Schmidt (veja equação (1.30)),satisfaz a propriedade (1.51) e disso resulta
(I − P ) (I − P ) = I − 2P + P 2 = I − 2P + P = I − P .
Deixamos a verificação das demais propriedades 2 . e 3 ., bem como a demonstração doseguinte resultado, como exerćıcios.
Teorema 1.59 Toda matriz idempotente P é uma matriz simples.
Notamos que todo vetor x ∈ E pode ser escrito como x = x1 + x2 onde x1 = Pxe x2 = (I − P )x. Pelas propriedades 2 . e 3 da Proposição 1.58, x1 ∈ N (I − P )e x2 ∈ N (P ) e, consequentemente, E = N (P ) +̇N (I − P ) é a soma direta de doisespaços nulos pois 0 é o único vetor comum a ambos subespaços: (I − P )x = x−Px = 0e Px = 0 tem uma única solução x = 0. De onde se conclui N (I − P )∩N (P ) = {0}.
1.1 Noções Básicas de Algebra Linear 51
Como P é simples, P é diagonalizavel. Antes de proceder nesta direção, daremos umarepresentação matricial para o operador de projeção (1.30). É importante notar queo operador P de projeção pode não ser ortogonal: P é um projetor ortogonal se esomente se P 2 = P e P † = P .
Seja {e1, . . . , en} uma base ortonormal de Cn e seja Pk o projetor no subespaço Wkgerado pelos k primeiros vetores. Segundo a definição (1.30), temos
Pkx = (x, e1)e1 + · · ·+ (x, ek)ek= e1(e1,x) + · · ·+ ek(ek,x)= E1x + · · ·+ Ekx
(1.52)
onde, para todo l = 1, . . . , k,
El = el (el)† =
e1l...enl
(e1l · · · enl
)(1.53)
é a matriz obtida pela multi