137
Notas de F´ ısica Matem´atica II Domingos H. U. Marchetti Depto. F´ ısica Geral Ed. Principal, Ala I, Sala 328 Ramal 6797 Email: [email protected] Web: http://gibbs.if.usp.br/˜marchett/fismat2 Ifusp - 2007

Notas de F´ısica Matem´atica II - USPfig.if.usp.br/~marchett/fismat2/fm-07.pdfSobre o Programa O presente curso de F´ısica–Matem´atica sobre equac¸˜oes diferenciais est´a

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • Notas de F́ısica Matemática II

    Domingos H. U. MarchettiDepto. F́ısica Geral

    Ed. Principal, Ala I, Sala 328

    Ramal 6797Email: [email protected]

    Web: http://gibbs.if.usp.br/˜marchett/fismat2

    Ifusp - 2007

  • 2

  • Índice

    Sobre o Programa 5

    Motivações 7

    1 Sistemas Dinâmicos Lineares 171.1 Noções Básicas de Algebra Linear . . . . . . . . . . . . . . . . . . . . . . 17

    1.1.1 Espaços e Operadores Lineares . . . . . . . . . . . . . . . . . . . 171.1.2 Subespaço, Base e Dimensão . . . . . . . . . . . . . . . . . . . . . 231.1.3 Espaços Unitários e Euclideanos . . . . . . . . . . . . . . . . . . . 311.1.4 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . 38

    1.2 Sistema de Equações Diferenciais Ordinárias . . . . . . . . . . . . . . . . 541.2.1 Equação Linear Homogênea com Coeficientes Constantes . . . . . 541.2.2 Estrutura das Soluções de ż = Az . . . . . . . . . . . . . . . . . . 601.2.3 Equações Diferenciais de Ordem n . . . . . . . . . . . . . . . . . . 661.2.4 Equação Linear Não–Homogênea . . . . . . . . . . . . . . . . . . 691.2.5 Cadeias Harmônicas e a Equação das Ondas . . . . . . . . . . . . 77

    1.3 Distribuições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 851.3.1 Problema de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . 87

    2 Funções Especiais 912.1 Método de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

    2.1.1 Pontos Ordinários e Pontos Singulares . . . . . . . . . . . . . . . 912.1.2 Existência e Unicidade de Soluções na Vizinhança de Pontos Or-

    dinários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 972.1.3 Pontos Regulares: Segundo Exemplo Ilustrativo . . . . . . . . . . 101

  • 4 Índice

    2.1.4 Sistema de duas Equações de Primeira Ordem . . . . . . . . . . . 1052.1.5 Pontos Regulares e a Equação de Euler . . . . . . . . . . . . . . . 1142.1.6 Singularidades no Infinito . . . . . . . . . . . . . . . . . . . . . . 117

    2.2 Singularidades Irregulares e Confluência . . . . . . . . . . . . . . . . . . 1202.2.1 Equções Fuchsianas . . . . . . . . . . . . . . . . . . . . . . . . . . 1202.2.2 Equações Hipergeométricas . . . . . . . . . . . . . . . . . . . . . 1222.2.3 Equações Diferenciais com Três Singularidades . . . . . . . . . . . 1252.2.4 Funções Hipergeométricas Confluentes . . . . . . . . . . . . . . . 127

    2.3 Propriedades e Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . 1292.3.1 Polinômios de Legendre . . . . . . . . . . . . . . . . . . . . . . . 129

  • Sobre o Programa

    O presente curso de F́ısica–Matemática sobre equações diferenciais está dividido emquatro partes:

    1. Dinâmica de Sistemas Lineares

    2. O Problema de Sturm–Liouville

    3. Equações a Derivadas Parciais

    4. Funções Especiais

    Na primeira parte vários tópicos de Álgebra Linear e Sistemas de Equações Dife-renciais ordinárias lineares são revistos e aprofundados. Os conceitos introduzidos nestaparte são básicos para a compreenção dos demais assuntos tratados no texto.

    A segunda parte trata do problema de Sturm–Liouville regular. Este importantecaṕıtulo da Análise esclarece as razões de se procurar soluções em séries trigonométricasdas equações a derivadas parciais estudadas no primeiro curso de F́ısica–Matemática.Ainda nesta parte, será desenvolvido o método da função de Green para as equações deSturm–Liouville não homogêneas.

    A terceira parte trata algumas equações a derivadas parciais. Aplica–se o método dascaracteŕısticas na obtenção de soluções de equações de primeira ordem e na classificaçãodas equações de segunda ordem. Fáz–se, em seguida, algumas aplicações de métodosdesenvolvidos anteriormente.

    Finalmente, o problema de Sturm–Liouville singular é introduzido seguido de umaclassificação das singularidades. Algumas funções especiais serão tratadas nesta partepelo método de Frobenius. As funções hipergeométricas confluentes também serão tra-tadas neste texto.

  • 6 Sobre o Programa

    Segue uma pequena lista de sugestões de textos:R. Courant e D. Hilbert, Methods of Mathematical Physics, vol. 1, John Wiley & Sons

    1989Jon Mathews e R. L. Walker, Mathematical Methods of Physics, Benjamin 1989, se-

    gunda ediçãoH. Sagan, Boundary and Eigenvalue Problems in Mathematical Physics, Dover 1961D. G. de Figueiredo e A. F. Neves, Equações Diferenciais Aplicadas, IMPA 1997J. Sotomayor, Lições de Equações Diferenciais Ordinárias, Projeto Euclides, IMPA

    1979

  • Motivações

    Há textos em F́ısica-Matemática que abordam uma variedade de métodos matemáticosjuntamente a diversas aplicações sem a preocupação em dar unidade aos tópicos tratados.Esta forma de lidar com o assunto se contrapõe aos textos nas disciplinas de F́ısica eMatemática, separadamente, e ao próprio rigor Matemático no que se refere a exigênciado encadeamento daquilo que é necessário para a compreensão do tema em questão. Otratamento dado por estes textos, a meu ver, se assemelha ao que é denominado de livrode referência - apropriados para consulta mas não para segúı-los em classe.

    Há, por outro lado, textos completos e excelentemente bem redigidos, como por exem-plo o escrito por Courant e Hilbert – fundadores da F́ısica–Matemática moderna, quetambém não podem ser seguidos em classe por serem demasiado extensos para cobŕı-losem um semestre. Instrutores do segundo curso em F́ısica-Matemática são, então, levadosa produzir seus próprios textos.

    Afim de dar unidade ao presente curso e motivação aos alunos, escolhi trazer o temade uma conferência por Mark Kac cujo t́ıtulo é Can one hear the shape of a drum?,publicada na American Mathematical Monthly 73, 1-23 (1966). Farei uma apresentaçãolivre omitindo vários detalhes que merecem ser lidos no texto original.

    Radiação de corpo negro. A teoria da radiação de Rayleigh–Jeans deu origem, segundoKac, às primeiras respostas ao t́ıtulo de sua conferência. Ondas eletromagnéticas es-tacionárias ocupam o interior de uma cavidade aquecida com paredes perfeitamenterefletoras e a intensidade de cada uma de suas freqüências caracteŕısticas (modos nor-mais de vibração) pode ser medida através de um orif́ıcio. Pela teoria, a potência P (ω)da radiação é proporcional ao número n(ω) de freqüências caracteŕısticas que se encon-tram entre ω e ω+dω vezes a energia E(ω) associada que, pelo teorema de equipartição,é igual a KT (constant de Boltzmann × temperatura da cavidade) independentementede ω.

  • 8 Motivações

    É posśıvel calcular as ondas estacionárias em uma cavidade cúbica Ω = [0, a]3 dedimensões lineares a pelo método de Fourier. Denotando por ∆ o operador diferencialde Laplace

    ∆u =∂2u

    ∂x21+∂2u

    ∂x22+∂2u

    ∂x23

    e por ei o versor na direção i = 1, 2 e 3, as soluções na forma produto u(x) =X1(x1)X2(x1)X3(x1) da equação de Helmholtz

    1

    2∆u+ ω2u = 0

    em x = (x1, x2, x3), 0 < xi < a, sujeita às condições periódicas de fronteira:

    u(x + aei) = u(x) ,

    podem ser obtidas a partir das equações ordinárias para cada i:

    1

    2X ′′i + λiXi = 0

    cuja solução

    Xi(xi) = exp(i√

    2λixi

    ),

    devido à condição periódica

    Xi(xi + a) = exp(i√

    2λi (xi + a))

    = exp(i√

    2λixi

    )= Xi(xi)

    seleciona os valores de λi tais que

    exp(i√

    2λia)

    = 1 .

    Os valores λi =2π2

    a2n2i , com ni um número inteiro, são denominados autovalores do

    problema e

    ω2 = λ1 + λ2 + λ3 =2π2

    a2(n21 + n

    22 + n

    23

    )

    são as freqüências admisśıveis das ondas estacionárias na cavidade cúbica.Para calcular a densidade de freqüência caracteŕısticas n(ω) para ω ≫ 1, introduzimos

    N(ν) = número de freqüências admisśıveis menor que ν

    = #

    {n = (n1, n2, n3) ∈ Z3 :

    2π2

    a2(n21 + n

    22 + n

    23

    )< ν2

    }.

  • Motivações 9

    N(ν) é, portanto, o número de vértices de uma grade de espaçamento√

    2π/a em cadadireção que se encontram dentro da esfera de raio ν centrada na origem. Estimamos esta

    função tomando a razão do volume da esfera4πν3

    3pelo volume de cada célula

    23/2π3

    a3:

    N(ν) ∼√

    2a3

    3π2ω3 .

    O número n(ω) de freqüências admiśıveis entre ω e ω + dω é o coeficiente linear em dωna diferença

    N(ω + dω) −N(ω) ∼√

    2a3

    3π2((ω + dω)3 − ω3

    )=

    √2a3

    π2ω2dω +O

    (dω2)

    de onde se conclui

    n(ω) ∼√

    2

    π2|Ω|ω2 .

    onde |Ω| = a3 é o volume da cavidade cúbica.Em 1910, em uma série de conferências realizadas na Universidade de Göttingen, o

    f́ısico holandez H. A. Lorentz sugeriu aos matemáticos que provassem a seguinte

    Conjectura 0.1 A densidade das freqüências caracteŕısticas n(ω) em um corpo negroé, para ω suficientemente grande, proporcional ao volume |Ω| da cavidade porém inde-pendente de sua forma.

    Na audiência se encontrava Hermann Weyl, na época orientado por Hilbert, que pou-cos anos mais tarde demonstrou a conjectura de Lorentz.

    Vibrações de uma membrana. A formulação matemática da questão que deu origemao t́ıtulo da conferência é feita por Kac em termos das vibrações de uma membranaperfeitamente elástica estendida sobre uma região do plano Ω cuja borda Γ é mantidafixa. Se u = u(t, x) denota o deslocamento de um ponto x da membrana com respeito aposição de equiĺıbrio em um instante t, pela teoria da elasticidade, u satisfaz

    1

    v2∂2u

    ∂t2− ∆u = 0, t > 0 , x ∈ Ω

    onde v é a velocidade de propagação da onda na membrana, com condição de fronteira

    u(t, x) = 0 , t ≥ 0 , x ∈ Γ .

    Por conveniência, escolhemos v2 = 1/2. As soluções estacionárias são da forma u(t, x) =U(x)eiωt com U satisfazendo a equação de Helmholtz

    1

    2∆U + ω2U = 0 , x ∈ Ω

    U |Γ = 0

  • 10 Motivações

    Assumindo que Γ seja uma cuva simples e suave, a equação de Helmholtz admite umaseqüência de autovalores e autofunções associadas:

    0 ≤ λ1 ≤ λ2 ≤ λ3 ≤ · · ·ψ1(x), ψ2(x), ψ3(x), . . .

    com

    ψn(x)2dx = 1, soluções do problema de autovalores

    −12∆ψn = λnψn , x ∈ Ωψn|Γ = 0 . (0.1)

    Note que a enumeração conta multiplicidade dos autovalores e λn = λn(Ω) é o quadradode uma freqüência caracteŕıstica do problema das vibrações da membrana em Ω.

    Problema 0.2 Considere a equação de autovalores (0.1) para duas regiões Ω1 e Ω2limitadas por fronteiras Γ1 e Γ2 simples e suaves. Suponha que os autovalores em ambosos problemas são idênticos: λn(Ω1) = λn(Ω2) para cada n. Pode–se inferir desta hipóteseque as regiões Ω1 e Ω2 são congruentes

    1?

    Desenvolveremos a seguir, a argumentação de Kac para demonstrar que o som emitidopela percussão de uma membrana circular se distingue de qualquer outra membrana. Emoutras palavras, sua seqüência de autovalores é distinta de qualquer outra seqüência. Oproblema assim formulado é ainda assunto de pesquisa. Gordon e colaboradores [Invent.Math. 110 (1992), 1–22] exibiram contra–exemplos de regiões distintas, formadas pelajustaposição de triângulos isóceles, com idêntico conjunto de autovalores. Note que nestesexemplos a fronteira não é suave pois tem derivada discont́ınua em alguns pontos. Poroutro lado, se considerarmos apenas regiões com dois eixos de simetria (uma eĺıpse,por exemplo), então o conjunto dos autovalores λn = λn(Ω) do operador de Laplacedistingue Ω [S. Zelditch. Geom. Funct. Anal. 10 (2000), 628–677].

    Seja

    N(λ) = N(λ; Ω) =∑

    n:λn(Ω)

  • Motivações 11

    e |Ω| é a área da membrana. De acordo com o resultado estabelecido por Weyl sobre ocomportamento assintótico (0.2), podemos ao menos ouvir a área de Ω.

    Limite clássico de um gás ideal quântico. Passemos a um outro problema intimamenterelacionado. A probabilidade de encontrar M part́ıculas de um gás ideal contido em Ωnas regiões ∆1, ∆2, ... , ∆M é, classicamente,

    |∆1| |∆2| · · · |∆M ||Ω|M

    . (0.4)

    Se o gás for quântico, as part́ıculas devem satisfazer a equação de Schrödinger

    −ℏ22m

    ∆ψ = Eψ

    sujeita a condição de impenetrabilidade da fronteira: ψ(x) = 0 se x ∈ Γ. A probabilidadede encontrar M destas part́ıculas de um gás ideal em Ω em uma vizinhança d2x(1) dex(1) . . . d2x(M) de x(M) é (assumindo incorretamente a estat́ıstica de Boltzmann)

    M∏

    k=1

    n≥1e−τλnψ2n(x

    (k))

    n≥1e−τλn

    d2x(k) (0.5)

    onde τ = βℏ/m, β = (KT )−1 é o inverso da temperatura e λn e ψn, n ≥ 1, são osautovalores e autofunções correspondentes do problem (0.1).

    No limite clássico τ → 0 (ℏ → 0) a probabilidade (0.5) deve convergir para (0.4),conduzindo à seguinte expressão

    n≥1e−τλnψ2n(x) ∼

    1

    |Ω|∑

    n≥1e−τλn (0.6)

    Note que o sentido da relação assintótica é o mesmo da relação anterior (0.3) porém como limite τ → 0. Afim de extrair conseqüencias desta expressão, é conveniente introduziruma generalização da integração por Riemann devido a Stieltjes.

    Se f : [a, b] −→ R é uma função cont́ınua e α : [a, b] −→ R uma função monotona nãodecrescente, denotamos por ∫ b

    a

    f(x) dα(x)

    a integral de f ponderada por α. O sentido atribuido a esta integral é o mesmo dadopara às integrais de Riemann, não sendo porém necessário que α seja uma função dife-renciável. De fato, cont́ınuidade uniforme e monotonicidade são, isoladamente, condiçõessuficientes para que uma função seja integrável por Riemann. Para que esta integral es-teja definida α pode ter, inclusive, um conjunto infinito de descontinuidades desde quenão se acumule e, para isso, o intervalo [a, b] não pode ser limitado. Se α for diferenciável,

    dα(x) = α′(x)dx

  • 12 Motivações

    e, nestes casos, dizemos que a distribuição α é absolutamente cont́ınua.Uma breve introdução á teoria de integração, com detalhes não vistos no curso de

    Cálculo, é dada no terceiro curso de F́ısica–Matemática. Seja Π uma partição do intervalo[a, b] em n subintervalos Ij = [xj−1, xj) com a = x0 < x1 < x2 < · · · < xn = b. Paracada Π, definimos as somas

    S (f, α; Π) =n∑

    j=1

    Mj ∆j

    s (f, α; Π) =

    n∑

    j=1

    mj ∆j

    onde ∆j = α(xj) − α(xj−1) é um incremento positivo, por hipótese e

    Mj = supx∈Ij

    f(x) e mj = infx∈Ij

    f(x) .

    Note ques (f ; Π) ≤ S (f, α; Π′)

    é satisfeita para duas partições quaisquer e, portanto,

    s(f, α) = supΠs (f, α; Π) ≤ inf

    ΠS (f, α; Π) = S(f, α) .

    Uma função f é integrável com peso α se e somente se

    s(f, α) = S(f, α) =

    ∫ b

    a

    f(x) dα(x) .

    A função contágem N(λ) é monotona não decrescente, constante nos intervalos entredois autovalores distintos e sucessivos, com descontinuidade igual a multiplicidade decada autovalor. Formalmente, temos

    dN(λ) =∞∑

    n=1

    δ(λ− λn) dλ

    com δ(η) a função delta de Dirac: δ(η) = 0 se η 6= 0 e∫ ∞

    −∞δ(η) dη = 1 e, com esta

    notação, o lado direito de (0.6) pode ser escrito como

    1

    |Ω|∑

    n≥1e−τλn =

    1

    |Ω|

    ∫ ∞

    0

    e−τλdN(λ) . (0.7)

    Analogamente,

    F (λ, x) =∑

    n:λn

  • Motivações 13

    define para cada x uma função monotona não decrescente e o lado esquerdo de (0.6)pode ser escrito como

    n≥1e−τλnψ2n(x) =

    ∫ ∞

    0

    e−τλdF (λ, x) . (0.8)

    Se admitirmos como verdadeira a conjectura de Lorentz e o limite clássico (0.6), então

    F (λ, x) ∼ 1|Ω|N(λ) ∼1

    2πλ (0.9)

    uniformemente em x. O argumento para isso é um pouco tortuoso pois é necessárioevocar pelo menos dois outros teoremas de Análise, e não seguiremos este caminho. Arelação assintótica (0.9) foi demonstrada por Carleman em 1934. Substituindo (0.9) em(0.8), obtemos

    n≥1e−τλnψ2n(x) ∼

    1

    ∫ ∞

    0

    e−τλ =1

    2πτ(0.10)

    quando τ tende para 0 e esta relação será examinada a seguir por intermédio de umoutro problema clássico em equações diferenciais parciais: a difusão de alguma coisa naregião Ω.

    Difusão de matéria. Part́ıculas de pólem ou giz difundem em uma região planar Ω limi-tada pela curva Γ, com uma constante difusiva κ = 1/2. Suponha que estas part́ıculas,inicialmente totalmente concentradas em um ponto x0 ∈ Ω, sejam absorvidas ao al-cançarem a fronteira Γ não retornando em nenhum momento a seguir à região Ω. Aequação satisfeita para densidade PΩ = PΩ(t, x) = PΩ(t, x|x0) destas part́ıculas é

    ∂PΩ∂t

    − 12∆pΩ = 0 (0.11)

    em Ω e t > 0 sujeita a condição inicial

    PΩ(0, x|x0) = δ (x− x0) (0.12)

    onde δ é a função delta de Dirac: δ (y) = 0 se y 6= x0 e∫

    δ(y) d2y = 1; e condição de

    fronteira

    PΩ|Γ = 0 (0.13)para t ≥ 0.

    Se não houvessem fronteiras e as part́ıculas de pólem pudessem difundir no plano R2

    inteiro, a solução do problema seria uma Gaussiana

    PR2(t, x|x0) =1

    2πtexp

    (−12t

    |x− x0|2)

    (0.14)

  • 14 Motivações

    onde |y| =√y21 + y

    22 é a distância do ponto y à origem. Devido a condição absorvente de

    fronteira, a solução pode ser escrita em termos do problema de autovalores do operadorde Laplace (0.1):

    PΩ(t, x|x0) =∞∑

    n=1

    e−λntψn(x) ψn(x0) . (0.15)

    Exerćıcio 0.3 Verifique que esta expressão é solução do problema de valor inicial efronteira (PVIF) (0.11)–(0.13).

    Kac argumenta que as part́ıculas, inicialmente concentradas em x0, levam um certotempo até alcançarem a fronteira Γ e, para t suficientemente pequeno, a solução (0.15)pode ser substitúıda por (0.14). Isso sugere que

    ∞∑

    n=1

    e−λntψn(x) ψn(x0) ∼1

    2πtexp

    (−12t

    |x− x0|2)

    (0.16)

    quando t → 0. Se de fato correta, tomando x = x0 obtemos o Teorema de Carleman(0.10). Integrando esta relação em x com x0 = x sobre a região Ω e usando a norma-

    lização

    ψn(x)2dx = 1, temos

    ∞∑

    n=1

    e−λnt ∼ |Ω| 12πt

    =|Ω|2π

    ∫ ∞

    0

    e−tλdλ (0.17)

    de onde se conclui, em vista de (0.7), o teorema de Weyl (0.2).Afinal, o que resta para que o argumento de difusão das part́ıcula de pólem em sus-

    pensão se torne um Teorema? Considere, para isso, uma região quadrada Q de dimensãolinear a. Por separação de variaveis, a equação (0.1) com Ω = Q possui autofunções

    ψn1,n2(x) =2

    asin

    n1π

    ax1 sin

    n2π

    ax2

    correspondentes aos autovalores

    λn1,n2 =2π2

    a2(n21 + n

    22

    ),

    para n1 e n2 inteiros maiores ou iguais a 1. Note∫

    Q

    ψ2n1,n2(x) d2x =

    2

    a

    ∫ a

    0

    sin2n1π

    ax1dx1 ·

    2

    a

    ∫ a

    0

    sin2n2π

    ax2dx2 = 1 .

    A densidade de pólens PΩ(t, x|x0) é, de fato, uma probabilidade sobre as trajetóriaserrantes destas part́ıculas e, da subaditividade desta função, sendo Q um quadradoinscrito em Ω, resulta

    PQ(t, x|x0) ≤ PΩ(t, x|x0) ≤ PR2(t, x|x0) .

  • Motivações 15

    O comportamento em (0.16) é uma cota superior e a cota inferior é obtida de

    4

    a2

    ∞∑

    n1,n2=1

    exp

    (−π22a2

    (n21 + n22)t

    )

    que para t tendendo a 0 é a aproximação de Riemann da integral da função Gaussiana(0.14). Isto demonstra, com alguns detalhes a mais, os Teoremas de Carleman e Weyl.

    Primeira correção à expansão assintótica. Para evitar algumas complicações no cálculoda primeira correção à expansão (0.17), vamos assumir, além da regularidade de Γ, queΩ seja uma região convexa.2 Nesta situação a fronteira Γ vista de um ponto próximoa esta é aproximadamente plana. Aqui também é notavel a facilidade com que Kacreproduz corretamente o fator de correção por um argumento simples.

    Infere–se das hipóteses sobre Ω, que existe δ0 tal que para todo 0 < δ < δ0 o conjuntodos pontos z que distam δ da fronteira Γ forma uma curva Γδ simples (isto é, semintersecção) inteiramente contida em Ω. Além disso, δ0 pode ser tomado tão pequeno deforma que exista um único ponto w ∈ Γ mais próximo de z para todo z ∈ Γδ e δ < δ0.Note que, se l(z) denota a reta tangente a Γ no ponto w, l(z) é ortogonal ao segmentode reta wz ligando w a z. Denotando por z∗ = z∗(z) a imagem especular do ponto zrefletida pela reta tangente l(z), temos

    |z − z∗(z)| = 2δ . (0.18)Kac propõe que a solução PΩ(t, z|x0) do problema de difusão (0.11)–(0.13) em um

    ponto z próximo a fronteira Γ pode ser estimada pelo método das imagens:

    Pl(z)(t, z|x0) = PR2(t, z|x0) − PR2(t, z∗|x0)

    =1

    2πt

    [exp

    (−12t

    |z − x0|2)− exp

    (−12t

    |z∗ − x0|2)]

    (0.19)

    Note que esta solução satisfaz a equação (0.11) e a condição de fronteira (0.13) poisquando z tende para um ponto w ∈ Γ, z∗ tende também para w e as duas exponenciaisem (0.19) se cancelam. Satisfaz também a condição inicial Pl(z)(0, z|x0) = 0 para todoz ∈ Ω\ {x0} e a normalização

    limt→0

    Pl(z)(t, z|x0) d2z =∫

    limt→0

    Pl(z)(t, z|x0) d2z =∫

    (δ(z − x0) − δ(z∗ − x0)) d2z = 1

    pois o ponto z∗ se encontra fora da região Ω. Entretanto esta expressão está bem defi-nida somente para pontos que distam δ da fronteira pois, de ontra forma o ponto w, econseqüentemente a reta l(z) tangente a w, podem ser amb́ıgüos.

    Tomando em (0.19) x0 = z, levando em consideração (0.18), temos

    Pl(z)(t, z|z) =1

    2πt

    [1 − e−2δ2/t

    ]

    2Quaisquer dois pontos podem ser ligados por um segmento inteiramente contido em Ω.

  • 16 Motivações

    Da equação (0.15) e normalização

    ψ2n(z)d2z = 1, obtemos

    PΩ(t, z|z) d2z =∞∑

    n=0

    e−λnt ∼ 12πt

    [|Ω| −

    e−2δ2/t d2z

    ](0.20)

    quando t→ 0.Denotando por L(δ) = |Γδ| o comprimento da curva Γδ e usando o fato que L(0) =

    |Γ| = L é o comprimento do contorno Γ, estimamos a integral por∫

    e−2δ/t d2z =

    ∫ δ0

    0

    e−2δ2/tL(δ)dδ + C |Ω| e−2δ20/t

    para alguma constante C. Note que o segundo termo do lado direito desta expressão éexponencialmente pequeno para t suficientemente próximo a 0 e pode ser desprezado.Fazendo a mudança de variável ζ = δ/

    √t na integral em δ, obtemos

    ∫ δ0

    0

    e−2δ2/tL(δ)dδ =

    √t

    ∫ δ0/√t

    0

    e−2x2

    L(x√t)dx

    ∼√tL

    ∫ ∞

    0

    e−2x2

    dx =L

    4

    √2πt .

    Substituindo em (0.20), concluimos

    ∞∑

    n=0

    e−λnt ∼ 12πt

    |Ω| − 1√2πt

    |Γ|4.

    Esta relação juntamente com a desigualdade isoperimétrica

    4π |Ω| ≤ |Γ|2 ,

    cuja a igualdade é satisfeita apenas para a região Ω circular, implica na asserção de queo som emitido pela percussão de uma membrana circular se distinguir de qualquer outramembrana.

    As vibrações da membrana circular serão estudadas em detalhes no presente curso.

  • 1

    Sistemas Dinâmicos Lineares

    Neste caṕıtulo introdutório, trataremos do problema de valor inicial para equações dife-renciais ordinárias lineares. Noções de algebra linear são necessárias tanto para o cálculocomo para a compreenção da estrutura das soluções destes sistemas dinâmicos. Enfati-zaremos tanto o aspecto computacional como os conceitos básicos de sistemas de ordemfinita afim de posteriormente estendê–los para sistemas com número de variáveis infinito.

    1.1 Noções Básicas de Algebra Linear

    1.1.1 Espaços e Operadores Lineares

    Começaremos enunciando uma série de propriedades satisfeitas por vetores em Rn. Sejax, y, z, . . . vetores e λ, µ, . . . números reais. Então,

    x + y = y + x

    x + (y + z) = (x + y) + z (1.1)

    x + 0 = x

    x+ (−x) = 0e

    (λµ)x = λ (µx)

    λ (x + y) = λx + λy (1.2)

    (µ+ λ)x = µx + λx

    1 · x = x(subentende–se nas duas últimas propriedades de (1.1) a existência do vetor neutro 0 ede −x, para cada vetor x).

  • 18 1. Sistemas Dinâmicos Lineares

    Escrevemos um vetor x ∈ Rn = R × · · · × R, pertencente ao produto cartesiano deR com ele mesmo n–vezes, como uma coleção de n números x = (x1, . . . , xn) ou comouma matriz coluna

    x =

    x1...xn

    .

    Em ambos casos a adição de dois vetores x, y corresponde ao vetor cujas componentesé a soma das componentes

    x + y = (x1 + y1, . . . , xn + yn) ;

    o produto de um vetor x pelo escalar λ é o vetor de componentes dadas pelo produtode λ por cada componente de x:

    λx = (λx1, . . . , λxn) .

    O comprimento de um vetor (norma Euclideana)

    |x| :=(x21 + · · ·+ x2n

    )1/2(1.3)

    é a distância entre a origem e a extremidade do vetor. Note que dois vetores de mesmocomprimento e direção mas que diferem quanto ao ponto de referência, são consideradoso mesmo elemento. Tomaremos sempre a origem como referência. Por conseguinte,

    |x − y| =((x1 − y1)2 + · · ·+ (xn − yn)2

    )1/2

    corresponde a distância entre a extremidade do vetor x e a extremidade do vetor y.A norma (1.3) introduz a noção de vizinhança: dois vetores estão “próximos” se as

    extremidades destes estiverem “próximas”.As propriedades (1.1) e (1.2) são básicas no sentido que elas são suficientes para obter

    regras computacionais para o conjunto de vetores, semelhente às regras da aritmética.Por exemplo, α0 = 0 para todo α ∈ R é conseqüência das seguintes propriedades:0

    P1.4= α 0+ (−α0). Logo

    α0P1.3= α 0+ (α 0+ (−α0)) P1.2= (α0 + α0) + (−α0)

    P2.2= α (0 + 0) + (−α0) P1.3= α 0+ (−α0) P1.4= 0 .

    Ocorre porém que muitos conjuntos, com operações definidas de maneira análoga aadição de vetores e multiplicação por um escalar, satisfazem estas propriedades básicase, por conseguinte, herdam as regras que os vetores possuem. Isto justifica a introduçãodo seguinte conceito unificador:

    Definição 1.1 Um espaço linear E (ou espaço vetorial) sobre números reais (oucomplexos), é um conjunto de elementos fechado pela operação de soma e produto porum escalar: x + y, λx ∈ E se x, y ∈ E e λ ∈ R (λ ∈ C), satisfazendo as propriedades(1.1) e (1.2).

  • 1.1 Noções Básicas de Algebra Linear 19

    Exemplo 1.2 O produto cartesiano de n conjuntos reais Rn, ou complexos Cn; o con-junto Mnm (R) (Mnm (C)) das matrizes n×m com entradas reais (complexas); o conjuntode polinômios

    Pn ={P (x) = a0x

    k + a1xk−1 + · · · + ak : 0 ≤ k ≤ n e aj ∈ R (C)

    }

    de ordem menor ou igual a n; o conjunto C (I,R) das funções f : I −→ R cont́ınuas; oconjunto l (N) das sequências de números reais x = (xj)j≥1 tais que o limite limj→∞ xjexiste. São estes alguns exemplos de espaços lineares.

    Exemplo 1.3 O espaço l2 (N) das sequências de números reais x = (xj)j≥1 de qua-drado somável, isto é, cuja a norma

    ‖x‖ :=( ∞∑

    j=1

    x2j

    )1/2

    é finita.

    Exemplo 1.4 O espaço L2 ([−π, π] ,R) das funções

    f : [−π, π] 7−→ R

    tais que a norma

    ‖f‖ :=(∫ π

    −π|f(x)|2 dx

    )1/2(1.4)

    é finita (funções de quadrado integrável).

    Exerćıcio 1.5 Verifique que os conjuntos dos Exemplos 1.3 e 1.4 formam espaços line-ares.

    Exerćıcio 1.6 Verifique que os seguintes conjuntos não formam espaços lineares en-contrando pelo menos uma propriedade de (1.1) e (1.2) que não se verifica.

    1. O conjunto dos vetores em Rn de comprimento unitário.

    2. O conjunto dos polinômios de grau extamente n.

    3. O conjunto das rotações de um corpo ŕıgido em R3 ao redor de um ponto fixo.

    Seja f , g em C (I,R) (ou em L2 (I,R)) e λ ∈ R. A adição f +g de funções é a função

    (f + g) (x) = f(x) + g(x)

    definida para todo x no domı́nio I. O produto λf de uma função por um escalar é afunção

    (λf) (x) = λ f(x) ,

  • 20 1. Sistemas Dinâmicos Lineares

    para todo x ∈ I.Existe uma correspondência entre os espaços lineares nos Exemplos 1.3 e 1.4 que é

    estabelecida pela identidade de Parseval

    1

    π

    ∫ π

    −π|f(x)|2 dx = 1

    2x20 +

    ∞∑

    j=1

    (x2j + y

    2j

    ). (1.5)

    Dada uma função f ∈ L2 ([−π, π] ,R), então podemos encontrar x0 e xj , yj, j = 1, 2, . . .,dados pela fórmula dos coeficientes de Fourier de f :

    xj =1

    π

    ∫ π

    −πf(x) cos jx dx

    (incluindo j = 0) e

    yj =1

    π

    ∫ π

    −πf(x) sin jx dx .

    Segue da relação (1.5),

    x0 , ‖x‖ , ‖y‖

  • 1.1 Noções Básicas de Algebra Linear 21

    A cada mapeamento linear T : Rn 7−→ Rm pode–se associar uma matriz m× n

    Ax =

    a11 · · · a1n...

    . . ....

    am1 amn

    x1...xn

    =

    a11x1 + · · ·+ a1nxn...

    am1x1 + · · ·+ amnxn

    definida a partir de sua regra. E vice–versa, cada matriz A define um mapeamentolinear T que associa a cada x ∈ Rn o vetor y = T (x) ∈ Rm de componentes yj =aj1x1 + · · · + ajnxn, j = 1, . . . , m. Uma matriz A é usualmente denotada por A = [aij].Exemplo 1.9 A transformação T que leva cada vetor x = (x1, x2, . . . , xn) em R

    n novetor T (x) = (x2, . . . , xn, x1) em R

    n pode ser representada pela matriz “deslocamentopara frente”

    Π =

    0 1 0 · · · 00 0 1 · · · 0...

    ......

    . . ....

    0 0 0 · · · 11 0 0 · · · 0

    (1.7)

    No caso em que E = E ′, a transformação linear T é chamada de operador linear.Usaremos a notação L (Rn) para o conjunto de todos os operadores lineares em Rn eL (L2 (I,R)) para o conjunto de todos os operadores lineares cont́ınuos

    1 no espaçoL2 (I,R).

    Exemplo 1.10

    1. Seja Dj o operador diferencial definido no espaço C (k) (I,R) ⊂ C (I,R) dasfunções j–vezes diferenciáveis cuja j–ésima derivada é cont́ınua:

    (Djf

    )(x) =

    djf

    dxj(x) , j = 1, 2, . . .

    Se P é um polinômio de ordem k: P (x) = xk + a1xk−1 + · · ·+ ak, então

    P (D) f = g (1.8)

    define uma equação diferencial de ordem k para f onde g uma função dada.

    2. Seja C o seguinte operador integral

    (Cf) (x) =

    ∫ π

    −πcos(x− y) f(y) dy ≡ (cos ∗f) (x) .

    definido no espaço C ([−π, π] ,R) das funções cont́ınuas. C é o operador de con-volução pela função cosseno.

    1Todo operador linear T : Rn −→ Rn é cont́ınuo mas nem todo operador linear T : L2(I, R) −→ L2(I, R) é cont́ınuo.Este assunto será obordado no terceiro curso em F́ısica Matemática.

  • 22 1. Sistemas Dinâmicos Lineares

    Exemplo 1.11 Seja ∇ o operador de diferença finita definido no espaço l2 (N) desequências de quadrado somável:

    (∇x)j = xj − xj−1 .

    É conveniente introduzir também o operador de diferença finita adjunto ∇∗:

    (∇∗x)j = xj − xj+1 .

    O operador de segunda diferença finita de Laplace −∆ := ∇∗∇ = ∇∇∗ é dado pelacomposição de ambos (em qualquer ordem):

    (−∆x)j = 2xj − xj+1 − xj−1 .

    Se T e S são operadores lineares em L (Rn) , o mapeamento composto T ◦ S :Rn 7−→ Rn também pertence a L (Rn) : y = S (x) ∈ Rn para todo x ∈ Rn, z =T (y) = T (S (x)) = T ◦ S(x) ∈ Rn e

    T ◦ S (αx1 + βx2) = T (αS(x1) + βS(x2)) = αT ◦ S (x1) + βT ◦ S (x2) .

    A matriz C = [cij] que representa a composição W = T ◦ S, com A = [aij] e B = [bij ]representando T e S, respectivamente, tem seus elementos dados por

    cij =

    n∑

    k=1

    aik bkj . (1.9)

    Exerćıcio 1.12 Verifique (1.9) aplicando o operador composto T ◦S a um vetor x ∈ Rn.Solução. Substituindo o vetor y = S (x) em z = T (y) = W (x), representados por

    yk =

    n∑

    j=1

    bkj xj e zi =

    n∑

    k=1

    aik yk ,

    obtemos (1.9) por inspeção:

    zi =n∑

    k=1

    n∑

    j=1

    aik bkj xj =n∑

    j=1

    n∑

    k=1

    aik bkj xj =n∑

    j=1

    cij xj .

    2

    Se R = T + S, a matriz D = [dij ] que a representa possui elementos

    dij = aij + bij ;

    se V = λT , então F = [fij] que a representa é dada por

    fij = λ aij .

  • 1.1 Noções Básicas de Algebra Linear 23

    O operador identidade E (x) = x, ∀x ∈ Rn, é representado pela matriz identidadeI = [δij ], cujos elementos diagonais são iguais a 1 e os elementos fora da diagonal iguaisa zero:

    δij =

    1 se i = j ,

    0 se i 6= j .A matriz nula O = [oij ], que tem elementos identicamente nulos: oij = 0, representa ooperador nulo O (x) = 0.

    Verifica–se que o conjunto dos operadores lineares L (Rn) satisfaz as propriedades(1.1) e (1.2) e portanto forma um espaço vetorial.

    Além disso, os elementos de L (Rn) verificam as seguintes propriedades:

    P ◦ (Q ◦R) = (P ◦Q) ◦Rµ(P ◦Q) = (µP ) ◦Q = P ◦ (µQ) (1.10)

    P ◦ (Q+R) = P ◦Q+ P ◦R(Q+R) ◦ P = Q ◦ P +R ◦ P

    para quaisquer P,Q,R ∈ L (Rn) e µ ∈ R (somente em situações muito particularesa propriedade comutativa P ◦ Q = Q ◦ P é satisfeita). Espaços lineares munidos daoperação de composição e satisfazendo as propriedades (1.10), formam uma álgebra.

    Definição 1.13 Um operador T é inverśıvel se existir um operador S tal que T ◦S =S ◦ T = E. O operador S é chamado de inverso de T e será denotado por T−1.

    O operador T , ou sua representação matricial A, é singular se T não for inverśıvel(não existe A−1).

    1.1.2 Subespaço, Base e Dimensão

    Seja E um espaço linear. Um conjunto não vazio F ⊂ E é chamado subespaço linearse F for fechado pelas operações de adição e multiplicação por um escalar.

    Se F contém somente o vetor nulo 0, F é chamado subespaço trivial. Se F 6= E , Fé um subespaço próprio de E . Se F1 e F2 são subespaços de E e F1 ⊂ F2, então F1 éum subespaço de F2.

    Exemplo 1.14

    1. O subespaço F de Rn formado por uma reta passando pela origem

    F = {(a1t, . . . , ant) : t ∈ R}

    onde a1, . . . , an são n números reais.

    2. O subconjunto Tn (R) formado pelas matrizes n× n triangulares superiores reais:

    Tn (R) = {A = [aij ] ∈Mn (R) : aij = 0 se i < j} .

  • 24 1. Sistemas Dinâmicos Lineares

    3. O subconjunto Sn (R) formado pelas matrizes n× n simétricas reais:

    Sn (R) = {A = [aij ] ∈Mn (R) : aij = aji} .

    Como subespaços satisfazem as propriedades (1.1) e (1.2), o mapeamento linear T :E 7−→ E ′ pode ser restrito aos subespaços F1 ⊂ E e F2 ⊂ E ′ contanto que T : F1 7−→F2 seja definido: qualquer x ∈ F1, temos T (x) ∈ F2 e

    T (αx + βy) = αT (x) + βT (y)

    é claramente um elemento de F2 qualquer que seja x,y ∈ F1 e α, β ∈ R.Dois subespaços tem um papel importante para a determinação de uma transformação

    linear T :N (T ) = {x ∈ F1 : T (x) = 0} ≡ T−1(0)

    é denominado núcleo (ou conjunto nulo) da transformação T , e

    I (T ) = {y ∈ F2 : T (x) = y para algum x ∈ F1} .

    é denominado o conjunto imagem de T .

    Exemplo 1.15 Seja

    A =

    (1 −1 01 1 1

    ).

    O núcleo da matriz A,

    N (A) ={x ∈ R3 : Ax = (0, 0)

    }

    é, geometricamente, formado pela reta perpendicular ao plano formado pelos vetores(1,−1, 0) e (1, 1, 1), que passa pela origem:

    N (A) = {(α, α,−2α) : α ∈ R} .

    A imagem de A é formada por todos vetores em R2.

    As seguintes definições são relevantes para o entendimento da estrutura dos espaçoslineares.

    Definição 1.16 Um conjunto S = {x1, . . . ,xk} de vetores de E gera o subespaço F ,se cada vetor x ∈ F puder ser escrito como uma combinação linear destes:

    x = λ1x1 + · · · + λkxk (1.11)

    para alguma escolha de escalares λ1, . . . , λk.Os vetores do conjunto S são linearmente independentes (L.I.) se a equação

    λ1x1 + · · · + λkxk = 0

    for satisfeita somente para λ1 = · · · = λk = 0.Se os vetores de S forem linearmente independentes, então S forma uma base de F .

  • 1.1 Noções Básicas de Algebra Linear 25

    Definição 1.17 A dimensão de um subespaço linear F é a cardinalidade do maiorconjunto S de vetores linearmente independentes. Se o maior conjunto S tiver k ele-mentos, escrevemos dim F = k.

    Exemplo 1.18

    1. O conjunto {(1, 0, 0); (0, 1, 0); (0, 0, 1); (1, 1, 0); (0, 1, 1)} gera o espaço vetorial R3porém não forma uma base para este espaço pois seus vetores não são linearmenteindependentes (note (1, 1, 0) = (1, 0, 0) + (0, 1, 0)). No entanto, os três primeirosvetores formam uma base.

    2. A coleção dos monômios {1, x, x2, . . . , xn} forma um conjunto linearmente in-dependente de “vetores” pertencentes ao espaço C ([a, b]) das funções cont́ınuasdefinidas no intervalo [a, b]. Um polinômio Pn(x) de ordem n, é uma combinaçãolinear

    a0xn + · · · + a1x+ a0

    de monômios. O conjunto de todos monômios não tem dimensão limitada masforma uma base para as funções cont́ınuas no sentido que todo “vetor” f ∈C ([a, b]) pode ser uniformemente aproximado por polinômios. A demonstraçãodo seguinte resultado pode ser encontrada em Djairo G. Figueiredo “Análise deFourier e equações diferenciais parciais”, pag. 77.

    Teorema 1.19 (da aproximação de Weierstrass) Dado ε > 0, existe n0 = n0(ε) <∞ tal que, para todo n ≥ n0, existe um polinônio de ordem n onde

    |f(x) − Pn(x)| < ε

    é satisfeita para todo x ∈ [a, b].

    Afim de apreciar o conteúdo do conceito dimensão, formulamos o seguinte

    Problema 1.20

    1. Dado um conjunto de vetores S = {x1, . . . ,xk} de um espaço linear E , qual omı́nimo subespaço F0 ⊂ E que contém S?

    2. Qual a condição, necessária e suficiente, sobre S para que F0 seja o menor su-bespaço que contém um subconjunto próprio S ′ de S?

    É claro, pela Definição 1.16, que o conjunto F formado por todas combinações lineares(1.11) de vetores de S é um subespaço. Note que, se x = λ1x1 + · · · + λkxk, y =η1x1 + · · ·+ ηkxk, e λ ∈ R, então

    x + y = (λ1 + η1)x1 + · · ·+ (λk + ηk)xk= α1x1 + · · · + αkxk

  • 26 1. Sistemas Dinâmicos Lineares

    e

    λx = λ (λ1x1 + · · ·+ λkxk)= β1x1 + · · · + βkxk

    são combinações lineares de vetores de S. Um subespaço F0 que contém S é mı́nimo setodos os subespaços F que contém S contém também F0:

    F ⊃ F0 .

    A partir destas duas noções pode–se concluir, por um argumento que leva ao absurdo,que o menor subespaço F0 que contém S é o subespaço gerado por S, o qual denotamospor

    F0 = span {x1, . . . ,xk} ,e isso responde a primeira pergunta.

    Para a segunda questão, notamos que a condição necessária para que um subconjuntopróprio S ′ de S, digamos S ′ = {x1, . . . ,xk−1}, seja tal que

    F0 = span {x1, . . . ,xk−1}

    é que {x1, . . . ,xk} seja linearmente dependente, isto é,

    λ1x1 + · · · + λkxk = 0

    tenha solução não trivial: λj 6= 0 para ao menos um ı́ndice j. Ou ainda,

    xk = α1x1 + · · · + αk−1xk−1

    com αj = λj/λk e λk 6= 0. Ocorre, porém, que esta é também uma condição suficientecomo mostra a seguinte

    Proposição 1.21 Seja E = Rn. Qualquer conjunto de vetores S1 = {x1, . . . ,xn+1}é linearmente dependente. Por outro lado, qualquer conjunto S2 = {x1, . . . ,xn−1} devetores linearmente independentes não gera E . Logo, dim E = n.

    Prova. S1 = {x1, . . . ,xn+1} é linearmente dependente se e somente se existir soluçãonão trivial λ1, . . . , λn+1 ∈ R de

    λ1x1 + · · ·+ λn+1xn+1 = 0 . (1.12)

    Escrevendo esta equação em componentes, com xj = (x1j , . . . , xnj), obtemos o seguintesistema de equações lineares

    λ1x11 + · · · + λn+1x1 n+1 = 0...

    ......

    λ1xn1 + · · · + λn+1xn n+1 = 0(1.13)

  • 1.1 Noções Básicas de Algebra Linear 27

    Seja X = [x1 · · · xn+1] a matriz n × (n + 1) que tem o vetor xj na j–ésima coluna, eseja λ a matriz coluna (n+ 1) × 1 com componentes λj . Então, (1.13) pode ser escritocomo

    Xλ = 0 . (1.14)

    A primeira afirmação da Proposição 1.21 segue de um resultado mais geral.

    Teorema 1.22 Seja A uma matriz k × k. A equação

    Ax = 0

    tem uma solução não trivial (x 6= 0) se e somente se A for singular.

    A condição detA = 0 é necessária e suficiente para que uma matriz A seja singular.Denotando por X̃ = [x̃1 · · · x̃n+1] a matriz (n+ 1)× (n + 1) com o vetor x̃j na j–ésimacoluna, onde

    x̃ij =

    xij se i = 1, . . . , n

    0 se i = n+ 1,

    a equação (1.14) é equivalente a

    X̃ λ = 0 .

    Como det X̃ = 0 (pois possui a última coluna com zeros), existe uma solução λ nãotrivial desta última equação e, consequentemente, uma solução não trivial de (1.12),concluindo a prova da primeira parte da proposição.

    Vamos a seguir mostrar que nem todos vetores em Rn podem ser escritos como umacombinação linear de S2 = {x1, . . . ,xn−1}. Para isso, considere o conjunto de equações

    e1 = α11x1 + · · ·+ α1n−1xn−1 + 0 xn...

    ......

    en = αn1x1 + · · ·+ αnn−1xn−1 + 0 xn

    onde ej = (0, . . . , 1, . . . , 0) tem somente a j–ésima componente não nula e xn ∈ Rn éum vetor arbitrário. Definindo as matrizes X = [x1 · · · xn], A = [αij ] e I = [e1 · · · en]como anteriormente, as equações acima podem ser escritas na forma

    IT = AXT ,

    onde XT denota a matriz transposta de X, que por sua vez implica uma contradição:

    1 = det I = detA detXT = 0

    em vista do fato que I é a matriz identidade e A é uma matriz singular (pois tem aúltima linha de zeros). Logo, os n vetores linearmente independentes {e1, . . . , en} (queformam a base canônica de Rn) não podem ser representados por uma combinaçãolinear de vetores de S2. Isto demonstra a segunda afirmação da proposição.

  • 28 1. Sistemas Dinâmicos Lineares

    A primeira asserção da Proposição 1.21 implica a afirmação: dim Rn ≤ n. A desigual-dade no sentido oposto segue da segunda asserção: dim Rn ≥ n. Logo, Rn é um espaçolinear de dimensão n.

    2

    A seguir enunciaremos uma série de resultados importantes sem demonstrações. Decerta maneira, estes estendem a Proposição 1.21 para espaços vetoriais quaisquer.

    Teorema 1.23 Seja E um espaço linear de dimensão n. Então

    1. Toda base de E tem exatamente n elementos.

    2. Todo conjunto S de vetores em E , linearmente independentes, tem no máximo nelementos.

    Definição 1.24 O mapeamento linear T : E 7−→ E ′ é um isomorfismo, se e somentese existir um transformação linear S : E ′ 7−→ E tal que se verifique

    S ◦ T (x) = x e T ◦ S (x′) = x′

    para todo x ∈ E e x′ ∈ E ′. Dois espaços lineares E e E ′, são isomorfos se e somentese existir um isomorfismo entre estes.

    Em outras palavras, um isomorfismo estabelece uma relação um para um, x ↔ x′entre os elementos x ∈ E e x′ ∈ E ′, de forma que a linearidade seja preservada em ambossentidos: se x ↔ x′, y ↔ y′ e λ ∈ R, então x + y ↔ x′ + y′ e λx ↔ λx′. Como todoespaço linear é gerado por uma base, para que haja um isomorfismo, basta estabeleceruma relação um para um entre os elementos de uma base S = {x1, . . . ,xn} de E e oselementos de uma base S ′ = {x′1, . . . ,x′m} de E ′. Esse fato junto com o Teorema 1.23,leva ao seguinte

    Teorema 1.25 Dois espaços vetoriais lineares são isomorfos, se e somente se tiverema mesma dimensão. Em particular, todo o espaço de dimensão n é isomorfo a Rn.

    Uma transformação linear T : E −→ E ′ tem em geral diferentes representações ma-triciais A = A(S, S ′) = [aij]

    n,mi=1,j=1 dependendo da base adotada para cada espaço. Uma

    questão natural é: Que propriedades em comum tem todas as matrizes A(S, S ′) querepresentam o mesmo operador linear T ∈ L (E ) em uma base E ?

    Este será o assunto mais relevante da subseção seguinte. Aqui, usaremos o Teorema1.25 para estabelecer a unicidade da representação matricial de um operador linearcom o par (S, S ′) de bases fixo.

    Dadas as bases S e S ′ dos espaços lineares E e E ′, de dimensão n em, respectivamente,existe uma correspondência um para um T ↔ A, entre transformações lineares T : E −→E ′, cujo espaço é denotado por L (E , E ′), e matrizes A = [aij ]

    n,mi=1,j=1 que as representam.

    Esta correspondência é um isomorfismo entre os espaços lineares L (E , E ′) e Mm,n (R)dado pelas seguintes combinações lineares

    T (xj) =

    m∑

    i=1

    aijx′i , j = 1, . . . , n .

  • 1.1 Noções Básicas de Algebra Linear 29

    Exemplo 1.26 A matriz Π = [πij ] dada por (1.7) representa o operadorT (x1, x2, . . . , xn) = (x2, . . . , xn, x1) em R

    n na base S = S ′ = {e1, . . . , en} canônica.Note que T (ej) = ej−1 é satisfeita para j = 2, . . . , n e T (e1) = en. Portanto,

    πij =

    {1 se i+ 1 = j (com n+ 1 = 1)0 de outra maneira

    .

    Exerćıcio 1.27 Represente a matriz

    A =

    1 1 22 1 31 0 1

    na base S = {(1, 1, 0); (0, 1, 1); (1, 0, 1)} ≡ {f1,f2,f 3}, isto é, represente na base S aação da matriz A sobre os vetores da base S.

    Solução. S forma uma base de R3 se qualquer vetor x ∈ R3 puder ser escrito como umacombinação linear

    x = α1f1 + α2f2 + α3f 3= M α .

    (1.15)

    Aqui, α = (α1, α2, α3) é a incógnita do problema e

    M = [f1 f2 f 3] =

    1 0 11 1 00 1 1

    é a matriz formada pelos vetores de S em suas colunas. Nesta formulação, S é uma base(S é L.I. e span {f 1,f2,f3} = R3) se e somente se

    α = M−1x .

    for a única solução da equação (1.15). Logo, S é uma base se e somente se M for nãosingular.

    Calculando o determinante

    detM =

    ∣∣∣∣∣∣

    1 0 11 1 00 1 1

    ∣∣∣∣∣∣= 2

    verificamos que M é inverśıvel e sua inversa é dada por

    M−1 =1

    2

    1 1 −1−1 1 11 −1 1

    ,

    o que prova ser S uma base.

  • 30 1. Sistemas Dinâmicos Lineares

    A seguir, a ação de A sobre os elementos da base S

    v1 = Af 1v2 = Af 2 (1.16)

    v3 = Af 3

    deve ser representada na base S. Para isso, devemos encontrar os vetores β1, β2 e β3,de componentes βj = (β1j , β2j , β3j), tais que

    vj =

    3∑

    i=1

    βij f i = Mβj . (1.17)

    Definindo V = [v1 v2 v3] a matriz que tem por colunas os vetores vj, as equações (1.16)podem ser escritas como

    V = [Af 1Af2Af 3] = AM .

    Como V também pode ser escrita, em vista de (1.17), como

    V = [Mβ1Mβ2Mβ3] = MB

    onde B = [β1 β2 β3] = [βij], concluimos

    B = M−1AM (1.18)

    representa a matriz A na base S. Temos

    B =1

    2

    1 1 −1−1 1 11 −1 1

    1 1 22 1 31 0 1

    1 0 11 1 00 1 1

    =

    2 3 31 1 20 0 0

    (note que detA = detB = 0).2

    Uma transformação da forma (1.18) é denominada transformação de similaridade.Toda mudança de base em Rn é realizada por uma transformação de similaridade e vice–versa: toda transformação de similaridade corresponde a uma mudança de base. Noteque a relação (1.18) requer a existência de M−1 que é a condição necessária e suficientepara que se estabeleça um isomorfismo de Rn em Rn.

    Em geral, se S = {f 1, . . . ,fn} e S ′ = {f ′1, . . . ,f ′n} forem duas bases de Rn e A umamatriz n × n, então B = M−1AM e B′ = M ′−1AM ′ representam A na base S e S ′,respectivamente. Logo P = M−1M ′ é a matriz de transição do sistema de referêncialinha para o sistema sem linha e B′ = P−1BP .

    A proposição a seguir é conhecida por teorema da dimensão do núcleo e imagem eoferece uma outra caracterização dos isomorfismos.

  • 1.1 Noções Básicas de Algebra Linear 31

    Proposição 1.28 Seja T : E 7−→ E ′ um mapeamento linear. Então

    dim I (T ) + dim N (T ) = dim E . (1.19)

    Em particular, se dim E = dim E ′, as seguintes afirmações são equivalentes:

    1. N (T ) = {0}

    2. I (T ) = E

    3. T é um isomorfismo.

    Para ver que 1. ⇐⇒ 3., suponha que T seja um isomorfismo e que exista x ∈ E nãoidenticamente nulo tal que T (x) = 0. Então, pela primeira hipótese, existe uma relação1 para 1 entre as bases S = {x1, . . . ,xn} e S ′ = {x′1, . . . ,x′n} de E e E ′, dada porT (xj) = x

    ′j . A segunda hipótese

    T (x) = T (λ1x1 + · · ·+ λnxn)= λ1T (x1) + · · ·+ λnT (xn)= λ1x

    ′1 + · · · + λnx′n = 0

    gera a seguinte contradição: S ′ = {x′1, . . . ,x′n} é uma base de vetores linearmente de-pendentes! Ou T não é um isomorfismo ou a única solução de T (x) = 0 é x = 0. Logo,1.⇐⇒ 3..

    2

    1.1.3 Espaços Unitários e Euclideanos

    Alguns espaços lineares possuem outras estruturas além da dimensão. Podemos atribuirum comprimento (1.3) a um vetor em Rn ou medir o ângulo θ entre dois vetoresx, y ∈ Rn pela relação

    cos θ =(x,y)

    |x| |y| (1.20)

    onde(x,y) = x1 y1 + · · · + xn yn (1.21)

    é o produto interno entre dois vetores. Note a seguinte relação entre comprimento eproduto interno

    |x|2 = (x,x) ≥ 0 (1.22)com (x,x) = 0 se e somente se x = 0. Note ainda que as relações (1.20) e (1.22) sãoconsistentes com a lei dos cossenos:

    |x − y|2 = (x − y,x − y)= |x|2 + |y|2 − 2 (x,y)= |x|2 + |y|2 − 2 |x| |y| cos θ

  • 32 1. Sistemas Dinâmicos Lineares

    de onde se conclui que a estrutura geométrica satisfeita pelos vetores pode ser deduzidaa partir do produto interno.

    Outras relações deduzidas de (1.20) e (1.22) são:Desigualdade de Schwarz .

    |(x,y)||x| |y| = |cos θ| ≤ 1 ;

    Desigualdade triangular.

    |x + y|2 = (x + y,x + y)= |x|2 + |y|2 + 2 |x| |y| cos θ≤ (|x| + |y|)2 .

    Em resumo, relações geométricas como a lei dos cossenos e desigualdade triangularsão compat́ıveis com o produto interno (1.21) e a noção de distância induzida por este.Faremos agora o percurso inverso. Partiremos da seguinte

    Definição 1.29 O produto interno (x, y) de dois elementos x, y de um espaço li-near E sobre R (ou C), é uma função E × E 7−→ R (ou C) satisfazendo as seguintespropriedades:

    (x,x) ≥ 0(x,y) = (y,x) (ou (x,y) = (y,x) )

    (αx + βy, z) = α (x, z) + β (y, z) (1.23)

    com a igualdade na primeira relação satisfeita somente se x = 0. Aqui, z significa aconjugação complexa de z ∈ C.

    Um espaço vetorial E sobre R (ou C) dotado de um produto interno (·, ·) é denominadoespaço Euclideano (ou espaço unitário).

    Exemplo 1.30 1. E = Cn com (x,y) = x1 y1 + · · ·+ xn yn.

    2. E = l2 (N) (sobre R) com (x, y) =∞∑

    i=0

    xi yi

    3. O espaço L2 ([a, b],C) das funções de quadrado integraveis f : [a, b] −→ C com

    (f, g) :=

    ∫ b

    a

    f(x) g(x) dx .

    4. O espaço L2 (I,R; ρ) das funções de quadrado integrável com o produto internoponderado por uma função positiva, ρ(x) ≥ 0, no intervalo I ⊆ R

    (f, g)ρ =

    I

    f(x) g(x) ρ(x) dx .

  • 1.1 Noções Básicas de Algebra Linear 33

    Todo espaço linear E com produto interno é um espaço normado (isto é, possui anoção de comprimento) com a norma de x ∈ E dada por

    ‖x‖ :=√

    (x,x) . (1.24)

    Para verificar que ‖ · ‖ define uma função comprimento em E a desigualdade triangular

    ‖x + y‖ ≤ ‖x‖ + ‖y‖ (1.25)

    deve ser satisfeita para todo x, y ∈ E . A seguinte desigualdade é útil para este finalidade.Proposição 1.31 (Desigualdade de Schwarz)

    |(x,y)| ≤ ‖x‖ ‖y‖ . (1.26)

    Prova. Usando a definição (1.24) e as propriedades (1.23), temos

    0 ≤ (αx + y, αx + y)= |α|2 ‖x‖2 + 2ℜ (α (x,y)) + ‖y‖2

    ≤ |α|2 ‖x‖2 + 2 |α| |(x,y)| + ‖y‖2 (1.27)

    onde ℜ (z) = (z + z) /2 é a parte real de z ∈ C. (1.27) define uma inequação para |α|que é satisfeita em R se e somente se o descriminante

    ∆ = 4(|(x,y)|2 − ‖x‖2 ‖y‖2

    )

    for negativo e ∆ ≤ 0 implica (1.26).2

    Pela definição (1.24) e desigualdade de Schwarz, concluimos

    ‖x + y‖2 ≤ ‖x‖2 + 2 | (x,y)| + ‖y‖2

    ≤ ‖x‖2 + 2 ‖x‖ ‖y‖ + ‖y‖2

    = (‖x‖ + ‖y‖)2 .

    Uma vez verificada as relações geométricas da norma podemos definir, como em (1.20),o ângulo θ entre dois vetores x e y

    cos θ =(x,y)

    ‖x‖ ‖y‖ ,

    e introduzir a seguinte

    Definição 1.32 Dois vetores x, y ∈ E são ortogonais entre si, se e somente se oproduto interno destes for nulo:

    x ⊥ y ⇐⇒ (x,y) = 0.

  • 34 1. Sistemas Dinâmicos Lineares

    Enunciaremos a seguir dois resultados importantes.

    Teorema 1.33 Qualquer conjunto de vetores mutuamente ortogonais são linearmenteindependentes.

    Prova. Seja x1, . . . ,xn uma coleção de vetores mutuamente ortogonais:

    (xi,xj) = 0

    se i 6= j, e considere a equação

    λ1x1 + · · ·+ λnxn = 0 . (1.28)

    Tomando o produto escalar de (1.28) com o vetor xj e usando a ortogonalidade, resulta

    λ1 (x1,xj) + · · · + λn (xn,xj) = λj ‖xj‖2 = 0

    que por (1.23) implica em λj = 0 para todo j = 1, . . . , n.2

    Teorema 1.34 Todo espaço linear E Euclideano (ou unitário) de dimensão n possuiuma base ortogonal normalizada (base ortonormal) {ej}nj=1.Prova. Denomina–se método de Gram–Schmidt o seguinte procedimento indutivo degerar uma base ortonormal a partir de uma base de vetores linearmente independentes.Seja x1, . . . ,xn uma coleção de vetores linearmente independentes e escolha

    e1 =x1

    ‖x1‖.

    Defina y2 = x2 − αe1 tal que (y2, e1) = 0. Isto determina α = (x2, e1). Escolha

    e2 =y2

    ‖y2‖e note que e1 e e2 são vetores ortogonais normalizados e constrúıdos a partir da com-binação linear dos vetores x1 e x2.

    Assuma, em seguida, que k vetores e1, . . . , ek, k < n, normalizados e mutuamenteortogonais, foram constrúıdos por combinações lineares de vetores de {x1, . . . ,xk}. Seja

    Wk = span {x1, . . . ,xk} = span {e1, . . . , ek}

    o subespaço gerado por estes. Defina

    yk+1 = (E − Pk) (xk+1) (1.29)

    onde E é o operador de identidade, E(x) = x e Pk : E 7−→ Wk é o operador de projeção(projetor) ortogonal no subespaço Wk:

    Pk(x) := (x, e1) e1 + · · ·+ (x, ek) ek . (1.30)

  • 1.1 Noções Básicas de Algebra Linear 35

    Novamente, escolha

    ek+1 =yk+1∥∥yk+1

    ∥∥e note que ek+1 é normalizado

    ‖ek+1‖2 = (ek+1, ek+1) =∥∥yk+1

    ∥∥−2 (yk+1,yk+1)

    = 1

    e ortogonal a Wk:(ej, ek+1) = 0 , j = 1, . . . , k . (1.31)

    Como, por hipótese, e1, . . . , ek são combinações lineares de {x1, . . . ,xk}, yk+1 (e conse-quentemente ek+1) é uma combinação linear de {x1, . . . ,xk+1}. Isto conclui a induçãomatemática e prova o teorema de Gram–Schmidt. Note que é sempre posśıvel encontraruma base de vetores linearmente independentes.

    2

    Exerćıcio 1.35 Verifique as relações (1.31).

    Exerćıcio 1.36 Um projetor P é um operador idempotente: P 2 = P ◦P = P . Verifiqueesta propriedade para Pk e (E − Pk) definidos em (1.30) e (1.29). Mostre que Pk e(E − Pk) são tais que: Pk ◦ (E − Pk) = (E − Pk) ◦ Pk = O.Exemplo 1.37 Considere a coleção S = {fj , gj}kj=1 de funções definidas em [−π, π]:

    fj(x) =1√π

    cos jx , gj =1√π

    sin jx

    e seja Wk o subespaço gerado por esta. S é um conjunto de funções normalizadas emutuamente ortogonais com respeito ao produto escalar do Exemplo 1.30.3 :

    (fl, fm) =1

    π

    ∫ π

    −πcos lx cosmxdx

    =1

    ∫ π

    −π{cos (l +m) x + cos (l −m) x } dx = δlm

    e analogamente, (gl, gm) = δlm e (fl, gm) = 0 para todo l,m = 1, . . . , k.O projetor P no subespaço Wk é dado por

    Pf (x) =

    k∑

    j=1

    {(f, fj) fj(x) + (f, gj) gj(x)}

    =

    k∑

    j=1

    1

    π

    ∫ π

    −π(cos jy cos jx + sin jy sin jx) f(y) dy

    =

    k∑

    j=1

    1

    π

    ∫ π

    −πcos j (x− y) f(y) dy .

    Note que P é a soma de operadores integrais dados pela convolução pela função cos jx.

  • 36 1. Sistemas Dinâmicos Lineares

    Exemplo 1.38 (Polinômios de Chebyshev) Considere a base de monômios 1, x, x2,. . . , xn que, segundo vimos, aproxima uniformemente as funções cont́ınuas definidasno intervalo [−1, 1]. Em C ([−1, 1] ,R), considere o produto interno com peso ρ(x) =1/√

    1 − x2:

    (f, g)ρ =

    ∫ 1

    −1f(x) g(x)

    dx√1 − x2

    .

    e note que as funções uniformemente cont́ınuas sendo integráveis por Riemann, sãoquadrado integraveis e, pela desigualdade de Schwarz e devido a singularidade de ρ emx = ±1 ser integrável, o produto interno está bem definido. Usando o método de Gram–Schmidt, tomamos o polinômio de ordem 0, T0 = 1 cuja normalização

    ‖T0‖2 =∫ 1

    −1

    dy√1 − y2

    =

    ∫ π

    0

    dθ = π

    e definimos e0(x) = T0(x)/ ‖T0‖ = 1/√π. Tomamos o próximo polinômio

    T1(x) = x− (x, e0) e0(x)

    = x− 1π

    ∫ 1

    −1y

    dy√1 − y2

    = x

    onde a integral se anula devido a anti–simetria da função y/√

    1 − y2, e definimose1(x) = T1(x)/ ‖T1‖ onde

    ‖T1‖2 =∫ 1

    −1y2

    dy√1 − y2

    =

    ∫ π

    0

    cos2 θ dθ

    =

    ∫ π

    0

    1

    2(cos 2θ + 1) dθ =

    π

    2.

    Tomamos a seguir

    T2(x) = 2(x2 −

    (x2, e0

    )e0(x) −

    (x2, e1

    )e1(x)

    )(1.32)

    = 2x2 − 2π

    ∫ 1

    −1y2

    dy√1 − y2

    − 4πx

    ∫ 1

    −1y3

    dy√1 − y2

    = 2x2 − 1

  • 1.1 Noções Básicas de Algebra Linear 37

    com a última integral se anulando devido a anti–simetria de y3/√

    1 − y2, cuja norma-lização

    ‖T2‖2 =∫ 1

    −1

    (2y2 − 1

    )2 dy√1 − y2

    =

    ∫ π

    0

    (2 cos2 θ − 1

    )2dθ

    =

    ∫ π

    0

    cos2 2θ dθ

    =

    ∫ π

    0

    1

    2(cos 4θ + 1) dθ =

    π

    2.

    O procedimento continua, definindo e2(x) = T2(x)/ ‖T2‖ =√

    2/π (2x2 − 1) e tomandoo próximo polinômio T3(x) de forma análoga a (1.32). Os polinômios de Chebyshev sãopor convenção “normalizados” de forma tal que Tl(1) = 1 para todo l ∈ N.

    Uma base S ′ = {y1, . . . ,yn} de vetores ortogonais, não necessariamente normalizados,pode ser obtida diretamente de uma base S = {x1, . . . ,xn} de vetores linearmenteindependentes. Como no procedimento de Gram-Schmidt, seja y1 = x1 e

    yk = xk −k−1∑

    j=1

    αjk xj (1.33)

    onde, para cada k = 2, . . . , n, α = (α1k, . . . , αk−1 k) é determinado por k − 1 equações

    (xi,yk) = 0 , i = 1, . . . , k − 1 . (1.34)

    Note que (1.34) implica(yj,yk

    )= 0 para todo j < k (basta usar que yj é uma

    combinação linear de x1, . . . ,xj).Definindo a matriz de Gram de ordem p como

    G(p) =

    (x1,x1) (x2,x1) · · · (xp,x1)(x1,x2) (x2,x2) · · · (xp,x2)

    ......

    . . ....

    (x1,xp) (x2,xp) · · · (xp,xp)

    e usando as relações (1.34) em (1.33), cada α satisfaz a equação

    G(k−1)α = β

    onde β = ((x1,xk) , . . . , (xk−1,xk)), cuja solução é dada pela fórmula de Cramer

    αjk =detG

    (k−1)j

    detG(k−1)

  • 38 1. Sistemas Dinâmicos Lineares

    onde G(k−1)j é a matriz G

    (k−1) com a j–ésima coluna substitúıda pelo vetor β. Substi-tuindo este resultado em (1.33) e usando a desenvolvimento do determinante por La-place, obtemos

    yk = xk −k−1∑

    j=1

    detG(k−1)j

    detG(k−1)xj

    =1

    detG(k−1)

    (detG(k−1) xk −

    k−1∑

    j=1

    detG(k−1)j xj

    )

    =det Γ(x1, . . . ,xk)

    detG(k−1)

    onde a última linha faz sentido quando escolhemos a mesma componente dos vetoresyk = (y1k, . . . , ykk) e xj = (y1j, . . . , ykj), j = 1 . . . , k e, componente por componente,

    Γ(xi1, . . . , xik) =

    |G(k−1) β(k−1)

    |xi1 xi2 · · · xik

    .

    1.1.4 Autovalores e Autovetores

    O objetivo desta subseção é investigar os subespaços invariantes de uma transformaçãolinear T . Começaremos com a seguinte

    Definição 1.39 Seja T um operador linear em um espaço vetorial E sobre C. Um vetorx ∈ E não nulo é um autovetor de T se a equação

    T (x) = λx (1.35)

    for satisfeita para um número λ ∈ C chamado autovalor de T ou valor próprio de Tassociado a x.

    A equação de autovalores (1.35) pode ser reescrita na forma

    (T − λE) (x) = 0 . (1.36)

    De acordo com o Teorema 1.22, esta equação admite solução não trivial (x 6= 0) se esomente se (T − λE) for singular ou, equivalentemente, se e somente se

    det (A− λI) = 0 (1.37)

    onde A = A(S) é a matriz que representa T em alguma base S de E . Veremos emseguida que esta condição independe da representação.

  • 1.1 Noções Básicas de Algebra Linear 39

    O lado esquerdo de (1.37) define um polinômio mônico2 em λ de ordem n

    cA(λ) = det (λI −A) = λn + c1λn−1 + · · ·+ cn (1.38)

    denominado polinômio caracteŕıstico de A. Aqui, n = dim E e o determinante deuma matriz C = [cij ] de ordem n é uma função multilinear em cij de grau n, dada por

    detC =∑

    π

    (−1)|π| c1π1c2π2 · · · cnπn ,

    com a soma percorrendo todas as permutações π =

    (1 2 · · · nπ1 π2 · · · πn

    )de {1, . . . , n}

    com |π| o sinal da permutação3 (Exemplo: Para n = 4, π =(

    1 2 3 42 3 1 4

    )e π′ =

    (1 2 3 44 3 1 2

    )são permutações de {1, 2, 3, 4} com |π| = 2 e |π| = 5).

    A equação (1.37) identifica as ráızes do polinômio caracteŕıstico cA(λ) com os au-tovalores de T . Pelo teorema fundamental da álgebra, cA(λ) possui n ráızes {λj}nj=1,enumeradas contando multiplicidades, definidas sobre o corpo dos números complexosC e

    cA(λ) =

    n∏

    j=1

    (λ− λj) .

    Definição 1.40 Denomina-se espectro σ(T ) de um operador T em E o conjunto{λ1, . . . , λn} de seus autovalores.

    Mostre 1.41 1. que o polinômio caracteŕıstico cA(λ) independe da representaçãoA(S) da transformação T e, portanto, os autovalores {λj} de T são autovaloresde qualquer representação A(S) de T .

    2. que autovetores {x1, . . . ,xs} de T associados a autovalores distintos {λ1, . . . , λs}são linearmente independentes.

    Solução de Mostre 1.41.1. Seja A′ = A′(S ′) a representação matricial de T na base S ′

    de E . Então, de acordo com os paragrafos seguintes ao Exerćıcio 1.27, A′ = P−1APonde P = P (S ′, S) = M−1M ′ é a matriz de transição da base S ′ para S. Note que P éinverśıvel e

    1 = det I = detP−1P = detP−1 detP .

    2Polinômios cujo o coeficiente c0 do termo de maior grau é igual a 1.3|π| é o número de permutações elementares (troca de ordem de dois elementos) necessário para retornar a ordem

    original.

  • 40 1. Sistemas Dinâmicos Lineares

    Note que a escolha de S e S ′ é arbitrária e portanto P (S ′, S) é uma matriz inverśıvelarbitrária. Assim, cA(λ) é independe da escolha de base pois

    cA′(λ) = det (λI −A′)= det

    (λI − P−1AP

    )

    = det(P−1 (λI −A)P

    )

    = detP−1 det (λI − A) detP= det (λI −A) = cA(λ) .

    2. Devemos mostrar que a equação

    x = α1x1 + · · ·+ αsxs = 0 (1.39)

    para os coeficientes {αi} tem uma única solução α1 = · · · = αs = 0. Aplicando ooperador

    T (i) := (T − λ1) ◦ · · · ◦ (T − λi−1) ◦ (T − λi+1) ◦ · · · ◦ (T − λs)

    nos dois lados de (1.39), obtemos

    T (i) (x) = (λi − λ1) · · · (λi − λi−1) (λi − λi+1) · · · (λi − λs)αi xi = 0

    que implica αi = 0 devido a hipótese de {λ1, . . . , λs} serem distintos. O resultado seguefazendo i = 1, . . . , s.

    2

    De maneira equivalente, porém complemetar à condição (1.37), x é um autovetorde T associado a λ se, e somente se, o núcleo do operador T − λE for não trivial,N (T − λE) 6= {0} e, portanto,

    dim N (T − λE) ≥ 1. (1.40)

    Se λ0 for uma raiz simples de cA então dim N (T − λ0E) = 1 e existe um autovetorx0 de T associado ao autovalor λ0 pela própria definição. Se λ0 for uma raiz de mul-tiplicidade ma > 1, não há garantia de que o subespaço N (T − λ0E) tenha dimensãoigual à multiplicidade ma de λ0. Pode–se mostrar que

    mg := dim (N (T − λ0E)) ≤ ma (1.41)

    Os sub́ındices g e a, referem–se a multiplicidade geométrica mg(λ0) e algébrica ma(λ0)do autovalor λ0.

    Observação 1.42 Daremos um roteiro para a demonstração da desigualdade (1.41).Pela igualdade (1.19), dim (I (T − λ0E)) = n − mg e isso implica que os menoresprincipais de ordem p > n−mg4 se anulam. Devido a uma relação entre os coeficientes

    4Os menores principais de uma matriz A de ordem p ≤ n, são os determinantes das matrizes A(i1, . . . , ip) obtidas pelaeliminação das linhas e colunas de A indexadas por 1 ≤ i1 < · · · < ip ≤ n.

  • 1.1 Noções Básicas de Algebra Linear 41

    do polinômio caracteŕıstico e os menores principais de A, por sua vez implica cn−mg =. . . = cn = 0, onde cj é o j–ésimo coeficientes do polinômio caracteŕıstico cA−λ0I(λ) deA− λ0I (ordenado como em (1.38)). Logo

    cA(λ) = cA−λ0I(λ− λ0) = (λ− λ0)mgn−mg∏

    j=1

    (λ− λj)

    e mg ≤ ma, com a igualdade somente se λj 6= λ0 para todo j.

    Note que o subespaço N (T − λ0E) associado ao autovalor λ0 é invariante pelatransformação T : se x ∈ N (T − λ0E) então (T − λ0E) (x) = 0 e

    (T − λ0I) ◦ T (x) = T ◦ (T − λ0I) (x) = 0 (1.42)

    implica que T (x) ∈ N (T − λ0E).Sem perda de generalidade, as considerações com respeito a transformação linear T

    em E podem ser examinadas em uma dada representação matricial A.

    Definição 1.43 Uma matriz A é simples se a multiplicidade de cada autovalor λ deA for igual a dimensão de N (A− λI). Em outras palavras, A é simples se e somentese a mutiplicidade algébrica ma(λ) for igual a multiplicidade geométrica mg(λ) paracada autovalor λ distinto de A.

    Exemplo 1.44 1. Seja T um operador linear em R3 definido por

    T (x1, x2, x3) = (2x1, x1, x2 + x3) .

    A equação T (x) = λx é equivalente a

    2x1 = λx1

    x1 = λx2

    x2 + x3 = λx3

    cujas soluções

    λ1 = 2, x1 = (2, 1, 1)

    λ2 = 0, x2 = (0, 1,−1)λ3 = 1, x3 = (0, 0, 1)

    geram três subespaços invariantes N (T − 2I) = {(2α, α, α)}, N (T ) = {(0, α,−α)}e N (T − I) = {(0, 0, α)} de dimensão 1.

    2. O operador linear T em R3, dado por

    T (x1, x2, x3) = (2x1 + x3, 2x2, 3x3)

  • 42 1. Sistemas Dinâmicos Lineares

    é representado, T (ej) =3∑

    i=1

    aij ei, j = 1, . . . , 3, na base canônica, devido a

    T (e1) = (2, 0, 0)

    T (e2) = (0, 2, 0)

    T (e3) = (1, 0, 3)

    pela matriz

    A = [aij ] =

    2 0 10 2 00 0 3

    .

    λ = 2 é um autovalor de T de multiplicidade algébrica ma = 2. O subespaçoinvariante associado a este autovalor, N (T − 2I) = {(α, β, 0) , α, β ∈ R}, temdimensão mg = 2. Logo mg(λ) = ma(λ) = 2 para λ = 2.

    3. Seja

    A =

    (2 10 2

    )

    a matriz com autovalor λ = 2 de multiplicidade algébrica ma = 2. Como o núcleoN (A − λI) = {(α, 0) : α ∈ R} tem dimensão mg = 1 6= ma, a matriz A não ésimples. Note

    (A− 2I)(ab

    )=

    (0 10 0

    )(ab

    )6=(

    00

    )

    se e somente se b 6= 0.A seguir enunciaremos os dois resultados mais relevantes desta subseção.

    Teorema 1.45 Seja A uma matriz n × n definida sobre R (ou C). A é uma matrizsimples se e somente se A for diagonalizável. Isto é, se e somente se existir umabase S = {x1, . . . ,xn} (de autovetores) em Rn (ou Cn) tal que A representada na baseS é diagonal

    D = diag {λ1, . . . , λn} =

    λ1 · · · 0...

    . . ....

    0 · · · λn

    .

    Teorema 1.46 (Teorema Espectral) Seja A ∈Mn (R) (ou Mn (C)). A é uma matrizsimples se e somente se puder ser escrita na forma

    A =n∑

    j=1

    λj Ej

    onde λ1,. . ., λn são os autovalores de A (contando multiplicidade) e E1,. . ., En são ma-trizes de projeção

    EiEj = δijEj

  • 1.1 Noções Básicas de Algebra Linear 43

    nas direções dos autovetores x1,. . .,xn, com δij = 1 se i = j e δij = 0 de outra forma.Consequentemente, se p(x) for um polinômio, temos

    p (A) =n∑

    j=1

    p(λj)Ej .

    Prova do Teorema 1.45. Pela Definição 1.43, se A ∈ Mn (C) for simples, é semprepossivel encontrar uma base S = {x1, . . . ,xn} em Cn de autovetores de A associadosaos autovalores {λ1, . . . , λn}. Note que autovetores associados a autovalores distintossão L.I. devido a Mostre 1.41.2. Note que o subespaço N (A− λI) é invariante e, porhipótese, pode–se encontrar ma(λ) = mg(λ) vetores L.I. neste espaço.

    As equações Axi = λi xi, i = 1, . . . , n, podem ser colecionadas na forma matricial.Posicionando cada uma das equações nas colunas de uma matriz, temos

    [Ax1 · · · Axn] = [λ1x1 · · · λnxn]A [x1 · · · xn] = [x1 · · · xn]D

    AX = XD , (1.43a)

    onde A = [aij]ni,j=1, xi = (x1i, . . . , xni) e

    X = [x1 · · · xn]é a matriz X = [xij ]

    ni,j=1 cujas colunas formam a base S = {x1, . . . ,xn} de autovetores.

    Multiplicando (1.43a) a esquerda por X−1, temos

    D = X−1AX (1.44)

    de onde se conclui, juntamente com (1.18), a prova do Teorema 1.45.2

    Multiplicando (1.43a) a direita por X−1, obtemos

    A = XDX−1 = XDY T .

    O enunciado do Teorema 1.46 é conseqüência da bi–ortogonalidade dos vetores nas

    colunas de X e Y = (X−1)T

    =(XT)−1

    , isto é XY T = Y TX = I. Retornaremos a estaquestão ao final da subseção.

    O fato da matriz A representada na base S dos autovetores ter a forma diagonal D =diag {λ1, . . . , λn} requer maior atenção. Retomaremos a questão levantada em Mostre1.41.1 aproveitando a oportunidade para fazer uma breve revisão sobre as propriedadesdas transformações de similaridade.

    Denotamos por N (Cn) ⊂ L (Cn) o conjunto de todos os isomorfismos em Cn (i.e.,o conjunto de todos os operadores T não singulares) e por Nn(C) o conjunto das ma-trizes n × n inverśıveis. Se A é uma matriz n × n complexa, M ∈ Nn (C) define umatransformação de similaridade

    B = M−1AM (1.45)

    que satisfaz as seguintes propriedades:

  • 44 1. Sistemas Dinâmicos Lineares

    1. detB = det (M−1AM) = detM−1 detA detM = (detM)−1 detA detM = detA;

    2. TrB = Tr (M−1AM) = Tr (AMM−1) = TrA (devido a propriedade ćıclica dotraço);

    3. B−1 = (M−1AM)−1

    = M−1A−1 (M−1)−1

    = M−1A−1M ;

    4. Bk = M−1AMM−1AM · · ·M−1AM = M−1AkM para todo k ∈ N. Logo, se P (λ)for um polinômio, então

    P (B) = M−1P (A)M .

    Pela propriedade 1. (veja solução de Mostre 1.41.1), cB(λ) = cA(λ) e o conjunto{λ1, . . . , λn} de autovalores de A e {η1, . . . , ηn} de B é o mesmo. Note que a trans-formação (1.45) não é unicamente implementada: se N for uma matriz n × n tal que[N,A] = NA− AN = 0, então B = (NM)−1ANM = M−1AM .

    Exerćıcio 1.47 Uma relação ∼ definida em um conjunto X é dita ser uma relaçãode equivalência se as propriedades: (a) x ∼ x (reflexiva); (b) x ∼ y ⇐⇒ y ∼ x(simétrica); (c) x ∼ y e y ∼ z ⇐⇒ x ∼ z (transitiva); forem satisfeitas para todo x, ye z ∈ X . Mostre que a relação A ∼ B estabelecida pela transformação de similaridade(1.45) é uma relação de equivalência em Mn (C).

    A relação de equivalência ∼ definida por (1.45) decompõe o conjunto Mn (C) emclasses de equivalência

    Mn (C) =⋃

    A[A],

    onde[A] = {B ∈Mn (C) : B ∼ A} .

    Note que, ou a classe [A] coincide com a classe [B] ou estas classes são disjuntas: [A] ∩[B] = ∅. Logo, o conjunto de todos operadores lineares similares a T (incluindo aquisuas representações matriciais)

    [T ] ={S ∈ L (Cn) : S = M−1 ◦ T ◦M : M ∈ N (Cn)

    }

    forma uma classe de equivalência no sentido que todos os seus elementos possuem omesmo espectro σ(T ) = {λ1, . . . λn}. Além disso, seja

    T (xj) = λjxj , j = 1, . . . , n (1.46)

    e yj = M−1 (xj). Multiplicando por M

    −1 a equação acima, obtemos a equação deautovalores para o operador S

    S(yj)

    = M−1 ◦ T ◦M(yj)

    = M−1 ◦ T (xj) = λjM−1 (xj) = λjyj

    com autovalores {λ1, . . . λn} e autovetores {y1, . . .yn}.

  • 1.1 Noções Básicas de Algebra Linear 45

    Exemplo 1.48 Seja

    A =

    1 0 01 2 01 0 −1

    .

    O autovalores de A são as ráızes λ1 = 1, λ2 = 2 e λ3 = −1, do polinômio caracteŕıstico:

    cA(λ) =

    ∣∣∣∣∣∣

    1 − λ 0 01 2 − λ 01 0 −1 − λ

    ∣∣∣∣∣∣= (1 − λ) (2 − λ) (−1 − λ) .

    O autovetor correspondente a λ1 = 1 é a solução x1 = (x1,1, x2,1, x3,1) não identica-mente nula da equação

    1 − λ1 0 0

    1 2 − λ1 01 0 −1 − λ1

    x1,1x2,1x3,1

    =

    000

    que é equivalente ao sistema de equações

    x1,1 + x2,1 = 0x1,1 − 2 x3,1 = 0

    e cuja solução éx2,1 = −x1,1x3,1 =

    1

    2x1,1

    com x1,1 arbitrário. Fixando x1,1 = 2 resulta em x1 = (2,−2, 1).O autovetor x2 correspondente a λ2 = 2 é a solução da equação

    −1 0 01 0 01 0 −3

    x1,2x2,2x3,2

    =

    000

    equivalente ao sistema linearx1,2 = 0

    x1,2 − 3 x3,2 = 0com x2,2 arbitrário. Podemos então escolher x2 = (0, 1, 0).

    O autovetor x3 correspondente a λ3 = −1 é a solução da equação

    2 0 01 3 01 0 0

    x1,3x2,3x3,3

    =

    000

    cuja solução é x1,3 = x2,3 = 0 e x3,3 qualquer. Escolhemos x3 = (0, 0, 1).

  • 46 1. Sistemas Dinâmicos Lineares

    A matriz de autovetores

    X =

    2 0 0−2 1 01 0 1

    é um isomorfismo, pois detX = 2 6= 0, e define uma transformação de similaridadeque diagonaliza a matriz A com D = diag {1, 2,−1}. Afim de verificar a relação (1.44)neste exemplo, a inversa de X pode ser calculada por

    X−1 =1

    detXadjX (1.47)

    onde adjX é a matriz adjunta de X: adjX = (cofX)T .A matriz dos cofatores, cofX, é obtida da seguinte forma. Se B = [bij ] é uma matriz

    n× n o cofator Bij associado a entrada bij é dado pelo determinante da matriz B coma i–ésima linha e a j–ésima coluna removidas:

    Bij = (−1)i+j

    ∣∣∣∣∣∣∣∣∣∣∣∣∣

    b11 · · · b1 j−1 b1 j+1 · · · b1n...

    . . ....

    .... . .

    ...bi−1 1 · · · bi−1 j−1 bi−1 j+1 · · · bi−1 nbi+11 · · · bi+1 j−1 bi+1 j+1 · · · bi+1 n

    .... . .

    ......

    . . ....

    bn 1 · · · bn j−1 bn j+1 · · · bnn

    ∣∣∣∣∣∣∣∣∣∣∣∣∣

    .

    A matriz dos cofatores é portanto cofB = [Bij ]. Por esta fórmula, obtemos

    X−1 =1

    2

    1 0 02 2 0−1 0 2

    e

    X−1AX =1

    2

    1 0 02 2 0−1 0 2

    1 0 01 2 01 0 −1

    2 0 0−2 1 01 0 1

    =

    1 0 00 2 00 0 −1

    .

    Exemplo 1.49 Seja T o operador linear que associa a cada vetor x = (x1, x2, x3) ovetor

    x′ = T (x) = (2x1, x1, x2 + x3) . (1.48)

    Em componentes, (1.48) é equivalente a

    x′1x′2x′3

    =

    2x1x1x2 + x3

    = A

    x1x2x3

  • 1.1 Noções Básicas de Algebra Linear 47

    onde

    A =

    2 0 01 0 00 1 1

    é a matriz que representa T na base canônica, cujos autovalores e autovetores corres-

    pondentes são, respectivamente, λ1 = 2; λ2 = 0; λ3 = 1 e v1 =

    211

    ; v2 =

    01−1

    ;

    v3 =

    001

    . A matriz que diagonaliza A é dada por:

    X =

    2 0 01 1 01 −1 1

    e sua inversa é dada por

    X−1 =adjX

    detX=

    1

    2

    1 0 0−1 2 0−2 2 2

    .

    Note que as matrizes A, X e X−1 possuem a forma triangular inferior. O conjuntoTn (R) das matrizes triangulares superiores (inferiores) formam um subespaço vetoriale uma álgebra fechada pelas operações de produto matricial e inversa. Os autovalores deuma matriz triangular são os elementos de sua diagonal.

    Miscelânea. Enunciaremos a seguir alguns resultados complementares. Seja E um espaçounitário (espaço vetorial com produto interno (·, ·)) e note que qualquer vetor z ∈ E édeterminado univocamente se (z,y) for conhecido para todo y ∈ E .

    Definição 1.50 Dado um operador T sobre um espaço unitário E , a equação

    (x, T (y)) = (T ∗ (x) ,y)

    para todo x,y ∈ E define um operador T ∗ em E denominado operador adjunto de T .Denomina-se auto–adjunto (ou hermiteano) o operador que é igual ao seu ad-

    junto:

    T = T ∗.

    A representação matricial A = [aij ] de um operador T ∈ L (Rn) auto–adjunto édenominada simétrica. Os elementos de uma matriz simétrica A = [aij ]

    ni,j=1 satisfazem

    aij = aji .

  • 48 1. Sistemas Dinâmicos Lineares

    Uma matriz A ∈Mn (R) é ortogonal se AT = A−1, isto é, se

    AT A = AAT = I .

    Seja E um espaço vetorial sobre os números complexos e S um operador em L (Cn).Se B = [bij ] for a representação matricial de S, a representação matricial de S

    ∗ é dadapela matriz hermiteana conjugada a B (complexo conjugado da transposta de B):

    B† = BT =(B̄)T

    onde B̄ = [̄bij ] é a matriz com b̄ij complexo conjugado a bij . A representação matricialB de um operador auto–adjunto é uma matriz hermiteana: B = B†. A matriz B é ditaser uma matriz unitária se B† = B−1, ou seja, se

    BB† = B†B = I .

    Operadores Auto-adjuntos tem propriedades especiais.

    Teorema 1.51 Os autovalores de um operador auto–adjunto são reais e os autovetorescorrespondentes à autovalores distintos são ortogonais.

    Prova. Seja T um operador auto–adjunto T = T ∗ e considere as equações

    T (x1) = λ1x1 e T (x2) = λ2x2 .

    Temos

    (T (x1) ,x2) = (T∗ (x1) ,x2)

    de onde segue

    0 = (T (x1) ,x2) − (T ∗ (x1) ,x2)= (T (x1) ,x2) − (x1, T (x2))=

    (λ1 − λ̄2

    )(x1,x2)

    Se x1 = x2 então (x1,x2) = ‖x1‖2 6= 0, λ2 = λ1 e λ1 − λ̄1 = 0. Por outro lado, seλ1 6= λ2 então os autovetores associados são ortogonais (x1,x2) = 0

    2

    Definição 1.52 Uma matriz A é normal se, e somente se, o conjunto de seus auto-vetores S = {x1, . . . ,xn} formarem uma base ortogonal de Cn.

    Uma conseqüência desta definição é

    Teorema 1.53 Toda matriz normal é uma matriz simples.

  • 1.1 Noções Básicas de Algebra Linear 49

    Prova. Se os autovalores forem simples é imediato. Se λ tiver multiplicidade algébricam então, pelo Teorema 1.34 de Gram–Schmidt, existem m autovetores ortogonais asso-ciados a λ que formam uma base para N (A− λI).

    2

    Seja A uma matriz normal e S = {x1, . . . ,xn} uma base ortonormal formada pelosautovetores normalizados de A. Então a matriz dos autovetores X = [x1 · · ·xn] é umamatriz ortogonal X−1 = XT (unitária X−1 = X† se A ∈Mn (C)). Verifique ! Neste caso,A é diagonalizavel pela transformação unitária de similaridade

    D = X†AX (1.49)

    com D = diag {λ1, . . . , λn}. Dado uma matriz A ∈ Mn (C), o conjunto [A] de todas asmatrizes da forma

    B = U †AU ,

    para alguma matriz unitária U , forma uma classe de equivalência.

    Teorema 1.54 Uma matriz A é normal se e somente se for unitariamente equivalentea uma matriz diagonal D.

    Nem toda matriz A ∈ Mn (C) é unitariamente equivalente a uma matriz diagonal Dmas pode–se, no entanto, afirmar

    Teorema 1.55 (Shur–Toeplitz) Toda matriz pertencente a Mn (C) é unitariamenteequivalente a uma matriz triangular superior.

    Segue deste resultado:

    Teorema 1.56 A é uma matriz normal se e somente se

    AA† = A†A (1.50)

    Prova. (=⇒) Se A for normal, segue do Teorema 1.54 que A é unitariamente equivalentea uma matriz diagonal: A = X†DX. Por conseguinte

    AA† = X†DXX†DX = X†DDX = X†DDX =(X†DX

    )†X†DX = A†A ,

    pois a relação de comutação DD = DD é sempre satisfeita para uma matriz diagonalD.

    O sentido reverso (⇐=), pelo Teorema 1.55, existe uma transformação unitária Utal que B = U †AU é triangular superior. Se A satisfaz (1.50) então verifica–se queBB† = B†B. Esta equação combinada com o fato de B ser triangular superior implicaque B é diagonal e, portanto, uma matriz normal.

    2

    Note que qualquer matriz hermiteana ou unitária satisfaz a relação (1.50). Conse-quentemente,

  • 50 1. Sistemas Dinâmicos Lineares

    Corolário 1.57 Toda matriz hermitiana ou unitária pode ser diagonalizada por umatransformaçao unitária (1.49).

    Segue das relações

    A† =(X†DX

    )†= X†DX ,

    A = X†DX

    e A† = A que D = D. Logo λj = λj (veja também Teorema 1.51) e o espectro σ(A) ={λ1, . . . λn} de uma matriz hermiteana A é real. O espectro σ(U) de uma matriz unitáriaU se encontra no ćırculo unitário {z ∈ C : |z| = 1}. Isto segue pois, se Ux = λx com‖x‖2 = (x,x) = 1, então

    |(Ux, Ux)| = |λ|2 (x,x) = |λ|2 = 1

    (note que U †U = I).Um outro grupo de matrizes relevantes:

    Proposição 1.58 P ∈Mn (R) é uma matriz de projeção se P for idempotente

    P 2 = P . (1.51)

    Se P for idempotente, então

    1. (I − P ) é idempotente;

    2. N (P ) = I (I − P );

    3. N (I − P ) = I (P ) .

    Já hav́ıamos verificado anteriormente (veja Exerćıcio 1.36) que o operador P deprojeção ortogonal introduzido no método de Gram–Schmidt (veja equação (1.30)),satisfaz a propriedade (1.51) e disso resulta

    (I − P ) (I − P ) = I − 2P + P 2 = I − 2P + P = I − P .

    Deixamos a verificação das demais propriedades 2 . e 3 ., bem como a demonstração doseguinte resultado, como exerćıcios.

    Teorema 1.59 Toda matriz idempotente P é uma matriz simples.

    Notamos que todo vetor x ∈ E pode ser escrito como x = x1 + x2 onde x1 = Pxe x2 = (I − P )x. Pelas propriedades 2 . e 3 da Proposição 1.58, x1 ∈ N (I − P )e x2 ∈ N (P ) e, consequentemente, E = N (P ) +̇N (I − P ) é a soma direta de doisespaços nulos pois 0 é o único vetor comum a ambos subespaços: (I − P )x = x−Px = 0e Px = 0 tem uma única solução x = 0. De onde se conclui N (I − P )∩N (P ) = {0}.

  • 1.1 Noções Básicas de Algebra Linear 51

    Como P é simples, P é diagonalizavel. Antes de proceder nesta direção, daremos umarepresentação matricial para o operador de projeção (1.30). É importante notar queo operador P de projeção pode não ser ortogonal: P é um projetor ortogonal se esomente se P 2 = P e P † = P .

    Seja {e1, . . . , en} uma base ortonormal de Cn e seja Pk o projetor no subespaço Wkgerado pelos k primeiros vetores. Segundo a definição (1.30), temos

    Pkx = (x, e1)e1 + · · ·+ (x, ek)ek= e1(e1,x) + · · ·+ ek(ek,x)= E1x + · · ·+ Ekx

    (1.52)

    onde, para todo l = 1, . . . , k,

    El = el (el)† =

    e1l...enl

    (e1l · · · enl

    )(1.53)

    é a matriz obtida pela multi