Kap. 5 Egenverdier og egenvektorer

Kap. 5 Egenverdier og egenvektorer
I
Egenverdier, egenvektorer og diagonaliserbarhet er sentrale
begreper for kvadratiske matriser.
I
Mye er kjent fra tidligere, skal repetere dette og gå videre.
I
Sammenhengen med basiser og basisskifte skal vi se nærmere
vi på i avsnitt 5.4 og i Notat 2.
I
Anvendelser til dynamiske systemer og systemer av
differensiallikninger kommer på slutten av kapitlet.
I
Vil også si litt om numerisk approksimasjon av egenverdier og
egenvektorer.
1 / 18
5.1 Egenverdier og egenvektorer
En egenvektor for en n × n matrise A er en vektor x i Rn slik at
x 6= 0 og A x = λ x for en skalar λ. Skalaren λ kalles en egenverdi
for A, og vi sier at x er en egenvektor tilhørende egenverdien λ.
Eksempel. La P være en stokastisk matrise og la q være en
likevektsvektor for P. Vi har da P q = q = 1 q. Så q er en
egenvektor for P tilhørende egenverdien 1.
Anta at A er en n × n matrise og at λ er en skalar. Vi setter
EλA = x ∈ Rn | A x = λ x
Merk at EλA = Nul (A − λ I ). Spesielt er EλA et underrom av Rn .
Videre: λ er en egenverdi for A ⇔ EλA 6= {0}. Når λ er en
egenverdi for A sier vi at EλA er egenrommet til A assosiert med λ.
2 / 18
Merk:
I
Skal snart se at en n × n matrise A har høyst n forskjellige
egenverdier.
I
Men A trenger ikke å ha noen egenvektor og egenverdi.
Eksempel: en 2 × 2 rotasjonsmatrise med en vinkel forskjellig
fra 0 og π.
I
Derimot vil A alltid ha komplekse egenverdier med tilhørende
komplekse egenvektorer hvis slike tillates; se avsn. 5.5.
Matlab-kommandoen eig(A) angir egenverdiene til en kvadratisk
matrise A. Kommandoen [V, D] = eig(A), gir egenvektorene
(kolonner i V ) og diagonal matrise D med egenverdiene på
diagonalen. Det finnes effektive numeriske metoder for å beregne
egenverdier og egenvektorer, bl.a. den såkalte QR-algoritmen, som
vi ser litt på senere.
3 / 18
Litt om poenget med egenverdier og egenvektorer
Betrakt en n × n matrise A og x0 ∈ Rn . Definer en følge {xk } i Rn
iterativt ved xk+1 = A xk (k = 0, 1, 2, . . .)
Dermed: xk = Ak x0 , k = 0, 1, 2, . . .
Anta nå at x0 er en egenvektor for A, tilhørende egenverdien λ. Da
blir
Ak x0 = λk x0 ,
k = 0, 1, 2, . . .
Så
xk = Ak x0 = λk x0 ,
k ≥0
4 / 18
La A være en n × n matrise og λ være en skalar.
Følgende utsagn er ekvivalente: (i) λ er en egenverdi for A, (ii)
Nul (A − λ I ) 6= {0}, (iii) |A − λ I er ikke invertibel, og (iv)
det(A − λ I ) = 0.
Spesielt: 0 er en egenverdi for A ⇔ A er ikke invertibel
⇔ det(A) = 0.
TEOREM 1: Egenverdiene til en triangulær kvadratisk matrise er
dens diagonalelementer.
Eksempel: egenverdiene til en diagonalmatrise er
diagonalelementene.
TEOREM 2: La A være en n × n matrise og anta at v1 , v2 , . . . , vp
er egenvektorer som tilhører forskjellige egenverdier λ1 , λ2 , . . . , λp .
Da er v1 , v2 , . . . , vp lineært uavhengige.
5 / 18
5.2 Den karakteristiske likningen
Det karakteristiske polynomet til en n × n matrise A er polynomet
pA gitt ved pA (λ) = det(A − λI ). Den karakteristiske likningen til
A er likningen pA (λ) = 0. pA (λ) er et polynom i variabelen λ av
grad n, med ledende koeff. lik (−1)n .
Siden λ er en egenverdi for A ⇔ det (A − λI ) = 0 , har vi at λ
er en egenverdi for A ⇔ pA (λ) = 0 Dermed kan A ha høyst n
forskjellige egenverdier. Komplekse røtter i pA kalles komplekse
egenverdier til A. 0.95 0.1
Eksempel. La A =
(stokastisk matrise). Da er
0.05 0.9
pA (λ) = . . . = λ2 − 1.85λ + 0.85 = (λ − 1)(λ − 0.85) .
Egenverdiene til A er dermed 1 og 0.85.
6 / 18
Matlab: Betrakt polynomet p(λ) = λ2 − 6λ + 5. Kommandoen
p = [1 − 6 5] definerer polynomet i Matlab. Finner røttene til p
ved kommandoen roots(p) Her får vi: ans = 5 1.
Hvis A er en n × n matrise, vil kommandoen poly(A) regne ut
koeffisientene til polynomet qA (λ) = det(λI − A).
Merk at
qA (λ) = det(−(A − λI )) = (−1)n pA (λ).


1 2 3
Eksempel. La A =  4 5 6  .
7 8 9
Kommandoen poly(A) gir :
1.0000
-15.0000
-18.0000
Det betyr at
-0.0000
pA (λ) = (−1)3 qA (λ) = −λ3 + 15λ2 + 18λ = −λ (λ2 − 15λ − 18)
Kommandoen roots([1 -15 -18 0]) gir at røttene i qA (og
pA ), og dermed egenverdiene til A, er tilnærmet lik 0, 16.12 og
-1.12. Vi får det samme med kommandoen eig(A).
7 / 18
Definisjon. Den (algebraiske) multiplisiteten til en egenverdi λ for
en kvadratisk matrise A er multiplisiteten av λ som en rot i pA .
Eksempler. I forrige eksempel har alle tre egenverdiene mult. lik 1.
Anta at pA (λ) = λ3 (λ + 1) (λ − 2)4 Egenverdien 0 har da mult. 3,
−1 har mult. 1 og 2 har mult. 4.
Merk: Det kan vises at dim (EλA ) ≤ multiplisiteten til λ Det gir
ofte nyttig informasjon.
Similaritet To n × n matriser A og B kalles similære hvis det fins
en invertibel n × n matrise P slik at P −1 AP = B. (Dette er
ekvivalent med at A = PBP −1 ).
Avbildningen A → P −1 AP kalles en similaritetstransformasjon.
TEOREM 4: Similære matriser har samme determinant og samme
karakteristiske polynom; spesielt har de samme egenverdier (med
samme multiplisitet).
8 / 18
Sluttkommentarer:
I
For store matriser er det vanligvis ikke å anbefale å prøve å
finne egenverdiene ved å beregne røttene til det karakteristiske
polynomet. Det å finne røtter i polynomer av høy grad er
nemlig numerisk vanskelig. Matlab gjør faktisk om problemet
til det å bestemme egenverdiene til en passende matrise!
I
Det finnes egenverdi-algoritmer som baserer seg på gjentatte
similaritetstransformasjoner; da bevares egenverdiene (ved
Teorem 4). Idéen er å omforme A ved similaritet til en
triangulær matrise; klarer vi det står jo egenverdiene på
diagonalen! Dette er strategien bak QR-algoritmen.
9 / 18
5.3 Diagonalisering
Hvis en matrise A er similær med en diagonalmatrise D, så har vi
funnet egenverdiene, og kan f.eks. lett beregne Ak . Når er dette
tilfelle? Vi skal se på dette, og senere bruke resultatene til dekople
dynamiske systemer.
Anta at P −1 AP = D der P er invertibel og D er en
diagonalmatrise. Da er altså A og D similære og egenverdiene til A
må være diagonalelementene til D.
Hvordan finne Ak på en smart måte: har A = PDP −1 og derfor
A2 = PDP −1 PDP −1 = PD 2 P −1
og ved induksjon får vi
Ak = PD k P −1 .
Hvis D = diag (λ1 , λ2 , . . . , λn ), så er D k = diag (λk1 , λk2 , . . . , λkn ).
Lett å beregne Ak ut fra dette. Ser at Ak og D k er similære. Så
egenverdiene til Ak er λki der λi (i ≤ n) er egenverdiene til A.
10 / 18
Definisjon. Vi sier at en kvadratisk matrise A er diagonaliserbar
dersom A = PDP −1 for en invertibel matrise P og en
diagonalmatrise D.
TEOREM 5 En n × n-matrise A er diagonaliserbar hvis og bare
hvis den har n lineært uavhengige egenvektorer.
Dersom A = PDP −1 , der P er invertibel og D diagonalmatrise, så
er kolonnevektorene til P n lineært uavhengige egenvektorer for A.
Bevis: A = PDP −1 er ekvivalent med AP = PD. Og dette betyr at
Axj = λj xj der xj er j’te kolonne i P og D = diag (λ1 , λ2 , . . . , λn ).
Resultatet følger direkte fra dette.
Følgende matrise kan ikke diagonaliseres:
0 1
A=
0 0
Teorem 5 leder til en metode for å diagonalisere en matrise (dvs.
finne P og D som over). Metoden er egnet for håndregning på
svært små matriser, eller hvis matrisen har en ”passende enkel”
struktur.
11 / 18
”Minimetode” for diagonalisering av en matrise A:
1. Finn egenverdiene til A: bestem røttene til det karakteristiske
polynomet pA .
2. Finn for hver egenverdi en tilhørende egenvektor: løs det
tilhørende lineære likningssystemet (finn alle løsninger). Velg
ut, om mulig, n lineært uavhengige slike egenvektorer.
3. La P være matrisen med disse egenvektorene som kolonner,
og la D være diagonalmatrisen med egenverdiene på
diagonalen.
TEOREM 6: Hvis en n × n-matrise A har n distinkte egenverdier,
så er A diagonaliserbar.
Eks. A triangulær med distinkte diagonalelementer, f.eks.


1
6 7
A =  0 −2 1 
0
0 7
12 / 18
A kan ha færre enn n distinkte egenverdier, og vi har følgende:
TEOREM 7: La A være en n × n matrise med distinkte egenverdier
λ1 , λ2 , . . . , λp .
1. For k ≤ p er dimensjonen til egenrommet for λk mindre enn
eller lik multiplisiteten til egenverdien λk . (Vi sier: geometrisk
multiplisitet er mindre enn eller lik algebraisk multiplisitet.)
2. A er diagonaliserbar hvis og bare hvis summen av
dimensjonene til de distinkte egenrommene er lik n, og dette
skjer hvis og bare hvis geometrisk og algebraisk multiplisitet er
den samme for hver egenverdi.
3. Hvis A er diagonaliserbar og Bk er en basis for egenrommet
for λk (k ≤ p), så er ∪k Bk en egenvektor basis for IRn .
13 / 18
I
Kan ut fra Teorem 7 utvide ”minimetoden” til å diagonalisere
(små) matriser. Hvis f.eks. en egenverdi λ har algebraisk
multiplisitet 2, så må vi bestemme det tilhørende egenrommet
og finne 2 lineært uavhengige basisvektorer for dette. Hvis
dimensjonen er 1, så vet vi fra teoremet at A ikke er
diagonaliserbar.
I
Betrakt matrisen
A=
1 2
0 1
A er ikke diagonaliserbar! Fordi: Skriv ut Ax = λx; gir at
eneste egenverdi er λ = 1 med alg.mult. 2, og tilhørende
egenrom Span {e1 }. Så A har ikke to lin. uavh. egenvektorer.
14 / 18
5.4 Egenvektorer og lineære avbildninger
Målet her er å forstå sammenhengen mellom diagonalisering av en
matrise og egenskaper ved den tilhørende lineær avbildningen.
Husk: Enhver lineær avbildning T kan representeres ved en
matrise straks vi har valgt en basis for hvert vektorrom. T svarer
da til matrisemultiplikasjon.
Matrisen til en lineær avbildning
La V og W være vektorrom av dimensjon hhv. n og m, og la
hhv. B = {b1 , b2 , . . . , bn } og C = {c1 , c2 , . . . , cm } være ordnede
basiser for disse to rommene.
For hver x ∈ V har vi koordinatvektoren
[x]B ∈ IRn , si
Pn
[x]B = (r1 , r2 , . . . , rn ). Så x = j=1 rj bj .
P
P
[T (x)]C = [T ( nj=1 rj bj )]C = [ nj=1 rj T (bj )]C
P
= nj=1 rj [T (bj )]C = M[x]B .
der M er matrisen for T relativt til basisene B og C:
M = [ [T (b1 )]C [T (b2 )]C · · · [T (bn )]C ] ∈ IRm×n .
15 / 18
Lineær avbildninger fra V til V
Anta nå at W = V og C = B. Da kalles matrisen M for matrisen
for T relativt til B, eller bare B-matrisen for T . Den betegnes med
[T ]B . Denne matrisen avhenger av valg av basis B. Skal nå se en
viktig situasjon der B-matrisen blir spesielt enkel!
Lineære avbildninger på IRn
TEOREM 8: (Diagonal matrise repr.) La A = PDP −1 der D er
en diagonalmatrise og P er invertibel. La B være den ordnede
basisen bestående av kolonnene i P. Da er D lik B-matrisen for
lineær avbildningen T : x → Ax.
Her er kolonnene i P egenvektorer for A og diagonalelementene i D
er tilhørende egenverdier.
16 / 18
Eks. Betrakt


7 −4
1
2 −1  .
A= 3
0
6 −2
Da er A = PDP −1 der






1 1 1
3 −3
1
4 0 0
5 −2  , D =  0 2 0  .
P =  1 2 3  , P −1 =  −3
1 3 6
1 −2
1
0 0 1
Så B-matrisen for A, der B er kolonnene i P, er diagonalmatrisen
D.
17 / 18
Similaritet
I
Så hvis A er similær med C , dvs. A = PCP −1 for en invertibel
matrise P, og B er basisen som består av kolonnene i P, så er
C lik B-matrisen for avbildningen x → Ax.
I
Og, omvendt, enhver B-matrise for x → Ax vil være similær
med A.
I
Så matriser som er similære med A er nettopp de matrisene
som er matriserepresentasjoner av den tilhørende lineær
avbildningen i ulike basiser.
18 / 18