Skinnemarkise Sun 3000.pdf pdf

1 Løsning og mindste kvadraters løsninger af lineære ligningssystemer
Def. Linære ligningssystemer
Et lineært ligningssystem er et system af m ligninger i n ubekendte, hvor disse kan skrives som:
a11 x1  a12 x2  ...  a1n xn  b1
...
am1 x1  am 2 x2  ...  amn xn  bm
Disse systemer kan også skrives på matrix form således:
Ax  b
Hvor løsningsmængden for systemer er de x for hvilket systemet er konsistent. Hvis systemet ingen
løsninger har, er løsningsmængden tom – det siges at systemet er inkonsistent.
Teorem 1.2.1 [L]
Et m  n homogent system af lineære ligninger har en ikke-triviel løsning hvis n  m .
Bevis Teorem 1.2.1 [L]
Et homogent system er altid konsistent ( x  0 er altid en løsning). REF formen af matricen har højst m
ikke-nul rækker. Derved er der også maksimalt m pivoter. Siden der er n ubekendte og n  m så må der
være en eller flere frie variabler. De frie variabler kan derfor blive givet arbitrære værdier og for enhver
værdi af de frie variable er der en løsning til systemet.
Def. Mindste kvadrat
Mindste kvadrater er en metode vi bruger til at lave et best fit af en given mængde data, således at man
kan strukturere disse som eksempelvis en ret linje eller noget tilsvarende.
Givet et m  n lineært ligningssystem Ax  b med m  n (overdetermineret), så kan vi ikke generelt
forvente at finde et x 
residual:
n
for hvilket Ax  b . Derfor hvis b 
m
, så for ethvert x 
n
kan vi forme et
r  x   b  Ax
Distancen mellem b og Ax er givet ved:
b  Ax  r  x 
Hvor vi ønsker at finde en vektor x 
n
for hvilket r  x  vil være minimal. En vektor xˆ der gør dette
siges at være en mindste kvadraters løsning til systemet Ax  b . Det følgende teorem garanterer at en
sådan tætteste vektor p ikke blot eksisterer, men er unik:
1
Teorem 5.3.1 [L]
Lad S 
være et underrum og b 
m
m
. Da er projektionen p af b på S unik og tættest på b . Altså:
b  y  b  p y  S ^ y  p
En vektor p  S vil desuden være tættest på en vektor b 
m
 b  pS
Bevis Teorem 5.3.1
Vi ved at
m
 S  S  . Vi kan derfor skrive b 
m
unikt som summen:
b pz
Hvor p  S og z  S  . Lad y  S ^ y  p , da gælder der
(fra b trækkes p, igen lægges p til og y trakkes fra):
b  y  b  p    p  y 
2
2
Da b  p  z  S  og p  y  S giver Pythagoras’ lov (lav eventuelt tegning):
b y  b p  p y
2
hvor p  y
2
2
2
 0 da p  y hvilket giver
b y  b p
2
2
For at vise at b  p  S  hvis p er vektoren tættest på b , antag at q  S ^ b  q  S  , da er q  p , og så
følger samme argument som overstående (med y  q )
bq  b p
2
2
Proposition 5.2.4 [N]
Systemet AT Ax  AT b er konsistent, og z er en løsning til dette system  z er en mindste kvadraters
løsning til Ax  b .
Bevis Proposition 5.2.4
Lad p  PSø A  b 
Az  p  b  Az  Sø  A 

 b  Az  N  AT 
 AT  b  Az   0
 AT b  AT Az  0
 AT Az  AT b
Det vil sige z er en løsning til AT Az  AT b  Az  p hvor p er mindste kvadraters løsning til Ax  b .
2
Teorem 2.2.9 [N]
Lad V være et F vektorrum, lad v1 ,..., vn V og lad S  span  v1 ,..., vn  . Et element v  S kan
udtrykkes entydigt som en lineær kombination af v1 ,..., vn  v1 ,..., vn er lineært uafhængige.
Bevis Teorem 2.2.9
Da v  span  v1 ,..., vn  kan vi skrive v  a1v1  ...  an vn med a1 ,..., an  F .
Lad os antage at v også kan skrives som v  b1v1  ...  bnvn .
Så er
0  vv
  a1v1  ...  an vn    b1v1  ...  bn vn 
  a1  b1  v1  ...   an  bn  vn
Hvis v1 ,..., vn er lineært uafhængige vil ligningen 0  c1v1  ...  cnvn  c1  0,..., cn  vn . Dette vil sige at
ai  bi  0  ai  bi så v kan skrives unikt som en lineær kombination af v1 ,..., vn .
Hvis v1 ,..., vn er lineært afhænge vil ligningen 0  c1v1  ...  cn vn have en ikke-triviel løsning c1 ,..., c n så
0  c1v1  ...  c n vn og vi får at
v v0
 a1v1  ...  an vn  c1v1  ...  c n vn




 a1  c1 v1  ...  an  c n vn
Hvor ai  ci  ai for et eller andet i  1,..., n . Så v kan ikke skrives unikt hvis v1 ,..., vn er lineært
afhængige.
3
2 Vektorrum og underrum
Def. Underum
Et ikke-tomt delmængde S af et F vektorum V kaldes et underum hvis:
(tilsammen kaldet lukkethedsegenskaber)
C1: y  S , a  F : ay  S (skalamultiplikation)
C 2 : y, w  S : y  w  S (vekteraddition)
Def. Linear transformation
Lad V ,W være F vektorum.
En lineær transformation L : V  W er en afbildning som respekterer lineære strukturer, det vil sige
følgende er opfyldt:
v1 , v2 V , a1 , a2  F :
L  a1v1  a2v2   a1L  v1   a2 L  v2 
Def. Ker
Lad L : V  W være en linear transformation. Kernen af L er da
Ker  L   v V | L  v   0W 
Def. Billede
Lad L : V  W være en linear transformation, lad S  V være et underrum, da er billedemængden
L  S   w W | w  L  v  , v  S 
Teorem 4.1.1 [L]
Hvis L : V  W er en lineær transformation og S et underrum af V . Så er
1.
Ker  L  et underrum af V
2.
L  S  et underrum af W
Bevis teorem 4.1.1
For 1:
Ker  L  er en ikke-tom mængde da 0V V og 0W  L  0V  .
C1 (skalarmultiplikation): Lad v  Ker V  , a  F , da gælder
L  av   aL  v   a0w  0w  Ker  L 
C2 (vektoradition): v, w  Ker  L  , da gælder L  v  w  L  v   L  w  0W  0W  0W  Ker  L 
Ker  L  er da et underum.
4
For 2: L  S  er ikke-tom da 0W  L  0V   L  S  .
C1: Lad a  F , w  L  v  for et v  S , da gælder aw  aL  v   L  av  . Da av  S så L  av   L  S 
C2: Lad w1  L  v1  , w2  L  v2  for et v1 , v2  S , da gælder w1  w2  L  v1   L  v2   L  v1  v2  og da
v1  v2  S så L  v1  v2   L  S 
L  S  er da et underrum.
Def. Span
Lad V være et F vektorrum, v1 ,..., vn V udspænder V ( V  span  v1 ,..., vn  ) hvis og kun hvis enhver
vektor v V kan skrives som en linear kombination af v1 ,..., vn V
Teorem 3.4.1 [L]
Hvis span  v1 ,..., vn   V , så er ethvert sæt af m  n vektorer tilhørende V være lineært afhængige.
Bevis teorem 3.4.1
Det muligt at opskrive ui for i  1,..., m som en linear kombination af v1 ,..., vn .
n
ui   aij v j
j 1
For en vektor x V , da kan x skrives som en linear kombination af ui .
x  x1u1  ...  xmum
m
  xi ui
i 1
m
n
i 1
j 1
  xi  aij v j
n
 m

    xi aij  v j
j 1  i 1

 m


  xi aij   0 . Dette er et ligningssystem med m
j 1  i 1

n
Lad os prøve at løse det homogene ligningssystem
variable (ubekendte) og n ligninger. Da m  n er der flere ubekendte end der er ligninger. Da eksisterer
der en ikke-triviel løsning c   c1 ,..., cm  . Dette betyder at følgende gælder
T
m
n
i 1
j 1
c1u1  ...  cmum   ci ui   0v j  0
Derved er u1 ,..., um lineært afhængige.
5
Teorem 2.2.9 [N]
Lad V være et F vektorrum, lad v1 ,..., vn V og lad S  span  v1 ,..., vn  . Et element v  S kan
udtrykkes entydigt som en lineær kombination af v1 ,..., vn  v1 ,..., vn er lineært uafhængige.
Bevis Teorem 2.2.9
Da v  span  v1 ,..., vn  kan vi skrive v  a1v1  ...  an vn med a1 ,..., an  F .
Lad os antage at v også kan skrives som v  b1v1  ...  bnvn .
Så er
0  vv
  a1v1  ...  an vn    b1v1  ...  bn vn 
  a1  b1  v1  ...   an  bn  vn
Hvis v1 ,..., vn er lineært uafhængige vil ligningen 0  c1v1  ...  cnvn  c1  0,..., cn  vn . Dette vil sige at
ai  bi  0  ai  bi så v kan skrives unikt som en lineær kombination af v1 ,..., vn .
Hvis v1 ,..., vn er lineært afhænge vil ligningen 0  c1v1  ...  cn vn have en ikke-triviel løsning c1 ,..., c n så
0  c1v1  ...  c n vn og vi får at
v v0
 a1v1  ...  an vn  c1v1  ...  c n vn




 a1  c1 v1  ...  an  c n vn
Hvor ai  ci  ai for et eller andet i  1,..., n . Så v kan ikke skrives unikt hvis v1 ,..., vn er lineært
afhængige.
6
3 Lineær uafhængighed
Def. Lineær uafhængighed
Lad V være et F vektorrum, og lad v1 ,..., vn V
Et sæt v1 ,..., vn af vektorer er lineært uafhængige  c1v1  ...  cnvn  0  c1  0,..., cn  0
Hvis der findes en ikke-triviel løsning til ligningssystemet kaldes v1 ,..., vn afhængige og en af vektorerne kan
skrives som en linearkombination af de andre.
Def. Span
Lad V være et F vektorrum, v1 ,..., vn V udspænder V ( V  span  v1 ,..., vn  ) hvis og kun hvis enhver
vektor v V kan skrives som en linear kombination af v1 ,..., vn V
Teorem 3.3.1 [L]
Lad x1 ,..., xn 
n
og lad X   x1 ,..., xn  . Så gælder der
X er singulær  x1 ,..., xn er lineært afhængige
Bevis Teorem 3.3.1
Vi har en ligning
c1 x1  ...  cn xn  0
Der kan skrives på matrixform:
Xc  0
Vi ved at hvis X er invertibel, så har ligningen Xc  0 kun løsningen c  0 , da
Xc  0  X 1 Xc  X 1 0  c  0 .
Vi ved også at hvis ligningen Xc  0 kun har løsningen c  0 så er X invertibel. (Sætning 1.4.8 [N])
7
Teorem 3.4.1 [L]
Hvis span  v1 ,..., vn   V , så er ethvert sæt af m  n vektorer tilhørende V være lineært afhængige.
Bevis teorem 3.4.1
Det muligt at opskrive ui for i  1,..., m som en linear kombination af v1 ,..., vn .
n
ui   aij v j
j 1
For en vektor x V , da kan x skrives som en linear kombination af ui .
x  x1u1  ...  xmum
m
  xi ui
i 1
m
n
  xi  aij v j
i 1
j 1


    xi aij  v j
j 1  i 1

n
m
 m


  xi aij   0 . Dette er et ligningssystem med m
j 1  i 1

n
Lad os prøve at løse det homogene ligningssystem
variable (ubekendte) og n ligninger. Da m  n er der flere ubekendte end der er ligninger. Da eksisterer
der en ikke-triviel løsning c   c1 ,..., cm  . Dette betyder at følgende gælder
T
m
n
i 1
j 1
c1u1  ...  cmum   ci ui   0v j  0
Derved er u1 ,..., um lineært afhængige.
8
Teorem 2.2.9 [N]
Lad V være et F vektorrum, lad v1 ,..., vn V og lad S  span  v1 ,..., vn  . Et element v  S kan
udtrykkes entydigt som en lineær kombination af v1 ,..., vn  v1 ,..., vn er lineært uafhængige.
Bevis Teorem 2.2.9
Da v  span  v1 ,..., vn  kan vi skrive v  a1v1  ...  an vn med a1 ,..., an  F .
Lad os antage at v også kan skrives som v  b1v1  ...  bnvn .
Så er
0  vv
  a1v1  ...  an vn    b1v1  ...  bn vn 
  a1  b1  v1  ...   an  bn  vn
Hvis v1 ,..., vn er lineært uafhængige vil ligningen 0  c1v1  ...  cnvn  c1  0,..., cn  vn . Dette vil sige at
ai  bi  0  ai  bi så v kan skrives unikt som en lineær kombination af v1 ,..., vn .
Hvis v1 ,..., vn er lineært afhænge vil ligningen 0  c1v1  ...  cn vn have en ikke-triviel løsning c1 ,..., c n så
0  c1v1  ...  c n vn og vi får at
v v0
 a1v1  ...  an vn  c1v1  ...  c n vn




 a1  c1 v1  ...  an  c n vn
Hvor ai  ci  ai for et eller andet i  1,..., n . Så v kan ikke skrives unikt hvis v1 ,..., vn er lineært
afhængige.
9
4 Basis for vektorrum; koordinatisering
Def. Ordnet basis
Lad V være et F vektorrum, og lad v1 ,..., vn V
v1 ,..., vn  er en ordnet basis for V
hvis
1.
v1 ,..., vn er lineært uafhængige
2.
v1 ,..., vn udspænder V
Normalt er rækkefølgen irrelevant, men i visse tilfælde kan det være nødvendigt at have dem ordet (Hvilket
det bl.a. er for koordinatisering)
Teorem 3.1.3 [N]
Lad V være et F vektorrum, V  0 , som er udspændt af endelig mange vektorer v1 ,..., vn . Da har V
en basis indeholdt i v1 ,..., vn 
Bevis Teorem 3.1.3 [N]
Induktion i n . Altså induktion i antallet af vektorer i den udspændende mængde.
Basis n  1 :
Vi ved at V  0 og at V  span  v1  , derfor er v1  0 så v1 er lineært uafhængige og derfor en basis
for V .
Induktionshypotese
Vi antager at udsagnet gælder for et vektorrum udspændt af n  1 vektorer.
Induktionsskridt
Vi vil gerne vise at det gælder for et vektorrum udspændt af n vektorer.
Lad V  span  v1 ,..., vn  .
Hvis v1 ,..., vn er lineært uafhængige, så er v1 ,..., vn  en basis for V .
Hvis v1 ,..., vn er lineært afhængige, så kan én af dem skrives som en lineærkombination af de andre. Efter
omnummerering kan vi antage at vn  c1v1  ...  cn1vn1 . Men så er V  span  v1 ,..., vn1  og ifølge
induktionshypotesen har V en basis indeholdt i v1 ,..., vn 1 .
I begge tilfælde har V en basis indeholdt i v1 ,..., vn  .
Def. Koordinatisering
Lad   v1 ,..., vn  være en ordnet basis for V . Lad v V ; v kan skrives entydigt som en lineær
kombination af v1 ,..., vn , v  c1v1  ...  cnvn .
10
c1 
 
n
Der findes således et entydigt element ...  F , som angiver koordinaterne for v mht. V . Dette kaldes
 
cn 
c1 
 
koordinatvektoren for v mht. V og vi skriver  v   ...
 
cn 
Lemma 3.3.2 [N]
Koordinatisering bevarer lineær struktur, dvs:
1.
2.
v  w  v   w
 rv  r v
Bevis Lemma 3.3.2
1:
Lad v, w  , skriv v  c1v1  ...  cnvn , w  d1v1  ...  dn vn .
Da er v  w   c1  d1  v1  ...   cn  dn  vn og så gælder der
c1  d n  c1   d1 
v  w  ...   ...   ...   v    w
cn  d n  cn   d n 
2:
Lad v  , skriv v  c1v1  ...  cnvn da er rv  rc1v1  ...  rcnvn og
 rc1 
c1 


 rv  ...   r ...   r v 
 rcn 
cn 
Proposition 3.3.7 [N]
Lad Ub  u1 ,..., un  ,Vb  v1 ,..., vn  være to ordnede baser for et F vektorrum W .
Lad K  Matn,n  F  være givet ved søjleform som
u1  ...un  
Vb 
 Vb
Der gælder
1.
2.
K er invertibel
w W :  wV  K  wU
b
3.
b
K er den entydige matrix i Matn,n  F  således at  2  gælder.
11
Bevis Proposition 3.3.7
1:
 x1 
 
Antag at K ...  0 så
 
 xn 
0  x1 u1 V  ...  xn un V
b
  x1u1  ...  xnun V
b
B
Idet at koordinatisering bevarer lineær struktur.
Så x1u1  ...  xnun  0 og da u1 ,..., un er lineært uafhængige, er den eneste løsning til Kx  0 løsningen
x  0 . Da x  0 er den enste løsning er K invertibel.
2:
Vi udtrykker ui som en lineær kombination af v1 ,..., vn
ui  k1i v1  ...  kni vn hvor
 k1i 
...   u
   i Vb som er den i’te søjle i K
 kni 
Skriv w  c1u1  ...  cnun så
 wU
b
c1 
 ... 
cn 
Vi indsætter ui
w  c1  k11v1  ...  kn1vn   ...  cn  k1nv1  ...  knnvn 
  c1k11  ...  cn k1n  v1  ...   c1kn1  ...  cn knn  vn
så
 wV
b
 k11c1  ...  k1n cn 
  Kc  K w
 
 Ub

 kn1c1  ...  knn cn 
12
3:
Antag at  wV  K '  wU for alle w W
b
b
Dette gælder specielt for ui for i  1,..., n
1' te søjlei K  ui V
b
 K ' ui U  K ' ei  ì ' te søjlei K '
b
K og K ' har altså samme søjler og derfor er K '  K .
Note for bevis:
ui U
b
0

...



 ei  1 i ' te plads   da ui udtrykket i sin egen base er 1 ui .


...

0



13
5 Matricer og lineære transformationer
Def. Linear transformation
Lad V ,W være F vektorrum.
En lineær transformation L : V  W er en afbildning som respekterer lineære strukturer, det vil sige
følgende er opfyldt:
L  a1v1  a2v2   a1L  v1   a2 L  v2 
v1 , v2 V , a1 , a2  F :
Sætning 4.2.1 [N]
Lad L : F n  F m være en lineær transformation. Definer M  L   Matm,n  F  ved
M  L    L  e1  ,..., L  en  
Så er L  x   M  L  x for alle x  F n . M  L  er den entydige matrix med denne egenskab.
Bevis Sætning 4.2.1
Lad x  F n , x kan da skrives som x  x1e1  ...  xn en .
Vi beregner der lineær transformation på denne
L  x   L  x1e1  ...  xn en 
 x1 L  e1   ...  xn L  en 
 x1 
  L  e1  ,..., L  en   ... 
 xn 
 M  L x
Antag at der nu findes en anden matrix M '  L   Matm,n  F  med L  x   M '  L  x . Så gælder der at
ì ' te søjlei M  L   L  e   M '  L  e  ì ' te søjlei M '  L 
i
i
Søjlerne i M  L  og M '  L  er ens, og da er M '  L   M  L  . M  L  er da den entydige matrix med
denne egenskab.
14
Diagram
Vi vil gerne se at dette diagram kommuterer:
Sætning 4.2.4 [N]
Lad V ,W være F vektorrum. Lad Vb  v1 ,.., vn  og Wb   w1 ,..., wn  være ordnede baser for V og W .
Lad L : V  W være en linear transformation. Definer
MWb ,Vb  L     L  v1 W  ,...,  L  vn  W 
b 
b 

Så er  L  v  
Wb
 MWb ,Vb  L  v V for alle v V , og at MWb ,Vb  L  er den entydige matrix med denne
b
egenskab.
Bevis Sætning 4.2.2
Lad v V så kan v skrives som v  x1v1  ...  xn vn og derved er
v V
b
 x1 
 ... 
 xn 
Lav nu den lineære transformation på v .
L  v   L  x1v1  ...  xn vn 
 x1 L  v1   ...  xn L  vn 
Lad os nu se på koordinatiseringen af denne
 L  v  W   x1 L  v1   ...  xn L  vn  W
b
b
 x1  L  v1  W  ...  xn  L  vn  W
b
b
 x1 
   L  v1  W ,...,  L  vn  W  ... 
b
b 

 xn 
 M Wb ,Vb  L   v V
b
15
Lad os nu antage der findes en anden matrix M 'Wb ,Vb  L   Matm,n  F  hvor  L  v    M 'Wb ,Vb  L   x V
Wb
b
Dette gælder specielt for v1 ,..., vn så
ì ' te søjlei M
Wb ,Vb
 L    L  vi W
b


 M 'Wb ,Vb  L  vi V  M 'Wb ,Vb  L  ei  ì ' te søjlei M 'Wb ,Vb  L 
b
Så søjlerne i MWb ,Vb  L  og M 'Wb ,Vb  L  er ens og derfor er M 'Wb ,Vb  L   MWb ,Vb  L  . Derfor er
MWb ,Vb  L  den entydige matrix med denne egenskab.
Def. Ker
Lad L : V  W være en linear transformation. Kernen af L er da
Ker  L   v V | L  v   0W 
Def. Billede
Lad L : V  W være en linear transformation, lad S  V være et underrum, da er billedemængden
L  S   w W | w  L  v  , v  S 
Teorem 4.1.1 [L]
Hvis L : V  W er en lineær transformation og S et underrum af V . Så er
3.
Ker  L  et underrum af V
4.
L  S  et underrum af W
Bevis teorem 4.1.1
For 1:
Ker  L  er en ikke-tom mængde da 0V V og 0W  L  0V  .
C1 (skalarmultiplikation): Lad v  Ker V  , a  F , da gælder
L  av   aL  v   a0w  0w  Ker  L 
C2 (vektoradition): v, w  Ker  L  , da gælder L  v  w  L  v   L  w  0W  0W  0W  Ker  L 
Ker  L  er da et underum.
For 2:
L  S  er ikke-tom da 0W  L  0V   L  S  .
C1: Lad a  F , w  L  v  for et v  S , da gælder aw  aL  v   L  av  . Da av  S så L  av   L  S 
C2: Lad w1  L  v1  , w2  L  v2  for et v1 , v2  S , da gælder w1  w2  L  v1   L  v2   L  v1  v2  og da
v1  v2  S så L  v1  v2   L  S 
L  S  er da et underrum.
16
6 Determinanter
Def. Determinant
Til enhver n  n matrix er det muligt at associere en skalar det  A .
For en 11 matrix er det  A  a11 .
For e n  n matrix er det  A  a11 A11  ...  a1n A1n hvor Aij   1
i j
det  M ij  og M ij er matricen A
med den i ’te række og j ’te søjle slettet.
Aij kaldes kofaktor for A og M ij kaldes minorer af A
Det er ligegyldigt om hvilken række eller søjle vi udvikler fra
Teorem 2.1.2 [L]
 
Lad A  Matn,n  F  , da gælder at det  A  det AT
Bevis Teorem 2.1.2
Dette er et induktionsbevis over n
Basis 11 :
 
Dette gælder trivialt da A  AT  det  A  det AT
Induktionshypotese:
Vi antager at det gælder for alle k  1 k  1 matricer.
Induktionsskridt:
Vi skal vise det gælder for alle k  k matricer. Lad A  Matk ,k  F  da er
det  A  a11 det  M11   a12 det  M12   ...  a1n det  M1n 
Her er alle M ij matricer k  1 k  1 og vi kan bruge induktionshypotesen:
det  A  a11 det  M11T   a12 det  M12T   ...  a1n det  M1nT 






 
Da a11 det M11T  a12 det M12T  ...  a1n det M1nT blot er det AT udviklet efter første søjle:
det  A  det  AT 
17
Teorem 2.2.2 [L]
A  Matn,n  F  er singulær  det  A  0
Bevis Teorem 2.2.2
Det er muligt at rækkereducere A til RREF H ved endeligt mange rækkeoperationer, så
H  Ek ...E1 A
Vi tager nu determinanten på begge sider
det  H   det  Ek ...E1 A
 det  Ek  ...det  E1  det  A
Da det  Ei   0 for i  1,..., k fordi Ei er en elementær rækkeoperation, så gælder der at
det  H   0  det  A  0 . Hvis A er singulær så vil H have en nul-række og vi kan udvikle langs denne
og få det  H   0 . Hvis A er invertibel så vil H  I og da er det  H   1 .
Teorem 2.3.1 [L]
(Cramers regel)
Lad A  Matn,n  F  være invertibel og lad b  F n . Lad Ai være matricen der fås ved erstatte den i ’te
søjle i A med b . Den entydige løsning xˆ til systemet Ax  b er givet ved;
xˆi 
det  Ai 
, i  1,..., n
det  A
Bevis Teorem 2.3.1
A1b er den entydige løsning til Ax  b . Så vi har
xˆ  A1b 
1
adj  A b
det  A
Og for i  1,..., n
xi 
1
 i ' te række i adj  A  b
det  A 

1
 A1ib1  ...  Anibn 
det  A 

det  Ai 
det  A 
18
7 Egenværdier og egenvektorer
Def. Egenværdi og egenvektor
Lad A  Matn,n  F  ,   F er en egenværdi for A hvis der findes x  F \ 0 , så
Ax   x
x kaldes da for en egenvektoren til A associeret til  .
Def. Egenrum
Ved omskrivning af definitionen ovenfor får vi
 A  I  x  0
Løsningsrummet N  A   I  kaldes for egenrummet til matricen A . Egenrummet består af alle
egenvektorer til en given egenværdi.
Def. Similaritet
Lad A, B  Matn,n  F  . B siges at være similar til A hvis der eksisterer en matrix S  Matn,n  F  så:
B  S 1 AS
Teorem 6.1.1 [L]
Lad A, B  Matn,n  F  være similare. Da er pA  pB
Bevis Teorem 6.1.1
Da A og B er similare kan B skrives som B  S 1 AS .
Lad os beregne pB   
pB     det  B   I 
 det  S 1 AS   I 
 det  S 1  A   I  S 
 det  S 1  det  A   I 
 det  S 1S  det  A   I 
 det  I  det  A   I 
 det  A   I 
 pA   
19
Def. Diagonaliserbar
Lad A  Matn,n  F  . A er diagonaliserbar hvis der eksisterer en invertibel matrix V  Matn,n  F  så
D  V 1 AV
Hvor D er diagonal.
Teorem 6.3.2 [L]
Lad A  Matn,n  F  . A er diagonaliserbar  A har n linear uafhængige egenvektorer
Bevis Teorem 6.3.2

Lad x1 ,..., xn være linear uafhængige egenvektorer til A med tilhørende egenværdi i . Lad
X   x1 ,..., xn  da er
AX   Ax1 ,..., Axn 
  1 x1 ,..., n xn 
1
  x1 ,..., xn  

 XD



n 
Da X har n lineært uafhængige søjlevektorer, så er X invertibel. Så
AX  XD  X 1 AX  X 1 XD  X 1 AX  D
A er altså diagonaliserbar.

A er nu diagonaliserbar og derfor
X 1 AX  D   XX 1  AX  XD  AX  XD
 d11

Lad X   x1 ,..., xn  , D 



 så

d nn 
 d11
XD   x1 ,..., xn  


  x d ,..., x d
n nn 
  1 11
d nn 
20
Da AX  XD (vi kan gange med e1 på begge sider for at pille første søjle ud) må d11 ,..., d nn må være
egenværdier for A med tilhørende egenvektorer x1 ,..., xn . Fordi X er invertibel er x1 ,..., xn linear
uafhængige.
21
8 Diagonalisering
Def. Egenværdi og egenvektor
Lad A  Matn,n  F  ,   F er en egenværdi for A hvis der findes x  F \ 0 , så
Ax   x
x kaldes da for en egenvektoren til A associeret til  .
Def. Diagonaliserbar
Lad A  Matn,n  F  . A er diagonaliserbar hvis der eksisterer en invertibel matrix V  Matn,n  F  så
D  V 1 AV
Hvor D er diagonal.
Teorem 6.3.2 [L]
Lad A  Matn,n  F  . A er diagonaliserbar  A har n linear uafhængige egenvektorer
Bevis Teorem 6.3.2

Lad x1 ,..., xn være linear uafhængige egenvektorer til A med tilhørende egenværdi i . Lad
X   x1 ,..., xn  da er
AX   Ax1 ,..., Axn 
  1 x1 ,..., n xn 
1
  x1 ,..., xn  

 XD



n 
Da X har n lineært uafhængige søjlevektorer, så er X invertibel. Så
AX  XD  X 1 AX  X 1 XD  X 1 AX  D
A er altså diagonaliserbar.

A er nu diagonaliserbar og derfor
X 1 AX  D   XX 1  AX  XD  AX  XD
22
 d11

Lad X   x1 ,..., xn  , D 



 så

d nn 
 d11
XD   x1 ,..., xn  


  x d ,..., x d
n nn 
  1 11
d nn 
Da AX  XD (vi kan gange med e1 på begge sider for at pille første søjle ud) må d11 ,..., d nn må være
egenværdier for A med tilhørende egenvektorer x1 ,..., xn . Fordi X er invertibel er x1 ,..., xn linear
uafhængige.
Def. Unitær
En matrix U  Matn,n 
 er unitær, hvis søjlerne i U
udgør en ortonormalbasis for
n
.
Def. Hermitisk matrix
En matrix A  Matn,n 
 er hermite’sk hvis
A  AH   A 
T
Teorem 11.1.9 [N]
(Schurs teorem)
Lad A  Matn,n 
 . Der findes en unitær matrix U  Matn,n   så U H AU
er en øvretrekantsmatrix.
Bevis Teorem 11.1.9
Beviser er ved induktion over n .
Basis n  1
Trivielt idet alle 11 matricer er øvretriangulære.
Induktionshypotese
Vi antager at udsagnet gælder for alle matricer i Matn1,n1 
.
Induktionsskridt
Lad A  Matn,n 
 og lad 1  være en egenværdi for A , med tilsvarende egenvektor v1  n .
Vi kan arrangere at v1  1 . v1 kan udvides til en basis for n , og ved at anvende Gram-schmidt på
denne basis, får vi en ortonormalbasis v1 ,..., vn  for n .
Lad U1  v1 ,..., vn   Matn,n   . U er da unitær ved konstruktion.
Vi har da (vi piller først søjle af U1H AU1 ud)
U1H AU1e1  U1H Av1  1U1H v1  1U1HU1e1  1e1
Vi kan altså skrive
23

U1H AU1   1
0
r
A1 
Hvor 0 er en søjlevektor og r er en rækkevektor med n  1 indgange.
Ifølge induktionshypotesen så eksisterer der en matrix C  Matn1,n1 
 så C H A1C
er øvre en
øvretrekantsmtrix.
Definer nu
1 0T 
U2  

0 C 
Matricen U 2 er unitær da de sidste n  1 søjler udgør en ortonormal mængde, og hver for sig er
ortogonale på den første søjle, som er en enhedsvektor. Så er produktet U  U1U 2 også unitær.
Vi vil vise at U H AU er øvre-triangulær. Da blokstørelserne i matricerne er ens kan vi bruge blok matrix
multiplikation.
U H AU  U 2H U1H AU1 U 2
1 0T  1 r  1 0T 



H
0 C   0 A1   0 C 
r  1 0T 
1



H
 0 C A1  0 C 
rC 

 1

H
 0 C A1C 
 rC 
 1

0 B 
Denne matrix er øvre triangulær da B (fra induktionshypotesen) er det.
24
Teorem 11.1.10 [N]
(Spektralsætning for hermite’ske matricer)
Lad A  Matn,n 
U  Matn,n 
 være hermite’sk. Så kan
A diagonaliseres, dvs der findes en unitær matrix
 så
U H AU
Er diagonal med reelle diagonalindgange.
Bevis Teorem 11.1.10
Ifølge Schurs sætning findes der en unitær matrix U  Matn,n 
 så U H AU  T
er en
øvretrekantsmatrix. T er hermite’sk da:
T H  U H AU 
H
 U H AH U
 U H AU
T
Men
t11
T   0
 0
0
t1n 
 t11
, TH  


 t1n
tnn 
0
0
0 
tnn 
Da må ti , j  0 for i  j og da ti ,i  ti ,i må ti ,i være reel. T er da en diagonalmatrix med reelle indgange.
25
9 Indre produkt
Def. Indre produkt
, :V V 
Et indre produkt på et reelt vektorrum V er en funktion
x, y, z V , a, b 
, således at for alle
:
1.
x, x  0 med lighed  v  0
2.
x, y  y, x
3.
ax  by, z  a x, z  b y, z
Def. Norm og ortogonalitet
Lad V være et vektorrum med indre produkt
, .
Normen, også kaldt længden af x V er da defineret til
x 
x, x
x, y V er ortogonale hvis
x, y  0
Teorem 6.1.4 [N]
(Pythagoras)
Lad V være et reelt vektorrum med indre produkt
uv  u  v
2
2
, , og lad u, v V være ortogonale. Da gælder
2
Bevis Teorem 6.1.4
Vi beregner u  v
2
ved brug af indre produkt , :
u  v  u  v, u  v
2
 u , u  v, v  2 u , v
 u , u  v, v
 u  v
2
2 u, v forsvinder da u  v .
26
2
Def. Vektorprojektion
Lad V være et reelt vektorrum med indre produkt , , og lad u, v V med v  0 så er
p
u, v
v
v, v
Vektorprojektionen af u på v .
Hjælpelemma 6.1.6 [N] (ingen bevis)
, , og lad u, v V med v  0 og lad p være
Lad V være et reelt vektorrum med indre produkt
vektorprojektionen af u på v .
u  p, v er ortogonale
2. u  p  u er et skalarmultiplum af v
1.
Teorem 6.1.7 [N]
(Cauchy-Schwarz uligheden)
Lad V være et reelt vektorrum med indre produkt , , og lad u, v V . Da gælder
u, v  u  v
Og lighed gælder hvis, og kun hvis, u, v er lineært afhængige.
Bevis Teorem 6.1.7
Hvis v  0 , da er u, v  0  u  v og u, v er klart lineært afhængige.
Hvis v  0 , så lad p være vektorprojektionen af u på v . u  p, v er da ortogonale (ifølge lemma 6.1.6)
og derfor er u  p, p det også. Pythagoras giver da:
u  u p  p
2
Hvilket giver at hvis man løser i forhold til p
2
2
2
og indsætter definitionen af p
u  u p  p
2
2
2
 u, v 

v
2
2
Som kan løses i forhold til u, v :
 u, v 
2
 u  v  u p  v  u  v
2
2
2
Hvilket da giver
u, v  u  v
27
2
2
2
2
Lighed gælder hvis, og kun hvis u  p
2
 0  u  p . Lemma 6.1.6 siger at så er u et skalarmultiplum af
V , og derfor lineært afhængige.
28
10 Ortogonalkomplement og projektion
Def. Ortogonalkomplement
Lad Y 
n
være et underrum
Y   x 
n
| xT y  0 y  Y 
Kaldes ortogonalkomplementet til Y .
Hjælpelemma 5.1.16 [N]
A  Matn,n 
 så er
Sø  A  N  AT 

Teorem 5.1.17.1 [N]
Lad S 
n
være et underrum.
 
Da er S også et underrum med dim S   n  dim  S 

Bevis Teorem 5.1.17.1
Hvis S  0 , så er S  
n
 
og dim S   n  dim  s   n  0  n .
Hvis S  0 , lad x1 ,..., xr  R n være en basis for S . Lad X   x1 ,..., xr  . Da er S  Sø  X  . Derfor må
 
S   Sø  X  Lemma 5.1.16 siger da at S   Sø  X   N X T . N  X T  er et underrum (ifølge


proposition 2.1.8).
Dimensionen udregnes:


dim N  X T   antal søjler i X T  rank  X T 
 n  rank  X 
 nr
 n  dim  S 
29
Teorem 5.1.17.2 [N]
Hvis S  0 , S 
en basis for
n
n
, og  x1 ,..., xr  er en basis for S og  xr 1 ,..., xn  er en basis for S , så er  x1 ,..., xn 

.
Bevis Teorem 5.1.17.2
Ifølge sætning 3.1.4 er det nok at vise at x1 ,..., xn er uafhængige. Antag at
c1 x1  ...  cr xr  cr 1 xr 1  ...  cn xn  0
Lad da y  c1 x1  ...  cr xr , z  cr 1xr 1  ...  cn xn . Så y  S , z  S  . Så har vi
y  z  0  y   z  y, z  S  S   0
Dette betyder altså at:
For y : c1 x1  ...  cr xr  0  c1  0,..., cr  0
For w : cr 1 xr 1  ...  cn xn  0  cr 1  0,..., cn  0
Tilsammen giver dette:
c1 x1  ...  cr xr  cr 1 xr 1  ...  cn xn  0  c1  0,..., cn  0 og derved er x1 ,..., xn uafhængige.
30
Teorem 5.5.7 [L]
Lad S være et underrum af et indreproduktrum V med indre produkt
Lad  x1 ,..., xn  være en ortonormalbasis for S og lad x V .
Hvis
n
p   ci xi
i 1
Hvor
ci  xi , x
Så p  x  S  .
Bevis Teorem 5.5.7 [Ændret lidt]
Vi vil gerne vise at p  x, y  0 y  S
Lad y  a1 x1  ...  an xn da:
p  x, y  p  x, a1 x1  ...  an xn
n
 p  x,  ai xi
i 1
n
  ai p  x, xi
i 1
n
  ai  p, xi  x, xi
i 1

n
 n

  ai   c j x j , xi  ci 
 j 1

i 1


n
n


  ai   c j x j , xi  ci 
i 1
 j 1

n
  ai  c1  ci 
i 1
0
31
,
.
11 Ortogonale og ortonormale baser
Def. Ortogonal mængde
Lad V være et indre-produkt rum. Lad v1 ,..., vn V \ 0 . Hvis vi , v j  0, i  j er v1 ,..., vn en ortogonal
mængde.
Teorem 5.5.1 [L]
Lad V være et indre-produkt rum. Lad v1 ,..., vn   V være en ortogonal mængde, så er v1 ,..., vn lineært
uafhængige.
Bevis Teorem 5.5.1
Antag at
c1v1  ...  cn vn  0
For j  1,..., n tag det indre produkt på begge sider af udregningen
c1 v1 , v j  ...  cn vn , v j  0
Da vi , v j  0 når j  i fås
cj vj ,vj  0
cj vj
2
0
Da v j er en del af en ortogonal mængde er v j  0 , hvilket medfører at v j
v1 ,..., vn er derved lineært uafhængige.
Def. Basis
Lad V være et F vektorrum, og lad v1 ,..., vn V
v1 ,..., vn er en basis hvis
1.
v1 ,..., vn er lineært uafhængige
2.
v1 ,..., vn udspænder V
Def. Ortonormal mængde
En ortogonal mængde u1 ,..., un  er ortonormal  ui , u j   ij hvor
1 i  j
0 i  j
 ij  
32
2
 0 . Derved må c j  0 og
Teorem 5.6.1 [L]
(Gram-Schmidt processen)
,
Lad V være et indre-produktrum med indre produkt
.
Lad  x1 ,..., xn  være en basis for V .
Definer
u1 
1
x1
x1
Og definer u2 ,..., un rekursivt ved
uk 1 
1
xk 1  pk
 xk 1  pk  for k  1,..., n 1
Hvor
pk  xk 1 , u1 u1  ...  xk 1 , uk uk
Altså den ortogonale projektion af xk 1 på span  u1 ,..., uk  .
Da er u1 ,..., uk  en ortonormal basis for span  x1 ,..., xk  for k  1,..., n . Specielt er u1 ,..., un  en
ortonormal basis for V .
Bevis Teorem 5.6.1
Lad Sk  span  x1 ,..., xk  for k  1,..., n .
Induktion i k :
Basis k  1 :
Det er klart at u1 er en enhedsvektor med samme retning som x1 og at span  u1   span  x1   S1 .
Induktionshypotese:
Antag at u1 ,..., uk  er en ortonormal basis for span  x1 ,..., xk   Sk for k  n
Induktionsskridt:
Lad pk være projektionen af xk på Sk  span  u1 ,..., uk  . Sætning 6.4.14 giver da
pk  xk 1 , u1 u1  ...  xk 1 , uk uk
Da pk  Sk kan den skrives som en linear kombination af x1 ,..., xk .
pk  c1 x1  ...  ck xk
og
xk 1  pk  xk 1  c1 x1  ...  ck xk  0
33
Da højresiden er en ikke-triviel ( c ' er er ikke alle 0) linearkombination af x1 ,..., xk 1 . Desuden er
xk 1  pk  span  x1 ,..., xk 1   Sk 1
Ifølge sætning 6.4.14 så er xk 1  pk  Sk og derved er xk 1  pk  ui for i  1,..., k .
Lad nu uk 
1
xk 1  pk
 xk 1  pk  . Så er u1 ,..., uk 1 en ortonormal mængde og er indeholdt i Sk 1 .
Da u1 ,..., uk 1 er k  1 uafhængige elementer i rummet Sk 1 af dimension k  1 udgør de en basis, og
u1 ,..., uk 1 ’er en ortonormal basis for Sk 1 .
Induktionsskridtet er taget og resultatet dermed bevist.
34
12 Ortogonale og unitære matricer
Def. Ortonormalt mængde
En ortogonal mængde u1 ,..., un  er ortonormal  ui , u j   ij hvor
1 i  j
0 i  j
 ij  
Def. Ortogonalmatrix
En matrix Q  Matn,n 
 er en ortogonalmatrix hvis søjlerne i Q udgør en ortonormalbasis for
n
Teorem 5.5.5 [L]
Q  Matn,n 
 er en ortogonalmatrix  QT Q  I
Bevis Teorem 5.5.5
Lad os beregne QT Q i,j’te indgang.
Q Q 
T
ij
Derfor gælder det at Q  Matn,n 
1 i  j
 qiT q j  qi , q j   ij  
0 i  j
 er en ortogonalmatrix  QT Q  I .
Def. Unitær
En matrix U  Matn,n 
 er unitær, hvis søjlerne i U
udgør en ortonormalbasis for
n
.
Def. Hermitisk matrix
En matrix A  Matn,n 
 er hermite’sk hvis
A  AH   A 
T
Teorem 11.1.9 [N]
(Schurs teorem)
Lad A  Matn,n 
 . Der findes en unitær matrix U  Matn,n   så U H AU
Bevis Teorem 11.1.9
Beviser er ved induktion over n .
Basis n  1
Trivielt idet alle 11 matricer er øvretriangulære.
Induktionshypotese
Vi antager at udsagnet gælder for alle matricer i Matn1,n1 
35
.
er en øvretrekantsmatrix.
Induktionsskridt
Lad A  Matn,n 
 og lad 1  være en egenværdi for A , med tilsvarende egenvektor v1  n .
Vi kan arrangere at v1  1 . v1 kan udvides til en basis for n , og ved at anvende Gram-schmidt på
denne basis, får vi en ortonormalbasis v1 ,..., vn  for n .
Lad U1  v1 ,..., vn   Matn,n   . U er da unitær ved konstruktion.
Vi har da (vi piller først søjle af U1H AU1 ud)
U1H AU1e1  U1H Av1  1U1H v1  1U1HU1e1  1e1
Vi kan altså skrive

U1H AU1   1
0
r
A1 
Hvor 0 er en søjlevektor og r er en rækkevektor med n  1 indgange.
Ifølge induktionshypotesen så eksisterer der en matrix C  Matn1,n1 
 så C H A1C
er øvre en
øvretrekantsmtrix.
Definer nu
1 0T 
U2  

0 C 
Matricen U 2 er unitær da de sidste n  1 søjler udgør en ortonormal mængde, og hver for sig er
ortogonale på den første søjle, som er en enhedsvektor. Så er produktet U  U1U 2 også unitær.
Vi vil vise at U H AU er øvre-triangulær. Da blokstørelserne i matricerne er ens kan vi bruge blok matrix
multiplikation.
U H AU  U 2H U1H AU1 U 2
1 0T  1 r  1 0T 



H
0 C   0 A1   0 C 
r  1 0T 
1



H
 0 C A1  0 C 
rC 

 1

H
 0 C A1C 
 rC 
 1

0 B 
Denne matrix er øvre triangulær da B (fra induktionshypotesen) er det.
36
Teorem 11.1.10 [N]
(Spektralsætning for hermite’ske matricer)
Lad A  Matn,n 
U  Matn,n 
 være hermite’sk. Så kan
A diagonaliseres, dvs der findes en unitær matrix
 så
U H AU
Er diagonal med reelle diagonalindgange.
Bevis Teorem 11.1.10
Ifølge Schurs sætning findes der en unitær matrix U  Matn,n 
 så U H AU  T
er en
øvretrekantsmatrix. T er hermite’sk da:
T H  U H AU 
H
 U H AH U
 U H AU
T
Men
t11
T   0
 0
0
t1n 
 t11
, TH  


 t1n
tnn 
0
0
0 
tnn 
Da må ti , j  0 for i  j og da ti ,i  ti ,i må ti ,i være reel. T er da en diagonalmatrix med reelle indgange.
37
13 Unitær diagonalisering
Def. Unitær
En matrix U  Matn,n 
 er unitær, hvis søjlerne i U
udgør en ortonormalbasis for
n
.
Def. Hermitisk matrix
En matrix A  Matn,n 
 er hermite’sk hvis
A  AH   A 
T
Teorem 11.1.9 [N]
(Schurs teorem)
Lad A  Matn,n 
 . Der findes en unitær matrix U  Matn,n   så U H AU
er en øvretrekantsmatrix.
Bevis Teorem 11.1.9
Beviser er ved induktion over n .
Basis n  1
Trivielt idet alle 11 matricer er øvretriangulære.
Induktionshypotese
Vi antager at udsagnet gælder for alle matricer i Matn1,n1 
.
Induktionsskridt
Lad A  Matn,n 
 og lad 1  være en egenværdi for A , med tilsvarende egenvektor v1  n .
Vi kan arrangere at v1  1 . v1 kan udvides til en basis for n , og ved at anvende Gram-schmidt på
denne basis, får vi en ortonormalbasis v1 ,..., vn  for n .
Lad U1  v1 ,..., vn   Matn,n   . U er da unitær ved konstruktion.
Vi har da (vi piller først søjle af U1H AU1 ud)
U1H AU1e1  U1H Av1  1U1H v1  1U1HU1e1  1e1
Vi kan altså skrive

U1H AU1   1
0
r
A1 
Hvor 0 er en søjlevektor og r er en rækkevektor med n  1 indgange.
Ifølge induktionshypotesen så eksisterer der en matrix C  Matn1,n1 
øvretrekantsmatrix.
Definer nu
1 0T 
U2  

0 C 
38
 så C H A1C
er øvre en
Matricen U 2 er unitær da de sidste n  1 søjler udgør en ortonormal mængde, og hver for sig er
ortogonale på den første søjle, som er en enhedsvektor. Så er produktet U  U1U 2 også unitær.
Vi vil vise at U H AU er øvre-triangulær. Da blokstørelserne i matricerne er ens kan vi bruge blok matrix
multiplikation.
U H AU  U 2H U1H AU1 U 2
1 0T  1 r  1 0T 



H
0 C   0 A1   0 C 
r  1 0T 

 1


H
 0 C A1  0 C 
rC 

 1

H
 0 C A1C 
 rC 
 1

0 B 
Denne matrix er øvre triangulær da B (fra induktionshypotesen) er det.
Teorem 11.1.10 [N]
(Spektralsætning for hermite’ske matricer)
Lad A  Matn,n 
U  Matn,n 
 være hermite’sk. Så kan
A diagonaliseres, dvs der findes en unitær matrix
 så
U H AU
Er diagonal med reelle diagonalindgange.
Bevis Teorem 11.1.10
Ifølge Schurs sætning findes der en unitær matrix U  Matn,n 
øvretrekantsmatrix. T er hermite’sk da:
T H  U H AU 
 U H AH U
 U H AU
T
Men
39
H
 så U H AU  T
er en
t11
T   0
 0
0
t1n 
 t11
, TH  


 t1n
tnn 
0
0
0 
tnn 
Da må ti , j  0 for i  j og da ti ,i  ti ,i må ti ,i være reel. T er da en diagonalmatrix med reelle indgange.
40
14 Kvadratiske former
Def. Kvadratisk form
En kvadratisk form er en funktion f :
n

T
givet ved f  x   x Ax , hvor A  Matn,n 
.
Grunden til den kaldes en kvadratisk form er:
Hvis
 x1 
x  ...  , A   aij 
 xn 
Så
  x1  
 a11
 
f  ...     x1 ... xn  
 x  
 an1
 n
a1n   x1 
 ... 
 
ann   xn 
 a11 x1  ...  a1n xn 

  x1 ... xn  ...

 an1 x1  ...  ann xn 
 x1  a11 x1  ...  a1n xn   ...  xn  an1 x1  ...  ann xn 
Vi ser at i alle led indgår der mindst to x ’er, hvilket er grunden til at den kaldes en kvadratisk form.
Eksempel
2 xy  y 2   x
0 1   x 
y 
    x
1 1  y 
y 
y 
 2 xy  y 2

x  y
Teorem 11.3.3
(Hovedaksesætningen)
Lad A  Matn,n 
 være symmetrisk, og lad 1 ,..., n være A ’s egenværdier, talt med multiplicitet.
Der findes en rotationsmatrix R  Matn,n   og en tilsvarende rotation af koordinater u  RT x så
xT Ax  1u12  ...  nun2
For alle x 
n
41
Bevis teorem 11.3.3
Ifølge spektralsætningen så findes der en ortonormal basis v1 ,..., vn  for
n
bestående af A ’s
egenvektorer. Så  v1 ,..., vn  er en ortonormal matrix.
Lad

 v1 ,..., vn  hvis det  v1 ,..., vn   1
R

 v1 ,..., vn  hvis det  v1 ,..., vn   1
R er da en rotationsmatrix, hvis søjler er egenvektorer for A og som udgør en ortonormal basis for
Vi har da
1
R AR  

T

,

n 
Hvor 1 ,..., n er egenværdierne til v1 ,..., vn , så
1
A  R 

Vi har da for alle x 

 RT

n 
n
1
x Ax  x R 

T
T

 RT x

n 
1


u
u 


n 
 1u12  ...  n un2
T
Def. Positiv definit
Lad A  Matn,n 

A er positiv definit hvis:
x 
n
\ 0 : xT Ax  0
Teorem 6.6.2 [L]
Lad A  Matn,n 
 være symmetrisk.
A er positiv definit  A ’s egenværdier alle er positive.
42
 hvor u  R x 
T
n
.
Bevis Teorem 6.6.2

Lad  være en egenværdi for A med tilhørende egenvektor x . Da
xT Ax  xT  x
  xT x
 x
2
Dette medfører

xT Ax
x
2
0
Det vil sige at enhver egenværdi er positiv.

Da A symmetrisk kan A ifølge spektralsætningen diagonaliseres og der eksisterer en ortonormalbasis
x1 ,..., xn  for n hvor x1 ,..., xn er A ’s egenvektorer.
n
\ 0 så x kan skrives som en linear kombination af
Lad x 
x1 ,..., xn
x  a1 x1  ...  an xn
Hvor ai  x, xi for i  1,..., n og
n
a
2
i
i 1
 x (bare beregn x, x  a1 x1  ...  an xn , a1 x1  ...  an xn )
2
xT Ax   a1 x1  ...  an xn  A  a1 x1  ...  an xn 
T
  a1 x1  ...  an xn 
 a1 Ax1  ...  an Axn 
  a1 x1T  ...  an xnT   a11 x1  ...  an n xn 
T
n
n
  a j ai i xTj xi
i 1 j 1
 a12 1  ...  an2 
n
  ai2 i
i 1
 x
2
n

i 1
i
 x min  i 
2
0
T
(Husk at xi x j  0 hvis i  j
43
15 Lineære differentialligninger
Def. Lineære differentialligninger
Et generelt differentialligniningsystem skrives som
x1'  f1  x1 ,..., xn 
xn'  f n  x1 ,..., xn 
Et lineær differentialtligningssystem er på formen er et system hvor afbildningen f i er en lineær
transformation. Den har da en standard matrix repræsentation A . I ikke-matrix form:
x1'  a11 x1  ...  a1n xn
xn'  an1 x1  ...  ann xn
Hvor xi er en differentiabel funktion.
Dette kan skrives kompakt på matrixform
x '  Ax
Hvis n  1 har vi ligningen
x '  ax
Som vil blive løst i næste bevis.
Lemma 10.1.1 [N]
Lad  , a  ligningen
x '  x
Har en entydig løsning z :

t
med z  0   a givet ved z  t   e a
Bevis 10.1.1
Hvis   c  id
et  e c id t
 ect eidt
 ect  cos dt  i sin dt 
44
d t
e    ect  cos dt  i sin dt   ect  d sin dt  id cos dt 

dt
 ect  c  id  cos dt  i sin dt 
 ect     eidt 
  ect eidt
  e
c  id t
  et
Så et opfyldet x '   x men har startværdi 1. Vi ganger derfor et med a som er en konstant, som går
t
igennem hele beregningen ovenfor. Vi finder derfor ud af at z  t   e a er en løsning til x '   x med
startværdi z  0   a .
Er denne så entydig? Vi antager at der eksisterer en funktion y  t  som er en løsning til x '   x med
startværdi y  0   a .
 t
Vi kigger på funktionen e y  t  og vil se hvordan denne ændrer sig, vi differentierer altså
d  t
e y  t    e   t y  t   e   t y '  t 
dt
 e  t  y '  t    y  t  
 e  t   y  t    y  t  
0
 t
Så funktionen e y  t  er altså konstant. Derfor må vi indsætte hvilken som helst værdi for t og se hvad
den giver:
et y  t   e0 y  0  y  0  a
Denne ligning løser vi i forhold til y  t 
e  t y  t   a
y t   a
1
 t
e
y  t   aet
 z t 
Altså er z  t  den entydige løsning til x '   x med startværdi z  0   a .
45
Teorem 12.2.2
(Putzers algoritme)
Lad A  Matn,n 
 . Lad 1 ,..., n
være egenværdier for A , talt med multiplicitet.
Lad P0  I og for k  1,..., n , Pk 
  A   I  og definer
k
j
j 1
n 1
Q  t    rk 1  t  Pk
k 0
Hvor r1  t   e 1 og definer rk induktivt for k  2,..., n ved
t
t
rk  ek t  e k s rk 1  s  ds
0
Så gælder Q  0   I og Q '  t   AQ  t   Q  t  A .
Bevis Teorem 12.2.2
Vi ser at
r1  t   e1 0  1
k  1: rk  t   e
k 0
0
e
 k s
rk 1  s  ds  0
0
Så
n 1
Q  0    rk 1  0  Pk  Pk  I
k 0
Vi ser at A kommuterer med A  i I for i  1,..., n så den kommuterer med P0 ,..., Pn1 og derfor også
med Q  t  . Dette giver os at Q  t  A  AQ  t  .
Vi vil nu gerne vise at Q '  t   AQ  t  . Først vil vi differentiere rk for k  1 .
t

d
rk  t   k ek t  e  k s rk 1  s  ds  e k t e  k t rk 1  t 
dt
0
t
 k ek t  e  k s rk 1  s  ds  rk 1  t 
0
 k rk  t   rk 1  t 
Så vi har derfor at
46

n 1
Q '  t    rk 1 '  t  Pk
k 0
n 1
   k 1rk 1  t   rk  t   Pk
k 0
Og vi har at
n 1
n 1
k 0
k 0
Q '  t   AQ  t     k 1rk 1  t   rk  t   Pk  A rk 1  t  Pk
n 1
  rk 1  t  A  k 1 I  Pk  rk  t  Pk
k 0
n 1
  rk 1  t  Pk 1  rk  t  Pk
k 0
 rn  t  Pn
0
Det sidste gælder da Cayley Hamilton sætningen siger at  A  1I  ...  A  n I   Pn  0 . Da
Q '  t   AQ  t   0  Q '  t   AQ t  og sætningen er bevist.
47
16 Markov Processor
Def. Markov Process
En Markov Process er en sekvens af hændelser med følgende egenskaber
1. Sættet af tilstande er endeligt
2. Den næste tilstand afhænger kun af den forrige tilstand
3. Sandsynlighederne ved hændelsesskift er konstante
Def. Sansynelighedsvektor
En vektor x  n med ikke-negative indgange og sådan at summen af dens indgange er 1 kaldes en
sandsynlighedsvektor.
Def. Stokastisk Matrix
En matrix A  Matn,n 
 er en stokastisk matrix hvis hver af dens søjler hver er en sandsynlighedsvektor.
Eksempel
0,8 
x0    er en sandsynlighedsvektor. Den fortæller at 80% kører Lamboghini og 20% kører Fait.
0, 2 
 0,1 0, 2 
A
 fortæller at 10% af dem der kører Lamboghini gør det også ved en hændelse, mens
0,9 0,8 
20% af dem der kører Fait skifter til Lamboghini. 90% skifter fra Lamboghini til Fait og 80% af dem der
kører Fait bliver ved med det.
x1  Ax0
 0,1 0, 2  0,8 

 
0,9 0,8  0, 2 
0,1  0,8  0, 2  0, 2 


0,9  0,8  0,8  0, 2 
0, 08  0, 04 


0, 72  0,16 
0,12 


0,88
48
Lemma 10.2.4 [N]
1 
 
Lad e  ... 
 
1 
1. Lad x 
n
.
n
med ikke-negative indgange, x er en sandsynlighedsvektor  eT x  1
2. Lad A  Matn,n 
 være en matrix med ikke-negative indgange.
A er stokastisk  eT A  eT
Bevis Lemma 10.2.4
1:
eT x  x1  ...  xn  1 hvis og kun hvis x er en sandsynlighedsvektor.
2:
Skriv A   a1 ,..., an  . Så:
eT A  eT a1 ,..., eT an 
 1,...,1
 eT
Hvis og kun hvis a1 ,..., an er sandsynlighedsvektorer.
Lemma 10.2.7 [N]
Lad A  Matn,n 
 være en stokastisk matrix.
Så er 1 en egenværdi for A .
Bevis Lemma 10.2.7
Lad os beregne AT e
AT e   eT A 
T
  eT 
T
 1e
Vi ser at e er en egenvektor til   1 for AT . Derfor er pAT 1  0 . Men:
p A 1  det  A  I 
 det
 A  I  
T
 det  AT  I 
 p AT 1
Så pA 1  0 og derfor er 1 en egenværdi til A .
49
Teorem 6.3.4 [L]
Hvis A er en stokastisk matrix med dominant egenværdi 1  1 så vil Markov rækken konvergere mod en
steady-state vektor x .
Bevis Teorem 6.3.4
Hvis A er diagonaliserbar:
Lad y1 være egenvektoren til 1 . Lad Y   y1 ,..., yn  være en matrix der diagonaliserer A
(Så A  YDY 1 ) , så når k  
1k

Dk  




k
n
 1
 
 0
 
 
nk  


E


0
Og hvis x0 er en sandsynlighedsvektor og c  Y 1 x0 så:
xk  Ak x0  YDkY 1 x0  YDk c  YEc  Y  c1e1   c1 y1
Så c1 y1 bliver steady-state vektoren.
Hvis A ikke er diagonaliserbar kan dette stadig bevises, men dette er uden for pensum.
50