Objective:: Linjärt beroende och oberoende version

1
DEFINITIONEN AV LINJÄRT BEROENDE MED EXEMPEL
Objective::
1
Linjärt beroende och oberoende
version 1.0
Definitionen av linjärt beroende med exempel
Vi börjar med ett inledande exempel för att motivera definitionen som kommer sedan.
Exempel 1.1. Vi börjar med att titta på följande exempel: Gasselimination av matrisen






−2
−1
1
2
2
1
2
2
1
2
2
2
−1 ∼ 0
−+
∼ 0 − 3 − 1
1
3 ←
− 3 − 1
0 −3 −1 ←
1 − 1 1 ←−−−−− +
−+
0
0
0
Om vi kallar raderna i den första matrisen för R1 , R2 och R3 och rad två och tre i den andra
matrisen för R4 och R5 så ger våra radoperationer att
R2 − 2R1
R4
=
R5
= R3 − R1
0 = R5 − R4 = R3 − R1 − (R2 − 2R1 ) = R1 − R2 + R3
Att vi får en nollrad beror på att det finns ett samband mellan den första matrisens rader:
R1 − R2 + R3 = 0
⇔
R2 = R1 + R3
som kan skrivas på formen
1 · R1 + (−1) · R2 + 1 · R3 = 0
vilket betyder att det homogena ekvationssystemet
t1 · R1 + t2 · R2 + t3 · R3 = 0
har den icke triviala lösningen t1 = 1 = −t2 = t3 .
Beroendet kan ses i figur 1 som att de tre radvektorerna ligger i samma plan. Detta gör en av dem
kan skrivas som summan av de två övriga.
Med detta exempel som vägledning så ställer vi upp följande
Definition 1.2. Vektorerna v1 , . . . , vn sägs vara linjärt beroende om den homogena ekvationen
t1 · v 1 + · · · + tn · v n = 0
har icke-triviala lösningar. Om bara den triviala lösningen t1 = · · · = tn = 0 finns så är vektorerna
linjärt oberoende.
Låt oss titta på vårt första exempel i termer av denna definition
Exempel 1.3. I vårt första exempel 1.1 studerade vi raderna och kom då fram till att de uppfyllde
en ekvation som vi sedan använde för att motivera definitionen av linjärt beroende. Låt oss nu
använda definitionen för att se hur vi kan använda denna för att komma fram till att de är beroende.
Definitionen för linjärt beroende ger oss att vi ska lösa vektorekvationen






1
2
1
0 = t1 R1 + t2 R2 + t3 R3 = t1  2  + t2  1  + t3  −1 
2
3
1
1
1
DEFINITIONEN AV LINJÄRT BEROENDE MED EXEMPEL
3
2
-2
-1
1
0
1
0
1
2
2
3
Figur 1: Radvektorerna R1 (röd vektor), R2 (svart vektor) och R3 (blå vektor) pekar tillsammans
med origo ut hörnen av den blå rektangeln. Att det är en rektangel beror på att vektorerna ligger
i samma plan
Denna vektor ekvation blir följande

1 2
 2 1
2 3
ekvation på matrisform
 
1 0 −1
1 0
−1 0  ∼  0 1 1
1 0
0 0 0

0
0 
0
Från den reducerade matrisen till höger får vi att tredje kolonnen saknar ledande element och att
t3 = t är en fri variabel. Rad 2 ger då t2 = −t3 = −t och rad 1 ger t1 = t3 = t så lösningarna till
vår ekvation blir

 

t1
1
 t2  =  −1  t
t3
1
så om vi sätter t = 1 så får vi sambandet
R1 − R2 + R3 = 0,
vilket ju var vad vi fick fram från exempel 1.1.
Första exemplet visar att en mängd vektorer som innehåller nollvektorn är automatiskt linjärt
beroende.
Exempel 1.4. Låt v1 = 0, vi , i = 2, . . . n vara vektorer i Rm . Då är dessa vektorer automatiskt
beroende eftersom vektorekvationen
t1 · v 1 + · · · + tn · v n = 0
2
1
DEFINITIONEN AV LINJÄRT BEROENDE MED EXEMPEL
har den icketriviala lösningen t1 = 1, t2 = t3 = · · · = tn = 0.
Exempel 1.5. Om vi har linjärt beroende vektorer v1 , . . . vn där ingen av vektorerna är nollvektorn så måste det finnas en kombination
t1 · v 1 + · · · + tn · v n = 0
där minst två av variablerna ti vara nollskillda. Eftersom vektorerna är linjärt beroende så finns
det en nollskild uppsättning av värden på ti så att ekvationen uppfylls. Om alla variablerna är noll
utom, säg t1 så blir ekvationen i så fall
t1 v 1 = 0
vilket ger att v1 = 0 vilket motsäger antagandet om att ingen av våra vektorer av nollvektorn.
Detta gör därför att minst två av variablerna ti måste vara nollskilda.
Proposition 1.6. Om man har fler vektorer än dimensionen på rummet de ligger i så är denna
mängd automatiskt linjärt beroende.
Motivation för propositionen:: Låt oss ha n stycken vektorer v1 , . . . vn i Rm där n > m. Då
blir ekvationen från definitionen av beroende
t1 · v 1 + · · · + tn · v n = 0
och när vi skriver om den på matrisform har vi en matrisekvation av typen At = 0 där A är m × n
matrisen som har våra vektorer som kolonner. Eftersom m < n så har vi en matris med färre
rader än kolonner. När vi Gausseliminerar denna matris så kan vi maximalt få m stycken ledande
element, en för varje rad och således m stycken ledande variabler. Eftersom n > m så finns det
flera kolonner som inte har något ledande element i sig. Dessa kolonner svarar mot fria variabler
vilket betyder att n − m av variablerna ti kommer att vara fria och dessa fria variabler tillåts anta
värden som är skilda från noll vilket betyder att ekvationen At = 0 har icketriviala lösningar vilket
alltså betyder att kolonnerna, dvs våra vektorer är linjärt beroende.
Exempel 1.7. Vi visar ett exempel på att när man har fler vektorer än dimensionen på det rum
som vektorerna ligger i så är vektorerna automatiskt linjärt beroende. Betrakta därför kolonnvektorerna i följande matris som vi direkt Gauss-Jordan eliminerar till reducerad trappstegsform

 

1 2 −2 3 3
1 0 0 −9 −25
11 
A =  1 2 −1 1 0  ∼  0 1 0 4
0 1 3 −2 2
0 0 1 −2 −3
Från den reducerade matrisen får vi att det finns tre stycken ledande variabler och två stycken
fria. Om vi kallar variablerna för t1 , . . . t5 så ser vi att t4 och t5 är fria och att vi har
t1
=
9t4 + 25t5
t2
=
−4t4 − 11t5
t3
=
2t4 + 3t5
vilket gör att när de fria variablerna antar nollskillda värden så har systemet At = 0 icketriviala
lösningar, vilket alltså betyder att kolonnvektorerna är linjärt beroende.
Innan vi tar nästa exempel så definierar vi vad det betyder att två vektorer är parallella.
Definition 1.8. Två vektorer v, w ∈ Rn är parallella om
K ∈ R,
v = Kw,
dvs de är parallella om de skiljer sig på en konstant. Observera att konstanten tillåts vara negativ
vilket då betyder att vektorerna pekar åt precis motsatta håll, se figur 2
3
2
v
GAUSSMASKINEN
w=2v
u
b=-u
Figur 2: Två par av vektorer där v är parallell med w och u är parallell med b. Notera att u och
b pekar åt motsatt håll och att b = −u och vi har K = −1 i definitionen.
Exempel 1.9. Vi ska visa att Två vektorer är linjärt beroende om och bara om de är parallella.
För att se detta tar vi två godtyckliga nollskillda vektorer u och v. Att dessa två vektorer är linjärt
beroende betyder enligt definitionen att det finns två nollskillda tal t1 och t2 så att
t1 u + t2 v = 0
Vi kan i denna likhet addera −t2 v till båda led och sedan dividera båda led med det nollskillda
talet t1 och då får vi
t2
u= v
t1
Genom att sätt K = tt21 så har vi alltså visat att u = Kv vilket innebär att vektorerna är parallella.
Om man startar med två parallella vektorer u = Kv så ger denna likhet att u − Kv = 0 vilket
betyder att vi kan sätta t1 = 1 och t2 = K och därför uppfyller två parallella vektorer automatiskt
definitionen för linjärt beroende.
2
Gaussmaskinen
Om vi jämför Exempel 1.1 och Exempel 1.3 så ser vi att vi väsentligen har två sätt att undersöka
om en uppsättning vektorer är linjärt beroende eller inte. Definitionen av linjärt beroende leder till
en vektorekvation och när vi översätter denna till en vanlig matrisekvation så hamnar vektorerna
som kolonner i matrisen. Vi ser så småning om beroendet som att denna matrisekvation har fria
variabler. Vi ska nu se hur man kan upptäcka ett linjärt beroende genom att sätta våra vektorer
som rader i en matris. Precis som i Exempel 1.1 så har vi ett beroende om vi får en nollrad när vi
Gausseliminerar. Detta leder till idéen om att Gausseliminationen kan upptäcka ett beroende. Vi
har faktiskt
Theorem 2.1. Gausselimination är en maskin som upptäcker linjärt beroende om ett sådant finns.
Man ställer upp vektorerna som rader i en matris. Om det uppstår nollrader när vi Gausseliminerar
så är raderna linjärt beroende och om inga nollrader uppstår så är raderna linjär oberoende.
Motivation för satsen: Låt oss börja med att tänka på vad vi gör när vi Gausseliminerar.
Man försöker att stegvis få nollor nedanför matrisens huvuddiagonal. Gausseliminationen gör detta
genom radoperationer som innebär att man multiplicerar en rad med ett tal och adderar detta till
en annan rad. Radeliminationerna är med andra ord ett sätt att linjärkombinera radvektorerna. I
4
2
GAUSSMASKINEN
varje steg får vi fler nollor i raderna nedanför och ibland händer det att vi får en rad som består
enbart av nollor. Vi har då fått en nollrad. Denna nollrad har vi då fått genom radoperationerna
och därför kan vi säga att nollraden kommer av att vi hittat en linjärkombination av våra rader
som blir nollraden. Linjärkombinationen vi i slutändan får uppfyller, precis som i exempel 1.1 en
linjär relation
t1 R1 + · · · tn Rn = 0,
där inte alla ti är noll .
Enligt definition 1.2 så har vi alltså en icketrivial lösning och våra radvektorer är således beroende.
Exempel 2.2. Är vektorerna


1
 1 

v2 = 
 2 ,
1



1
 1 

v1 = 
 −1  ,
2
och

1
 1 

v3 = 
 1 
2
linjärt oberoende eller linjärt beroende?
Lösning mha definitionen :: Om vi vill använda definitionen av linjärt beroende så ställer vi
upp vektorekvationen och försöker hitta icketriviala lösningar till den. Sådan finns precis när vektorekvationens motsvarande matrisekvation har fri variabel.
Lösning med Gaussmaskinen :: Vi ska istället använda Gaussmaskinen och då ska vi ställa upp
vektorerna som rader i en matris

1
 1
1
och Gausseliminera. Vi får då

 
1 1 0 0
1 −1 2
1 2 1 ∼ 0 0 1 0 
0 0 0 1
1 1 2
Eftersom vi inte får en nollrad så ger Gaussmaskinen den slutsatsen att våra tre vektorer faktiskt
är oberoende.
Exempel 2.3. Visa att vektorerna v1 = (1, −1, −2, 1), v2 = (1, 1, 1, 1) och v3 = (2, 0, −1, 2) är
linjärt oberoende.
Lösning med Gaussmaskinen :: Om vi ställer upp vektorerna som rader i en matris så kan vi
använda Gaussmaskinen:

1
 1
2
−1
1
0
 
−2 1
1
1 1 ∼ 0
−1 2
0
−1
2
0
−2
3
0

1
0 
0
Vi får alltså en nollrad och satsen om Gaussmaskinen säger då att våra vektorer är linjärt beroende.
Lösningen mha definitionen :: Man naturligtvis också visa det linjära beroendet genom att
använda definitionenen 1.2. Då ställer man upp vektorerna som kolonner i en matris och eliminerar:

 

1 1 2 0
1 0 1 0
 −1 1 0 0   0 1 1 0 

 

 −2 1 −1 0  ∼  0 0 0 0 
1 1 2 0
0 0 0 0
Här ser vi att vi har två ledande variabler och en fri variabel. Den fria variabeln får ju anta
vilka värden som helst, t.ex sådana som är skilda från noll och därför har vi gott om icketriviala
lösningar. Och eftersom vi har icketriviala lösningar så är vektorerna linjärt beroende.
5