1 DEFINITIONEN AV LINJÄRT BEROENDE MED EXEMPEL Objective:: 1 Linjärt beroende och oberoende version 1.0 Definitionen av linjärt beroende med exempel Vi börjar med ett inledande exempel för att motivera definitionen som kommer sedan. Exempel 1.1. Vi börjar med att titta på följande exempel: Gasselimination av matrisen −2 −1 1 2 2 1 2 2 1 2 2 2 −1 ∼ 0 −+ ∼ 0 − 3 − 1 1 3 ← − 3 − 1 0 −3 −1 ← 1 − 1 1 ←−−−−− + −+ 0 0 0 Om vi kallar raderna i den första matrisen för R1 , R2 och R3 och rad två och tre i den andra matrisen för R4 och R5 så ger våra radoperationer att R2 − 2R1 R4 = R5 = R3 − R1 0 = R5 − R4 = R3 − R1 − (R2 − 2R1 ) = R1 − R2 + R3 Att vi får en nollrad beror på att det finns ett samband mellan den första matrisens rader: R1 − R2 + R3 = 0 ⇔ R2 = R1 + R3 som kan skrivas på formen 1 · R1 + (−1) · R2 + 1 · R3 = 0 vilket betyder att det homogena ekvationssystemet t1 · R1 + t2 · R2 + t3 · R3 = 0 har den icke triviala lösningen t1 = 1 = −t2 = t3 . Beroendet kan ses i figur 1 som att de tre radvektorerna ligger i samma plan. Detta gör en av dem kan skrivas som summan av de två övriga. Med detta exempel som vägledning så ställer vi upp följande Definition 1.2. Vektorerna v1 , . . . , vn sägs vara linjärt beroende om den homogena ekvationen t1 · v 1 + · · · + tn · v n = 0 har icke-triviala lösningar. Om bara den triviala lösningen t1 = · · · = tn = 0 finns så är vektorerna linjärt oberoende. Låt oss titta på vårt första exempel i termer av denna definition Exempel 1.3. I vårt första exempel 1.1 studerade vi raderna och kom då fram till att de uppfyllde en ekvation som vi sedan använde för att motivera definitionen av linjärt beroende. Låt oss nu använda definitionen för att se hur vi kan använda denna för att komma fram till att de är beroende. Definitionen för linjärt beroende ger oss att vi ska lösa vektorekvationen 1 2 1 0 = t1 R1 + t2 R2 + t3 R3 = t1 2 + t2 1 + t3 −1 2 3 1 1 1 DEFINITIONEN AV LINJÄRT BEROENDE MED EXEMPEL 3 2 -2 -1 1 0 1 0 1 2 2 3 Figur 1: Radvektorerna R1 (röd vektor), R2 (svart vektor) och R3 (blå vektor) pekar tillsammans med origo ut hörnen av den blå rektangeln. Att det är en rektangel beror på att vektorerna ligger i samma plan Denna vektor ekvation blir följande 1 2 2 1 2 3 ekvation på matrisform 1 0 −1 1 0 −1 0 ∼ 0 1 1 1 0 0 0 0 0 0 0 Från den reducerade matrisen till höger får vi att tredje kolonnen saknar ledande element och att t3 = t är en fri variabel. Rad 2 ger då t2 = −t3 = −t och rad 1 ger t1 = t3 = t så lösningarna till vår ekvation blir t1 1 t2 = −1 t t3 1 så om vi sätter t = 1 så får vi sambandet R1 − R2 + R3 = 0, vilket ju var vad vi fick fram från exempel 1.1. Första exemplet visar att en mängd vektorer som innehåller nollvektorn är automatiskt linjärt beroende. Exempel 1.4. Låt v1 = 0, vi , i = 2, . . . n vara vektorer i Rm . Då är dessa vektorer automatiskt beroende eftersom vektorekvationen t1 · v 1 + · · · + tn · v n = 0 2 1 DEFINITIONEN AV LINJÄRT BEROENDE MED EXEMPEL har den icketriviala lösningen t1 = 1, t2 = t3 = · · · = tn = 0. Exempel 1.5. Om vi har linjärt beroende vektorer v1 , . . . vn där ingen av vektorerna är nollvektorn så måste det finnas en kombination t1 · v 1 + · · · + tn · v n = 0 där minst två av variablerna ti vara nollskillda. Eftersom vektorerna är linjärt beroende så finns det en nollskild uppsättning av värden på ti så att ekvationen uppfylls. Om alla variablerna är noll utom, säg t1 så blir ekvationen i så fall t1 v 1 = 0 vilket ger att v1 = 0 vilket motsäger antagandet om att ingen av våra vektorer av nollvektorn. Detta gör därför att minst två av variablerna ti måste vara nollskilda. Proposition 1.6. Om man har fler vektorer än dimensionen på rummet de ligger i så är denna mängd automatiskt linjärt beroende. Motivation för propositionen:: Låt oss ha n stycken vektorer v1 , . . . vn i Rm där n > m. Då blir ekvationen från definitionen av beroende t1 · v 1 + · · · + tn · v n = 0 och när vi skriver om den på matrisform har vi en matrisekvation av typen At = 0 där A är m × n matrisen som har våra vektorer som kolonner. Eftersom m < n så har vi en matris med färre rader än kolonner. När vi Gausseliminerar denna matris så kan vi maximalt få m stycken ledande element, en för varje rad och således m stycken ledande variabler. Eftersom n > m så finns det flera kolonner som inte har något ledande element i sig. Dessa kolonner svarar mot fria variabler vilket betyder att n − m av variablerna ti kommer att vara fria och dessa fria variabler tillåts anta värden som är skilda från noll vilket betyder att ekvationen At = 0 har icketriviala lösningar vilket alltså betyder att kolonnerna, dvs våra vektorer är linjärt beroende. Exempel 1.7. Vi visar ett exempel på att när man har fler vektorer än dimensionen på det rum som vektorerna ligger i så är vektorerna automatiskt linjärt beroende. Betrakta därför kolonnvektorerna i följande matris som vi direkt Gauss-Jordan eliminerar till reducerad trappstegsform 1 2 −2 3 3 1 0 0 −9 −25 11 A = 1 2 −1 1 0 ∼ 0 1 0 4 0 1 3 −2 2 0 0 1 −2 −3 Från den reducerade matrisen får vi att det finns tre stycken ledande variabler och två stycken fria. Om vi kallar variablerna för t1 , . . . t5 så ser vi att t4 och t5 är fria och att vi har t1 = 9t4 + 25t5 t2 = −4t4 − 11t5 t3 = 2t4 + 3t5 vilket gör att när de fria variablerna antar nollskillda värden så har systemet At = 0 icketriviala lösningar, vilket alltså betyder att kolonnvektorerna är linjärt beroende. Innan vi tar nästa exempel så definierar vi vad det betyder att två vektorer är parallella. Definition 1.8. Två vektorer v, w ∈ Rn är parallella om K ∈ R, v = Kw, dvs de är parallella om de skiljer sig på en konstant. Observera att konstanten tillåts vara negativ vilket då betyder att vektorerna pekar åt precis motsatta håll, se figur 2 3 2 v GAUSSMASKINEN w=2v u b=-u Figur 2: Två par av vektorer där v är parallell med w och u är parallell med b. Notera att u och b pekar åt motsatt håll och att b = −u och vi har K = −1 i definitionen. Exempel 1.9. Vi ska visa att Två vektorer är linjärt beroende om och bara om de är parallella. För att se detta tar vi två godtyckliga nollskillda vektorer u och v. Att dessa två vektorer är linjärt beroende betyder enligt definitionen att det finns två nollskillda tal t1 och t2 så att t1 u + t2 v = 0 Vi kan i denna likhet addera −t2 v till båda led och sedan dividera båda led med det nollskillda talet t1 och då får vi t2 u= v t1 Genom att sätt K = tt21 så har vi alltså visat att u = Kv vilket innebär att vektorerna är parallella. Om man startar med två parallella vektorer u = Kv så ger denna likhet att u − Kv = 0 vilket betyder att vi kan sätta t1 = 1 och t2 = K och därför uppfyller två parallella vektorer automatiskt definitionen för linjärt beroende. 2 Gaussmaskinen Om vi jämför Exempel 1.1 och Exempel 1.3 så ser vi att vi väsentligen har två sätt att undersöka om en uppsättning vektorer är linjärt beroende eller inte. Definitionen av linjärt beroende leder till en vektorekvation och när vi översätter denna till en vanlig matrisekvation så hamnar vektorerna som kolonner i matrisen. Vi ser så småning om beroendet som att denna matrisekvation har fria variabler. Vi ska nu se hur man kan upptäcka ett linjärt beroende genom att sätta våra vektorer som rader i en matris. Precis som i Exempel 1.1 så har vi ett beroende om vi får en nollrad när vi Gausseliminerar. Detta leder till idéen om att Gausseliminationen kan upptäcka ett beroende. Vi har faktiskt Theorem 2.1. Gausselimination är en maskin som upptäcker linjärt beroende om ett sådant finns. Man ställer upp vektorerna som rader i en matris. Om det uppstår nollrader när vi Gausseliminerar så är raderna linjärt beroende och om inga nollrader uppstår så är raderna linjär oberoende. Motivation för satsen: Låt oss börja med att tänka på vad vi gör när vi Gausseliminerar. Man försöker att stegvis få nollor nedanför matrisens huvuddiagonal. Gausseliminationen gör detta genom radoperationer som innebär att man multiplicerar en rad med ett tal och adderar detta till en annan rad. Radeliminationerna är med andra ord ett sätt att linjärkombinera radvektorerna. I 4 2 GAUSSMASKINEN varje steg får vi fler nollor i raderna nedanför och ibland händer det att vi får en rad som består enbart av nollor. Vi har då fått en nollrad. Denna nollrad har vi då fått genom radoperationerna och därför kan vi säga att nollraden kommer av att vi hittat en linjärkombination av våra rader som blir nollraden. Linjärkombinationen vi i slutändan får uppfyller, precis som i exempel 1.1 en linjär relation t1 R1 + · · · tn Rn = 0, där inte alla ti är noll . Enligt definition 1.2 så har vi alltså en icketrivial lösning och våra radvektorer är således beroende. Exempel 2.2. Är vektorerna 1 1 v2 = 2 , 1 1 1 v1 = −1 , 2 och 1 1 v3 = 1 2 linjärt oberoende eller linjärt beroende? Lösning mha definitionen :: Om vi vill använda definitionen av linjärt beroende så ställer vi upp vektorekvationen och försöker hitta icketriviala lösningar till den. Sådan finns precis när vektorekvationens motsvarande matrisekvation har fri variabel. Lösning med Gaussmaskinen :: Vi ska istället använda Gaussmaskinen och då ska vi ställa upp vektorerna som rader i en matris 1 1 1 och Gausseliminera. Vi får då 1 1 0 0 1 −1 2 1 2 1 ∼ 0 0 1 0 0 0 0 1 1 1 2 Eftersom vi inte får en nollrad så ger Gaussmaskinen den slutsatsen att våra tre vektorer faktiskt är oberoende. Exempel 2.3. Visa att vektorerna v1 = (1, −1, −2, 1), v2 = (1, 1, 1, 1) och v3 = (2, 0, −1, 2) är linjärt oberoende. Lösning med Gaussmaskinen :: Om vi ställer upp vektorerna som rader i en matris så kan vi använda Gaussmaskinen: 1 1 2 −1 1 0 −2 1 1 1 1 ∼ 0 −1 2 0 −1 2 0 −2 3 0 1 0 0 Vi får alltså en nollrad och satsen om Gaussmaskinen säger då att våra vektorer är linjärt beroende. Lösningen mha definitionen :: Man naturligtvis också visa det linjära beroendet genom att använda definitionenen 1.2. Då ställer man upp vektorerna som kolonner i en matris och eliminerar: 1 1 2 0 1 0 1 0 −1 1 0 0 0 1 1 0 −2 1 −1 0 ∼ 0 0 0 0 1 1 2 0 0 0 0 0 Här ser vi att vi har två ledande variabler och en fri variabel. Den fria variabeln får ju anta vilka värden som helst, t.ex sådana som är skilda från noll och därför har vi gott om icketriviala lösningar. Och eftersom vi har icketriviala lösningar så är vektorerna linjärt beroende. 5
© Copyright 2024