Säsongrensning –en handledning Mikael Möller hösten 1982 reviderad hösten 2006 Innehåll 1 Förord 2 2 Inledning 2.1 Beteckningar och hänvisningssystem . . . . . . . . . . . . . . . . 2.2 Modeller och modellantaganden . . . . . . . . . . . . . . . . . . . 3 3 3 3 Linjära …lter 3.1 De…nitioner och beteckningar . . . . . . . . . . . . . . 3.2 Di¤erensekvationer . . . . . . . . . . . . . . . . . . . . 3.3 Egenskaper hos linjära …lter . . . . . . . . . . . . . . . 3.3.1 Funktioner som avbildas på 0 . . . . . . . . . . 3.3.2 Funktioner som avbildas på sig själva . . . . . 3.4 E¤ekter på slumpkomponenten –periodicitetsmönster 3.4.1 Förväntad period . . . . . . . . . . . . . . . . . 3.5 Slutskys sats . . . . . . . . . . . . . . . . . . . . . . . 3.6 Hur linjära …lter konstrueras . . . . . . . . . . . . . . 3.7 Slutsatser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 7 9 10 12 13 14 18 22 26 4 Polynom…lter 28 4.1 Metod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 4.2 Filtrering av tidsseriens ändar . . . . . . . . . . . . . . . . . . . . 30 5 Henderson …lter 33 5.1 Henderson-…ltret –konstruktion . . . . . . . . . . . . . . . . . . . 34 5.2 Henderson-…ltret –egenskaper . . . . . . . . . . . . . . . . . . . . 36 1 1 Förord Föreliggande arbete är en bearbetning av de tre seminarier, om lineaär …ltrering, som jag höll hösten 1982. Seminarierna var en del av ett större projekt vars syfte är att sprida kunskap, om den metod för säsongrensning som F-avdelningen på Statistiska centralbyrån (SCB) har beslutat sig för, samt skapa programmeringsverktyg och dokumentation så att säsongrensningen skall kunna utföras av SCB:s handläggare. Under arbetets gång har följande personer bidragit med stimulerande diskussioner: Christer Shapiro och Ed Palmer från konjunkturinstitutet, Alexander Markowski från Riksbanken och Erik Andersson, Catharina El¤ors, Gunnar Gehlin och Sta¤an Lewin alla från SCB. Särskilt tack riktas till Christer Shapiro, som gjort nödvändiga program och framställt de i texten ingående …gurerna. Mikael Möller, hösten 1982 Handledningen har överförts till TEX varvid en del rättelser och förtydliganden gjorts. Mikael Möller, hösten 2006 2 2 Inledning Syftet med denna rapport är att ge nödvändig bakgrund för förståelsen av säsongrensningsmetoder i allmänhet och X11-ARIMA i synnerhet. Som en följd av det senare kommer arbetet att inrikta sig på linjära …lter och deras egenskaper. 2.1 Beteckningar och hänvisningssystem I denna rapport betecknar stora bokstäver stokastiska (slumpmässiga) element och små bokstäver deterministiska element. I den additiva modellen nedan är således ct och st deterministiska funktioner och It ett stokastiskt element eller som man också säger en stokastisk variabel. Rapporten delas upp i 5 kapitel och varje kapitel delas i sin tur upp i sektioner (även undersektioner förekommer). Inom varje sektion numreras formler, satser, de…nitioner m m i stigande ordning. Med hänvisningen (3.2.4) skall då förstås kapitel 3, sektion 2 och undersektion 4. 2.2 Modeller och modellantaganden Traditionellt delas tidsserier, vid säsongrensning, upp i tre komponenter: trendcykel, säsongsvariation och slumpmässig variation. Med dessa tre komponenter kan en mångfald av olika modeller bildas. Men vanligen klarar man sig med två modeller –den rent additiva och den rent multiplikativa modellen. Då den senare övergår i den förra (inte helt sant men ofta tillräckligt för våra behov), vid logaritmering, skall vi framöver endast betrakta den additiva modellen. För tidsserien och dess komponenter inför vi följande beteckningar Ot ct st It = = = = orginalserien vid tidpunkt t trendcykeln vid tidpunkt t säsongsvariationen vid tidpunkt t slumpmässig variation vid tidpunkt t och den additiva modellen kan då skrivas (2.1) Ot = ct + st + It 3 Grundproblematiken vid säsongrensning är att ur orginalserien fOt g extrahera serierna fct g, fst g och fIt g. Notera att denna exposé ej räknar med extrema händelser typ strejker, rörliga heger m m. Utan här betecknar It endast "sann" slump som t ex de slumpmässiga fel som uppstår vis stickprovstagning. Den mer allmänna modellen Ot = ct + st + dt + It00 (2.2) där dt It00 pt Et = = = = arbetstidse¤ekt vid tidpunkt t pt + Et + It helg, semester, strejk m m e¤ekt vid tidpunkt t oförklarligt extremvärde vid tidpunkt t kommer ej att behandlas i denna handledning. Ej heller tar vi upp det fall då trendcykeln och säsongsvariationen betraktas som stokastiska. I vår additiva säsongrensningsmodell 2.1 skall vi antaga att It ; t 2 T är oberoende normalfördelade stokastiska variabler med väntevärde 0 och standardavvikelse . Mängden T är en ändlig, eller oändlig, diskret indexmängd. Ett förkortat skrivsätt för detta antagande är It 2 ON (0; ) t2T Vi antar att säsongvariationen, st , och trendcykeln, ct , är deterministiska funktioner beroende av tiden t. Med säsongrensning skall vi nu ideallt förstå en metod som ur serien fOt g kan plocka ut endera av de tre komponenterna fct g, fst g och fIt g. Detta uttrycker vi med följande de…nition De…nition 2.1 Med säsongrensning av serien (2.3) Ot = Ct + St + It F1 (Ot ) = Ct F2 (Ot ) = St F3 (Ot ) = It Att …nna dessa funktioner F1 , F2 och F3 är naturligtvis inte möjligt utan istället får man inrikta sig på att …nna lämpliga approximationer. En första vanlig approximation är att ersätta funktionen Fi med en linjär funktion Li och antaga att Fi (Ot ) Li (Ot ) ; i = 1; 2; 3 och t 2 T En ytterligare approximation erhålls då alla funktioner Li antages vara lika. Ett specialfall av denna senare approximation utgörs av linjära …lter. En klass av funktioner som denna rapport skall titta på. Vi har här varit relativt noga med att ange de approximationer och antaganden som görs vid säsongrensning. Förhoppningen är att den presumptive 4 användaren därigenom skall undvika en del av de fällor och fel som uppstår vid det praktiska utnyttjandet av säsongrensningsmetoden X11-ARIMA. Ty som vid all modellering gäller att data måste uppfylla modellens förutsättningar. Användaren har därför skyldigheten att kontrollera om data uppfyller dessa, här givna, förutsättningar. 5 3 Linjära …lter 3.1 De…nitioner och beteckningar Nästan all säsongrensningsmetodik baserar sig på linjär …ltrering och vi skall börja med att de…niera vad vi skall mena med ett linjärt …lter. De…nition 3.1 Med ett linjärt …lter skall vi förstå en linjär funktion L sådan att till varje följd fxt g det gäller (3.1) L (xt ) = n X li xt i i=m t 2 T0 T för någon indexmängd T 0 och där talen li är reella och sådana att P li = 1. Om m = n och li = l i så säges …ltret vara symmetriskt annars asymmetriskt. För symmetriska …lter har man infört följande beteckning (3.2) L= l n ; l n+1 ; : : : ; l 1 ; l0 . Om i ett godtyckligt …lter alla vikter är lika (li = lj för alla val av i och j) skriver man 1 L= [n m + 1] n m+1 n och i alla övriga fall: L = [li ]i=m . Med hjälp av fasförskjutningsoperatorn B , vilken de…nieras av relationen Bxt = xt 1 , kan formel 3.1 ovan skrivas L (xt ) = n X i=m Pn li xt i = n X li B i xt = L (B) xt i=m där L (B) = i=m li B i . Operatorn L (B) skall vi kalla förskjutningspolynomet hörande till …ltret L. Linjäritetsegenskaperna hos det linjära …ltret kan nu, med hjälp av förskjutningspolynomet, skrivas (3.3a) (3.3b) L (B) (xt + yt ) = L (B) xt + L (B) yt L (B) axt = aL (B) xt 6 I föregående kapitel de…nierade vi säsongrensning som en metod att plocka fram komponenterna ct , st och It . Ett annat sätt att utrycka detta är att säga att säsongrensning är en metod att eliminera komponenterna ct , st och It . Ty att plocka fram ct är detsamma som att eliminera st och It . Denna dualitet ger att vi är intresserade av att undersöka ett lineärt …lter med avseende på egenskaperna (3.4a) (3.4b) L (B) xt L (B) yt = xt = 0 eller alternativt konstruera ett …lter med dessa egenskaper. För denna undersökning/konstruktion behöver vi teorin för linjära di¤erensekvationer. 3.2 Di¤erensekvationer Med en linjär di¤erensekvation, av ordning n och med reella konstanta koe¢ cienter a0 ; a1 ; : : : ; an menas en ekvation av formen (3.5) a0 xt + a1 xt 1 + + an xt n = yt t 2 T0 där följden fyt g är känd. Om yt = 0 för alla t säges ekvationen vara homogen annars icke-homogen. Med hjälp av förskjutningsoperatorn kan denna ekvation skrivas (3.6) A (B) xt = yt t 2 T0 där A (B) = a0 + a1 B + + an B n . Polynomet C (x) = xn A karakteristiska polynomet hörande till ekvation 3.5 ovan. 1 x kallas det Sats 3.1 Den allmänna lösningen till ekvation 3.5 ovan kan skrivas P xt = xH t + xt P där xH t , ekvationens homogena lösning, och xt , ekvationens partikulära lösning, uppfyller A (B) xH t A (B) xP t = 0; = yt : Sats 3.1 ger oss en metod för att lösa di¤erensekvationer med konstanta koe¢ cienter d v s om vi kan hitta den homogena respektive partikulära lösningen så har vi också hittat lösningen till di¤erensekvationen. Man kan även visa att det räcker med en partikulär lösning (vilken som helst). Det …nns ingen allmän metod för att …nna den partikulära lösningen utan man är hänvisad till diverse knep och sin egen matematiska intuition. Annat är läget när det gäller den homogena lösningen och resten av detta avsnitt skall vi ägna åt att …nna den homogena lösningen. Om r1 ; r2 ; : : : ; rn betecknar nollställena till polynomet C (x) så kan detta faktoruppdelas och vi har C (x) = a0 (x r1 ) (x r2 ) (x rn ) . Observera att om något ri är komplext så …nns rj sådant att ri = rj ty koe¢ cienterna a0 ; a1 ; : : : ; an är reella. 7 Sats 3.2 Om varje nollställe till C (x) förekommer endast en gång så har differensekvationen A (B) xt = 0 lösningen xt = b1 r1t + + bn rnt där konstanterna b1 ; b2 ; : : : ; bn bestämmes av begynnelsevillkoren, i allmänhet värdena x0 ; x1 ; : : : ; xn 1 . Bevis. Vi skall bevisa satsen medelst ett induktionsbevis. 1. Om n = 1 så gäller att (1 r1 B) xt = 0 ) xt = r1 xt 1 = r12 xt 2 = varav följer att xt = x0 r1t = b1 r1t 2. Antag nu att satsen är sann då n = k och sätt zt = (1 erhålls (1 r1 B) (1 r2 B) (1 (1 r1 B) (1 rk B) (1 rk+1 B) xt r2 B) (1 rk B) zt rk+1 B) xt då = 0 = 0 varvid vi erhåller zt = b01 r1t + + b0n rnt ty satsen är sann då n = k. Vi har nu ekvationen rk+1 B) xt = b01 r1t + (1 + b0n rnt och den har den partikulära lösningen xP t bi = b1 r1t + + bn rnt , b0i ri i = 1; 2; : : : ; k. = ri rk+1 Detta följer av (1 rk+1 B) k X bi rit k X = i=1 rk+1 bi rit bi rit 1 i=1 k X = bi rit 1 (ri rk+1 ) i=1 k X = i=1 b01 r1t = b0i ri rt ri rk+1 i + 1 (ri rk+1 ) + b0k rkt . Den homogena lösningen blir t xH t = bk+1 rk+1 och vi har H t xt = xP t + xt = b1 r1 + 8 t + bn rnt + bk+1 rk+1 . 3. Induktionsprincipen ger nu påståendet Återstår att betrakta det fall då det karakteristiska polynomet C (x) har multipla nollställen. Vi börjar med endast ett dubbel-nollställe –r1 = r2 . Låt först r2 vara ett nollställe som ligger på avståndet från r1 . Vi har således att r2 = r1 + samt att uttrycket t r1t (r1 + ) är en lösning till A (B) xt = 0 för alla : Härav följer att t lim (r1 + ) !0 r1t = tr1t 1 också är en lösning till A (B) xt = 0 när vi har ett dubbelt nollställe. Den fullständiga lösningen vid ett dubbel-nollställe kan därför skrivas xt = (b1 + b11 t) r1t + t + bk rkt + bk+1 rk+1 vilket låter sig generaliseras till följande allmänna sats. Sats 3.3 Den allmänna lösningen till di¤ erensekvationen A (B) xt = 0 är 0 1 mi m m X X X jA t @ xt = bij t ri mi = n i=1 j=0 i=1 där r1 ; r2 ; : : : ; rn är nollställen till det karakteristiska polynomet C (x). Vardera av multiplicitet mi . 3.3 Egenskaper hos linjära …lter I nästan alla säsongrensningsprogram, och speciellt X11-ARIMA, …ltreras den betraktade tidsserien ‡era gånger med olika linjära …lter. Resultatet av dessa operationer är ett nytt linjärt …lter –ty vi har följande sats. Sats 3.4 Om L1 och L2 är två linjära …lter så blir …ltret L3 = L1 (L2 ) = L2 (L1 ) också linjärt. Bevis. Vi har yt zt = L1 (xt ) = L1 (B) xt , = L2 (yt ) = L2 (B) yt . varav zt = L2 (B) yt = L2 (B) L1 (B) xt = L3 (B) xt 9 där L3 (B) X = l1;i B i i XX = i l1;i l2;j B i+j j = l1;i l2;k i i k X l2;j B j j X X = X ! Bk l3;k B k k där P k l3;k = P i l1;i l2;k i . I X11-ARIMA …nns två centrala …lter dels det centrerade 12-månaders …ltret och dels Henderson…ltret. Det senare …ltret är relativt komplicerat så det får ett eget avsnitt i kapitel 5 på sid 33. Däremot är det centrerade 12-månaders…ltret lätt att räkna på och därför skall vi ta det som genomgående exempel i detta avsnitt. Det centrerade 12-månaders…ltret de…nieras av sammansättningen av de två 1 …ltren L1 = 12 [12] och L2 = 12 [2]. Det resulterande …ltret (3.7) L3 = 1 1 [12] [2] = [1; 2; 2; 2; 2; 2; 2] 24 24 är symmetriskt. Beviset härför överlåtes på läsaren. 3.3.1 Funktioner som avbildas på 0 De funktioner som det linjära …ltret L avbildar på noll är de funktioner xt som ingår i den homogena lösningen till L (B) xt = 0. Exempel 3.1 För …ltret L = xt 6 + 2xt 5 1 24 + 2xt 4 [1; 2; 2; 2; 2; 2; 2] erhålls di¤ erensekvationen + + 2xt+4 + 2xt+5 + xt+6 = 0 vars karakteristiska ekvation är x12 + 2x11 + 2x10 + + 2x2 + 2x + 1 = 0. Ekvationen synes hopplös att lösa men med följande observation erhålls de 12 rötterna lätt: x12 + 2x11 + 2x10 + + 2x2 + 2x + 1 = (1 + x) 1 x12 1 x x 6= 1. Det gäller nu att …nna lösningarna till den betydligt enklare binomiska ekvationen 1 x12 = 0 samt att utesluta lösningen x = 1. Detta ger oss 11 rötter och 10 den 12:te är självklart x = xH t 1. På så sätt erhålls den homogena lösningen till1 t = (b1 + b2 t) ( 1) + 11 X bk+2 ek i=6 bk+2 ek it=6 t k=1 k6=6 t = (b1 + b2 t) ( 1) + 5 X + b13 ke k it=6 k=1 t = (b1 + b2 t) ( 1) + 5 X fk (t) k=1 där funktionerna fk (t) är periodiska med följande perioder k 1 2 3 4 5 Funktion fk (t) b3 et i=6 + b12 e b4 et i=3 + b11 e b5 et i=2 + b10 e b6 et2 i=3 + b9 e b7 et5 i=6 + b8 e t i=6 t i=3 t i=2 t2 i=3 t5 i=6 Period 12 6 4 6 12 Detta innebär att …ltret släcker en i ekonomiska sammanhang ointressant funktion, alternerande lineär, men också att …ltret tar bort alla svängningar av period 12 (månader), 6 (halvår) och 4 (kvartal) samt kombinationer av dessa. Detta är mycket intressanta inom ekonomiska sammanhang ty om man kan ta bort e¤ ekterna av normala ekonomiska svängningar så återstår endast det som betecknas irreguljärt och den delen är intressant att studera för att se om något hänt, om teorin inte stämmer, om det …nns mer struktur o s v. Några exempel på periodiska funktioner som avbildas på noll ges i …gurerna nedan:2 y 1.0 y 0.5 1.0 0.5 0.0 0.0 5 10 15 20 5 x -0.5 -0.5 -1.0 -1.0 1 För 10 k = 6 erhålls 1 och den …nns redan i det lineära uttrycket till vänster. som avbildas på 0 är: 2 Funktionerna 1. sin 3 t , 2. sin 6 t , 3. 2 + sin 4. sin 2p t 12 p t 6 1 + sin + sin p t 3 2p(t 3) 6 +4 0:5 sin + sin 2p(t+1) 4 p t 2 11 , 15 20 x y y4 4 3 3 2 2 1 1 0 0 2 4 6 8 0 10 12 14 16 18 20 22 24 x 2 4 6 8 10 12 14 16 18 20 22 24 Det går som synes att avbilda en stor mängd av periodiska funktioner på noll och eftersom periodiciteter är allmänt förekommande i ekonomiska tidsserier är det inte svårt att förstå varför lineär …ltrering är användbart för att förstå just ekonomiska tidsserier. Det …nns dock en baksida – vad händer med de funktioner som inte avbildas på noll. Vi skall nu först studera de funktioner som …ltret avbildar på sig själva d v s de funktioner som …ltret släpper igenom ograverade. 3.3.2 Funktioner som avbildas på sig själva De funktioner som avbildas på sig själva är de som är lösningar till di¤erensekvationen L (B) xt = xt . Denna ekvation är en maskerad homogen di¤erensekvation ty det gäller (L (B) Exempel 3.2 För …ltret L = xt 6 + 2xt 5 + 2xt 1 24 4 1) xt = 0. [1; 2; 2; 2; 2; 2; 2] erhålls di¤ erensekvationen + + 2xt+4 + 2xt+5 + xt+6 = 24xt vars karakteristiska ekvation blir x12 + 2x11 + 2x10 + + 2x7 22x6 + 2x5 + Medelst faktorisering erhålls faktorn (1 + 2x2 + 2x + 1 = 0. 2 x) och faktorn 1 + 4x + 9x2 + 16x3 + 25x4 + 36x5 + 25x6 + 16x7 + 9x8 + 4x9 + x10 = 0. Den första faktorn ger oss rötterna r1 = r2 = 1 och det återstår att lösa ekvationen 1 + 4x + 9x2 + 16x3 + 25x4 + 36x5 + 25x6 + 16x7 + 9x8 + 4x9 + x10 = 0 för att …nna rötterna r3 ; : : : ; r12 . Vi gör detta numeriskt och erhåller då lösningen på formen 12 X xt = (b1 + b2 t) + bk rkt . k=3 12 x I tabellen nedan anger vi värdena på rk och deras absoluta belopp: k 1,2 3 4 5 6 7 8 9 10 11 12 rk 1 2:033 0:492 1:157 + 1:466i 1:157 1:466i 0:542 + 1:518i 0:542 1:518i 0:209 + 0:584i 0:209 0:584i 0:332 + 0:420i 0:332 0:420i jrk j 2:033 0:492 1:868 f1 (t) 1:612 f2 (t) 0:9998 f3 (t) 0:535 f4 (t) Lösningen xt innehåller således linjära trender (rötterna 1 och 2), explosiva tillskott (rötterna 3, 5, 6, 7 och 8) samt snabbt avtagande funktioner (rötterna 4, 9, 10, 11 och 12). Detta är dels glädjande ty …ltret släpper igenom linjära trender (vanligt förekommande i ekonomiska tidsserier) och dels brydsamt eftersom ingen, av mig, känd ekonomisk teori ger upphov till de andra funktionerna. Avslutningsvis ger vi …gurerna för de fyra funktionerna f1 -f4 : y 2e+6 y 40000 20000 0 0 5 10 15 20 5 -20000 x 10 15 20 x -40000 -2e+6 -60000 -4e+6 -80000 -6e+6 -1.2e+5 -1e+5 Funktionen f1 . y Funktionen f2 . 2.0 y 2.0 1.5 1.5 1.0 1.0 0.5 0.5 0.0 0.0 5 5 10 15 -0.5 20 x Funktionen f3 . 3.4 10 15 -0.5 20 x Funktionen f4 . E¤ekter på slumpkomponenten –periodicitetsmönster Vi skall nu undersöka vad som händer när vi …ltrerar en slumpmässig serie fIt g med ett linjärt …lter L. Om serien fIt g skall vi antaga att de stokastiska elementen It ; t 2 T är oberoende och normalfördelade med väntevärdet 0 och 13 variansen 2 . Den …ltrerade serien betecknar vi med fYt g och det gäller Yt = L (It ) = n X li It i i=m samt att (3.8a) (3.8b) E (Yt ) k = 0 = E (Yt Yt+k ) 0 n X = E@ li It i i=m = n X n X n X lj It+k j j=m li lj E (It i It+k 1 A j) i=m j=m ft i=t+k jg = X 2 l i lj = i+j=k i;j=m;:::;n (3.8c) = 2 n X li lk 2 n X n X l i lj i=m j=m i+j=k i i=m där den sista likheten följer av antagandet om oberoende och att E (It ) = 0. Processen fYt g:s kovariansfunktion beror således endast av k och ej av t. Härav följer att processen är kovariansstationär. Speciellt har vi att fYt g är en "moving average"-process av ordning n m och detta betecknas Yt 2 M A (n m) . I …gurerna nedan beskriver den första kurvan processen fIt g (vitt brus) och den andra den …ltrerade processen fYt g. Det …lter som har använts här är 1 [2] [12]. L = 24 y y 4 4 3 3 2 2 1 1 0 0 20 40 60 80 100 120 140 160 180 200 220 240 260 280 300 320 340 360 20 40 60 80 100 120 140 160 180 200 220 240 260 280 300 320 340 x x Vitt brus 3.4.1 Filtrerat vitt brus Förväntad period De två …gurerna indikerar att en linjär …ltrering kan ge upphov till mönstret där inga fanns från början. Denna periodicitets natur skall vi nu utreda. Först de…nierar vi begrepppet period hos en kovariansstationär stokastisk process. Det …nns ‡era olika sätt och vi väljer följande: 14 De…nition 3.2 Perioden för en kovariansstationär stokastisk process med väntevärde noll de…nieras av avståndet mellan processens uppkorsningar. En uppkorsning de…nieras av att den stokastiska processen byter tecken från minus till plus. Perioden för en stokastisk process är naturligtvis inte ett deterministiskt tal utan en stokastisk variabel och vi skall bestämma dess förväntade värde. Beteckna perioden med P . Inför hjälpvariabeln Zt som kontrollerar om en uppkorsning sker i intervallet (t; t + 1] samt hjälpvariabeln Na som räknar antalet uppkorsningar i intervallet (0; a 1] (t och a antar här heltalsvärden men det går att göra det mer allmänt). Detta ger oss följande de…nitioner av Zt och Na : Zt = Na = 1 Yt < 0; Yt+1 > 0 , 0 annars a X1 Zt . t=0 I intervallet (0; a 1] sker Na uppkorsningar och avståndet mellan den i:te och i + 1:a uppkorsningen betecknar vi med Pi . Detta Pi är den i:te mätningen på den stokastiska variabeln P , processens period. Vi bildar nu följande två stokastiska variabler: a = genomsnittlig längd mellan uppkorsningar i intervallet Na (0,a-1] + lite skräp i ändarna 1 Na 1 NX a 1 Pi = genomsnittlig periodlängd i intervallet (0,a-1] i=1 Av …guren nedan indikeras att dessa två variabler är approximativt lika samt att approximationen blir bättre när a ! 1. Således gäller sambandet (3.9) NX a 1 a 1 = lim Pi . a!1 Na a!1 Na 1 i=1 lim 15 Väntevärdet av högerledet i (3.9) erhålls till ! NX a 1 1 E lim Pi = lim E a!1 Na a!1 1 i=1 = = = lim E a!1 lim E a!1 1 Na 1 NX a 1 1 E Na 1 Na 1 Pi i=1 1 ! NX a 1 NX a 1 i=1 i=1 Pi j N a !! ! E (Pi j Na ) lim E (E (P )) = E (P ) a!1 Vi har därmed lyckats få en likhet mellan det vi söker, E (P ), och något som vi förhoppningsvis kan beräkna. Med hjälp av Gauss approximationsformel erhålls nu (observera a ej är stokastisk) a a!1 Na E (P ) = E lim = lim E a!1 a Na a . a!1 E (Na ) lim Återstår att beräkna E (Na ) = E a X1 t=0 = a X1 Zt ! = a X1 E (Zt ) t=0 P (Yt < 0; Yt+1 > 0) t=0 = a X1 P (Y0 < 0; Y1 > 0) t=0 = aP (Y0 < 0; Y1 > 0) där vi i steg 3 utnyttjat att processen fYt g är en normalprocess. Närmare bestämt har vi utnyttjat att en kovariansstationär normalprocess är stationär. Problemet är nu reducerat till att bestämma P (Y0 < 0; Y1 > 0). För att bestämma denna sannolikhet betraktar vi täthetsfunktionen för vektorn (Im ; : : : ; In+1 ) dF = (n m+2)=2 1 2 e 2 Pn 2 i=m xi 2 2 dxm dxn+1 . I denna funktions de…nitionsområde avgränsar händelsen (Y0 < 0; Y1 > 0) ett område som bestäms av de två planen n X li yi = 0, li yi+1 = 0. i=m n X i=m För att få en inblick i vad som sker görs räkningarna först för fallet n = m = 0. 16 Detta gäller om E (Pi jNa ) = E (Pi ) vilket inte allmännt är sannt ty ej oberoende. Palmsannolikheter? Variant av stora talens lag? De två planen ovan kan nu skrivas l0 y0 = 0 och l0 y1 = 0. Området som avgränsas, l0 y0 < 0 och l0 y1 > 0, är då det streckade området i …guren nedanVi observerar att vinkeln v mellan de två planen kan erhållas på följande sätt. Planens normalvektorer n1 och n2 erhålls till n1 = (l0 ; 0) och n2 = (0; l0 ) och för dessa gäller cos (v) = (n1 ; n2 ) =0 jn1 j jn2 j vilket naturligtvis ger, som väntat, v = =2 (90 ). En …gur över täthetsfunktionen ses nedan och då denna är symmetrisk ser vi nu att P (Y0 < 0; Y1 > 0) = 1 =2 = . 4 2 I det allmänna fallet resonerar vi på följande sätt. De två planen skär ut en "tårtbit" ur täthetsfunktionens de…nitionsområde och eftersom funktionen är symmetrisk blir sannolikheten för att hamna i denna "tårtbit" densamma som "tårtbitens" vinkel delat med 2 (360 ). Om vi betecknar denna vinkel med v erhålls v P (Y0 < 0; Y1 > 0) = . 2 17 Vinkeln v mellan de två planen är densamma som vinkeln mellan planens normaler. Dessa normaler är n1 = (lm ; : : : ; ln ; 0) och n2 = (0; lm ; : : : ; ln ) och för dessa gäller cos (v) (n1 ; n2 ) jn1 j jn2 j Pn 1 i=m li li+1 P n 2 . i=m li = = Detta ger nu den av oss sökta formeln på förväntad period till 2 E (P ) Pn 1 i=m li li+1 P n 2 i=m li arccos 3.5 . Slutskys sats Linjär …ltrering av en vitt brus process fIt g kan skapa mönster där inga ursprungligen fanns. Detta är en mycket dålig egenskap hos linjära …lter men lyckligtvis kan man ofta minska e¤ekten av den, mer om det senare. Här skall vi istället besvara frågan: Hur periodisk kan den …ltrerade vitt brus processen bli? Svaret på denna fråga ges av Slutsky:s sats, men innan vi går in på denna måste vi införa en del ny matematik. De…nition 3.3 Med en talföljd fai g:s z-transform skall vi mena funktionen A (z) = 1 X ak z k k= 1 där z är ett godtyckligt komplext tal. Om z = eiv så skriver vi A (v) = 1 X ak eikv . k= 1 n Hitills har vi alltid betraktat ändliga linjära …lter L = [li ]i=m men för att 1 få enklare beteckningar skall vi utvidga dem till L = [li ]i=1 . Det är då underförstått att om L är ändligt så är li = 0 för i = m 1; m 2; : : : och i = n + 1; n + 2; : : :. Med den …ltrerade serien fYt g:s spektraltäthet skall vi förstå funktionen 1 X R (v) = E (Yt Yt+k ) eikv = k= 1 1 X ikv . ke k= 1 Med hjälp av formel (3.8b) …nner man att för en M A (1)-process gäller (3.10) R (v) = 1 X 1 X lj l k ikv je = k= 1 j= 1 1 X j= 1 = L (v) L ( v) = L (v) L (v) 2 = jL (v)j . 18 lj eijv 1 X k= 1 lk i(k j)v je Ur detta samband mellan spektraltätheten och …lterfunktionen följer att även den förra är symmetrisk ty (3.11) R (v) = L (v) L ( v) = L ( ( v)) L ( v) = R ( v) . Denna egenskap ger att spektraltätheten även kan skrivas R (v) = 0 = 0 = 0 1 X + ikv ke k= 1 1 X + +2 ikv ke k=1 eikv + e k k=1 1 X + 1 X k ikv cos (kv) k=1 vilket i sin tur ger sambandet Z cos (jv) R (v) dv = 0 Z cos (jv) 0 +2 0 = 1 X k cos (kv) k=1 j ! dv varav (3.12) j = 1 Z cos (jv) dR (v) 0 där dR (v) = R (v) dv. Slutligen behöver vi följande de…nition av en konvergenstyp: De…nition 3.4 Den stokastiska följden fYt g säges konvergera i sannolikhet mot Y om det till varje > 0 gäller att lim (P jYt t!1 Y j > ) = 0. Denna typ av konvergens skriver vi: plimYt = Y . Sats 3.5 (Slutsky 1937) Låt fIt g vara en vitt brus process och tag följande två linjära …lter L1 = [1; 1] och L2 = [1; 1] samt bilda av dessa …ltret Lnm = Ln1 (Lm 2 ). Låt talen m och n närma sig oändligheten på ett sådant sätt att lim m n = 0 < < 1. Då konvergerar p Ynm (t) = Lnm (It ) = nm (0), där nm (0) = V (Lnm (It )), i sannolikhet mot en sinuskurva med perioden p= 2 arccos 19 1 1+ . där Bevis. Processen fLnm (It )g:s spektraltäthet erhålls med hjälp av (3.10) till 2 jLnm (v)j 1 + eiv = n 1+e iv n 1 eiv n m 2 + eiv + e iv 2 eiv e iv n m 2n+m (1 + cos (v)) (1 cos (v)) v v = 22(n+m) cos2n sin2m . 2 2 = = 1 e iv m m Ekvation (3.12) ger nu att (se appendix) Z v v 1 2(n+m) cos2n sin2m 2 nm (0) = 2 2 0 dv 22(n+m) (m + 1=2) (n + 1=2) (m + n + 1) n m nm (1) = nm (0) m+n+1 m2 + n2 6mn n m (2) = (0) nm nm (m + n + 2) (m + n + 1) p där, med hjälp av Strilings formel, (x) = 2 e x xx+1=2 ean =12n ; 0 < an < 1. Spektraltätheten till processen fYnm (t)g erhålls nu till = Rnm (v) = = = (m + n + 1) v v cos2n sin2m (m + 1=2) (n + 1=2) 2 2 n m 2 (m + n + 1) n m (1 + cos (v)) (1 cos (v)) (m + 1=2) (n + 1=2) 1 X ikv nm (k) e k= 1 där nm (k) = nm (k) = nm (0). Denna funktion Rnm (v) har maximum då v = arccos ((n m) = (n + m)) vilket man lätt övertygar sig om genom att beräkna derivatan av ln Rnm (v) =konstant+n ln (1 + cos (v)) + m ln (1 cos (v)). 2n 2 m + x där n+m < x < n+m så erhålls med Om vi nu sätter cos (v) = nn+m hjälp av Stirlings formel att r m n p m+n m+n (3.13) Rnm (v) 1+x . m+n+1 1 x 2 2m 2n Då x = 0 ser vi ur (3.13) att lim Rnm (v) = 1. För x 6= 0 kan man visa att Rnm (v) konvergerar likformigt mot noll i varje intervall som ej innehåller arccos 11+ . Därmed har vi "visat" att R (v) = lim Rnm (v) = Härur följer att R 8 < 1 v = arccos : 0 v 6= arccos 1 1+ 1 1+ . Rnm (v) dv konvergerar mot en trappstegsfunktion med ett enda trappsteg för v = arccos 1 1+ 20 Då relation (3.12) kan skrivas j = 1 cos (jv) dR erhålls att trappstegets höjd är ; ty (3.14) j = lim nm = 1. Således …nner vi 0 1 1+ (j) = cos j arccos ; j = 0; 1; 2; : : : . Därmed är vi klara med förberedelserna för att kunna visa att Ynm (t) konvergerar i sannolikhet mot en sinuskurva med period 2 p= . 1 1+ arccos Först konstaterar vi att en dylik sinuskurva satis…erar di¤erensekvationen (3.15) Yt+2 2 1 Yt+1 + Yt = 0 t = 1; 2; 3; : : : . där 1 erhålls ur (3.14). Omvänt ger di¤erensekvationen (3.15) en sinuskurva med period p. Låt nu Y1 ; Y2 ; : : : ; YN vara sådana att Yt = plimYnm (t) för t = 1; 2; : : : ; N . Bilda variablerna Tnm (t) enligt Tnm (t) = Ynm (t + 2) 2 nm (1) Ynm (t + 1) + Ynm (t) t = 1; 2; : : : ; N . För dessa gäller E (Tnm (t)) = 0 V (Tnm (t)) = E (Ynm (t + 2) 2 nm (1) Ynm (t + 1) + Ynm (t)) = 1 + 4 2nm (1) + 1 4 2nm (1) + 2 nm (2) 4 2nm (1) = 2 1 2 2nm (1) + nm (2) 2 Om vi nu kan visa att Tnm (t) ; t = 1; 2; : : : ; N simultant konvergerar mot noll i sannolikhet så följer att di¤erensekvation (3.15) gäller och därmed att följden fYnm (t)g är en sinuskurva med den ovan angivan perioden. För ett godtyckligt tal > 0 erhålls med hjälp av Tjebysjov:s olikhet att P N X2 i=1 jTnm (i)j > ! E 22 fChung sid 48g = fse appendixg = och det följer att plim P PN 2 i=1 PN 4 (N 23 (N 2 2 2 i=1 2 jTnm (i)j 2 E jTnm (i)j 2 2) 1 2) 2 2 nm 2 (1) + nm (2) 8mn + 4m + 4n + 2 2 (m + n + 1) (m + n + 2) jTnm (i)j = 0. Detta är ekvivalent med att plimTnm (i) = 0 för i = 1; 2; : : : ; N 21 2. 3.6 Hur linjära …lter konstrueras I föregående sektion har vi gett metoder för att undersöka egenskaperna hos, på förhand givna, linjära …lter. Nu skall vi ge en metod för det omvända problemet: Hur skall det linjära …lter, som har vissa på förhand givna egenskaper, se ut? Nyckeln till den sökta metoden gavs redan i avsnittet om Slutsky:s sats –"Lineär …ltrering av en vitt brus process fIt g skapar mönster där inga urn sprungligen fanns". Härav följer att vi måste välja vårt linjära …lter L = [li ]i=m så att storleksordningen av L (It ) blir mycket mindre än storleksordningen av L (ct + st ). På så sätt blir den …ltrerade brus processen:s in‡ytande obetydligt och dess speciella uppförande blir ointressant. Nu är begreppet storleksordning di¤ust och vår första uppgift blir att skärpa detta begrepp, så att det blir hanterbart. Betrakta därför n X L (It ) = li It i i=m där Pn i=m li t 2 T0 = 1 och It 2 ON (0; ). För denna process gäller E (L (It )) V (L (It )) = = n X i=m n X li E (It i ) = 0, li2 V (It i ) = i=m 2 n X li2 . i=m Av dessa två uttryck ser vi att om V (L (It )) är liten, blir även L (It ) det. Denna observation ger oss följande de…nition på ett …lters storleksordning. De…nition 3.5 Filtret L1 säges vara av lägre storleksordning än …ltret L2 om n X 2 l1i < i=m n X 2 l2i . i=m Om det ej …nns något …lter L2 så att n X 2 l1i > i=m n X 2 l2i i=m säges …ltret L1 vara optimalt. Observera att vi vid de…nition av storleksordning ej jämför L (It ) med L (ct + st ) utan endast med sig själv. Vi har nu följande sats om optimala …lter: n Sats 3.6 Det linjära …ltret L = [li ]i=m är optimalt om och endast om li = 1 ; m+n+1 i = m; m + 1; : : : ; n 1; n. Pn Bevis. För alla linjära …lter gällerP i=m li = 1. Antag nu att …ltret är opn 2 timalt. Detta Pn är ekvivalent med att i=m li antar sitt minsta värde under bivillkoret i=m li = 1. Lagranges multiplikatormetod ger att vi skall minimera 22 funktionen F = F (lm ; : : : ; ln ; a) n n X X = li2 + a li i=m @F @li @F @a sätt @F @li = @F @a = = ! 1 i=m 2li + a n X li 1 i=m = 0 varvid erhålls lösningen 2 1 li = . m+n+1 m+n+1 Pn 1 Omvänt, om li = m+n+1 så antar i=m li2 sitt minsta värde under bivillkoret Pn i=m li = 1. Således är …ltret optimalt. a= 1 Följdsats 3.1 Det optimala …ltrets storleksordning är m+n+1 . 2 Pn P n m+n+1 1 1 2 Bevis. = (m+n+1) 2 = m+n+1 . i=m li = i=m m+n+1 I sats P 3.6 har …ltret ingen annan egenskap än den som alla linjära …lter n besitter – i=m li = 1. För varje ytterligare egenskap som vi lägger på avlägsnar vi oss från det optimala …ltret. Två vanliga egenskaper som man kräver av ett linjärt …lter är dels att det skall eliminera periodiska förlopp (säsongvariationer) och dels skall de släppa igenom polynom (konjunkturcykeln). dessa egenskaper ger upphov till två bivillkor som vi kan skriva L (ct ) L (st ) = ct , = 0. Totalt har vi nu tre villkor på komponenterna li , vilket ger tre ekvationer för att bestämma dessa. Vanligen har …ltret mer än tre obestämda komponenter och för att bestämma samtliga minimerar vi F = F (lm ; : : : ; ln ; a; b; c) ! n n X X 2 = li + a li 1 + b (L (ct ) i=m ct ) + cL (st ) i=m med hjälp av Lagranges multiplikatormetod.3 3 Jämnare kurvor erhålls om vi i formeln ovan byter ut 2 + l2 . Detta senare uttryck är V (L (I lm It 1 )). t n En blandning 0 n n X X 2 d (li li 1 ) + e @ (li li i=m i=m+1 av de två uttrycken kan också förekomma. 23 Pn 2 i=m li 1) 2 + mot 2 lm + Pn i=m+1 1 2A ln (li li 1) 2 + För att illustrera metodiken vid konstruktion av linjära …lter skall vi nu ge ett par exempel. I båda exemplen skall vi hitta det symmetriska linjära …lter som släpper igenom linjära polynom och som eliminerar sinusfunktioner med period 12. Exempel 3.3 Bilda det symmetriska linjära …lter av ordning 7 som är sådant att a) L (a + bt) = a + bt, b) L (sin ( t=6) + c) = 0 och c) V (L (It )) minimeras. P3 Lösning. Först noterar vi att villkoret i= 3 li = 1 tillsammans med symmetrin ger L (a + bt) = 3 X lt (a + b (t i)) i= 3 = a 3 X lt + b i= 3 = a + bt 3 X lt (t i) i= 3 b 3 X li i i= 3 fpå grund av symmetring = a + bt. Vi har därmed visat att: varje symmetriskt linjärt …lter släpper igenom linjära polynom. För att …nna villkor på …ltret som utsläcker periodiciteter utvecklar vi L (sin ( t=6 + c)) = 3 X li sin ( (t i) =6 + c) i= 3 = l0 sin c + 1 t 6 1p 1 1p 1 3l1 sin c + t + 3l 1 sin c + t 2 6 2 6 1 1 1 1 + l2 sin c + t + l 2 sin c + t 2 6 2 6 1 1 l3 cos c + t + l 3 cos c + t 6 6 1 1p 1p 1 1 = l 2+ 3l 1 + l0 + 3l 1 + l2 sin c + t 2 2 2 2 6 + För att bli av med l 3 och l3 har vi använt oss av symmetrin. För att …ltret skall släcka angiven peridicitet måste därför gälla p p l 2 + 3l 1 + 2l0 + 3l1 + l2 = 0. Vi minimerar nu variansen, med hjälp av Lagranges multiplikatormetod, under de två bivillkoren a) och b) och erhåller då ! 3 3 X X p p 2 F = li + li 1 + l 2 + 3l 1 + 2l0 + 3l1 + l2 i= 3 i= 3 T = LAL T LB 24 där L = ( ; ; l 3 ; l 2 ; l 1 ; l0 ; l1 ; l2 ; l3 ) B = (1; 0; 0; 0; 0; 0; 0; 0; 0) 0 0 0 0:5 0:5 0:5 0:5 p B 0 3 0 0 0:5 2 1 B B 0:5 0 1 0 0 0 B B 0:5 0:5 0 1 0 0 B p B A = B 0:5 23 0 0 1 0 B B 0:5 p1 0 0 0 1 B 3 B 0:5 0 0 0 0 2 B @ 0:5 0:5 0 0 0 0 0:5 0 0 0 0 0 0:5 p 3 2 0 0 0 0 1 0 0 0:5 0:5 0 0 0 0 0 1 0 Vi …nner nu att @F = 2ALT @L och @F @L 0:5 0 0 0 0 0 0 0 1 1 C C C C C C C C C C C C C A BT = 0 ger oss lösningen LT = 1 A 2 1 BT varur vi …nner vikterna l0 l1 l2 l3 p 1 5 3+1 p = 0:10, 2 5 3 + 38 p 1 7 3 6 p 0:03, = l 1= 2 10 3 + 76 p 1 2 3+5 p = l 2= 0:16, 2 6 3 + 16 3 p = l 3= 0:42. 2 2 3 7 Det symmetriska …ltret av ordning 7 som uppfyller villkoren a) - c) ovan är således L = [0:42; 0:16; 0:03; 0:10] och dess storleksordning är 3 X li2 0:42 i= 3 Exempel 3.4 Bilda det symmetriska linjära …ltret av ordning 13 som är sådant att a) L (a + bt) = a + bt, b) L (sin ( t=6) + c) = 0 och c) V (L (It )) minimeras. 25 Lösning. På samma sätt som ovan …nner vi L (sin ( t=6 + c)) = 6 X lk sin ( (t k) =6 + c) k= 6 = l0 sin c + 1 t 6 1p 1 3l1 sin c + t 2 6 1 1 + l2 sin c + t + 2 6 1 l3 cos c + t +l 6 1 1 l4 sin c + t 2 6 1p 1 3l5 sin c + t 2 6 1 t l l6 sin c + 6 p 3 1 = l 6 l 5 l 2 2 + + 1 1p 3l1 + l2 2 2 1 l4 2 + 1 l 2 1p 3l 2 2 sin c + 1 sin c + 1 t 6 1 t 6 1 t 6 1 1 l 4 sin c + t 2 6 1 1p 3l 5 sin c + t 2 6 1 t 6 sin c + 6 3 4 cos c + 1 + l 2 p 3 l5 2 2 1p 3l 2 ! + l6 1 + l0 sin c + 1 t 6 För att bli av med l 3 och l3 har vi använt oss av symmetrin. För att …ltret skall släcka angiven peridicitet måste därför gälla p p 3 1 1 1p 1p 1 1 3 l 6 l 5 l 4+ l 2+ 3l 1 + l0 + 3l1 + l2 l4 l5 l6 = 0. 2 2 2 2 2 2 2 2 På samma sätt som förut erhålls funktionen F = LALT LBT fast här får vi istället en matris om 15 rader och kolumner. Det symmetriska …ltret av ordning 13 som uppfyller villkoren a) - c) ovan blir således L = [0:07; 0:07; 0:07; 0:08; 0:08; 0:08; 0:08] och dess storleksordning är 3 X li2 0:077. i= 3 3.7 Slutsatser I exempel 3.3 är den optimala storleksordningen 1=7 0:14 och det av oss framräknade …ltrets storleksordning ca 0:42 ligger ganska långt från det optimala 26 värdet. Helt annorlunda är läget i exempel 3.4 där den optimala storleksordningen är 1=13 0:077. Att jämföras med det framräknade …ltrets storleksordning som är 0:077. Ett till tre decimalers noggranhet ekvivalent värde. Nackdelen med detta senare …lter är att man ej kan …ltrera tidseriens sex sista värden vilka, åtminstone vid ekonomiska tidserier, innehåller den mest intressanta informationen.4 Ett …lter av ordning 13 som är allmänt använt är L= 1 [2] [12] = [0:04; 0:08; 0:08; 0:08; 0:08; 0:08; 0:08] . 24 Detta …lter brukar kallas "det centrerade 12-månaders …ltret" och dess storleksordning är 0:08. Anledningen till att man använder detta …lter istället för …ltret i exempel 3.4 är historiska. Förr fanns inga datamaskiner utan man räknade för hand och det centrerade 12-månaders…ltret lämpar sig väl för dylik hantering. När det dessutom är av samma storleksordning (skillnad tre tusendelar) varför skall man byta? 4 Valet mellan ett kort respektive långt …lter skall baseras på tidseriens utseende. Om den är jämn kan man ta ett kort …lter men om den är hoppig får man ta ett långt. 27 4 Polynom…lter I kapitel 3 utgick vi ifrån att säsongrensning görs med hjälp av linjära …lter och utredde dessa …lters egenskaper. I detta kapitel skall vi utgå ifrån att vår tidsserie fOt g lokalt kan approximeras av ett polynom. Med lokal approximation menar vi att till en bit av tidsserien anpassas ett polynom med hjälp av minsta kvadratmetoden. Motsatsen, global approximation, innebär att anpassningen görs till hela tidsserien. Denna metodik, med lokal polynomapproximation, är föregångare till den av oss i kapitel 3 beskrivna metodiken med linjära …lter. Lokal polynomapproximation, som den beskrivs nedan, leder faktiskt till ett linjärt …lter och blir således den naturliga länken mellan det intuitivt självklara och metodiken med linjär …ltrering. I detta kapitel är n = 2m+1 (udda) så att tidsserien fOt g och dess …ltrerade motsvarighet ej blir tidsförskjutna i förhållande till varandra. 4.1 Metod N Låt fOt gt=0 vara vår tidsserie. Till de n första värdena O0 ; O1 ; : : : ; On 1 anpassar vi med hjälp av minsta kvadratmetoden ett polynom av grad p ( n 1) där p är på förhand valt. Detta polynom skriver vi p0 (s) = a00 + a10 s + + ap0 sp Ersätt nu det mittersta värdet i O0 ; O1 ; : : : ; On 1 med polynomets konstanta term a00 . Upprepa detta förfarande på O1 ; O2 ; : : : ; On med polynomet p1 (s) = a01 + a11 s + + ap1 sp o s v. Allmänt har vi att det mittersta värdet av Ot ; Ot+1 ; : : : ; Ot+n 1 ersätts med a0t där a0t = pt (0). För att lättare förstå och reda ut konsekvenserna av denna metod, samt att 28 den är rimlig, inför vi följande hjälpvariabler Xs;t X X( m;t m+1);t (4.1) X0;t X(m 1);t Xm;t = Ot , = Ot+1 , .. . = Ot+m t = 0; 1; : : : ; N .. . = Ot+2m 1 , = Ot+2m . 2m Detta framställningssätt tydliggör att vårt …lterfönster består av ett udda antal termer där den mittersta är X0;t = Ot+m och det är detta mittersta värde som ersätts med a0t d v s vi inför approximationen att Ot+m = X0;t a0t . Den modell vi därmed skapat kan skrivas (4.2) Xs;t = a0t + a1t s + + apt sp + Is;t . där Is;t 2 ON (0; ). Med hjälp av minsta kvadratmetoden skall vi, i tidsfönstret [ m; m], minimera (4.3) Qt = m X (xst a0t 2 apt sp ) a1t s s= m där t = m + 1; m + 2; : : : ; N m 1; N m för att …nna skattningar på parametrarna a0t ; a1t ; : : : ; apt . Det mittersta värdet Ot+m = X0;t ersätts därefter N m med skattningen a ^0t . Detta innebär en transformation av tidsserien fOt gt=m N m till tidsserien f^ a0t gt=m . Vid minimeringen av (4.3) erhålls ekvationssystemet X X X a0t (2m + 1) + a1t s+ + apt sp = xs;t X X X X (4.4) a0t s + a1t s2 + + apt sp+1 = sxs;t a0t X sp + a1t X sp+1 + P Pm där samtliga summationer = s= av matrisbeteckningar skrivas + apt m. X .. . X sp xs;t Detta ekvationssystem kan med hjälp S1 aTt = S2 xTt 29 .. . = s2p = där at xt S1 S2 = (a0t ; a1t ; : : : ; apt ) = (x m;t ; x m+1;t ; : : : ; xm;t ) 0 P P p 1 2m s P+ 1 P s2 P p+1 B C s s s C B = B C .. .. . . . . A @ . P. p P .p+1 P . 2p s s s 0 1 1 1 B m m + 1 m B B .. .. .. .. = B . . . . B @ ( m)p 1 ( m + 1)p 1 mp 1 p p ( m) ( m + 1) mp 1 C C C C C A varur vi …nner den observerade skattningen på a ^T0t till S1 1 S2 xTt . 4.2 Filtrering av tidsseriens ändar N En brist, när vi hitills har …ltrerat en tidsserie fOt gt=0 med ett symmetriskt …lter L av ordning 2m + 1, har varit att vi undvikit att tala om vad de m första respektive m sista värdena skall ersättas med. Det är speciellt de m sista värdena som innehåller den, för oss, mest intressanta informationen ty de ger vink om tidsseriens kommande utveckling. Denna brist skall vi nu delvis täppa till. N Vi tecknar den …ltrerade tidsserien med fYt gt=0 där och det gäller 8 ^0;m + a ^1;m s + +a ^p;m sp t = m; s = m; : : : ; 1 < a a ^ t = m; : : : ; N m; s = 0 Ys+t = 0t : a ^0;N m + a ^1;N m s + +a ^p;N m sp t = N m; s = 1; 2; : : : ; m För att bestämma Yt för de m sista värdena, d v s då t = N använder vi oss av att Ys+N m =a ^0;N m +a ^1;N ms + +a ^p;N p ms s = 1; : : : ; m N ty högra ledet ovan är minsta kvadratanpassningen till fOt gt=N erhålls för t ex N att YN = a ^0;N m +a ^1;N mm + +a ^p;N m + 1; : : : ; N , 2m . Speciellt p mm Samma metod kan användas för att bestämma de m första värdena Y0 ; Y1 ; : : : ; Ym Exempel 4.1 Konstruera ett polynom…lter med hjälp av ett tredjegradspolynom och ett fönster av längden 7. Ange även skattningar på de sista tre värdena och gör en prognos ett steg framåt. Lösning. Det gäller att (4.5) a ^T0t = S1 1 S2 xTt 30 1. där n = 7 (m = 3). Då p = 3 erhålls matriserna 0 P3 P3 2 7 s= 3 s 3s P P Ps= B 3 3 3 2 s s s3 B S1 = B P3s= 3 2 P3s= 3 3 P3s= 3 4 @ s s s P3s= 3 3 P3s= 3 4 P3s= 3 5 s= 3 s s= 3 s s= 3 s 0 1 1 1 1 1 1 B 3 2 1 0 1 2 S2 = B @ ( 3)2 ( 2)2 ( 1)2 0 12 22 3 3 3 ( 3) ( 2) ( 1) 0 13 23 och lösningen till ekvation 4.5 ger följande skattningar a ^0;t = a ^1;t = a ^2;t = a ^3;t = P3 Ps= 3 P3s= P3s= s= 1 1 3 C C 32 A 33 3 3s 4 3s 5 3s 6 3s 1 C C C A 1 ( 2X 3;t + 3X 2;t + 6X 1;t + 7X0;t + 6X1;t + 3X2;t 2x3;t ) , 21 1 (22X 3;t 67X 2;t 58X 1;t + 58X1;t + 67X2;t 22X3;t ) , 252 1 (5X 3;t 3X 1;t 4X0;t 3X1;t + 5X3;t ) , 84 1 ( X 3;t + X 2;t + X 1;t X1;t X2;t + X3;t ) . 36 Vi observerar först att koe¢ cienterna framför Xs;t ej beror av t, s eller Xs;t . Således har vi att vår …ltrerade tidsserie kan skrivas ( m ) ( m ) X X f^ a0;t g = ls Xs;t = ls Ot+m s s= m s= m där ls endast beror av polynomets gradtal och längden av den bit, av den ursprungliga Pmtidsserien, som används. Dessa konstanter ls har dessutom egenskapen s= m ls = 1 (se appendix 2) och således kan teorin i kapitel 3 tillämpas. Vi erhåller nu att den …ltrerade tidsserien kan skrivas 8 a ^0;t t = 3; 4; : : : ; N 3, > > < a ^0;N 2 + a ^1;N 2 + a ^2;N 2 + a ^3;N 2 t = N 2, Yt = 2 3 a ^ + 2^ a + 2 a ^ + 2 a ^ t = N 1, > 0;N 2 1;N 2 2;N 2 3;N 2 > : a ^0;N 2 + 3^ a1;N 2 + 32 a ^2;N 2 + 33 a ^3;N 2 t = N . samt att en skattning vid tidpunkt N + 1 blir Y^N +1 = a ^0;N 2 + 4^ a1;N 2 + 42 a ^2;N 2 + 43 a ^3;N 2. Om vi uttrycker detta i den ursprungliga beteckningen för tidsserien så erhålls YN 2 = YN 1 = YN = Y^N +1 = 1 (ON 6 4ON 5 + 2ON 4 + 12ON 42 1 (4ON 6 7ON 5 4ON 4 + 6ON 42 1 ( 2ON 6 + 4ON 5 + ON 4 4ON 42 1 ( 4ON 6 + 6ON 5 + 4ON 4 3ON 7 31 3 + 19ON 2 + 16ON 1 4ON ) , 3 + 16ON 2 + 19ON 1 + 8ON ) , 3 4ON 2 + 8ON 1 + 39ON ) , 3 8ON 2 4ON 1 + 16ON ) . Stoleksordningen för de fem …ltren blir 1 21 2 L : 1 42 2 2 2 ( 2) + 32 + 62 + 72 + 62 + 32 + ( 2) = 2 2 12 + ( 4) + 22 + 122 + 192 + 162 + ( 4) LN 2 : 1 : 1 42 2 LN : 1 42 2 LN LN +1 : 1 7 2 2 1 , 3 = 42 + ( 7) + ( 4) + 62 + 162 + 192 + 82 = 2 2 2 19 , 42 19 , 42 ( 2) + 42 + 11 + ( 4) + ( 4) + 82 + 392 = 13 , 14 2 2 2 2 2 ( 4) + 62 + 42 + ( 3) + ( 8) + ( 4) + 162 = All …lters komponenter summerar sig till 1 (se appendix). 32 59 . 7 5 Henderson …lter I en fotnot i avsnitt 3.6 konstaterades att minimering av V (rYt ) gav jämnare kurvor än minimering av V (Yt ), där Yt rYt = L (Yt ) , = Yt Yt 1. Vi gick då ej närmare in på vad vi menade med att en kurva är jämnare än en annan. Det skall vi ej heller göra nu (läsaren får nöja sig med att det går att ge en strikt de…nition) utan nöjer oss med följande lösa, men intuitiva, …gur:Om Figure 5.1: Kurva 1 är streckad och kurva 2 heldragen. både kurva 1 och 2 i …guren är väl anpassade till tidsserien fOt g så säges kurva 1 vara jämnare än kurva 2.Av denna lösa de…nition följer att den jämnare kurvan ger upphov till en större residualvariation än den ojämna och det bör således gälla (5.1) V (Ot L1 (Ot )) > V (Ot 33 L2 (Ot )) där L1 är det …lter som erhålls vid minimering av V (rYt ) och L2 erhålls vid minimering av V (Yt ). För att kunna visa ?? ovan behöver vi känna till utseendet på komponenterna i de två …ltren L1 och L2 . Eftersom vi sedan tidigare känner komponenterna för L2 , l2i = 1= (2n + 1), behöver vi endast bestämma komponenterna l1i för L1 . Dessa följer av Pn Sats 5.1 Låt It 2 ON (0; i= n li It i . Minimering av P ) och sätt Yt = V (rYt ) under bivillkoret li = 1 och li = l i ger 2 3 (n + 1) li = i2 i= (n + 1) (2n + 1) (2n + 3) n; n + 1; ; : : : ; n 1; n Bevis. Se appendix 3 Därmed känner vi komponenterna för de båda …ltren L1 och L2 . Beviset för att olikheten (5.1) gäller överlåtes på läsaren. Ovanstående resultat, att minimering av V (rYt ) ger jämnare kurvor än minimering av V (Yt ), ger mer allmänt att minimering av V rk Yt ger jämnare kurvor än minimering av V rk 1 Yt . Detta är en av anledningarna till att Henderson…ltret ser ut som det gör. I sin artikel [1], Note on graduation by adjusted average, väljer Henderson att minimera V r3 Yt med motiveringen we shall tentatively adopt the usual citerion of smoothness, namely the smallness of the mean square of the error in the third di¤ erence. Att Henderson väljer att minimera V rk Yt är således baserat på praxis. 5.1 för k = 3 och inget annat k Henderson-…ltret –konstruktion Henderson-…ltret kännetecknas av att V r3 Yt skall minimeras under följande tre bivillkor: 1. Tredjegradspolynom skall släppas igenom. 2. Filtret skall vara symmetriskt. 3. Komponenterna skall summera sig till ett. Om P3 (t) = a0 + a1 t + a2 t2 + a3 t3 är tredjegradspolynomet och LH det sökta Henderson-…ltret så ger (1) att LH (P3 (t)) = P3 (t) vilket också kan skrivas P3 (t) = n X li P3 (t i= n 34 i) . Detta är ekvivalent med att följande fyra ekvationer gäller X a3 = li a3 X a2 = li (a2 3a3 i) X a1 = li a1 2a2 i + 3a3 i2 X a0 = li a0 a1 i + a2 i2 a3 i3 Av dessa igenkännes den första som (3). De övriga tre ekvationerna kan skrivas n X ili = 0 i2 li = 0 i3 li = 0 i= n n X i= n n X i= n där den första och sista är trivialt uppfyllda för symmetriska …lter. Återstår att minimera V r3 Yt under bivillkoren n X i2 li i= n n X = 0, li = 1, li = l i. i= n Innan vi ger oss in på denna minimering skall vi söka ett uttryck för V r3 Yt . De…niera li = 0 då jij > n. ! 1 X 3 3 V r Yt = V li r It i i= 1 1 X = V li (It 3It i i 1 + 3It i 2 i= 1 1 X = V (li 3li 1 i= 1 1 X = V = 2 i= 1 1 X i= 1 3 r li It r3 li 2 i + 3li 2 li 3 ) It i ! It ! ! i 3) . Därmed har vi att den funktion som skall minimeras med avseende på vikterna li är ! n n 1 X X X 2 F = 2 r3 li + a li 1 + b i2 li . i= 1 i= n 35 i= n Lagranges multiplikatormetod ger oss ekvationerna (se appendix 4 för en diskussion) 2 2 r6 li+3 + a + bi2 n X li = 0 = 1 i li = 0 i= n n X 2 i= n varav den första säger oss att li+3 måste vara ett polynom av högst grad 8.1 Då li = 0 för i = (n + 1) : (n + 2) ; (n + 3) erhålls att 2 i2 li = (n + 1) 2 (n + 2) 2 i2 (n + 3) i2 a0 + a1 i2 . De två senare ekvationerna ger nu att 2 a0 + a1 i2 = a2 3 (n + 2) där a2 väljes så att skrivas 2 li = a2 (n + 1) Pn i= n li i2 11i2 16 = 1. Henderson-…ltret:s komponenter kan således 2 (n + 2) i2 2 (n + 3) i2 2 3 (n + 2) 16 11i2 där a2 = 315 8 (2n + 9) (2n + 7) (2n + 5) (2n + 3) (2n + 1) (2n 1) (n + 3) (n + 2) (n + 1) I X11-ARIMA förekommer tre typer av Henderson-…lter och dessa är 9-termers 13-termers 23-termers LH9 = [ 0:041; 0:010; 0:118; 0:267; 0:331] LH13 = [ 0:019; 0; 028; 0:0; 0:066; 0:147; 0:214; 0:240] LH23 = [ 0:004; 0:011; 0:016; 0:015; 0:005; 0:013; 0:039; 0:068; 0:097; 0:122; 0:138; 0:148] och deras egenskaper undersöks närmare i nästa sektion. 5.2 Henderson-…ltret –egenskaper I detta avsnitt skall vi undersöka, med hjälp av den i kapitel 3.3.1-3.3.2 framtagna metodiken, vilka funktioner som Henderson-…ltret av ordning 13 avbildar på noll respektive sig själv. Grundläggande data om 9-termers …ltret …nns i appendix 5 och det överlåtes åt läsaren att själv genomföra nedanstående analys för detta. I säsongrensningsprogrammet X11-ARIMA används, efter att ha rensat bort säsonger, Henderson-…ltret av ordning 13 för att erhålla en första skattning av trendcykeln. Denna skattning dras sedan från den säsongrensade serien vilket 1 Sex di¤erenser skall resultera i en kvadratisk term. 36 . ger en skattning av den irreguljära komponenten. Med hjälp av dessa två skattningar bildas ett mått vars storlek slutligen bestämmer vilket Henderson-…lter som skall användas. Av tabell 1 nedan framgår att …ltret av ordning 13 avbildar sinusfunktioner med periodiciteterna 5:36, 2:14, 3:02, 3:83 och 2:51 på noll. Detta ger som resultat ytterligare en rensning av snabba säsongmönster. Filtrets storleksordning 1 [2] [12] vars storleksordning var är 0:204 vilket är betydligt sämre än …ltret 24 0:08. Dock erhålls en ytterligare dämpning av den irreguljära komponenten. I tabell 2 ser vi att roten 1 förekommer precis 4 gånger vilket svarar mot den önskade egenskapen att tredjegradspolynom skall slippa igenom. Lösningen till di¤erensekvationen LH13 (xt ) = xt kan skrivas 2 3 xt = a0 + a1 t + a2 t + a3 t + 4 X fj (t) j=1 där funktionerna f1 (t) ; : : : ; f4 (t) är periodiska med perioderna 2:35, 3:64, 3:64 och 2:35: Detta innebär att vissa snabba periodicitetsmönster kan slinka igenom men det troliga är att alla dessa redan släckts. k 1 2 3 4 5 6 7 8 9 10 11 12 Tabell 1: LH13 (xt ) = 0 rk jrk j 1:95 1:95 0:51 0:51 0:39 + 0:92i 1:00 0:39 0:92i 1:00 0:98 + 0:21i 1:00 0:98 0:21i 1:00 0:49 + 0:87i 1:00 0:49 0:87i 1:00 0:07 + 1:00i 1:00 0:07 1:00i 1:00 0:81 + 0:59i 1:00 0:81 0:59i 1:00 k 1 2 3 4 5 6 7 8 9 10 11 12 f1 f2 f3 f4 f5 Tabell 2: LH13 (xt ) = xt rk jrk j 1 1 1 1 1 1 1 1 1:93 + 0:97i 2:16 1:93 0:97i 2:16 0:30 + 1:93i 1:95 0:30 1:93i 1:95 0:08 + 0:51i 0:51 0:08 0:51i 0:51 0:41 + 0:21i 0:46 0:41 0:21i 0:46 f1 f2 f3 f4 De viktigaste egenskaperna hos …ltret av ordning 13 är således att en ytterligare utsläckning av snabba periodiciteter sker och att tredjegradspolynom (trendcykeln) släpps igenom. 37 Appendix 1 Att Z v v cos2n 2 2 sin2m 0 där (x) = (x 1) (x dv = (m + 1=2) (n + 1=2) = B (m + 1=2; n + 1=2) (m + n + 1) 1), se t ex [2]. Härav följer = 22(m+n) B (m + 1=2; n + 1=2) Z v 2(m+n) cos (v) sin2m cos2n (1) = 2 nm 2 0 n o v = cos (v) = 2 cos2 1 2 Z 2m v 2(m+n) = 2 2 sin cos2(n+1) 2 0 Z v 2m v sin cos2n dv 2 2 0 nm (0) = (1) = nm (2) = = = = Då nm (2) nm (k) = dv v 2 dv 22(m+n) (2B (m + 1=2; n + 1 + 1=2) B (m + 1=2; n + 1=2)) n + 1=2 22(m+n) B (m + 1=2; n + 1=2) 2 1 m+n+1 n m nm (0) m+n+1 Z v v 2(m+n) cos2n dv 2 cos (2v) sin2m 2 2 0 n o v v cos (2v) = 8 cos4 8 cos2 +1 2 2 22(m+n) (8B (m + 1=2; n + 2 + 1=2) 8B (m + 1=2; n + 1 + 1=2) + B (m + 1=2; n + 1=2)) (n + 3=2) (n + 1=2) 22(m+n) B (m + 1=2; n + 1=2) 8 (m + n + 1) (m + n + 2) n + 1=2 8 +1 m+n+1 m2 + n2 6mn m n nm (0) (m + n + 1) (m + n + 2) = nm v 2 = nm (k) nm (0) erhålls 2 1 2 2 nm (1) + nm (2) = 1 = n m m2 + n2 6mn m n + m+n+1 (m + n + 1) (m + n + 2) 8mn + 4m + 4n + 2 2 2 (m + n + 1) (m + n + 2) 38 Appendix 2 Sats 5.2 De …lter som bildas med polynommetoden i kapitel 4 är linjära …lter vars komponenter summerar sig till 1. Bevis. Att …ltren är linjära visas redan i kapitel 4. Här skall vi visa att komponenterna summerar sig till 1. I beviset kommer vi att använda oss av en del elementär matrisalgebra. En referens bland många är [3] men vilken bok som helst, som i sitt register har ordet ’cofactor’, duger. N Den …ltrerade tidsserien fYt gt=m de…nierades av Ys+t = a ^0t a ^0;N m +a ^1;N ms + t = m; : : : ; N m; s = 0 t = N m; s = 1; 2; : : : ; m p ms +a ^p;N vilket kan skrivas (1; 0; : : : ; 0) a ^Tt (1; s; : : : ; sp ) a ^Tt Ys+t = t = m; : : : ; N m; s = 0 t = N m; s = 1; 2; : : : ; m men a ^Tt = S1 1 S2 X Tt och således har vi (1; 0; : : : ; 0) S1 1 S2 X Tt (1; s; : : : ; sp ) S1 1 S2 X Tt Ys+t = t = m; : : : ; N m; s = 0 t = N m; s = 1; 2; : : : ; m Radvektorn (1; s; : : : ; sp ) S1 1 S2 är precis den vektor som innehåller …ltrets komponenter (l m ; l m+1 ; : : : ; lm 1 ; lmP ) och om vi multiplicerar den med vektorn e = (1; 1; : : : ; 1) så får vi summan li för s = 0; 1; 2; : : : ; m. Således m X li = (1; s; : : : ; sp ) S1 1 S2 eT . i= m Först …nner vi att T S2 e = 2m + 1; m X s; s= m Därefter konstaterar vi att 0 S1 1 1 = D B B B B B @ A11 A21 .. . A12 A22 .. . Ap1 Ap+1;1 Ap2 Ap + 1; 2 där Aij är den i,j:te kofaktorn till matrisen beteckningar erhåller vi 0 A11 A12 B A21 A 22 1 B B . . 1 T .. .. .. S1 S2 e = B . DB @ Ap1 Ap2 Ap+1;1 Ap+1;2 = T (1; 0; : : : ; 0) ; m X p s s= m .. !T . A1;p+1 A2;p+1 .. . . Ap;p+1 Ap+1;p+1 1 C C C C C A S1 och D = det (S1 ). Med dessa A1;p+1 A2;p+1 .. . Ap;p+1 Ap+1;p+1 10 2m + 1 P m CB s= m s CB CB .. CB C B Pm . p 1 A@ s= m s P m p s= m s 1 C C C C C A ty S2 eT utgör första raden i S1 och påståendet följer från en sats om determinanters utveckling med hjälp av kofaktorer. 39 Appendix 3 De…niera li = 0 då jij > n då kan V (rYt ) skrivas V (rYt ) 1 X = V li It 1 X i i= 1 1 X = V (li li 1 ) It i i= 1 1 X = V i= 1 1 X 2 = li It i= 1 rli It i ! 1 i ! ! 2 (rli ) . i= 1 Vi har således att söka de li för vilka funktionen F = 2 1 X n X 2 (rli ) + a i= 1 li i= n ! 1 antar sitt minsta värde. Derivation ger @F @lk = @F @a = 2 2 n X r2 lk+1 + a li 1 i= n och vi erhåller ekvationerna r2 lk+1 n X = li = a 2 2 , 1: i= n Av den första ekvationen följer att lk+1 måste vara ett polynom av högst grad 2 ty r2 a0 + a1 k + a2 k 2 Vidare vet vi att ln+1 = l li (n+1) = r ra0 + a1 rk + a2 rk 2 = r (0 + a1 + 2a2 k) = 2a2 . = 0 och vi …nner slutligen att = konstant (i (n + 1)) (i + (n + 1)) 2 2 = konstant i där konstanten bestämmes med hjälp av 1=c n X i2 2 (n + 1) = i= n (n + 1) Pn i= n li 2 = 1. Vi …nner 1 c (2n + 3) (2n + 1) (n + 1) 3 varav följer att li = 3 2 (n + 1) (2n + 3) (2n + 1) (n + 1) 40 i2 2 . Appendix 4 Det är inte uppenbart att 1 @ X r3 li @li i= 1 2 2r6 li+3 = men detta är en följd av följande lemma Lemma 5.3 (Vandermonde) Följande identitet, mellan binomialkoe¢ cienterna, gäller s X + = . r s r s r=0 För att visa vår identitet ovan konstaterar vi först att 1 @ X rk l i @li i= 1 2 innehåller k + 1 termer som i sin tur innehåller li . Dessa är, som man lätt övertygar sig om, 2 rk li ; rk li+1 2 ; : : : ; rk li+k 2 . Låt oss betrakta den j:te termen och utveckla den k r li+j k X = m=0 k m ( 1) li+j m X = 0 m<j + m k m ( 1) li+j m X m k m ( 1) li+j m j<m k + k j ( 1) li j m Ur denna identitet följer att @ rk li+j @li 2 k X k j j = 2 ( 1) m=0 k m ( 1) li+j m m ! vilket ger k @ X rk li+j @li j=0 2 = 2 k X ( 1) j=0 = 2 k X k X k X k j j m=0 j+m ( 1) j=0 m=0 k j k m ( 1) li+j m k li+j m m ! m = fsummera över diagonaler och använd lemma 5.3g = 2 (1 2k B) li+k 41 Appendix 5 Filtret med 9 termer är av storleksordning 0:283. k 1 2 3 4 5 6 7 8 Tabell 1: LH9 (xt ) = 0 rk jrk j 2:56 2:56 0:39 0:39 0:62 + 0:79i 1:00 f1 0:62 0:79i 1:00 0:02 + 1:00i 1:00 f2 0:02 1:00i 1:00 0:96 + 0:29i 1:00 f3 0:96 0:29i 1:00 k 1 2 3 4 5 6 7 8 42 Tabell 2: LH9 (xt ) = xt rk jrk j 1 1 1 1 1 1 1 1 1:80 + 1:52i 2:36 f1 1:80 1:52i 0:32 + 0:27i 0:42 f2 0:32 0:27i Bibliography [1] R. Henderson (1916), Note on graduation by adjusted average, Transactions of the American Society of Actuaries, 17, 43-48 [2] L. Råde, B. Westergren, Mathematics handbook for science and engineering 3 ed, Studentlitteratur 1995. [3] G. Strang, Linear Algebra and Its Applications 2 ed, Academic Press 43
© Copyright 2024