STATISTIKA UP FAMNIT, Biopsihologija Zapiski s predavanj Martin Raič NEPOPOLNA PUBLIKACIJA Kazalo 1. Opisna statistika 7 1.1 Tipi statističnih spremenljivk . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Povzemanje ene statistične spremenljivke – univariatna analiza . . . . . . . 10 1.3 1.2.1 Imenske spremenljivke . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.2 Urejenostne spremenljivke . . . . . . . . . . . . . . . . . . . . . . . 11 1.2.3 Intervalske spremenljivke: interpolacija . . . . . . . . . . . . . . . . 16 1.2.4 Intervalske spremenljivke: mere centralne tendence . . . . . . . . . 18 1.2.5 Intervalske spremenljivke: mere razpršenosti . . . . . . . . . . . . . 20 1.2.6 Združevanje vrednosti v razrede . . . . . . . . . . . . . . . . . . . . 26 1.2.7 Primerjanje vrednosti razmernostnih spremenljivk . . . . . . . . . . 29 Mere povezanosti dveh statističnih spremenljivk – bivariatna analiza . . . . 31 1.3.1 Povezanost dveh imenskih spremenljivk . . . . . . . . . . . . . . . . 31 1.3.2 Povezanost dveh intervalskih spremenljivk . . . . . . . . . . . . . . 35 1.3.3 Povezanost intervalske in dihotomne spremenljivke . . . . . . . . . 42 1.3.4 Povezanost intervalske in imenske spremenljivke . . . . . . . . . . . 45 1.3.5 Povezanost dveh urejenostnih spremenljivk . . . . . . . . . . . . . . 47 1.3.6 Povezanost urejenostne in dihotomne spremenljivke . . . . . . . . . 50 1.3.7 Povezanost urejenostne in imenske spremenljivke 2. Teorija verjetnosti 2.1 8 . . . . . . . . . . 52 55 Verjetnostni prostori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.1.1 Osnovni pojmi verjetnosti . . . . . . . . . . . . . . . . . . . . . . . 55 2.1.2 Diskretna verjetnost . . . . . . . . . . . . . . . . . . . . . . . . . . 57 2.1.3 Relacije in operacije na dogodkih . . . . . . . . . . . . . . . . . . . 61 2.1.4 Aksiomi Kolmogorova . . . . . . . . . . . . . . . . . . . . . . . . . 63 3 4 M. RAIČ: STATISTIKA 2.2 2.3 Pogojna verjetnost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 2.2.1 Definicija pogojne verjetnosti . . . . . . . . . . . . . . . . . . . . . 66 2.2.2 Relejni poskusi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 Slučajne spremenljivke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 2.3.1 Osnovni pojmi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 2.3.2 Navzkrižne porazdelitve . . . . . . . . . . . . . . . . . . . . . . . . 71 2.3.3 Bernoullijeva zaporedja poskusov . . . . . . . . . . . . . . . . . . . 76 2.3.4 Funkcije slučajnih spremenljivk . . . . . . . . . . . . . . . . . . . . 82 2.3.5 Porazdelitve urejenostnih slučajnih spremenljivk . . . . . . . . . . . 83 2.3.6 Porazdelitve intervalskih slučajnih spremenljivk . . . . . . . . . . . 86 2.3.7 Centralni limitni izrek . . . . . . . . . . . . . . . . . . . . . . . . . 92 3. Inferenčna statistika 99 3.1 Verjetnost uspeha poskusa . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 3.2 Frekvenčna porazdelitev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 3.3 Sredina pri znanem σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 3.4 Sredina pri neznanem σ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Uvod Statistika je veda, ki preučuje bolj ali manj množične podatke (pojave) ali pa tudi pojme, ki so motivirani z njimi. Med drugim zajema: • Zbiranje podatkov, torej kako (pri določenih praktičnih, npr. finančnih omejitvah) pravilno zbrati podatke, od katerih lahko pričakujemo čim natančnejšo informacijo o zadevi, ki nas zanima. Pomemben del te veje je teorija vzorčenja (angl. sampling). • Povzemanje podatkov – temu pravimo opisna statistika (angl. descriptive statistics). Tudi povzetku podatkov (npr. povprečju) pravimo kar statistika. • Vrednotenje podatkov – temu pravimo inferenčna statistika. Njeni najpomembnejši veji sta statistično sklepanje (dajanje sklepov – izjav na podlagi dobljenih podatkov, angl. statistical inference) in statistično odločanje (dajanje navodil, kako ravnati, da bomo v povprečju imeli največjo možno korist, angl. decision theory). Matematična podlaga za teorijo vzorčenja in inferenčno statistiko je verjetnostni račun. 5 6 M. RAIČ: STATISTIKA 1. Opisna statistika Podatki so v statistiki vrednosti ene ali več statističnih spremenljivk na statistični množici. Statistično množico sestavljajo enote. Primeri statističnih množic: • če delamo anketo, množica anketirancev; • če gledamo vreme po različnih krajih, nabor vremenskih postaj; • če gledamo spreminjanje cen različnih artiklov s časom, nabor časov (enote so tako npr. 15. januar, 15. februar, 15. marec . . . ); Število enot imenujemo numerus in ga navadno označujemo z n, tudi N . Statistična spremenljivka je predpis, ki vsaki enoti (potem ko jo pomerimo) priredi določeno vrednost. Množico vrednosti posamezne spremenljivke imenujemo zaloga vrednosti. Statistične spremenljivke navadno označujemo z velikimi tiskanimi črkami s konca abecede, npr. X, Y , Z, njihove vrednosti pa z malimi črkami. Vrednosti statistične spremenljivke X tako navadno označimo z x1 , x2 , . . . xn . Tako je xi vrednost spremenljivke X na i-ti enoti statistične množice. Primer : vreme po Sloveniji v ponedeljek, 20. februarja 2012, ob 17. uri: 7 8 M. RAIČ: STATISTIKA smer vetra hitrost vetra (km/h) Postaja oblačnost padavine temperatura (◦ C) Kredarica v oblakih posamezne snežinke −13 ↓ 4 pretežno oblačno – 2 ↓ 11 oblačno – 1 ց 4 5 ← 22 2 ր 4 Letališče Edvarda Rusjana Maribor Letališče Jožeta Pučnika Ljubljana Letališče Portorož oblačno Ljubljana oblačno rahlo dežuje rahlo dežuje Tukaj postaja predstavlja enoto, padavine, oblačnost, temperatura ter smer in hitrost vetra pa so spremenljivke. 1.1 Tipi statističnih spremenljivk Statistične spremenljivke delimo glede na njihove zaloge vrednosti oziroma glede na to, katere operacije lahko izvajamo na zalogah vrednosti. Ločimo opisne (kvalitativne, atributivne) in številske (kvantitativne, numerične) spremenljivke. Opisne spremenljivke se nadalje delijo na: • Imenske (nominalne), pri katerih gledamo le gole vrednosti, na katerih ni definiranih nobenih operacij. Primeri: barva, politična stranka, rasa, pasma, skupina. Včasih lahko povemo, katere vrednosti so si blizu oz. sosedne – to je pomembno pri združevanju vrednosti v razrede. • Urejenostne (ordinalne), pri katerih lahko povemo, katera vrednost je večja in katera manjša. Primeri: kakovost razpoloženja, čin, stopnja izobrazbe, trdota minerala, odtenek sivine (kadar ocenjujemo na oko). Številske spremenljivke pa se delijo na: • Intervalske, pri katerih lahko definiramo razlike med posameznima vrednostma in jih seštevamo, odštevamo ali delimo, medtem ko seštevanje, množenje in deljenje samih vrednosti a priori ni definirano oz. smiselno. Intervalske spremenljivke nimajo vnaprej določenega izhodišča (ničle). Lahko torej recimo povemo, da je razlika med vrednostma a in b dvakratnik razlike med b in c, ni pa recimo smiselno reči, da je vrednost b dvakratnik vrednosti a. Primeri intervalskih spremenljivk: letnica, nadmorska višina (v običajnih okoliščinah), temperatura (v običajnih okoliščinah, 9 M. RAIČ: STATISTIKA ko jo je smiselno gledati v Celzijevih stopinjah, recimo ko je ne povezujemo z energijo molekul). • Razmernostne, pri katerih lahko vrednosti same seštevamo, odštevamo in delimo. Le-te imajo naravno izhodišče (ničlo) in lahko recimo povemo, da je vrednost b dvakratnik vredosti a. Primeri: moč motorja, dohodek, odtenek sivine (če jo merimo z instrumentom ali določimo računalniško) in tudi temperatura, kadar jo je smiselno gledati v kelvinih, recimo pri fiziki nizkih temperatur (blizu absolutne ničle), pri kinetični teoriji plinov in pri preučevanju zvezd. Vsako razmernostno spremenljivko lahko gledamo tudi kot intervalsko, vsako intervalsko kot urejenostno in vsako urejenostno kot imensko. Poseben primer statističnih spremenljivk so dihotomne ali tudi binarne, to so take, ki lahko zavzemajo le dve vrednosti, recimo da/ne, za/proti, pravilno/nepravilno, kontrolna/eksperimentalna skupina. Tudi če je dihotomna spremenljivka opisna, jo lahko včasih naravno obravnavamo kot številsko, navadno tako, da vrednostma priredimo števili 0 in 1. Pri primeru z vremenom so padavine, oblačnost in smer vetra imenske spremenljivke, pri katerih lahko povemo, katere vrednosti so si blizu. Temperatura je intervalska, hitrost vetra pa je razmernostna spremenljivka. Smer in hitrost vetra lahko združimo v razmernostno vektorsko spremenljivko. Tudi te so pomembne, a se z njimi ne bomo ukvarjali. Če bi pri oblačnosti gledali le, koliko neba ni vidnega (meglo bi torej izenačili z oblačnostjo) in tega ne bi kvantitativno merili (recimo v odstotkih), temveč bi le ločili npr. med jasnim, delno oblačnim, pretežno oblačnim in oblačnim vremenom, bi bila oblačnost urejenostna spremenljivka. Delež neba v odstotkih, ki ga zakrivajo oblaki, pa bi bil razmernostna spremenljivka. Iz padavin je malo težje narediti urejenostno spremenljivko, ki ne bi mogla biti tudi razmernostna: težko je namreč primerjati dež in sneg. Najbolj objektivno bi bilo meriti, koliko milimetrov padavin pade recimo na uro: to bi bila razmernostna spremenljivka. Glavna razlika med urejenostnimi in intervalskimi spremenljivkami je ta, da ne moremo primerjati razkorakov med posameznimi vrednostmi. Zato tudi ne moremo računati povprečij. Dostikrat sicer urejenostno spremenljivko ‘povišamo’ v intervalsko, tako da vrednostim priredimo številske vrednosti. Rezultati nadaljnje obdelave pa so lahko zavajajoči. V nekem podjetju bi lahko imeli naslednjo strukturo izobrazbe: Nedokončana osnovna šola 70 Osnovna šola 5 Poklicna srednja šola 2 Gimnazija 1 Fakulteta 22 10 M. RAIČ: STATISTIKA in lahko bi izračunali, da je povprečna izobrazba osnovnošolska. Če pa bi šli fakultetno izobrazbo podrobneje razčlenjevat, bi recimo dobili: Nedokončana osnovna šola 70 Osnovna šola 5 Poklicna srednja šola 2 Gimnazija 1 Visoka strokovna izobrazba 2 Univerzitetna diploma bolonjske 1. stopnje 0 Univerzitetna diploma po starih programih 0 Univerzitetna diploma bolonjske 2. stopnje 0 Magisterij po starem programu 0 Doktorat 20 in izračunali, da je povprečna izobrazba poklicna srednja šola. 1.2 1.2.1 Povzemanje ene statistične spremenljivke – univariatna analiza Imenske spremenljivke Pri imenski (torej vsaki) statistični spremenljivki lahko povemo, kolikokrat se je pojavila določena vrednost. Temu pravimo frekvenca. Relativna frekvenca je frekvenca, deljena s številom enot. Zapis vseh vrednosti skupaj z (relativnimi) frekvencami imenujemo frekvenčna porazdelitev, ki jo lahko predstavimo v obliki tabele: vrednosti frekvence relativne frekvence a1 f1 f1◦ a2 f2 f2◦ .. .. .. . . . ak fk fk◦ Frekvenca fi je torej število enot, na katerih ima spremenljivka vrednost ai . Število enot z določeno lastnostjo bomo označevali z znakom ♯. Tako lahko s formulo zapišemo: fi = ♯(X = ai ) ; Velja še: i = 1, 2, . . . k . fi , f1◦ + f2◦ + · · · + fk◦ = 1 . n Frekvenčno porazdelitev imenskih spremenljivk grafično predstavimo s tortnim diagramom (angl. pie chart ali circle graph) ali s histogramom. f1 + f2 + · · · + fk = n , fi◦ = 11 M. RAIČ: STATISTIKA Za ročni izris tortnega diagrama potrebujemo kotomer. Kot, ki pripada i-ti vrednosti, je enak fi◦ · 360◦ . Modus je vrednost z najvišjo frekvenco. Označevali ga bomo z M , pogosta oznaka pa je tudi Mo ali Mo. Modusov je lahko več. Modus je ena od mer centralne tendence. Če vemo, katere vrednosti so si blizu oz. sosedne, lahko definiramo tudi lokalne moduse. Porazdelitev je bimodalna, če ima dva izrazita lokalna modusa, pri čemer enake frekvence na sosednih vrednostih obravnavamo kot en lokalni modus. Porazdelitev je multimodalna, če ima več kot dva izrazita lokalna modusa v prejšnjem smislu. Včasih modusi, posebej lokalni, za prvotne vrednosti ne odražajo realne slike. To se zgodi takrat, ko je vrednosti veliko, frekvence pa majhne. Če vemo, katere vrednosti so si blizu oz. sosedne, jih lahko združimo v razrede√in na njih gledamo frekvenčno porazdelitev. Grobo pravilo je, naj bo razredov približno n (korensko pravilo). Več o združevanju v razrede kasneje. 1.2.2 Urejenostne spremenljivke Vrednosti urejenostne spremenljivke lahko uredimo po velikosti – razvrstimo v ranžirno vrsto: x(1) ≤ x(2) ≤ · · · ≤ x(n) . Ranžirna vrsta je natančno določena z zgornjim pogojem in s tem, da se njena frekvenčna porazdelitev ujema s frekvenčno porazdelitvijo statistične spremenljivke. Elementu x(i) pravimo i-ta vrstilna statistika (angl. order statistics). Rang dane vrednosti je njen položaj v ranžirni vrsti: rang vrednosti x je enak i, če je x = x(i) . Če so vse vrednosti spremenljivke X različne in je vrednost x zavzeta, je njen rang natančno določen. Označimo ga z R(x). V tem primeru velja: R(x) = ♯(X ≤ x) = ♯(X < x) + 1 . Primer : če izmerjene vrednosti: 4, 2, 75, 42, 15, 63 razvrstimo v ranžirno vrsto, dobimo: 2, 4, 15, 42, 63, 75 in velja: R(2) = 1 , R(4) = 2 , R(15) = 3 , Rangi ostalih vrednosti (še) niso definirani. R(42) = 4 , R(63) = 5 , R(75) = 6 . 12 M. RAIČ: STATISTIKA Če vrednosti spremenljivke niso vse različne, govorimo o vezeh (angl. ties): vez je skupek dveh ali več enot, na katerih ima spremenljivka enako vrednost. Če so prisotne vezi, rang ni nujno natančno določen. Primer : naj bo A < B < C < D < E in naj bo dana ranžirna vrsta podatkov: A, B, B, B, B, C, D, D, D, E . Očitno je R(A) = 1, R(C) = 6 in R(E) = 10. Rang vrednosti B je lahko 2, 3, 4 ali 5, rang vrednosti D pa 7, 8 ali 9. Vsem možnim rangom vrednosti x pravimo surovi rangi. Spodnji rang je najnižji, zgornji rang pa najvišji možni surovi rang. Velja: spodnji rang = ♯(X < x) + 1 , zgornji rang = ♯(X ≤ x) . Spodnji in zgornji rang lahko definiramo za poljubno, ne le zavzeto vrednost. Vezani rang je aritmetična sredina spodnjega in zgornjega ranga in oznaka R(x) bo zadevala to število: spodnji rang + zgornji rang ♯(X < x) + ♯(X ≤ x) + 1 R(x) = = . 2 2 . Tako je v zgornjem primeru R(A) = 1, R(B) = 3 5, R(C) = 6, R(D) = 8 in R(E) = 10. Če bi namesto A, . . . E imeli števila, npr.: 21, 27, 27, 27, 27, 28, 29, 29, 29, 32 , . . . . bi veljalo npr. R(27) = 3 5, R(30) = 9 5, R(20) = 0 5 in R(40) = 10 5. Relativni ali tudi kvantilni rang je definiran po predpisu: r(x) = R(x) − n 1 2 . in ne glede na vezi velja: ♯(X < x) + ♯(X ≤ x) . 2n . . V prejšnjem primeru bi tako veljalo r(27) = 0 3, r(30) = 0 9, r(20) = 0 in r(40) = 1. r(x) = Relativni rang pove položaj posamezne vrednosti v skupini. Primer : oglejmo si rezultate dveh kolokvijev: Ambrož Blaž Cvetka Darja Emil 83 22 61 45 49 Florjan Gal Helena Iva Jana Karmen Lev Mojca 84 86 71 67 67 88 89 64 13 M. RAIČ: STATISTIKA in se vprašajmo, kdo je glede na svoje kolege pisal bolje: Cvetka ali Gal? . . Cvetka ima rang 4 in relativni rang 3 5/5 = 0 7, Gal pa ima rang 6 in relativni rang . 5 5/8 = 0.6875, kar je skoraj enako. Pri zapisu frekvenčne porazdelitve urejenostne spremenljivke vrednosti uredimo po velikosti: a1 < a2 < · · · < ak ter dodamo še kumulativne frekvence in relativne kumulativne frekvence: relativne vrednosti frekvence frekvence a1 a2 a3 .. . f1 f2 f3 .. . ak fk kumulativne frekvence F0 = 0 F 1 = f1 F 2 = F 1 + f2 F 3 = F 2 + f3 .. . f1◦ f2◦ f3◦ .. . fk◦ relativne kumulativne frekvence F0◦ = 0 F1◦ = f1◦ ◦ F2 = F1◦ + f2◦ F3◦ = F2◦ + f3◦ .. . ◦ Fk = Fk−1 + fk = n Fk◦ = Fk−1 + fk◦ = 1 Seveda velja tudi: Fi◦ = Fi . n Primer : ocene s kolokvijev pri predmetu Verjetnost in statistika na univerzitetnem študiju matematike na UL FMF v študijskem letu 2010/11: ocena neg. 6 7 8 9 10 fi 25 13 12 7 3 4 Fi 25 38 50 57 60 64 F◦ . i 0 391 . 0 594 . 0 781 . 0 891 . 0 938 1 Iz frekvenčne porazdelitve lahko odčitamo vrstilne statistike, in sicer velja: x(i) = aj , če je 1 + Fj−1 ≤ i ≤ Fj . Pri določanju i-te vrstilne statistike moramo torej pogledati prvo kumulativno frekvenco, ki je enaka vsaj i. Nekaj vrstilnih karakteristik iz prejšnjega primera: x(40) = 7, x(60) = 9, x(61) = 10. Iz kumulativnih frekvenc lahko odčitamo tudi range: vrednost aj ima surove range od 1 + Fj−1 do Fj in vezani rang: R(aj ) = Fj−1 + Fj + 1 . 2 14 M. RAIČ: STATISTIKA Seveda so vezani rangi definirani tudi za vrednosti, ki niso zavzete: če je a < a1 , je R(a) = 1/2; če je a > ak , je R(a) = n + 1/2. Za aj−1 < a < aj pa je R(a) = Fj−1 + 1/2. Rangi ocen pri prejšnjem primeru: . . R(neg.) = 13 , R(6) = 32 , R(7) = 44 5 , R(8) = 54 , R(9) = 59 , R(10) = 62 5 . Vrednost q je kvantil statistične spremenljivke X za delež p, če velja: ♯(X < q) ≤ p in n ♯(X ≤ q) ≥ p. n Primer : dana je ranžirna vrsta: 10, 10, 20, 30, 50, 80, 130, 210, 340, 550 . Kvantil q0.49 mora izpolnjevati pogoja: . ♯(X < q0.49 ) ≤ 4 9 in . ♯(X ≤ q0.49 ) ≥ 4 9 . Prvi pogoj izpolnjujejo vrednosti do vključno 50, drugega pa vrednosti od vključno 50 . naprej. Torej je 50 edini možni kvantil za delež 0 49. Kvantil q0.5 mora izpolnjevati pogoja: ♯(X < q0.5 ) ≤ 5 in ♯(X ≤ q0.5 ) ≥ 5 . Prvi pogoj izpolnjujejo vrednosti do vključno 80, drugega pa vrednosti od vključno 50 . naprej. Torej je vsako število iz intervala [50, 80] lahko kvantil za delež 0 5. To je kvantilni interval za ta delež. Kvantil q0.1 mora izpolnjevati pogoja: ♯(X < q0.1 ) ≤ 1 in ♯(X ≤ q0.1 ) ≥ 1 . Prvi pogoj izpolnjujejo vrednosti do vključno 10, drugega pa vrednosti od vključno 10 . naprej. Torej je 10 edini možni kvantil za delež 0 1. Lastnosti kvantilov: • Za vsak p ∈ [0, 1] obstaja kvantil dane spremenljivke za delež p. • Kvantili niso nujno enolično določeni. • Če sta q ′ in q ′′ kvantila za isti delež p in velja q ′ ≤ q ≤ q ′′ , je tudi q kvantil za ta delež. Kvantil za delež p je vrednost s kvantilnim rangom približno p. Velja tudi, da je vrednost, ki ima kvantilni rang p, kvantil za delež p. Sicer pa lahko kvantile (za deleže, ki niso nujno kvantilni rangi) dobimo iz vrstilnih karakteristik, in sicer: 15 M. RAIČ: STATISTIKA • Kvantil za delež 0 je katero koli število iz (−∞, x(1) ]. • Kvantil za delež 1 je katero koli število iz [x(n) , ∞). • Če je 0 < p < 1 in je np celo število, je kvantil za delež p katero koli število iz intervala [x(np) , x(np+1) ]. • Če je 0 < p < 1 in np ni celo število, je kvantil za delež p enolično določen, in sicer je enak x(⌈np⌉) . Kvantil za delež p navadno označimo s qp . Pomembni kvantili: • Kvantilu za delež 1/2 pravimo mediana in jo bomo označevali z m. Pogosta oznaka je tudi Me ali Me. Mediani pravimo tudi srednja vrednost in je mera centralne tendence. Pri dihotomnih spremenljivkah je mediana enaka modusu. • Kvantila za deleža 1/3 in 2/3 sta prvi in drugi tercil. • Kvantili za deleže 1/4, 1/2 in 3/4 so kvartili. Drugi kvartil je torej mediana. . . . • Kvantilom za deleže 0 1, 0 2, . . . 0 9 pravimo decili. . . . • Kvantilom za deleže 0 01, 0 02, . . . 0 99 pravimo centili ali tudi percentili. 1., 5., 95. in 99. percentil so pomembni v inferenčni statistiki, ker na njih temeljijo dogovorjeni pojmi. Pomembni so tudi q0.005 , q0.025 , q0.975 in q0.995 . Primer : pri ranžirni vrsti: 10, 10, 20, 30, 50, 80, 130, 210, 340, 550 je mediana kar koli iz [x(5) , x(6) ] = [50, 80] (kar smo že ugotovili), tretji kvartil pa je x(8) = 210. . . Vrednost 20 ima kvantilni rang 0 25 in je zato tudi kvantil za delež 0 25; kvantil za . ta delež je enolično določen. Prav tako pa je enolično določen tudi kvantil za delež 0 26, . prav tako je enak 20, vendar 0 26 ni kvantilni rang vrednosti 20. Pri sodem številu podatkov mediana tipično ni natančno določena: b b b b b b b b b b b b b b b pri lihem pa je: b b 16 M. RAIČ: STATISTIKA Še en primer z rezultati 50 meritev, kjer je s sivo označen interval za 9. decil : Primer : pri ocenah s kolokvijev so vsi kvartili natančno določeni. Prvi kvartil je sicer res na intervalu [x(16) , x(17) ], mediana na [x(32) , x(33) ] in tretji kvartil [x(48) , x(49) ], toda x(16) = x(17) = neg., x(32) = x(33) = 6 in x(48) = x(49) = 7, zato lahko zapišemo q1/4 = neg., m = 6 in q3/4 = 7. Vrstilne karakteristike lahko grafično predstavimo s škatlo z brki (angl. box plot). Navadno narišemo minimalno vrednost, kvartile in maksimalno vrednost, lahko pa tudi kakšne druge karakteristike. Primer : rezultati kolokvijev iz matematike na univerzitetnem študiju gozdarstva na UL BTF v študijskem letu 2004/05: 72 54 36 18 0 1.2.3 Intervalske spremenljivke: interpolacija Intervalske spremenljivke lahko vselej ‘degradiramo’ v urejenostne in na njih gledamo npr. kvantile. Kot smo spoznali, le-ti niso vselej enolično določeni. Včasih pa se pokaže potreba, da določimo eno samo vrednost. Pri intervalskih spremenljivkah imamo za to dosti več manevrskega prostora. Eden od prijemov, ki so tukaj na voljo, je interpolacija. Denimo, da opazujemo spreminjanje ene spremenljivke v odvisnosti od druge, npr. od časa. Ob časih t1 < t2 < . . . tn naj ima spremenljivka x vrednosti x1 , x2 , . . . xn . Kakšno vrednost pa bi imela ob času t, ki ni zajet v časih t1 , t2 , . . . tn (vozlih)? 17 M. RAIČ: STATISTIKA Interpoliramo lahko za tk ≤ t ≤ tk+1 (kar je izven tega, je ekstrapolacija). Primeri interpolacij: a) interpolacija z vrednostjo v prejšnjem vozlu: xˆ = xk ; b) interpolacija z vrednostjo v naslednjem vozlu: xˆ = xk+1 ; c) interpolacija z minimalno vrednostjo: xˆ = min{xk , xk+1 }; d) interpolacija z maksimalno vrednostjo: xˆ = max{xk , xk+1 }; e) interpolacija z aritmetično sredino: xˆ = (xk + xk+1 )/2; f) linearna interpolacija: xˆ = xk + Primer : xk+1 − xk (t − tk ) . tk+1 − tk t k xk 1 5 3 9 6 9 10 7 Interpolirane vrednosti za manjkajoče vmesne cele čase: tk 1 2 3 4 5 6 7 8 9 10 xk a) b) 5 5 5 5 9 9 9 9 9 9 9 9 9 9 9 9 7 9 7 9 7 7 7 7 c) 5 5 9 9 9 9 7 7 7 7 d) 5 9 9 9 9 9 9 9 9 7 e) 5 7 9 9 9 9 8 8 8 7 f) 5 7 9 9 9 9 . 85 8 . 75 7 Interpolacije a)–e) so zelo grobe. Graf za linearno interpolacijo: 18 M. RAIČ: STATISTIKA 10 x b b 8 b 6 b 4 2 1 2 3 4 5 6 7 8 9 t 10 Tako lahko interpoliramo range. Črtnemu grafikonu (angl. line chart, line graph) iz linearno interpoliranih relativnih rangov zavzetih vrednosti pravimo ogiva, tudi oživa (angl., fr. ogive, v prvotnem pomenu gotski lok). Pri podatkih: 21, 27, 27, 27, 27, 28, 29, 29, 29, 32 , dobimo: relativni rangi r ogiva 1 b b b 0.5 b b 21 27 28 29 32 x Interpoliramo tudi kvantile, in sicer na mnogo načinov. Interpolirani kvantili imajo pomembno vlogo v inferenčni statistiki. Iz ogive dobimo interpolirane range in eno vrsto interpoliranih kvantilov. 1.2.4 Intervalske spremenljivke: mere centralne tendence Mera centralne tendence za dano statistično spremenljivko nam grobo povedani da vrednost, proti kateri se nagibajo vrednosti te spremenljivke na statistični množici. Dve meri centralne tendence smo že spoznali: pri imenskih spremenljivkah je bil to modus, pri urejenostnih pa mediana. Pri intervalskih lahko mediano še interpoliramo. Pri intervalskih spremenljivkah pa kot mero centralne tendence najpogosteje gledamo aritmetično sredino (angl. arithmetic mean): µ= x1 + x2 + · · · + xn . n 19 M. RAIČ: STATISTIKA Primer : temperature po Sloveniji v ponedeljek, 20. februarja 2012, ob 17. uri (v Celzijevih stopinjah): −13, 2, 1, 5, 2 . Aritmetična sredina: −13 + 2 + 1 + 5 + 2 . = −0 6 5 To seveda ni verodostojna ocena za povprečno temperaturo vseh naseljenih krajev v Sloveniji, ker vzorec ni reprezentativen, a več o tem kasneje. Verodostojnejša ocena je mediana: m = 2. Če bi temperaturo −13 stopinj, ki je bila izmerjena na Kredarici, zamenjali npr. s temperaturo 0 stopinj, izmerjeno v kakšnem nižje ležečem kraju, bi za povprečje dobili 2 stopinji, mediana pa se ne bi spremenila. µ= Včasih je aritmetično sredino lažje izračunati po u-metodi : za poljubno izhodišče u velja: (x1 − u) + (x2 − u) + · · · + (xn − u) µ=u+ . n Razlikam xi − u pravimo tudi odkloni (angl. deviations). Primer : 876, 879, 878, 878, 877 . Če za izhodišče vzamemo u = 876, dobimo: µ = 876 + 0+3+2+2+1 . . = 876 + 1 6 = 877 6 . 5 Če spremenljivko linearno transformiramo, se enako zgodi tudi z vsemi omenjenimi merami centralne tendence: Količina Na stari spremenljivki Na novi spremenljivki Vrednost na i-ti enoti xi axi + b Modus M aM + b Mediana m am + b Aritmetična sredina µ aµ + b Pravimo, da mere centralne tendence komutirajo z linearnimi transformacijami. To velja tudi za vrstilne statistike in kvantile, če je a > 0: Količina Na stari spremenljivki Na novi spremenljivki Vrednost na i-ti enoti xi axi + b i-ta vrstilna statistika x(i) ax(i) + b Kvantil za delež p qp aqp + b Pri a < 0 pa se vrstilne statistike in kvantili zamenjajo: Količina Na stari spremenljivki Na novi spremenljivki Vrednost na i-ti enoti xi axi + b i-ta vrstilna statistika x(i) ax(n+1−i) + b Kvantil za delež p qp aq1−p + b 20 M. RAIČ: STATISTIKA Primer : če podatkom 876, 879, 878, 878, 877 , . ki imajo aritmetično sredino 877 6, odštejemo 870, dobimo podatke: 6, 9, 8, 8, 7 , . ki imajo aritmetično sredino 7 6. Če slednje pomnožimo z 10, dobimo podatke: 60, 90, 80, 80, 70 , ki imajo aritmetično sredino 76. Primer : v anglosaksonskih državah uporabljajo Fahrenheitove stopinje. Zveza med obojimi je: 9x 5(y − 32) ⇐⇒ y = + 32 x◦ C = y ◦ F ⇐⇒ x = 9 5 . . (0◦ F = −17.78◦ C ustreza hudemu mrazu, 100◦ F = 37.78◦ C pa hudi vročini v zmerno toplem podnebju). Temperature po Sloveniji v ponedeljek, 20. februarja 2012, ob 17. uri lahko torej zapišemo takole: Postaja temperatura (◦ C) temperatura (◦ F) . Kredarica −13 86 . Letališče Edvarda Rusjana Maribor 2 35 6 . Letališče Jožeta Pučnika Ljubljana 1 33 8 . Letališče Portorož 5 41 0 . Ljubljana 2 35 6 Kot smo že izračunali, je povprečna temperatura v stopinjah Celzija: −13 + 2 + 1 + 5 + 2 . = −0 6 , 5 v stopinjah Fahrenheita pa: . . . . . . 154 6 8 6 + 35 6 + 33 8 + 41 0 + 35 6 . = = 30 92 5 5 in to lahko dobimo tudi kot 1.2.5 9 5 · (−0.6) + 32. Intervalske spremenljivke: mere razpršenosti Mere razpršenosti povedo, za koliko se posamezne vrednosti med seboj razlikujejo. Ena od preprostih mer razpršenosti je interkvartilni razmik (angl. interquartile range, midspread, middle fifty): IQR = q3/4 − q1/4 . 21 M. RAIČ: STATISTIKA (če kvartila nista natančno določena, ju interpoliramo). Lahko gledamo tudi povprečni absolutni odklon (average absolute deviation) od primerne mere centralne tendence. Če le-to začasno označimo z u, dobimo količino: |x1 − u| + |x2 − u| + · · · + |xn − u| . n Ta količina je najmanjša, če za u vzamemo mediano. Zato je smiselno gledati povprečni absolutni odmik od mediane: AADu = AADm = |x1 − m| + |x2 − m| + · · · + |xn − m| . n Čeprav mediana ni natančno določena, je zgornja količina vedno natančno določena. Dostikrat se gleda tudi povprečni absolutni odklon od aritmetične sredine: AADµ = |x1 − µ| + |x2 − µ| + · · · + |xn − µ| . n Najlepše računske lastnosti pa imajo mere razpršenosti, ki temeljijo na varianci ali disperziji : (x1 − µ)2 + (x2 − µ)2 + · · · + (xn − µ)2 var = . n Varianca je torej povprečni kvadratni odklon od aritmetične sredine. Lahko jo izračunamo tudi po u-metodi: (x1 − u)2 + (x2 − u)2 + · · · + (xn − u)2 − (µ − u)2 . n Od tod se vidi tudi, da je povprečni kvadratni odklon od u najmanjši, če je u = µ. var = Primer : 8, 8, 9, 11, 11, 13, 14, 14, 14, 37 . Prvi in tretji kvartil sta natančno določena: q1/4 = 9, q3/4 = 14, torej je IRQ = 5. Mediana ni natančno določena – je namreč kar koli iz intervala [11, 13]. Toda kar koli iz tega intervala vzamemo za izračun AADm , dobimo isto: 2 · |8 − 11| + |9 − 11| + 2 · |11 − 11| + |13 − 11| + 3 · |14 − 11| + |37 − 11| . =45 10 2 · |8 − 13| + |9 − 13| + 2 · |11 − 13| + |13 − 13| + 3 · |14 − 13| + |37 − 13| . = 4 5. 10 Nadalje velja: 2 · (−6) + (−5) + 2 · (−3) + (−1) + 23 . = 13 9 , µ = 14 + 10 1 . . . . AADµ = 2 · |8 − 13 9| + |9 − 13 9| + 2 · |11 − 13 9| + |13 − 13 9| + 10 . . . + 3 · |14 − 13 9| + |37 − 13 9| = 4 68 . 22 M. RAIČ: STATISTIKA Končno je še: 2 · (8 − 14)2 + (9 − 14)2 + 2 · (11 − 14)2 + (13 − 14)2 + (37 − 14)2 − 10 . − (13 9 − 14)2 = . = 64 49 . var = Interkvartilni razmik in povprečni absolutni odklon sta neposredno primerljiva s podatki oz. njihovimi razlikami, varianca pa ne. Če podatke linearno transformiramo, se te tri količine transformirajo takole: Količina Na stari spremenljivki Na novi spremenljivki Vrednost na i-ti enoti xi axi + b Interkvartilni razmik IQR |a| · IQR Povpr. abs. odklon od mediane AADm |a| · AADm Povpr. abs. odklon od aritm. sredine AADµ |a| · AADµ Varianca var a2 · var Primer : zamislimo si, da so podatki iz prejšnjega primera dolžine v centimetrih. Če bi jih podali v metrih: . . . . . . . . . . 0 08, 0 08, 0 09, 0 11, 0 11, 0 13, 0 14, 0 14, 0 14, 0 37 , bi dobili: . . . . . . m ∈ [0 11, 0 13] , µ = 0 139 , AADm = 0 045 , AADµ = 0 0468 , var = 0 006449 . To so zdaj vse dolžine, razen variance, ki je v resnici ploščina. Varianca ni neposredno primerljiva s podatki. Zato računamo standardni odklon (angl. standard deviation), ki je kvadratni koren variance: √ σ = var . Varianco zato namesto z var navadno označimo kar s σ 2 . Standardni odklon je neposredno primerljiv s podatki. Pri prejšnjih podatkih bi, če bi računali v centimetrih, dobili: √ . . . σ = 64 49 = 8 03 , če bi računali v metrih, pa bi dobili: √ . . . σ = 0 006449 = 0 0803 . Če podatke linearno transformiramo, se standardni odklon transformira tako kot interkvartilni razmik ali povprečni absolutni odklon: Količina Na stari spremenljivki Na novi spremenljivki Vrednost na i-ti enoti xi axi + b Standardni odklon σ |a|σ 23 M. RAIČ: STATISTIKA Vse zgoraj omenjene količine preprosto dobimo iz frekvenčnih porazdelitev. Za zgled omenimo izražavo aritmetične sredine: 1 µ= f 1 a1 + f 2 a2 + · · · + f k ak = n = f1◦ a1 + f2◦ a2 + · · · + fk◦ ak = 1 = u + f1 (a1 − u) + f2 (a2 − u) + · · · + fk (ak − u) = n = u + f1◦ (a1 − u) + f2◦ (a2 − u) + · · · + fk◦ (ak − u) in variance: 1 f1 (a1 − µ)2 + f2 (a2 − µ)2 + · · · + fk (ak − µ)2 = n = f1◦ (a1 − µ)2 + f2◦ (a2 − µ)2 + · · · + fk◦ (ak − µ)2 = 1 = f1 (a1 − u)2 + f2 (a2 − u)2 + · · · + fk (ak − u)2 − (u − µ)2 = n = f1◦ (a1 − u)2 + f2◦ (a2 − u)2 + · · · + fk◦ (ak − u)2 − (µ − u)2 . σ2 = Pravimo, da je µ tehtana sredina vrednosti a1 , a2 , . . . ak z utežmi f1◦ , f2◦ , . . . fk◦ . V splošnem je tehtana sredina vsak izraz zgornje oblike, pri katerem so uteži nenegativne, njihova vsota pa je 1. Primer : pozitivne ocene s kolokvijev pri predmetu Verjetnost in statistika na univerzitetnem študiju matematike na UL FMF v študijskem letu 2010/11: ocena fi 6 13 7 12 8 7 9 3 10 4 Velja: 13 · 6 + 12 · 7 + 7 · 8 + 3 · 9 + 4 · 10 285 . . = = 7 31 . 39 39 Lahko računamo tudi po u-metodi: µ= 27 . . 13 · (−2) + 12 · (−1) + 7 · 0 + 3 · 1 + 4 · 2 =8− = 7 31 . 39 39 Za izračun standardnega odklona je navadno potreben kalkulator. Lahko računamo tako, da damo µ v spomin in vtipkamo: µ=8+ 13 · (6 − µ)2 + 12 · (7 − µ)2 + 7 · (8 − µ)2 + 3 · (9 − µ)2 + 4 · (10 − µ)2 . = 1.649 , 39 √ . σ = var = 1.284 , var = lahko računamo tudi po u-metodi: var = 13 · (−2)2 + 12 · 12 + 7 · 02 + 3 · 12 + 422 . . − (8 − µ)2 = 1 649 . 39 24 M. RAIČ: STATISTIKA Večina kalkulatorjev ima vgrajene posebne funkcije za izračun povprečja, variance in standardnega odklona, biti pa moramo previdni, saj obstaja tudi popravljena varianca, ki je pomembna v inferenčni statistiki: s2 = (x1 − µ)2 + (x2 − µ)2 + · · · + (xn − µ)2 . n−1 Posebej preprosti so izračuni za dihotomne spremenljivke: • Če spremenljivka zavzame le vrednosti 0 in 1, je aritmetična sredina enaka kar relativni frekvenci vrednosti 1. • Če spremenljivka zavzame vrednost a z relativno frekvenco q, vrednost b pa z relativno frekvenco p, velja: AADm = min{p, q}|b − a| , AADµ = 2pq|b − a| , √ σ = |b − a| pq . Standardizacija je postopek, pri katerem od vrednosti odštejemo aritmetične sredine in jih delimo s standardnim odklonom. Dobimo standardizirane vrednosti: zi = xi − µ . σ Standardizirane vrednosti nam omogočajo primerjavo različnih spremenljivk, recimo na isti enoti. So invariantne za linearne transformacije s pozitivno strmino, t. j. le-te jih ohranjajo. Natančneje: Na stari spremenljivki Količina Vrednost na i-ti enoti Standardizirana vrednost xi zi X Primer : µ σ Če podatkom odštejemo 22, dobimo: 83 22 61 45 49 52 20 Na novi spremenljivki (a > 0) axi + b zi standardizirana vrednost . 1 55 . −1 50 . 0 45 . −0 35 . −0 15 0 1 Na novi spremenljivki (a < 0) axi + b −zi 25 M. RAIČ: STATISTIKA X µ σ 61 0 39 23 27 30 20 standardizirana vrednost . 1 55 . −1 50 . 0 45 . −0 35 . −0 15 0 1 in če te vrednosti podvojimo, dobimo: X µ σ 122 0 78 46 54 60 40 standardizirana vrednost . 1 55 . −1 50 . 0 45 . −0 35 . −0 15 0 1 Standardizirane vrednosti so ostale enake. Primer : temperature po Sloveniji v ponedeljek, 20. februarja 2012, ob 17. uri: Postaja/karakteristika Kredarica Letališče Maribor Letališče Ljubljana Letališče Portorož Ljubljana µ var σ temperatura (◦ C) −13 2 1 5 2 . −0 6 . 40 24 . 6 34 temperatura standardizirana (◦ F) vrednost . . 86 −1 95 . . 35 6 0 41 . . 33 8 0 25 . . 41 0 0 88 . . 35 6 0 41 . 30 92 0 . 130 38 1 . 11 42 1 Standardizirane vrednosti so enake, najsi jih računamo v Celzijevih ali Fahrenheitovih stopinjah. Standardizirana vrednost podobno kot relativni rang pove, kje v skupini je določen podatek (pri dnu, v sredini, pri vrhu . . . ) Še en primer : spet si oglejmo rezultate dveh kolokvijev: 26 M. RAIČ: STATISTIKA Ambrož Blaž Cvetka Darja Emil 83 22 61 45 49 Florjan Gal Helena Iva Jana Karmen Lev Mojca 84 86 71 67 67 88 89 64 in se vprašajmo, kdo je glede na svoje kolege pisal bolje: Cvetka ali Gal? Pri prvem kolokviju je µ = 52 in σ = 20, torej je Cvetkina standardizirana vrednost: 61 − 52 . = 0 45 . 20 Pri drugem kolokviju pa je µ = 77 in σ = 10, torej je Galova standardizirana vrednost: 86 − 77 . = 0 9. 10 1.2.6 Združevanje vrednosti v razrede Kadar je vrednosti veliko, frekvence pa so majhne (če so vrednosti zelo natančno izmerjene, se vsaka od njih tipično pojavi le enkrat), se splača vrednosti združevati v razrede. Pri tem obstajajo določena pravila: • Razredi se ne smejo prekrivati. • Pri imenskih spremenljivkah, pri katerih vemo, katere vrednosti so bližnje, morajo razredi obsegati bližnje vrednosti. • Pri urejenostnih spremenljivkah mora vsak razred zajemati vrednosti iz določenega intervala. Paziti moramo na enoten dogovor, katera krajišča intervalov (spodnja, zgornja) razred vključuje in katerih ne. • Pri intervalskih spremenljivkah lahko določamo širine razredov. Kadar to delamo, se morajo sosedni intervali stikati: zgornja meja prejšnjega razreda se mora ujemati s spodnjo mejo naslednjega. Izbiramo čimbolj realistične meje: če so podatki, ki so na voljo, zaokroženi, poskusimo predvideti, iz katerih realnih vrednosti je lahko bila dobljena posamezna zaokrožena vrednost. Ne gre vedno za najbližjo vrednost – starost se zaokrožuje navzdol. Ni enotnega pravila, koliko razredov narediti oziroma kako široki naj bodo. • V splošnem se lahko držimo že omenjenega korenskega pravila, √ ki ga lahko zdaj interpretiramo tudi tako, da je v posameznem razredu približno n enot (kar nanese √ približno n razredov). Le-ti so lahko zelo različnih širin. 27 M. RAIČ: STATISTIKA • Če želimo dobiti enako široke razrede, Freedman–Diaconisovo pravilo pravi, naj bo √ 3 širina posameznega razreda približno 2 · IQR/ n. Primer : razporeditev točk svetovnem pokalu v alpskem smučanju za ženske do 7. 3. 2012. V kombinaciji tekmuje 39 smučark. Točke: 180, 125, 120, 110, 79, 63, 62, 56, 55, 50, 47, 45, 40, 39, 36, 32, 31, 28, 24, 22, 21, 20, 18, 18, 17, 16, 14, 13, 13, 9, 8, 6, 5, 4, 3, 3, 2, 1, 1 . Po korenskem pravilu bi moralo biti v posamezni skupini približno 6 smučark. Tako bi bila morda smiselna naslednja razporeditev: Točke Frekvenca Gostota Rel. gostota . . [0, 5) 6 1 200 0 03077 . . [5, 15) 7 0 700 0 01795 . . [15, 25) 8 0 800 0 02051 , . . [25, 40) 5 0 333 0 00855 . . [40, 60) 6 0 300 0 00769 . . [60, 180) 7 0 058 0 00150 Pri različno širokih razredih je smiselno narediti histogram iz gostot frekvenc (angl. frequency densities). Če je fi frekvenca, di pa širina i-tega razreda, je gostota frekvence njun kvocient, lahko pa definiramo tudi relativno gostoto: gi = fi , di gi◦ = fi◦ . di Delež enot, katerih vrednosti spremenljivke se nahajajo v določenih razredih, je tako enak ploščini ustreznih pravokotnikov v histogramu iz relativnih gostot frekvenc. Histogram za prejšnjo razdelitev smučark: 28 M. RAIČ: STATISTIKA gi 1.2 1 0.8 0.6 0.4 0.2 20 40 60 80 100 120 140 160 180 x Nazorneje pa bi bilo, če bi zadnjo (najvišjo) skupino razdelili še glede na 100 točk, smučarko z najvišjim rezultatom pa sploh prikazali posebej. Na primer: Točke Frekvenca Gostota Rel. gostota . . [0, 5) 6 1 200 0 03077 . . [5, 15) 7 0 700 0 01795 . . [15, 25) 8 0 800 0 02051 . . [25, 40) 5 0 333 0 00855 , . . [40, 60) 6 0 300 0 00769 . . [60, 100) 3 0 075 0 00192 . . [100, 150) 3 0 060 0 00154 180 1 Histogram: gi 1.2 b 1 0.8 0.6 0.4 0.2 20 40 60 80 100 120 140 160 180 x 29 M. RAIČ: STATISTIKA Po Freedman–Diaconisovem pravilu pa bi morala biti širina razreda približno: 2 · (50 − 9) . . √ = 24 18 , 3 39 kar pomeni, da je smiselno, če je širina razredov 25. Dobili bi: Točke Frekvenca [0, 25) 21 [25, 50) 8 [50, 75) 5 [75, 100) 1 . [100, 125) 2 [125, 150) 1 [150, 175) 0 [175, 200) 1 Histogram: fi 25 20 15 10 5 25 1.2.7 50 75 100 125 150 175 200 x Primerjanje vrednosti razmernostnih spremenljivk Razmernostne spremenljivke se odlikujejo po tem, da lahko poljubni dve vrednosti delimo. Če npr. delimo dva različna decila, dobimo interdecilni količnik. Pogosto je v uporabi razmerje q0.9 /q0.1 . 30 M. RAIČ: STATISTIKA Primer : razporeditev točk svetovnem pokalu v alpskem smučanju za ženske do 7. 3. 2012. V kombinaciji tekmuje 39 smučark. Točke: Iz q0.9 = 110 in q0.1 180, 125, 120, 110, 79, 63, 62, 56, 55, 50, 47, 45, 40, 39, 36, 32, 31, 28, 24, 22, 21, 20, 18, 18, 17, 16, 14, 13, 13, 9, 8, 6, 5, 4, 3, 3, 2, 1, 1 . . = 3 dobimo interdecilni količnik 36 7. Koeficient dinamike je razmerje med vrednostma razmernostne spremenljivke na dveh statističnih enotah: xs . Ks/t = xt indeks pa je koeficient dinamike, pomnožen s 100: xs Is/t = 100Ks/t = 100 . xt Koeficiente dinamike in indekse navadno uporabljamo takrat, ko so enote časi. Včasih določeno enoto, recimo t0 , vzamemo za izhodišče. Takrat koeficientom dinamike Kt/t0 oziroma indeksom It/t0 pravimo bazni koeficienti dinamike oz. indeksi ali pa tudi koeficienti dinamike oz. indeksi s stalno osnovo. Vse koeficiente dinamike in indekse lahko izpeljemo iz tistih s stalno osnovo: Ks/t = Ks/s0 , Kt/t0 Is/t = 100 Is/s0 . It/t0 Če so enote urejene po velikosti: t0 < t1 < t2 < · · · < tn (recimo če gre za čase), pa lahko gledamo verižne koeficiente dinamike: Kt1 /t0 , Kt2 /t1 , Kt3 /t2 , . . . Ktn /tn−1 oz. indekse: It1 /t0 , It2 /t1 , It3 /t2 , . . . Itn /tn−1 Velja: Ktn /t0 = Kt1 /t0 Kt2 /t1 · · · Ktn /tn−1 . Če so časi enakomerno razmaknjeni, ima smisel računati povprečni koeficient dinamike, ki je geometrična sredina verižnih koeficientov dinamike: p K tn /t0 = n Kt1 /t0 Kt2 /t1 · · · Ktn /tn−1 . Njegov pomen je, da, če bi vse verižne koeficiente dinamike zamenjali s povprečnim, se bazni koeficient dinamike Ktn /t0 ne bi spremenil. Podobno velja tudi za povprečni verižni indeks: p I tn /t0 = n It1 /t0 It2 /t1 · · · Itn /tn−1 . 31 M. RAIČ: STATISTIKA Primer : xi Kti /t0 Iti /t0 Kti /ti−1 Iti /ti−1 20 1 100 – – . . 25 1 25 125 1 25 125 . . 30 1 5 150 12 120 . . 27 1 35 135 09 90 √ . . . Povprečni koeficient dinamike: 3 1 35 = 1 105 . Povprečni verižni indeks: 110 5. 1.3 Mere povezanosti dveh statističnih spremenljivk – bivariatna analiza Gre za to, da želimo za dve statistični spremenljivki, definirani na isti statistični množici, izmeriti, koliko sta odvisni druga od druge. POZOR! Povezanost dveh statističnih spremenljivk še ne pomeni, da ena od njiju neposredno vpliva na drugo – povezanost ne implicira vzročnosti. Navadno povezanost nastane zaradi tega, ker na obe spremenljivki vpliva neka tretja spremenljivka (lahko zelo posredno), le-to pa je dostikrat težko določiti. Kvantitativno (številsko) opredeljevanje odvisnosti je odvisno od tipa spremenljivk. 1.3.1 Povezanost dveh imenskih spremenljivk Porazdelitev dveh imenskih spremenljivk predstavimo s kontingenčno tabelo: a1 a2 .. . ak b1 b2 f11 f12 f21 f22 .. .. . . fk1 fk2 f·1 f·2 · · · bl · · · f1l · · · f2l . . . .. . · · · fkl · · · f·l f1· f2· .. . fk· n Pri tem so: • a1 , a2 , . . . ak vrednosti prve spremenljivke, npr. X; • b1 , b2 , . . . bl vrednosti druge spremenljivke, npr. Y ; • fij navzkrižne frekvence (angl. joint frequencies, cross-frequencies): navzkrižna frekvenca fij pove, na koliko enotah je X = ai in hkrati Y = bj ali s formulo: fij = ♯(X = ai , Y = bj ) ; 32 M. RAIČ: STATISTIKA • fi· in f·j robne frekvence (angl. marginal frequencies): robne frekvence: fi· = fi1 + fi2 + · · · + fil = ♯(X = ai ) tvorijo frekvenčno porazdelitev spremenljivke X, robne frekvence: f·j = f1j + f2j + · · · + flj = ♯(Y = bj ) pa tvorijo frekvenčno porazdelitev spremenljivke Y . Seveda velja: n = f1· + f2· + · · · + fk· = f·1 + f·2 + · · · + f·l . Definiramo lahko tudi relativne navzkrižne frekvence in relativne robne frekvence: fij◦ fij , = n l fi·◦ fi· X = = fij , n j=1 l f·j◦ f·j X = = fij . n i=k Primer : barva oči in barva las Absolutne frekvence: oči\lasje modre zelene rjave Skupaj blond rdeči rjavi, črni Skupaj 7 2 2 11 4 0 2 6 0 0 9 9 11 2 13 26 oči\lasje modre zelene rjave Skupaj blond 0.269 0.154 0.000 0.423 Relativne frekvence: rdeči 0.077 0.000 0.000 0.077 rjavi, črni Skupaj 0.077 0.423 0.077 0.231 0.346 0.346 0.500 1.000 Obstaja veliko številskih mer (pokazateljev) povezanosti. Eden najboljših je Cramérjev koeficient asociiranosti, osnova za njegov izračun pa so teoretične relativne navzkrižne frekvence: f˜ij◦ = fi·◦ f·j◦ , Teoretične relativne frekvence v našem primeru: oči\lasje modre zelene rjave Skupaj blond 0.179 0.098 0.146 0.423 rdeči 0.033 0.018 0.027 0.077 rjavi, črni Skupaj 0.212 0.423 0.115 0.231 0.173 0.346 0.500 1.000 33 M. RAIČ: STATISTIKA Cramérjev koeficient asociiranosti pa je definiran s formulo: v u k X l ◦ ˜◦ 2 X u − f f 1 ij ij . V := t min{k, l} − 1 i=1 j=1 f˜ij◦ Pri našem primeru izračunamo: . . . . . . (0 269 − 0 179)2 (0 077 − 0 033)2 (0 077 − 0 212)2 V = + + + . . . 0 179 0 033 0 212 . . . . . . (0 154 − 0 098)2 (0 000 − 0 018)2 (0 077 − 0 115)2 + + + + . . . 0 098 0 018 0 115 1/2 . . . . . . (0 000 − 0 146)2 (0 000 − 0 027)2 (0 346 − 0 173)2 . + + + = . . . 0 146 0 027 0 173 . . = 0 55 . Cramérjev koeficient asociiranosti lahko izračunamo tudi iz (absolutnih) frekvenc. Za ta namen najprej izračunamo teoretične (absolutne) frekvence: fi· f·j f˜ij = nf˜ij◦ = n in velja: V = s χ2 , n min{k, l} − 1 kjer je χ2 Pearsonova statistika hi kvadrat (angl. chi-squared ): k X l k X l ◦ ˜◦ 2 X X f − f (fij − f˜ij )2 ij ij 2 χ =n = f˜◦ f˜ij i=1 j=1 ij i=1 j=1 Teoretične absolutne frekvence pri prejšnji tabeli barv oči in las so: oči\lasje modre zelene rjave Skupaj blond rdeči rjavi, črni Skupaj 4.65 0.84 5.50 11 2.54 0.46 3.00 6 3.81 0.69 4.50 9 11 2 13 26 . . Velja χ2 = 15 62. Lastnosti Cramérjevega koeficienta asociiranosti: • Velja 0 ≤ V ≤ 1. • Če sta X in Y neodvisni in je dovolj podatkov, je V blizu 0: več kot je podatkov, bolj natančno to velja. Kasneje pri inferenčni statistiki se bomo naučili, kako postaviti mejo. 34 M. RAIČ: STATISTIKA • Koeficient V je maksimalen (enak 1) natanko tedaj, ko spremenljivki natančno določata druga drugo (sta popolnoma povezani ). Kvalitativno opredeljevanje koeficienta asociiranosti je precej subjektivne narave. Tu se bomo držali naslednjih dogovorov: . • do 0 2: neznatna povezanost; . . • od 0 2 do 0 4: nizka povezanost; . . • od 0 4 do 0 7: zmerna povezanost; . . • od 0 7 do 0 9: visoka povezanost; . • od 0 9 do 1: zelo visoka povezanost. Pri primeru z barvo oči in las sta torej spremenljivki zmerno povezani. Če sta obe spremenljivki dihotomni (lahko zavzameta le dve vrednosti) in je njuna porazdelitev podana s kontingenčno tabelo: a1 a2 b1 b2 A B , C D je izražava Cramérjevega koeficienta asociiranosti preprostejša: |AD − BC| V =p . (A + B)(C + D)(A + C)(B + D) Več informacije pa nam da predznačena vrednost: AD − BC . φ= p (A + B)(C + D)(A + C)(B + D) • Če je φ > 0, to pomeni, da se enote, na katerih prva spremenljivka zavzame prvo vrednost, nagibajo k temu, da tudi druga spremenljivka zavzame prvo vrednost; nasprotno se enote, na katerih prva spremenljivka zavzame drugo vrednost, nagibajo k temu, da tudi druga spremenljivka zavzame drugo vrednost. • Če je φ < 0, to pomeni, da se enote, na katerih prva spremenljivka zavzame prvo vrednost, nagibajo k temu, da druga spremenljivka zavzame drugo vrednost; nasprotno se enote, na katerih prva spremenljivka zavzame drugo vrednost, nagibajo k temu, da tudi druga spremenljivka zavzame prvo vrednost. Primer : rezultati ankete z dvema vprašanjema: 1. Ali verjamete v horoskop? 2. Ali verjamete v NLP-je? 35 M. RAIČ: STATISTIKA so zbrani v naslednji tabeli: Horoskop\NLP vsaj malo ne Skupaj vsaj malo ne 5 7 6 9 11 16 Skupaj 12 15 27 5·9−7·6 . . = 0 017. 12 · 15 · 11 · 16 Gre torej za neznatno pozitivno povezanost. Velja φ = √ 1.3.2 Povezanost dveh intervalskih spremenljivk Povezanost dveh intervalskih spremenljivk lahko merimo s Pearsonovim korelacijskim koeficientom. Če vrednosti prve označimo z x1 , . . . xn , vrednosti druge pa z y1 , . . . yn , najprej izračunamo kovarianco: K = K x,y := (x1 − µx )(y1 − µy ) + (x2 − µx )(y2 − µy ) + · · · + (xn − µx )(yn − µy ) , n kjer sta µx in µy aritmetični sredini naših spremenljivk: µx = x1 + x2 + · · · + xn , n µy = y1 + y2 + · · · + yn . n Če je kovarianca pozitivna, pravimo, da sta spremenljivki pozitivno korelirani. Če je negativna, sta negativno korelirani. Če je enaka nič, sta nekorelirani. Kovarianco lahko računamo tudi po u-metodi: za poljubna u in v velja: K x,y = (x1 − u)(y1 − v) + (x2 − u)(y2 − v) + · · · + (xn − u)(yn − v) − (µx − u)(µy − v) . n Lahko jo računamo tudi iz kontingenčne tabele: k K x,y = = l 1 XX fij (ai − µx )(bj − µy ) = n i=1 j=1 k X l X i=1 j=1 k fij◦ (ai − µx )(bj − µy ) = l 1 XX = fij (ai − u)(bj − v) − (µx − u)(µy − v) = n i=1 j=1 = k X l X i=1 j=1 fij◦ (ai − µx )(bj − µy ) − (µx − u)(µy − v) 36 M. RAIČ: STATISTIKA Varianca statistične spremenljivke je njena kovarianca same s seboj. Če preučujemo več spremenljivk hkrati (multivariatna analiza), je pomembna kovariančna matrika: K11 K12 . . . K1n K21 K22 . . . K2n K = .. .. .. . . . . . . Kn1 Kn2 . . . Knn S Kij smo tu označili kovarianco i-te in j-te spremenljivke. V multivariatni analizi je analiza matrik (ki temelji na linearni algebri) ključnega pomena. Pearsonov korelacijski koeficient je definiran s formulo: r = rx,y = K x,y , σx σy kjer sta σx in σy standardna odklona naših spremenljivk: r (x1 − µx )2 + (x2 − µx )2 + · · · + (xn − µx )2 , σx = n r (y1 − µy )2 + (y2 − µy )2 + · · · + (yn − µy )2 σy = . n Lastnosti Pearsonovega korelacijskega koeficienta: • Definiran je, če nobena od spremenljivk ni konstantna. • Velja −1 ≤ r ≤ 1. • Če sta X in Y neodvisni in je dovolj podatkov, je r blizu 0 (kasneje pri inferenčni statistiki se bomo naučili, kako postaviti mejo). • Pearsonov korelacijski koeficient je maksimalen (enak 1), če je katera koli od spremenljivk naraščajoča linearna funkcija druge. • Pearsonov korelacijski koeficient je minimalen (enak −1), če je katera koli od spremenljivk padajoča linearna funkcija druge. Pearsonov korelacijski koeficient meri stopnjo linearne povezanosti med statističnima spremenljivkama. Absolutna vrednost Pearsonovega korelacijskega koeficienta (|r|) je v grobem primerljiva s Cramérjevim koeficientom asociiranosti. Še več, za par dihotomnih spremenljivk se to dvoje celo ujema, ne glede na to, kateri dve (različni) števili priredimo vrednostma posamezne spremenljivke (ki nista nujno številski – lahko sta le imenski). Če gledamo par urejenostnih dihotomnih spremenljivk in če številske vrednosti priredimo v skladu z urejenostjo, velja r = φ. 37 M. RAIČ: STATISTIKA Zato je smiselno, če tudi Pearsonov korelacijski koeficient enako kvalitativno opredeljujemo kot pri Cramérjev koeficient, s tem da lahko sedaj povemo tudi smer povezanosti: . vrednost r = −0 6 torej pomeni zmerno negativno koreliranost. Kvadratu korelacijskega koeficienta (r2 ) pravimo determinacijski koeficient. Njegovo kvalitativno opredeljevanje je torej naslednje: . • do 0 04: neznatna povezanost; . . • od 0 04 do 0 16: nizka povezanost; . . • od 0 16 do 0 49: zmerna povezanost; . . • od 0 49 do 0 81: visoka povezanost; . • od 0 81 do 1: zelo visoka povezanost. Primer : vremenska napoved temperatur za naslednjih nekaj dni dan petek sobota nedelja ponedeljek torek jutranja dnevna 14 19 12 20 10 21 11 22 12 21 Grafično lahko to ponazorimo z diagramom razpršenosti (tudi razsevni diagram, angl. scatter plot, scattergraph): dnevna 22 21 b b b 20 b 19 b 10 11 12 13 14 jutranja Izračun Pearsonovega korelacijskega koeficienta: xi 14 12 10 11 12 Vsota Povprečje yi xi − 10 yi − 20 (xi − 10)2 (yi − 20)2 (xi − 10)(yi − 20) 19 4 −1 16 1 −4 20 2 0 4 0 2 21 0 1 0 1 0 22 1 2 1 4 0 21 2 1 4 1 2 9 3 25 7 2 . . . . 18 06 5 14 04 38 M. RAIČ: STATISTIKA . . . . Kovarianca: K = 0 − 1 8 · 0√6 = −1 08. √ . . 2 . . . . . Standardna odklona: σx = 5 − 1 8 = 1 327, σ 1 4 − 0 62 = 1 020 y = . −1 08 . . . = −0 80. Pearsonov korelacijski koeficient: r = . . 1 327 · 1 020 . Determinacijski koeficient: 0 64. Jutranja in dnevna temperatura sta torej visoko negativno povezani: pri višji jutranji temperaturi lahko pričakujemo nižjo dnevno. Pri takšni napovedi, kot je ta (za nekaj zaporednih dni) ima pri korelaciji verjetno nejvečjo težo vpliv oblačnosti, ki viša jutranjo, a niža dnevno temperaturo. Pri napovedi za daljše obdobje bi bila korelacija bistveno drugačna. Še en primer : med 20 študenti izvedemo anketo z dvema vprašanjema: 1. Koliko ur na dan preživiš na računalniku? 2. Koliko ur na dan preživiš zunaj s prijatelji? Rezultati ankete so zbrani v naslednji kontingenčni tabeli (vrstice so ure na računalniku, stolpci pa ure s prijatelji): X \Y 1 2 3 4 5 f·j 1 1 2 3 0 1 7 2 1 2 1 1 1 6 3 0 2 1 1 0 4 4 0 0 0 1 0 1 5 1 1 0 0 0 2 fi· 3 7 5 3 2 20 Gre za intervalski spremenljivki, zato je smiselno gledati Pearsonov korelacijski koeficient. Najprej izračunamo povprečja: 1·3+2·7+3·5+4·3+5·2 . µx = = 2 7, 20 1·7+2·6+3·4+4·1+5·2 . µy = = 2 25 . 20 . Anketiranci so, kot trdijo, torej v povprečju na dan preživeli 2 7 ure za računalnikom in . 2 25 ure s prijatelji. Kot naslednji korak bomo izračunali standardna odklona. Če gremo računat po umetodi in vzamemo u = 3 (za x) in v = 2 (za y), dobimo: 1h (1 − 3)2 · 3 + (2 − 3)2 · 7 + (3 − 3)2 · 5 + (4 − 3)2 · 3 + (5 − 3)2 · 2 − σx2 = 20 . . − (2 7 − 3)2 = 1 41 , 1h 2 σy = (1 − 2)2 · 7 + (2 − 2)2 · 6 + (3 − 2)2 · 4 + (4 − 2)2 · 1 + (5 − 2)2 · 2 − 20 . . − (2 25 − 2)2 = 1 5875 , 39 M. RAIČ: STATISTIKA . . . . od koder dobimo σx = 1 1874 in σy = 1 2600. Kovarianca: 1 (−2) · (−1) · 1 + (−2) · 0 · 1 + (−2) · 1 · 0 + (−2) · 2 · 0 + (−2) · 3 · 1 + K x,y = 20 + (−1) · (−1) · 2 + (−1) · 0 · 2 + (−1) · 1 · 2 + (−1) · 2 · 0 + (−1) · 3 · 1 + + 0 · (−1) · 3 + 0 · 0 · 1 + 0 · 1 · 1 + 0 · 2 · 0 + 0 · 2 · 0 + + 1 · (−1) · 0 + 1 · 0 · 1 + 1 · 1 · 1 + 1 · 2 · 1 + 1 · 2 · 0 + + 2 · (−1) · 1 + 2 · 0 · 1 + 2 · 1 · 0 + 2 · 2 · 0 + 2 · 2 · 0 − . . − (2 7 − 3) · (2 25 − 2) = . = −0 225 . . −0 225 . . . = −0 15. Gre torej za neznatno Pearsonov korelacijski koeficient: r = . . 1 1874 · 1 2600 negativno povezanost. Še nekaj primerov diagramov razpršenosti z različnimi korelacijskimi koeficienti : To so rezultati tistih 52 študentov, ki so v študijskem letu 2010/11 na biopsihologiji pisali oba kolokvija iz statistike: y b b b b b b b b b b b b bb b b b b b b b b b b b b b b b b b r = 0.58 b b b bb b b bb bb b b b b b b b b b b x To so naključno generirani podatki, a naključnost je nastavljena tako, da so nekorelirani. 40 M. RAIČ: STATISTIKA y b b b b b r=0 b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b bb b b b b b b b b b b b b bbb b b bb b b b b b b b b b bb b b b b b bb b b b b b b b b b b b b bb b b b b b b b b b b x Ti podatki so visoko pozitivno korelirani. y b b b b b b b b b b b b b b b b b b b b b b bb b b b b b b b b b b b b b b bb b b b b b bb b b b b b b r = 0.9 b b b b b b b b b b b b b b b b b b bb b b b b b b b b b b b b b b bb b b b b b b b b b b x Skrajni primer je korelacija 1, ko gre za linearno odvisnost. bb y b b bb b bb b bb b b b b b b bb bbb bb b b r=1 x Korelacija je lahko tudi negativna: y r = −0.5 b b b b b b b b b b b b b b b b b bb b b b b b b b b b b b b b b b b b b b b b b b b b b b bb b b b b b b b b b b b b b b b b b b b b b bb b bb b b b b b b b b b b b bb b b b b b b b b b b b b x 41 M. RAIČ: STATISTIKA Tukaj je korelacija enaka −1: y r = −1 b b bb b b bbb b b b b b b b b b b bb b b b b b b x Še en primer nekoreliranih podatkov: b b y b b b b r=0 b b b b b b b b b b b b b b b b b b b b b b b b b b b b bb b bb b b b b b b b b b b b b b b b b b b b b b b b b b b b b b bb b b b b b b b b b bb b b bb b b b b b b bb bb b b b b x Tukaj se y deterministično izraža z x, podatki pa so nekorelirani. b y b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b r=0 b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b x 42 M. RAIČ: STATISTIKA 1.3.3 Povezanost intervalske in dihotomne spremenljivke Podatke, kjer sta na isti statistični množici definirani intervalska spremenljivka (recimo U ) in dihotomna spremenljivka (recimo S), lahko predstavimo bodisi kot: u1 , u2 , . . . u N s1 , s2 , . . . sN bodisi podatke razdelimo glede na vrednost dihotomne spremenljivke. Če le-ta zavzame vrednosti a in b, lahko podatke, na katerih druga spremenljivka zavzame vrednost a, predstavimo z: x1 , x2 , . . . xm , podatke, na katerih druga spremenljivka zavzame vrednost b, pa z: y1 , y2 , . . . yn . Še drugače, gledati dve spremenljivki, od katerih je druga dihotomna, na eni statistični množici, je ekvivalentno gledanju prve spremenljivke na dveh različnih statističnih množicah (dihotomna spremenljivka nam statistično množico razdeli na dve skupini). Primer : pri nekem izpitu gledamo rezultat in spol: Ime Rezultat (ui ) Spol (si ) Jan 22 M Karmen 39 Ž Barbara 73 Ž Kristina 34 Ž Domen 52 M Katja 34 Ž Aljaž 39 M Rok 52 M Sabina 38 Ž Diana 53 Ž Jerica 59 Ž Tilen 43 M Rezultate lahko ločimo po spolih: Ženske: x1 = 39 , x2 = 73 , x3 = 34 , x4 = 34 , x5 = 38 , x6 = 53 , x7 = 59 . Moški: y1 = 22 , y2 = 52 , y3 = 39 , y4 = 52 , y5 = 43 . Prikaz s pikami: b Ženske: Moški: b b b b b b b b b b b 43 M. RAIČ: STATISTIKA Če sta a in b numerični vrednosti, lahko izračunamo Pearsonov korelacijski koeficient. Brž ko je a > b, je le-ta enak: √ µx − µy mn , rpb = σ m+n ne glede na to, koliko sta vrednosti a in b dejansko enaki. Zato ni nujno, da je dihotomna spremenljivka numerična, lahko je le imenska. Koeficient za ta primer imenujemo točkovni biserialni korelacijski koeficient (angl. point biserial correlation coefficient). Oznaka σ se tu nanaša na celostni standardni odklon, t. j. standardni odklon spremenljivke U : r (u1 − µ)2 + (u2 − µ)2 + · · · + (uN − µ)2 σ= = N r (x1 − µ)2 + (x2 − µ)2 + · · · + (xm − µ)2 + (y1 − µ)2 + (y2 − µ)2 + · · · + (yn − µ)2 = , N µ pa je aritmetična sredina vseh podatkov: µ= u1 + u 2 + · · · + uN , N Pri našem primeru je: . . . . . . . . . µx = 47 14 , µy = 41 6 , µ = 44 83 , σ 2 = 169 8 , σ = 13 03 , torej je: rpb . . √ . 47 14 − 41 6 7 · 5 . . = = 0 2097 . . 13 03 7+5 Kvalitativno opredeljevanje točkovnega biserialnega koeficienta je enako kot pri Pearsonovem: gre torej za nizko povezanost v korist žensk. Ali drugače, ženske so pisale malo boljše kot moški. Aritmetična sredina vseh podatkov je enaka tehtani sredini aritmetičnih sredin posameznih skupin: n m µx + µy . µ= m+n m+n z utežema, ki sta sorazmerni z velikostma skupin, ki ju predstavljata. Kvadrat celostnega standardnega odklona, torej celostno (celotno, totalno) varianco, pa lahko zapišemo kot vsoto: 2 σ 2 = σW + σB2 , kjer je: n m σx2 + σ2 m+n m+n y varianca znotraj skupin (angl. within groups) ali tudi nepojasnjena varianca (angl. unexplained variance, pooled variance) in: mn σB2 = (µx − µy )2 (m + n)2 2 σW = 44 M. RAIČ: STATISTIKA varianca med skupinama (angl. between groups ali tudi pojasnjena varianca (angl. explained variance). To je tisti del variance, ki jo pojasnjuje skupina, v kateri je podatek. Na zgornji in splošnejših razčlenitvah variance temelji analiza variance (angl. analysis of variance, ANOVA), ki je pomemben del inferenčne statistike. Malo kasneje bomo omenili posplošitev na več skupin. Kvadrat točkovnega biserialnega korelacijskega koeficienta (točkovni biserialni determinacijski koeficient) predstavlja delež pojasnjene variance ali tudi moč učinka (angl. strength of effect, effect size), saj velja: 2 rpb = σB2 σB2 . = 2 σ2 σW + σB2 Njegovo kvalitativno opredeljevanje je torej enako kot pri determinacijskem koeficientu. Pri našem primeru je recimo: 5 . . 7 . . . µ = 44 83 = · 47 14 + · 41 6 . 12 12 Varianca med skupinama (varianca, pojasnjena s spolom), je enaka: σB2 = Nadalje je: 7·5 . . . . (47 14 − 41 6)2 = 7 5 . (7 + 5)2 . . . . σx2 = 191 3 , σx = 13 83 , . . . . σy2 = 121 8 , σy = 11 04 . in varianca znotraj skupin (nepojasnjena varianca) je enaka: 5 . . . . 2 . 7 σW = · 191 3 + · 121 8 = 162 3 . 12 12 . . . . . 2 Opazimo, da je res σ 2 = 169 8 = 7 5 + 121 8 = σB2 + σW . Delež pojasnjene variance je enak: . 75 . . . . 2 . = 0 04398 = 0 2097 . 169 8 Če sta obe spremenljivki dihotomni, velja rpb = φ. Kot mero za povezanost intervalske in dihotomne spremenljivke lahko gledamo tudi standardizirano razliko povprečij (angl. standardized mean difference) ali tudi Cohenov koeficient: µx − µy d= σW Točkovni biserialni in Cohenov koeficient nam dajeta isto informacijo, saj se izražata drug z drugim: d r m+n √ . rpb = q , d= √ mn 1 − r2 (m+n)2 2 d + mn 45 M. RAIČ: STATISTIKA Nudita pa dva različna pogleda: točkovni biserialni korelacijski koeficient je osredotočen bolj na povezanost, Cohenov koeficient pa bolj na razliko. V našem primeru je: 1.3.4 . . . 47 14 − 41 6 . . d= √ . = 0 435 . 162 3 Povezanost intervalske in imenske spremenljivke Podatke, kjer sta na isti statistični množici definirani intervalska spremenljivka (recimo X) in imenska spremenljivka (recimo S), lahko spet predstavimo bodisi kot: x1 , x2 , . . . xn s1 , s2 , . . . sn bodisi podatke razdelimo glede na vrednost imenske spremenljivke. Če le-ta zavzame vrednosti a1 , a2 , . . . ak , podatke preindeksiramo v: x11 , x12 , . . . x1n1 : vrednosti spremenljivke X, kjer je S = a1 x21 , x22 , . . . x2n2 : vrednosti spremenljivke X, kjer je S = a2 .. . xk1 , xk2 , . . . xkn2 : vrednosti spremenljivke X, kjer je S = ak Seveda velja n1 + n2 + · · · + nk = n. Še drugače, na eni statistični množici gledati dve spremenljivki, od katerih je druga imenska, ki zavzame k vrednosti, je ekvivalentno gledanju prve spremenljivke na k različnih statističnih množicah (imenska spremenljivka nam statistično množico razdeli na k skupin). Merjenje povezanosti med intervalsko in imensko spremenljivko temelji na analizi variance (natančneje, v našem kontekstu je to analiza variance z enojno klasifikacijo). Spet označimo z µ aritmetično sredino na celotni statistični množici: µ= x1 + x2 + · · · + xn , n z µ1 , µ2 , . . . µk pa aritmetične sredine na posameznih skupinah: µi = xi1 + xi2 + · · · + xini , ni Tedaj je µ tehtana sredina aritmetičnih sredin µi : µ= n2 nk n1 µ1 + µ2 + · · · + µk . n n n Celostna varianca: σ2 = (x1 − µ)2 + (x2 − µ)2 + · · · + (xn − µ)2 n 46 M. RAIČ: STATISTIKA spet razpade na nepojasnjeno in pojasnjeno varianco: 2 σ 2 = σW + σB2 , kjer je nepojasnjena varianca ali varianca znotraj skupin tehtana sredina posameznih varianc v skupinah: (xi1 − µi )2 + (xi2 − µi )2 + · · · + (xini − µi )2 , ni nk 2 n1 2 n2 2 σ1 + σ2 + · · · + σ , = n n n k σi2 = 2 σW pojasnjena varianca ali varianca med skupinami pa je tehtana sredina kvadratov odklonov aritmetičnih sredin posameznih skupin od celostne aritmetične sredine: σB2 = n2 nk n1 (µ1 − µ)2 + (µ2 − µ)2 + · · · + (µk − µ)2 . n n n Lahko jo izračunamo tudi po u-metodi: σB2 = n1 n2 nk (µ1 − u)2 + (µ2 − u)2 + · · · + (µk − u)2 − (µ − u)2 . n n n Zgoraj definirane variance so posplošitve varianc, ki smo jih gledali pri povezanosti intervalske in dihotomne spremenljivke. Tako povezanost intervalske in imenske spremenljivke spet merimo z deležem pojasnjene variance oz. močjo učinka: η2 = σB2 , σ2 Delež pojasnjene variance kvalitativno opredeljujemo enako kot determinacijski koeficient: . če je pojasnjenih 25% variance (η 2 = 0 25), to pomeni zmerno povezanost. Če je intervalska spremenljivka dihotomna, se delež pojasnjene variance ujema s kvadratom Cramérjevega koeficienta asociiranosti: η 2 = V 2 . Če sta torej obe spremenljivki dihotomni, velja η 2 = φ2 . Primer : želimo izmeriti povezavo med pogostnostjo zahajanja v kino in najbolj priljubljeno zvrstjo filma. Za ta namen izvedemo anketo z dvema vprašanjema: 1. Kolikokrat na mesec greš v kino? 2. Katera zvrst filma ti je najbolj všeč? (a) Komedija. (b) Akcija. (c) Romantični film. (d) Drama. (e) Grozljivka. 47 M. RAIČ: STATISTIKA Pogostnost zahajanja v kino je intervalska, zvrst filma pa imenska spremenljivka. Rezultati ankete so naslednji: zvrst filma\št. obiskov kina komedija akcija romantični drama grozljivka Skupaj 0 4 0 0 4 0 8 1 2 1 3 1 0 7 2 2 0 1 2 0 5 Skupaj Povprečje . 8 0 75 1 1 . 4 1 25 . 7 0 7143 0 – . 20 0 85 Celostna varianca: . . . 8 · (0 − 0 85)2 + 7 · (1 − 0 85)2 + 5 · (2 − 0 85)2 . = 0 6275 . σ = 20 2 Varianca med skupinami (pojasnjena varianca): σB2 . . . . . . . 8 · (0 75 − 0 85)2 + 1 · (1 − 0 85)2 + 4 · (1 25 − 0 85)2 + 7 · (0 7143 − 0 85)2 . = = 20 . . = 0 0436 . Delež pojasnjene variance: . . 0 0436 . . η = . = 0 069 . 0 6275 . Različnost najljubših zvrsti filma torej pojasni 6 9% variance števila obiskov kina. To pomeni nizko povezanost. 2 1.3.5 Povezanost dveh urejenostnih spremenljivk Povezanost dveh urejenostnih spremenljivk merimo s Spearmanovim ali Kendallovim korelacijskim koeficientom. Računanje slednjega je nekoliko bolj zapleteno, zato se bomo posvetili le prvemu. Splošni pristop pri urejenostnih spremenljivkah je, da uporabimo metode za intervalske spremenljivke na rangih. Spearmanov korelacijski koeficient je definiran natanko v tem (x) (x) (x) duhu: to je Pearsonov koeficient, izračunan za vezane range. Če z R1 , R2 , . . . Rn ozna(y) (y) (y) čimo vezane range spremenljivke X, z R1 , R2 , . . . Rn pa vezane range spremenljivke Y po enotah, se kovarianca rangov izraža s formulo: (x) ¯ R1(y) − R ¯ + R2(x) − R ¯ R2(y) − R ¯ + · · · + Rn(x) − R ¯ Rn(y) − R ¯ R1 − R KR(x) ,R(y) = n kjer je: ¯ = n+1 R 2 48 M. RAIČ: STATISTIKA povprečni rang (ker je le-ta celo število ali pa celo število in pol, u-metoda tu ni toliko smiselna). Nato izračunamo še standardna odklona rangov: s (x) ¯ 2 + R2(x) − R ¯ 2 + · · · + Rn(x) − R ¯ 2 R1 − R σR(x) = , n s (y) ¯ 2 + R2(y) − R ¯ 2 + · · · + Rn(y) − R ¯ 2 R1 − R , σR(y) = n Če ni vezi, velja kar: r n2 − 1 . 12 Spearmanov korelacijski koeficient torej definiramo po formuli: σR(x) = σR(y) = ρ = ρx,y := K R(x) ,R(y) σR(x) σR(y) Seveda lahko zgornje količine izračunamo tudi iz kontingenčne tabele. Če z R(x) (a) označimo vezani rang vrednosti a glede na spremenljivko X, z R(y) (b) označimo vezani rang vrednosti b glede na spremenljivko Y , velja: K R(x) ,R(y) σR(x) σR(y) k l 1 XX ¯ R(y) (bj ) − R ¯ , = fij R(x) (ai ) − R n i=1 j=1 v u k u1 X ¯ 2, fi· R(x) (ai ) − R =t n i=1 v u l u1 X ¯ 2. f·j R(y) (bj ) − R =t n j=1 Spearmanov korelacijski koeficient je primerljiv s Pearsonovim in ga tudi enako kvalitativno opredeljujemo. Če sta obe spremenljivki dihotomni, se Spearmanov in Pearsonov koeficient ujemata. Nasploh ima Spearmanov korelacijski koeficient podobne lastnosti kot Pearsonov: • Definiran je, če nobena od spremenljivk ni konstantna. • Velja −1 ≤ ρ ≤ 1. • Če sta X in Y neodvisni in je dovolj podatkov, je ρ blizu 0 (kasneje pri inferenčni statistiki se bomo naučili, kako postaviti mejo). • Spearmanov korelacijski koeficient je maksimalen (enak 1), če je katera koli od spremenljivk strogo naraščajoča (a ne nujno linearna) funkcija druge. 49 M. RAIČ: STATISTIKA • Spearmanov korelacijski koeficient je minimalen (enak −1), če je katera koli od spremenljivk strogo padajoča (a ne nujno linearna) funkcija druge. Spearmanov korelacijski koeficient torej meri stopnjo monotone povezanosti. Tudi Kendallov korelacijski koeficient (τ ) je primerljiv s Spearmanovim. Primer : želimo izmeriti povezavo med zadovoljstvom s telesno težo in subjektivnim vplivom medijev. Za ta namen izvedemo anketo z dvema vprašanjema, pri katerih imamo naslednje izbire: 1. Ali ste zadovoljni s svojo težo? (a) Da. (b) Srednje. (c) Ne. 2. V kolikšni meri mediji vplivajo na vašo samopodobo? (a) Sploh ne vplivajo. (b) Srednje vplivajo, z njimi se primerjam. (c) Močno vplivajo, sam(a) sebi se zdim grd(a). Obe spremenljivki (zadovoljstvo s telesno težo in vpliv medijev) sta tako urejenostni. Rezultati ankete so predstavljeni v naslednji kontingenčni tabeli: Zad. s težo\Vpliv medijev da srednje ne Skupaj ga ni 8 2 2 12 srednji 1 1 4 6 močan 0 0 2 2 Skupaj 9 3 8 20 ¯ = 10.5. Povprečni rang: R Rangi posameznih odgovorov in njihovi odmiki od povprečnega: ai R(x) (ai ) da 5 srednje 11 . ne 16 5 ¯ R(x) (ai ) − R . -5 5 . 05 6 Standardna odklona rangov: r σR(x) σR(y) bj da srednje ne R(y) (bj ) . 65 . 15 5 . 19 5 ¯ R(y) (bj ) − R -4 5 9 1 . 2 . 2 . 2 = 9 · (−5 5) + 3 · 0 5 + 8 · 6 = 5 296 , 20 r 1 . 12 · (−4)2 + 6 · 52 + 2 · 92 = 5 020 . = 20 50 M. RAIČ: STATISTIKA Kovarianca rangov: K R(x) ,R(y) 1 . . . = 8 · (−5 5) · (−4) + 1 · (−5 5) · 5 + 0 · (−5 5) · 9 + 20 . . . + 2 · 0 5 · (−4) + 1 · 0 5 · 5 + 0 · 0 5 · 9 + + 2 · 6 · (−4) + 4 · 6 · 5 + 2 · 6 · 9 = . = 16 35 . Spearmanov korelacijski koeficient: . 16 35 . . . = 0 615 . ρ= . . 5 296 · 5 020 Gre torej za zmerno povezanost. 1.3.6 Povezanost urejenostne in dihotomne spremenljivke Povezanost urejenostne in dihotomne spremenljivke se da meriti s Spearmanovim korelacijskim koeficientom (izbrani vrstni red vrednosti dihotomne spremenljivke vpliva le na predznak). Vendar pa je navadno boljša mera povezanosti Herrnstein–Vargha–Delaneyjev koeficient. Za izračun tega koeficienta potrebujemo ranžirno vrsto vseh vrednosti prve (urejenostne) spremenljivke. Označimo z R(a) vezani rang vrednosti a glede na to ranžirno vrsto. Nato podatke razdelimo glede na vrednosti druge (dihotomne spremenljivke), nastaneta dve skupini. Če so: x1 , x2 , . . . xm vrednosti prve spremenljivke v prvi skupini, y1 , y2 , . . . yn pa vrednosti prve spremenljivke v drugi skupini, je Herrnstein–Vargha–Delaneyjev koeficient definiran s predpisom: R(x1 ) + R(x2 ) + · · · + R(xm ) − m(m+1) 2 = mn R(y1 ) + R(y2 ) + · · · + R(yn ) − n(n+1) 2 . =1− mn A := (navadno računamo po tisti različici, kjer je treba sešteti manj rangov). Lastnosti Herrnstein–Vargha–Delaneyjevega korelacijskega koeficienta: • Definiran je vedno. • Velja 0 ≤ A ≤ 1. M. RAIČ: STATISTIKA 51 • Če sta vrednost urejenostne spremenljivke in skupina neodvisni ter je dovolj podatkov, je A blizu 1/2 (kasneje pri inferenčni statistiki se bomo naučili, kako postaviti mejo). • Koeficient A je minimalen (enak 0), če so vse vrednosti iz prve skupine (x1 , . . . xm ) strogo manjše od vseh vrednosti iz druge skupine (y1 , . . . yn ). • Koeficient A je maksimalen (enak 1), če so vse vrednosti iz prve skupine (x1 , . . . xm ) strogo večje od vseh vrednosti iz druge skupine (y1 , . . . yn ). Herrnstein–Vargha–Delaneyjev koeficient A ni neposredno primerljiv s Spearmanovim koeficientom ρ (t. j. Spearmanovim koeficientom urejenostne spremenljivke in skupine, če prvo skupino postavimo na prvo, drugo pa na drugo mesto), pač pa je ρ v grobem primerljiv z 2A − 1, A pa je v grobem primerljiv z (ρ + 1)/2. Zato je smiselno naslednje kvalitativno opredeljevanje: . • od 0 do 0 05: vrednosti iz prve skupine so skoraj vse manjše od vrednosti iz druge skupine; . . • od 0 05 do 0 15: vrednosti iz prve skupine so precej manjše od vrednosti iz druge skupine; . . • od 0 15 do 0 3: vrednosti iz prve skupine so zmerno manjše od vrednosti iz druge skupine; . . • od 0 3 do 0 4: vrednosti iz prve skupine so malo manjše od vrednosti iz druge skupine; . . • od 0 4 do 0 5: vrednosti iz prve skupine so neznatno manjše od vrednosti iz druge skupine; . . • od 0 5 do 0 6: vrednosti iz prve skupine so neznatno večje od vrednosti iz druge skupine; . . • od 0 6 do 0 7: vrednosti iz prve skupine so malo večje od vrednosti iz druge skupine; . . • od 0 7 do 0 85: vrednosti iz prve skupine so zmerno večje od vrednosti iz druge skupine; . . • od 0 85 do 0 95: vrednosti iz prve skupine so precej večje od vrednosti iz druge skupine; . • od 0 95 do 1: vrednosti iz prve skupine so skoraj vse večje od vrednosti iz druge skupine. Koeficienta A in ρ ne nudita iste informacije: • Koeficient A opisuje, v kolikšni meri skupina določa nabor surovih rangov znotraj nje: skrajni vrednosti pomenita, da so vrednosti v eni skupini vse na eni strani, v drugi skupini pa vse na drugi strani ranžirne vrste, medtem ko so vrednosti znotraj posamezne skupine lahko različne. • Koeficient ρ pa opisuje, v kolikšni meri skupina določa vezane range znotraj nje: skrajni vrednosti pomenita, da so vse vrednosti znotraj posamezne skupine enake (vendar v obeh skupinah različne, sicer ni definiran). 52 M. RAIČ: STATISTIKA Primer : gledamo povezavo med končnim uspehom v 4. letniku srednje šole in spolom. Rezultati so naslednji: uspeh\spol nezadosten zadosten dober prav dober odličen Skupaj moški ženski 0 0 2 1 4 2 4 4 2 1 12 8 Skupaj Kumulativno Vezani rang 0 0 – 3 3 2 . 6 9 65 . 8 17 13 5 3 20 19 20 . Povprečni rang: 10 5. Če A vzamemo v korist moških, dobimo: . . 2 · 2 + 4 · 6 5 + 4 · 13 5 + 2 · 19 − 12·13 2 = 12 · 8 . . 1 · 2 + 2 · 6 5 + 4 · 13 5 + 1 · 19 − 8·9 2 =1− = 12 · 8 . . = 0 458 . A= Moški so bili torej neznatno slabši od žensk. 1.3.7 Povezanost urejenostne in imenske spremenljivke Povezanost urejenostne in imenske spremenljivke merimo s Kruskal–Wallisovim deležem pojasnjene variance. V skladu s splošno filozofijo obravnave urejenostnih spremenljivk je to delež pojasnjene variance za vezane range. Gre torej za vrsto analize variance. Če torej imenska spremenljivka S zavzame vrednosti a1 , a2 , . . . ak , lahko range urejenostne spremenljivke indeksiramo takole: R11 , R12 , . . . R1n1 : rangi na enotah, kjer je S = a1 R21 , R22 , . . . R2n2 : rangi na enotah, kjer je S = a2 .. . Rk1 , Rk2 , . . . Rkn2 : rangi na enotah, kjer je S = ak Seveda velja n1 + n2 + · · · + nk = n. ¯ = n + 1 , celostna varianca pa je enaka: Spet je povprečni rang vedno enak R 2 k n i 1 XX ¯ 2 σ = (Rij − R) n i=1 j=1 2 53 M. RAIČ: STATISTIKA in če ni vezi, je σ 2 = posameznih skupinah: n2 − 1 ¯1, R ¯2, . . . R ¯ k označimo povprečne range na . Če zdaj z R 12 ¯ i = Ri1 + Ri2 + · · · + Rini , R ni je pojasnjena varianca rangov enaka: σB2 = n1 ¯ ¯ 2 + n2 ( R ¯ 2 − R) ¯ 2 + · · · + nk ( R ¯ k − R) ¯ 2. (R1 − R) n n n Kruskal–Wallisov delež pojasnjene variance (moč učinka) pa je enak: 2 ηKW σB2 = 2, σ Primer : želimo izmeriti povezavo med počutjem in barvo zgornjega dela oblačila. Za ta namen vzamemo 20 anketirancev in: • Jih povprašamo, kako se počutijo, pri čemer jim damo na voljo 5-stopenjsko lestvico. To je urejenostna spremenljivka. • Si ogledamo barvo njihovega zgornjega oblačila. Barve razdelimo v štiri kategorije: temne (črna, rjava, siva, temno modra, vijoličasta), bela, svetle (rumena, rdeča, roza, oranžna, zelena, svetlo modra), pisane. To je imenska spremenljivka. Rezultati ankete: počutje\barva zelo slabo slabo nevtralno kar dobro odlično Skupaj Povprečje temna 0 2 4 4 1 11 . 11 27 bela 0 0 1 1 0 2 . 12 5 svetla 0 1 1 0 0 2 . 5 25 Celostni povprečni rang: pisana 0 0 4 1 0 5 . 10 1 Skupaj Kum. Rang 0 0 – 3 3 2 . 10 13 85 . 6 19 16 5 1 20 20 20 20 + 1 . = 10 5. 2 Povprečni rangi po skupinah v zadnji vrstici tabele so dobljeni na naslednji način: h i . . ¯ 1 = 1 2 · 2 + 4 · 8.5 + 4 · 16.5 + 1 · 20 = R 11 27 , 11 h i . . ¯ 2 = 1 1 · 8.5 + 1 · 16.5 = R 12 5 , 2 h i . . ¯ 3 = 1 1 · 2 + 1 · 8. 5 = 5 25 , R 2 h i . . ¯ 4 = 1 4 · 8.5 + 1 · 16.5 = R 10 1 . 5 54 M. RAIČ: STATISTIKA Celostna varianca: i 1h . 2 . . 2 . . 2 . 2 . 2 3 · (2 − 10 5) + 10 · (8 5 − 10 5) + 6 · (16 5 − 10 5) + 1 · (20 − 10 5) = 28 15 . σ = 20 Varianca znotraj skupin (pojasnjena varianca): h i . . . 1 . . . . . . . . 11·(11 27−10 5)2 +2·(12 5−10 5)2 +2·(5 25−10 5)2 +5·(10 1−10 5)2 = 3 525 . σB2 = 20 Kruskal–Wallisov delež pojasnjene variance: . . 3 525 . . 2 ηKW = . = 0 125 . 28 15 Gre torej za nizko povezanost. 2. Teorija verjetnosti 2.1 2.1.1 Verjetnostni prostori Osnovni pojmi verjetnosti Pojem verjetnost (angl. probability) v praksi navadno interpretiramo kot predvideni (ocenjeni, pričakovani) delež poskusov, pri katerih se zgodi določen dogodek. Primer : stavek: ‘Verjetnost, da boste pri statistiki dobili oceno 10, je 9%’ si navadno razlagamo kot: ‘Ocenjujemo, da bo 9% takih, kot ste vi, pri statistiki dobilo oceno 10.’ Take ocene dostikrat temeljijo na podatkih iz preteklosti, včasih pa tudi na simetriji ali fizikalnih dejstvih. Primer : če je kovanec simetričen, domnevamo, da je pošten, kar pomeni, da cifra in grb padeta z enako verjetnostjo, t. j. 1/2. Niso pa vsi kovanci vedno pošteni, še zlasti ne, če kovanec zavrtimo in čakamo, da se prevrne. Bolje je, če kovanec vržemo v zrak, tako da se velikokrat zavrti. Zapišimo zdaj to malo splošneje. Poskus je realizacija natančno določenih pogojev, pri katerih opazujemo enega ali več dogodkov. Po realizaciji poskusa mora biti za vsak dogodek jasno, ali se je zgodil ali ne. To ponazorimo z diagramom: dogodek poskus 55 56 M. RAIČ: STATISTIKA pri čemer pikčasta puščica pomeni, da je to, na kar kaže, znano šele po realizaciji poskusa. Pri prejšnjih dveh primerih je bil poskus opravljen izpit (v tiste, ki odnehajo, se tu ne bomo spuščali) in met kovanca. Pri kovancu je smiselno obravnavati dogodka ‘pade grb’ in ‘pade cifra’, pri izpitu pa je dogodkov, ki jih je smiselno obravnavati, več, npr. ‘dobimo 10’, ‘dobimo 6’, ‘dobimo več kot 7’ itd. Ali se je dani dogodek zgodil ali ne, izvemo šele po realizaciji poskusa. Navadno pa želimo kaj izračunati, še preden izvedemo poskuse. Zato je smiselno vzpostaviti pojem, na podlagi katerega lahko a priori (že pred izvedbo poskusa) opredelimo, ali se je posamezen dogodek zgodil ali ne. To vlogo igra pojem izida: če poznamo izid, moramo za vsak dogodek vedeti, ali se je zgodil ali ne. Po realizaciji poskusa pa moramo vedeti tudi, kateri izid se je zgodil (kako se je izšel poskus). To prikažemo z diagramom: poskus dogodek izid pri čemer pikčasta puščica spet pomeni, da je to, na kar kaže, znano šele po realizaciji poskusa, neprekinjena puščica pa, da je znano a priori, že vnaprej. Teorija verjetnosti se gradi od izidov naprej: vsi možni izidi sestavljajo množico, dogodki pa so njene podmnožice. Množico izidov bomo označevali z Ω. Primer : pri metu kovanca je množica izidov Ω = {c, g}, možni dogodki pa so štirje: ∅ = {}, {c}, {g} in {c, g} = Ω. Prvi dogodek je nemogoč, drugi pa gotov. Primer : pri metu standardne kocke je smiselno postaviti: Ω={ b , b b , b b b , b b b b , b , b b b b b }. b b b b b Možnih dogodkov je 26 = 64 (za vsak izid imamo dve možnosti – ali je v izbranem dogodku ali pa ga ni notri). Oglejmo si naslednjih šest: A = {pade B = {pade C = {pade D = {pade E = {pade D = {pade natanko šest pik } = { } , najmanj pet pik} = { , } , liho število pik} = { , , } , manj kot šest pik} = { , , , , } , največ šest pik} = { , , , , , } = Ω več kot šest pik} = {} = ∅ . b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b (2.1.1) b b b b b b b b b Dogodek F je nemogoč, dogodek E pa je gotov. Pripomnimo naj, da za dogodke ne moremo vedno proglasiti vseh podmnožic prostora izidov, temveč le določeno družino podmnožic, ki mora imeti posebne lastnosti. Več o tem v nadaljevanju. V teoriji je verjetnost preslikava, ki vsakemu dogodku A priredi število P(A) iz intervala [0, 1], njegovo verjetnost. Omenili smo, da verjetnost navadno interpretiramo kot 57 M. RAIČ: STATISTIKA oceno za delež poskusov. V teoriji zahtevamo, da ima verjetnost določene lastnosti, ki jih ima tudi delež. To so tako imenovani aksiomi Kolmogorova, ki jih bomo predstavili v nadaljevanju. Primer : pri poštenem kovancu so verjetnosti vseh možnih dogodkov enake: P(∅) = 0 , 1 , 2 P({c}) = P({g}) = 1 , 2 P({c, g}) = 1 . Primer verjetnosti pri nepoštenem (pristranskem) kovancu: P(∅) = 0 , 2.1.2 . P({c}) = 0 7 , . P({g}) = 0 3 , P({c, g}) = 1 . Diskretna verjetnost Omenili smo že, da je v teoriji verjetnost nekaj, kar se obnaša podobno kot delež. No, če verjetnost izida (dogodka) kar definiramo kot delež poskusov, ki se izidejo na predpisani način (pri katerih se zgodi dani dogodek), velja: • Verjetnost vsakega izida je število iz intervala [0, 1]. • Verjetnost vsakega dogodka je vsota verjetnosti izidov, ki jih dani dogodek zajema. • Vsota verjetnosti vseh izidov je enaka 1. Če torej v tem primeru poznamo verjetnosti posameznih izidov, poznamo tudi verjetnosti dogodkov. To nam da navdih za naslednjo splošnejšo, bolj teoretično definicijo verjetnosti. Verjetnostna funkcija (angl. probability mass function, pmf ) na danem prostoru izidov Ω je predpis, ki vsakemu izidu ω ∈ Ω priredi število iz intervala [0, 1], ki ga bomo navadno označevali s p(ω) in mu rekli verjetnost izida. Vsota verjetnosti vseh izidov mora biti 1: X p(ω) = 1 . ω∈Ω Če je Ω = {ω1 , ω2 , . . . ωn }, kjer so vsi izidi ω1 , . . . ωn različni, zgornji zapis pomeni: p(ω1 ) + p(ω2 ) + · · · + p(ωn ) = 1 . Primer : pri poštenem kovancu je p(c) = p(g) = 21 , pri prejšnjem primeru pristranskega . . kovanca pa je p(c) = 0 7 in p(g) = 0 3. Verjetnostno funkcijo lahko zapišemo z verjetnostno shemo, ki je zapis oblike: ω1 ω2 · · · ωn , p1 p2 · · · pn 58 M. RAIČ: STATISTIKA kjer so ω1 , ω2 , . . . ωn vsi možni izidi, t. j. Ω = {ω1 , ω2 , . . . ωn }. Verjetnostna shema je v kanonični obliki, če so vse vrednosti ω1 , ω2 , . . . ωn različne. Tako zapisana verjetnostna shema definira verjetnostno funkcijo po predpisu: p(ω1 ) = p1 , p(ω2 ) = p2 , . . . p(ωn ) = pn . Verjetnostna shema poštenega kovanca: c g . 1/2 1/2 Primer verjetnostne sheme pristranskega kovanca: c g . . . 07 03 c g c g c g niso verjetnostne sheme: pri prvi je in Primer : . . . . . . , 1 2 −0 2 08 03 05 03 vsota verjetnosti manjša od 1, pri drugi večja od 1, pri tretji pa je sicer enaka 1, a verjetnosti niso iz intervala [0, 1]. Včasih ima smisel, da se vrednosti v verjetnostni shemi ponavljajo. V tem primeru vrednost verjetnostne funkcije dobimo s seštevanjem: X p(ω) = pi . i;ωi =ω in tako lahko vsako verjetnostno shemo zapišemo v kanonični obliki. Primer : verjetnostna shema: a b a c b . . . . . 01 02 03 01 03 je ekvivalentna verjetnostni shemi v kanonični a b . . 04 05 obliki: c . . 01 Diskretni verjetnostni prostor je množica izidov Ω skupaj z verjetnostno funkcijo. Verjetnost dogodka A z verjetnostno funkcijo definiramo kot: X P(A) := p(ω) . ω∈A Za enostavne dogodke (t. j. tiste, ki vsebujejo en sam izid) velja: P({ω}) = p(ω) . Če je verjetnostna funkcija podana z verjetnostno shemo (v kanonični ali nekanonični obliki), velja: X P(A) = pi . i;ωi ∈A 59 M. RAIČ: STATISTIKA Torej za vsako verjetnostno shemo velja p1 + p2 + · · · + pn = 1. Velja tudi, da vsaka shema zgornje oblike, v kateri je 0 ≤ pi ≤ 1 za vse i in še p1 + p2 + · · · + pn = 1, predstavlja verjetnostno shemo neke verjetnostne funkcije. Primer : poštena kocka ima verjetnostno shemo: b b b b b b b b b b b b b b b b b b b b b 1/6 1/6 1/6 1/6 1/6 1/6 . in verjetnosti dogodkov iz (2.1.1) so enake: P(A) = 1 , 6 P(B) = 2 1 = , 6 3 3 1 = , 6 2 P(C) = 5 , 6 P(D) = P(E) = 1 , P(F ) = 0 . Pri pošteni kocki so vsi izidi enako verjetni. V splošnem, če verjetnostni prostor vsebuje n enako verjetnih izidov, je p(ω) = 1/n za vse ω. Verjetnosti dogodkov se potem izražajo kot razmerja: ♯(A) ♯(A) P(A) = = . n ♯(Ω) Pri pošteni kocki lahko rečemo tudi, da je število pik izbrano na slepo iz množice {1, 2, 3, 4, 5, 6}. Splošno, slepa izbira (angl. by chance, uniformly at random) pomeni, da so vse možnosti, ki jih lahko izberemo, enako verjetne. Pri slepi izbiri je torej verjetnost dogodka kar delež izidov, ki so zajeti v tem dogodku. To spomninja na motivacijo za verjetnost iz podrazdelka 2.1.1, kjer je verjetnost ocena za delež poskusov, pri katerih se zgodi dani dogodek. No, če verjetnost dejansko definiramo kar kot delež poskusov, to pomeni, da smo privzeli, da je poskus izbran na slepo. Seveda pa ni nujno, da so vsi izidi enako verjetni. Primer : pri nepošteni kocki z verjetnostno shemo: . . . . . . 0 05 0 15 0 15 0 15 0 15 0 35 b b b b b b b b b b b b b b b b b b b b b (2.1.2) so verjetnosti prej omenjenih dogodkov enake: . . P(A) = p( ) = 0 35 , P(B) = p( ) + p( ) = 0 5 , . P(C) = p( ) + p( ) + p( ) = 0 35 , . P(D) = p( ) + p( ) + p( ) + p( ) + p( ) = 0 65 , P(E) = 1 , P(F ) = 0 . b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b b Posvetimo se zdaj še malo slepi izbiri. Pomembna primera sta slepo vlečenje z vračanjem in brez vračanja. Slepo vlečenje r elementov z vračanjem iz dane množice pomeni, da so vse urejene r-terice (a1 , a2 , . . . ar ) izvlečenih elementov enako verjetne (ločimo torej različne vrstne rede vlečenja). Slepo vlečenje brez vračanja pa pomeni, da so enako verjetne vse tiste r-terice, ki imajo vse elemente različne. 60 M. RAIČ: STATISTIKA Primer : Iz množice kart {as, kralj, dama, fant} na slepo izvlečemo dve karti. Kolikšna je verjetnost, da bo med njima vsaj ena dama? Odgovor je odvisen od tega, ali vlečemo z vračanjem ali brez. Če vlečemo z vračanjem, verjetnostni prostor sestavlja naslednjih 16 enako verjetnih izidov: AA AK AQ AJ KA KK KQ KJ QA QK QQ QJ JA JK JQ JJ kjer prva črka pomeni prvo, druga pa drugi izvlečeno karto, in kjer se držimo standardnih kratic A za asa, K za kralja, Q za damo in J za fanta. Vsaj eno damo izvlečemo pri . natanko pri natanko 7 izidih. Verjetnost tega dogodka je torej 7/16 = 0 4375. Če pa vlečemo brez vračanja, verjetnostni prostor sestavlja le naslednjih 12 enako verjetnih izidov: AK AQ KA KQ QA QK JA JK JQ AJ KJ QJ in vsaj eno damo izvlečemo pri natanko 6 izidih (in v tem primeru je to isto kot reči, da . izvlečemo natanko eno damo). Verjetnost tega dogodka je zdaj torej 6/12 = 1/2 = 0 5. Slepo vlečenje je pomembno v statistiki, kjer mu pravimo enostavno slučajno vzorčenje s ponavljanjem ali brez, naboru izvlečenih elementov pa vzorec. Na statistični množici velikosti n obstaja nr možnih vzorcev s ponavljanjem in: n(n − 1)(n − 2) · · · (n − r + 1) vzorcev brez ponavljanja. Pri statističnem sklepanju vrstni red vlečenja navadno ni pomemben (podobno kot tudi ni bil pomemben pri dogodku, da je vsaj ena izvlečena karta dama). Če pri vzorčenju brez ponavljanja zanemarimo vrstni red, se ohrani, da so vsi vzorci enako verjetni (kar pa ni res pri vzorčenju s ponavljanjem). Vzorcev brez ponavljanja brez informacije o vrstnem redu pa je: n(n − 1)(n − 2) · · · (n − r + 1) n = . r! r Izrazu na desni pravimo binomski simbol. Le-ta v verjetnosti igra zelo pomembno vlogo. 10 · 9 · 8 10 = 120. Primer izračuna binomskega koeficienta: = 1·2·3 3 10 Velja pa tudi = 120. 7 61 M. RAIČ: STATISTIKA n n Nasploh velja = . Čisto vseeno je namreč, ali povemo, katerih r elemenr n−r tov smo vzeli v vzorec ali pa katerih n − r nismo vzeli. 2.1.3 Relacije in operacije na dogodkih • Pravimo, da je A način dogodka B, če vsi izidi, ki so v dogodku A, pripadajo tudi dogodku B. Pišemo A ⊆ B ali tudi B ⊇ A. Posebej velja, da je vsak dogodek tudi način samega sebe: A ⊆ A. • Unija (tudi vsota) dogodkov A in B je dogodek, ki ga sestavljajo tisti izidi, ki so v A ali v B. Unijo označujemo z A ∪ B, v starejši literaturi tudi z A + B. • Presek (tudi produkt) dogodkov A in B je dogodek, ki ga sestavljajo tisti izidi, ki so v A in hkrati v B. Presek označujemo z A ∩ B, v starejši literaturi tudi z AB. • Razlika dogodkov A in B je dogodek, ki ga sestavljajo tisti izidi, ki so v A, ne pa tudi v B. Razliko bomo označevali z A \ B, možna pa je tudi oznaka A − B. • Dogodka A in B sta nezdružljiva, če je A ∩ B = ∅. • Dogodka A in B sta si nasprotna, če sta nezdružljiva in je A ∪ B = Ω. Pravimo tudi, da je dogodek A nasproten dogodku B oziroma B nasproten dogodku A. • Dogodek, ki je (v danem prostoru izidov) nasproten danemu dogodku A, je en sam ¯ možna pa je in mu pravimo tudi komplement dogodka A. Označevali ga bomo z A, c tudi oznaka A . Primer : Če spet vzamemo standardno kocko in dogodke (2.1.1), velja: • A je način dogodka B in C je način dogodka D: A ⊆ B, C ⊆ D. • B∪C ={ • B∩C ={ • B\C ={ • C \B ={ , b b b b b b b b b b b b b b b b , b b b b b , b b b b b b }. }. } = A. , b b b }. • Dogodka A in C sta nezdružljiva, prav tako dogodka A in D. ¯ A = D. ¯ • Dogodka A in D sta si nasprotna: D = A, 62 M. RAIČ: STATISTIKA Nasploh veljajo naslednje zveze: A¯ = Ω \ A A¯ = A ¯ A\B =A∩B ¯ A ∪ B = A¯ ∩ B ¯. A ∩ B = A¯ ∪ B Zadnjima dvema zvezama pravimo de Morganova zakona. Verjetnost, definirana s pomočjo verjetnostne funkcije, ima naslednje lastnosti: • Za vsak dogodek A je 0 ≤ P(A) ≤ 1. • P(∅) = 0, P(Ω) = 1. • Če je A način dogodka B, je P(A) ≤ P(B). Primer: pri dogodkih (2.1.1) na nepo. . šteni kocki (2.1.2) je A ⊆ B in P(A) = 0 35 ≤ 0 5 = P(B). ¯ = 1 − P(A). Primer: pri dogodkih (2.1.1) na nepošteni kocki (2.1.2) je P(D) = • P(A) ¯ = 0.65 = 1 − P(A). P(A) • Če sta dogodka A in B nezdružljiva, velja P(A ∪ B) = P(A) + P(B). Primer: pri . . dogodkih (2.1.1) na nepošteni kocki je P(A) = 0 35, P(C) = 0 35 in P(A ∪ C) = . 0 7 = P(A) + P(C). Nasploh pa verjetnost unije ni vsota verjetnosti. Primer : pri dogodkih (2.1.1) na nepošteni kocki (2.1.2) velja: . . . P(B) = 0 15 + 0 35 = 0 5 , . . . . P(C) = 0 05 + 0 15 + 0 15 = 0 35 , . . . . . P(B ∪ C) = 0 05 + 0 15 + 0 15 + 0 35 = 0 7 , medtem ko je P(B) + P(C) = 0.85. Ko namreč seštejemo P(B) + P(C), verjetnost izida , ki tvori presek B ∩ C, štejemo dvakrat. Če želimo dobiti P(B ∪ C), ga moramo nazaj odšteti. b b b b b Tako dobimo formulo za verjetnost unije v splošnem: P(A ∪ B) = P(A) + P(B) − P(A ∩ B) . 63 M. RAIČ: STATISTIKA 2.1.4 Aksiomi Kolmogorova Včasih želimo gledati tudi verjetnost, ki se je ne da opisati z verjetnostno funkcijo ali pa bi bilo to nenaravno. V tem primeru definiramo verjetnost neposredno na dogodkih. Žal pa se izkaže, da tega ne moremo vedno storiti na vseh podmnožicah prostora izidov Ω, temveč le na določeni družini podmnožic. Pojem dogodka bomo omejili na izbrano družino, za katero bomo zahtevali, da je σ-algebra. Družina podmnožic F dane množice Ω je σ-algebra, če velja: • ∅ ∈ F. • Če je A ∈ F , je tudi A¯ ∈ F . • Za poljubno zaporedje dogodkov A1 , A2 , A3 , . . . mora biti tudi A1 ∪ A2 ∪ A3 ∪ · · · ∈ F . Slednji dogodek sestavljajo vsi izidi, ki so v vsaj enem izmed dogodkov A1 , A2 , A3 , . . .. Če je F σ-algebra, mora veljati tudi: ¯ • Ω ∈ F , saj je Ω = ∅. • Za poljubna A, B ∈ F mora biti A ∪ B ∈ F , saj je A ∪ B = A ∪ B ∪ ∅ ∪ ∅ ∪ · · · . ¯ • Za poljubna A, B ∈ F mora biti A ∩ B ∈ F , saj je A ∩ B = A¯ ∪ B. Verjetnost (ali verjetnostna mera) na σ-algebri F , ki jo sestavljajo določene podmnožice množice izidov Ω (dogodki), je predpis, ki vsakemu dogodku A priredi število, ki ga označimo s P(A) in mu pravimo verjetnost dogodka A. Pri tem mora veljati: • 0 ≤ P(A) ≤ 1 za vsak dogodek A. • P(∅) = 0, P(Ω) = 1. • Če sta dogodka A in B nezdružljiva, mora biti P(A ∪ B) = P(A) + P(B). • Za poljubno zaporedje dogodkov A1 ⊆ A2 ⊆ A3 ⊆ · · · mora veljati: P(A1 ∪ A2 ∪ A3 ∪ · · · ) = lim P(An ) . n→∞ Zgornjim pravilom pravimo aksiomi Kolmogorova. Prvim trem pravilom bomo rekli osnovni aksiomi verjetnosti. Množico izidov skupaj z verjetnostno mero imenujemo verjetnostni prostor. Vsaka verjetnost, definirana s pomočjo verjetnostne funkcije, izpolnjuje aksiome Kolmogorova, pri čemer so lahko dogodki kar vse podmnožice prostora izidov Ω. Diskretni verjetnostni prostori so torej poseben primer verjetnostnih prostorov, definiranih z aksiomi Kolmogorova. Zato je na mestu naslednja definicija. 64 M. RAIČ: STATISTIKA Verjetnostna mera je diskretna, če izvira iz verjetnostne funkcije. Natančneje, to je tedaj, ko so dogodki kar vse podmnožice prostora izidov Ω in ko obstaja taka funkcija p : Ω → [0, 1], da za vsak dogodek A velja: X P(A) = p(ω) . ω∈A Verjetnostna funkcija p je natančno določena, saj velja p(ω) = P({ω}). Zato lahko ekvivalentno definiramo, da je verjetnostna mera diskretna, če so dogodki kar vse podmnožice prostora izidov Ω in če za vsak dogodek A velja: X P(A) = P({ω}) . ω∈A Diskretne verjetnostne mere so torej tiste, pri katerih je verjetnost določena že na enostavnih dogodkih. Velja tudi, da je verjetnostnaPmera P iskkretna natenko tedaj, ko je p(ω) := P({ω}) verjetnostna funkcija, t. j. ko je ω∈Ω p(ω) = 1. Verjetnost, definirana s pomočjo aksiomov Kolmogorova, ima vse lastnosti, ki smo jih nanizali za diskretne verjetnostne mere: ¯ = 1 − P(A): to velja zato, ker sta dogodka A in A¯ nezdružljiva, njuna unija • P(A) pa je gotov dogodek Ω, ki ima verjetnost 1. • Če je A ⊆ B, je P(A) ≤ P(B): to velja zato, ker je v tem primeru B = A∪(B \A) in kar sta dogodka A in B\A nezdružljiva, mora veljati P(B) = P(A)+P(B\A) ≥ P(A). • P(A ∪ B) = P(A) + P(B) − P(A ∩ B): to velja zato, ker je A ∪ B unija nezdružljivih dogodkov A in B \ A, B pa je unija nezdružljivih dogodkov B \ A in A ∩ B. Sledi: P(A ∩ B) = P(A) + P(B \ A) P(B) = P(B \ A) + P(A ∩ B) Če enačbi odštejemo in uredimo, dobimo prej omenjeno zvezo. • Če so A1 , A2 , . . . An paroma nezdružljivi (t. j. poljubna dva z različnima indeksoma sta nezdružljiva), velja: P(A1 ∪ A2 ∪ · · · ∪ An ) = P(A1 ) + P(A2 ) + · · · + P(An ) . Trditev velja tudi za neskončno zaporedje paroma nezdružljivih dogodkov: P(A1 ∪ A2 ∪ · · · ) = P(A1 ) + P(A2 ) + · · · , kjer je vrednost izraza na desni, ki mu pravimo vrsta, definirana kot limita delnih vsot. Zgornja formula je (ob privzetju ostalih) ekvivalentna zadnjima dvema aksiomoma Kolmogorova. M. RAIČ: STATISTIKA 65 Iz zadnje lastnosti sledi, da je vsaka verjetnostna mera na končnem ali števno neskončnem verjetnostnem prostoru diskretna. Primer nediskretne verjetnostne mere. Avtobus vozi na 10 minut. Pridemo na slepo na postajo. Kolikšna je verjetnost, da bomo čakali več kot 7 minut? Za prostor izidov tu postavimo interval (0, 10]. Posamezen izid naj recimo predstavlja čas, ki je minil od odhoda zadnjega avtobusa, na katerega nismo mogli priti (izid 10 pomeni, da je ob istem času kot mi prišel avtobus in nas je voznik ravno še spustil noter). Dogodek, da čakamo več kot 7 minut, ustreza intervalu (0, 3]. Torej je verjetnost tega dogodka enaka 30%. Kako smo dobili zadnji rezultat? Tako, da smo dolžino intervala (0, 3] delili z dolžino celotnega intervala (0, 10]. Če je torej dogodek I ⊆ (0, 10] interval, je njegova verjetnost enaka: dolžina(I) P(I) = . 10 Interval je lahko odprt, zaprt ali polodprt. Lahko je tudi izrojen, torej ena sama točka. To ustreza vprašanju, kolikšna je verjetnost, da bomo čakali natanko 7 minut (niti delčka sekunde več niti delčka sekunde manj). Ker je dolžina ena same točke enaka nič, je tudi verjetnost dogodka, da bomo čakali natanko 7 minut, enaka nič (takim dogodkom pravimo skoraj nemogoči ). Od tod sledi tudi, da ta verjetnostna mera ni diskretna, saj je pripadajoča funkcija p povsod enaka nič in zato ne more biti verjetnostna funkcija. Prejšnji primer je primer slepe izbire, definirane splošnejše. Za slepo izbiro iz končne množice smo že definirali, da je to takrat, ko so vse možnosti enako verjetne. Z drugimi besedami, če Ω končna množica, je izid izbran na slepo, če za vsak dogodek A velja ♯(A) . P(A) = ♯(Ω) Slepa izbira iz intervala na realni osi, ravninskega lika ali prostorskega telesa pa pomeni, da je: mera(A) P(A) = , mera(Ω) kjer je mera dolžina (za intervale na realni osi), ploščina (za ravninske like) oziroma prostornina (za prostorska telesa). Primer : na slepo izberemo točko iz trikotnika v ravnini z vodoravno osnovnico: in zanima nas verjetnost, da je izbrana točka na več kot polovici višine trikotnika. Dogodek A je prikazan kot osenčeno območje: 66 M. RAIČ: STATISTIKA Dogodek A je trikotnik s polovično osnovnico in polovično višino trikotnika, ki ponazarja cel verjetnostni prostor Ω, torej je njegova ploščina četrtina ploščine trikotnika Ω. Sledi P(A) = 1/4. 2.2 2.2.1 Pogojna verjetnost Definicija pogojne verjetnosti Pogojna verjetnost dogodka A glede na dogodek B, P(A | B), je verjetnost, če vemo, da se je zgodil B. Privzemimo za hip, da je verjetnost dogodka definirana kar kot delež poskusov, pri katerih se zgodi dani dogodek, torej: t. j. P(A) = število poskusov, pri katerih se zgodi A , število vseh poskusov je smiselno definirati: P(A | B) = število poskusov, pri katerih se zgodi A, med tistimi, pri katerih se zgodi B število poskusov, pri katerih se zgodi B Velja: število poskusov, pri katerih se zgodita A in B = število poskusov, pri katerih se zgodi B število poskusov, pri katerih se zgodita A in B število vseh poskusov = število poskusov, pri katerih se zgodi B število vseh poskusov P(A ∩ B) = . P(B) P(A | B) = = Slednje vzamemo za definicijo pogojne verjetnosti v splošnem, ko verjetnost ni nujno delež poskusov: P(A ∩ B) P(A | B) := . P(B) Omenili smo že, da definicija verjetnosti z deležem poskusov pomeni slepo izbiro poskusa. No, če gre za slepo izbiro, t. j. če so vsi izidi enako verjetni, to pomeni: P(A | B) = ♯(A ∩ B) . ♯(B) 67 M. RAIČ: STATISTIKA Primer : Vzemimo pošteno kocko in dogodka iz (2.1.1): B = {pade najmanj pet pik} = { , } , D = {pade manj kot šest pik} = { , , b b b b b b b b b b b b b b b b b , b b b b , . Tedaj velja P(B | D) = 1/5 = 0 2. b b b b b }, Če pa kocka ni poštena, temveč sledi porazdelitveni shemi (2.1.2): , . . . . . . 0 05 0 15 0 15 0 15 0 15 0 35 b b b b b b b b b b b b b b b b b b b b b . . 0 15 0 15 . . velja P(B | D) = . = . . . . . = 0 231. 0 05 + 0 15 + 0 15 + 0 15 + 0 15 0 65 Pri neodvisnih dogodkih se pogojna verjetnost ujema z brezpogojno: če sta A in B neodvisna, velja: P(A) P(B) P(A ∩ B) = = P(A) . P(A | B) = P(B) P(B) 2.2.2 Relejni poskusi Dostikrat poznamo določene pogojne verjetnosti, želeli pa bi izračunati brezpogojno verjetnost. To se dogaja pri relejnih poskusih, ki potekajo v več fazah. Recimo, da se v prvi fazi lahko zgodi dogodek A, v drugi pa dogodek B. Tedaj navadno po naravi stvari poznamo P(A) in P(B | A), brezpogojno verjetnost P(A ∩ B) pa izračunamo po formuli: P(A ∩ B) = P(A) P(B | A) . Primer : Žena pošlje moža na trg po glavo solate, ki jo prodajata dve branjevki, Francka in Micka. Verjetnost, da mož kupi solato pri Francki, je 40%, da kupi pri Micki, pa 60%. Francka ima 10%, Micka pa 20% nagnitih glav solate. Privzamemo, da Francka in Micka izbirata solato na slepo. Tukaj gre za dvofazni relejni poskus: v prvi fazi mož izbira branjevko, v drugi pa branjevka izbira solato. Žena si zastavlja naslednja vprašanja: 1. Najprej jo zanima verjetnost, da bo mož prinesel domov nagnito glavo solate. 2. Nato gre z mislimi še malo dlje in se vpraša po verjetnosti, da bo šel k Micki in tam kupil nagnito glavo solate. 3. Končno se mož vrne domov – z nagnito glavo solate. Sedaj se žena vpraša po pogojni verjetnosti, da je solato kupil pri Micki. 68 M. RAIČ: STATISTIKA Zaenkrat znamo dogovoriti na drugo vprašanje: če je G dogodek, da mož prinese domov nagnito gnilo solate, M pa dogodek, da kupi solato pri Micki, vemo: . P(M ) = 0 6 , . P(G | M ) = 0 2 . Odgovor na iskano vprašanje je: . . . P(M ∩ G) = P(M ) P(G | M ) = 0 6 · 0 2 = 0 12 . Za odgovor na prvo in tretje vprašanje pa potrebujemo še malo teorije. Dogodki H1 , H2 , . . . Hn tvorijo popoln sistem dogodkov ali tudi razčlenitev (angl. partition) prostora izidov, če so paroma nezdružljivi, njihova unija pa je gotov dogodek. Z drugimi besedami, vsak izid pripada natanko enemu izmed dogodkov H1 , H2 , · · · Hn . Če je H1 , H2 , . . . Hn popoln sistem dogodkov in A poljuben dogodek, so tudi dogodki H1 ∩ A, H2 ∩ A, . . . Hn ∩ A paroma nezdružljivi, njihova unija pa je dogodek A. Sledi: P(A) = P(H1 ∩ A) + P(H2 ∩ A) + · · · + P(Hn ∩ A) oziroma: P(A) = P(H1 ) P(A | H1 ) + P(H2 ) P(A | H2 ) + · · · + P(Hn ) P(A | Hn ) . Zgornji formuli pravimo izrek o polni verjetnosti (angl. law of total probability). Uporaben je pri dvofaznih relejnih poskusih. Dogodki H1 , H2 , . . . Hn predstavljajo vse možnosti za prvo fazo poskusa, zato jim pravimo tudi hipoteze, dogodek A pa se nanaša na drugo fazo poskusa. Sedaj lahko odgovorimo na prvo ženino vprašanje. Če z F označimo še dogodek, da mož kupi solato pri Francki, dogodka F in M sestavljata popoln sistem dogodkov. Velja: . P(F ) = 0 4 , . P(G | M ) = 0 1 . Po izreku o polni verjetnosti velja: . . . . . P(G) = P(F ) P(G | F ) + P(M ) P(G | M ) = 0 4 · 0 1 + 0 6 · 0 2 = 0 16 . Preostane še tretje vprašanje. Tu skušamo iz druge faze poskusa, ki je opazljiva (angl. observable) – žena opazi nagnito glavo solate, rekonstruirati prvo fazo, ki ni opazljiva – žena ne ve, pri kateri branjevki je mož kupil solato. V splošnem kontekstu nas torej zanimajo pogojne verjetnosti neopazljivih hipotez glede na opaženo drugo fazo poskusa, t. j. P(Hi | A). Po definiciji pogojne verjetnosti je: P(Hi | A) = P(Hi ∩ H) P(Hi ) P(A | Hi ) = . P(A) P(A) Če v imenovalec vstavimo izrek o polni verjetnosti, dobimo Bayesovo formulo: P(Hi | A) = P(Hi ) P(A | Hi ) . P(H1 ) P(A | H1 ) + P(H2 ) P(A | H2 ) + · · · + P(Hn ) P(A | Hn ) M. RAIČ: STATISTIKA 69 Bayesova formula torej potrebuje brezpogojne verjetnosti dogodkov Hi , ki jim pravimo tudi apriorne verjetnosti (apriorne so zato, ker se nanašajo na čas pred realizacijo druge faze poskusa), da pa nam pogojne verjetnosti, ki jim pravimo tudi aposteriorne verjetnosti (ker se nanašajo na čas po realizaciji druge faze poskusa). Odgovor na tretje vprašanje pri našem primeru je torej: . . P(M ) P(G | M ) 06·02 . P(M | G) = = . . . . = 0 75 . P(F ) P(F | M ) + P(M ) P(G | M ) 04·01+06·02 . Dogodek, da mož kupi solato pri Micki, ima torej apriorno verjetnost 0 6, njegova apo. steriorna verjetnost glede na dano opažanje pa je 0 75. Na Bayesovi formuli temelji cela veja statistike, ki ji pravimo Bayesova statistika. Ta se razlikuje od klasične inferenčne statistike po tem, da potrebuje apriorne verjetnosti za tisto, kar nas zanima. Klasična statistika ne privzema nikakršnih apriornih verjetnosti, zato pa so tudi njeni rezultati šibkejše narave. 2.3 2.3.1 Slučajne spremenljivke Osnovni pojmi Ideja slučajne spremenljivke je, da je to število ali kakšna druga vrednost, ki ni natančno določena, je pa v zvezi z njo smiselno gledati verjetnost. Pač pa postane natančno določena, ko enkrat realiziramo poskus. Z drugimi besedami, če poznamo izid poskusa, poznamo vrednosti vseh slučajnih spremenljivk. Tako je smiselno postaviti naslednjo definicijo: Slučajna spremenljivka z vrednostmi v množici M je predpis, ki vsakemu izidu priredi določeno vrednost v M , torej preslikava iz Ω v M . Slučajne spremenljivke označujemo tako kot statistične, torej navadno z velikimi tiskanimi črkami. Statistična spremenljivka postane slučajna spremenljivka, če slučajno (npr. na slepo) izberemo en element iz statistične množice. Tako kot statistične tudi slučajne spremenljivke ločimo po tipu (torej po strukturi, ki je definirana na množici M ) na imenske, urejenostne, intervalske in razmernostne, poleg tega pa imamo še dihotomne slučajne spremenljivke. Tudi veliko drugih pojmov iz opisne statistike, torej definirane za statistične spremenljivke, je možno definirati tudi za slučajne spremenljivke. Osnovno vodilo pri tem je, naj pojma sovpadata, če je slučajna spremenljivka dobljena iz statistične s slepo izbiro enote. Primer . Briškula se igra s 40 kartami, ki jih tvorijo vse možne kombinacije 4 barv (špada – meč, kopa – pokal, bašton – palica in denar) in 10 moči (2, 4, 5, 6, 7, fant – F, kaval – C, kralj – R, trojka – 3 in as – A). Moč določa, katera karta pobere, če gre za isto barvo. Poleg tega ima vsaka karta glede na moč tudi svojo vrednost in vrednosti se na koncu seštejejo. 70 M. RAIČ: STATISTIKA Komplet kart je tako statistična množica, prejšnji pojmi pa statistične spremenljivke na njej: • Barva je imenska spremenljivka (vsaj dokler ni znan adut – briškula). • Moč je urejenostna spremenljivka: 2 < 4 < 5 < 6 < 7 < F < C < R < 3 < A). • Vrednost je razmernostna spremenljivka. Enaka je 0 za liše (moči 2, 4, 5, 6, 7), 2 za fante, 3 za kavale, 4 za kralje, 10 za trojke in 11 za ase. Lahko pa s kupa slučajno izberemo eno karto (ali pa gledamo aduta spodaj). V tem primeru postane množica kart verjetnostni prostor, barva, moč in vrednost pa slučajne spremenljivke. Če barvo označimo z B, moč z M in vrednost z V ter gledamo izid–karto ω, ki naj bo špadni fant (fant pri mečih), velja: B(ω) = špada , M (ω) = fant , V (ω) = 2 . Porazdelitev slučajne spremenljivke pove, katere vrednosti zavzame s kolikšnimi verjetnosti. V splošnem porazdelitev opišemo tako, da za vse množice A iz določene σ-algebre povemo P(X ∈ A), t. j. verjetnost, da X pripada množici A. Toda če je X definirana na diskretnem verjetnostnem prostoru, je dovolj povedati točkaste verjetnosti P(X ∈ x) za vse možne vrednosti x, saj velja: X P(X ∈ A) = P(X = x) . x∈A Za slučajno spremenljivko, za katero velja zgornja formula (in torej lahko njeno porazdelitev opišemo s točkastimi verjetnostmi), pravimo, da je diskretna oz. diskretno porazdeljena. Pravimo tudi, da je njena porazdelitev diskretna. Porazdelitev diskretne slučajne spremenljivke lahko opišemo s porazdelitveno shemo, ki odgovarja verjetnostni shemi. Če X lahko zavzame vrednosti a1 , a2 , . . . ak , ki so vse različne, in če je P(X = a1 ) = p1 , P(X = a2 ) = p2 , . . . P(X = ak ) = pk , pišemo: a1 a2 · · · ak X∼ . p1 p2 · · · pk Seveda velja p1 + p2 + · · · pk = 1. Če vrednosti P a1 , . . . ak niso vse različne, moramo seštevati. V vsakem primeru velja P(X ∈ A) = i;ai ∈A pi . Primer : Če na slepo izberemo karto pri briškuli, so porazdelitve njene barve, moči in 71 M. RAIČ: STATISTIKA vrednosti podane s shemami: špada bašton kopa denar špada bašton kopa denar = , B∼ 10 10 10 1 1 1 1 10 40 40 40 40 4 4 4 4 2 4 5 6 7 fant kaval kralj trojka as M∼ 1 1 1 1 1 , 1 1 1 1 1 10 10 10 10 10 10 10 10 10 10 0 2 3 4 10 11 0 0 0 0 0 2 3 4 10 11 V ∼ 1 1 1 1 1 1 1 1 1 1 = 1 1 1 1 1 1 10 10 10 10 10 10 10 10 10 10 2 10 10 10 10 10 Verjetnost dogodka, da bo vrednost karte manjša of 4, je enaka: P(V < 4) = P(V = 0) + P(V = 2) + P(V = 3) = 1 1 7 1 + + = . 2 10 10 10 Verjetnost dogodka, da bo vrednost karte strogo med 3 in 7, pa je enaka: P(3 < V < 7) = P(V = 4) = 1 . 10 Diskretna porazdelitev je enakomerna na množici {a1 , a2 , . . . ak }, če so vse vrednosti a1 , a2 , . . . ak enako verjetne, druge vrednosti pa niso zavzete. To pa lahko povemo tudi drugače: slepa izbira stvari, ki je definirana kot vrednost slučajne spremenljivke, iz dane množice pomeni, da je porazdelitev te slučajne spremenljivke enakomerna na tej množici. Pri prej omenjenih slučajnih spremenljivkah pri briškuli sta tako barva B in moč M porazdeljeni enakomerno, vrednost V pa ne. Slepa izbira karte pri briškuli torej pomeni slepo izbiro barve iz množice {špada, bašton, kopa, denar}, in slepo izbiro moči iz množice {2, 4, 5, 6, 7, fant, kaval, kralj, trojka, as}, ne pomeni pa slepe izbire vrednosti. Modus diskretne slučajne spremenljivke je tista njena vrednost, kjer je njena verjetnostna funkcija največja. Modusov je lahko tudi več. Primer : porazdelitev s shemo: 0 2 3 4 10 11 1 2 1 10 1 10 1 10 1 10 1 10 ima modus 0. Porazdelitev s shemo: 0 1 2 3 . . . . 0 125 0 375 0 375 0 125 ima dva modusa (1 in 2). Pri enakomerni porazdelitvi pa so kar vse vrednosti modusi. 2.3.2 Navzkrižne porazdelitve Podobno kot smo pri opisni statistiki gledali povezanost med dvema statističnima spremenljivkama, moramo tudi v verjetnosti dostikrat hkrati gledati dve ali več slučajnih 72 M. RAIČ: STATISTIKA spremenljivk. Če sta na istem verjetnostnem prostoru definirani dve slučajni spremenljivki X in Y , je njuna navzkrižna ali skupna porazdelitev (angl. joint distribution) opišemo z navzkrižnimi verjetnostmi P(X ∈ A, Y ∈ B), pri diskretnih slučajnih spremenljivkah pa je dovolj povedati navzkrižne točkaste verjetnosti P(X = a, Y = b). Primer : iz dobro premešanega kupa 10 kart za briškulo ene same barve na slepo vzamemo dve karti. Označimo z V1 vrednost prve, z V2 pa druge izvlečene karte. Če jemljemo z vračanjem, je možnih 100 enako verjetnih izidov in navzkrižno porazdelitev slučajnih spremenljivk V1 in V2 lahko predstavimo s tabelo: V2 = 0 V2 = 2 V2 = 3 V2 = 4 V2 = 10 V2 = 11 1 4 1 20 1 20 1 20 1 20 1 20 V1 = 0 V1 = 2 V1 = 3 V1 = 4 V1 = 10 V1 = 11 1 20 1 100 1 100 1 100 1 100 1 100 1 20 1 100 1 100 1 100 1 100 1 100 1 20 1 100 1 100 1 100 1 100 1 100 1 20 1 100 1 100 1 100 1 100 1 100 1 20 1 100 1 100 1 100 1 100 1 100 Izračunajmo še verjetnost dogodka, da je skupna vrednost obeh kart manjša od 4. Velja: P(V1 + V2 < 4) = P(V1 = 0, V2 = 0) + P(V1 = 0, V1 = 2) + P(V1 = 0, V2 = 3) + + P(V1 = 2, V2 = 0) + P(V1 = 3, V2 = 0) = 9 . . = 0 45 = 20 Če pa jemljemo brez vračanja, imamo 90 enako verjetnih izidov in navzkrižno porazdelitev predstavlja tabela: V2 = 0 V2 = 2 V2 = 3 V2 = 4 V2 = 10 V2 = 11 V1 = 0 V1 = 2 V1 = 3 V1 = 4 V1 = 10 V1 = 11 in velja P(V1 + V2 < 4) = 2 9 1 18 1 18 1 18 1 18 1 18 1 18 0 1 90 1 90 1 90 1 90 1 18 1 90 0 1 90 1 90 1 90 1 18 1 90 1 90 0 1 90 1 90 1 18 1 90 1 90 1 90 0 1 90 1 18 1 90 1 90 1 90 1 90 0 4 . . = 0 444. 9 Če imamo podano navzkrižno porazdelitev slučajnih spremenljivk X in Y , poznamo tudi porazdelitvi posamičnih slučajnih spremenljivk. Pravimo jima robni porazdelitvi, to pa zato, ker ju v diskretnem primeru dobimo s seštevanjem navzkrižnih verjetnosti, te 73 M. RAIČ: STATISTIKA pa navadno zapišemo na rob tabele. Če lahko Y zavzame vrednosti b1 , b2 , . . . bm (vse različne), velja: P(X = ai ) = P(X = ai , Y = b1 ) + P(X = ai , Y = b2 ) + · · · + P(X = ai , Y = bn ) . Z navzkrižnimi porazdelitvami je povezana še ena različica slepe izbire. Če izbiramo dve stvari, ki sta definirani kot vrednosti dveh slučajnih spremenljivk X in Y , pri čemer lahko X zavzame vrednosti {a1 , . . . am } (vse različne), Y pa vrednosti {b1 , . . . bn } (prav tako vse različne), pravimo, da X in Y izberemo na slepo in neodvisno, če so vsi dogodki: {X = a1 , Y = b1 }, {X = a2 , Y = b1 }, .. . {X = a1 , Y = b2 }, · · · {X = a1 , Y = bn }, {X = a2 , Y = b2 }, · · · {X = a2 , Y = bn }, .. .. ... . . {X = am , Y = b1 }, {X = am , Y = b2 }, · · · {X = am , Y = bn }, 1 . mn Podobno definiramo tudi slepo in neodvisno izbiro treh ali več stvari. enako verjetni, torej če ima vsak izmed njih verjetnost Poseben primer slepe in neodvisne izbire je vlečenje s ponavljanjem: če izvlečemo dva elementa, slučajna spremenljivka X predstavlja prvi, slučajna spremenljivka Y pa drugi izvlečeni element. Tedaj imata X in Y isto zalogo vrednosti. Ni pa to nujno. Primer : neodvisno vržemo pošten kovanec in pošteno standardno kocko, kar pomeni, da na slepo in neodvisno izberemo grb oz. cifro na kovancu in eno izmed šestih strani kocke. Če X predstavlja stran kovanca, Y pa stran kocke, dobimo naslednjo navzkrižno porazdelitev: Y = X = cifra X = grb 1 12 1 12 b Y = Y = b b 1 12 1 12 1 12 1 12 b b b Y = b b b b Y = 1 12 1 12 1 12 1 12 b b b b b Y = b b b b b b 1 12 1 12 Recimo zdaj, da dobimo za cifro na kovancu dva evra in za vsako piko na kocki en evro. Dogodek, da skupaj dobimo vsaj 6 evrov, lahko tedaj zapišemo v obliki: } ∪ {X = cifra, Y = 4 1 in njegova verjetnost je enaka = . 12 3 {X = cifra, Y = b b b b b b b b b } ∪ {X = cifra, Y = b b b b b b } ∪ {X = grb, Y = b b b b b b } Primer : če na slepo izvlečemo karto iz kupa pri briškuli, to pomeni tudi, da na slepo in neodvisno izberemo njeno moč in barvo. Naj bo A dogodek, da izvlečemo figuro (kralja, kavala ali fanta) B pa dogodek, da izvlečemo denar ali kopo. Tedaj velja: 12 3 . P(A) = = =03 40 10 2 1 20 . = = =05 P(B) = 40 4 2 6 3 . P(A ∩ B) = = = 0 15 . 40 20 74 M. RAIČ: STATISTIKA Opazimo, da je P(A ∩ B) = P(A) P(B). Opažanja iz zgornjega primera lahko posplošimo na naslednji dve pomembni ugotovitvi: • Če dve ali več slučajnih spremenljivk izbiramo na slepo in neodvisno, je tudi posamezna slučajna spremenljivka izbrana na slepo (z drugimi besedami, ima enakomerno porazdelitev). • Če sta X in Y izbrani na slepo in neodvisno ter je A dogodek, ki je enolično določen z X (pišemo tudi A ∈ σ(X)), B pa je dogodek, ki je enolično določen z Y (pišemo tudi B ∈ σ(Y )), velja P(A ∩ B) = P(A) P(B). Slednje opažanje pa vodi v pojem neodvisnosti dogodkov. To je posplošitev primera, ko dogodka izhajata iz slepe in neodvisne izbire tako kot zgoraj. Dogodka A in B sta neodvisna, če velja P(A ∩ B) = P(A) P(B). Neodvisnost je navadno nekaj, iz česar izhajamo, kar privzamemo a priori. Včasih pa dobimo neodvisnost tudi kar tako. Primer : pri pošteni kocki sta naslednja dogodka iz (2.1.1): B = {pade najmanj pet pik} = { , } , C = {pade liho število pik} = { , , } , b b b neodvisna. Velja namreč B ∩ C = { P(B) = 1 , 3 b b b P(C) = b b b b b b b b b b b b b b b b b b b } in: 1 , 2 P(B ∩ C) = 1 = P(B) P(C) . 6 Neodvisnost lahko izrazimo s pomočjo pogojne verjetnosti: če je P(B) > 0, sta A in B neodvisna natanko tedaj, ko je P(A | B) = P(A). To lahko interpretiramo kot ‘A je neodvisen od B’. Pri neodvisnosti je pomembno naslednje dejstvo: če sta dogodka A in B neodvisna, ¯ To lahko tudi dokažemo: to velja tudi za dogodka A in B. ¯ = A \ B nezdružljiva z unijo A, velja • Ker sta A ∩ B in A ∩ B ¯ P(A) = P(A ∩ B) + P(A ∩ B). ¯ = P(A) − P(A ∩ B) = P(A) − P(A) P(B) = P(A) 1 − P(B) = • P(A ∩ B) ¯ = P(A) P(B). To pomeni, da je neodvisnost dogodkov A in B ekvivalentna neodvisnosti katerih koli ˜ kjer je A˜ = A ali A˜ = A¯ in B ˜ = B ali B ˜ = B. ¯ dogodkov A˜ in B, Neodvisnost dogodkov motivira neodvisnost slučajnih spremenljivk. 75 M. RAIČ: STATISTIKA Slučajni spremenljivki X in Y sta neodvisni, če sta kateri koli dogodek, ki je natančno določen z X, in kateri koli dogodek, ki je natančno določen z Y , neodvisna. Za diskretni slučajni spremenljivki X in Y se da dokazati, da sta neodvisni natanko tedaj, ko za poljubna relevantna a in b velja P(X = a, Y = b) = P(X = a) P(Y = b). Za enakomerno porazdeljene slučajne spremenljivke (slepo izbiro) pa se da dokazati naslednje: X in Y sta izbrani na slepo in neodvisno natanko tedaj, ko sta X in Y vsaka zase izbrani na slepo in ko sta neodvisni. Tako formulacija ‘na slepo in neodvisno’ dobi smisel. Primer : pri slepem vlečenju s ponavljanjem sta prvi in drugi izvlečeni element neodvisna. To pa ne velja za vlečenje brez ponavljanja. Primer : če na slepo izvlečemo karto iz kupa pri briškuli, sta tudi njena vrednost in barva neodvisni, čeprav vrednost ni porazdeljena enakomerno. 1 2 3 1 2 sta neodvisni in Y ∼ Primer : slučajni spremenljivki X ∼ . . . . . 02 05 02 04 06 natanko tedaj, ko je njuna navzkrižna porazdelitev podana s tabelo: X=1 X=2 Y =1 Y =2 Y =3 . . . 0 12 02 0 08 . . . 0 18 03 0 12 . . . 03 05 02 . 04 . 06 1 Pojem neodvisnosti lahko posplošimo tudi na več dogodkov in slučajnih spremenljivk, a pri dogodkih moramo biti nekoliko previdni. Izkaže se, da ima smisel definirati, da so dogodki A1 , A2 , . . . An neodvisni, če veljajo vse zveze oblike: P(A˜1 ∩ A˜2 ∩ · · · A˜n ) = P(A˜1 ) P(A˜2 ) · · · P(A˜n ) , kjer za vsak i lahko postavimo bodisi A˜i = Ai bodisi A˜i = A¯i . V tem primeru se namreč neodvisnost ohrani, če določene dogodke izločimo. Če so recimo A, B in C neodvisni, sta tudi A in B neodvisna. Primer : vržemo dva poštena in neodvisna kovanca in si oglejmo naslednje dogodke: A := {prvič pade cifra} B := {drugič pade cifra} C := {prvič in drugič pade enako} Za verjetnostni prostor lahko tedaj postavimo Ω = {cc, cg, gc, gg} in vsi štirje izidi so enako verjetni. Velja: A = {cc, cg} , B = {cc, gc} , C = {cc, gg} , A ∩ B = A ∩ C = B ∩ C = A ∩ B ∩ C = {cc} 76 M. RAIČ: STATISTIKA in še: P(A) = P(B) = P(C) = 1 , 2 P(A ∩ B) = P(A ∩ C) = P(B ∩ C) = P(A ∩ B ∩ C) = 1 , 4 od koder dobimo, da sta dogodka A in B neodvisna, prav tako tudi A in C ter B in C. Dogodki A, B in C pa so odvisni. Primer : na slepo izberemo en element iz množice {A, K, Q, J, 10, 9, 8, 7}, ki naj bo kar verjetnostni prostor. Definirajmo naslednje dogodke: F := {A, K, Q, J} , G := {A, 9, 8, 7} , H := {A, K, Q, 10} . Dogodki F , G in H niso neodvisni, čeprav velja P(F ∩ G ∩ H) = P(F ) P(G) P(H). Pri slučajnih spremenljivkah pa je posplošitev bolj premočrtna: slučajne spremenljivke X1 , X2 , . . . Xn so neodvisne, če za vse možne nabore dogodkov A1 , A2 , . . . An , kjer je dogodek Ai enolično določen z Xi , velja: P(A1 ∩ A2 ∩ · · · ∩ An ) = P(A1 ) P(A2 ) · · · P(An ) . Pri diskretnih slučajnih spremenljivkah pa je dovolj, da se množijo točkaste verjetnosti: P(X1 = a1 , X2 = a2 , . . . Xn = an ) = P(X1 = a1 ) P(X2 = a2 ) · · · P(Xn = an ) . 2.3.3 Bernoullijeva zaporedja poskusov Bernoullijevo zaporedje poskusov je zaporedje slučajnih poskusov, pri čemer pri vsakem gledamo, ali uspe ali ne uspe. Pri tem morajo biti poskusi neodvisni (t. j. dogodki, da posamezen poskus uspe, morajo biti neodvisni) in vsak poskus mora uspeti z enako verjetnostjo, ki jo bomo označevali s p. Primer . mečemo pošteno kocko, meti so neodvisni. Če je poskus met kocke, uspešen poskus pa je met, pri katerem pade šestica, dobimo Bernoullijevo zaporedje poskusov. Recimo, da pod temi pogoji petkrat vržemo pošteno kocko. • Verjetnost, da šestica pade v prvem metu, je 1 . . = 0 167. 6 • Verjetnost, da šestica pade v petem metu, je 1 . . = 0 167. 6 • Verjetnost, da šestica pade v prvem in petem metu, je 1 . . 1 1 · = = 0 0278. 6 6 36 77 M. RAIČ: STATISTIKA 5 • Verjetnost, da šestica pade vsaj enkrat v petih metih, ni . Verjetnosti dogodkov, 6 da v posameznem metu pade šestica, namreč ne smemo kar sešteti, ker ti dogodki niso paroma nezdružljivi. Pač pa si lahko pomagamo z nasprotnim dogodkom, ki je 5 5 . . dogodek, da šestica ne pade v nobenem metu. Njegova verjetnost je = 0 402. 6 5 5 . = Verjetnost dogodka, da šestica pade vsaj enkrat, pa je potemtakem 1 − 6 . 0 598. 4 5 1 . = • Verjetnost dogodka, da šestica pade v prvem in samo v prvem metu, je · 6 6 . 0 0804. • Verjetnost dogodka, da šestica pade natanko enkrat, je vsota verjetnosti dogodkov, da pade v posameznem metu, sicer pa ne. Te verjetnosti lahko seštevamo, 4 so ker 1 5 . dogodki paroma nezdružljivi. Torej je verjetnost danega dogodka enaka 5· · = 6 6 . 0 402. • Verjetnost dogodka, da šestica pade natanko dvakrat, je vsota verjetnosti, da pade natanko v i-tem in j-tem metu, po vseh možnih neurejenih parih {i, j}, kjer sta i in j različna, t. j.: {1, 2} , {1, 3} , {1, 4} , {1, 5} , {2, 3} , {2, 4} , {2, 5} , {3, 4} , {3, 5} , {4, 5} . Teh neurejenih parov je toliko, kot je vseh možnih izbir dveh elementov izmed 5 = 10. Za vsak par {i, j} je verjetnost, da pade šestica natanko v petih, torej 2 2 3 5 1 . . = 0 0161. Iskana verjetnost je torej enaka i-tem in j-tem metu, enaka 6 6 2 3 1 5 . . 10 · = 0 161. · 6 6 • Verjetnost dogodka, da šestica pade manj kot trikrat, je: 2 3 4 5 1 1 5 5 5 . . = 0 965 . +5· · + 10 · · 6 6 6 6 6 Primer : če kocko vržemo 10-krat in želimo izračunati verjetnost dogodka, da šestica pade natankotrikrat, moramo prešteti vse možne izbire treh metov, v katerih pade šestica. Teh 10 izbir je = 120, iskana verjetnost pa je enaka: 3 3 7 10 1 5 . . · = 0 155 . · 3 6 6 78 M. RAIČ: STATISTIKA V splošnem lahko vsakemu Bernoullijevemu zaporedju n poskusov priredimo slučajno spremenljivko S, ki pove število uspelih poskusov. Za k = 0, 1, . . . n velja: n k P(S = k) = p (1 − p)n−k , k kjer je p verjetnost, da posamezen poskus uspe. Zgornji obrazec imenujemo Bernoullijeva formula, porazdelitvi tako definirane slučajne spremenljivke S pa pravimo binomska porazdelitev. Pišemo S ∼ Bi(n, p). Ta zapis je po definiciji ekvivalenten veljavnosti zgornje formule za vse k = 0, 1, . . . n. . . . . Če je torej S ∼ Bi(5, 1/6), je npr. P(S = 2) = 0 161, P(S < 3) = 0 965, P(S = 5/2) = 0 in P(S < 6) = 1. Če pa bi 5-krat neodvisno vrgli pošten kovanec in gledali število grbov, bi imelo le-to porazdelitev Bi(5, 1/2). Nekaj histogramov: 0.3 Bi(5, 1/2) 0.06 0.2 0.04 0.1 0.02 0 0.4 1 2 3 4 5 Bi(5, 1/6) 50 0.08 0.3 0.06 0.2 0.04 0.1 0.02 0 1 2 3 4 5 Bi(180, 1/2) 100 150 200 100 150 200 Bi(180, 1/6) 50 Za velike n je verjetnosti pri binomski porazdelitvi Bi(n, p) brez sodobnih pripomočkov težko računati. Zato so že zgodaj iznašli približne obrazce. Najširše uporabni sta Laplaceovi približni formuli. Naj bo S ∼ Bi(n, p). Laplaceova lokalna formula pravi: 1 2 2 P(S = k) ≈ √ e−(k−np) /(2σ ) , σ 2π p kjer je σ = np(1 − p). Produkt np je pričakovana vrednost, σ pa je standardni odklon binomske porazdelitve. Natančnejšo definicijo bomo navedli v podrazdelku 2.3.6, v grobem pa lahko rečemo, da pri slučajni spremenljivki S lahko pričakujemo vrednosti blizu 79 M. RAIČ: STATISTIKA np, in sicer z odmiki reda velikosti σ. Slednja vrednost je tudi glavno merilo za natančnost obrazca: večji kot je σ, natančnejši je obrazec. Razumno natančnost dosežemo pri σ ≥ 5. Toda to velja za napako glede na največjo točkasto verjetnost. Če pa natančnost merimo z relativno napako, mora biti še absolutna razlika |k − np| majhna v primerjavi s σ 4/3 (razumno natančnost dosežemo pri |k − np| ≤ σ 4/3 ). Primer : 180-krat vržemo pošteno kocko, r meti so 1 180 · šestic, je S ∼ Bi(180, 1/6). Velja σ = 6 izračunov: neodvisni. Če z S označimo število 5 · = 5. Nekaj primerov približnih 6 1 . . . • P(S = 30) ≈ √ e0 = 0 07979. Točen rezultat: 0 07956. 5 2π 1 . . . • P(S = 35) ≈ √ e−1/2 = 0 04839. Točen rezultat: 0 04640. 5 2π 1 . . . • P(S = 25) ≈ √ e−1/2 = 0 04839. Točen rezultat: 0 05072. 5 2π 1 . . . • P(S = 20) ≈ √ e−2 = 0 01080. Točen rezultat: 0 01079. 5 2π 1 . . . • P(S = 15) ≈ √ e−9/2 = 0 00089. Točen rezultat: 0 00052. 5 2π Pri zadnjem primeru je absolutna napaka še vedno majhna v primerjavi z maksimalno verjetnostjo P(S = 30), relativna napaka pa je velika: velja |k − np| = 15, medtem ko je . . σ 4/3 = 8 55. Laplaceova integralska formula pa pravi: P(a < S < b) ≈ P(a ≤ S ≤ b) ≈ Φ b − np σ −Φ a − np σ , kjer je Φ Gaussov verjetnostni integral : 1 Φ(x) = √ 2π Z x e−t 2 /2 dt . 0 To je specialna funkcija: je pomembna, ne da pa se izraziti z elementarnimi funkcijami. Njene vrednosti lahko odčitavamo iz tabel. Graf: 80 M. RAIČ: STATISTIKA Φ(x) 1/2 −3 −2 −1 1 2 3 x −1/2 Na grafu so razvidne naslednje lastnosti funkcije Φ: • Φ(0) = 0; 1 • lim Φ(x) = ; x→∞ 2 1 • lim Φ(x) = − ; x→−∞ 2 • Φ(−x) = −Φ(x) (lihost). Pripomnimo naj, da definicije funkcije Φ v literaturi zelo variirajo, zato se mora bralec vselej prepričati, kako je ta funkcija v posameznem viru definirana. Tudi za natančnost Laplaceove integralske formule je merilo standardni odklon σ: večji kot je, natančnejša je. Razumno natančnost spet dosežemo pri σ ≥ 5. Pomembno pa je tudi, da večjo natančnost dosežemo, če sta a in b na polovici med dvema zaporednima celima številoma. To je skupaj s pogojem, da je vsaj ena od absolutnih razlik |a − np| in |b − np| majhna v primerjavi s σ 4/3 , tudi jamstvo za majhno relativno napako (razumno natančnost spet dosežemo pri |a − np| ≤ σ 4/3 ali |b − np| ≤ σ 4/3 ). Primer : če je spet S ∼ Bi(180, 1/6), gremo lahko računat: . . P(25 ≤ S ≤ 35) ≈ Φ(1) − Φ(−1) = 2Φ(1) = 0 6827 . Ker je {25 ≤ S ≤ 35} = {24 < S < 36}, lahko isto verjetnost približno računamo tudi kot: . . . . . P(24 ≤ S ≤ 36) ≈ Φ(1 2) − Φ(−1 2) = 2Φ(1 2) = 0 7699 . Najnatančnejša aproksimacija pa pride, če jo računamo kot: . . . . . . . P(24 5 < S < 35 5) ≈ Φ(1 1) − Φ(−1 1) = 2Φ(1 1) = 0 7287 . . Točen rezultat: 0 7292. Še en primer izračuna: 1 . . . . . P(S < 20) = P(−∞ < S < 19 5) ≈ Φ(−2 1) − Φ(−∞) = − Φ(2 1) = 0 0179 . 2 81 M. RAIČ: STATISTIKA . Točen rezultat: 0 0142. Za spodnjo mejo smo tukaj postavili −∞. To je najenostavneje, čeprav bi se bralcu morda zdela naravnejša spodnja meja 0. Toda razlika je zanemarljiva, saj bi se Φ(∞) = . . . 0 5 zamenjal s Φ(6) = 0 499999999013. Laplaceova integralska formula pove, da je binomska porazdelitev za vslike σ približno normalna. Normalna ali tudi Gaussova porazdelitev s sredino µ in standardnim odklonom σ, kjer je µ ∈ R in σ > 0, je določena z lastnostjo, da slučajna spremenljivka X, ki ima to porazdelitev, zadošča: b−µ a−µ P(a < X < b) = P(a ≤ X ≤ b) = Φ −Φ . σ σ Pišemo X ∼ N(µ, σ). Tako lahko Laplaceovo integralsko formulo zapišemo kot približno ujemanje porazdelitev: p Bi(n, p) ≈ N np, np(1 − p) . Za σ = 0 dobimo degenerirano normalno porazdelitev: če je X ∼ N(µ, 0), to pomeni, da je X = µ z verjetnostjo 1. Standardna normalna porazdelitev pa je porazdelitev N(0, 1). Za X ∼ N(0, 1) torej velja P(a < X < b) = P(a ≤ X ≤ b) = Φ(b) − Φ(a). Primer : če je X ∼ N(50, 20), je: • P(35 < X < 80) = P(35 ≤ X < 80) = P(25 < X ≤ 80) = P(35 ≤ X ≤ 80) = . . . . Φ(1 5) + Φ(0 75) = 0 7066; . . . • P(X < 0) = 12 − Φ(2 5) = 0 0062. Histogram porazdelitve celoštevilske slučajne spremenljivke, katere porazdelitev je približno normalna, ima obliko Gaussove krivulje: σ σ µ Slučajna spremenljivka, porazdeljena normalno N(µ, σ), se: • z verjetnostjo približno 68% nahaja med µ − σ do µ + σ; • z verjetnostjo približno 95% nahaja med µ − 2σ do µ + 2σ; . • z verjetnostjo približno 99 7% nahaja med µ − 3σ do µ + 3σ. 82 M. RAIČ: STATISTIKA 2.3.4 Funkcije slučajnih spremenljivk Iz slučajne spremenljivke X in funkcije f dobimo novo slučajno spremenljivko f (X), ki izidu ω priredi vrednost f (X(ω)). Če ima X diskretno porazdelitev, podano s shemo: a1 a 2 · · · ak , p1 p2 · · · pk je tudi f (X) diskretna, njeno porazdelitev pa določa shema: f (a1 ) f (a2 ) · · · f (ak ) . p1 p2 ··· pk Toda tudi če so vrednosti a1 , . . . ak vse različne, vrednosti f (a1 ), . . . f (ak ) niso nujno različne. Če hočemo torej dobiti točkaste verjetnosti (verjetnostno funkcijo), moramo v splošnem seštevati. Primer . Naj bo: X∼ 1 2 3 4 5 6 . . . . . . 0 05 0 15 0 15 0 15 0 15 0 35 in Y = (X − 2)2 . Tedaj sicer lahko pišemo: 4 1 0 1 4 9 , X∼ . . . . . . 0 05 0 15 0 15 0 15 0 15 0 35 . . . . . toda verjetnost P(Y = 4) ni enaka niti 0 05 niti 0 15, temveč 0 05 + 0 15 = 0 2. Porazdelitvena shema, iz katere lahko točkaste verjetnosti neposredno razberemo, je: 0 1 4 9 . X∼ . . . . 0 05 0 3 0 2 0 35 Lahko gledamo tudi funkcije več slučajnih spremenljivk. Primer . Slučajni spremenljivki X in Y naj imata navzkrižno porazdelitev: X=1 X=2 Y =1 Y =2 Y =3 0 0.25 0.15 0.25 0.25 0.1 0.25 0.5 0.25 0.4 0.6 Tedaj je njuna vsota X + Y funkcija obeh slučajnih spremenljivk in velja: 3 4 5 . X +Y ∼ . . . 05 04 01 Če pa vzamemo neodvisni slučajni spremenljivki X ′ in Y ′ z enakima porazdelitvama kot X in Y , t. j.: 83 M. RAIČ: STATISTIKA X′ = 1 X′ = 2 ′ ′ je X + Y ∼ Y′ =1 Y′ =2 Y′ =3 0.1 0.2 0.1 0.15 0.3 0.15 0.25 0.5 0.25 0.4 0.6 2 3 4 5 , čeprav sta robni porazdelitvi v obeh primerih enaki. . . . . 0 1 0 35 0 4 0 15 Nauk : za izračun porazdelitve funkcije dveh ali več slučajnih spremenljivk potrebujemo navzkrižno porazdelitev. 2.3.5 Porazdelitve urejenostnih slučajnih spremenljivk Eden temeljnih pojmov pri urejenostnih slučajnih spremenljivkah je kumulativna porazdelitvena funkcija: F X (x) = P(X ≤ x) . Primer : za X ∼ 1 2 3 4 5 6 . . . . . . 0 05 0 15 0 15 0 15 0 15 0 35 je npr.: . F X (2) = P(X = 1) + P(X = 2) = 0 2 , . . F X (1 9) = P(X = 1) = 0 05 , F X (0) = 0 , F X (6) = 1 , F X (1000) = 1 . Graf: 1 F X (x) 0.8 0.6 0.4 0.2 1 2 3 4 5 6 x 84 M. RAIČ: STATISTIKA Če urejenostna slučajna spremenljivka X zavzame vrednosti v množici, ki se da urejenostno vložiti v realna števila, je s kumulativno porazdelitveno funkcijo njena porazdelitev natančno določena. Velja namreč: P(X < x) = F X (x− ) = lim F X (y) y↑x ter za a ≤ b še: P(a ≤ X P(a < X P(a ≤ X P(a < X ≤ b) = P(X ≤ b) = P(X < b) = P(X < b) = P(X ≤ b) − P(X ≤ b) − P(X < b) − P(X < b) − P(X < a) = F X (b) − F X (a− ) , ≤ a) = F X (b) − F X (a) , < a) = F X (b− ) − F X (a− ) , ≤ a) = F X (b− ) − F X (a) . Velja tudi: P(X = x) = P(X ≤ x) − P(X < x) = F X (x) − F (x− ) . Točkasta verjetnost je torej enaka skoku kumulativne porazdelitvene funkcije v dani točki. Kumulativna porazdelitvena funkcija F ima naslednje lastnosti: • Je naraščajoča, a ne nujno strogo: če je a ≤ b, je F (a) ≤ F (b). • limx→−∞ F (x) = 0 in limx→∞ F (x) = 1. • Je z desne zvezna: limy↓x F (y) = F (x+ ) = F (x). Velja tudi, da je vsaka funkcija z zgornjimi lastnostmi kumulativna porazdelitvena funkcija neke slučajne spremenljivke. Kumulativna porazdelitvena funkcija slučajne spremenljivke, ki zavzame kvečjemu končno mnogo vrednosti, je stopničasta. To pa ni res za vsako kumulativno porazdelitveno funkcijo. Kumulativna porazdelitvena funkcija standardne normalne porazdelitve je tako F (x) = 12 + Φ(x). Graf: F (x) 1/2 −3 −2 −1 1 1 2 3 x 85 M. RAIČ: STATISTIKA Kvantil slučajne spremenljivke za verjetnost p je vrednost q, za katero velja: P(X < q) ≤ p in P(X ≤ q) ≥ p . To je posplošitev kvantila spremenljivke na statistični množici: slednji je kvantil porazdelitve slučajne spremenljivke, ki jo dobimo tako, da enoto na populaciji izberemo na slepo. Kvantile lahko grafično določimo iz grafa kumulativne porazdelitvene funkcije: v skokih graf dopolnimo z ustreznimi navpičnimi daljicami in kvantil za verjetnost p je vsaka abscisa točke na dobljeni črti, ki ima ordinato enako p. Gledamo torej presečišča dopolnjenega grafa z ustrezno vodoravnico. 1 2 3 4 5 6 , je kvantil slučajne spremenPrimer . Če je X ∼ . . . . . . 0 05 0 15 0 15 0 15 0 15 0 35 . ljivke X za verjetnost 0 3 natančno določen, in sicer je enak 3: . . . . • Velja P(X < 3) = 0 2 ≤ 0 3 in P(X ≤ 3) = 0 35 ≥ 0 3. . . • Brž ko je x < 3, je P(X ≤ x) ≤ 0 2 < 0 3, zato x ni ustrezni kvantil. . . • Brž ko je x > 3, je P(X < x) ≥ 0 35 > 0 3, zato x ni ustrezni kvantil. Podobno je tudi prvi kvartil lahko enak le 3. Mediana pa ni natančno določena, lahko je kar koli iz intervala [4, 5]. Primer : kumulativna porazdelitvena funkcija števila šestic pri 5 metih poštene kocke skupaj s kumulativno porazdelitveno funkcijo ustrezne aproksimativne normalne porazdelitve: 1 F X (x) 0.8 0.6 0.4 0.2 1 2 3 4 5 6 x Primer : kumulativna porazdelitvena funkcija števila šestic pri 180 metih poštene kocke skupaj s kumulativno porazdelitveno funkcijo ustrezne aproksimativne normalne porazdelitve: 86 M. RAIČ: STATISTIKA F X (x) 1 0.8 0.6 0.4 0.2 10 2.3.6 20 30 40 x Porazdelitve intervalskih slučajnih spremenljivk Eden temeljnih pojmov pri intervalskih slučajnih spremenljivkah je matematično upanje ali tudi pričakovana vrednost. Le-to sicer ni vselej definirano, lahko pa ga izračunamo za vsako slučajno spremenljivko, ki zavzame le končno mnogo vrednosti. Matematično upanje slučajne spremenljivke: a1 a2 · · · ak X∼ p1 p2 · · · pk je definirano kot: E(X) := a1 p1 + a2 p2 + · · · + ak pk . Pri tem ni nujno, da so vse vrednosti a1 , a2 , . . . ak različne. Izkaže se, da je matematično upanje neodvisno od sheme, s katero podamo porazdelitev. Matematično upanje je posplošitev aritmetične sredine: aritmetična sredina spremenljivke, definirane na določeni statistični množici, je matematično slučajne spremenljivke, ki nastane, če enoto iz množice izberemo na slepo. Matematično upanje je mera centralne tendence: v grobem lahko rečemo, da lahko pri realizacijah slučajne spremenljivke X pričakujemo vrednosti blizu E(X). Primer : za X ∼ 1 2 3 4 5 6 . . . . . . 0 1 0 15 0 15 0 15 0 15 0 3 je: . . . . . . E(X) = 1 · 0 1 + 2 · 0 15 + 3 · 0 15 + 4 · 0 15 + 5 · 0 15 + 6 · 0 3 = 4 . Neposredno iz porazdelitvene sheme se da izračunati tudi matematično upanje poljubne funkcije slučajne spremenljivke. Velja namreč: E f (X) = f (a1 )p1 + f (a2 )p2 + · · · + f (ak )pk . 87 M. RAIČ: STATISTIKA 1 2 3 4 5 6 in Y = (X − 4)2 . Tedaj Primer . Naj bo spet X ∼ . . . . . . 0 1 0 15 0 15 0 15 0 15 0 3 lahkoE(Y ) izračunamo nadva načina. Lahko upoštevamo, da je 0 1 4 9 in zato: Y ∼ . . . . 0 15 0 3 0 45 0 1 . . . . E(Y ) = 0 · 0 15 + 1 · 0 3 + 4 · 0 45 + 9 · 0 1 = 3 ali pa: . . . . E(Y ) = (1 − 4)2 · 0 1 + (2 − 4)2 · 0 15 + (3 − 4)2 · 0 15 + (4 − 4)2 · 0 15 + . . + (5 − 4)2 · 0 15 + (6 − 4)2 · 0 3 = = 3. Matematično upanje lahko izmenjamo z linearno funkcijo. Velja namreč: E(kX + n) = k E(X) + n . To pa ne velja kar za vsako funkcijo: v splošnem je E f (X) 6= f E(X) . 1 Primer . Naj bo spet X ∼ . 01 lahkoE(Z) spet izračunamo na 1010 1020 1030 1040 Z∼ . . . . 0 1 0 15 0 15 0 15 2 3 4 5 6 in Z = 10X + 1000. Tedaj . . . . . 0 15 0 15 0 15 0 15 0 3 dva načina. Lahko upoštevamo, da je 1050 1060 in zato: . . 0 15 0 3 . . . . . . E(Z) = 1010 · 0 1 + 1020 · 0 15 + 1030 · 0 15 + 1040 · 0 15 + 1050 · 0 15 + 1060 · 0 3 = 1040 ali pa preprosto izračunamo E(Z) = 10 · 4 + 1000 = 1040. Če pa postavimo Y = (X − 4)2 , smo v prejšnjem primeru izračunali, da je E(Y ) = 3, medtem ko je (4 − 4)2 = 0. Izmenljivost matematičnega upanja je temelj za u-metodo, ki jo poznamo že iz računanja aritmetične sredine: za poljuben u ∈ R velja: E(X) = u + E(X − u) . Primer : za X ∼ 490 500 520 . . . 01 03 06 lahko izračunamo: . . E(X) = 500 + (−10) · 0 1 + 20 · 0 6 = 511 . Matematično upanje je tudi aditivno: za slučajni spremenljivki velja: E(X + Y ) = E(X) + E(Y ) . Matematično upanje vsote je torej določeno že z robnima porazdelitvama, čeprav to ne velja za samo porazdelitev vsote. 88 M. RAIČ: STATISTIKA Primer . Slučajni spremenljivki X in Y naj imata navzkrižno porazdelitev: X=1 X=2 Y =1 Y =2 Y =3 0 0.25 0.15 0.25 0.25 0.1 0.25 0.5 0.25 0.4 0.6 Iz robnih porazdelitev dobimo: . . . E(X) = 1 · 0 4 + 2 · 0 6 = 1 6 , . . . E(Y ) = 1 · 0 25 + 2 · 0 5 + 3 · 0 25 = 2 . 3 4 5 in posledično: Nadalje je X + Y ∼ . . . 05 04 01 . . . . . E(X + Y ) = 3 · 0 5 + 4 · 0 4 + 5 · 0 1 = 3 6 = 1 6 + 2 . Če pa vzamemo neodvisni slučajni spremenljivki X ′ in Y ′ z enakima porazdelitvama kot X in Y , t. j.: X′ = 1 X′ = 2 Y′ =1 Y′ =2 Y′ =3 0.1 0.2 0.1 0.15 0.3 0.15 0.25 0.5 0.25 0.4 0.6 . ′ je seveda prav 6 in E(Y ′ ) = 2. Vsota je sicer drugače porazdeljena: tako E(X ) = 1 2 3 4 5 , toda spet je: X′ + Y ′ ∼ . . . . 0 1 0 35 0 4 0 15 . . . . . . E(X ′ + Y ′ ) = 2 · 0 1 + 3 · 0 35 + 4 · 0 4 + 5 · 0 15 = 3 6 = 1 6 + 2 . Zaenkrat smo matematično upanje definirali le za slučajne spremenljivke, ki zavzamejo končno mnogo vrednosti. Da se ga smiselno posplošiti na veliko slučajnih spremenljivk, ne pa na vse. Omenimo naj, da za X ∼ N(µ, σ) velja E(X) = µ. Za intervalske spremenljivke na statističnih množicah smo definirali tudi varianco. Varianca slučajne spremenljivke je definirana kot: h 2 i var(X) = E X − E(X) . Izkaže pa se, da velja tudi: var(X) = E(X 2 ) − E(X) 2 , kar često pride prav pri računanju peš. Uporaba te formule za računalnik pa je lahko nevarna, ker je formula lahko numerično nestabilna: majhne napake pri računanju vodijo v velike napake pri končnem rezultatu. To je zato, ker se lahko zgodi, da se dve veliki količini odštejeta v majhno količino. 89 M. RAIČ: STATISTIKA 1 Primer . Varianco slučajne spremenljivke X ∼ . 01 izračunamo na vsaj dva načina. Prvič, ker vemo, da 2 4) = 3. Drugič, lahko izračunamo: 2 3 4 5 6 lahko . . . . . 0 15 0 15 0 15 0 15 0 3 je E(X) = 4, je var(X) = E (X − . . . . . . E(X 2 ) = 1 · 0 1 + 4 · 0 15 + 9 · 0 15 + 16 · 0 15 + 25 · 0 15 + 36 · 0 3 = 19 in posledično var(X) = 19 − 16 = 3. Varianca je mera razpršenosti: v grobem pove, za koliko se realizirane vrednosti slučajne spremenljivke X lahko razlikujejo. Natančneje, je mera za kvadrate teh razlik. Za varianco velja: var(aX + b) = a2 var(X) + b . 1 2 3 4 5 6 in Z = 10X + 1000 velja var(Z) = Primer : za X ∼ . . . . . . 0 1 0 15 0 15 0 15 0 15 0 3 2 100 var(X) = 300. Opazimo še, da bi se, če bi šli računat var(Z) = E(Z 2 ) − E(Z) , odšteli dve količini z vrednostjo približno milijon. Ker varianca ni neposredno primerljiva z vrednostmi slučajne spremenljivke, je spet ugodno uvesti standardni odklon: p σ(X) = var(X) . Velja σ(aX b) = |a|σ(X). √ Za slučajni iz prejšnjega primera je tako √ spremenljivki √ + . . . . σ(X) = 3 = 1 732 in σ(Z) = 300 = 10 3 = 17 32. Standardni odklon slučajne spremenljivke, porazdeljene normalno N(µ, σ), je enak σ. Tako je uporaba znaka σ za drugi parameter pri normalni porazdelitvi in za standardni odklon konsistentna. Neobčutljivost variance za prištetje deterministične količine vodi v izpeljavo u-metode za varianco: 2 var(X) = E (X − u)2 − E(X − u) . Primer . Naj bo Z ∼ 3 4 5 . . . . Če izberemo u = 4, dobimo: 05 04 01 . . . E(Z − u) = (−1) · 0 5 + 1 · 0 1 = −0 4 . . . E (Z − u)2 = (−1)2 · 0 5 + 12 · 0 1 = 0 6 . . . var(Z) = 0 6 − 0 16 = 0 44 . Varianca je tudi aditivna, vendar ne v tolikšni splošnosti kot matematično upanje. Enakost: var(X + Y ) = var(X) + var(Y ) 90 M. RAIČ: STATISTIKA velja, če sta X in Y neodvisni, v splošnem pa ne. Tako recimo račun: var(2X) = var(X + X) = var(X) + var(X) = 2 var(X) ni pravilen, ker ne velja druga enakost: X in X namreč nista neodvisni, brž ko X ni skoraj gotovo konstantna. Pravilno je var(2X) = 4 var(X). Primer . Spet vzemimo slučajni spremenljivki X in Y z navzkrižno porazdelitvijo: X=1 X=2 Y =1 Y =2 Y =3 0 0.25 0.15 0.25 0.25 0.1 0.25 0.5 0.25 0.4 0.6 3 4 5 . . pri kateri pride X + Y ∼ . . . . Velja var(X) = 0 24, var(Y ) = 0 5 in var(X + 05 04 01 . Y ) = 0 44 6= var(X) + var(Y ). . . . . . E(X + Y ) = 3 · 0 5 + 4 · 0 4 + 5 · 0 1 = 3 6 = 1 6 + 2 . Če pa vzamemo neodvisni slučajni spremenljivki X ′ in Y ′ z enakima porazdelitvama kot X in Y , t. j.: X′ = 1 X′ = 2 Y′ =1 Y′ =2 Y′ =3 0.1 0.2 0.1 0.15 0.3 0.15 0.25 0.5 0.25 0.4 0.6 2 3 4 5 . ′ ′ ′ je seveda prav tako var(X ) = 0 24 in var(Y ) = 0.5 in iz X +Y ∼ . . . . 0 1 0 35 0 4 0 15 . dobimo var(X ′ + Y ′ ) = 0 74. Tega pa ne bi bilo treba računati, saj sta X ′ in Y ′ neodvisni, . . . zato je var(X ′ + Y ′ ) = 0 24 + 0 5 = 0 74. ′ Primer . Bernoullijevemu zaporedju slučajnih poskusov, pri katerih vsak uspe z verjetnostjo p, lahko priredimo zaporedje slučajnih spremenljivk X1 , X2 , . . . na naslednji način: 1 ; i-ti poskus uspe Xi = . 0 ; i-ti poskus ne uspe Tedaj so te slučajne spremenljivke neodvisne, vsota prvih n, S = X1 +X2 +· · ·+Xn , pa je natančno število uspelih med prvimi n poskusi, torej je S ∼ Bi(n, p). Ni težko izračunati, da je E(Xi ) = p in var(Xi ) = p(1 − p). Sledi E(S) = np in var(S) = np(1 − p). Sklep: za vsako slučajno spremenljivko S ∼ Bi(n, p) je E(S) = np in var(S) = np(1 − p). To je zato, ker sta matematično upanje in varianca odvisna le od porazdelitve sučajne spremenljivke, ne pa tudi od njene konstrukcije. 91 M. RAIČ: STATISTIKA Zdaj lahko Laplaceovo integralsko formulo pogledamo še drugače: če gre n proti neskončno, p pa ostane stran od 0 in 1, je binomska porazdelitev približno normalna z ustreznim matematičnim upanjem in varianco. Kovarianca slučajnih spremenljivk X in Y je definirana kot: h K (X, Y ) = E X − E(X) Y − E(Y ) . Tudi kovarianca je posplošitev kovariance spremenljivk na statistični množici. Velja tudi: K (X, Y ) = E(XY ) − E(X) E(Y ) in celo: K (X, Y ) = E (X − u)(Y − v) − E(X − u) E(Y − v) . Primer . Za slučajni spremenljivki X in Y z navzkrižno porazdelitvijo: X=1 X=2 Y =1 Y =2 Y =3 0 0.25 0.15 0.25 0.25 0.1 0.25 0.5 0.25 0.4 0.6 velja: . . . . . . E(XY ) = 1 · 1 · 0 + 1 · 2 · 0 25 + 1 · 3 · 0 15 + 2 · 1 · 0 25 + 2 · 2 · 0 25 + 2 · 3 · 0 1 = 3 05 , torej: . . . K (X, Y ) = 3 05 − 1 6 · 2 = −0 15 . Za slučajni spremenljivki s kovarianco nič pravimo, da sta nekorelirani. Slučajni spremenljivki X in Y sta torej nekorelirani natanko tedaj, ko je E(XY ) = E(X) E(Y ). Poljubni neodvisni slučajni spremenljivki sta nekorelirani, obratno pa ne velja nujno. Primer : pri navzkrižni porazdelitvi: X = −1 X=0 X=1 Y = −1 Y = 0 Y = 1 0.1 0 0.1 0 0.6 0 0.1 0 0.1 0.2 0.6 0.2 0.2 0.6 0.2 sta X in Y nekorelirani, saj je E(X) = E(Y ) = E(XY ) = 0. Nista pa neodvisni, saj je . . npr. P(X = −1, Y = 0) = 0, medtem ko je P(X = −1) P(Y = 0) = 0 12. 92 M. RAIČ: STATISTIKA A že če sta X in Y nekorelirani, velja var(X + Y ) = var(X) + var(Y ). V splošnem namreč velja formula: var(X + Y ) = var(X) + 2 K (X, Y ) + var(Y ) . Korelacijski koeficient med slučajnima spremenljivkama X in Y je tako kot za spremenljivke na statističnih množicah definiran s predpisom: r (X, Y ) = K (X, Y ) . σ(X) σ(Y ) Tudi pri slučajnih spremenljivkah velja −1 ≤ r (X, Y ) ≤ 1 in korelacijski koeficient lahko kvalitativno opredeljujemo na enak način kot pri statističnih spremenljivkah. Primer . Za slučajni spremenljivki X in Y z navzkrižno porazdelitvijo: X=1 X=2 Y =1 Y =2 Y =3 0 0.25 0.15 0.25 0.25 0.1 0.25 0.5 0.25 0.4 0.6 velja: . −0 15 . . r (X, Y ) = √ . √ . = −0 433 . 0 24 0 5 Gre torej za zmerno negativno korelacijo. 2.3.7 Centralni limitni izrek Pri binomski porazdelitvi Bi(n, p) smo videli, da je, ko je n velik, p pa dovolj stran od 0 ali 1 blizu normalni (Gaussovi) z ustreznim matematičnim upanjem in varianco. Videli smo tudi, da se da binomska porazdelitev zapisati kot vsota neodvisnih slučajnih spremenljivk. To velja tudi za splošnejše vsote. Centralni limitni izrek (ohlapna formulacija): slučajna spremenljivka S, ki je vsota veliko neodvisnih slučajnih spremenljivk z dovolj lepimi porazdelitvami, od katerih nobena posebej ne izstopa, je porazdeljena približno normalno N(µ, σ), kjer je µ = E(S) in σ 2 = var(S). Velja torej: b−µ a−µ P(a < S < b) ≈ P(a ≤ S ≤ b) ≈ Φ −Φ . σ σ Z drugimi besedami, porazdelitev količine, ki nastopi kot rezultat veliko majhnih neodvisnih slučajnih vplivov, ki se med seboj seštevajo, sledi Gaussovi krivulji. 93 M. RAIČ: STATISTIKA Primer . Loterija izda srečko, ki stane 1 evro. Srečka z verjetnostjo 5% zadene 10 evrov, z verjetnostjo 45% zadene 1 evro (v tem primeru torej kupec dobi povrnjen vložek), z verjetnostjo 50% pa ne zadene nič. Zanima nas dobiček loterije, če proda določeno število neodvisnih srečk (to vsaj približno velja, če igralec srečko napiše sam). Pri n prodanih srečkah lahko dobiček zapišemo kot vsoto S = X1 + X2 + · · · + Xn , kjer so X1 , . . . Xn neodvisne s porazdelitvijo: −9 0 1 . . . . 0 05 0 45 0 5 Če loterija proda 10 srečk, porazdelitev dobička S prikazuje naslednji histogram: −90 −80 −70 −60 −50 −40 −30 −20 −10 10 Če loterija proda 50 srečk, je histogram naslednji: −50 −40 −30 −20 −10 Pri 100 prodanih srečkah pa je naslednji: 10 20 30 40 50 94 M. RAIČ: STATISTIKA −70 −60 −50 −40 −30 −20 −10 10 20 30 40 50 Izračunajmo za ta primer približno verjetnost, da ima loterija izgubo! Velja: . . . . E(Xi ) = 0 05 , var(Xi ) = 4 5475 , σ(Xi ) = 2 1325 , torej: E(S) = 5 , . var(S) = 454 75 , od koder dobimo: . P(S < 0) = P(−∞ < S < −0 5) ≈ Φ . Točen rezultat: 0 376765. . . σ(S) = 21 325 , . −0 5 − 5 . 1 . . . − Φ(−∞) = − Φ(0 2579) = 0 3982 . . 21 325 2 Lahko pa se vprašamo tudi, najmanj koliko srečk mora loterija prodati, če naj bo . verjetnost, √ .da ima izgubo, največ 5%. Če loterija proda n srečk, je E(S) = 0 05 n in σ(S) = 4 5475 n, torej je: . . 1 −0 5 − 0 05 n √ . + . P(S < 0) ≈ Φ 2 4 5475 n Izraz v ulomku pa je za nadaljnjo obravnavo nekoliko zapleten, zato si privoščimo, da . zanemarimo tudi člen 0 5. Dobimo: r 1 n . P(S < 0) ≈ − Φ 0 05 . . 2 4 5475 Rešiti moramo torej neenačbo: oziroma: r n 1 . . ≤ 0 05 − Φ 0 05 . 2 4 5475 r n . Φ 0 05 ≥ 0 45 . . 4 5475 . . . Ker je Φ(1 645) = 0 45, je pogoj za število srečk približno: r n . . ≥ 1 645 , 0 05 . 4 5475 . kar velja za n ≥ 4923 (zaokrožili smo navzgor). Točna verjetnost izgube pri 4923 prodanih . srečkah pa je nekoliko večja, 0 05117. Pri 5000 prodanih srečkah pa je verjetnost izgube . 0 04987. Histogram: 95 M. RAIČ: STATISTIKA −200 −100 100 200 300 400 500 600 700 Prikažimo še grafe kumulativnih porazdelitvenih funkcij dobička prodanih srečk skupaj s pripadajočimi normalnimi slučajnimi spremenljivkami: 1 n = 10 0.8 0.6 0.4 0.2 −40 −30 −20 −10 1 10 20 30 n = 50 0.8 0.6 0.4 0.2 −50 −40 −30 −20 10 10 20 30 40 50 96 M. RAIČ: STATISTIKA 1 n = 100 0.8 0.6 0.4 0.2 −70 −60 −50 −40 −30 −20 10 1 10 20 30 40 50 60 n = 500 0.8 0.6 0.4 0.2 −140 −120 −100 −80 −60 −40 −20 1 20 40 60 80 100 120 140 n = 5000 0.8 0.6 0.4 0.2 −200 100 100 200 300 400 500 600 700 Veliko podatkov pa ne pomeni vedno (približno) normalne porazdelitve. Spodaj so prikazani rezultati 963 drugih kolokvijev iz predmeta Verjetnost in statistika za študente računalništva na Univerzi v Ljubljani v letih od 1997 do 2010: 97 M. RAIČ: STATISTIKA 25 20 15 10 5 10 20 30 40 50 60 70 80 90 100 . . . Relativne kumulativne frekvence skupaj z normalno aproksimacijo (µ = 58 02, σ = . 25 31): 1 0.8 0.6 0.4 0.2 10 20 30 40 50 60 70 80 90 100 98 M. RAIČ: STATISTIKA 3. Inferenčna statistika Pri opisni statistiki se osredotočimo le na podatke, ki jih imamo (na to, kar opazimo) in poskusimo narediti smiseln povzetek. Pri inferenčni statistiki pa gledamo podatke kot del nečesa večjega, česar ne poznamo v celoti. Tipičen primer je vzorec iz populacije: vrednosti statistične spremenljivke na vzorcu poznamo, na celotni populaciji pa ne. To pa ni edina možnost. Regresijska analiza se npr. ukvarja z napovedjo dogajanja v prihodnosti na podlagi podatkov iz preteklosti. V splošnem gre pri inferenčni statistiki za to, da opazimo X, želeli pa bi povedati kaj o Y (statistično sklepati ). Pri tem sta X in Y slučajni spremenljivki na istem verjetnostnem prostoru, ki pa nima nujno znane porazdelitve. Temu pravimo statistični model. Če je porazdelitev vendarle znana, modelu pravimo bayesovski. S takimi modeli se ukvarja bayesovska statistika. Tako jo imenujemo zato, ker temelji na Bayesovi formuli (glej podrazdelek 2.2.2). Omenili bomo tri vrste sklepanja: • Točkasto ocenjevanje, pri katerem sestavimo algoritem, ki nam za vsako opažanje X vrne oceno Y ≈ Yˆ . Pri tem mora biti količina Yˆ opazljiva (deterministično določena z opažanjem X), želeli pa bi narediti čim manjšo napako. Količini Yˆ pravimo cenilka za Y . • Intervalsko ocenjevanje, pri katerem poskusimo Y umestiti v opazljiv interval, npr. Ymin < Y < Ymax . Seveda morata biti meji intervala Ymin in Ymax opazljivi. Če o Y nimamo popolne informacije, izjava Ymin < Y < Ymax tipično ni vedno pravilna, da pa se kontrolirati verjetnost tega statističnega sklepa. Želimo doseči dvoje: – Širina intervala naj bo čim manjša. – Verjetnost, da je res Ymin < Y < Ymax (verjetnost pokritosti), naj bo v vsakem primeru vsaj β. . Parametru β pravimo stopnja zaupanja. Tipični stopnji zaupanja sta β = 0 95 in . β = 0 99. 99 100 M. RAIČ: STATISTIKA • Testi značilnosti, pri katerem o Y postavimo neko hipotezo (domnevo), npr. Y = y0 . Tej hipotezi navadno pravimo ničelna hipoteza in jo označimo s H0 . Nasprotje ničelne hipoteze je alternativna hipoteza in jo navadno označimo s H1 . Test za vsako opažanje pove, ali ničelno hipotezo zavrnemo in sprejmemo alternativno hipotezo ali pa ne naredimo ničesar. Želimo doseči dvoje: – H0 naj se zavrne v čimveč primerih, ko ne velja. – Verjetnost dogodka, da ničelno hipotezo zavrnemo, čeprav velja, naj bo v vsakem primeru največ α. Parametru α pravimo stopnja značilnosti. Če ničelno hipotezo zavrnemo pri stopnji . značilnosti α = 0 05, pravimo, da so odstopanja statistično značilna. če pa jo . zavrnemo pri α = 0 01, pa, da so statistično zelo značilna. Primer : Delova anketa pred predčasimi volitvami v Državni zbor jeseni 2011 samo s prikazom, kaj je kaj, brez računanja. 3.1 Verjetnost uspeha poskusa Dano je Bernoullijevo zaporedje n poskusov z verjetnostjo uspeha p. Opazimo, da uspe k poskusov. k Točkasta ocena za p (cenilka): pˆ = . n Konstrukcij intervala zaupanja je veliko, tu bomo uporabili Agresti–Coullovo konstrukcijo. Najprej izračunamo c := z(1+β)/2 , kjer je za kvantil standardne normalne porazdelitve za verjetnost a. Z drugimi besedami, Φ(za ) = a − 12 . Tabela nekaj kvantilov, pomembnih v statistiki: a za . . 0 95 1 64 . . 0 975 1 96 . . 0 99 2 33 . . 0 995 2 58 Nato izračunamo: 2 2 n ˜ =n+c , k + c2 p˜ = , n ˜ q˜ = 1 − p˜ . Interval zaupanja: p˜ − c r p˜q˜ < p < p˜ − c n ˜ r p˜q˜ n ˜ Opomba. Ta interval nam sicer ne zagotavlja v vsakem primeru verjetnosti pokritosti vsaj β, toda verjetnost pokritosti se pri vsakem p bliža β, ko se n veča. Bližanje je še hitrejše, če gledamo povprečno verjetnost pokritosti, ko p preteče določen interval. Le-ta je zelo blizu β že za majhne n (od 10 naprej). 101 M. RAIČ: STATISTIKA Opomba. Še vedno je v dokaj splošni uporabi Waldov interval zaupanja, ki je enake oblike kot zgornji, le z n, p in q = 1 − p namesto n ˜ , p˜ in q˜. Toda ta interval da zadovoljivo povprečno verjetnost pokritosti šele za razmeroma velike n. Testiranje hipoteze, da je p = p0 . Naj bo q0 := 1 − p0 . Če alternativna hipoteza trdi, da je p 6= p0 (dvostranski test), ničelno hipotezo zavrnemo, če je: pˆ − p0 √ |k − np0 | − 21 1 n − √ = √ ≥ z1−α/2 . √ np0 q0 p 0 q0 2 np0 q0 Če alternativna hipoteza trdi, da je p > p0 (enostranski test v desno), ničelno hipotezo zavrnemo, če je: 1 2 k − np0 − √ np0 q0 1 pˆ − p0 √ n− √ = √ ≥ z1−α/2 . p 0 q0 2 np0 q0 Če alternativna hipoteza trdi, da je p < p0 (enostranski test v levo), ničelno hipotezo zavrnemo, če je: k − np0 + √ np0 q0 1 2 1 pˆ − p0 √ n+ √ = √ ≤ −z1−α/2 . p 0 q0 2 np0 q0 Primeri: . • loterijska srečka, ki naj bi zadela z verjetnostjo 1/2: 2 dobitni od 8 pri α = 0 05, . . 4 dobitne od 16 pri α = 0 05, 4 dobitne od 16 pri α = 0 01. . • poštenost kovanca: 4 grbi od 16 pri α = 0 05. pˆ − p0 √ 1 k − np0 = √ . n in popravkom √ To je primer Z-testa za testno statistiko √ np0 q0 p 0 q0 2 np0 q0 Z-test za testno statistiko Z in popravkom c ima tri različice. • Pri dvostranski različici ničelno hipotezo zavrnemo, če je |Z| − c ≥ z1−α/2 . • Pri enostranski različici v desno ničelno hipotezo zavrnemo, če je Z − c ≥ z1−α . • Pri enostranski različici v levo ničelno hipotezo zavrnemo, če je Z + c ≤ −z1−α . 3.2 Frekvenčna porazdelitev a1 a2 · · · Točkasta ocena porazdelitve p1 p2 · · · ak : pˆi = fi◦ . pk Porazdelitev lahko testiramo s testom hi kvadrat s testno statistiko: 2 χ = k X (fi − npi )2 i=1 npi =n k X (ˆ pi − pi ) 2 i=1 pi 102 M. RAIČ: STATISTIKA s k−1 prostostimi stopnjami, in sicer z enostransko različico v desno. Enostranska različica testa hi hvadrat za testno statistiko χ2 z df prostostnimi stopnjami pri stopnji značilnosti α pomeni, da hipotezo zavrnemo, če je χ2 ≤ χ21−α (df ). Na desni je kvantil porazdelitve hi kvadrat z df prostostnimi stopnjami za verjetnost 1 − α. Le-te lahko odčitamo iz tabele. 3.3 Sredina pri znanem σ Izmerimo X1 , X2 , . . . Xn , ki so neodvisne in porazdeljene normalno N(µ, σ), kjer σ poznamo. Cenilka za µ: ¯ = X1 + X2 + · · · + Xn . µ ˆ = µvz = X n Interval zaupanja: σ σ ˆ + z(1+β)/2 √ . µ ˆ − z(1+β)/2 √ < µ < µ n n µ ˆ−µ√ n. Testiranje: z Z-testom za testno statistiko σ Interval zaupanja in testiranje sta robustna, kar pomeni, da sta za dovolj velike n vsaj približno legitimna, tudi če porazdelitev ni normalna – da le obstajata matematično upanje in varianca. 3.4 Sredina pri neznanem σ Izmerimo X1 , X2 , . . . Xn , ki so neodvisne in porazdeljene normalno N(µ, σ), σ pa zdaj ne poznamo. Cenilka za µ je enaka kot pri znanem σ. Tu je na mestu omeniti še cenilko za σ, ki pa je: r r n (X1 − µ ˆ)2 + (X2 − µ ˆ)2 + · · · (Xn − µ ˆ )2 = . σ ˆ = σvz n−1 n−1 Interval zaupanja: σ ˆ σ ˆ ˆ + t(1+β)/2 (n − 1) √ , µ ˆ − t(1+β)/2 (n − 1) √ < µ < µ n n kjer je tp (df ) kvantil Studentove porazdelitve z df prostostnimi stopnjami za verjetnost p. Le-te lahko odčitamo iz tabel. µ ˆ−µ√ µ testiramo s T -testom z n − 1 prostostnimi stopnjami za testno statistiko n. σ ˆ T -test z df prostostnimi stopnjami za testno statistiko Z ima spet tri različice. • Pri dvostranski različici ničelno hipotezo zavrnemo, če je |T | ≥ t1−α/2 (df ). M. RAIČ: STATISTIKA • Pri enostranski različici v desno ničelno hipotezo zavrnemo, če je T ≥ t1−α (df ). • Pri enostranski različici v levo ničelno hipotezo zavrnemo, če je T ≤ −t1−α (df ). 103 104 M. RAIČ: STATISTIKA Literatura [1] A. Ferligoj: Osnove statistike na prosojnicah. Ljubljana, 1997. [2] R. Jamnik: Matematična statistika. DZS, Ljubljana, 1980. [3] R. Jamnik: Verjetnostni račun. ZOTKS, Ljubljana, 1987. [4] R. Jamnik: Verjetnostni račun in statistika. DMFA, Ljubljana, 1995. [5] M. Hladnik: Verjetnost in statistika, zapiski s predavanj. FRI, Ljubljana, 2002. [6] J. A. Čibej: Matematika: kombinatorika, verjetnostni račun, statistika. DZS, Ljubljana, 1994. [7] J. Sagadin: Osnovne statistične metode za pedagoge. FF, Ljubljana, 1992. [8] M. Blejec: Uvod v statistiko. EF, Ljubljana, 1996. [9] L. Pfajfar: Statistika 1. EF, Ljubljana, 2005. [10] F. Arh, L. Pfajfar: Statistika 1 z zgledi. EF, Ljubljana, 2005. [11] A. Juriši´c: Verjetnostni račun in statistika. Dosegljivo na: http://lkrv.fri.uni-lj.si/~ajurisic/stat10/ [12] B. Petz: Osnovne statističke metode. Liber, Zagreb, 1985. [13] J. A. Rice: Mathematical Statistics and Data Analysis. Thomson/Brooks/Cole, Belmont, 2007. [14] A. Ferligoj: Naloge iz statističnih metod. Ljubljana, 1981. [15] F. Arh, L. Pfajfar: Statistika 1. Zbirka rešenih izpitnih nalog. EF, Ljubljana, 2002. [16] M. R. Spiegel: Schaum’s outline of theory and problems of statistics. New York, 1999. 105
© Copyright 2024