Att skriva en bok

Horst Löfgren
Grundläggande statistiska metoder
för analys av kvantitativa data
Med övningar för programpaketet SPSS
PPR • Läromedel för högskolan
© Horst Löfgren
3
©
Kopieringsförbud
Detta verk är skyddat av lagen om upphovsrätt. Kopiering, får endast ske
efter tillstånd av författaren.
© Författaren och PPR 2014
4
© Horst Löfgren
Förord
Denna bok vänder sig till alla som behöver kunna olika metoder för beskrivning och analys av data och som helst har tillgång till statistikprogrammet SPSS. Även om boken kan fungera som en allmän bakgrund till
statistiska beskrivningar och analyser av data oberoende av statistisk programvara är den i vissa delar inriktad mot SPSS.
Även om boken tar upp det mesta från grunden av presenterade statistiska begrepp, beskrivningar och analyser är framställningen relativt kompakt, varför en genomgången nybörjarkurs eller litteratur med långsammare progression är lämplig som bakgrund. Innehållet i boken täcker det
mesta av de grundläggande statistiska metoder, som behövs vid analys av
data för användare av statistik som hjälpvetenskap, dvs. icke-specialister
inom ämnet statistik.
Denna bok kan användas av personer med begränsade kunskaper i statistik, men också av dem som vill använda statistisk dataanalys på en mer
avancerad nivå. Många studerande inom olika utbildningar har svårigheter
att tillgodogöra sig undervisningen i statistik och statistisk dataanalys. Ofta
har man en negativ förhandsinställning och denna påverkar givetvis utfallet av undervisningen och lärandet. Många gånger lär sig studerande kursinnehållet i kvantitativa analyser på ett mekaniskt sätt och utan att verkligen förstå vad de gör och varför. Därför är denna bok ett försök till en koncentrerad framställning med tonvikt på förståelse. Det mekaniska räknandet klarar datorn av, om man trycker på rätt knappar. Det har emellertid
visat sig att en del av lärandetiden borde ägnas åt att för hand räkna igenom enkla uppgifter för att verkligen förstå vad datorn gör, när den räknar
fram ett resultat. När man väl vet vad man gör och varför, kan huvuddelen
av lärandetiden ägnas åt förståelse för statistisk beskrivning och analys.
Även om man själv inte samlar in egna datafiler för att analysera sina
frågeställningar, måste man ha grundläggande kunskaper i statistisk dataanalys för kritiskt kunna läsa artiklar och resultat av forskning som baserar
sig på kvantitativa analyser.
Samtliga metoder som presenteras i boken finns i analysdelen i programpaketet SPSS. Dock finns ännu mer avancerade analysmetoder i
SPSS, som inte presenteras i denna bok. Ett par avsnitt i boken är mycket
© Horst Löfgren
5
sällan förekommande i grundböcker, som t.ex. avsnitten om faktoranalys,
reliabilitet och index på storleksskillnader. För att resonera om kvalitet i
data är det nödvändigt att ha en förståelse för begrepp som validitet och
reliabilitet. Därför finns ett kort avsnitt om och förklaring av faktoranalys
som en metod att analysera validiteten, dvs. pröva om man verkligen lyckats fånga in det som avsikten med de data som insamlats.
Alldeles för många användare av statistisk hypotesprövning har inte
förstått skillnaden mellan statistisk signifikans och storleksskillnader. Därför finns i boken avsnitt som förklarar skillnaden mellan säkerhet och storlek i statistiska slutsatser. Dessutom ges olika mått på effektstorlek.
Till boken finns en datafil från en verklig undersökning (IEA-Written
Composition; data från det svenska stickprovet ”Elever i årskurs 9”), som
tidigare kunde hämtas från min webbsida på Internet. Filen finns nu på en
CD-skiva som kan erhållas av mig. På denna dataskiva finns också lösningar till bokens övningsuppgifter. CD-skivan innehåller också ett tryckfärdigt manus för hela boken.
Boken innehåller fyra kapitel. Det första kapitlet är en kort introduktion
till statistikens huvuddelar, beskrivning och inferens, samt en beskrivning
av olika typer av mätskalor. Det andra kapitlet behandlar beskrivande statistik. Här presenteras central- och spridningsmått, grafisk representation,
korrelation och prediktion. Kapitlet innehåller också något mer avancerade
metoder som multipel regressionsanalys, logistisk regressionsanalys, faktoranalys och metoder för reliabilitetsskattning. I kapitel tre presenteras
olika parametriska hypotesprövningsmetoder, såväl för ett som för flera
stickprov. En väsentlig del av texten behandlar enfaktoriella och flerfaktoriella variansanalyser. Förutom signifikansbestämningar presenteras
metoder för bedömning av storleksskillnader i undersökningsresultat.
Detta avsnitt är synnerligen väsentligt, för att korrekt kunna tolka undersökningsresultat. Det fjärde kapitlet behandlar icke-parametriska hypotesprövningsmetoder för ett och flera stickprov.
I Appendix finns statistiska tabeller och en presentation av övningsfilen
med tillhörande övningsuppgifter.
Barsebäck våren 2014
Horst Löfgren
6
© Horst Löfgren
Innehåll
Förord .......................................................................................................... 3
1
Inledning............................................................................................ 11
2
Beskrivande statistik ......................................................................... 14
2.1 Central- och spridningsmått ....................................................... 14
2.2 Grafisk framställning ................................................................. 21
2.3 Sambandsmått - Korrelation ...................................................... 22
2.3.1 Pearson's produkt-moment korrelation ............................ 23
2.3.2 Tolkning av olika värden på korrelationen ...................... 27
2.3.3 Samband mellan variabler på selekterade grupper .......... 29
2.3.4 Linjära och icke-linjära samband .................................... 30
2.3.5 Spearman's rangkorrelation ............................................. 31
2.4 Den standardiserade normalfördelningen; z-poäng ................... 32
2.5 Regression.................................................................................. 33
2.6 Multipel korrelation och multipel regression ............................. 38
2.6.1 Stegvis regressionsanalys ................................................ 41
2.6.2 Ett exempel på linjär multipel regression och stegvis
multipel regression .......................................................... 41
2.6.3 Logistisk regressionsanalys ............................................. 45
2.6.4 Användning av s.k. dummy-variabler ............................. 47
2.7 Faktoranalys ............................................................................... 49
2.7.1 Vad är faktoranalys? ........................................................ 49
2.7.2 Extrahering av faktorer - ett förklarande exempel ........... 51
2.7.3 Gemensam varians, specifik varians och felvarians ........ 53
2.7.4 Arbetsgången vid faktoranalys ........................................ 54
2.7.5 Ett praktiskt exempel och förklaring av
analysresultatet ................................................................ 55
2.8 Reliabilitet.................................................................................. 59
2.8.1 Beräkning av Cronbach’s alpha ....................................... 61
2.8.2 Ett numeriskt exempel ..................................................... 62
© Horst Löfgren
7
3
Parametriska hypotesprövningsmetoder............................................ 66
3.1 Urvalsmetoder............................................................................ 66
3.2 Sannolikhetsbegreppet ............................................................... 70
3.3 Samplingfördelning ................................................................... 71
3.4 Skattningar ................................................................................. 74
3.5 Hypotesprövning........................................................................ 77
3.6 Hypotesprövning av ett stickprov i förhållande till en
population .................................................................................. 84
3.7 Hypotesprövning av en medelvärdes-differens mellan två
oberoende stickprov ................................................................... 89
3.8 Hypotesprövning av en medelvärdes-differens mellan två
beroende stickprov ..................................................................... 93
3.9 Hypotesprövning av medelvärdes-differenser med hjälp av
variansanalys.............................................................................. 95
3.10 Enfaktors ANOVA; oberoende grupper .................................... 97
3.11 Lämpliga index på relationen mellan oberoende och
beroende variabel ..................................................................... 103
3.11.1 Omega-kvadrat .............................................................. 103
3.11.2 Eta-kvadrat ................................................................... 104
3.11.3 Effektstorlek ................................................................. 105
3.12 Tvåfaktors ANOVA; oberoende grupper................................. 107
3.13 Enfaktors ANOVA; beroende grupper .................................... 114
2.14 Kovariansanalys, ANCOVA .................................................... 118
4
Icke-parametriska hypotes-prövningsmetoder ................................ 121
4.1 Analys av stickprovsdata i förhållande till populationsdata .... 122
4.1.1 Chi-kvadrat-testet för ett stickprov ................................ 123
4.1.2 Run-testet ....................................................................... 125
4.2 Analys av differensen mellan två oberoende stickprov ........... 127
4.2.1 Chi-kvadrat-testet för två oberoende stickprov ............. 128
4.2.2 2-analys av en 2x2 kontingenstabell............................ 130
4.2.3 Mann-Whitney U-test .................................................... 131
4.2.4 Kolmogorov-Smirnov-testet för två oberoende
stickprov ........................................................................ 134
4.2.5 Wald-Wolfowitz Runs ................................................... 136
8
© Horst Löfgren
4.3 Analys av differensen mellan två beroende stickprov ............. 138
4.3.1 McNemar-testet ............................................................. 138
4.3.2 Wilcoxon’s teckenrangtest ............................................ 140
4.4 Några index byggda på 2 ....................................................... 143
4.4.1 Kontingenskoefficienten................................................ 143
4.4.2 Cramérs index ................................................................ 145
4.5 Analys av differenser mellan tre eller flera oberoende
stickprov .................................................................................. 145
4.5.1 Chi-kvadrat-testet för tre eller flera oberoende
stickprov ........................................................................ 146
4.5.2 Kruskal-Wallis testet ..................................................... 148
4.6 Analys av differensen mellan tre eller flera beroende
stickprov .................................................................................. 150
4.6.1 Cochran Q-test ............................................................... 151
4.6.2 Friedman testet .............................................................. 152
Appendix ................................................................................................. 155
Ett förenklat exempel på varianskomponenter i variansanalys ....... 156
Tabeller ............................................................................................ 157
Enkät och övningsuppgifter ............................................................. 173
Index ........................................................................................................ 181
© Horst Löfgren
9
10
© Horst Löfgren
1
Inledning
Statistik utnyttjas av många vetenskapliga discipliner och ger oss bl.a.
metoder för att sammanställa insamlade data och dra generaliserbara slutsatser. Den statistiska kunskapen hjälper oss i forskningsprocessen med
frågor rörande urval, beskrivning, analys, tolkning och presentation av
data.
I olika typer av undersökningar, både experimentella och icke-experimentella, vill vi på lämpligt sätt kunna beskriva de observationer som insamlats. Med hjälp av de s.k. deskriptiva metoderna kan vi organisera och
sammanfatta resultat av observationer. Vi utnyttjar således den deskriptiva
statistiken, när vi vill sammanfatta våra observationer genom att t.ex. ange
central-, spridnings- och korrelationsmått.
Ofta vill vi uttala oss mera generellt om resultat, som erhållits i en undersökning från en mindre grupp. För att kunna dra slutsatser från ett stickprov till en större bakomliggande grupp (population) används den del av
statistiken som kallas inferensstatistik. Grunden för de metoder vi utnyttjar
för att våga generalisera från observerade data till en population är den s.k.
sannolikhetsteorin. Med hjälp av denna sannolikhetsteori kan vi hantera
osäkerheten i våra data. Det finns alltid en viss osäkerhet, när man gör
prediktioner till andra grupper än den som undersökts.
Om vi har data om hela populationen, kan vi direkt beskriva dess egenskaper. Medelvärdet och standardavvikelsen i populationen, dvs. egenskaper i populationen, kallas parametrar och betecknas ofta med grekiska
bokstäver. Karakteristika i ett stickprov, t.ex. medelvärde och standardavvikelse betecknas med vanliga (romerska) bokstäver. Dessa från stickprovet beräknade värdena kallas i engelskspråkig litteratur för “statistics“.
Population

Figur 1.1.
© Horst Löfgren
Stickprov
M; s
Beskrivande mått i population och stickprov samt relationen
dem emellan
11
Vid insamling av data utnyttjas olika typer av mätinstrument. En mätning
kan definieras som tilldelandet av tal på objekt eller händelser i enlighet
med vissa regler. Det faktum att tal kan sättas med utgångspunkt från olika
regler leder till olika slags skalor och olika slags mätningar. Vi får då ta
hänsyn till följande:
a) olika regler för att sätta siffervärden,
b) skalornas matematiska egenskaper,
c) vilka statistiska operationer som kan appliceras på de olika skaltyperna.
Det finns två typer av numeriska data om de fenomen vi studerar. Om vi
endast räknar antal av den variabel som studeras erhålls frekvenser. Exempelvis räknar vi antalet män och kvinnor i ett observationsmaterial eller
antalet elever som väljer olika linjer i gymnasieskolan. Om vi i stället mäter den variabel som studeras erhålls metriska värden, dvs. skalvärden.
Exempelvis kan vi mäta längden på en grupp män och kvinnor eller kunskapsprestationer på elever i skolan.
En frekvens anger antalet observationer i en viss kategori. Den enklaste
formen av "mätning" är klassifikation av data, vilket ger frekvenser i kvalitativt olika kategorier. Vid variabler som kan kvantifieras, dvs. anta olika
värden, skiljer vi på kontinuerliga och diskreta sådana. En kontinuerlig
variabel kan anta vilket värde som helst inom ett givet intervall (längd,
kunskaper), medan en diskret variabel endast kan anta vissa bestämda
skalvärden (antal barn per familj).
Vi brukar tala om fyra skaltyper:
1. Nominalskala
Detta är egentligen ingen skala utan en klassificering av olika objekt eller
individer. Vi gör med andra ord ingen egentlig mätning, när vi arbetar med
kvalitativa variabler som exempelvis kön, civilstånd och utfall vid slantsingling.
2. Ordinalskala
Vid denna mätning av kvantitativa variabler utnyttjas endast rangordningen mellan de tal som tilldelats de olika objekten eller individerna. Om exempelvis elever har erhållit olika antal poäng på ett prov kan vi utnyttja
relationerna bättre än och sämre än. Vi kan däremot inte säga något om
12
© Horst Löfgren
differensernas relativa storlek. De flesta mätningar av förmågor, kognitiva
och icke-kognitiva egenskaper, är av ordinalskaletyp. Som exempel kan
nämnas kunskaper, betyg och attityder.
3. Intervallskala
Om vi förutom rangordningen mellan mätobjekten kan säga något om intervallernas storlek, exempelvis att avståndet mellan 5 och 10 poäng är lika
stort som avståndet mellan 10 och 15 poäng, talar vi om ekvidistanta skalsteg. Här kan vi som ett exempel nämna temperaturskalan enligt Celsius.
Differensen mellan +10 grader och +15 grader är lika stor som mellan +20
grader och +25 grader. Eftersom 0 grader inte är någon absolut nollpunkt
kan vi emellertid ej säga att +20 grader är dubbelt så varmt som +10 grader.
4. Kvotskala
I denna skala kan vi utnyttja alla tre egenskaperna hos talsystemet; ordning, differens och nollpunkt. Det innebär att vi kan tala om kvoter. Ett bra
exempel på en sådan här skala är längdskalan. Ett objekt som har en längd
av 100 cm är dubbelt så långt som ett av längden 50 cm. Viktskalan är ett
annat bra exempel.
Detta att vi åsätter våra mätobjekt vissa tal innebär således att vi inte alltid
får utnyttja egenskaperna hos dessa tal. Olika statistiska operationer tillåts
beroende på skaltyp. Här har man ibland diskuterat, om vi trots sämre skalor inom beteendevetenskaperna (oftast ordinalskala) ska få använda statistiska beräkningar, som egentligen kräver minst intervallskala. Utan att
här närmare gå in på dessa problem kan vi konstatera, att vi kanske ibland
efter att ha tilldelat våra mätobjekt ett visst tal fortsätter att resonera som
om mätningen har talens egenskaper. Man kan alltid räkna med statistiskt
avancerade metoder, men det är de bakomliggande psykologiska relationerna, som bestämmer huruvida den statistiska metoden leder till vettiga
resultat. Man kan nämligen erhålla olika resultat beroende på om man anser sig ha en ordinal-, intervall- eller kvotskala, trots att det är samma psykologiska egenskaper som ursprungligen mättes.
I många fall kan det räcka med att skilja mellan kategorivariabler (nominal) och kontinuerliga variabler. Om man har data från någon observationsvariabel och kan anta att bakomliggande populationsdata är approximativt normalt fördelade, går det bra att använda metoder som egentligen
kräver data på intervall- eller kvotskalenivå.
© Horst Löfgren
13
2
Beskrivande statistik
Man använder sig av beskrivande statistik, när man sammanfattande vill
beskriva sina insamlade data. Det kan handla om att beskriva hur data fördelar sig över olika värden, att ange central- och spridningsmått. Man kan
också vilja beskriva hur olika mätvariabler förhåller sig till varandra, dvs.
hur de samvarierar (korrelerar). Har man flera olika mätvariabler kan man
vara intresserad att studera om man utifrån några variabler kan predicera
utfallet i en s.k. utfallsvariabel. Man kan också vilja studera, om man kan
slå samman olika mätvariabler för att t.ex. bilda summavariabler. För att
kunna bilda sådana summavariabler eller index måste vi veta, att det är
rimligt att slå samman enskilda mätvariabler. Därför vill vi studera både
validitet, dvs. om vi mäter det vi avsåg att mäta och reliabilitet, dvs. hur
tillförlitliga våra mätningar är. Det är väsentligt att få mått på kvaliteten i
våra data, i synnerhet om vi har konstruerat de begrepp, som vi försöker
mäta. Många av de begrepp vi använder oss av och som vi försöker mäta
är inte alltid lätta att fånga in. Ofta är de mest intressanta begreppen svårast att operationellt definiera och därmed svåra att komma åt. Dessutom
innehåller svåruppmätta variabler ofta ganska stora mätfel. Det finns emellertid lämpliga metoder för att studera både validitet (relevans) och reliabilitet (tillförlitlighet).
2.1
Central- och spridningsmått
För att sammanfatta hur insamlade data fördelar sig över olika observationsvärden anger man lämpligen ett mått på centraltendens, dvs. man
anger det värde som är mest representativt för det material som insamlats.
Dessutom anger man vanligen också hur mätvärdena sprider sig i den variabel som observerats.
Det finns tre mått på central tendens, nämligen Typvärde (T), Median
(Md) och Medelvärde (M). De engelska termerna är Mode, Median och
Mean. Till dessa centralmått hör de tre spridningsmåtten Variationsvidd
14
© Horst Löfgren
(V), Kvartilavstånd och Standardavvikelse (s). Motsvarande engelska termer är Range, Interquartile range (IQR) och Standard deviation.
Typvärdet är det värde som oftast förekommer i det insamlade materialet,
dvs. det värde som har den högsta frekvensen. Tillhörande spridningsmått
är variationsvidd, vilket är skillnaden mellan det högsta och det lägsta
värdet i fördelningen. Dessa beskrivande mått ger ganska lite information.
För nominalskalerade observationsvariabler är typvärdet det enda relevanta
mått, som kan anges för att ge information om insamlade data.
Medianvärdet används lämpligen vid s.k. sneda fördelningar på ordinal-,
intervall- eller kvotskalerade observationsvariabler. Medianvärdet är det
värde som den mittersta observationen har. Medianen delar s a s en fördelning i två lika stora delar; 50 % av antalet observationer ligger ovanför
respektive nedanför medianen. Tillhörande spridningsmått kallas kvartilavstånd, som är avståndet i x-variabeln mellan den 75 percentilen (P75)
och den 25 percentilen (P25). Dessa båda punkter innesluter de mittersta
50 % av observationerna. Divideras kvartilavståndet med två erhålls ett
alternativt sätt att uttrycka spridningen på, nämligen kvartilavvikelsen.
Observera att avståndet mellan P75 och Md inte är lika stort som avståndet
mellan Md och P25 vid sneda fördelningar. Det kan här nämnas att man i
forskningsrapporter och artiklar sällan finner att kvartilavstånd eller kvartilavvikelsen använts som mått på variationen i ett material.
Figur 2.1.
© Horst Löfgren
Median och kvartilavstånd
15
Om en fördelning är approximativt normalfördelad och därmed någorlunda
symmetrisk används det aritmetiska medelvärdet, vanligen endast kallad
medelvärde. Det erhålls genom att summera samtliga observationer och
dividera med antalet observationer.
xi
M = ___
n
(formel 2.1)
Standardavvikelsen är ett avstånd i mätvariabeln (på x-axeln) så stort att
mellan medelvärdet (M) och +1 standardavvikelse (s) ligger ungefär 34 %
av alla observationerna i materialet och likaså mellan M och -1s. Mellan
minus en standardavvikelse och plus en standardavvikelse ligger således
68 % av samtliga observationer. Mellan M +/- 2s ligger ungefär 95 % av
alla observationer.
I normalfördelningen ligger 68,3 % av observationerna i intervallet M +/- s
och 95,4 % i intervallet M +/- 2s. Eftersom nästa alla observationer ligger
mellan -2s och +2s, dvs. inom fyra standardavvikelser blir standardavvikelsen i ett normalfördelat observationsmaterial något mer än en fjärdedel
av variationsvidden.
Standardavvikelsen i kvadrat kallas för varians. Variansen i en population
är lika med den genomsnittliga kvadrerade avvikelsen från medelvärdet.
Roten ur detta värde (variansen) är lika med standardavvikelsen.
=
xi-M)2
________
N
(formel 2.2)
Då variansen i ett stickprov tenderar att underestimera variationen i populationen korrigeras formeln vid beräkning av standardavvikelsen i ett
stickprov i enlighet med formel 2.3.
s=
(xi - M)2
____________
n–1
(formel 2.3)
Om vi skriver om formel 2.3 blir det enklare att beräkna standardavvikelsen.
16
© Horst Löfgren
s=
(x)2
x2 - _____
n
________________
n-1
(formel 2.4)
Vid valet av beskrivande mått, t.ex. central- och spridningsmått är fördelningens utseende i observationsmaterialet av stor betydelse. Om mätvärdena är approximativt normalfördelade, dvs. de flesta observationerna
ligger i mitten och färre observationer med extrema värden, används aritmetiskt medelvärde och standardavvikelse. Om mätvärden i stället är påtagligt snedfördelade är median och kvartilavvikelse lämpligare mått.
Figur 2.2.
Medelvärde (M) och standardavvikelse (s)
Observera dock att fördelningens utseende oftast avgör valet av beskrivande mått. Ovan angivna sambandsmått baserar sig på att båda de studerade variablerna är av samma skaltyp. Det finns nämligen ett antal av olika
sambandsmått för skilda kombinationer av mätskalor.
© Horst Löfgren
17
Ruta 2.1. Vanliga beskrivande mått vid olika typer av mätskalor
Skaltyp
Centralmått
Spridningsmått
Sambandsmått
Nominal
Typvärde
Ordinal
Median
Kvartilavvikelse
Rangkorrelation
Intervall/
Kvot
Medelvärde
Standardavvikelse
Produkt-momentkorrelation
Phi, Cramérs V
Vi tänker oss att vi ska genomföra en undersökning om rökvanor i en viss
grupp. Vilken är den enklaste frågan som kan ställas för att få information
om rökning? Om vi ställer frågan ”Röker du” och svarsalternativen är ”Ja”
eller ”Nej” erhålls en viss information om rökvanor i gruppen. Informationen är tillräcklig för att åtminstone klassificera individerna i gruppen
som rökare eller icke-rökare och vi kan ange frekvensen av svar i respektive grupp. Vi har erhållit data på nominalskalenivå, dvs. en klassificering
med kategorierna rökare och icke-rökare. På basis av data kan vi ange
typvärdet, dvs. om det finns flest rökare eller flest icke-rökare i gruppen.
Som lätt inses är kvalitén i data ganska dålig. I gruppen rökare kan det
finns alltifrån feströkare till kedjerökare. Om vi förändrar vår fråga kan vi
få mer information.
Nu ställer vi en fråga som lyder så här:
Hur mycket röker du? Ange med kryss!
Inte alls
Vid enstaka tillfällen
Varje dag
( )
( )
( )
Flera gånger om dagen
( )
Denna fråga ger mer information än den föregående. Rimligen borde man
ganska väl kunna rangordna respondenterna i fyra grupper. Data ligger på
ordinalskalenivå. Visserligen skulle man kunna se på resultatet som fyra
kategorier, men det går ju faktisk att till viss del rangordna respondenterna.
Rökandegruppen har ju differentierats till tre grupper.
Vilken är då den bästa fråga man kan ställa till gruppen för att inte bara
rangordna respondenterna utan också säga något avstånden mellan olika
18
© Horst Löfgren
svarsalternativ? Om vi endast håller oss till cigarettkonsumtion kan vi
ställa följande fråga:
Hur många cigaretter röker du i genomsnitt per dag?
___________ cigaretter
Nu har vi god information och kan uttala oss om att en viss individ röker
dubbelt så mycket som en annan, eller hälften så mycket etc. Eftersom
man kan göra detta ligger data på kvotskalenivå, dvs. har en nollpunkt. När
man samlar in information bör man sträva efter att få så bra data som möjligt. Om man kan erhålla data på intervall- eller kvotskalenivå så är detta
naturligtvis bättre än data på endast ordinalskalenivå eller nominalskalenivå. Effektivare statistiska metoder kan användas om data ligger på en
”högre” nivå.
De flesta kvantitativa variabler kan klassificeras som symmetriska eller
sneda. I en symmetrisk fördelning kan man dra en vertikal linje genom
mittpunkten, så att den ena sidan av fördelningen är en spegelbild av den
andra sidan. Fördelningen över data jämförs med normalfördelningen, som
är matematiskt bestämd och som har ett visst utseende. Normalfördelningen är perfekt symmetrisk.
Figur 2.3.
© Horst Löfgren
Exempel på olika fördelningar i jämförelse med normalfördelningen
19
För att visa tillvägagångssättet vid beräkning av median, medelvärde och
standardavvikelse ges följande exempel: I en grupp individer observerades
följande resultat på ett test (här presenterade i ordning från sämsta till bästa
resultat):
1,2,2,2,3,3,3,3,3,4,4,4,4,4,5,5,5,5,5,5,5,5,6,6,6,6,6,6,7,7,7,7,8,8,9,9
Redovisa resultatet i en frekvenstabell och beräkna medianvärdet, medelvärdet och standardavvikelsen för gruppen!
Eftersom vi i exemplet ovan har 36 observationer blir medianvärdet genom
snittet av observation nr 18 och nr 19. Då båda observationerna har värdet
5 blir medianen 5. Kvartilavståndet är 2,5 (P75=6 och P25 ligger mellan 3
och 4, dvs. 3,5) och således kvartilavvikelsen 1,25. För att beräkna medelvärdet och standardavvikelsen används formlerna 2.1 och 2.4.
Frekvenstabell
Variabelvärde Frekvens Kumulativ Relativ
x
f
frekvens
frekvens i %
1
2
3
4
5
6
7
8
9
Totalt
1
3
5
5
8
6
4
2
2
1
4
9
14
22
28
32
34
36
36
100
2,8
8,3
13,9
13,9
22,2
16,7
11,1
5,6
5,6
f .x
f . x2
1
6
15
20
40
36
28
16
18
1
12
45
80
200
216
196
128
162
180
1040
fxi
180
M = ____ = ____ = 5,0
n
36
s=
20
fx)2
fx2 - _____
n
___________________
n–1
2
180
____
36
____________________
1040 =
35
= 2,00
© Horst Löfgren
2.2
Grafisk framställning
Det kan många gånger vara lämpligt att åskådliggöra de data som samlats
in grafiskt. Olika former av diagram kan till läsaren överföra information
om observationsmaterialets utseende. Det finns olika typer av diagram,
som då kan användas. Bra diagram är de som överför korrekt information
till läsaren. I diagram med en horisontell och en vertikal axel (x- och yaxel) anges vanligtvis mätskalan på den horisontella axeln och frekvensen
på den vertikala.
Ruta 2.2. Några lämpliga typer av diagram
a) Stolpdiagram
frekvens
x
b) Histogram
frekvens
x
c) Frekvenspolygon
frekvens
x
© Horst Löfgren
21
Vid nominalskala, dvs. när man har frekvenser av olika kategorier, används stolpdiagram (stapeldiagram). Höjden i varje stapel anger frekvensen av de olika kategorierna. Stolpdiagram är även lämpligt att använda
vid diskreta variabler. Med diskret variabel menas en variabel, som endast
kan anta vissa värden.
Vid kontinuerliga variabler, dvs. variabler som kan anta ett obegränsat
antal värden, används histogram eller frekvenspolygon. Även vid klassindelat material, beroende på stort antal variabelvärden, används dessa
båda diagram. Om man sammanbinder klassmittpunkterna i ett histogram
och därvid börjar och slutar på x-axeln erhålls en frekvenspolygon.
I SPSS kan man ange vilken skalnivå man har på sina mätvärden; nominal,
ordinal eller intervall/kvot (de sistnämnda kallas i SPSS för Scale). Man
kan dessutom erhålla flera andra typer av diagram. Om man har data på
intervall- eller kvotskalenivå (Scale i SPSS) kan man till sitt histogram
begära att normalfördelningskurvan läggs in.
2.3
Sambandsmått - Korrelation
Det finns flera olika mått på relationer mellan variabler. Valet av sambandsmått beror på typ av skala på respektive variabel. Om vi studerar
sambandet mellan två intervall- eller kvotskalerade variabler används
Pearson's produkt-moment korrelation. Denna metod används också vid
approximativt normala fördelningar, även om de studerade variablerna
egentligen endast är på ordinalskalenivå. Om båda variablerna är av ordinalskaletyp används i stället Spearman's rangkorrelation. Skulle båda variablerna vara nominalskalerade, dvs. kategorivariabler används Cramérs
index (jfr avsnitt 4.4.2). Om båda variablerna är dikotoma är phikoefficienten det mått man använder för att uttrycka sambandet. För kombinationer av variabler på olika skalnivå finns speciella korrelationskoefficienter. En sådan, som redan här kan nämnas, är eta. Den används för att
uttrycka sambandet mellan en kategorivariabel (nominalskala) och en kontinuerlig variabel (jfr avsnitt 3.11.2).
En korrelation mellan två variabler säger ingenting om orsak-verkan relationen. Relationen mellan variabler kan mycket väl vara av kausalt slag,
men korrelationskoefficienten säger ingenting om den saken. Inom sam-
22
© Horst Löfgren
hällsvetenskaperna är det ofta så att kausala relationer är sällsynta. Ofta är
de ting vi studerar mycket komplexa och relationerna mellan variabler
likaså.
Många gånger kan det behövas något beskrivande mått på hur två variabler
är relaterade till varandra för en given grupp individer. Vi kan exempelvis
vara intresserade att studera sambandet mellan vissa läraregenskaper och
elevbeteenden. Många sådana sambandsstudier inom lärarlämplighetsforskningen har genomförts, tyvärr oftast med magert resultat. Finns det,
för att nämna ett annat exempel, samband mellan resultat på skolmognadsprov och senare framgång i skolan? Hur är relationen mellan social bakgrund och rekrytering till högre studier? Hur väl kan ett antal prediktorer
predicera framgång i högre studier?
2.3.1
Pearson's produkt-moment korrelation
Data har insamlats från 12 elitdomare i fotboll. Bl.a. har man registrerat
deras längd och vikt. Vi är intresserade att studera sambandet mellan resultaten på dessa båda variabler. Eftersom båda variablerna är typiska kvotskalor, väljer vi Pearson’s produkt-momentkorrelation.
Tabell 2.1. Resultat av längd- och viktmätning av 12 elitdomare
____________________________________________________________
Individ Längd Vikt
Individ Längd Vikt
cm
kg
cm
kg
____________________________________________________________
A
175
80
G
178
73
B
191
75
H
186
90
C
169
64
I
177
71
D
184
78
J
181
81
E
195
85
K
188
78
F
172
63
L
180
70
____________________________________________________________
Utifrån data som presenteras i Tabell 2.1 kan man göra upp ett s.k. prickdiagram (Scattergram i SPSS). Det innebär att varje individs resultat på de
två variablerna inprickas i ett koordinatsystem.
© Horst Löfgren
23
195,00
190,00
Längd
185,00
180,00
175,00
170,00
165,00
60,00
65,00
70,00
75,00
80,00
85,00
90,00
Vikt
Figur 2.4.
Prickdiagram över resultatet på längd och viktmätning
Av prickdiagrammet framgår att det finns ett påtagligt samband mellan
längd och vikt. Långa personer väger mer och kortvuxna mindre. Dock
stämmer inte detta perfekt. Den som väger mest är inte den som är längst.
Om ett högt resultat på den ena variabeln korresponderar med ett högt
resultat på den andra variabeln, och ett lågt resultat på den ena variabeln
korresponderar med ett lågt resultat på den andra variabeln leder detta till
ett högt positivt samband. Vi kan visa detta genom att uttrycka varje observation som en avvikelse från sitt gruppmedelvärde (xi - Mx) och (yi My). Om en individ har ett högt värde på båda variablerna, som exempelvis
domare E, blir produkten (xE - Mx).(yE - My) hög och positiv. På samma
sätt blir produkten hög och positiv om en individ har lågt resultat på båda
variablerna (produkten av två negativa tal blir positiv). Om detta gäller för
de flesta individerna (högt värde paras med högt och lågt värde paras med
24
© Horst Löfgren
lågt) blir summan av alla produkterna (xi - Mx).(yi - My) hög och positiv.
Skulle variablerna x och y ha en motsatt relation (högt värde parad med
lågt y-värde och vice versa) leder detta till att vi får en negativ och en positiv term, vilket leder till att produkten blir negativ. Summan av produkterna över samtliga individer blir då hög, men negativ.
Finns det slutligen inte någon systematisk relation mellan variablerna x
och y erhålls ibland positiva avvikelser och ibland negativa avvikelser.
Produkterna för dessa avvikelser (xi - Mx).(yi - My) blir då ibland positiva
och ibland negativa. Summerar vi över alla individer erhålls en summa
nära noll.
För att summor i olika sambandsundersökningar ska kunna jämföras måste
man ta hänsyn till antalet produkter, dvs. till antalet individer. Därför dividerar vi summan av produkterna med n - 1. Denna genomsnittliga produkt
kallas kovariansen av x och y.
 (xi - Mx)(yi - My)
Kovxy = _________________
n-1
(formel 2.5)
Eftersom vi nu övergått till observationernas avvikelser från Mx respektive
My har vi därmed kommit förbi olägenheten med att variablerna har olika
medelvärden.
Kovariansen av x och y är således oberoende av variablernas medelvärden.
Fortfarande är dock standardavvikelsen för respektive variabel betydelsefull. För att vi ska erhålla ett standardiserat mått på överensstämmelsen
mellan två variabler, dividerar vi kovariansen med standardavvikelserna
för de båda variablerna. Detta mått på sambandet mellan x och y kallas för
Pearson's produkt-moment korrelation (rxy).
Kovxy
(xi - Mx)(yi - My) / (n - 1)
rxy = _______ = __________________________________ (formel 2.6)
sx.sy
 (xi - Mx)2 / (n - 1) .  (yi - My)2 / (n - 1)

Efter förkortning med (n - 1) erhålls:
© Horst Löfgren
25
 (xi - Mx)(yi - My)
rxy = __________________________
(xi - Mx)2 . (yi - My)2
(formel 2.7)
Som exempel på uträkning av rxy väljer vi observationerna från tabell 2.1.
För att beräkningarna av rxy ska bli enklare att genomföra kan formel 2.7
transformeras till följande:
xy
xy - ______
n
rxy = ____________________________
(x)2
(x)2
_____
2
_____
(x2 ) (y )
n
n
(formel 2.8)
Tabell 2.2. Resultat av längd- och viktmätning av 12 elitdomare
____________________________________________________________
Individ Längd (x)
Vikt (y)
x. y
x2
y2
____________________________________________________________
A
175
80
14000
30625
6400
B
191
75
14325
36481
5625
C
169
64
10816
28561
4096
D
184
78
14352
33856
6084
E
195
85
16575
38025
7225
F
172
63
10836
29584
3969
G
178
73
12994
31684
5329
H
186
90
16740
34596
8100
I
177
71
12567
31329
5041
J
181
81
14661
32761
6561
K
188
78
14664
35344
6084
L
180
70
12600
32400
4900
____________________________________________________________
Summa
2176
908
165130 395246 69414
____________________________________________________________
26
© Horst Löfgren
Enligt formel 2.8 erhålls:
2176 . 908
165130 - __________
12
rxy = ________________________________
= 0,698
21762
9082
(395246 - _____ ) (69414- _____ )
12
12
Produkt-moment korrelationen mellan de båda variablerna, längd och vikt
är för dessa personer 0,70. Korrelationen i kvadrat kallas determinationskoefficient och ger andel gemensam varians i de båda variablerna. Den
anger proportion av varians i den ena variabeln, som bestäms av relationen
med den andra variabeln. Sålunda är 49 % (0,702) gemensam varians.
Figur 2.5.
2.3.2
Andel gemensam varians mellan två variabler (x och y), vars
korrelation är 0,70
Tolkning av olika värden på korrelationen
Korrelationskoefficienten rxy kan endast anta värden mellan +1,0 och -1,0.
Högsta möjliga samband är således +1,0 och även -1,0. Det sistnämnda är
ett perfekt negativt, eller omvänt samband (jfr Ruta 2.3).
Vad som avses med ett högt respektive lågt samband bör naturligtvis relateras till vilka variabler det gäller och vad som tidigare är kända förhållanden om relationen mellan dessa variabler. Det kan här också påpekas att
lineära transformationer av x och/eller y inte kan påverka korrelationens
storlek; rxy är ju ett standardiserat mått.
© Horst Löfgren
27
Ruta 2.3. Tolkning av några olika värden på rxy
28
© Horst Löfgren
2.3.3
Samband mellan variabler på selekterade
grupper
Om man studerar samband mellan variabler och där någon av variablerna
har begränsad variationsvidd, t.ex. beroende på att det är en selekterad
grupp av individer, blir korrelationskoefficienten lägre än om man observerat hela gruppen. Efter nedanstående figur följer ett förklarande exempel.
Figur 2.6.
Samband mellan ett verbalt begåvningstest och ett allmänt
språkfärdighetstest i engelska
Exempelvis fann man i några språkfärdighetsstudier, att sambandet mellan
ett verbalt begåvningstest och ett antal språkprov på ett främmande språk
var måttligt eller till och med ganska lågt i en grupp gymnasieelever. Detta
© Horst Löfgren
29
innebär emellertid inte att sambandet mellan begåvningstest och språkfärdighetstest är lågt för alla individer. Ovannämnda resultat erhölls för en
selekterad grupp av gymnasieelever på humanistisk linje. Eftersom elever
med relativt höga resultat på verbala begåvningstest väljer gymnasieskolans humanistiska linje blir korrelationskoefficienten mellan provresultat
och begåvning ganska låg för dessa elever. Förhållandet kan belysas med
hjälp av en tänkt sambandsplott (Figur 2.6).
2.3.4
Linjära och icke-linjära samband
Produkt-moment korrelationen rxy mäter endast linjära relationer mellan x
och y. Om man däremot erhåller en korrelationsplott som inte är avvikelser
från en rät linje, talar vi om kurvlinjära samband.
Figur 2.7.
Exempel på kurvlinjärt samband
Om man beräknar rxy på ovanstående, skulle man få ett värde ungefär
rxy= 0. Som framgår av figuren finns det emellertid ett påtagligt samband.
Låga värden på x har höga värden på y, medelhöga värden på x har låga
värden på y och höga värden på x har höga värden på y. Variationer av
kurvlinjära samband kan även erhållas på grund av egenskaper hos testet.
Test som ger tak eller botteneffekter kan ge sådana här effekter. I situationer av det här slaget måste man använda sig av andra sambandsmått än
rxy, t.ex. korrelationskvoten eta-kvadrat.
Sammanfattningsvis kan sägas att produkt-moment korrelationer används
då man har båda variablerna på lägst intervallskalenivå, dvs. har två approximativt normalfördelade variabler.
30
© Horst Löfgren
2.3.5
Spearman's rangkorrelation
I de fall båda mätvariablerna är ordinalskalerade används Spearman's rangkorrelation (rrho). Data kan vara direkt rangordnade eller rangordnade
efter de värden som erhållits vid mätningarna. Vi väljer som exempel på
beräkning av rangkorrelation data från två olika tentamina för 15 högskolestuderande.
6 d2
rrho = 1 - ________ , där d= differenserna mellan rangtalen (formel 2.9)
n ( n2 - 1)
Tabell 2.3. Exempel på beräkning av rangkorrelation mellan två provresultat, T1 och T2
____________________________________________________________
Student T 1 T 2 Rang T1
Rang T2
d
d2
____________________________________________________________
A
20
30
2
1
1
1
B
11
15
12
14
-2
4
C
12
19
11
10,5
0,5
0,25
D
10
19
14
10,5
3,5
12,25
E
18
27
4,5
2
2,5
6,25
F
10
11
14
15
-1
1
G
17
20
6
8
-2
4
H
18
25
4,5
4,5
0
0
I
10
17
14
13
1
1
J
14
20
9
8
1
1
K
16
21
7
6
1
1
L
13
18
10
12
-2
4
M
15
20
8
8
0
0
N
22
25
1
4,5
-3,5
12,25
O
19
26
3
3
0
0
____________________________________________________________
0
48
____________________________________________________________
6 . 48
___________
rrho = 1 = 0,91
15 (225 - 1)
© Horst Löfgren
31
Vi har sålunda funnit en mycket hög överensstämmelse mellan de två tentamensresultaten. Rangkorrelationen kan variera mellan -1,0 och 1,0. Om
man har många s.k. ties, dvs. flera observationer med samma rangtal, bör
man använda en viss korrektion för detta.
2.4
Den standardiserade
normalfördelningen; z-poäng
Med hjälp av olika central- och spridningsmått kan man beskriva utseendet
i ett observationsmaterial. Det kan ibland vara nödvändigt att beskriva var
i en fördelning som en enskild observation är belägen. Per har på ett test i
statistik erhållit 40 poäng, medan Anders på ett annat statistiktest erhållit
30 poäng. Kan man jämföra dessa båda resultat? Om man känner till kursdeltagarnas genomsnittsresultat på de båda testen får man viss information.
Är standardavvikelserna också kända har man tillräcklig information för
att göra en jämförelse mellan de båda testresultaten. Ett enkelt sätt är att
överföra testresultaten till en gemensam skala. Vi gör därför en skaltransformation till z-skalan, vars egenskaper är kända. En z-poäng anger avståndet mellan det erhållna resultatet och gruppens medelvärde uttryckt i
standardavvikelseenheter.
xi - µ
z = ______

Figur 2.8.
32
(formel 2.10)
Den standardiserade normalfördelningen z
© Horst Löfgren
Om Per erhållit 40 poäng på ett test vars medelvärde är 30,0 och standardavvikelse 10,00 blir hans resultat uttryckt i z-poäng 1,0. Antag att Anders
erhållit 30 poäng på ett test med medelvärdet 24,0 och standardavvikelsen
5,00. Uttryckt i z-poäng blir det senare resultatet 1,2 vilket är något bättre
än Pers resultat.
Som framgår av formeln är medelvärdet i z-skalan 0 och standardavvikelsen 1. Man kan således alltid transformera ursprungliga råpoängsresultat
till denna standardiserade skala. Resultat uttryckt i z-poäng kallas standardpoäng. Den standardiserade normalfördelningen finns tabellerad i
Appendix (Tabell B). Om testpoängen på det test som Per erhållit 40 poäng är normalfördelade, finns i populationen endast 15,9 % som är bättre
än Per.
2.5
Regression
Om vi känner en individs resultat på variabel x kan vi skatta (eller förutsäga) resultatet på variabel y utifrån kännedom om relationen mellan x och
y. Här ges några exempel på frågeställningar för att belysa denna s.k.
regressionsskattning.
1 Hur väl kan vi förutsäga studieresultat utifrån resultat på skolmognadstest?
2 Hur väl kan vi predicera framgång i yrket utifrån vissa anlags- och
lämplighetstest?
3 Hur väl kan vi skatta en individs resultat på ett hörförståelseprov utifrån
data från ett läsförståelseprov?
För att kunna skatta (predicera) resultat på y utifrån x måste vi känna till
relationen mellan x och y. Den variabel vi skattar kallas beroende variabel,
och den variabel vi skattar utifrån kallas oberoende variabel eller prediktor.
Relationen mellan x och y erhålls via en sambandsberäkning (rxy). Efter
att sambandet är beräknat kan detta senare användas vid regressionsskattningar. Innan vi matematiskt bestämmer skattningen av y utifrån x kan vi
belysa innebörden av regression med hjälp av Figur 2.9.
© Horst Löfgren
33
Resultatet i Figur 2.8 erhölls i en undersökning i vilken 67 individer deltog. Om vi nu vet förtestresultatet (x) på ytterligare en individ, vad blir då
den bästa skattningen av denna individs eftertestresultat (y)? Vilken är den
bästa skattningen av y, då vi vet att individ NN erhållit 11 poäng på x?
I det här exemplet tänker vi oss att det inte skett någon förbättring av resultaten från förtest till eftertest. Av resultatet ser vi att alla deltagarna inte
erhållit samma resultat på för- och eftertestet, trots att ingen förändring
skett. Som framgår av resultatet har 4 individer på förtestet erhållit 10 poäng. Dessa fyra har på eftertestet erhållit 10, 11, 12 resp. 13 poäng. Vidare
har på förtestet 6 individer erhållit 11 poäng. På eftertestet har dessa erhållit 10, 11, 12 (2 individer), 13 resp. 14 poäng. Genomsnittet av de 6 individer som erhållit 11 poäng på förtestet är således 12 poäng på eftertestet.
y
regressionslinje x.y; bästa
prediktionen från eftertest
till förtest
Eftertestresultat
16
1
1
1
1
1
1
3
1
1
1
2
4
4
2
1
1
15
14
13
1
1
4
7
4
1
12
1
2
4
4
2
1
11
1
1
2
1
1
10
1
1
1
1
regressionslinje y.x; bästa
prediktionen från förtest
till eftertest
x
10
Figur 2.9.
11
12
13
14
15
16
Förtestresultat
Exempel på regressionslinjer och regressionsskattning
Om man nu har ytterligare en individ, som vi vet har erhållit 11 poäng på
förtestet men som inte var med på eftertestet, så blir den bästa gissningen
att denna individ skulle ha erhållit 12 poäng på eftertestet. Det är möjligt
att denna gissning inte är korrekt, men mot bakgrund av vad vi vet om
resultaten så blir det den bästa prognos man kan göra. Den bästa skattningen måste bli längs linjen som går genom medelvärdet av y på respektive x34
© Horst Löfgren
poäng. Denna linje kallas regressionslinjen y.x (utläses y på x) och kan
matematiskt bestämmas via den räta linjens ekvation y = a + bx.
Observera att enligt regressionsskattningen erhåller individer som har ett
lågt resultat på förtestet oftare ett bättre resultat på eftertestet och individer
som har ett högt resultat på förtestet erhåller ett sämre resultat på eftertestet. Vad kan detta bero på, dvs. att sådana här s.k. regressionseffekter
uppstår? Jo, det beror på att vi inte har helt mätsäkra test. Om man på basis
av extremvärden tar ut individer kommer sådana här effekter att uppstå,
om det finns reliabilitetsbrister i mätinstrumenten. Detta bör man ha i
åtanke om man jämför grupper som uttagits på basis av extremvärden
(t.ex. vid experiment som utnyttjar matchningsförfarande).
Tabell 2.4. Data för bestämning av regressionslinjen y.x (oberoende variabel är IQ-poäng i åk 8; beroende variabel är matematikpoäng
i åk 9)
____________________________________________________________
Individ
x
y
____________________________________________________________
A
95
33
B
100
31
C
100
35
D
102
38
x = 2165
E
103
41
y = 824
F
105
37
x2 = 235091
G
106
37
y2 = 34442
H
106
39
xy = 89715
I
106
43
sx = 6,198
J
109
40
sy = 5,095
K
110
41
n = 20
L
110
44
rxy = 0,862
M
111
40
rxy2= 0,743
N
112
45
O
112
48
P
114
45
Q
114
49
R
115
47
S
117
43
T
118
48
____________________________________________________________
© Horst Löfgren
35
I Tabell 2.4 ovan ges ett exempel där regressionslinjen y.x kan beräknas.
Den räta linjens ekvation y = a + bx kan nu användas. Linjens lutning bestäms av ”b” och kallas regressionskoefficient, medan ”a” är en additiv
konstant, som säger var regressionslinjen korsar y-axeln. Regressionskoefficienten by.x kan beräknas via formel 2.11 eller direkt (utan att ha bestämt
rxy) via formel 2.12.
Beräkning av regressionslinje och skattningens medelfel:
sy
by.x = ___ . rxy
sx
5,095
(här by.x = _____ . 0,861 )
6,198
x y
xy - ______
n
by.x = _______________
(x)2
x2 - _____
n
(formel 2.11)
(formel 2.12)
I exemplet kan by.x beräknas till 0,708.
2165 . 824
89715 - _________
20
by.x = __________________ = 0,708
21652
______
235091 20
Konstanten ”a” beräknas via a = My - bMx, vilket ger
824
2165
a = ____ - 0,708 (_____ ) = - 35,491
20
20
Skattningen av y kan således bestämmas via regressionslinjen y.x enligt
yest = 0,708x - 35,491
Med kännedom om x kan nu y bestämmas. Om x=100 blir y=35,309 och
om x=110 blir y=42,389. Självfallet kan vi inte säga att denna skattning av
36
© Horst Löfgren
y är det sanna värdet av y för denna individ. Vi får alltid räkna med ett
visst fel ”e”.
yi = a + bxi + ei , varvid ei är skillnaden mellan det sanna y-värdet och det
skattade y-värdet.
ei = yi – yiest
Med ovanstående formler för beräkning av regressionslinjen har vi med
hjälp av den s.k. minsta kvadratmetoden minimerat e. Standardavvikelsen i
skattningsfelet se kallas skattningens medelfel och kan beräknas med hjälp
av formeln:
se =
(y)2
(1 - r2) ssy
__________
, där ssy = (y2 - _____ )
n-2
n
(formel 2.13)
För stora stickprov (n > 50) kan formeln förenklas till se = sy
1-r2
I detta exempel blir skattningens medelfel:
se =
8242
(1-0,743) (34442 - ____ )
20
_______________________
18
= 2,655
För att använda ovanstående beräkningar krävs dock att vissa förutsättningar är uppfyllda (se Figur 2.10):
1. Populationsmedelvärdena för y för varje x-värde ska ligga längs en
rät linje.
2. För varje x-värde ska y-värdena normalt fördelade.
3. För varje värde på x har dess y-värden variansen 2y.x och denna
varians ska vara lika för samtliga x-värden (s.k. homoscedasticitet).
© Horst Löfgren
37
Figur 2.10. Förutsättningar för regressionsskattning
2.6
Multipel korrelation och multipel
regression
Syftet med multipel regression är att kunna skatta en beroende variabel Y
utifrån en kombination av de oberoende variablerna X1, X 2, ... Xm. Likaväl som man vid två variabler kan beräkna den univariata estimationen
med hjälp av ekvationen Yest= a + bx, kan man vid flera variabler göra en
multivariat prediktion av Y. Härvid använder man sig också av minsta
kvadratmetoden enligt nedanstående formel:
Yest = b0 + b1x1+ b2x2+ ... + bmxm
(formel 2.14)
Detta är den multipla linjära regressionsekvationen. En produkt-moment
korrelation mellan Y och Yest säger hur väl den bästa linjära viktningen av
de oberoende X1, X 2, ... Xm predicerar eller korrelerar med den beroende
variabeln Y. Detta kallas för den multipla korrelationskoefficienten och
skrivs Ry.1,2,..,m.
Observera att viktkoefficienterna maximerar korrelationen med Y, vilket
också innebär att slumpfel utnyttjas. Om man i en undersökning erhållit en
38
© Horst Löfgren
multipel korrelation av en viss storleksordning efter viktning av Xvariablerna, bör man före generalisering av sambandsresultatet göra en s.k.
korsvalidering. Detta är speciellt väsentligt om man har relativt få individer i förhållande till antalet X-variabler. Vid korsvalidering kan man utnyttja de vid första undersökningstillfället erhållna viktkoefficienterna på
ett nytt stickprov för att kontrollera att den multipla korrelationen inte
minskat alltför kraftigt. Självfallet bör den minska något, eftersom slumpen är osystematisk.
I en undersökning av elever i årskurs 9 hade man studerat deras föräldrars
utbildningsbakgrund, antalet syskon och hur många års utbildning de räknade med efter grundskolan. Nu önskade man ta reda på det multipla sambandet mellan mammans utbildningsbakgrund (X1) samt antalet syskon
(X2) och antal förväntade studieår (Y). Ett annat sätt att ställa frågan på är
om man utifrån mammans utbildningsbakgrund (X1) samt antalet syskon
(X2) kan predicera antal förväntade studieår (Y). Avsnittet rubriceras multipel regression, men kunde också ha rubricerats multipel prediktion. Relationerna mellan variablerna redovisas i nedanstående tabell.
Tabell 2.5. Interkorrelationer, medelvärden och standardavvikelser
____________________________________________________________
1
2
Y
M
s
____________________________________________________________
X1 Mammans utbildning 1,000
2,923
1,078
X2 Antal syskon
-0,509
1,000
2,359
1,227
Y Antal studieår
0,674 -0,489
1,000
4,064
2,116
____________________________________________________________
Korrelationskoefficienten mellan antalet studieår (Y) och de från mammans utbildningsbakgrund och antalet syskon (X1; X2) predicerade antalet
studieår (Yest) är den multipla korrelationen Ry.1,2. Om korrelationerna
ry1, ry2 och r12 är kända erhålls den multipla korrelationen enligt följande
formel:
Ry.1,2 = b1.ry1 + b2.ry2
(formel 2.15)
där b1 och b2 erhålls ur
ry1 - ry2.r12
b1 = ____________ ;
1 - r212
© Horst Löfgren
ry2 - ry1.r12
b2 = ____________
1 - r212
39
I ovanstående exempel blir värdena på b1 och b2 för prediktion av standardpoängen Y från standardpoängen X1 och X2:
0,674 - (-0,489.-0,509)
-0,489 - (0,674.-0,509)
___________________
__________________
b1 =
= 0,573; b2=
= -0,197
1 - (-0,509)2
1 - (-0,509)2
Att vi här talar om standardpoäng beror på att vi använder korrelationer
som ju är standardiserade (jfr formel 2.6). Sålunda blir den bästa skattningen av standardpoängen av Y (zy) utifrån standardpoängen av X1 och
X2 (z1 och z2):
zyest = 0,573z1 - 0,197z2
Den multipla korrelationen Ry.1,2 erhålls enligt:
Ry.1,2 = b1ry1 + b2ry2 =  0,573.0,674 + (-0,197.-0,489) = 0,695
För att erhålla den multipla prediktionsekvationen för råpoäng (ostandardiserade värden) utförs följande operation:
sy
sy
sy
sy
Yest = (b1___ )X1 + (b2___ ) X2 + (My - b1___ Mx1 - b2___ Mx2)
s1
s2
s1
s2
Detta ger följande regressionsekvation:
Yest = 1,125X1 - 0,340X2 + 1,578
Som framgår av den multipla korrelationens värde är denna endast aningen
högre än det enkla sambandet mellan mammans utbildning och antalet
förväntade studieår. Den högsta ökningen av prediktionsförmågan av Y
med två oberoende variabler X1 och X2 får man exempelvis om dessa
båda oberoende variabler korrelerar positivt med den beroende variabeln,
men sinsemellan korrelerar negativt.
För att man ska kunna tolka viktkoefficienterna b1 och b2 bör man se på
de standardiserade värdena. Viktkoefficienterna i regressionsekvationen
för råpoäng blir ju beroende av respektive variabels medelvärde och standardavvikelse. I vårt exempel ovan är det inte så stor skillnad i relationen
40
© Horst Löfgren
mellan b1 och b2 för standardiserade respektive ostandardiserade värden,
eftersom mätskalorna har ganska lika M och s. I en av resultattabellerna
(Coefficients) får man både viktkoefficienterna på råpoäng och standardiserade poäng. I tabellen ges även t-värden och probabilitetsvärden som ger
information för tolkningen av resultatet (jfr kap 3).
2.6.1
Stegvis regressionsanalys
När det gäller regressionsanalys finns olika möjligheter. Förutom att i
regressionsekvationen ta med samtliga prediktorer (X-variabler) kan man
”stega in” variablerna i en viss ordning för att endast ta med de som signifikant bidrar till prediktionen. Om vi utnyttjar det föregående exemplet
kommer en stegvis regressionsanalys innebära att den variabel som högst
korrelerar med kriterievariabeln stegas in först. Därefter korrigeras övriga
prediktorer genom att de rensas från den del av variationen som redan tagits med, när den första variabeln stegats in. Man partialiserar ut den del
från övriga variabler, som redan är predicerad i kriterievariabeln. Utifrån
de partialkorrelationer som nu är beräknade, stegas den variabel in som nu
är högst korrelerad med kriterievariabeln. Nya partialkorrelationer beräknas, dvs. den del som de två första prediktorerna bidragit med partialiseras
ut, och den variabel som nu korrelerar högst med Y-variabeln stegas in.
När alla variabler som signifikant bidrar till prediktionen finns med, är
analysen klar och regressionsekvationen redovisas och likaså den multipla
korrelationen.
2.6.2
Ett exempel på linjär multipel regression och
stegvis multipel regression
Nedan redovisas resultatet av en regressionsanalys i SPSS med data från
en av övningsfilerna (IEA9) till boken. I detta exempel är vi intresserade
att se om man utifrån föräldrarnas utbildningsbakgrund och elevens betyg i
uppsatsskrivning kan predicera antal år av fortsatt utbildning, som eleven
tänker sig. Det är mycket tveksamt om man kan använda utbildningsbakgrund som en prediktor med tanke på hur denna är skapad. Hade man i
stället haft tillgång till data som säger hur många års utbildning föräldrarna
har, skulle det vara mycket bättre, men som ett belysande exempel tillåter
vi oss att använda de data som finns insamlade.
© Horst Löfgren
41
I den sammanfattade översikten (Model Summary) finns den multipla korrelationen beräknad 0,436. Här finns också den kvadrerade multipla korrelationen, vilken anger proportionen förklarad varians i den beroende variabeln. Utifrån de tre prediktorerna kan vi således predicera 19 % av variansen i variabeln antal förväntade studieår. Eftersom den kvadrerade multipla
korrelationen ökar ju fler prediktorer man har i förhållande till antalet observationer, kan man ibland ha anledning att utnyttja den justerade multipla korrelationen (i det här fallet 0,179). Om man t.ex. vill jämföra resultat från olika undersökningar med olika antal prediktorer kan det justerade
värdet vara att föredra. Det är s.a.s. ett mer återhållsamt värde som inte
överskattar den multipla korrelationen. Observera dock att man alltid
måste ha betydligt fler observationer än antalet prediktorvariabler i en multipel regressionsanalys. Ett bra riktvärde är att ha 10 gånger så många observationer som antalet variabler i analysen. Om man har alltför få observationer får mätfelen, som också viktas in, alltför stor betydelse och man
får en överskattning av den multipla korrelationen.
ANOVA-tabellen visar att de tre prediktorerna tillsammans högst signifikant bidrar till prediktionen av kriterievariabeln. Om F-testet inte skulle
vara signifikant, innebär det att den multipla korrelationen inte säkert är
skild ifrån 0.
I den nedersta tablån (Coefficients) ges den multipla regressionsekvationen
för råpoäng och de standardiserade betavikterna (Beta). De två högra kolumnerna säger hur signifikant bidraget är från de tre oberoende variablerna. Betyget i uppsatsskrivning bidrar mest till prediktionen. Även pappans
utbildning bidrar signifikant till prediktionen. Däremot bidrar ej mammas
utbildning signifikant till prediktionen av kriterievariabeln ”Antal år av
fortsatt utbildning”. Observera dock att inte endast skaleringen av föräldrarnas utbildning är tveksam utan även att vi har ett mycket stort bortfall
som gör att stickprovet knappast längre är representativt för populationen.
Ungdomarna i denna studie kanske inte vill svara på frågor om föräldrautbildning, men framför allt är det nog så, att det faktiskt många som inte vet
vilken utbildning föräldrarna har.
Innebörden av t-värden, ANOVA, F-kvot och probabilitetsvärden presenteras i kapitel 3.
42
© Horst Löfgren
Model Summary
Model
1
R
,436a
R Square
,190
Adjusted
R Square
,179
St d. Error of
the Estimate
1,895
a. Predictors: (Constant), BETYG PÅ UPPSATSEN,
MODERNS UTBILDNING, FADERNS UTBILDNING
ANOVAb
Model
1
Regression
Residual
Total
Sum of
Squares
179,489
764,704
944,194
df
3
213
216
Mean
Square
59,830
3,590
F
16,665
Sig.
,000a
a. Predictors: (Const ant ), BETYG PÅ UPPSATSEN, MODERNS
UTBILDNING, FADERNS UTBILDNING
b. Dependent Variable: ANTAL ÅR FORTSATT UTBILDNING
Coeffici entsa
Model
1
(Constant)
MODERNS
UTBILDNING
FADERNS
UTBILDNING
BETYG PÅ
UPPSATSEN
Unstandardized
Coef f icients
Std.
B
Error
1,443
,473
Standardized
Coef f icients
Beta
t
3,051
Sig.
,003
,075
,083
,066
,902
,368
,222
,075
,216
2,948
,004
,648
,133
,305
4,856
,000
a. Dependent Variable: ANTAL ÅR FORTSATT UTBILDNING
I de följande resultattablåerna visas resultatet av en stegvis multipel
regression på samma data (Method: Stepwise i stället för Enter i SPSS).
Eftersom betyget i uppsatsskrivning korrelerar högst med den beroende
variabeln stegas denna in först. Därefter kontrolleras om det bland de öv© Horst Löfgren
43
riga variablerna (i detta fall pappans och mammans utbildning) finns något
som ytterligare kan bidra till prediktionen av den beroende variabeln, dvs.
utöver vad den första variabeln redan har bidragit med. För detta använder
programmet partialkorrelationsberäkningar. Som framgår av resultatet
finns något mer att ta in utöver betyget i uppsatsskrivning. Således stegas
pappans utbildning in i steg 2 och därmed är analysen klar, eftersom den
tredje variabeln inte signifikant bidrar till prediktionen. I den sista resultattablån ges vikterna för regressionsekvationen, både viktkoefficienterna för
råvärden och de standardiserade betavärdena.
Model Summary
Model
1
2
R
,356a
,432b
R Square
,126
,187
Adjusted
R Square
,122
,179
St d. Error of
the Estimate
1,959
1,894
a. Predictors: (Constant), BETYG PÅ UPPSATSEN
b. Predictors: (Constant), BETYG PÅ UPPSATSEN,
FADERNS UTBILDNING
ANOVAc
Model
1
2
Regression
Residual
Total
Regression
Residual
Total
Sum of
Squares
119,435
824,758
944,194
176,568
767,626
944,194
df
1
215
216
2
214
216
Mean
Square
119,435
3,836
88,284
3,587
F
31,135
Sig.
,000a
24,612
,000b
a. Predictors: (Const ant ), BETYG PÅ UPPSATSEN
b. Predictors: (Const ant ), BETYG PÅ UPPSATSEN, FADERNS
UTBILDNING
c. Dependent Variable: ANTAL ÅR FORTSATT UTBILDNING
44
© Horst Löfgren
Excluded Vari ablesc
Model
1
2
Beta
In
MODERNS
UTBILDNING
,177
FADERNS
UTBILDNING
,250
MODERNS
UTBILDNING
,066
a
a
b
Part ial
Correlation
Collinearity
St at ist ics
Tolerance
t
Sig.
2,785
,006
,187
,974
3,991
,000
,263
,966
,902
,368
,062
,714
a. Predictors in t he Model: (Constant), BETY G PÅ UPPSATSEN
b. Predictors in t he Model: (Constant), BETY G PÅ UPPSATSEN,
FADERNS UTBILDNING
c. Dependent Variable: ANTAL ÅR FORTSATT UTBILDNING
2.6.3
Logistisk regressionsanalys
Logistisk regression är en parallellteknik till linjär regression. Med båda
dessa metoder undersöker man relationen mellan en eller flera oberoende
variabler (prediktorvariabler) och en beroende variabel (utfallsvariabel).
Om den beroende variabeln är nominalskalerad används logistisk regression. I flesta fall är den beroende variabeln dikotom, dvs. har två möjliga
värden (0 och 1), men metoden kan också användas om kategorivariabeln
har fler än två värden. De oberoende variablerna kan vara av olika typ,
både nominalskalerade och kontinuerliga.
För att man ska anpassa en logistisk regressionsmodell till data krävs att
vissa förutsättningar ska vara uppfyllda. Bland annat ska det finnas en
linjär relation mellan oberoende och beroende variabler, dvs. ju högre
skalvärde på en oberoende variabel desto högre ska sannolikheten vara för
att den beroende variabeln har skalvärdet 1 (eller lägre, dvs. skalvärdet 0,
om relationen är negativ). Vidare ska alla observationerna vara oberoende.
© Horst Löfgren
45
I en studie av ungdomar i årskurs 9 fick eleverna svar på om man ibland
skrev ner något bara för att man tyckte det var roligt att skriva. Svarsalternativen var ”Ja” eller ”Nej”. Bland data som samlades in fanns också elevernas betyg i uppsatsskrivning, deras attityder till skrivning, självskattning av skrivförmågan och hur många timmar man vanligen tittade på TV
på skoldagar. Den modell som prövas i nedanstående exempel är om man
utifrån de fyra oberoende variablerna kan predicera elevernas svar på frågan om nöjesskrivning. Resultatet av en logistisk analys med SPSS visas
nedan.
Som framgår av resultatet erhålls ett inte särskilt högt multipelt samband.
Även om man utifrån de valda oberoende variablerna inte särskilt väl kan
predicera om elever skriver för sitt nöjes skull, finns ändå signifikanta
relationer. Attityder till skrivning är den variabel som bäst predicerar nöjesskrivning. Självskattning av skrivförmågan är också signifikant relaterad till nöjesskrivning, likaså TV-tittande om än negativt. Hur bra betyg
man har i uppsatsskrivning bidrar inte signifikant till prediktionen.
Model Summary
St ep
1
-2 Log
Cox & Snell
likelihood
R Square
524,681a
,096
Nagelkerke
R Square
,139
a. Estimation terminat ed at iteration number 4 because
parameter est imat es changed by less than ,001.
Variables in the Equation
Sta ep
1
v 22
v 16
v 18
v 14
Constant
B
,083
,560
,351
-,192
-1,717
S. E.
,122
,137
,156
,096
,560
Wald
,465
16,731
5,059
3,952
9,401
df
1
1
1
1
1
Sig.
,495
,000
,024
,047
,002
Exp(B)
1,087
1,751
1,420
,826
,180
a. Variable(s) entered on step 1: v 22, v 16, v 18, v 14.
46
© Horst Löfgren
2.6.4
Användning av s.k. dummy-variabler
För att få fördjupad förståelse av hur olika nivåer i en oberoende variabel
bidrar till prediktionen av en beroende variabel kan det vara av värde att
omkonstruera den oberoende variabeln till en eller flera s.k. dummyvariabler. Även om det i övningsfilen kanske inte finns något riktigt bra
exempel på en regressionsanalys med dummy-variabler, kan vi ändå genom ett exempel belysa hur man går tillväga.
I vårt exempel vill se om vi utifrån föräldrars utbildning och det erhållna
betyget på uppsatsskrivning kan predicera hur många års utbildning på
heltid eleven framöver beräknar att de ska genomgå. Möjligen skulle man
kunna kalla denna beroende variabel för utbildningsaspiration. Det är ett
rimligt antagande att denna kan prediceras utifrån föräldrars utbildningsbakgrund och resultat på ett språkligt prov. Vi börjar med att omkoda variablerna moderns och faderns utbildningsbakgrund. Det kan vara lämpligt
att låta kategorierna 1-4 erhålla värde 1 (låg utbildning), kategori 5 erhålla
värdet 2 och kategori 6 erhålla värdet 3 (hög utbildning). Efter denna omkodning kan man slå samman moderns och faderns utbildning och därvid
erhålla en ny variabel med variationsvidden 2-6. Denna omkodas i sin tur
så, att värdet 2 blir 1 (lågutbildade), 3-4 blir 2 och 4-5 blir 3 (högutbildade). Som tidigare nämnts finns det tyvärr ett mycket stort bortfall i variablerna moderns och faderns utbildning, varför det ursprungliga stickprovet nu knappast längre är ett representativt urval av svenska grundskoleelever.
Efter dessa omkodningar finns nu ungefär 50 % i grupp 1, 27 % i grupp 2
och 22 % i grupp 3. För att bilda dummy-variabler av denna nya ordinalskalerade variabel med tre grupper krävs ytterligare en omkodning. Variabeln ska nu omkodas så, att vi får två grupper men med behållen informationen från de tre grupperna. Man kan välja vilken som helst av de tre
grupperna som referensvariabel, men förslagsvis använder vi den lågutbildade gruppen som referensgrupp. Dummy-variablerna, som då blir en färre
än den ursprungliga med tre grupper, ska endast ha värdet 0 eller 1. Om vi
skapar en variabel i vilken vi ger medelutbildade värdet 1 och de båda
övriga (låg- och högutbildade) värdet 0 samt en variabel i vilken vi ger
högutbildade värdet 1 och de båda andra värdet 0, har vi skapat två variabler, som innehåller all den information, som vi hade i variabeln med de tre
grupperna. Nu är det dags att utföra en multipel regressionsanalys inkluderande de båda dummy-variablerna. Resultatet av analysen med SPSS visas
nedan.
© Horst Löfgren
47
Model Summary
Model
1
R
,455a
R Square
,207
Adjusted
R Square
,196
St d. Error of
the Estimate
1,874
a. Predictors: (Constant), dumH, BETYG PÅ
UPPSATSEN, dumM
Coeffici entsa
Model
1
(Constant)
BETYG PÅ
UPPSATSEN
dumM
dumH
Unstandardized
Coef f icients
Std.
B
Error
2,055
,449
Standardized
Coef f icients
Beta
t
4,573
Sig.
,000
,625
,133
,295
4,692
,000
,493
1,579
,299
,339
,106
,307
1,650
4,657
,100
,000
a. Dependent Variable: ANTAL ÅR FORTSATT UTBILDNI NG
Visserligen kan endast 20 % av ”antal år av fortsatt utbildning” prediceras från de oberoende variablerna. Som framgår av tabellen ovan
ger medelhög föräldrautbildning inget signifikant bidrag till prediktionen men väl om man har föräldrar med hög utbildning. Om man
endast hade använt den sammanslagna variabeln på föräldrars utbildning, som hade värden mellan 2 och 6, hade man endast kunnat
predicera ca 1 % mer, dvs. obetydligt bättre. Här får vi en bättre förståelse för hur föräldrautbildning är relaterad till den beroende variabeln. Av regressionsekvationen framgår hur många ytterligare år av
utbildning eleverna i grupperna medel- och hög föräldrautbildning
tänker sig i förhållande till gruppen med lågutbildade föräldrar (som
ju vi valde som referensgrupp).
Yest = 2,055 + 0,625X1 + 0,493X2 + 1,579X3
I genomsnitt tänker sig elever gå 0,493 år längre i utbildning än elever med lågutbildade föräldrar och elever med högutbildade föräld48
© Horst Löfgren
rar tänker sig 1,579 års längre utbildning. Genom att bilda dummyvariabler får vi en tilläggsinformation utan att förlora nämnvärt i
prediktionen av den beroende variabeln. Ännu är det lite krångligt
att bilda dessa dummy-variabler i SPSS, men det kanske kan vara
värt besväret.
2.7
Faktoranalys
2.7.1
Vad är faktoranalys?
Faktoranalys är en grupp statistiska metoder, som försöker identifiera
några hypotetiska variabler, som kan förklara utfallet i ett större antal observerade variabler. I många undersökningssammanhang har man behov av
att på olika sätt reducera sin stora mängd av insamlade variabler till ett
mindre antal variabler utan att förlora alltför mycket information.
De flesta teorier eller hypotetiska förklaringsmodeller inom beteendevetenskaperna är uttryckta i termer av teoretiska eller hypotetiska begrepp,
konstruktioner eller s.k. latenta variabler, vilka inte är direkt observerbara
och mätbara. Ofta har man emellertid ett antal indikatorer, som kan användas för att representera den latenta variabeln. När man använder begreppet
”mätmodell” avser man hur bra de valda indikatorerna, dvs. de manifesta
variablerna, fungerar som mätinstrument för den latenta variabeln.
Om vi exempelvis har studerat arbetsmiljön inom en större organisation
och därvid låtit ett stort antal anställda besvara 50 frågor om hur de ser på
sin arbetssituation, kan det vara lämpligt att försöka komma åt det som
ligger bakom deras svar, dvs. reducera antalet frågor på något lämpligt
sätt. Det är knappast troligt att dessa 50 frågor mäter 50 helt olika aspekter
av arbetsmiljön. Det är tvärtom sannolikt så, att man med hjälp av ett antal
frågor försökt att få information om några olika faktorer, som är betydelsefulla inom det övergripande området ”arbetsmiljön”. Det kan t.ex. handla
om att man ställt vissa frågor för att få reda på hur de anställda ser på den
fysiska miljön och andra frågor för att s a s fånga in synpunkter på den
psykosociala miljön. Troligen har man en uppdelning i ytterligare delaspekter förutom dessa huvudgrupper av fysisk och social miljö. Inom den
© Horst Löfgren
49
psykosociala delen har kanske avsikten varit att försöka studera relationerna mellan de anställda, mellan de anställda och chefen, atmosfären i arbetsenheten, upplevd psykisk påfrestning etc.
Om undersökningen är välplanerad har man konstruerat frågor som ska
täcka in olika aspekter av arbetsmiljön. För att få bra tillförlitlighet inom
respektive ”mätområde” har man ställt mer än en fråga. Det blir då kanske
inte så intressant att utnyttja de erhållna mätvärdena på varje fråga och
redovisa varje fråga separat. Eftersom det, trots att man kanske gjort bra
frågor, ändå finns vissa mätfel (respondenterna kanske har förstått frågorna
något olika eller inte besvarat alla frågorna lika noggrant) hade det kanske
varit bättre om man kunde bilda vissa index, dvs. slå samman svaren på
frågor som mäter delar av samma område. En utgångspunkt är att studera
korrelationerna mellan samtliga mätvariabler, men det blir svårt för att inte
säga omöjligt, att få en uppfattning hur de olika variablerna hänger ihop.
Man kan möjligen se att vissa variabler har högre samband med varandra
än med andra. Den faktoranalytiska ansatsen är till för att se om de erhållna korrelationerna kan förklaras av ett mindre antal hypotetiska (latenta) variabler.
I vissa situationer har man kanske konstruerat ett antal frågor utan att ha
delat in det område de avser mäta i några olika delområden. Det är kanske
inte att rekommendera, att man inte riktigt vet vad man avser att mäta annat än i huvuddrag. Det är kanske också så att man har andra mätvariabler
förutom svaren på arbetsmiljöenkäten och att man vill relatera samtliga
variabler till varandra, dvs. se hur alla insamlade variabler hänger ihop.
Om man nu använder en analysmetod som kan reducera alla mätvariablerna till ett mindre antal dimensioner utan att man förlorar alltför mycket
information, skulle det vara ett sätt att få reda på vad insamlade variabler
mäter. Man skulle på detta sätt kunna få en djupare förståelse för insamlade data, dvs. få en validering av instrumentet. Detta sätt att analysera sina
mätinstrument sker således i ett explorativt syfte. Mycket ofta har används
faktoranalys just i detta syfte inom samhällsvetenskaperna (exploratory
factor analysis).
En annan situation i vilken man kan använda faktoranalys är om man vill
pröva ett antagande om hur mätvariablerna hänger ihop. Man kan ha utgått
ifrån antagandet att det finns några få underliggande dimensioner, som kan
förklara utfallet i data och att vissa frågor hör till olika, på förhand bestämda dimensioner. Detta sätt att pröva hypoteser om förhållandet mellan
latenta och manifesta variabler kallas hypotesprövande faktoranalys (con50
© Horst Löfgren
firmatory factor analysis). Man prövar således om antalet faktorer stämmer
med den plan man hade vid konstruktionen av frågorna i den arbetsmiljöenkät man konstruerat. Detta blir då ett sätt att validera mätinstrumentet,
dvs. se om olika grupper av frågor verkligen mäter de olika aspekterna av
arbetsmiljön som de var avsedda att mäta.
Om planeringen av den nämnda arbetsmiljöstudien var så att de 50 frågorna skulle mäta 6 olika delaspekter av arbetsmiljön borde faktoranalysen
ge ett resultat som kan tolkas så, att frågorna grupperar sig i 6 olika områden. En och annan fråga kanske inte faller ut som förväntat. Med facit i
hand kanske man kan förstå varför vissa frågor inte visade sig vara så bra.
Det kan dels bero på frågans konstruktion, men kanske också på att den
undersökta gruppen har svarat på något extremt sätt.
Faktoranalys antar att observerade variabler kan uttryckas som en linjär
kombination av underliggande hypotetiska faktorer. Den bakomliggande
faktorn är orsak till samvariationen mellan de observerade variablerna. I
exemplet ovan om arbetsmiljön antar vi att ett antal frågor, som handlar
om relationerna mellan de anställda inom en arbetsenhet kan förklaras av
en underliggande faktor, som skulle kunna benämnas ”gruppsamverkan”.
Frågorna kan vara olika mycket relaterade till faktorn. Man säger att frågorna har olika laddningar i faktorn, dvs. korrelerar olika mycket med
faktorn. Även om en faktor är en s.k. latent variabel, en konstruktion, får
den sin tolkning av de frågor som har högst laddningar i faktorn.
2.7.2
Extrahering av faktorer - ett förklarande
exempel
Tänk Dig en diskus. Den består av ett stort antal ”delar” och är cirkelformad. En diskus är ganska flat, om än något tjockare kring mitten. Om man
nu skulle vilja reducera alla diskusens olika delar till ett antal mindre komponenter, hur skulle detta kunna ske? Om vi skulle skicka igenom en pil,
lägga in en principalkomponent (en vektor i ett koordinatsystem), i denna
diskus på ett sådant sätt att pilen kom så nära som möjligt diskusens alla
olika delar, hur kommer den då att läggas in? Den måste naturligtvis gå
igenom mittpunkten och läggas in i det ”flata planet”. Om diskusen är helt
rund och lika tjock i mitten och tunnare utåt kanterna kan man lägga in
denna komponent någonstans från kanten och igenom mitten. Denna komponent genom ”svärmen av atomer” ligger nu så nära som möjligt disku-
© Horst Löfgren
51
sens alla beståndsdelar, dvs. varje punkts kvadrerade avstånd från komponenten är så liten som möjligt. Visserligen ligger en hel del delar av diskusen ganska långt ifrån den komponent som lagts in, men totalt sett ligger
komponenten så nära som möjligt diskusens alla delar.
p2
p1
p3
.
Om vi nu skulle lägga in ytterligare en principalkomponent, som är vinkelrät (ortogonal) mot den första och som fångar upp det mesta av det som
inte redan har fångats upp av den första, hur ska den läggas in? Möjligen
kunde man föreslå att den skulle gå igenom mittpunkten uppifrån och ner.
Den nya komponenten kommer visserligen att i flesta fall ligga nära andra
delar än den första, men ändå inte ligga särskilt nära mer än delarna i mitten. Bättre måste vara att lägga in den i samma plan som den första, men
vinkelrät mot denna. Den borde, om diskusen fortfarande är perfekt symmetrisk och rund, ligga lika nära de flesta av diskusens olika delar som den
första. Dessa två första komponenter fångar s a s in lika stora delar av allt
som finns.
Om man nu vill lägga in en tredje komponent, som är vinkelrät mot de två
första men som fångar in så mycket som möjligt, hur ska den läggas in? Ja,
nu kommer den att läggas in genom mittpunkten på det tjockaste stället,
dvs. uppifrån och ner. På det här sättet försöker en dimensionsanalys att
lägga komponenter, som är okorrelerade med varandra och som fångar upp
så många av diskusens delar som möjligt. Vi klarar av att tänka oss tre
dimensioner, men sedan blir det svårt. Skulle diskusen inte vara rund utan
oval, finns det endast ett sätt att lägga in den första komponenten och
denna kommer att fånga in en större andel av variansen än vad den nästkommande kommer att göra. Allt eftersom man lägger in komponenter i
olika plan (vektorer enligt figuren ovan) kommer de att fånga in mindre
och mindre av den totala variansen. Lägger man in lika många komponenter som antalet mätvariabler har man visserligen fångat in all varians, men
då har man inte reducerat antalet variabler.
52
© Horst Löfgren
I en faktoranalys kan man extrahera lika många faktorer som det finns
variabler. Eftersom vi är intresserade att reducera mängden manifesta variabler (uppmätta variabler) vill vi endast använda så många faktorer att vi
fångat upp den delen av variansen, som tillräckligt väl beskriver den totala
informationen. Om ett begränsat antal faktorer fångar upp 70-75 % av den
totala variansen kan detta anses vara ett bra resultat.
2.7.3
Gemensam varians, specifik varians och
felvarians
Om man har ett antal frågor som mäter området ”gruppsamverkan” kommer dessa frågor att samvariera, dvs. korrelera med varandra. För varje
fråga (variabel) finns således en del som den har gemensamt med en eller
flera andra frågor. En del av informationen (variansen) är specifik för just
denna fråga och en del, förhoppningsvis en mindre del, är felvarians. Eftersom alla sådana här mätinstrument inte är perfekt reliabla måste en del
av variansen bero på mätfel. Om vi nu beaktar samtliga frågor i enkäten
skulle vi kunna beskriva den totala variansen enligt nedanstående figur.
En del av den totala variansen är således gemensam för åtminstone två
frågor. Varje fråga har en unik del, varav en del är specifik och resten är
mätfel. En komponentanalys kan sägas vara variansorienterad medan andra
faktoranalysmetoder är kovariansorienterad. Det förstnämnda innebär att
hela variansen analyseras, medan det sistnämnda innebär att endast den
gemensamma variansen analyseras.
Gemensam del
Gemensam varians
Unik del
Specifik varians
Felvarians
Total varians
Figur 2.11. Varianskomponenter
I en komponentanalys omstrukturerar man en variabelmängd. Från de ursprungliga variablerna försöker man finna ett färre antal nya, okorrelerade
variabler som kan förklara maximal varians i de ursprungliga variablerna. I
© Horst Löfgren
53
faktoranalys försöker vi endast komma åt de ursprungliga variablernas
gemensamma varians.
Eftersom man i dessa dimensionsanalyser ofta utgår ifrån en korrelationsmatris (standardiserade variabler med variansen=1) blir den totala variansen i vårt exempel med arbetsmiljöenkäten 50, eftersom vi har 50 variabler.
2.7.4
Arbetsgången vid faktoranalys
Man använder således faktoranalysmetoder huvudsakligen antingen i explorativt syfte eller för att pröva ett antagande om att utfallet i mätvariablerna kan förklaras av ett fåtal underliggande latenta variabler. I båda fallen kan man tala om tre steg i analysen:
1 framtagning av en kovariansmatris (ofta en korrelationsmatris),
2 extraherandet av initiala faktorer enligt någon vald metod,
3 rotering av faktorerna för att finna en tolkbar lösning.
Det finns olika metoder för att extrahera faktorer, men avsikten är att bestämma ett minimiantal faktorer som tillräckligt väl kan reproducera den
ursprungliga korrelationsmatrisen av de manifesta variablerna. En metod
som ofta förekommer som standard är principalkomponentmetoden (Principal Component Analysis). Metoden innebär en linjär transformation av
de ursprungliga mätvariablerna till ett betydligt mindre antal okorrelerade
latenta variabler (komponenter). Den första faktorn (komponenten) svarar
för så mycket varians som möjligt, den andra för så mycket som möjligt av
vad som finns kvar sedan den första faktorn extraherats, den tredje för vad
som finns kvar när väl de två första faktorerna extraherats etc.
Det finns olika tumregler för hur många faktorer som ska extraheras. En
regel som tidigare är nämnd säger att ca 70 % av den totala variansen bör
fångas in av de extraherade faktorerna. En annan tumregel är att ta ut samtliga faktorer som har ett egenvärde ≥ 1,0, förutsatt att man utgår ifrån korrelationsmatrisen. Med egenvärde (eigenvalue) menas hur stor varians en
faktor har, dvs. hur mycket som en faktor fångar upp av variansen i de
ursprungliga variablerna.
Efter extraheringen av lämpligt antal faktorer genomförs en s.k. rotering
(transformation) för att finna en enkel struktur, dvs. en tolkbar lösning. Det
54
© Horst Löfgren
innebär att axlarna roteras utan att den gemensamma variansen i varje
fråga förändras (kommunaliteterna). Man behåller således antalet faktorer
och kommunaliterna för varje mätvariabel intakt. Även här finns olika
metoder för att rotera faktorerna. De två huvudgrupperna av metoder är
”orthogonal” rotering och ”oblique”. Den sistnämnda använder inte restriktionen att faktorerna ska vara vinkelräta mot varandra. För den som
inte är väl insatt i skillnaderna mellan roteringsmetoder rekommenderas
orthogonal rotering enligt varimax-metoden. Metoden innebär att man för
en faktor roterar för att få en så stor variation i laddningarna som möjligt,
dvs. får så många höga respektive låga laddningar i faktorn. Helst vill man
erhålla ett resultat i vilket en enskild mätvariabel har en hög laddning i en
faktor och låga laddningar i alla andra (simple structure).
Om man har två alltför lika påståenden bland sina mätvariabler kan dessa
falla ut som en egen faktor, en s.k. parfaktor. Detta är inte bra, för då
kanske man kan luras att tro att det rör sig om en kvalitativt skild faktor
från de övriga i mätområdet.
För att erhålla ett stabilt resultat i en faktoranalys bör antalet mätobjekt
(individer) vara stort i förhållande till antalet variabler. Om man har 20
gånger så många mätobjekt som antalet variabler är stabiliteten i utfallet
god.
2.7.5
Ett praktiskt exempel och förklaring av
analysresultatet
I en undersökning deltog 541 elever ur grundskolans årskurs 9. Kompletta
svar finns från 211 elever. De fick besvara några frågor om deras föräldrars utbildningsbakgrund samt förekomsten av vissa typer av samtal och
diskussioner i hemmet. Mammans och pappans utbildningsbakgrund kan
ses som ett mått på socioekonomisk status. Utbildning är en ofta använd
indikator på social bakgrund. De övriga fyra frågorna var tänkta att säga
något om en annan aspekt av den sociala bakgrunden. Möjligen skulle man
kunna tala om ”hemkultur”. För att pröva om mätinstrumentet verkligen
mätte två olika aspekter av den sociala bakgrunden genomfördes en faktoranalys av dessa sammanlagt 6 indikatorer. Som förväntat erhölls två
faktorer med egenvärdet större än 1,0. Extraheringsmetod var principalkomponentmetoden och roteringen gjordes enligt en varimax-metod. Av
den totala variansen fångades 68 % in av de två faktorerna, ett resultat som
© Horst Löfgren
55
stämmer ganska bra med det tidigare nämnda kriteriet att ca 70 % bör
fångas in. Av de slutligen erhållna estimaten av kommunaliterna framgår
att ingen av mätvariablerna är unik i sammanhanget. Värdena ligger mellan 0,55 och 0,77. Kommunaliterna säger hur mycket av variansen i mätvariabeln som har fångats upp av de båda faktorerna. Den tredje tabellen
visar den oroterade matrisen och denna är ej lätt att tolka och behövs
egentligen inte om mer än en faktor extraherats. I det här fallet har vi erhållit två faktorer och därför går vi till den roterade matrisen för att kunna
tolka utfallet av analysen.
Som framgår av de roterade faktorerna återfinns de två måtten på föräldrarnas utbildningsbakgrund i en faktor och de övriga fyra måtten på ”hemkultur” i en annan faktor. Eftersom vi utnyttjat en optionsmöjlighet i SPSS
har variablerna lagts i ordning så att det blir lättare att se vilka variabler
som mest bidrar till tolkningen av faktorn. I det här faller har vi dessutom
undertryckt värden som är mindre än 0,30, varför tabellen blir ännu lättare
att läsa. Ibland kan det vara värdefullt för tolkningen att ändå se laddningarna, dvs. korrelationerna, mellan variablerna och faktorerna, även om de
är låga. Denna tabell har också lagts in för att visa hur det totala utfallet
blev. Kvadrerar man och summerar samtliga laddningar i en faktor erhålls
variansen för faktorn (2,51 resp. 1,57 i de roterade faktorerna).
Vi kan således konstatera att vi genom dessa 6 indikatorer mäter två olika
aspekter av den sociala bakgrunden. Mätinstrumentet har fungerat som
avsikten var. Efter att ha konstaterat att instrumentet har validitet borde
man, om man avser att bilda en summavariabel (index) av de i faktorn
ingående indikatorena, skatta mätsäkerheten i detta index, lämpligen med
hjälp av Cronbach’s alpha-koefficient (se avsnitt 2.8). Istället för att bilda
en enkel summapoäng av mätvariablerna kan man använda erhållen faktorpoäng för varje individ i fortsatta beräkningar.
Som tidigare nämnts är de faktorer som extraheras okorrelerade. Roteringen med varimax är en orthogonal metod, men de erhållna faktorerna blir ej
längre okorrelerade. I exemplet nedan finns ett samband mellan faktor 1
och faktor 2 på 0,319. Det finns således ett visst samband mellan faktorerna ”föräldrarnas utbildningsbakgrund” och ”hemkultur”, vilket är högst
rimligt.
Nedan följer ett utdrag ur resultatet av en faktoranalys genomförd med
programmet SPSS. I beställningen av analysen har angetts att endast faktorer med egenvärde ≥1,0 ska extraheras för att därefter roteras. Observera
att tabellen ”Total Variance Explained” är något justerad pga. platsbrist.
56
© Horst Löfgren
Factor Analysis
Communal iti es
MODERNS UTBI LDNING
FADERNS UTBI LDNING
ARBETE OC H SKOLA
FAMI LJEANGELÄGENHETER
PLANERAR TILLSAMMANS
DISKUTERAR ALLMÄNNA TI NG
Init ial
1, 000
1, 000
1, 000
1, 000
1, 000
1, 000
Extraction
,770
,760
,624
,763
,611
,548
Extraction Met hod: Principal Component Analy sis.
Total Variance Explained
Component
1
2
3
4
5
6
Initial Eigenv alues
% of
CumulaTotal
Variance
tiv e %
2,783
46,376
46,376
1,293
21,556
67,932
,629
10,481
78,414
,537
8,945
87,359
,423
7,048
94,406
,336
5,594
100,000
Rotation Sums of Squared
Loadings
% of
CumulaTotal
Variance
tiv e %
2,509
41,814
41,814
1,567
26,119
67,932
Extraction Met hod: Principal Component Analy sis.
Component Matrixa
Component
FAMI LJEANGELÄGENHETER
ARBETE OCH SKOLA
PLANERAR TILLSAMMANS
DISKUTERAR ALLMÄNNA TING
FADERNS UTBILDNING
MODERNS UTBI LDNING
1
,805
,754
,747
,731
,453
,517
2
-,339
,745
,709
Extract ion Method: Principal Component Analy sis.
a. 2 components extracted.
© Horst Löfgren
57
Rotated Component Matriax
Component
1
2
,872
,782
,774
,709
,867
,862
FAMI LJEANGELÄGENH ETER
ARBETE OCH SKOLA
PLANER AR TILLSAMMANS
DISKUTERAR ALLMÄNNA TING
FADERNS U TBI LDNI NG
MODERNS UTBI LDNI NG
Extraction Met hod: Princ ipal Component Analy sis.
Rot ation Met hod: Varimax with Kaiser Normalizat ion.
a. Rot ation conv erged in 3 iterations.
Rotated Component Matrixa
Component
1
2
,872
,039
,782
,110
,774
,112
FAMI LJEANGELÄGENHETER
ARBETE OCH SKOLA
PLANERAR TILLSAMMANS
DISKUTERAR ALLMÄNNA
TING
FADERNS UTBILDNING
MODERNS UTBI LDNING
,709
,213
,090
,164
,867
,862
Extraction Method: Principal Component Analy sis.
Rotation Met hod: Varimax with Kaiser Normalization.
a. Rotation conv erged in 3 iterations.
Component Transformation Matrix
Component
1
2
1
,903
-,429
2
,429
,903
Extraction Method: Principal Component Analy sis.
Rotation Met hod: Varimax wit h Kaiser Normalization.
58
© Horst Löfgren
2.8
Reliabilitet
Om jag ställer mig på en gammal våg för att kontrollera min vikt, kan den
kanske visa något olika värden vid olika mättillfällen, trots att jag väger
mig med bara minuters mellanrum. Om vägningarna är gjorda inom en så
kort tidsperiod att jag inte ändrat vikt, skulle man kunna anta att medelvärdet av de olika mätningarna är en bra skattning av min sanna vikt. Detta
gäller dock endast om det inte finns systematiska fel vid vägningen, t.ex.
att vågen på grund av feljustering hela tiden visar ett kilo för mycket. Det
systematiska felet benämns även med de engelska termerna ”bias” och
”accuracy”. Den skillnad som finns mellan vikten vid ett mättillfälle och
medelvärdet för viktmätningarna är storleken av mätfelet vid detta mättillfälle.
Låt oss nu anta att jag väger mig ett antal gånger på en annan och kanske
modernare våg och att spridningen av mätvärden nu är betydligt mindre än
vid den gamla vågen. Detta innebär då att den nya vågen är mera mätsäker,
dvs. har högre reliabilitet.
Om vi nu går över till att mäta andra ting än sådana relativt enkla saker
som att mäta vikt, kan det bli mer problematiskt att konstruera mätsäkra
skalor. Via olika test eller enkäter försöker vi mäta människors förmågor,
attityder eller andra ting, där vi inte har så välutvecklade instrument. I ett
frågeformulär om stress ställs ett antal frågor som kanske kan summeras
till ett hyggligt mått på stress. Förutom att ställa frågor om frågornas validitet, dvs. om de verkligen mäter det vi har definierat som stress, bör vi
också ställa frågan om hur säkert vi mäter stress. Validitetsproblematiken
kan vi bl.a. studera med hjälp av faktoranalys. För att uttala oss om mätsäkerheten måste vi finna ett sätt att skatta denna.
Utgångspunkten för nästan alla reliabilitetsteorier är att erhållet värde på
ett test (t) är lika med det sanna värdet (T) plus ett mätfel (e).
t = T + e (test score = True score + error)
Om man har perfekt reliabilitet, dvs. inga mätfel, blir således t = T. Mätfelen kan självfallet anta både positiva och negativa värden och i regel
antas att medelvärdet för mätfelen är noll. Reliabiliteten kan definieras
som den kvadrerade korrelationen mellan t och T. Om denna korrelation är
lika med 1,0 innebär detta en perfekt reliabilitet. Skulle korrelationen vara
noll är mätningen helt slumpmässig.
© Horst Löfgren
59
För att bestämma reliabiliteten måste vi korrelera t med T, trots att vi endast har tillgång till t-värden. Man skulle kunna skatta korrelationen om
man har tillräckligt mycket information om relationen mellan ett antal
observerade variabler (testresultat eller testuppgifter). Ur detta resonemang
har utvecklats olika reliabilitetsteorier och olika sätt att skatta reliabiliteten.
I klassisk reliabilitetsteori utgår man ifrån begreppet ”parallella mätinstrument”, dvs. instrument som mäter samma egenskap på samma sätt.
Sådana instrument är således utbytbara och ska ge samma resultat. För att
instrument ska kunna betraktas som parallella måste flera antaganden
gälla. Mätfelen för alla mätobjekt med samma T-värde ska i genomsnitt
vara noll, mätfelen ska vara lika över hela skalan, mätinstrumentet ska ge
mätfel som är oberoende av varandra och mätinstrumentet ska mäta
samma egenskap. Under dessa förutsättningar kan man beräkna mätsäkerheten.
Om man har tillgång till två parallella mätinstrument, kan man använda
mätresultat från dessa för att skatta reliabiliteten. Korrelationen mellan
mätresultaten blir då ett mått på mätsäkerheten. Emellertid kan det vara
svårt att konstruera två parallella test och därför väljer man vanligtvis annan metod. Självfallet skulle det vara enklare, om man kunde skatta reliabiliteten utifrån ett mättillfälle med ett enda mätinstrument.
Den s.k. ”split-half-metoden” är ett sätt att ett enda mätinstrument och dela
upp den i två delar för att med hjälp av sambandet mellan dessa två delar
skatta reliabiliteten. Om man korrelerar resultatet över observationer på
dessa halvor (r12) för att därefter applicera den s.k. Spearman-Brown’s
formel erhålls ett bra mått på reliabiliteten.
r(1+2) =
2. r12
______________
1 + r12
(formel 2.16)
Det finns olika sätt att dela upp testet i två halvor. Gör man det för hand,
kan det vara lämpligt att först rangordna testuppgifterna efter lösningsfrekvens (svårighetsgrad) för att därefter dela upp testet i udda och jämna
uppgifter. De udda respektive jämna uppgifterna utgör då de två halvorna.
Att man uppjusterar med Spearman-Brown’s formel beror på att testet
halverats i längd i förhållande till hela testet. Det gör själfallet ingenting
om man har ett udda antal testuppgifter för hela testet.
60
© Horst Löfgren
Ibland använder man den s.k. retest-metoden, vilket innebär att man mäter
två gånger med samma test och reliabiliteten blir då skattad utifrån korrelationen mellan de två mättillfällena. Nackdelen är ju att mätningarna
måste komma relativt nära i tid och då kan respondenterna reagera på att få
samma sak en gång till, och dessutom kan man få minneseffekter. Om det
går en längre tid mellan mätningarna har kanske respondenterna förändrat
sig i något väsentligt avseende. Risken vid test-retest-metoden är att mätsäkerheten blir sammanblandad med stabilitet över tid.
En metod som numera ofta används är att beräkna homogenitetskoefficient, den s.k. alpha-koefficienten. Denna koefficient går under namnet Kuder-Richardson’s formel om uppgifter utvärderas binärt (t.ex. rätt – fel).
Av olika reliabilitetsskattningsmetoder är Cronbach’s alpha, som den
också kallas, att föredra. Den innebär att man ställer variansen för de enskilda uppgifterna i relation till totalvariansen för testet. Om man försöker
mäta ett och samma område (begrepp, dimension) med flera testuppgifter
(frågor, påståenden) är denna metod lämplig. Skulle man emellertid mäta
flera olika dimensioner med ett antal testuppgifter kan alpha-koefficienten
indikera en lägre mätsäkerhet. Metoden bygger på att uppgifterna hänger
ihop, dvs. mäter en och samma dimension, om än till viss del olika delar av
denna dimension. Alpha-koefficienten kallas också ibland homogenitetskoefficient och beräknas på följande sätt:
n
2
alpha = ________ ( 1 - _________
)
n–1
2tot
n = antalet uppgifter i testet
(formel 2.17)
I SPSS finns möjlighet att via ”Scale” få ett mått på reliabilitet, både den
här presenterade split-half-koefficienten och alpha-koefficienten.
2.8.1
Beräkning av Cronbach’s alpha
I en studie av elever i årskurs 9 hade man samlat in data om vad vi kan
kalla för hemkulturförhållanden (jfr exemplet i avsnitt 2.7). Frågor ställdes
om hur ofta barn och vuxna i familjen gör saker tillsammans. De sex frågorna, som av en faktoranalys visade sig mäta en och samma dimension,
handlade om vad som händer på arbetet och i skolan, familjeangelägenheter, vad man planerar tillsammans, diskussion av allmänna angelägenheter,
© Horst Löfgren
61
diskussion om någon bok samt diskussion om något TV- eller radioprogram.
Från beskrivande analys kan vi erhålla standardavvikelserna och därmed
varianserna (standardavvikelserna i kvadrat) för varje enskild fråga. Efter
att ha summerat de sex frågorna till en summapoäng kan man erhålla variansen för hela testet. Observera att man endast kan ta med de elever som
har svarat på alla sex frågorna. Varianserna för de sex frågorna och totaltestet är 1.67, 1.82, 1.49, 1.89, 1.05, 1.77 och 28.68. Eftersom n = 6 erhålls
följande alpha-koefficient:
6
9,69
alpha = __________ ( 1 ) = 0,79
6–1
28,68
Den erhållna koefficienten 0,79 visar att reliabiliteten är ganska god, speciellt med tanke på att vi endast har sex frågor, och att det handlar om ett
område, som inte är alldeles enkelt att mäta. Som mått på den dimension
som skulle mätas fungerar summavariabeln utmärkt, när det gäller att jämföra grupper, t.ex. skillnaden mellan pojkar och flickor. När det gäller att
uttala sig om enskilda individer krävs högre reliabilitet för att man ska vara
rimligt säker. En split-half korrelation skulle i detta fall ge 0,56, dvs. reliabilitetsvärdet 0,72 efter korrigering med Spearman-Brown’s formel. Att
dela upp sex uppgifter i två halvor ger ju endast tre uppgifter i varje och
det är väldigt få för att använda denna metod.
2.8.2
Ett numeriskt exempel
Låt oss ta ett enkelt exempel och med hjälp av varianser skatta mätsäkerheten. I exemplet kommer vi endast att visa data från 10 observationer.
Normalt har man ju betydligt fler observationer, när man vill undersöka
validitet och reliabilitet. Tio personer har genomfört två test, ett verbalt test
och ett för att mäta logisk slutledningsförmåga. Det verbala testet består av
endast fyra uppgifter (V1-V4). Svaren på dessa uppgifter har bedömts i en
femgradig betygsskala. Testet på logisk slutledningsförmåga består av åtta
uppgifter L1-L8. På dessa kan man endast få rätt eller fel på varje uppgift.
62
© Horst Löfgren
Tabell 2.6. Testresultat för de 10 individerna på det verbala testet
____________________________________________________________
Ind.
V1
V2
V3
V4
V-totalsumma
____________________________________________________________
A
2
3
3
2
10
B
2
1
1
3
7
C
4
3
4
3
14
D
3
5
3
4
15
E
3
2
3
3
11
F
4
5
5
5
19
G
3
3
2
3
11
H
2
3
2
2
9
I
1
1
2
1
5
J
4
5
4
4
17
s
1,03 1,52 1,20 1,16
4,42
s2
1,07 2,32 1,43 1,33 = 6,15 19,51
____________________________________________________________
Cronbach’s alpha på detta test ger:
alpha =
n
_______
n–1
(1-
2
_________
2tot
);
4
6,15
( 1 - ________ ) = 0,91
3
19,51
_____
Reliabiliteten på det verbala testet är således mycket god. De fyra uppgifterna är mycket homogena, dvs. har mycket gemensam varians. Låt oss
även analysera testet avseende logisk slutledningsförmåga, där varje uppgift bedöms som rätt eller fel (Tabell 2.7).
© Horst Löfgren
63
Tabell 2.7. Testresultat för de 10 individerna på det logiska testet
____________________________________________________________
Ind.
L1 L2 L3 L4 L5 L6 L7 L8 L-totalsumma
____________________________________________________________
A
B
C
D
E
F
G
H
I
J
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
1
1
0
1
1
1
1
1
1
0
1
1
1
1
1
0
1
1
0
0
1
0
0
1
1
1
1
1
0
0
1
1
0
0
0
1
1
0
1
0
1
0
0
1
0
0
1
0
0
0
1
0
0
0
1
0
1
0
0
0
0
5
3
6
6
5
8
5
4
1
7
p
1,00 0,90 0,80 0,70 0,60 0,50 0,30 0,20
q
0,00 0,10 0,20 0,30 0,40 0,50 0,70 0,80
p.q
0,00 0,09 0,16 0,21 0,24 0,25 0,21 0,16 = 1,32 4,00
____________________________________________________________
Variansen vid en binär kodning (rätt eller fel) är p . q, där p = sannolikheten att svara korrekt och q = 1 – p (dvs. sannolikheten att svara fel). Summan av de åtta varianserna är 1,32. För summavariabeln, dvs. det sammanlagda resultatet på testet, blir variansen 4,00.
Om vi nu beräknar reliabiliteten på testet av logisk slutledningsförmåga
erhålls följande (enligt Kuder-Richarson’s formel, ofta benämnd KR20):
alpha =
n
_________
n–1
( 1-
.
p
q
_________
2tot
);
8
_______
7
1,32
( 1 - _________ ) = 0,77
4,00
Om man skulle beräkna en split-half koefficient på testet logisk slutledningsförmåga delar man lämpligen de åtta uppgifterna enligt nedan. Uppgifter ligger redan efter lösningsfrekvens i tabellen och det går att direkt
dela testet i två delar. Skulle man strikt ta alla udda uppgifter i den ena
64
© Horst Löfgren
gruppen och alla jämna i den andra gruppen skulle den sistnämnda gruppen få något högre resultat. För att ungefärligen nå samma medelvärde på
de två halvorna kan man dela upp testet enligt ”abba-sättet”. Detta innebär
att uppgifterna L1, L4, L5 och L8 bildar den ena halvan och L2, L3, L6
och L7 den andra. De 10 respondenterna får då följande resultat på de två
halvorna, benämnda del 1 och del 2:
Tabell 2.8. Testresultat för de 10 individerna på de två testhalvorna
____________________________________________________________
Ind.
L1 L2 L3 L4 L5 L6 L7 L8 del 1 del 2
____________________________________________________________
A
1
1
1
1
0
1
0
0
2
3
B
1
1
0
1
0
0
0
0
2
1
C
1
1
1
1
1
0
1
0
3
3
D
1
1
1
1
1
0
0
1
4
2
E
1
1
1
0
1
1
0
0
2
3
F
1
1
1
1
1
1
1
1
4
4
G
1
1
1
1
1
0
0
0
3
2
H
1
1
1
0
0
1
0
0
1
3
I
1
0
0
0
0
0
0
0
1
0
J
1
1
1
1
1
1
1
0
3
4
En produktmomentkorrelation på de två testhalvorna ger r = 0,446, vilket
efter Spearman-Brown’s korrektion ger 0,62. Detta är en dålig mätsäkerhet
och en åtgärd som kan rekommenderas är att förlänga testet, dvs. lägga till
fler uppgifter. Det finns en formel för vad man kan förvänta att få för reliabilitet, om man förlänger testet. En fördubbling av antalet uppgifter skulle
kunna förväntas öka reliabiliteten till 0,77.
Relny =
© Horst Löfgren
n . relgammal
1 + relgammal
; där n = antalet gånger testet förlängs
65
3
Parametriska hypotesprövningsmetoder
För de parametriska hypotesprövningsmetoderna gäller att vissa förutsättningar bör vara uppfyllda. Sålunda förutsätts att observationerna i stickprovet kommer från en specificerad i regel normalfördelad observationsvariabel, och att mätskalan är intervall- eller kvotskalerad. Vid analys av
differenser mellan små stickprov förutsätts också, att mätvariabelns varians är lika i de bakomliggande populationerna. Många gånger i beteendevetenskapliga sammanhang har man dock data på endast ordinalskalenivå.
Om stickprovet inte är alltför litet och data synes vara approximativt normalfördelade används ofta parametriska metoder. Man kan visa att dessa
metoder i flesta fall är robusta mot avvikelser i ovan nämnda förutsättningar.
Fysiska mätningar är ofta normalfördelade (längd, vikt). Däremot vet vi
sällan något om mätningar av psykiska förmågor (kunskap, intelligens,
färdighet). Vid den sistnämnda typen av mätningar har man ingen given
skala, utan man konstruerar en skala och standardiserar den med normalfördelningen som bas. Vi har sålunda sett till att det vi försöker mäta, genom valet av uppgifter, ger värden som är approximativt normalfördelade.
Det är i många forskningssammanhang lämpligt, bl.a. för den statistiska
analysen, att normalstandardisera de variabler som studeras.
3.1
Urvalsmetoder
De vanligaste slumpmässiga urvalsmetoderna är obundet slumpmässigt
urval (OSU), systematiskt urval, stratifierat urval och klusterurval. Det
kanske mest vanliga urvalet, åtminstone i beteendevetenskapliga sammanhang, är dock det icke-slumpmässiga urvalet, det s.k. tillfälliga urvalet.
66
© Horst Löfgren
Om ett stickprov är slumpmässigt draget ur en viss definierad population
innebär detta att stickprovet representerar populationen. Data från stickprovet kan således generaliseras till den definierade populationen. Vid
statistisk inferens förutsätts i regel obundet slumpmässigt urval.
I undersökningar där man av olika skäl tvingats använda ett ickeslumpmässigt urval, måste man kunna argumentera för att undersökningsgruppen är representativ för någon bakomliggande population, annars blir
den statistiska hypotesprövningen meningslös.
1. Obundet slumpmässigt urval (OSU)
Obundet slumpmässigt urval är ett bra sätt att erhålla representativitet.
Tillvägagångssättet är följande:
a) populationen definieras
b) populationens individer numreras 1, 2, 3, ....., N
c) stickprovets storlek bestäms
d) urvalet görs med hjälp av en slumptalstabell, lotter eller dylikt
2. Systematiskt urval
Ett sätt att slippa lotta ut samtliga individer till stickprovet är att välja var
k:te individ efter att slumpmässigt ha valt den första.
a) populationen definieras ( antag att N = 450)
b) stickprovets storlek bestäms (exempelvis n = 30)
c) kvoten N/n beräknas (r = N/n = 450/30 = 15)
d) slumpmässigt väljs ett tal mellan 1 och r (antag att vi erhåller 8)
e) det systematiska stickprovet blir då individ nr 8, 8+r, 8+2r, ....
8+29r (dvs. individ nr 8, 23, 38, ....., 428, 443)
Det systematiska urvalet fungerar bra, såvida det inte föreligger någon
periodicitet i populationen. Ett av de klassiska exemplen på ett misslyckat
systematiskt urval är hämtad från en osann historia ur militärlivet.
Vid en repetitionsövning vintertid klagade repgubbarna på att det var för
© Horst Löfgren
67
kallt i barackerna. Plutonchefen, som ansåg sig statistiskt kunnig, utförde
då en stickprovsundersökning. Han utnyttjade då ett systematiskt urval.
Barack A: S1 S2 S3 S4 S5 Kamin S6
Barack B: S1 S2 S3 S4 S5 Kamin S6
Barack C: S1 S2 S3 S4 S5 Kamin S6
......................................................................
Barack O: S1 S2 S3 S4 S5 Kamin S6
S= sängplats
Figur 3.1.
N= 150; n= 15
S7 S8 S9 S10
S7 S8 S9 S10
S7 S8 S9 S10
S7 S8 S9 S10
r=150/15 = 10
Sängarnas placering i förhållande till kaminen i barackerna
Slumpmässigt drogs nummer 5, och urvalet kom således att bestå av individ nr 5, 15, 25, ... 135 och 145. De som kom med i stickprovet fick besvara en enkel enkät med huvudfrågan om de frös eller ej på nätterna. Svaren blev väldigt lika, nämligen att det var något för varmt i barackerna för
att kunna sova gott (alla i stickprovet låg ju intill en kamin). Plutonchefen
ansåg sig därmed ha visat, att det ingalunda var för kallt i barackerna och
gav omedelbart order om att minska på eldningen i kaminerna.
3. Stratifierat urval
Om populationen kan delas in i ett antal homogena undergrupper, som
sinsemellan är olika i sin sammansättning med hänsyn till undersökningsvariabeln, kan man använda stratifierat urval. Det kan vara ett bra sätt att
garantera att alla undergrupperna blir representerade i stickprovet. Man
kan ibland välja proportionellt stratifierat urval, vilket innebär att delgrupperna blir representerade efter sin storlek.
a) populationen definieras,
b) de olika delgrupperna (strata) avgränsas genom en eller flera för
undersökningen viktiga klassifikationer,
c) ur varje strata dras ett slumpmässigt urval av önskad storlek med
hjälp av OSU eller systematiskt urval.
68
© Horst Löfgren
4. Klusterurval
Vid stora populationer kan det ibland vara praktiskt att använda klusterurval. Populationen delas då in i ett antal heterogena enheter (kluster), som
sinsemellan bör vara lika. Klusterurvalet sker ofta som ett tvåstegsurval.
a)
b)
c)
d)
e)
f)
populationen definieras,
urvalsenheterna (klusterna) bestäms,
antalet kluster som ska ingå bestäms,
de i urvalet ingående klustren dras genom OSU,
antalet individer som ska ingå ur varje kluster bestäms,
individerna dras genom OSU ur respektive kluster.
I nedanstående tabell jämförs stratifierat urval och klusterurval. Tabellen
tjänar också som riktlinje för när man bör välja den ena eller den andra
urvalsmetoden.
Tabell 3.1. Jämförelse mellan stratifierat urval och klusterurval vad gäller
hur mätobjekten ska vara
Strata
Kluster
Mellan
olika
lika
Inom
homogena
heterogena
5. Tillfälligt urval
Ofta tvingas man i praktiken använda ett icke-slumpmässigt urval. Det kan
vara av tids- eller kostnadsmässiga skäl eller helt enkelt därför att det är
det enda sättet som är praktiskt möjligt. Vi kan kalla detta för ett tillfälligt
urval. Med goda kontrollmöjligheter kan vi kanske våga påstå, att urvalet
är representativt för en viss population.
a)
b)
c)
d)
populationen definieras,
stickprovets storlek bestäms,
individer väljs i enlighet med vad som är praktiskt möjligt,
urvalsgrupperna kontrolleras ur representativitetssynpunkt på ett
antal väsentliga variabler.
© Horst Löfgren
69
3.2
Sannolikhetsbegreppet
Man hör ofta folk ironisera över den hjälp statistiken erbjuder. Vi har väl
alla hört uttrycket att det finns tre slags lögner; lögn, förbannad lögn och
statistik. Ibland försöker man bevisa saker och ting med statistik. Skulle
förutsägelser ej slå in säger kritikerna att statistiken ljuger. Låt oss slå fast
att man inte kan bevisa något med statistik, utan endast visa att något gäller med en viss grad av sannolikhet. Eftersom man med hjälp av inferensstatistik drar slutsatser med en viss grad av sannolikhet, dvs. tar en viss
risk för felslut, kan man ej påstå att statistiken ljuger. I det här sammanhanget är det två lagar, som man måste känna till för att kunna beräkna
sannolikheter, nämligen additionssatsen (för varandra uteslutande händelser) och multiplikationssatsen (för oberoende händelser).
Antag att vi kastar ett mynt. Två händelser kan då inträffa. Antingen erhålls ”krona” eller ”klave”. Vi utgår ifrån att myntet är symmetriskt, och
att det ej kan ställa sig på kant. Om du håller på utfallet ”klave”, kallas
detta utfall för ”ett gynnsamt fall”. Sannolikheten att erhålla klave (pklave)
är då 0,5.
antalet gynnsamma fall
1
pklave = ____________________ = ___
antalet möjliga fall
2
Sannolikheten att erhålla ”krona” är givetvis också 0,5. Om man summerar
sannolikheterna för varandra uteslutande händelser erhåller man p=1
(p=sannolikhet efter engelskans ”probability”).
Om vi kastar tärning, hur stor är chansen att erhålla en ”sexa”? Eftersom
det finns 6 möjliga fall erhålls psexa=1/6. Sannolikheten att erhålla en
”etta” är lika stor (1/6), om nu tärningen inte är falsk.
1. Additionssatsen för varandra uteslutande händelser
Om reglerna för Fia-spel säger att man måste slå en sexa eller en etta för
att få börja spelet, hur stor är då chansen att få endera av detta vid kast med
tärning? Eftersom petta och psexa båda är 1/6, och man måste erhålla det
ena eller det andra, blir chansen en på tre att lyckas.
petta + psexa = 1/6 + 1/6 = 2/6 = 1/3
70
© Horst Löfgren
2. Multiplikationssatsen för oberoende händelser
Hur stor är chansen att du vinner två gånger i rad vid myntkast? Låt oss
säga att du håller på klave. Chansen att vinna första gången är 1/2 och
andra gången lika stor. Du måste emellertid vinna båda gångerna. Det
finns således endast ett gynnsamt fall, men hur många möjliga utfall finns
det?
krona - krona
krona - klave
klave - krona
klave - klave x
Kryssmarkeringen står för det gynnsamma fallet med vinst två gånger i
rad. Eftersom det finns fyra möjliga händelser blir sannolikheten 1/4. Med
hjälp av multiplikationssatsen erhåller du lätt sannolikheten för detta utfall:
p= 1/2 .1/2 = 1/4
Antag att du spelar roulette, där chansen är lika stor för samtliga nummer
att falla ut (0-36). Det finns således 1/37 chans att vinna om man sätter på
nummer, dvs. man vinner i ungefär tre fall av hundra. Statistikern skulle ha
gjort prognosen, att du vid ditt nästa spel kommer att förlora. Observera då
att statistikern tar en viss risk i sin prognos. Risken är ungefär 3 %. Låt oss
leka med tanken att du faktiskt vann, när du satte jetongen på ditt lyckonummer. Ljuger statistiken?
3.3
Samplingfördelning
I ett föregående avsnitt redogjordes för några olika sätt att ta ut ett stickprov ur en population. När vi väl har vårt stickprov, kan vi beskriva det
genom beräkning av vissa index. Ofta ger medelvärdet och standardavvikelsen en god bild av hur stickprovet fördelningsmässigt ser ut. Låt oss
fortsätta resonemanget med ett konkret exempel i tankarna. Antag att vi
genomför ett begåvningstest på ett stickprov ur populationen ”elever i
årskurs 6”. Vi transformerar erhållna råvärden till den kända IQ-skalan
(µ=100; =15). Låt oss ta ett stickprov omfattande 25 elever. Vad får vi
© Horst Löfgren
71
för medelvärde i denna grupp? Ja, om det är ett slumpmässigt urval ur
populationen, borde vi få ett värde i närheten av 100. Du inser säkert att vi
slumpmässigt kan få ett något för högt eller något för lågt värde beroende
på om slumpen har gett oss för många högpresterande eller för många
lågpresterande elever i stickprovet. Låt oss nu välja ett nytt stickprov och
beräkna medelvärdet för detta nya stickprov. Vid nya stickprovsdragningar
kommer vi att få något varierande medelvärden. I Tabell 3.2 redovisas
några tänkbara medelvärdesresultat i de olika stickproven.
Tabell 3.2. Tänkbara medelvärden i slumpmässiga stickprov ur en population med µ=100 och s=15
____________________________________________________________
Stickprov nr Medelvärde
Stickprov nr
Medelvärde
____________________________________________________________
1
93,6
11
100,5
2
95,2
12
100,8
3
96,1
13
101,7
4
97,4
14
102,0
5
98,5
15
102,5
6
98,9
16
103,1
7
99,3
17
103,5
8
99,6
18
104,3
9
100,1
19
105,2
10
100,2
20
105,6
____________________________________________________________
Om vi markerar resultaten på IQ-skalan, kan vi därefter rita ett diagram
över hur utfallet av stickprovsmedelvärden blev.
x
x x x x x x xxxxxxxx xx x x x x x x
x
____________________________________________________________
93 94 95 96 97 98 99 100 101 102 103 104 105 106 107
Figur 3.2.
Några tänkbara medelvärden i slumpmässiga stickprov
Om vi tänker oss ett mycket stort antal stickprovsmedelvärden (M), skulle
dessa nästan alltid fördela sig symmetriskt kring populationsmedelvärdet
72
© Horst Löfgren
(µ). Du inser säkerligen att vi oftare finner att medelvärdena ligger nära
populationsmedelvärdet (i detta fall µ=100) och mera sällan längre bort
från populationsmedelvärdet. Ibland ger slumpen oss alldeles för bra elever, ibland alldeles för dåliga elever, men oftast ger slumpen oss en normal
och representativ elevgrupp. Om vi i stället skulle ha tagit ut större stickprov, exempelvis 100 elever, inser du säkert att slumpavvikelser från medelvärdet 100 blir mindre. Ju fler individer som finns med i stickprovet
desto ”säkrare” urval. Enstaka, om än kraftigt avvikande individer, får
mindre betydelse för gruppens medelvärde vid stora stickprov. Ritar vi upp
fördelningen för ett stort antal stickprovsmedelvärden, egentligen ett oändligt antal, erhålls följande fördelning:
Figur 3.3.
Samplingfördelningen med +/- 1 medelfel
Denna fördelning, som i regel kan antas ha normalfördelningens egenskaper, kallas för samplingfördelning. Medelvärdet i denna fördelning är,
som framgår av figuren, lika med populationsmedelvärdet (µ). Medelvärdet i samplingfördelningen betecknas µM. Standardavvikelsen i denna
fördelning är av central betydelse för inferensstatistiken. Denna standardavvikelse kan användas som ett mått på felet, som slumpen ger oss vid
stickprovsdragning. Ibland får vi ett medelvärde som är högre än populationsmedelvärdet, ibland får vi ett värde som är lägre. Hur ofta, uttryckt i
procent får vi ett medelvärde som ligger mellan -1M och +1M? Som du
kanske erinrar Dig ligger ungefär 68 % av samtliga observationer mellan
-1 och +1 i normalfördelningen. Således får vi ett medelvärde i vårt
stickprov, som i ungefär 2 fall av 3 ligger mellan µ - M och µ + M.
M kallas för medelfelet, dvs. det fel man får räkna med att erhålla vid
stickprovsdragning. Eftersom 2 fall av 3 får betraktas som något för osäkert väljer vi i stället att ta två gånger medelfelet.
© Horst Löfgren
73
Medelfelet är kärnan i inferensstatistiken och går i regel lätt att ungefär
beräkna för såväl ett som flera stickprov. För ett stickprov är medelfelet
lika med standardavvikelsen dividerat med kvadratroten ur antalet observationer.

M = ____
n
Figur 3.4.
(formel 3.1)
Samplingfördelningen med +/- 2.medelfelet
Enligt normalfördelningen hamnar ungefär 95 % av samtliga observationer
mellan µ-2 och µ+2.
3.4
Skattningar
Med skattning avser vi att antingen med kännedom om populationsparametrarna göra en skattning av karaktäristika i stickprovet eller med kännedom om stickprovskaraktäristika göra en skattning av populationsparametrarna. Parameter används här i betydelsen egenskaper i populationen.
µ och  är parametrar i populationen; M och s är karaktäristika i stickprovet.
Eftersom den sistnämnda skattningstypen ovan är det mest vanliga kommer vi i det följande att helt koncentrera oss på detta fall. Jämför med att vi
oftast gör stickprovsundersökningar och önskar generalisera resultaten till
den bakomliggande populationen. Låt oss ta ett exempel!
74
© Horst Löfgren
Antag att vi inom en större internationell undersökning önskar mäta
svenska elevers matematikkunskaper vid grundskolans avslutning. Ett prov
ges till ett slumpmässigt urval ur populationen omfattande 2500 ungdomar
elever i årskurs 9. I detta stickprov erhåller vi M=24,0 och s=6,00. Hur
många poäng har då svenska elever, dvs. vad blir populationsmedelvärdet?
Eftersom vi av praktiska skäl inte kan undersöka mer än detta stickprov,
måste vi med utgångspunkt i dessa data göra en skattning av populationsmedelvärdet. Enligt tidigare resonemang kan vi, beroende på slumpen i
urvalet av individer i stickprovet, ha erhållit ett medelvärde (M) som något
avviker från populationsmedelvärdet (µ). Därför ger vi ett intervall kring
det erhållna medelvärdet (M) och påstår att detta intervall täcker µ med en
viss grad av säkerhet. Ju större intervall desto större sannolikhet att µ täcks
av intervallets gränser. För att veta hur stort intervall vi ska ta kring M,
dvs. hur mycket vi ska addera respektive subtrahera från M, måste vi dels
bestämma säkerhetsnivån, dels ta hjälp av det tidigare beskrivna medelfelet. Eftersom vi nu inte vet standardavvikelsen i populationen (måste
vi skatta denna med hjälp av den erhållna standardavvikelsen i stickprovet.
Vi kan således beräkna medelfelet genom att dividera standardavvikelsen i
stickprovet med antalet observationer i stickprovet.
s
M = ____
n
(formel 3.2)
Vi kan konstatera att M minskar vid ökning av stickprovsstorleken. Det
är lätt att förstå att så blir fallet. Vad kan slumpen ställa till med vid ett litet
stickprov? Jo, en extremt bra individ kan råka komma med, och denne
individ höjer då medelvärdet. Om vi har många observationer medför detta
att enstaka extrema individer så att säga försvinner i mängden. Vi hade
beräknat M=24.0 och s=6,00 i vårt stickprov. Medelfelet blir då 0,12.
M = 6,00/2500 =0,12
Om vi nöjer oss med att ta M +/- M, dvs. 24,0 +/- 0,12 är chansen 68 %
att µ ligger inom detta intervall. Om vi ökar intervallet till M +/- 2M,
dvs. två gånger medelfelet, ökar också sannolikheten att täcka in µ. Sannolikheten blir nu ungefär 95 %. Det troliga är dock att µ ligger någonstans i
närheten av M och inte i intervallets extremvärden. För att täcka in µ med
en viss bestämd grad av säkerhet multipliceras medelfelet med ett värde,
som kan erhållas ur en t-fördelningstabell (se Appendix, Tabell A). Denna
t-fördelningen är en familj av t-fördelningar som är specificerade av anta© Horst Löfgren
75
let frihetsgrader, dvs. t-fördelningarna ser lite olika ut beroende på antalet
observationer i stickprovet. Med antalet frihetsgrader menas antalet värden
som är fria att variera, när man beräknat ett beskrivande mått, t.ex. när man
vet medelvärdet (jfr avsnitt 4.1.1). Utifrån t-fördelningen kan man erhålla
ett värde som medelfelet ska multipliceras med för att täcka in populationsmedelvärdet med en viss grad av säkerhet. I stället för att ta 2 gånger
medelfelet så kan vi ur t-fördelningen få reda på vad medelfelet ska multipliceras med för att ge ett intervall som med exakt 95 % sannolikhet täcker
in populationsmedelvärdet. Ett sådant intervall kallas för konfidensintervall.
M - tp. M < µ < M + tp. M
(formel 3.3)
tp = värde ur t-fördelningen på den valda sannolikhetsnivån p
I vårt exempel ovan erhålls värdet 1,96 ur t-tabellen (Tabell A i Appendix). Eftersom antalet observationer i stickprovet är 2500 och frihetsgraderna således 2499 får man gå på det värdet som gäller för ”oändligt
många” observationer. De s.k. kritiska värdena för stora stickprov på olika
sannolikhetsnivåer i t-fördelningen är identiska med de kritiska värdena i
z-fördelningen (Tabell B).
24,0 - 1,96 . 0,12 < µ < 24,0 + 1,96 . 0,12
Populationsmedelvärdet ligger således med 95 % säkerhet inom intervallet
24,0 +/- 0,2352.
Skulle vi vilja vara ännu säkrare på att täcka in populationsmedelvärdet
kan vi i stället välja ett 99,9 % konfidensintervall, dvs. multiplicera medelfelet med 3,29. Vi erhåller då att populationsmedelvärdet avrundat ligger
mellan 23,6 och 24,4.
Om vi vid en experimentell undersökning vill undersöka effekter av en ny
medicin, kan vi arrangera undersökningen enligt någon kontrollgruppsdesign. Vi tänker oss att vi slumpmässigt har valt ut en undersökningsgrupp (stickprov) och slumpmässigt fördelat individerna till respektive
experiment- och kontrollgrupp. Under förutsättning att fördelningen till
respektive åtgärdsgrupp skett slumpmässigt kan vi utgå ifrån att grupperna
är lika från början (inom slumpens ram).
76
© Horst Löfgren
Design: Endast eftermätning med kontrollgrupp
Grupp 1 (experimentgrupp):
Grupp 2 (kontrollgrupp):
X1
X2
O
O
X1 = den nya medicinen
X2 = den tidigare använda medicinen
O = observation eller mätning av åtgärdseffekter
För att jämföra de båda metoderna är även här medelfelet av central betydelse. I detta fall måste vi beräkna medelfelet för differensen mellan behandlingsgrupperna (=stickproven). Analogt med fallet för ett stickprov
blir differensen mellan stickprovsmedelvärdena här inte exakt lika för
varje stickprovspar vid upprepade stickprovsdragningar. Medelfelet för
differenser kan beräknas med hjälp av en formel, som presenteras senare.
Även i detta fall kan vi erhålla en skattning av populationsdifferensen på
en vald sannolikhetsnivå genom att multiplicera medelfelet med ett värde
motsvarande den valda sannolikhetsnivån.
3.5
Hypotesprövning
Låt oss som en inledning till detta avsnitt leka ett slag för att visa att även
du har ”en inbyggd hypotesprövningsmekanism” inom Dig. Du och jag
spelar krona och klave med ett av mina mynt. För att göra det hela lite mer
spännande sätter vi 10 kronor i insats för varje spel. Du håller hela tiden på
”klave” och jag på ”krona”. Spelet kan börja.
Vid första kastet vinner ”krona”. Jag får 10 kronor av Dig. Har du någon
kommentar? Nej, förmodligen inte. Du räknar kanske med att vinna nästa
gång. Sannolikheten för vinst är ju 50 % (p=1/2). Nytt spel, nya insatser
och jag vann igen. Har du någon kommentar? Nej, förmodligen inte. Vi
spelar en tredje gång, och jag vinner återigen. Har du någon kommentar?
Ja, du kanske muttrar något om otur. Vi fortsätter och jag kan tänka mig
följande situationer med efterföljande kommentarer:
© Horst Löfgren
77
Antal Antal ”krona”,
Din förlust Dina kommentarer
spel
dvs. vinst för mig
____________________________________________________________
4
4
40:-
Det var som ... Jag har en
väldig otur
5
5
50:-
Tusan också, kan verkligen
slumpen skoja så eller ....?
6
6
60:-
Nej, du. Det här är något
skumt. Är myntet verkligen
OK?
7
7
70:-
Du fuskar väl inte? Men OK,
en sista gång
8
8
80:-
Du FUSKAR, din skurk! Hit
med pengarna som du lurat av
mig!
Om vi skulle se på ovanstående exempel med statistikerns ögon, startar
spelet under förutsättningen att myntet är korrekt, och att jag spelar ärligt.
Vi har då följande nollhypotes och mothypotes:
H0 : pkrona = pklave = 1/2
H1 : pkrona  pklave  1/2
Mothypotesen är i detta fall tvåsidig, dvs. vi har ej riktat den genom att
ange större än (>) eller mindre än (<). Ur din synpunkt hade det varit naturligare med en ensidig mothypotes, för du hade väl aldrig reagerat kritiskt om klave hela tiden hade fallit ut.
Enligt H0 bör vi vinna lika många gånger var, såvida slumpen inte nu ser
till att den ene eller den andre vinner något oftare. Under de fyra första
spelen med fyra förluster för Dig i rad, ansåg du att man inte kunde förkasta H0. Förlusterna tillskrevs slumpen. Du trodde att du hade otur. Efter
5-6 kast började du att ifrågasätta H0, och efter 7 förluster i rad förkastade
du H0. Om du nu har en viss respekt för mig och inte vågar riskera att
felaktigt beskylla mig för fusk, kanske du till och med sträcker Dig till 8
kast, innan du tar steget fullt ut, dvs. förkastar H0 för att i stället tro att H1
gäller. Observera dock att du inte är 100 % säker, när du förkastar H0. Jag
kan ju genom slumpens hjälp ha haft en sådan tur. Det finns alltid en viss
78
© Horst Löfgren
osäkerhet i beslut, som baserar sig på en sådan här statistisk hypotesprövning. Antingen kan man felaktigt förkasta H0 (slumpen var den faktiska
orsaken till det osannolika resultatet) eller felaktigt acceptera H0 (tro att
det var otur och därför förlora pengar). Så här i efterhand kan jag erkänna
att myntet var preparerat. Under de sex första kasten gjorde du således det
felaktiga beslutet att acceptera H0, trots att den var falsk. Utifrån den här
slantsinglingsleken kan vi bygga upp ett enkelt statistiskt test. Vi använder
samma hypoteser som i det föregående, dvs.
H0 : pkrona
= 1/2
H1 : pkrona
 1/2
Om vi kastar en gång, hur stor blir då sannolikheten att jag vinner, dvs. att
”krona” kommer upp? Eftersom det finns två möjliga fall blir sannolikheten 1/2. Kastar vi två gånger, hur stor blir då sannolikheten för mig att erhålla respektive 0, 1 och 2 vinster? Följande utfall är möjliga:
krona
krona
klave
klave
krona
klave
krona
klave
Sannolikhetsvärdena blir således:
pingen krona = 1/4
2
pen krona
= /4
ptvå kronor = 1/4
På samma sätt kan vi beräkna sannolikheterna för respektive 0, 1, 2 och 3
vinster på 3 kast, sannolikheterna för respektive 0, 1, 2, 3 och 4 vinster på
4 kast osv.
kr
kr
kr
kl
kr
kr
kl
kr
© Horst Löfgren
kr
kl
kr
kr
kr
kl
kl
kl
kl
kr
kl
kl
kl
kl
kr
kl
pingen krona
pen krona
ptvå kronor
ptre kronor
= 1/ 8
= 3/ 8
3
= /8
1
= /8
79
Tabell 3.3. Sannolikheter vid slantsingling för vinst (krona)
____________________________________________________________
Antal
Antal kast
vinster 1
2
3
4
5
6
7
8
9
10
____________________________________________________________
0 1/2 1/4 1/8 1/16 1/32 1/64 1/128 1/256 1/512 1/1024
1 1/2 2/4 3/8 4/16 5/32 6/64 7/128 8/256 9/512 10/1024
1/
3/ 6/ 10/ 15/ 21/
28
36
45/
2
4
8
16
32
64
128 /256 /512
1024
1/8 4/ 10/ 20/ 35/
56/
84/
124/
3
16
32
64
128
256
512
1024
1/
5/ 15/ 35/
70/ 126/
210/
4
16
32
64
128
256
512
1024
1/
6/ 21/
56/ 126/
252/
5
32
64
128
256
512
1024
1/
7/
28/
84/
210/
6
64
128
256
512
1024
1/
8/
36/
124/
7
128
256
512
1024
1/
9/
45/
8
256
512
1024
1/
10/
9
512
1024
1/
10
1024
____________________________________________________________
Självfallet behöver man inte sätta upp samtliga antalet möjliga fall för att
beräkna sannolikheterna som i Tabell 3.3, utan här finns ett system. Kan
du finna detta system?
När vi nu gjort upp denna sannolikhetstabell kan vi leka lite med påhittade
händelser. Hur stor är sannolikheten att erhålla 6 vinster av 6 möjliga? Av
värdet i sjätte raden och sjätte kolumnen finner vi att sannolikheten är
1/64, dvs. mellan 1 % och 2 %. Sannolikheten att vinna 7 gånger av 7 möjliga blir 1/128, dvs. något under 1 %. Jag vet inte var din signifikansnivå
ligger, dvs. var du förkastar H0, men man kan pröva sin nollhypotes på
olika nivåer. Här följer några exempel på vanliga signifikansnivåer:
20% -nivån (20 % risk att felaktigt förkasta H0)
5% -nivån (5 % risk att felaktigt förkasta H0)
1% -nivån (1 % risk att felaktigt förkasta H0)
0,1% -nivån (0,1 % risk att felaktigt förkasta H0)
80
© Horst Löfgren
Figur 3.5.
-risk och -risk vid konstanthållande av antalet observationer vid tvåsidig prövning
Som du säkert förstår är det besvärligt att svara på frågan om på vilken
nivå man ska testa sin nollhypotes (jfr Figur 3.5). Väljer vi 20%-nivån är
risken att felaktigt förkasta H0 ganska stor, men risken att felaktigt acceptera H0 är då ganska liten. Om vi i stället väljer 1%-nivån blir risken att
felaktigt förkasta H0 mindre, men risken att felaktigt acceptera H0 blir
större. Svaret på frågan om vilken nivå man ska testa på får besvaras av
Dig. Vilken risk är du beredd att ta? Tycker du att det är obehagligare att
anklaga mig för fusk än att förlora pengar, då väljer du kanske 1%-nivån.
Om du är ekonomisk bör du i stället välja en högre signifikansnivå, förslagsvis 20%-nivån. Risken att felaktigt förkasta H0 kallas för -risk, och
risken att felaktigt behålla H0 kallas för -risk. Om vi bestämmer oss för
att testa på 1%-nivån kan detta således uttryckas =0,01.
Låt oss återvända till sannolikhetstabellen och beräkna sannolikheten att
vid 5 kast erhålla minst 3 vinster (dvs. 3, 4 eller 5 vinster). Vi adderar sannolikheterna och erhåller:
© Horst Löfgren
81
p3 = 10/32
p4 = 5/32
p5 = 1/32
p3,4,5 = 10/32 + 5/32 + 1/32 = 16/32 = 1/2
Chansen att erhålla minst 3 vinster av 5 är således 50 %. Då blir självfallet
sannolikheten att erhålla antingen 0, 1 eller 2 vinster också 1/2.
Vi kan sammanfatta de fyra möjliga kombinationerna av beslut och verkligt förhållande på följande sätt:
Verkligt förhållande:
H0 gäller
H1 gäller
H0 förkastas
Typ I-fel
(sannolikhet = )
Korrekt beslut
(sannolikhet = 1- )
H0 förkastas ej
Korrekt beslut
Typ II-fel
Beslut:
(sannolikhet = 1- ) (sannolikhet = )
Från beräkning av sannolikheter kan vi nu övergå till hypotesprövning.
Antag att vi spelar 10 gånger. Om H0 gäller bör vi vinna ungefär hälften
av gångerna var. Slumpen ser kanske till att det inte blir 5 mot 5, utan
kanske i stället 6/4 eller 7/3. Det kan självfallet också gå åt motsatt håll,
t.ex. 4/6 eller 3/7. Låt oss säga att jag vann 8 gånger och du 2 gånger.
Testa din nollhypotes med =0,05!
H0: pkrona = pklave = 1/2
H1: pkrona  pklave  1/2
Signifikansnivå: =0,05
För att klargöra arbetsgången kan vi grafiskt visa utfallet på följande sätt:
H1 gäller
H0 gäller
H1 gäller
Kritiskt Kritiskt
värde B värde A
___________________________________________x____x___________
0/10
82
1/9
2/8
3/7
4/6
5/5
6/4
7/3
8/2
9/1
10/0
© Horst Löfgren
Antingen gäller H0 eller H1. Vi måste därför bestämma ett kritiskt värde
för det observerade resultatet, så att summan av sannolikheterna till höger
(på denna figur) blir  0,025. Observera att vi genomför en tvåsidig prövning, varför vi får 0,025 i båda svansarna. Om vi lägger vårt kritiska värde
(A) mellan 8/2 och 9/1 erhålls p = 10/1024 + 1/1024 = 11/1024, dvs. ungefär 1 %. Lägger vi i stället vårt kritiska värde (B) mellan 7/3 och 8/2 erhålls p = 45/1024 + 10/1024 + 1/1024 = 56/1024, dvs. något mer än 5 %.
Vilket kritiskt värde ska vi använda? Eftersom vi vill testa på 5%-nivån,
dvs. p 0,025 i högra svansen, inser vi att det kritiska värdet ligger någonstans mellan 8/2 och 9/1.
Nu kommer slutklämmen. Vi har observerat 8 vinster mot 2, och vi har
bestämt oss för att behålla H0, om slumpen kan ha åstadkommit de uppkomna resultaten i fler än 5 fall på 100 (>5 %). Ska vi behålla eller förkasta H0? Då vi håller på vår förutbestämda -risk, kan vi i detta fall inte
förkasta H0. Nu inser du säkert också varför man ibland varit kritisk mot
detta ”antingen eller testande”, när det egentligen rör sig om en kontinuerlig övergång från H0 till H1. När man som i detta fall råkar hamna till
vänster om det kritiska värdet, accepteras H0. Om man i stället råkar
hamna på eller något till höger om det kritiska värdet förkastas H0 i stället.
Observera att fler observationer leder till säkrare resultat. Här kan vi också
påpeka att man egentligen inte bör säga att H0 accepteras. Man prövar om
H0 kan förkastas eller ej. Man prövar inte om H0 kan accepteras. Kan man
inte förkasta H0, är det bättre att säga att man behåller H0 tills vidare.
Det som vi här har visat med hjälp av slantsinglingsleken är ett enkelt statistiskt test. Sannolikheterna i Tabell 3.3 kan erhållas ur binomialfördelningen och vi kan kalla testet för binomialtestet. Detta test finns också i
SPSS under icke-parametriska test.
För att direkt vid testkvantiteten ange huruvida ett observerat värde är signifikant eller ej kan man via en stjärnkonvention ange signifikansnivån.
Följande stjärnmarkeringar brukar användas:
Signifikant på nivån ()
5 % (0,05)
1 % (0,01)
0,1 % (0,001)
ej signifikant
© Horst Löfgren
stjärnmarkering
probabilitetsmarkering
*
**
***
(-)
p<0,05 eller 0,01< p < 0,05
p<0,01 eller 0,001< p < 0,01
p<0,001
p> 
83
3.6
Hypotesprövning av ett stickprov i
förhållande till en population
Vi utgår ifrån ett exempel och tänker oss att en skolklass har genomgått ett
standardprov i matematik för årskurs 9. För detta prov finns således normer gällande för hela landet. I den aktuella klassen erhölls en betygsfördelning som visas nedan. Det framgår att klassen erhållit ett betygsgenomsnitt som något överstiger det teoretiska värdet 3,0.
Kan dessa elever vara dragna ur en population med medelvärdet 3,0, eller
är skillnaden så stor att man knappast kan anta att detta är en slumpmässig
avvikelse?
För att besvara denna fråga ställer vi upp följande nollhypotes och mothypotes:
H0: Det föreligger ingen skillnad mellan medelvärdet för denna
klass och riksgenomsnittet (µ=3,0).
H1: Det föreligger en skillnad mellan medelvärdet för denna klass
och riksgenomsnittet (µ3,0).
Tabell 3.4. Betygsresultat i en skolklass
____________________________________________________________
Betyg
Antal elever
(x)
(f)
f.x
f.x2
____________________________________________________________
1
1
1
1
2
5
10
20
3
9
27
81
4
8
32
128
5
2
10
50
____________________________________________________________
25
80
280
____________________________________________________________
M=
84
fx
______
N
=
80
_____
25
= 3,2
© Horst Löfgren
s=
(fx)2
fx2 - ______
n
_______________________
n-1
= 1,00
Nollhypotesen kan vi kalla för "ingen skillnad-hypotesen", eftersom man
alltid prövar just detta förhållande. Den skillnad som faktiskt har observerats kan kanske ligga inom vad vi betraktar som slumpskillnad. Mothypotesen är oftast vår undersökningshypotes, dvs. vi önskar oftast förkasta H0
för att i stället tro att H1 gäller. Observera att vi alltid prövar om H0 kan
förkastas eller ej på en viss vald signifikansnivå. Antingen kan vi förkasta
H0, eller så har vi misslyckats med att förkasta H0.
Om vi nu erinrar oss samplingfördelningen (avsnitt 3.3), kan vi uttrycka
den observerade differensen mellan vårt klassmedelvärde (M) och populationens medelvärde (µ) i förhållande till medelfelet, dvs. till standardavvikelsen i felfördelningen. Finner vi det erhållna medelvärde 3,2 inom området +/- M, vet vi att denna differens inträffar av en ren slump ungefär 2
gånger av 3 (ca 68 %). Hamnar medelvärdet just utanför vågar vi knappast
förkasta H0. Detta inträffar ju ungefär 1 gång på 3 (ca 32 %). Väljer vi den
vanliga signifikansnivån 5% (=0,05), måste vi i stället se om vårt medelvärde hamnar inom området +/- 2M. Om vårt medelvärde hamnar utanför
detta intervall, anser vi att H0 bör förkastas. Visserligen tar vi en viss risk
att göra ett felaktigt beslut (5 %), men vi hoppas att slumpen inte skojade
med oss just i vårt fall. Vi kan komplettera våra hypoteser ovan med att
ange den signifikansnivå på vilken vi prövar H0.
Signifikansnivå: =0,05 (Vi erinrar oss att  är risken att felaktigt
förkasta H0)
För att kunna pröva vår hypotes måste vi beräkna medelfelet M. Detta
medelfel kan vi skatta på följande sätt:
s
M= ____
n
(formel 3.2)
Medelfelet kan således skattas med hjälp av standardavvikelsen i stickprovet och antalet observationer i stickprovet.
© Horst Löfgren
85
Som tidigare nämnts ska vi nu jämföra den observerade differensen mellan
stickprovets och populationens medelvärde i förhållande till medelfelet,
dvs. den avvikelse som slumpen kan åstadkomma.
M-µ
t = _______
s / n
(formel 3.4)
Detta ger oss ett värde med en känd fördelning, och denna fördelning är
tabellerad. Vi kan nu ur tabell utläsa sannolikheten att erhålla detta värde
av en ren slump. Den fördelning som man relaterar sina observationer till
är t-fördelningen för gällande frihetsgrad. Vid stora stickprov närmar sig tfördelningen z-fördelningen (=normalfördelningen). Vid prövning av ett
stickprovs medelvärde blir antalet frihetsgrader fg=n-1.
I vårt exempel har vi 25 observationer och ska använda t-fördelningen.
Innan vi gör våra beräkningar ska vi fastställa det kritiska värdet, det värde
från och med H0 ska förkastas. Vid signifikansnivån 5% för fg=n-1, dvs.
24 blir det kritiska värdet +/- 2,06 (se Tabell A i Appendix). Vi använder i
detta exempel och i de följande endast s.k. tvåsidig prövning, dvs. vår
mothypotes säger inte något om differensens riktning. För att klargöra när
man ska förkasta H0 eller ej inför vi följande belysande figur:
Om nu H0 gäller, dvs. ingen skillnad mellan medelvärdet i vår klass och
populationsmedelvärdet blir enligt formel 2.4 t=0. Ju större differens desto
mindre sannolikhet att slumpen kan tillskrivas den observerade skillnaden.
Om |t|< 2,06 anser vi att H0 ej kan förkastas, eftersom en sådan differens
inträffar av en ren slump mer än 5 gånger av 100. Vid |t|  2,06 tror vi inte
att slumpen har orsakat differensen, även om så kan ha varit fallet (risken
5 %). Därför förkastar vi H0. Vi sammanfattar beräkningarna i Ruta 3.1.
86
© Horst Löfgren
Ruta 3.1. Prövning av hypotes med hjälp av t-testet
Population: årskurs 9
Stickprov: n=25
µ= 3,0
(egentligen känner vi ej medelvärdet
för populationen men sätter det till
det teoretiska 3,0)
M= 3,2
s= 1,00
H0: Det föreligger ingen skillnad mellan medelvärdet för denna
klass och riksgenomsnittet (µ=3,0).
H1: Det föreligger en skillnad mellan medelvärdet för denna klass
och riksgenomsnittet (µ3,0).
Signifikansnivå: =0,05
Kritiskt värde för fg=24 (n-1): +/- 2,06
M-µ
t = _______ fg = n - 1 (formel 3.4) ;
s / n
3,2 - 3,0
t = _________ = 1,00
1,00/ 25
H0 kan ej förkastas (p > 0,05)
Slutsats: Det observerade klassmedelvärdet 3,2 är ej signifikant skilt från det teoretiska värdet 3,0.
Låt oss nu anta att vi erhållit samma medelvärde 3,2 och samma standardavvikelse men på ett betydligt större antal observationer, exempelvis 100
elever. Skiljer sig nu detta medelvärde ifrån riksgenomsnittet 3,0? Hypo© Horst Löfgren
87
tesformuleringarna och beräkningssättet är nu desamma som i det föregående exemplet.
Ruta 3.2. Prövning av hypotes angående ett stickprov med hjälp av ttestet
Population: µ= 3,0
Stickprov: n=100
M= 3,2; s= 1,00
H0: Det föreligger ingen skillnad mellan medelvärdet för dessa
elever och riksgenomsnittet (µ=3,0).
H1: Det föreligger en skillnad mellan medelvärdet för dessa elever
och riksgenomsnittet (µ3,0).
Signifikansnivå: =0,05; Kritiskt värde för fg=60 (eg. 99): +/- 2,00
M-µ
t = _______
s / n
3,2 - 3,0
.
fg = n - 1 (formel 3.4); t = __________ = 2,00*
1,00/ 100
Eftersom vi har hamnat precis på det kritiska värdet kan vi förkasta
H0 (p= 0,05).
Slutsats: Det observerade medelvärdet 3,2 är signifikant skilt från
det teoretiska värdet 3,0.
88
© Horst Löfgren
I Tabell A finns inget kritiskt värde för just 99 frihetsgrader. Då får man ta
det som ligger närmast (fg=120) eller om man s a s vill vara försiktig så tar
man det som ligger närmast under (fg=60). Det kritiska värdet för t med
fg=60 är +/- 2,00 (egentligen skulle det vara något lite lägre).
Om vi nu jämför slutsatserna i Ruta 3.1 och 3.2 finner vi att H0 accepterades i första fallet men förkastades i andra fallet, trots att vi hade samma
medelvärde och samma standardavvikelse. Olikheten består i att vi i Ruta
3.2 har ett större stickprov. Medelfelet blir i det sistnämnda exemplet
mycket mindre. En signifikant skillnad innebär en säkerställd skillnad,
men det behöver ej betyda att skillnaden är stor. För att uttala sig om skillnadens storlek behöver vi ett annat mått som presenteras senare.
3.7
Hypotesprövning av en medelvärdesdifferens mellan två oberoende
stickprov
Låt oss anta att vi vill pröva två olika undervisningsmetoder i matematik
på elever i årskurs 4. Den ena metoden kallas ”discovery-metoden” och
karaktäriseras av att eleverna får lösa olika uppgifter för att själva komma
på en regel. Den andra metoden kallas ”regelmetoden” och innebär att en
regel presenteras före ett antal tillämpningsuppgifter. Vi väljer att utföra
undersökningen i Lunds kommun. Populationen till vilken vi önskar generalisera våra slutsatser blir således samtliga elever i årskurs 4 inom denna
kommun. Om vi hade haft tid och råd skulle vi kunnat slumpmässigt dela
populationen i två grupper, som därefter behandlades med de två metoderna. En eventuell skillnad mellan grupperna på mätvariabeln (eftertestet)
hade man då inte behövt statistiskt signifikanspröva. Gör man en totalundersökning av populationen behövs inga statistiska prövningar för att generalisera. Vi känner då redan hur resultatet blir för populationen. I praktiken
gör man sällan totalundersökningar, utan man väljer i stället att utföra
undersökningar på ett mindre antal elever för att därefter statistiskt pröva,
om resultaten kan generaliseras till den bakomliggande populationen. Låt
oss i detta exempel säga att vi genomför undersökningen på ett slumpmässigt urval av 220 elever, jämt fördelade på de två undersökningsgrup-
© Horst Löfgren
89
perna. Beroende på ett visst bortfall har vi fått in data från 110 respektive
105 elever.
Vi kan här nämna att det i praktiken ofta är svårt att göra ett slumpmässigt
individurval ur populationen. Man får vanligen nöja sig med ett gruppurval, t.ex. av skolor och klasser. Om individurvalet baserar sig på ett
gruppurval är det tveksamt att analysera data som om man hade oberoende
observationer. Skulle grupptillhörigheten antas ha betydelse för individresultatet borde detta beaktas.
Låt oss i det här fallet anta att vi verkligen slumpmässigt kan ta ut två
grupper, utan att detta förfarande av eleverna alltför mycket uppfattas som
ett s.k. laboratoriemässigt undervisningsförsök. Alltför strikt genomförd
sampling kan ge felkällor, som kan leda till generaliseringssvårigheter. I
praktiken får man göra avvägningar mellan vad som ur statistisk synpunkt
är idealt och vad som ger mest ur pedagogisk-psykologisk tolkningssynpunkt. Vi börjar den statistiska analysen med att ställa upp nollhypotes och
mothypotes samt välja signifikansnivå:
Det föreligger ingen skillnad i eftertestresultaten mellan de två jämförda grupperna. H0: µ1 = µ2 (=µ)
Det föreligger en skillnad i eftertestresultaten mellan de två jämförda grupperna. H0: µ1  µ2
Signifikansnivå: =0,05
Observera att då vi här talar om skillnader mellan metoder (eller grupper)
avser vi endast skillnader i den observerade variabeln. Det gäller att välja
bra utvärderingsvariabler!
Likaväl som man vid ett stickprov kan skatta medelfelet, dvs. standardavvikelsen i samplingfördelningen, kan man även göra så för differensen
mellan stickprov. Om man studerar medelvärdesdifferensen i två slumpmässigt dragna stickprov ur samma population och upprepar stickprovsdragningen ett antal gånger, erhåller man ibland en positiv differens,
ibland en negativ och ibland ingen differens alls. Medelvärdet för dessa
differenser efter ett stort antal jämförelser närmar sig noll om H0 gäller.
Samplingfördelningen för medelvärdesdifferensen ser likadan ut som den
som tidigare presenterats i Figur 3.4.
90
© Horst Löfgren
Medelfelet för differensen beräknas på följande sätt:
Mdiff =
(n1-1).s12 + (n2-1).s22
___________________
n1 + n2 - 2
1
1
( __ + __ )
n1
n2
(formel 3.5)
För att pröva om medelvärden från två oberoende stickprov kan anses vara
lika, dvs. om stickproven kan anses vara dragna från samma population
används följande formel:
M1 - M2 - (µ1 - µ2)
t=
(n1-1).s12 + (n2-1).s22
1
1
___________________ ( ___ + ___ )
n1 + n2 - 2
n1
n2
(formel 3.6)
fg=(n1-1) + (n2-1)
Utan att diskutera eventuella felkällor, som kan ha inverkat på resultatet
kan vi från statistisk utgångspunkt dra slutsatsen, att de två behandlingsmetoderna givit olika resultat. Vi vågar åtminstone generalisera detta resultat till populationen ”elever i årskurs 4 i Lunds kommun”. Observera
dock att vi tar en viss risk att slutsatsen är fel, men risken är mindre än 5
%.
Här kan vi återknyta till avsnitt 3.4 och ta ut ett konfidensintervall på den
valda nivån = 0,05, dvs. ett 95% konfidensintervall. Utifrån erhållna data
kan vi dra slutsatsen att resultatskillnaden i populationen ligger inom detta
intervall. I enlighet med formel 3.3 erhåller vi i detta fall följande:
Mdiff - tp. M < µdiff < Mdiff + tp. M
-2,0 - 1,96 . 0,75 < µdiff < -2,0 + 1,96 . 0,75; dvs. -3,47 < µdiff < -0,53
Eftersom intervallet inte täcker in en differens på 0,00, dvs. ingen differens
mellan de två grupperna, drar man slutsatsen att det finns en signifikant
skillnad. I SPSS får man direkt det erhållna t-värdet för differensen, signifikansangivelse för att nollhypotesen gäller och ett 95% konfidensintervall
kring den erhållna skillnaden.
© Horst Löfgren
91
Ruta 3.3.
Prövning av hypotes av två oberoende stickprov med hjälp av
t-testet för två oberoende grupper
Stickprov 1 (”discovery”-metod)
Stickprov 2 (regel-metod)
M1= 25,0; s1 = 5,00; n1 = 110
M2= 27,0; s2= 6,00; n2= 105
Det föreligger ingen skillnad mellan de två metoderna vad avser
resultat på eftertestet. H0: µ1=µ2 (= µ)
Det föreligger en skillnad mellan de två metoderna vad avser resultat
på eftertestet. H1: µ1µ2
Kritiskt värde: (= 0,05; 213 frihetsgrader) +/- 1,96
25,0 - 27,0
- 2,0
t = _____________________________________ = _____ = - 2,67*
0,75
109.5,002 + 104.6,002
1
1
____________________ ( ___ + ____ )
110 + 105 -2
110
105
H1
H0
H1
obs.v
krit.v.
krit.v
___x___x____________________________x_______________
t= högt neg
t=0
t =högt pos
Slutsats: H0 förkastas (p < 0,05)
92
© Horst Löfgren
3.8
Hypotesprövning av en medelvärdesdifferens mellan två beroende
stickprov
Som tidigare nämnts blir det ett beroendeförhållande mellan två stickprov
vid repeterad mätning, dvs. när man mäter samma individer två gånger
(exempelvis före och efter en åtgärdsfas), eller när man matchar individer.
Det sistnämnda används då man vill öka precisionen i ett experiment, dvs.
för att nå tillförlitliga resultat med ett fåtal individer i stickprovet. Först
matchar man efter någon eller några betydelsefulla variabler, dvs. skapar
individpar som är så lika som möjligt, för att därefter slumpmässigt fördela
individerna i samma par till olika grupper.
För analys av beroende stickprov använder vi oss av t-analys av differenser
enligt formeln:
Mdiff -µdiff
tdiff = ___________
sdiff
/ n
fg = n - 1
(formel 3.7)
Mdiff = medelvärdet för differenserna mellan de parvisa individerna
sdiff = standardavvikelsen för differenserna
n = antalet parvisa observationer
Som exempel väljer vi en undersökning, i vilken man ville studera effekterna av två olika sätt att lära in nya glosor i tyska för elever i årskurs 7 (se
Tabell 3.5). Ur populationen ”tyskläsande elever i årskurs 7 i rektorsområde H” utvaldes slumpmässigt 30 elever. Om nu eleverna i detta utvalda
rektorsområde är representativa för en större bakomliggande grupp elever
kan man kanske efter undersökningen diskutera en vidare generalisering.
Eleverna matchades parvis efter kön och resultat på ett ordkunskapstest
före försöket. Parmedlemmarna i de 15 paren fördelades slumpmässigt till
de två experimentgrupperna. Efter inlärningsperioden testades eleverna på
ett ordkunskapsprov för att utvärdera effekterna av de två olika inlärningssätten. Innan vi kan pröva om resultaten skiljer sig i de båda grupperna,
måste vi beräkna medelvärdet (Mdiff) och standardavvikelsen (sdiff) för
de parvisa observationerna.
© Horst Löfgren
93
Tabell 3.5. Resultat av eftertestet
____________________________________________________________
Elevpar Experimentgrupp 1 Experimentgrupp 2 diff
diff2
____________________________________________________________
A
25
19
6
36
B
32
30
2
4
C
13
14
-1
1
D
27
24
3
9
E
31
25
6
36
F
23
18
5
25
G
35
31
4
16
H
30
23
7
49
I
20
20
0
0
J
32
27
5
25
K
24
21
3
9
L
18
21
-3
9
M
23
23
0
0
N
28
24
4
16
O
20
22
-2
4
39
39
Mdiff = ___ = 2,6
15
239
2
239 - 39 /15
sdiff = ____________ = 3,14
14
När vi väl beräknat Mdiff (=2,6) och sdiff (=3,14) kan vi pröva nollhypotesen att det inte finns någon skillnad mellan grupperna, dvs. µdiff=0. Hypotesprövningen genomförs på samma sätt som den tidigare genomgångna
t-analysen för ett stickprov. Prövningen visar att vi erhållit en signifikant
skillnad mellan de två metoderna på 1%-nivån (p < 0,01). I Ruta 3.4 ges en
sammanfattning av hypotesprövning för beroende observationer.
Skulle man ange ett konfidensintervall inom vilket populationsdifferensen
skulle finnas på den valda signifikansnivån, dvs. ett 99% konfidensintervall, erhålls följande:
3,21 – 2,98 . 0,81 < µdiff < 3,21 + 2,98 . 0,81; dvs. 5,62 < µdiff < 0,80
94
© Horst Löfgren
Ruta 3.4. Prövning av hypotes av två beroende stickprov med hjälp av
t-testet
Mdiff= 2,6; sdiff= 3,14
Det föreligger ingen skillnad mellan de två metoderna (grupperna)
vad avser resultat på eftertestet.
H0 : µdiff = 0
Det föreligger en skillnad mellan de två metoderna (grupperna)
vad avser resultat på eftertestet.
H1 : µdiff 0
Kritiskt värde: (= 0,01; 14 frihetsgrader) +/- 2,98
Mdiff -µdiff
tdiff = ___________ fg = n - 1 ;
sdiff/ n
H1
H0
2,6
tdiff = ________ = 3,21**
3,14/ 15
H1
krit. v.
krit. v. obs. v.
_____x_____________________________x_____x____
t = högt neg.
Slutsats:
3.9
t=0
t = högt pos.
H0 förkastas (p<0,01, eller som man också kan skriva
0,01> p >0,001)
Hypotesprövning av medelvärdesdifferenser med hjälp av variansanalys
Variansanalys, vanligen kallad ANOVA (efter det engelska namnet Analysis of varians), är en mycket användbar parametrisk hypotesprövningsmetod. Den kan användas när man jämför två eller flera uppsättningar av data
© Horst Löfgren
95
(grupper). Både beroende grupper (vid repeterad mätning eller matchning)
och oberoende grupper kan analyseras med ANOVA. Här nöjer vi oss med
att presentera enfaktors och tvåfaktors variansanalys för oberoende grupper och enfaktors variansanalys för beroende grupper. Utöver dessa finns
flera varianter av flerfaktors variansanalytiska undersökningsuppläggningar.
När experimentella undersökningar utvecklades försökte man skapa situationer, i vilka man höll alla faktorer under kontroll och endast varierade
den, som var av huvudintresse. Med variansanalytisk teknik kan man samtidigt analysera mer än en oberoende variabel. Man behöver således inte
helt begränsa verkligheten för att kunna ha experimentell kontroll. Om
man samtidigt analyserar flera oberoende variabler kan man på ett mer
fullständigt sätt förklara relationer mellan variabler. Förutom huvudfaktorer kan man vid flerfaktoriella undersökningsuppläggningar erhålla s.k.
samspelseffekter, dvs. få reda på olika oberoende variablers interaktion.
Variansanalys är således en statistisk teknik för att jämföra två eller flera
grupper och man jämför om det finns någon medelvärdesskillnad mellan
dem. Liksom vid t-testet används resultat från studerade stickprov för att
pröva hypoteser om populationer. Det är sålunda som i tidigare presenterade statistiska hypotesprövningsmetoder, att det förutsätts att stickprovet
är representativt för populationen. Om stickprovet ej är slumpmässigt draget ur populationen måste man ta hänsyn till detta vid resonemang om
generalisering.
Variansanalys förutsätter att de jämförda gruppernas bakomliggande populationer har samma varians, och att mätvärdena i dessa populationer är
normalt fördelade. Det F-test som används i variansanalys har dock visat
sig robust mot avvikelser i dessa nämnda förutsättningar.
I SPSS finns som option möjlighet att pröva om jämförelsegrupperna kan
antas ha lika varianser i populationen. Vid t-test för två oberoende stickprov ges ett t-värde automatiskt, både för fallet med lika varianser för
olika.
De oberoende variablerna, vars effekter på mätvariabeln ska analyseras,
kallas för faktorer. De olika värdena i den oberoende variabeln, oftast
några få, kallas nivåer.
96
© Horst Löfgren
3.10 Enfaktors ANOVA; oberoende
grupper
I en enfaktors ANOVA studeras endast en oberoende variabel, och man
undersöker om de olika grupperna (nivåerna) skiljer sig så mycket att
stickproven inte kan anses vara dragna ur en och samma population.
Antag en undersökning i vilken man studerar barns prestationer i enkla
additionsuppgifter under fyra olika temperaturbetingelser. I detta exempel
låter vi barnen arbeta i 30 minuter i ett klassrum med respektive 20 o, 23o,
26o och 29o. Om vi nu slumpmässigt har tagit ut exempelvis 40 barn och
slumpmässigt fördelat dem på de fyra betingelserna, har vi därmed en
strikt experimentell undersökningsuppläggning. Eftersom det är olika barn
i de olika grupperna är detta ett exempel på oberoende grupper. Skulle vi
ha låtit samma barn få arbeta under alla de fyra betingelserna, skulle vi
istället ha erhållit beroende grupper. Ett beroendeförhållande i mätvärdena
uppstår, som tidigare nämnts, vid två tillfällen, nämligen vid repeterad
mätning och vid matchning av individer i grupperna.
Den oberoende variabel som studeras är arbetstemperatur. Denna variabel
har 4 nivåer (20o, 23o, 26o och 29o). Den beroende variabeln (effektvariabeln, mätvariabeln) är prestationer i räkning och mäts med ett additionstest.
Eftersom man här har valt fyra bestämda temperaturbetingelser ur den
kontinuerliga variabeln temperatur kallas detta för en fix modell. Om man
från en oberoende variabel slumpmässig väljer ut ett antal nivåer, som
sedan studeras kallas detta för en stokastisk modell. I flesta fall används
fixa modeller, och vi drar slutsatser om de studerade nivåerna och endast
om dessa utvalda.
A
a1
G1
Figur 3.6.
© Horst Löfgren
faktor A= temperaturbetingelser
a2
a3
a4
a1= 20o
a2= 23o
G2
G3
G4
a3= 26o
a4= 29o
Undersökningsdesign, enfaktors ANOVA
97
Om vi parvis skulle ha prövat medelvärdena mot varandra, skulle vi behöva utföra sex t-test. Variansanalysen tillåter oss att samtidigt jämföra de
fyra medelvärdena. De 40 barnen presterar olika bra på additionstestet.
Med hjälp av olika varianskomponenter ska vi försöka tolka resultatet så
bra som möjligt. Varför får de 40 eleverna olika resultat?
Den troligen största anledningen till resultatolikheter är att barn är olika
bra på sådana här test. Barn har olika bakgrund, förmågor, kunskaper, attityder m.m., och därför finns det individuella skillnader. En del av variationen mellan de 40 barnen kan bero på behandlingen, dvs. de olika temperaturbetingelserna. En del av variationen kan sålunda vara betingad av
olikheter i den oberoende variabeln. Det är denna effekt av den oberoende
variabeln, som är den mest intressanta i den här undersökningen. Slutligen
kan en del av resultaten också bero på mätfel, dvs. brister i mätinstrumentet. Ett sådant här test har dock troligen hög reliabilitet.
Om vi väljer ut två barn, exempelvis ett barn ur grupp 1 och ett barn ur
grupp 3, varför skiljer sig deras resultat? Det kan bero på att de har fått
olika behandlingar (20o mot 26o), det kan också bero på att dessa individer
är olika oavsett temperaturbetingelser. Dessutom kan det bero på mätfel,
dvs. slumpen. Om vi i stället väljer ut två barn ur samma grupp så kan en
skillnad i resultaten dem emellan inte bero på olika behandlingar, men väl
på individuella olikheter och mätfel. Den totala variationen i hela undersökningsgruppen kan således delas upp i variation mellan grupper och
variation inom grupper. Den sistnämnda variationen kan delas upp i individuella skillnader och mätfel.1
SSM
SSI
SST
SST = Total varians (SS kommer från engelskans term för kvadratsumma, Sum of Squares)
SSM = Mellangruppsvarians
SSI = Inomgruppsvarians
SST = SSM + SSI
Figur 3.7.
1
Varianskomponenter
Ett mycket förenklat exempel på variansanalys ges i appendix, s. 154
98
© Horst Löfgren
Undersökningens frågeställning kan uttryckas på följande sätt: Hur mycket
av den totala variationen beror på olika behandlingar? Ju större kvoten
SSM/SST är desto mer beror på olikheter i behandlingen, dvs. temperaturbetingelser. Kvoten SSM/SST är således ett storleksmått på behandlingseffekten. Om vi nu statistiskt ska pröva skillnaderna mellan grupperna ställer
vi upp följande nollhypotes:
H0: µ1=µ2=µ3=µ4 (=µ)
Nollhypotesen säger att de bakomliggande medelvärdena (populationsmedelvärdena) för de olika grupperna är lika, dvs. ett och samma medelvärde µ.
Mothypotesen är att det finns en skillnad någonstans mellan grupperna,
dvs. endera av nedanstående 26 fall föreligger:
H1:
µ1<µ2=µ3=µ4
µ1=µ2>µ3=µ4
µ1=µ2>µ3>µ4
m fl andra mothypotesalternativ
Att förkasta H0 innebär således att åtminstone en av de 26 möjliga H1fallen är sann.
När vi beräknat den genomsnittliga variansen mellan och inom grupper
jämförs dessa båda variationsorsaker. Vi bildar en F-kvot, som kan beskrivas på följande sätt:
behandlingseffekt + individuella skillnader + mätfel
F = ____________________________________________
individuella skillnader + mätfel
Om H0 gäller finns ingen skillnad mellan grupperna, dvs. ingen behandlingseffekt. Av formeln ovan inser vi, att F-kvoten då blir nära 1. Skulle
det finnas en behandlingseffekt blir F-kvoten större än 1, eventuellt så stor
att H0 måste förkastas. Liksom det finns t-fördelningar för olika frihetsgrader så finns det en F-fördelning för olika frihetsgrader för den F-kvot
som beräknas. De kritiska värdena för olika frihetsgrader i täljare respektive nämnare samt för olika signifikansnivåer finns tabellerade (Tabell C).
Den genomsnittliga variansen mellan grupper erhålls genom att dividera
SSM med antalet frihetsgrader (antalet grupper - 1), och den genomsnittliga variansen inom grupper erhålls genom att dividera SSI med dess antal
© Horst Löfgren
99
frihetsgrader ({antalet individer i gruppen -1} multiplicerat med antalet
grupper).
I det tidigare presenterade exemplet har följande data erhållits (Tabell 3.6).
Som synes har en elev i respektive grupp 3 och grupp 4 fallit bort på grund
av frånvaro.
Tabell 3.6. Antal rätt på respektive barn i fyra temperaturgrupper
____________________________________________________________
Temperaturgrupper
Grupp 1
20o
46
75
67
59
51
47
56
63
54
35
Grupp 2
23o
72
64
58
46
51
57
42
45
55
50
Grupp 3
26o
53
37
54
28
53
47
49
32
41
--
Grupp 4
29o
52
48
66
38
44
44
40
25
42
-- Summa
Kolumnssummor tk: 553
540
394
399 1886
2
Kvadratsummor x :31767
29924
18002
18669 98362
Antal observationer nk: 10
10
9
9
38
Medelvärden M:
55,3
54,0
43,8
44,3 49,6
____________________________________________________________
Förberedande beräkningar och beräkning av varianskomponenter:
Beräkna följande summor:
T
X2
N
tk
x2
nk
100
=
=
=
=
=
=
samtliga barns resultat
kvadraterna på samtliga barns resultat
antalet barn totalt
barnens resultat i respektive grupp
kvadraterna på barnens resultat i respektive grupp
antalet barn i respektive grupp
© Horst Löfgren
Beräkning av varianskomponenter
1. Totalkvadratsumma (SST):
SST = X2 - T2/N
X2 = 98362
T2/N = 18862/38 = 93605,16
SST= 98362 - 93605,16= 4756,84
2. Mellangruppskvadratsumma (SSM):
SSM=tk2/nr - T2/N
tk2/nk = 5532/10+ 5402/10+ 3942/9+ 3992/9 = 94678,34
T2/N = 93605,16
SSM= 94678,34 - 93605,16 = 1073,18
3. Inomgruppskvadratsumma:
SSI=X2 - tk2/nr
X2 = 98362
tk2/nk = 94678,34
SSI= 98362 - 94678,34 = 3683,66
4. Kontroll av beräkningar
Enligt Figur 3.7 är SST = SSM + SSI. Vi kan nu kontrollera genom att
använda resultaten av punkterna 1, 2 och 3 ovan.
4756,84 = 1073,18 + 3683,66
Utifrån erhållna kvadratsummor kan medelkvadratsummor beräknas genom att dividera med respektive antal frihetsgrader enligt Tabell 3.7.
I exemplet ovan har kvadratsummor beräknats och medelkvadratsummorna erhålls enligt följande:
SST = 4756,84
SSM = 1073,18
SSI = 3683,66
MSM = 1073,18/3 = 357,73
MSI = 3683,66/34 = 108,34
© Horst Löfgren
101
Den erhållna F-kvoten blir då:
F = 357,73/108,34 = 3,30 för fg 3/34
Tabell 3.7. Beräkning av medelkvadratsummor och varianskvot
____________________________________________________________
Variationsorsak
KvadratFrihetsMedelkvadrat- Varianskvot
summa
grader
summa
SS
fg
MS
F
____________________________________________________________
Mellan grupper SSM
k-1
MSM=SSM/k-1 F=MSM/MSI
Inom grupper
SSI
N-k
MSI=SSI/N-k
____________________________________________________________
Totalt
SST
N-1
____________________________________________________________
Tabell 3.8. ANOVA-tabell
____________________________________________________________
Variationsorsak
SS
fg
MS
F
p
____________________________________________________________
Mellan grupper
1073,18
3
357,73
3,30
< 0,05
Inom grupper
3683,66
34
108,34
____________________________________________________________
Totalt
4756,84
37
____________________________________________________________
Eftersom det kritiska värdet för =0,05 är 2,92 (fg 3/30) måste H0 förkastas. Åtminstone en av de alternativa mothypoteserna är sann. Den signifikanta F-kvoten ger endast upplysning om att det finns en signifikant skillnad, men inte mellan vilka grupper som skillnaden är säkerställd. När man
i sin analys har mera än två grupper, kan man gå vidare och parvis pröva
skillnader mellan gruppmedelvärden. För dessa s.k. kontrastanalyser (Post
Hoc) finns olika metoder, t.ex. LSD, Scheffe och Bonferroni. Av resultattablåer erhåller man information mellan vilka grupper som det finns signifikant skillnad enligt det test man önskar använda. I dessa kontrastanalyser
102
© Horst Löfgren
skärps det kritiska värdet för den enskilda parjämförelsen, detta för att inte
råka ut för det s.k. massignifikansproblemet. Om gör väldigt många jämförelser på t.ex. 5%-nivån kommer självfallet några att bli signifikanta. Av
100 jämförelser borde rimligen ungefär 5 % bli signifikanta.
3.11 Lämpliga index på relationen mellan
oberoende och beroende variabel
En erhållen signifikant skillnad mellan jämförda grupper behöver inte innebära att skillnaden är stor. Vid stora stickprov kommer även små skillnader att bli statistiskt säkerställda. Förutom signifikansangivelse är det
lämpligt att ange något mått på storleken i erhållna gruppskillnader. Tyvärr
är det fortfarande alltför sällan som sådana storleksmått används. Nedan
beskrivs några lämpliga mått på relationen mellan den oberoende och den
beroende variabeln i analyser där parametriska metoder har använts.
3.11.1 Omega-kvadrat
Sambandet mellan den oberoende variabeln och mätvariabeln i en fix variansanalytisk modell kan skattas med hjälp av 2-koefficienten. Kvadratroten ur detta index är jämförbar med en korrelationskoefficient.
SSM - (k-1)MSI
2est= ________________
MSI + SST
(formel 3.8a)
För en enfaktors ANOVA blir detta identiskt med:
(k-1)(F-1)
2est= _____________
(k-1)(F-1) + N
(formel 3.8b)
Om man har genomfört ett t-test för jämförelse mellan stickprov ur två
populationer kan man skatta omega-kvadrat med hjälp av följande formel:
© Horst Löfgren
103
t2-1
2est = _____________
t2 + n1 +n2 -1
3.11.2
(formel 3.9)
Eta-kvadrat
Eta är känt under namnet korrelationskvot (correlation ratio) och är ett
lämpligt mått för att beskriva relationen mellan två variabler med ickelinjära regressionslinjer. För att ange relationen mellan en oberoende variabel (nominalskalerad) och en beroende variabel (intervall- eller kvotskalerad) i en undersökning kan detta mått användas. Eta2 är då den delen av
den totala variansen, som kan prediceras utifrån den oberoende variabeln.
SSM
eta2 = ______
SST
(formel 3.10)
Eta2 används för att ange hur mycket av den totala variansen, som i en
undersökning förklaras av den oberoende variabeln. Det skattade omegakvadratvärdet anger sambandet mellan den oberoende och den beroende
variabeln.
Det finns inga konventioner för tolkningen av storleken på 2 och eta2.
Bedömningen av vad som ska anses vara en stor skillnad mellan jämförda
grupper blir självfallet relaterat till vad man har anledning att vänta sig. I
många experimentella undersökningar kan man förslagsvis använda följande gränser för tolkningen av 2 och eta2:
0,00 - 0,04
0,05 - 0,09
0,10 -
liten skillnad
medelstor skillnad
stor skillnad
Eftersom 2 och eta2 är mått på relationen mellan oberoende och beroende variabel kan man i stället tala om svag, påtaglig och stark relation.
I resultattablåerna för variansanalys (ANOVA) och kovariansanalys
(ANCOVA) erhåller man detta mått på effektstorlek via ”Options”. Dessutom kan man begära att få ett mått på ”power”. Med power avses ett tests
förmåga att finna en sann skillnad, dvs. förkasta nollhypotesen, när det är
korrekt att förkasta den. I Figur 3.5 visades de två typer av fel, som man
104
© Horst Löfgren
riskerar att göra vid en statistisk hypotesprövning. Risken att felaktigt behålla nollhypotesen kallas Typ II-fel och sannolikheten för detta fel är
Vid konstanthållande av antalet observationer i en undersökning kommer -risken att öka om -risken minskas. Om man prövar en hypotes på
1%-nivån kommer således –felet att vara större än om man testar på 5%nivån. Den möjlighet man har att minska risken att felaktigt behålla nollhypotesen är att öka stickprovsstorleken, dvs. ha fler observationer i studien. Det är här som man har nytta av att få veta värdet på det statistiska
testets power, som är benämningen på sannolikheten 1- 
Om man har tillräckligt stora stickprov blir –felet = 0 och power således
1,00. Det skulle således vara möjligt att räkna ut hur stora stickprov man
behöver för att vara säker att det är ett korrekt beslut, om nollhypotesen
förkastas. Det vanligaste sättet att planera undersökningar är emellertid att
man tar till i överkant, dvs. har så många observationer i sina urval att man
erhåller säkra slutsatser. Här kan också nämnas att statistiska test är olika
bra på att finna signifikanta skillnader. Icke-parametriska metoder är ofta
sämre än parametriska metoder.
3.11.3
Effektstorlek
Effektstorlek (ES) är en familj av mått som används för att beskriva storleken i skillnader mellan behandlingsgrupper. Till skillnad från signifikansvärden är påverkas inte dessa storleksmått av stickprovsstorlek. I s.k. metaanalyser, dvs. kunskapsöversikter, fanns ett behov av att uttrycka skillnaden mellan behandlingsgrupper i ett standardiserat mått, detta för att
kunna jämföra resultatet av olika undersökningar.
När man önskar ett mått på storleken av effekter använder man vanligen
endera av följande:
1. Den standardiserade skillnaden mellan två medelvärden.
2. Sambandet mellan den oberoende behandlingsvariabeln och den beroende utfallsvariabeln.
I metaanalyser där man haft experiment- och kontrollgrupp har man använt
den enkla formeln:
ME – MK
sK
© Horst Löfgren
105
Man beräknar således medelvärdesdifferensen mellan experiment- och
kontrollgrupp och dividerar med standardavvikelsen för kontrollgruppen.
Egentligen spelar det ingen roll om man dividerar med standardavvikelsen
för experimentgruppen eller kontrollgruppen under förutsättning att varianserna i de båda grupperna är någorlunda lika. För säkerhets skull kan det
rekommenderas att använda den sammanvägda standardavvikelsen, dvs.
sE2 + sK2
________
2
Om man jämför utfallet i två grupper där grupperna inte är lika stora kan
man vikta ihop standaravvikelserna enligt följande:
(n1-1) .s12 + (n2-1).s22
___________________
n1 + n2 - 2
Det mått man på detta sätt erhåller på differensens storlek ger då indikation
på om man ska betrakta skillnaden som lite eller stor. Självfallet måste
man ta i betraktande vad man det är man jämför, dvs. den oberoende variabeln. I experimentella undersökningar, där man då studerar effekten av en
insatt åtgärd kan man betrakta ES ≤ 0,3 som små skillnader, ES ca 0,5 som
måttliga skillnader och ES ≥ 0,7 som stora skillnader.
Om man i en artikel får reda på t-värdet för den statistiska skillnaden mellan två stickprov kan man enkelt beräkna ES för att kontrollera att signifikansen också innebär en betydelse skillnad. Som tidigare sagts kan man ju
erhålla statistisk signifikans trots att skillnaden är minimal, om man bara
har tillräckligt stora stickprov. Den formel man kan använda för skattningen av effektstorlek är:
ES= 2t/√df
Dvs. effektstorleken erhålles genom att ta 2 gånger t-värdet dividerat med
kvadratroten ur antalet frihetsgrader. Antalet frihetsgrader är som bekant
summan av antalet observationer i de båda grupperna minus 2.
Om gruppstorleken är olika i de båda grupperna bör man använda:
ES= t(n1 +n2)/√df . n1 . n2
106
© Horst Löfgren
Man kan också erhålla ES via korrelationen mellan den oberoende och den
beroende variabeln:
ES= 2r/√(1-r2)
Om man har en design med beroende gruppen (matchade grupper eller
upprepad mätning) kan man med fördel ange ett effektstorleksmått genom
att ta medelvärdesdifferensen dividerat med standardavvikelsen för den
ena gruppen (obs. ej standardavvikelsen för differenserna).
3.12 Tvåfaktors ANOVA; oberoende
grupper
När vi genom forskning söker ny kunskap gäller det ofta att kunna förklara
variationen i en beroende variabel. Ofta kompliceras verkligheten av att
många olika variabler är betydelsefulla för den utfallsvariabel, som man
vill finna förklaring till. Flera oberoende variabler, kanske också en viss
kombination av dessa kan vara betydelsefull för utfallet i den beroende
variabeln.
Flerfaktoriella uppläggningar och variansanalytisk bearbetning ger oss
möjlighet att samtidigt studera mer än en oberoende variabel. Denna typ av
uppläggningar öppnar speciella möjligheter. Inte nog med att man kan
studera effekter av olika oberoende variabler (s.k. huvudeffekter), utan en
sådan uppläggning ger oss också möjlighet att studera samspel (s.k. interaktionseffekter) mellan de oberoende variablerna. Det sistnämnda innebär
att det kanske är en viss kombination av oberoende variabler, som är av
betydelse för resultatet (variationen) i den beroende variabeln. Nedan följer ett exempel på en tvåfaktoriell uppläggning.
Vid en hälsoundersökning på ett större företag konstaterades att en stor del
av de anställda led av övervikt och brister i den allmänna konditionen.
Företagsläkaren var intresserad att pröva några åtgärder för att se, om det
gick att relativt snabbt åstadkomma en viktminskning och en förbättring av
de anställdas kondition och allmäntillstånd.
Ett slumpmässigt urval av de anställda i åldern 35-50 år tillfrågades, om de
ville delta i ett viktminskningsprogram. Samtliga 36 tillfrågade personer,
lika antal män och kvinnor, accepterade att delta. Undersökningsgruppen
© Horst Löfgren
107
fördelades slumpmässigt till tre undergrupper. Den första undergruppen
fick ett motionsprogram på schemalagda timmar, den andra ett dietprogram och den tredje gruppen en kombination av både fysisk motion och
regler för kostintag. Efter 5 månader utvärderades de olika åtgärdsprogrammen. Bland annat registrerades viktminskningen i kilo för deltagarna.
I Figur 3.9 presenteras undersökningens uppläggning.
Eftersom det finns två nivåer i faktorn kön (män och kvinnor) och tre nivåer i faktorn åtgärdsprogram (motion, diet och motion + diet) kallas
denna typ av undersökningsuppläggning en 2 x 3 faktoriell uppläggning.
Det är dessutom oberoende grupper, eftersom vi har olika individer i de
sex grupperna.
B
b1
b2
b3
a1
G1
G2
G3
a2
G4
G5
G6
A: kön
B: åtgärdsprogram
a1 = män
b1 = motion
a2 = kvinnor b2 = diet
b3 = motion + diet
A
Figur 3.8.
Undersökningsdesign
Utfallsvariabeln i den här delen av undersökningen är viktminskning. De
36 deltagarna har en viss total variation i dessa värden. En del av denna
variation kan vara relaterad till åtgärdsprogram, en del till olikheter mellan
män och kvinnor, och en del kan kanske vara relaterad till en kombination
av kön och åtgärd. Den största delen av viktminskningsvariationen mellan
deltagarna beror troligen på att individer är olika eller på andra faktorer
som ej är kontrollerade i undersökningen.
SSA
SSB
SSAB
SSI
SST
Figur 3.9.
108
Variansdelar i viktminskningen
© Horst Löfgren
I stället för SSI används ibland SSres eller ”error”. SSI är en residual eller
felterm i den meningen att man inte kan tolka denna varians som orsakad
av någon av de oberoende variablerna.
Tabell 3.9. Viktminskning i kg efter 5 månader (negativt tecken innebär
viktökning)
____________________________________________________________
Faktor B (åtgärdsprogram)
Faktor A
b1
b2
b3
(kön)
(motion)
(diet) (motion+diet)
Radsummor
____________________________________________________________
a1 (män)
2
3
6
4
2
8
3
3
7
-1
3
3
0
4
4
3
5
5
_______________________
tc =
11
20
33
tr = 64
M = 1,83,3
5,5
____________________________________________________________
a2 (kvinnor)
2
4
7
-1
3
3
3
6
6
2
4
8
-2
2
9
0
4
7
_________________________
tc =
4
23
40
tr = 67
M=
0,7
3,8
6,7
Kolumnsummor tk = 15
Kvadratsummor x2 = 61
43
73
169
487
T = 131
X2 = 717
Vi ska nu pröva huvudeffekterna, dvs. om det finns någon skillnad i resultat mellan män och kvinnor (SSA) samt mellan de tre åtgärdsprogrammen
(SSB). Samtidigt ska vi också pröva, om det finns någon interaktionsef© Horst Löfgren
109
fekt, dvs. om det finns ett samband mellan åtgärd och kön (SSAB). Ett
sådant samband kan yttra sig i att kvinnor vinner mest på en åtgärd medan
män vinner mest på en annan. Hur stor del av den totala variansen som är
relaterad till individuella skillnader oberoende av grupptillhörighet och till
mätfel ligger i den del som i figuren kallas SSI.
För faktor A prövas hypotesen om de bakomliggande medelvärdena (populationsmedelvärdena) för män och kvinnor är lika, dvs. ingen skillnad mellan kön vad avser viktminskning (=0,05).
H0: µmän = µkvinnor (=µ)
H1: µmän  µkvinnor
För faktor B prövas hypotesen om det finns någon skillnad mellan de tre
åtgärdsprogrammen (=0,05).
H0: µmotion = µdiet = µmotion+diet (=µ)
H1: µmotion  µdiet  µmotion+diet
(eller någon alternativ mothypotes)
Interaktionseffekten (AB) prövas på följande sätt (=0,05):
H0: Det finns ingen interaktion (inget samband) mellan faktor A och B
H1: Det finns en interaktion (ett samband) mellan faktor A och B
Förberedande beräkningar och beräkning av varianskomponenter:
Beräkna följande summor:
T
X2
N
tr
tk
tc
nr
nk
nc
110
=
=
=
=
=
=
=
=
=
samtliga individers resultat
kvadraterna på samtliga individers resultat
totalantalet individer
samtliga resultat i respektive nivå (rad) i faktor A
samtliga resultat i respektive nivå (kolumn) i faktor B
samtliga resultat i respektive cell
antalet i respektive nivå i faktor A
antalet i respektive nivå i faktor B
antalet i respektive cell
© Horst Löfgren
Beräkning av varianskomponenter:
1. Totalkvadratsumma (SST):
SST=X2 - T2/N
X2 = 717
T2/N = 1312/36 = 476,69
SST= 717 - 476,69 = 240,31
2. Radkvadratsumma (SSA):
SSmellan rader= tr2/n - T2/N
tr2/nr= 642/18 +672/18 = 476,94
T2/N = 476,69
SSmellan rader= 476,94 - 476,69 =0,25
3. Kolumnkvadratsumma (SSB):
SSmellan kolumner= tk2/n - T2/N
tk2/nk= 152/12 + 432/12 +732/12 = 616,92
T2/N= 476,69
SSmellan kolumner= 616,92 - 476,69 = 140,22
4. Interaktionskvadratsumma:
SSAB=tc2/nc - T2/N - SSA - SSB
tc2/nc= 112/6 + 202/6 + 332/6 + 42/6 + 232/6 + 402/6 = 625,83
T2/N = 476,69
SSA = 0,25
SSB = 140,22
SSAB= 625,83 - 476,69 - 0,25 -140,22 = 8,67
5. Inomcellskvadratsumma
SSI=X2 - tc2/nc
X2 = 717
tc2/nc = 625,83
SSI=717 - 625,83 = 91,17
© Horst Löfgren
111
Som framgår av Figur 3.9 gäller att SST = SSA + SSB + SSAB + SSI.
Beräkningen av varianskomponenterna kan nu kontrolleras.
240,31 = 0,25 + 140,22 + 8,67 + 91,17
Om varianssummorna divideras med respektive antal frihetsgrader erhålls
medelkvadratsummorna. Till respektive kvadratsumma hör följande antal
frihetsgrader:
SST
SSA
SSB
SSAB
SSI
-
N-1, där N = totalantalet observationer
(r-1), där r = antalet rader
(k-1), där k = antalet kolumner
(r-1)(k-1)
 (nc-1), där nc = antal observationer i cellen
Medelkvadratsummor:
MSA = 0,25/1 = 0,25
MSAB= 8,67/2 = 4,33
MSI = 91,17/30 = 3,04
M
Av Tabell 3.10 framgår att det finns en signifikant skillnad och den finns
mellan åtgärdsprogram. Av eta2-värdet framgår att denna skillnad mellan
de tre åtgärderna är mycket stor (jämför p 3.11.2) .
Tabell 3.10. ANOVA-tabell
____________________________________________________________
Variationsorsak
SS
fg
MS
F
p
eta2
____________________________________________________________
Mellan kön
0,25
1
0,25 0,08 > 0,05
Mellan åtgärder
140,22
2
70,11 23,07 < 0,001 0,58
Interaktion
8,67
2
4,33 1,43 > 0,05
Inom grupper
91,17
30
3,04
____________________________________________________________
Totalt
240,31
35
____________________________________________________________
112
© Horst Löfgren
Ofta är det lämpligt att åskådliggöra resultatet genom att rita ett s.k. medelvärdesdiagram. De olika gruppmedelvärdena finns beräknade i Tabell 3.9.
Av diagrammet syns tydligt den stora B-effekten, motion+diet (b3) ligger
klart högst. Det syns också att skillnaden mellan män och kvinnor totalt
över de tre åtgärderna är mycket liten. Om linjerna i diagrammet är parallella indikerar detta att det inte föreligger någon interaktion mellan de båda
faktorerna, i detta fall mellan kön och åtgärdsprogram. Visserligen är linjerna här ej helt parallella, de t o m korsar varandra, men detta är inom
gränsen för vad slumpen kan ha åstadkommit.
Som vid enfaktors ANOVA med mer än två grupper (två nivåer i faktorn)
kan man här göra en kontrastanalys (post hoc) för faktorn åtgärdsprogram.
Det finns tre parvisa jämförelser som kan göras (b1 - b2, b1 - b3 och b2 b3). Kontrastanalyser görs med hjälp av tidigare nämnda speciella metoder.
Viktmins kning i kg
7
o
6
x
5
4
o
x
3
2
1
o = kvinnor
x = män
x
o
0
motion
diet
motion + diet
Figur 3.10. Medelvärdesdiagram
© Horst Löfgren
113
3.13 Enfaktors ANOVA; beroende grupper
Ett beroendeförhållande mellan uppsättningar av data (grupper) erhålls,
som tidigare nämnts, vid repeterad mätning och vid matchning. I och med
att man kan utnyttja informationen om att samma individer finns (eller vid
matchning liknande individer) i de olika grupperna, leder detta till att mer
av den totala variansen kan förklaras. Följden blir att felvariansen blir
mindre, vilket innebär att precisionen i analysen blir bättre.
Vi tänker oss en undersökning i vilken man samlat in data från en grupp på
10 personer före och efter en viss åtgärd. Sammanlagt från de båda mättillfällena har vi 20 resultat. Vad beror olikheter i resultat på? En del av den
totala variansen beror på att de 10 deltagarna är olika. Summerar man deras resultat på för- och efterprovet kommer vi förmodligen att få lite olika
värden, kanske till och med 10 olika resultat. Individer presterar skilda
resultat av många olika skäl, som vi i denna undersökning inte har någon
kontroll över.
Jämför vi samma individer på för- och eftertest kan även dessa resultat
skilja sig. En del kan bero på den åtgärd, som satts in mellan för- och eftertest. Troligen finns emellertid en liten del kvar, som ej förklaras av åtgärden. Det finns med andra ord kvar en residual, som vi ej kan förklara annat
än som mätfel. Eftersom det är samma individer som jämförs borde ju
resultaten bli lika så när som den del, som beror på den insatta åtgärden.
Den del som vi inte kan förklara, residualen, är det vi kallar felvariansen i
analysen (”error”).
SSmb
SSib
SSM
SSres
SST
SSmb =
SSib =
SSM =
SSres =
SST =
SS mellan block av individer
SS inom block av individer
SS mellan grupper (åtgärder)
SS residual
SS total
Figur 3.11. Varianskomponenter i enfaktors ANOVA, beroende grupper
114
© Horst Löfgren
Med block av individer avses de mätresultat som ingår för respektive individ. I det här fallet är det samma individ som mäts tre gånger, men i en
uppläggning med matchade grupper är det egentligen tre olika individer
som ingår i blocket.
Den mest intressanta frågan i undersökningen är hur mycket av den totala
variationen som är relaterad till SSM. Divideras kvadratsummorna med
respektive antal frihetsgrader erhålls medelkvadratsummor. Respektive
varianskomponenter har följande antal frihetsgrader (k=antal grupper,
n=antal observationer i gruppen):
SSmb - n-1
SSib - n(k-1)
SSM - k-1
SSres - (n-1)(k-1)
SST
- N-1
Om man endast ska studera två beroende grupper kan i stället för variansanalys använda det tidigare genomgångna tdiff-testet. Om man har fler än
två grupper måste man använda variansanalys. Därför övergår vi till ett
exempel med data från tre olika tillfällen.
Ett slumpmässigt urval av sex sjuksköterskestuderande deltog i ett experiment, i vilket man studerade effekten av vissa droger på deltagarnas reaktionstid. Man använde tre olika droger och deltagarna fick reagera på en
serie standardiserade uppgifter. Deltagarna hade före försöket under normala förhållanden tränat på dessa uppgifter.
Varje försöksperson fick vid olika tillfällen de tre drogerna och deras reaktionstider registrerades. Eftersom samma individer observeras i de tre
grupperna, dvs. beroende grupper, anges detta med att i de tre cellerna
skriva G1.
A
a1
a2
a3
G1
G2
G3
Figur 3.12.
© Horst Löfgren
A = drog
a1 = drog 1
a2 = drog 2
a3 = drog 3
Undersökningsdesign
115
De sex deltagarna fick drogerna i slumpmässig ordning för att inte ordningsföljden skulle vara avgörande för resultatet. Mellan testtillfällena gick
tillräckligt lång tid för att deltagarna skulle vara avgiftade. Reaktionstider
redovisas i Tabell 3.11. Kan man av insamlade data dra slutsatsen, att de
tre drogerna orsakar olika reaktionstider?
H0: Det finns ingen skillnad i reaktionstid mellan de tre tillfällena
H1: Det finns en skillnad i reaktionstid mellan de tre tillfällena
Signifikansnivå: =0,01
Tabell 3.13. Reaktionstid vid tre olika droger
____________________________________________________________
Deltagare
Drog 1
Drog 2
Drog 3 Radsumma (tr)
____________________________________________________________
A
24
18
28
70
B
26
17
31
74
C
20
15
25
60
D
22
16
26
64
E
25
20
27
72
F
23
21
20
64
____________________________________________________________
Kolumnsummor tk
140
107
157
T= 404
2
2
Kvadratsummor x
3290
1935
4175 X = 9400
Medelvärden M
23,3
17,8
26,2
____________________________________________________________
Förberedande beräkningar och beräkning av varianskomponenter:
Beräkna följande summor:
T
X2
N
tr
tk
n
116
=
=
=
=
=
=
samtliga resultat
kvadraterna på samtliga resultat
totalantalet observationer
summaresultat för respektive individ (rad)
summaresultat för respektive behandling (kolumn)
antalet i respektive behandlingsgrupp
© Horst Löfgren
Beräkning av varianskomponenter:
1. Totalkvadratsumma:
SST= X2 - T2/N
X2 = 9400
T2/N = 4042/18 = 9067,56
SST = 9400 - 9067,56 = 332,44
2. Kvadratsumma mellan block av individer (SSmb):
SSmb= tr2/k - T2/N
tr2/k = 702/3 +742/3 +602/3 +642/3 +722/3 +642/3 = 9117,33
T2/N = 9067,56
SSmb= 9117,33 - 9067,56 =49,78
3. Kvadratsumma mellan grupper (tillfällen, åtgärder):
SSM= tk2/n - T2/N
tk2/n = 1402/6 + 1072/6 + 1572/6 = 9117,33
T2/N = 9067,56
SSM= 9117,33 - 9067,56 = 215,44
4. Kvadratsumma för residualen (SSres):
SSres= SST - SSmb - SSM
SST = 332,44
SSmb = 49,78
SSM = 215,44
SSres= 332,44 - 49,77 - 215,44 = 67,22
Som framgår av Figur 3.12 gäller att SST= SSmb + SSM + SSres. Beräkningen av varianskomponenterna kan nu kontrolleras.
332,44 = 49,78 + 215,44 + 67,22
Kvadratsummorna divideras med respektive antal frihetsgrader för att få
medelkvadratsummorna.
© Horst Löfgren
117
Medelkvadratsummor:
MSmb = 49,78/5 = 9,95
MSM = 215,44/2 = 107,72
MSres = 67,22/10 = 6,72
F-kvoten erhålls genom MSM/MSres, dvs. 107,72/6,72, vilket ger
F=16,03.
Det finns en signifikant skillnad i reaktionstid mellan de tre tillfällena. Av
värdet på eta2 framgår, att denna skillnad mellan de tre åtgärderna är
mycket stor.
Tabell 3.12. ANOVA-tabell
____________________________________________________________
Variationsorsak
SS
fg
MS
F
p
eta2
____________________________________________________________
Mellan block av individer
49,77 5
9,96
Mellan grupper (åtgärder) 215,44 2 107,72 16,03 < 0,01 0,65
Residual
67,22 10
6,72
____________________________________________________________
Totalt
332,44 17
____________________________________________________________
2.14 Kovariansanalys, ANCOVA
Kovariansanalys är en variansanalys, där den beroende variabeln är så att
säga rensad från inverkan av en eller flera andra variabler, s.k. kovariater.
Den fråga man ställer är om det finns någon effekt utöver den som kan
prediceras från kovariaterna. Självfallet måste det finnas rimliga samband
mellan kovariaterna och den beroende variabeln, annars finns ju inget att
justera för. Dessutom är förutsättningen den att relationen mellan den beroende variabeln och kovariaten är lika för jämförelsegrupperna. Det får
således inte finnas något samspel mellan faktorn och kovariaten.
I en studie av 149 elever i årskurs 3 var man intresserad att studera eventuella skillnader mellan två olika sätt att lära barnen engelska. Man hade
118
© Horst Löfgren
konstruerat olika typer av språkfärdighetstest; läsförståelse, hörförståelse,
skrivprov, ordkunskapsprov och grammatikprov. Man kunde inte genomföra ett s.k. sant experiment, dvs. eleverna kunde inte slumpmässigt fördelas på de två metodgrupperna utan man fick ta klasserna som de var. Eftersom påverkansförsöket var upplagt enligt en kvasiexperimentell design
(icke-slumpmässig fördelning till metodgrupperna) fanns anledning att
pröva om möjligen det fanns andra variabler som kunde vara orsak till
eventuella skillnader på eftertestet. Det kunde ju tänkas att den ena gruppen hade bättre förkunskaper, var mer begåvad eller andra väsentliga skillnader. I exemplet nedan studerar vi endast resultatet på ett läsförståelsetest
som beroende variabel, men vill använda resultaten från ett intelligenstest
som kovariat. Den hypotes man vill pröva är således om det finns några
skillnader mellan de två sätten att lära sig engelska sedan man korrigerat
för gruppskillnader i begåvning. I tabellen nedan redovisas resultatet både
av variansanalys och kovariansanalys.
Tabell 3.13. Resultat från språkmetodförsöket
____________________________________________________________
ANOVA
Variationsorsak
SS
fg
MS
F
p
eta2
____________________________________________________________
Mellan grupper
384,23
1 384,23
30,54 <0,001 0,17
Inom grupper
1849,49
147
____________________________________________________________
Total
2233,72
148
____________________________________________________________
ANCOVA
Variationsorsak
SS
fg
MS
F
p
eta2
____________________________________________________________
Mellan grupper
342,89
1 342,89
31,96 <0,001 0,15
Inom grupper
1566,27
146
____________________________________________________________
Total
1909,16
147
____________________________________________________________
© Horst Löfgren
119
Medelvärden
Metod a1
Metod a2
a1 + a 2
Läsförståelse (ber var)
20,18
16,92
18,28
Begåvning (kovariat)
111,05
109,57
110,19
Av resultatet framgår att justeringen via kovariansanalys har haft en
ganska lite inverkan. Eta-kvadrat minskar från 0,17 till 0,15 och det är
obetydligt. Eta-kvadrat i en ANOVA beräknas som vanligt, dvs. SSmellan/SStot vilket ger 384,23/2233,72. Eta-kvadrat i ANCOVA beräknas
genom att ta den nya varianssumman (efter rensning av begåvningsinflytande) dividerat med den tidigare erhållna totalvariansen, dvs.
342,89/2233,72. Effektskillnaden mellan de båda lärandemetoderna minskar något och det brukar den göra om man justerar för inflytande från en i
sammanhanget relevant variabel, åtminstone kan den inte öka. I detta exempel kan man dra slutsatsen att metod a1 är bäst oavsett begåvningsnivå.
Observera att man förlorar en frihetsgrad för varje kovariat man använder.
120
© Horst Löfgren
4
Icke-parametriska hypotesprövningsmetoder
Som vi tidigare nämnt kräver de parametriska metoderna att vissa förutsättningar är uppfyllda ifråga om skalnivå och mätvariabelns fördelning i
populationen. Sålunda krävs att observationerna i stickprovet härrör från
en normalfördelad observationsvariabel, att mätskalan ligger på lägst intervallskalenivå samt vid analys av mer än ett stickprov, att mätvariabelns
varians är lika i de bakomliggande populationerna. Även om vi ofta använder oss av parametriska metoder, trots att förutsättningarna inte alltid är
helt uppfyllda, ska vi här presentera några alternativa metoder, nämligen
de icke-parametriska. Mycket ofta ligger våra psykologiska skalor på ordinalskalenivå och dessutom är det ofta så, att vi ej vet något om den bakomliggande fördelningens utseende. De icke-parametriska metoderna kallas
ibland också fördelningsfria. Egentligen är ingetdera av namnen heltäckande korrekta för de test som finns. Några icke-parametriska metoder utnyttjar populationsparametern vid hypotesprövningen och andra kräver att
vissa förutsättningar rörande fördelningen är uppfyllda. De icke-parametriska metoder, som här ska presenteras kan efter skaltyp indelas i frekvenstest och rangtest.
Fördelarna med de icke-parametriska metoderna är således att de är baserade på färre förutsättningar i jämförelse med de parametriska metoderna.
Dessutom är de icke-parametriska metoderna ofta enkla att förstå och beräkningarna enkla att utföra. I synnerhet är dessa metoder lämpliga vid
små stickprov. En nackdel är att det för de icke-parametriska testen är svårare att finna index på effekternas storlek.
I nedanstående ruta ges en översikt över de hypotesprövande metoder som
hittills tagits upp eller som kommer att diskuteras i det följande.
© Horst Löfgren
121
Ruta 4.1. Exempel på hypotesprövningsmetoder för ett eller flera stickprov vid olika typer av mätskalor
Ett stickprov
Skaltyp
Nominalskala 2-testet
(frekvensskala)
Ordinalskala
(rangskala)
2-testet
Cochran´s
Q-test
Run-testet; MannWilcoxon’s KruskalOne Sample Whitney; teckenrang- Wallis
Sign test
Kolmogo- test;
rovPaired Sign
Smirnov; Test
WaldWolfowitz
Runs
Friedman
Intervallt-test
eller kvotskala
4.1
Två stickprov
Tre eller flera stickprov
oberoende beroende oberoende beroende
2-testet
McNemar
t-test
tdiff-test
ANOVA ANOVA
ANOVA ANOVA
Analys av stickprovsdata i förhållande
till populationsdata
Dessa analyser svarar på frågan om ett valt stickprov kan tänkas tillhöra en
viss population. De icke-parametriska analyser, som här tas upp är av typen ”goodness-of-fit”, dvs. svarar på frågan om en observerad fördelning
endast slumpmässigt avviker från en teoretisk eller en under H0 förväntad
fördelning. Endast de mest vanligt förekommande testen ur Ruta 4.1 presenteras här.
122
© Horst Löfgren
4.1.1
Chi-kvadrat-testet för ett stickprov
Chi-kvadrat-testet (2) för ett stickprov kan användas vid analys av data på
nominalskalenivå, då populationen består av två eller flera klasser. Exempel på sådana klassifikationsvariabler är kön, civilstånd, socialgruppstillhörighet, boendeform och linjetillhörighet i gymnasieskolan. 2-testet är av
typen “goodness-of-fit“ och används för att jämföra en viss observerad
fördelning med en under nollhypotensen förväntad. Utgångspunkten är ett
antal observationer i två eller flera kategorier. Från totalantalet observationer beräknas de förväntade frekvenserna under H0 (dvs. om nollhypotesen gäller) för varje kategori. Med hjälp av 2-testet prövas om de observerade frekvenserna endast slumpmässigt avviker från de förväntade eller
om nollhypotesen måste förkastas. Nollhypotesen testas med:
(Oi - Ei)2
2=  ________ ; där E bör vara  5
(formel 4.1)
Ei
Oi = antal observationer i den i:te kategorin
Ei = förväntat antal observationer i den i:te kategorin under H0
 = summan av de ”k” kategorierna
De kritiska värdena för olika frihetsgrader finns tabellerade (Tabell D). För
olika frihetsgrader har 2 olika samplingfördelningar. Antalet frihetsgrader
visar hur många observationer, som kan variera efter att man bestämt antalet observationer i vissa kategorier. Om vi exempelvis har sammanlagt 30
observationer i två kategorier och observerat 18 i den ena, måste den andra
med nödvändighet innehålla 12 observationer. I detta fallet blir således
antalet frihetsgrader fg=1. En kategori är således fri att variera. När vi vet
antalet i denna kategori, så vet vi antalet i den andra, eftersom summan ska
bli 30.
Om vi istället haft fem kategorier med sammanlagt 30 observationer blir
fg = k-1, dvs. 4. Man kan variera frekvenserna i fyra av de fem kategorierna. Frekvensen i den sista kategorin är bestämd i och med att vi känner
frekvenserna i de övriga. För 2-testet finns kravet att de förväntade värdena (Ei) bör vara  5. Om så inte är fallet slår man helst samman kategorier så att kravet uppfylls.
I likhet med de tidigare avsnitten i denna bok exemplifieras varje presenterad statistisk bearbetningsmetod med ett exempel. I det här fallet tänker vi
© Horst Löfgren
123
oss en marknadsundersökning i vilken 100 kunder i en butik fick välja
mellan fyra olika mjölkförpackningar. Den frågeställning som ska prövas
är om man på basis av en sådan undersökning av en grupp slumpmässigt
utvalda kunder kan våga uttala sig mera generellt om preferensolikheter
vad gäller mjölkförpackningar. Följande resultat erhölls:
Tabell 4.1. Resultat av marknadsundersökning
Förpackning
Antal val
A
B
C
D
18
30
40
12
H0: De fyra olika alternativen är lika populära, dvs. i populationen
skulle man ha erhållit lika antal frekvenser (f1 = f2 = f3 = f4)
H1: De fyra olika alternativen är olika populära (åtminstone några
frekvenser är olika)
Signifikansnivå: = 0,01
Det kritiska värdet för 2 med 3 frihetsgrader är på denna signifikansnivå
11,34 (Tabell D). Om avvikelserna mellan de observerade frekvenserna
och de under H0 givna når upp till 11,34 eller mer måste nollhypotesen
förkastas.
____________________________________________________________
Observerade frekvenser:
Förväntade frekvenser:
paket A B C D
paket A B C D
____________________________________________________________
18 30 40 12
25 25 25 25
____________________________________________________________
2 =
(O - E)2
(18-25)2
__________
___________
E
124
=
25
(30-25)2
+
___________
25
(40-25)2
+
___________
25
(12-25)2
+
= 18,72***
25
___________
© Horst Löfgren
Eftersom vi observerat en större avvikelse mellan de fyra valbara alternativen att paketera mjölk än vad slumpen rimligen kan ha åstadkommit förkastas H0 (p<0,01). H0 hade också förkastats om vi valt =0,001
(p<0,001). Vi drar slutsatsen att de fyra alternativen är olika populära
bland konsumenterna.
4.1.2
Run-testet
Det finns flera metoder att bedöma slumpmässigheten i ett stickprov på
grundval av den ordningsföljd som observationerna har registrerats. Om
observationer samlas in i slumpmässig ordning borde materialet inte innehålla ett speciellt mönster. Om man t.ex. samlat in enkätdata från skolelever borde pojkars och flickors svar komma i slumpmässig ordning. Om
flickornas svar kommer först och därefter alla pojkarnas, har enkäterna
tydligen först sorterats. Om varannan enkät är från en pojke och varannan
från en flicka, kommer de ej heller i slumpmässig ordning utan verkar
också vara sorterade. Eftersom det i SPSS finns en metod, som grundar sig
på s.k. “runs“, Wald-Wolfowitz Runs för två oberoende stickprov, presenteras här en metod för att pröva slumpmässigheten i ett material med avseende på en dikotom eller dikotomiserad egenskap. Denna metod, det s.k.
run-testet, att studera en slumpmässig ordningsföljd belyses bäst med hjälp
av ett exempel.
Vid en lunchrast på en skola observerades de 25 första eleverna i matkön.
Man observerade den dikotoma variabeln kön. I matkön stod dessa 25
elever i följande ordning (P=pojke, F=flicka):
PPP F PPP FF PPPPP FFFF P FFFFFF
© Horst Löfgren
125
I denna kö finns åtta stycken s.k. “runs“, dvs. åtta grupper av samma kön. I
två av “grupperna“ finns visserligen endast en elev. I den första finns tre
pojkar, i den andra endast en flicka, i den tredje tre pojkar osv. Det totala
antalet “runs“ är ett bra mått på slumpmässigheten i ett material. Verkar
flickor och pojkar i detta exempel komma i slumpmässig ordning eller
finns det någon systematik i materialet? Om det finns få “runs“, så kan
man anta att ordningsföljden inte är slumpmässig. Likaså gäller om det
finns väldigt många “runs“. Om varannan i kön är pojke och varannan
flicka så är ordningsföljden systematisk.
H0: Ordningsföljden vad gäller kön är slumpmässig
H1: Ordningsföljden vad gäller kön är ej slumpmässig
Signifikansnivå: =0,05
I matkön fanns 12 pojkar (n1=12) och 13 flickor (n2=13). Det kritiska
värdet enligt Tabell H blir 8 respektive 19. Observera att Tabell H innehåller två kritiska värden, både för få och för många “runs“ tyder på att ordningsföljden inte är slumpmässig. Vi kan här observera att kön innehåller 8
“runs“. Om kön innehåller  8 eller  19 “runs“ finns troligen någon systematik i ordningsföljden. Vi måste därför förkasta nollhypotesen och drar
slutsatsen att ordningsföljden vad gäller kön inte är slumpmässig.
Om n1 och n2 är tillräckligt stora (>20) blir antalet “runs“ (R) approximativt normalfördelat enligt nedanstående formel:
z=
2 n1n2
R - ______ + 1 - 0,5
n1+n2
(formel 4.2)
2 n1n2 (2 n1n2 - n1 - n2)
(n1+n2)2 ( n1+n2 - 1)
Även numeriska observationer kan behandlas på liknande sätt om man
dikotomiserar den studerade variabeln. Man kan ange observationer över
respektive under medianen. Observationer exakt på medianen utesluts.
Vid en tentamen i statistik med fri skrivningstid registrerades i vilken ordning de 40 tentanderna lämnade in sina skrivningar. Den förste lämnade in
sin skrivning efter 2,5 timmar och den siste först efter 6 timmar. Efter att
skrivningen blivit rättad kunde man på ett enkelt sätt studera om skrivningsresultat var relaterat till inlämningstid. För att nu kunna använda
126
© Horst Löfgren
“run“-testet anges resultatet för varje tentand som över (Ö) eller under (U)
medianen. Följande resultat erhölls:
ÖÖ U ÖÖÖÖ UU ÖÖÖÖ UUU ÖÖÖ UU ÖÖ UUUU ÖÖÖ UUUU ÖÖ
UUUU
H0: Utnyttjad skrivningstid är ej relaterad till tentamensresultat
H1: Utnyttjad skrivningstid är relaterad till tentamensresultat
Signifikansnivå: =0,05
Kritiskt värde: z= +/- 1,96
Vi har här funnit 14 “runs“ och kan pröva nollhypotesen med z-testet. Enligt formel 4.2 erhålls:
z=
2 n1n2
R - ______ + 1 - 0,5
n1+n2
2 n1n2 (2 n1n2 - n1 - n2)
(n1+n2)2 ( n1+n2 - 1)
14 -
2 . 20 . 20
+ 1 - 0,5
20 + 20
= -2,08*
.
.
.
.
2 20 20 (2 20 20 -20 -20)
(20 + 20)2 (20 + 20 - 1)
Vi kan således förkasta nollhypotesen och dra slutsatsen att inlämningen
inte har skett i slumpmässig ordning i förhållande till skrivresultat
(p<0,05).
4.2
Analys av differensen mellan två
oberoende stickprov
I detta avsnitt ska vi ta upp några icke-parametriska metoder, som kan vara
lämpliga vid analys av skillnader mellan två oberoende stickprov. En vanlig situation är att vi ur en viss population har dragit två stickprov, som
behandlas på olika sätt (experiment- och kontrollgrupp), varefter vi prövar
om en eventuell differens på ett efterprov är signifikant eller ej. Det kan
också handla om en deskriptiv studie, i vilken man vill pröva om det finns
några säkerställda skillnader.
© Horst Löfgren
127
4.2.1
Chi-kvadrat-testet för två oberoende stickprov
2-testet kan användas på en nominalskalerad observationsvariabel för att
pröva skillnaden mellan två oberoende stickprov. Tillvägagångssättet är
analogt med fallet för ett stickprov. Vi har ett antal observationer i de två
stickproven fördelade på två eller flera rader (r) . Nollhypotesen testas med
nedanstående formel:
(Oij - Eij)2
2=  ________
fg= r-1
(formel 4.3)
Eij
Oij = antal observationer i den i:te raden av den j:te kolumnen
Eij = förväntat antal observationer i den i:te raden av den j:te kolumnen
 = summan av de ”k” raderna och de två kolumnerna
De förväntade värdena under H0 för varje cell (Eij) erhålls genom att multiplicera radsumman med kolumnsumman, för att därefter dividera denna
produkt med totalantalet observationer. De förväntade värdena (Eij) bör
vara  5.
Passagerare på en flygsträcka i Smokeland fick under en viss vecka besvara en enkät rörande vissa trivsel- och serviceförbättrande åtgärder, som
flygbolaget planerade att införa. För att få ett någorlunda representativt
urval delades enkäten ut till samtliga resenärer vid ett antal slumpmässigt
valda avgångar. En av frågorna gällde om rökning skulle totalförbjudas på
denna tre timmar långa flygsträcka. Respondenterna fick också ange om de
var rökare eller ej. Följande antal erhölls för de olika alternativen:
Tabell 4.2a. Enkätresultat rörande rökning på en viss flygsträcka
Observerade värden
Rökare
Icke-rökare
Rökning borde totalförbjudas
Rökning kunde tillåtas som nu
Ingen bestämd uppfattning
40
140
20
560
160
80
600
300
100
Totalt
200
800
1000
128
Summa
© Horst Löfgren
Det finns tydligen en majoritet för att man borde förbjuda rökning på
sträckan, men har passagerarnas åsikt samband med om de är rökare eller
ej?
H0: Det föreligger inget samband mellan inställning och tobaksvanor
H1: Det föreligger ett samband mellan inställning och tobaksvanor
Signifikansnivå: = 0,001
Kritiskt värde (Tabell D) för 2 (2 frihetsgrader): 13,82
Utifrån ovan observerade värden beräknas de under H0 förväntade värdena. För att beräkna den förväntade frekvensen i rad 1 och kolumn 1,
under förutsättning att det inte finns något samband mellan inställning och
tobaksvanor, multipliceras radsumman med kolumnsumman, varefter man
dividerar med totalsumman, dvs. 600 . 200 / 1000 = 120.
Tabell 4.2b. Teoretiska resultat om inget samband finns mellan de båda
studerade variablerna
Teoretiska värden (om H0 gäller)
Rökare Icke-rökare
Summa
Rökning borde totalförbjudas
Rökning kunde tillåtas som nu
Ingen bestämd uppfattning
120
60
20
480
240
80
600
300
100
Totalt
200
800
1000
(40-120)2
(560-480)2 (140-60)2 (160-240)2 (20-20)2
2 = ____________ + _____________ + ____________ + _____________ + _____________ +
120
480
60
240
20
+
2
(80-80)
___________
= 200,0***
80
H0
H1
Kr. v.
Obs. v.
_______________________x______________________x__________
2= 0
© Horst Löfgren
13,82
200,0
2= högt
129
Som redan framgår av de observerade värdena finns det ett tydligt samband mellan de två studerade variablerna. 2-värdet är självfallet signifikant, varför H0 måste förkastats (p<0,001). Här är ett bra exempel på att
en signifikansanalys bör åtföljas av ett mått på storleken i relationen mellan de studerade variablerna. Lämpliga index vid 2-analyser presenteras
senare (avsnitt 4.4).
4.2.2
2-analys av en 2x2 kontingenstabell
Då man vill testa nollhypotesen för observationsvariabler, som endast innehåller två kategorier bör man övergå till en alternativ beräkning av 2värdet, vilken ger en bättre approximation till 2-fördelningen. Detta kan
ses som ett specialfall av 2-analys vid oberoende stickprov. Observationer från två dikotoma eller dikotomiserade variabler kan sättas upp i en s.k.
fyrfältstabell.
Variabel 1
1
2
Summa
1
A
B
A+B
2
C
D
C+D
A+C
B+D
Variabel 2
Summa
N (|AD-BC| 
N
N
)2
2
2 = _____________________
(A+B)(C+D)(A+C)(B+D)
fg = 1
(formel 4.4)
Vid en simskola ville man pröva en ny metod för simundervisning. Därför
uttogs slumpmässigt två grupper av elever, som fick olika undervisning.
Efter kursens slut studerades simkunnigheten som ett mått på undervisningsmetodens effektivitet. Kan man våga påstå att metoderna är olika
effektiva?
130
© Horst Löfgren
Tabell 4.3. Resultat av simundervisning
Metod A
Antal simkunniga
Antal ej simkuniga
Metod B
35
5
25
15
H0: Det föreligger inget samband mellan simkunnighet och metod
H1: Det föreligger ett samband mellan simkunnighet och metod
Signifikansnivå: = 0,05
Kritiskt värde (Tabell D) för 2 (fg = 1): 3,84
80 2
)
2
2
2 = _____________________ = ______________________ = 5,40*
(A+B)(C+D)(A+C)(B+D)
60 . 30 . 40 . 40
N (|AD-BC| -

H0
N
)2
80 ( 35.15 – 25.5 -
H1
Kr. v.
Obs. v.
_______________________x___________x_______________
2= 0
3,84
5,40
2= högt
Sannolikheten att i ett stickprov erhålla ett 2-värde på 5,40, trots att det i
populationen inte finns någon skillnad mellan de båda metoderna (dvs.
2=0) är mindre än 5 % (p< 0,05). Vi förkastar därför H0 och drar slutsatsen att de två simundervisningsmetoderna leder till olika resultat.
4.2.3
Mann-Whitney U-test
Mann-Whitney är ett mycket effektivt test som kan användas vid två oberoende stickprov då observationsvariabeln är ordinalskalerad. Antag att vi
exempelvis har två stickprov, som erhållit olika behandlingar (experimentoch kontrollgrupp). Vi prövar nollhypotesen att de båda stickproven är
hämtade ur samma bakomliggande population. Det finns ytterligare några
© Horst Löfgren
131
icke-parametriska test, som har samma användningsområde som MannWhitney U-test., t.ex. Kolmogorov-Smirnov och Wald-Wolfowitz Runs.
Mann-Whitney testet baseras på förhållandet att om det finns en verklig
skillnad mellan två jämförda grupper, borde mätresultaten i det ena stickprovet oftare vara högre än i det andra stickprovet. Om då de två stickproven kombineras och mätresultaten läggs i rangordning från det lägsta till
det högsta, borde mätresultat från den ena gruppen mestadels ligga i den
ena svansen och den andra gruppens mätresultat i den andra svansen.
Skulle det inte finnas någon skillnad mellan grupperna kommer de rangordnade mätresultaten att ligga i blandad ordning.
Vi benämner antalet observationer i det första stickprovet n1 och antalet
observationer i det andra stickprovet för n2. Därefter kombineras de båda
stickproven, och de n1+n2 observationerna rangordnas. Varje individ i det
första stickprovet får en poäng för varje individ, som “besegras“ i det
andra stickprovet. Det totala antalet poäng för det första stickprovet kallas
U1. På liknande sätt beräknas poängen för det andra stickprovet U2. Det
minsta av dessa två värden kallas Mann-Whitney U.
För att erhålla det s.k. förarbeviset i en kurs i båtvett ville man pröva ett
nytt självinstruerande studiematerial. De 15 kursdeltagarna under vinterkursen i Segelstad delades slumpmässigt i två grupper, varefter den ena
gruppen fick det nya materialet medan den andra gruppen fick konventionell undervisning. Man betraktade därvid kursdeltagarna i Segelstad som ett
stickprov ur den grupp, som går motsvarande kurser på andra platser i
landet.
Tabell 4.4. Provresultat efter kurs i båtvett
____________________________________________________________
Experimentgrupp (n1=8)
Kontrollgrupp (n2=6)
(Självinstruerande studiematerial)
(Konventionell undervisning)
____________________________________________________________
24, 15, 18, 21, 26, 12, 28, 13
16, 8, 11, 14, 9, 15
____________________________________________________________
Kan man av ovanstående data dra slutsatsen att det förligger en skillnad
mellan metoderna?
H0: Det föreligger ingen skillnad mellan de båda metoderna
H1: Det föreligger en skillnad mellan de båda metoderna
Signifikansnivå: = 0,05
132
© Horst Löfgren
Kritiskt värde (enligt Tabell F): 8
Slår vi samman de båda grupperna och placerar resultaten i en lång rad
efter prestation erhålls nedanstående. För att särskilja grupperna har resultaten i grupp 1 placerats något ovanför resultaten i grupp 2. Observera att
två deltagare har samma resultat (15 rätt på efterprovet).
28 26 24 21 18 16 15 15 14 13 12 11 9 8
I grupp 1 har de första fem deltagarna bättre resultat än samtliga i grupp 2.
Den deltagare i grupp 1 som har resultatet 15 har bättre resultat än fyra
deltagare från grupp 2 samt delar placering med en i grupp 2. Denne deltagare erhåller sålunda 4,5 p. Följande U-poäng erhålls i de två grupperna:
Grupp 1: U1 = 6 + 6 + 6 + 6 + 6 + 4,5 + 3 +3 = 40,5
Grupp 1: U2 = 3 + 2,5 + 2 = 7,5
Det minsta av dessa summor kallas U. I det här fallet blir U=7,5. Ett ofta
snabbare sätt att beräkna U är genom att först rangordna i det sammanslagna materialet för att därefter summera rangtalen (R) för respektive
grupp (R). U1 och U2 beräknas som följer:
n1(n1+1)
U1= n1.n2 + ________ - R1 och
2
(formel 4.5a)
n2(n2+1)
U2 = n1.n2 + ________ - R2
2
(formel 4.5b)
I det här fallet erhålls:
U1= 8.6 + 8(8+1)/2 - (1+2+3+4+5+7,5+10+11) = 40,5
U2= 8.6 + 6(6+1)/2 - (6+7,5+9+12+13+14) = 7,5
U blir självfallet detsamma som vid det första beräkningssättet 7,5. I Tabell F finns de kritiska värdena för detta test på 10%, 5% och 1%-nivån.
Observera att ju lägre värde på U desto större skillnad är det mellan grupperna. Det innebär att H0 förkastas om det observerade värdet är lägre än
det kritiska. I det här fallet förkastas H0 (p<0,05), och vi drar slutsatsen att
de båda inlärningssätten ger olika resultat.
© Horst Löfgren
133
H0
H1
Kr.v.
Obs.v.
_____________x__x_______________
U= högt
8 7,5
U=0
För stora stickprov (n1 och n2 >8 observationer) blir U approximativt
normalfördelad och kan därför prövas med hjälp av z-testet. Om man endast har ett fåtal “ties“ blir denna z-formel som följer:
n1.n2
U - _______
2
z = __________________________
(formel 4.6)
.
n1 n2( n1 + n2 + 1)
12
I SPSS-programmet ges förutom resultatet på Mann-Whitney-testet också
resultatet av Wilcoxon´s test, vilket är en variant. Båda ger samma resultat
och i förekommande fall lika z-värdesapproximation.
4.2.4
Kolmogorov-Smirnov-testet för två oberoende
stickprov
För att jämföra resultaten (fördelningarna) från två oberoende stickprov,
dvs. pröva om dessa stickprov kan antas komma från en och samma population, kan även Kolmogorov-Smirnov-testet användas. Man beräknar i
detta fall den kumulativa frekvensen för de båda stickproven och bildar
Dmax, dvs. använder den maximala differensen mellan de kumulativa
fördelningarna som mått på likheten i stickproven. Om fördelningarna i de
båda stickproven är någorlunda lika blir differenserna i de kumulativa fördelningarna små.
Kritiska värden för olika signifikansnivåer erhållls i Tabell G. Vid stora
stickprov (n1 och n2 >40) kan de kritiska värdena beräknas. Exempelvis
blir det kritiska värdet för =0,05 som följer:
134
© Horst Löfgren
n1 + n 2
______
n1 . n2
Kr. v. (=0,05) = 1,36
(formel 4.7)
På ett prov i statistik omfattande 8 uppgifter jämfördes två grupper med
olika gymnasial utbildningsbakgrund.
Tabell 4.5a. Provresultat i statistik
Antal rätt
(x)
0
1
2
3
4
5
6
7
8
Grupp 1
(f)
Grupp 2
(f)
1
1
2
5
5
0
1
0
0
0
1
2
1
2
3
4
1
1
Kan man av ovanstående resultat påvisa en skillnad mellan gruppernas
resultat?
H0: Det föreligger ingen skillnad mellan de båda grupperna
H1: Det föreligger en skillnad mellan de båda grupperna
Signifikansnivå:= 0,05
Kritiskt värde (enligt Tabell G): 8
Efter beräkning av de kumulativa frekvenserna erhålls följande differenser
och maximala differens:
© Horst Löfgren
135
Tabell 4.5b. Provresultat i statistik, kumulativa frekvenser
___________________________________________________________
Antal rätt Grupp 1
Grupp 2
Diffkum
(x)
(f) (fkum)
(f) (fkum)
____________________________________________________________
0
1
1
0
0
1
1
1
2
1
1
1
2
2
4
2
3
1
3
5
9
1
4
5
4
5
14
2
6
8 =Dmax (8/15=0,533)
5
0
14
3
9
5
6
1
15
4
13
2
7
0
15
1
14
1
8
0
15
1
15
0
____________________________________________________________
Eftersom Dmax är lika med det kritiska värdet förkastas nollhypotesen
(p<0,05). Vi har således påvisat en skillnad mellan de båda grupperna.
4.2.5
Wald-Wolfowitz Runs
Detta test används för att pröva om två oberoende stickprov kan ha dragits
från samma bakomliggande population. Med tillräckligt stora stickprov
kan man pröva skillnader mellan stickproven vad gäller central tendens,
variation och i övrigt vad gäller fördelningarnas utseende. Data förutsätts
vara på lägst ordinalskalenivå. Tillvägagångssättet är mycket likt det tidigare presenterade “run“-testet för ett stickprov. Data från de båda stickproven rangordnas efter sammanslagning. Därefter bestäms antalet “runs“,
dvs. sekvenser av mätvärden tillhörande samma grupp. Kritiska värden för
vald signifikansnivå erhålls ur Tabell H.
I en undersökning studerades pojkars och flickors inställning till påföljder
av olika brott. Följande summaresultat erhölls på några frågor om inställning till butikssnatteri (högt värde innebär högre grad av fördömanden och
krav på straffpåföljd). Kan man av resultatet påvisa någon skillnad i inställningen mellan flickor och pojkar?
136
© Horst Löfgren
Tabell 4.6. Inställning till butikssnatteri; summaresultat
____________________________________________________________
Flickor
Pojkar
____________________________________________________________
5
7
13
5
13
6
10
8
14
8
9
4
15
5
11
4
10
12
13
3
____________________________________________________________
H0: Det föreligger ingen skillnad mellan de båda grupperna
H1: Det föreligger en skillnad mellan de båda grupperna
Signifikansnivå: = 0,05
Kritiskt värde (enligt Tabell H): 6
Efter rangordning av det sammanslagna materialet erhålls:
pojkar: 3 4 4 5
flickor:
56788
5
12
9 10 10 11
13 13 13 14 15
Antalet “runs“ blir således 6. Då det kritiska värdet på 5%-nivån är just 6,
måste vi förkasta H0 (p<0,05). Det finns således en systematisk skillnad
mellan flickor och pojkar vad gäller inställning till brott och straff i detta
sammanhang. För stora stickprov (n1 och n2 >20) är antalet “runs“
(RWW) approximativt normalfördelat enligt formel 4.8. Denna formel är
identisk med den som tidigare presenterats i samband med Run-testet för
ett stickprov (avsnitt 4.1.2).
© Horst Löfgren
137
2 n1n2
RWW - ______ + 1
n1+n2
- 0,5
z=
(formel 4.8)
2 n1n2 (2 n1n2 - n1 - n2)
(n1+n2)2 ( n1+n2 - 1)
4.3
Analys av differensen mellan två
beroende stickprov
En vanlig situation är att vi utsätter en och samma grupp individer för repeterad mätning med mellankommande behandling (förprov - påverkan efterprov). En annan likaledes vanlig situation är att vi utsätter två matchade grupper av individer för olika behandlingar (experiment- och kontrollgrupp) för att studera eventuella differenser på ett efterprov. I dessa
båda fall av undersökningar studerar vi ett slumpmässigt urval av en definierad population. För att kunna generalisera erhållna resultat till bakomliggande population kan vi använda oss av några icke-parametriska metoder. Observera att vi i detta avsnitt analyserar observationer från beroende
stickprov. Det kan synas underligt att man säger sig ha två stickprov vid
repeterad mätning av en och samma grupp. Det man avser är att man har
två uppsättningar av mätvärden.
4.3.1
McNemar-testet
McNemar-testet är ett test som kan användas vid repeterad mätning, t.ex. i
situationer då man vill studera förändringar med hjälp av en binär observationsvariabel. För att studera en förändring med denna metod sätter vi
upp resultaten i en fyrfältstabell av mätvärden.
138
© Horst Löfgren
Efter
k1
k2
k2
A
B
k1
C
D
Före
En individ i cell A har förändrat sig i ena riktningen (från kategori 2 till
kategori 1), och en individ i cell D har förändrats sig i motsatt riktning.
Individerna i cellerna B och C är oförändrade.
Om förändringen inte gått i någon bestämd riktning erhålls de förväntade
värdena ½ (A+D) i cell A och ½ (A+D) i cell D. Denna nollhypotes kan
testas med hjälp av 2-formeln, som då den appliceras på cellerna A och D
ger följande:
(O-E)2
2 = ______
E5
(formel 4.9)
E
Detta uttryck kan förenklas och efter kontinuitetskorrektion erhålls:
(|A-D| -1)2

2 = _________ fg = 1
(formel 4.10)
A+D
Observera att vi här endast undersöker de individer, som visat en förändring. Vi kan ta följande exempel som visar tillvägagångssättet. Ett studieförbund genomförde en kurs i invandrarkunskap. Före och efter kursen
insamlades deltagarnas åsikter om flyktingmottagning i den egna kommunen. Man registrerade om de var positiva eller negativa till en ökad mottagning. Det är knappast troligt att kursdeltagarna är att betrakta som ett
representativt stickprov av kommuninvånarna, men vi kanske kan betrakta
dem som ett stickprov av personer som söker sig till sådana här kurser.
Följande resultat erhölls i den här gruppen som bestod av 20 deltagare:
Efter
pos neg
neg
9
3
pos
11
17
Före
© Horst Löfgren
139
Kan man av ovanstående dra slutsatsen att det föreligger en systematisk
förändring i inställningen till flyktingmottagning?
H0: Det föreligger ingen systematisk påverkanseffekt
H1: Det föreligger en systematisk påverkanseffekt
Signifikansnivå: = 0,05
Kritiskt värde för 1 frihetsgrad: 3,84

( 9 – 17 - 1)2
2 = _________________ = 1,88 (-)
9 + 17
H0 kan ej förkastas (p>0,05). Man kan således inte dra slutsatsen att kursdeltagare förändrar sina åsikter på ett statistiskt signifikant sätt.
4.3.2
Wilcoxon’s teckenrangtest
Wilcoxon’s teckenrangtest är ett effektivt test, som används vid beroende
observationer på en ordinalskalerad variabel. Testet utnyttjar inte endast
differensernas riktning, utan tar även hänsyn till differensernas storlek. Det
enklare s.k. teckentestet (Sign Test) använder endast differensernas riktning, dvs. + och -. Detta test finns också i SPSS, men presenteras inte närmare här. Differensen mellan de parvisa observationerna beräknas. Därefter rangordnas differenserna oberoende av tecken, och den minsta differensen erhåller rangtal 1. Om differensen är 0 stryks observationsparet (s.k.
“ties“). Slutligen utsätts plus- och minustecken för differenserna vid rangtalen, varefter den lägsta summan av rangtalen med samma tecken beräknas (T). Om nollhypotesen gäller blir det väntade värdet av T lika med
hälften av den totala rangsumman. De kritiska värdena på T under H0 återfinnes i Tabell E. Antalet nolldifferenser (“ties“) bör ej vara för många.
Vid stora värden på n (n=antalet parvisa observationer) blir T approximativt normalfördelat, och nollhypotesen kan prövas med följande formel:
T - µT
T - n(n+1)/4
z = ______ = _____________

T
n(n+1)(2n+1)
24
140
(formel 4.11)
© Horst Löfgren
För att visa tillvägagångssättet väljer vi följande exempel. Ett slumpmässigt urval av vuxenstuderande arbetade under en termin med ett nytt självinstruerande material. Före kursens början och efter avslutad kurs fick de
studerande besvara ett attitydformulär. Resultatet på attitydskalan uttryckt i
summapoäng framgår av nedanstående. Låg poäng innebär en negativ inställning till ämnet. Kan man av nedanstående data dra slutsatsen att eleverna systematiskt förändrat sin inställning?
H0= Det föreligger ingen skillnad mellan attityderna före och efter
försöket
H1= Det föreligger en skillnad mellan attityderna före och efter
försöket
Signifikansnivå:  = 0,05
Kritiskt värde (Tabell E) för n = 26: T= 98
Tabell 4.7. Resultat av attitydmätning
____________________________________________________________
Elev
Före
Efter
Elev Före
Efter
____________________________________________________________
A
10
12
O
10
13
B
15
11
P
10
22
C
24
26
Q
20
17
D
14
18
R
12
16
E
17
20
S
11
18
F
15
15
T
15
20
G
18
21
U
17
21
H
6
14
V
19
20
I
20
21
X
15
8
J
21
20
Y
12
17
K
21
16
Z
18
13
L
10
10
Å
10
16
M
20
22
Ä
11
18
N
24
16
Ö
6
20
____________________________________________________________
© Horst Löfgren
141
____________________________________________________________
Elev Före Efter diff rang
Elev Före Efter
diff rang
____________________________________________________________
A 10
12
-2
-5,0
O 10
13
-3
-8,5
B
15
11
4
12,5
P
10
22
-12 -26,0
C
24
26
-2
-5,0
Q 20
17
3
8,5
D 14
18
-4
-12,5
R
12
16
-4 -12,5
E
17
20
-3
-8,5
S
11
18
-7 -22,0
F
15
15
0
--T
15
20
-5 -16,5
G 18
21
-3
-8,5
U 17
21
-4 -12,5
H
6
14
-8
-24,5
V 19
20
-1
-2,0
I
20
21
-1
-2,0
X 15
8
7 22,0
J
21
20
1
2,0
Y 12
17
-5 -16,5
K 21
16
5
16,5
Z
18
13
6 16,5
L
10
10
0
--Å 10
16
-6 -19,5
M 20
22
-2
-5,0
Ä 11
18
-7 -22,0
N 24
16
8
24,5
Ö
6
12
-6 -19,5
____________________________________________________________
Summan av rangtalen med samma tecken beräknas. T är den lägsta summan av rangtalen och blir här 102,5. Eftersom vi har 26 differenser > 0 blir
n=26.
H0
H1
Obs.v
Kr.v
_______________x_______x_______________________
T=hög
102,5
98
T= 0
H0 kan ej förkastas (p > 0,05)
Man kan således inte påvisa någon skillnad mellan attityderna före och
efter den självinstruerande undervisningen.
142
© Horst Löfgren
4.4
Några index byggda på 2
Under denna rubrik ska vi ta upp två index som är vanligt förekommande,
kontingenskoefficienten och Cramérs index. För frekvensdata uppställda i
en r x k-tabell kan ett beräknat 2-värde s a s översättas till en korrelationskoefficient. Ett erhållet 2-värde på exempelvis 24,5 tolkas genom att
man jämför med ett kritiskt värde för en viss vald signifikansnivå. Om vi
överför det observerade värdet till en korrelationskoefficient blir resultatet
lättare att tolka. Vi är mer bekanta med innebörden av ett sådant standardiserat mått som en korrelationskoefficient. Problemet med 2-test liksom
vid andra vanliga hypotesprövningsmetoder är att antalet observationer är
avgörande för om en viss differens ska betraktas som säkerställd eller ej.
Vid stora n-tal blir medelfelet mindre, vilket leder till att även en liten
skillnad kan bli signifikant.
4.4.1
Kontingenskoefficienten
En kontingenskoefficient (C) för data uttryckta i en tabell med r rader och
k kolumner beräknas utifrån ett 2-värde och antalet observationer (N),
som ingår i analysen.

2
C = ______
N + 2
(formel 4.12)
I en undersökning samlade man via en enkät in föräldrars och barns inställning till betyg i grundskolan. Resultatet av undersökningen presenteras
i Tabell 4.8.
Av analysen drar vi slutsatsen att det inte finns något signifikant samband
mellan socialgruppstillhörighet och inställning då det gäller barnen, men
väl då det gäller deras föräldrar. Denna slutsats drar vi, trots att vi här konstruerat data där elever och deras föräldrar har precis samma uppfattning.
Den relativa fördelningen av svar är exakt densamma. Skillnaden är att
föräldrarna är dubbelt så många som eleverna. Sambandet mellan variablerna för barn- respektive föräldragruppen måste självfallet bli lika högt,
men tydligen har 2-metoden för låg känslighet för att skillnaden ska bli
säkerställd för barngruppen.
© Horst Löfgren
143
Tabell 4.8. Barn och föräldrars inställning till betyg
____________________________________________________________
Barn:
Föräldrar:
SocialInställning
SocialInställning
grupp
neg ?
pos summa grupp
neg ?
pos summa
____________________________________________________________
1
3
2
15
20
1
6
4
30
40
2
10
10
20
40
2
20
20
40
80
3
12
13
15
40
3
24
26
30
80
____________________________________________________________
Summa 25
25
50
100
Summa 50
50 100
200
____________________________________________________________
2= 7,65
(p>0,05)
2= 15,3
(p<0,05)
För att göra jämförelser mellan grupper avseende samband mellan variabler måste vi överföra erhållna 2-värden till något korrelationsmått, t.ex.
kontingenskoefficienten “C“.
7,65
Cbarn = _________ = 0,27
100 + 7,65
15,3
Cföräldrar = _________ = 0,27
200 + 15,3
Av kontingenskoefficienterna framgår att sambandet mellan de studerade
variablerna i de båda grupperna är lika stort.
Det lägsta värde C kan anta är 0,00. Kontingenskoefficienten är alltid positiv, vilket är naturligt med hänsyn till att data är på ordinalskalenivå. Det
högsta möjliga värdet på C är emellertid beroende på ursprungstabellens
storlek. När tabellen har lika många rader som kolumner kan Cmax beräknas med hjälp av följande formel:
r -1
_____
(formel 4.13)
r
r = antal rader (eller kolumner)
Cmax =
För en 2x2-tabell blir Cmax således 0,707 och för en 3x3-tabell 0,816. Att
Cmax på detta sätt varierar med tabellens storlek medför att olika konting144
© Horst Löfgren
enskoefficienter inte blir direkt jämförbara, såvida de inte baseras på tabeller av lika storlek.
4.4.2
Cramérs index
I stället för att använda kontingenskoefficienten kan man i samma situationer lämpligen i stället utnyttja Cramérs index (CV). Den har fördelen att
inte ha olika max-värden för tabeller av olika storlek. Cramérs index varierar alltid mellan 0,00 och 1,00.

Cramérs V =
2
______
N.(s-1)
(formel 4.14)
N= stickprovsstorleken; s= minsta antalet av rader och/eller kolumner
Om vi applicerar Cramérs index på samma data som i det tidigare exemplet erhålls följande:
CV=
7,65
_______ = 0,20
100 . 2
CV=
15,3
______ = 0,20
200 . 2
Som tidigare nämnts är phi ett sambandsmått som används då man har två
nominalskalerade observationsvariabler. För att beräkna sambandet mellan
två variabler i en kontingenstabell kan man således använda phi. I en s.k.
fyrfältstabell, i vilken man har observationer från två dikotoma eller dikotomiserade variabler är phi-koefficienten identisk med Cramérs V.
4.5
Analys av differenser mellan tre eller
flera oberoende stickprov
I översikten för hypotesprövningsmetoder (Ruta 4.1) angavs några möjligheter att jämföra tre eller flera stickprov, både oberoende och beroende, för
observationer på olika skalnivåer. I detta avsnitt ska vi presentera de ickeparametriska metoder, som kan appliceras på nominal- och ordinal-
© Horst Löfgren
145
skalenivå. Liksom tidigare undersöks huruvida man kan dra slutsatsen att
stickproven härrör ur samma bakomliggande population.
4.5.1
Chi-kvadrat-testet för tre eller flera oberoende
stickprov
Vi kan här använda samma test, som utnyttjades för två oberoende stickprov, nämligen 2-testet. Formeln är densamma som tidigare med undantag av att vi nu summerar över k stickprov i stället för endast 2 stickprov.
(Oij-Eij)2
2
fg = (r-l) (k-l)
(formel 4.15)
 =  ________
Eij
r= antal rader; k= antal kolumner
Vi använder följande exempel: I ett kvasiexperiment med tre experimentgrupper önskade man kontrollera vissa bakgrundsvariabler. Sålunda studerade man socialgruppstillhörighet för att se huruvida man kunde betrakta
grupperna som slumpmässigt lika avseende denna variabel.
Tabell 4.9a. Erhållna resultat av socialgruppsjämförelse mellan de tre studerade grupperna
____________________________________________________________
Observerade frekvenser (O):
Socialgrupp
I
II
III
Summa
____________________________________________________________
Experiment- 1
14
21
15
50
grupp
2
8
17
25
50
3
5
25
20
50
____________________________________________________________
Summa
27
63
60
150
____________________________________________________________
Parentetiskt kan här nämnas att ett experiment i vilket man inte slumpmässigt kan fördela individerna till olika jämförelsegrupper kallas vanligen
för kvasiexperiment. Eftersom jämförelsegrupperna inte är lika inom
146
© Horst Löfgren
slumpens ram måste man kontrollera, om de kan anses vara lika i utgångsskedet.
Utifrån ovan observerade värden beräknas de under H0 förväntade värdena. För att beräkna den förväntade frekvensen i rad 1 och kolumn 1,
under förutsättning att det inte finns något samband mellan de båda variablerna, multipliceras radsumman med kolumnsumman, varefter man dividerar med totalsumman, dvs. 50 . 27/ 150 = 9.
Tabell 4.9b. Förväntade resultat om det inte finns skillnader mellan grupperna
____________________________________________________________
Förväntade värden (E):
Socialgrupp
I
II
III
Summa
____________________________________________________________
Experiment- 1
9
21
20
50
grupp
2
9
21
20
50
3
9
21
20
50
____________________________________________________________
Summa
27
63
60
150
____________________________________________________________
Enligt formel för 2 (4.15) erhålls:
2
(14-9)2
= __________
9
+
(21-21)2 (15-20)2 (8-9)2 (17-21)2 (25-20)2
+
+ ____________ + ________ + ___________ + ___________ +
21
20
9
21
20
___________
(5-9)2
(25-21)2
_________
____________
9
+
21
(20-20)2
+
___________
= 8,69
20
Eftersom vi i det här fallet vill undersöka om grupperna initialt är lika, bör
vi välja en signifikansnivå där -risken är hög. Det är bättre att felaktigt
förkasta H0 än att gå vidare i studien och felaktigt anta att grupperna är
© Horst Löfgren
147
lika. Kanske kan 10%-nivån eller rent av 20%-nivån vara en lämplig signifikansnivå.
H0: Det finns inget samband mellan experimentgrupp och socialgruppstillhörighet
H1: Det finns ett samband mellan experimentgrupp och socialgruppstillhörighet
Det kritiska värdet för 4 frihetsgrader på 10%-nivån är 7,78 och på 20%nivån 5,99, varför nollhypotesen i detta fall förkastas (p<0,10). Vi drar
slutsatsen att grupperna inte kan betraktas vara dragna ur samma population. Visserligen hade nollhypotesen inte kunnat förkastas, om -risken
hade bestämts till 5 %, men eftersom det här var fråga om en kontroll av
initialskillnader är = 0,20 mera lämplig. Med hjälp av Cramér’s index
kan vi beräkna sambandet mellan experimentgrupp och socialgruppstillhörighet (jfr avsnitt 4.4.2). I detta fallet blir sambandet 0,17. Det är visserligen inte något starkare samband, men för att vara på den säkra sidan vill vi
ej betrakta grupperna som lika vad avser socialgruppstillhörighet.
4.5.2
Kruskal-Wallis testet
För data på ordinalskalenivå finns några olika möjligheter. Ett av de mera
effektiva testen är Kruskal-Wallis testet eller som det ibland också kallas
H-testet. Detta är ett effektivt test och används då man har flera oberoende
grupper som ska jämföras. Samtliga observationer rangordnas över alla
grupper, och därefter studeras om rangsummorna för de olika grupperna
ungefärligen blir lika med hänsyn till antalet individer i grupperna. Om
nollhypotesen gäller och sålunda stickproven kommer från samma bakomliggande population bör rangsummorna bli ganska lika.
Hypotesen kan prövas med följande formel (om nj >5):
12
Rj2
H = _______  ___ - 3(n+1)
n(n+1)
nj
(formel 4.16)
Rj2 = summan av rangtalen i kvadrat för den j:te gruppen
nj = antalet individer i den j:te gruppen
148
© Horst Löfgren
H är 2-fördelad med k-1 frihetsgrader (k=antal grupper). Om det finns
många “ties“ kan man justera för dessa.
Ett exempel får belysa tillvägagångssättet av detta H-test. I en undersökning av ett nytt läkemedel ingick att testa detta på försöksdjur. Efter injicering av ett bestämt virus fick tre olika grupper av försöksdjur olika behandlingar. Efter försöksperiodens slut bedömdes effekterna i en sju-gradig
skala. Bedömaren kände ej till försöksdjurens grupptillhörighet. Följande
resultat erhölls vid bedömningen efter påverkansperioden:
Tabell 4.10a. Resultat av bedömningar av effekter
____________________________________________________________
Grupp 1
Grupp 2
Grupp 3
____________________________________________________________
3
1
5
1
5
6
2
1
7
3
4
5
4
2
7
2
6
6
____________________________________________________________
n1=6
n2=6
n3=6
____________________________________________________________
Kan man av ovanstående resultat dra slutsatsen att de tre behandlingarna
leder till olika resultat?
H0: Det finns ingen skillnad i mellan de tre grupperna (de kan även
efter medicinering betraktas tillhöra samma bakomliggande population)
H1: Det finns en skillnad mellan de tre grupperna
Signifikansnivå: =0,05
Eftersom vi här har tre grupper blir antalet frihetsgrader 2. Det kritiska
värdet för den valda signifikansnivån blir enligt Tabell D lika med 5,99.
Efter rangordning erhålls nedanstående värden.
© Horst Löfgren
149
Tabell 4.10b. Rangtal av bedömningar
____________________________________________________________
Grupp 1
Grupp 2
Grupp 3
____________________________________________________________
7,5
2,0
12,0
2,0
12,0
15,0
5,0
2,0
17,5
7,5
9,5
12,0
9,5
5,0
17,5
5,0
15,0
15,0
____________________________________________________________
36,5
45,5
89,0
____________________________________________________________
12
36,52 45,52
892
H = ________ ( _____ + _____ + ____ ) - 3(18+1) = 9,22**
18(18+1)
6
6
6
Då det kritiska värdet enligt 2-fördelningen på 5%-nivån för 2 frihetsgrader är 5,99 måste nollhypotesen förkastas, och vi drar slutsatsen att de tre
medicineringarna är olika effektiva (p<0,01).
4.6
Analys av differensen mellan tre eller
flera beroende stickprov
Som tidigare flera gånger har nämnts erhålls beroende stickprov antingen
genom repeterad mätning, dvs. samma grupp individer utsätts för flera
mätningar och dessa mättillfällen jämförs med varandra, eller genom
matchning varvid olika grupper av individer jämförs vid ett och samma
testtillfälle.
150
© Horst Löfgren
4.6.1
Cochran Q-test
Vid analys av två beroende stickprov kan man använda McNemar-testet.
Då vi har fler än två stickprov eller uppsättningar av beroende mätvärden,
väljer vi en vidareutveckling av McNemar-testet, nämligen Cochran Qtest. Detta test kan användas när data är på nominalskalenivå eller vid
diktomiserad ordinalskala. Data uttryckta i en dikotom skala kan endast
anta endera av två värden, t.ex. ja - nej, rätt - fel eller positiv - negativ.
Data sammanställs i en tabell innehållande r rader och k kolumner. Den
nollhypotes som prövas är om frekvenserna är slumpmässigt lika i de olika
kolumnerna. Ett Q-värde beräknas, vilket är approximativt 2-fördelat med
k-1 frihetsgrader.
(k-1) {k.Gj2 - (Gj)2}
Q = _______________________________
K .Li - Li2
(formel 4.17)
Gj = antal ja-svar (frekvensen i den ena dikotomin) i den j:te gruppen
Li = antal ja-svar i den i:te raden
Vid ett försök med självinstruerande material i matematik lät man eleverna
vid tre tillfällen ange huruvida de var positiva eller negativa till läromedlet
(Tabell 4.11).
H0: Det finns ingen skillnad mellan de tre mättillfällena
H1: Det finns en skillnad mellan de tre mättillfällena
Signifikansnivå: =0,05
(3-1) {3.(122 + 82 + 62) - 262}
Q=
________________________________________
= 7,0*
3.26 - 62
Då det kritiska värdet enligt 2-fördelningen på 5%-nivån för 2 frihetsgrader är 5,99, kan nollhypotesen förkastas (p<0,05), och vi drar slutsatsen att
inställningen till läromedlet har förändrats under den tid de arbetat med
materialet.
© Horst Löfgren
151
Tabell 4.11. Resultat av attitydmätning vid tre olika mättillfällen
(1= positiv inställning; 0= negativ inställning)
____________________________________________________________
Mättillfälle:
Elev
efter 1 mån efter 2 mån efter 3 mån
L
L2
____________________________________________________________
A
1
1
1
3
9
B
1
0
0
1
1
C
1
1
0
2
4
D
0
0
0
0
0
E
1
1
1
3
9
F
1
1
1
3
9
G
1
0
0
1
1
H
0
1
1
2
4
I
1
1
1
3
9
J
1
1
0
2
4
K
1
0
0
1
1
L
0
0
0
0
0
M
1
1
1
3
9
N
1
0
0
1
1
O
1
0
0
1
1
____________________________________________________________
Summa
12
8
6
26
62
____________________________________________________________
4.6.2
Friedman testet
Vid analys av data på ordinalskalenivå finns olika testmöjligheter vid tre
eller flera beroende stickprov. Här presenteras det mest vanliga, nämligen
Friedman testet eller som det ibland kallas Friedman’s två-vägs variansanalys.
Efter att data insamlats sätts observationsvärdenas upp i en “två-vägs“tabell, där raderna representerar olika individer och kolumnerna olika situationer. Man rangordnar mätvärdena inom varje rad, dvs. man rangordnar
individens (eller de matchade individernas) mätresultat i de k situationerna. Testet undersöker huruvida det finns någon skillnad mellan de k situationerna. Om det inte finns någon skillnad borde rangsummorna för de k
situationerna bli ungefärligen lika stora. En stor variation mellan rang152
© Horst Löfgren
summorna leder således till att nollhypotesen måste förkastas. Vid förkastande av nollhypotesen kan man gå vidare för att parvis undersöka mellan
vilka tillfällen skillnader finns.
Vi väljer ett exempel från en undersökning i vilken ett urval av studenter
fick genomgå fyra olika tentamensformer, nämligen individuell muntlig,
individuell skriftlig, grupptentamen och s.k. hemmatentamen (individuell
men med tillgång till hjälpmedel). Efter genomförd tentamen fick studenterna i en 5-gradig skala bedöma hur de hade upplevt tentamen. Vi får här
anta att de olika inlärningsmomenten är jämförbara eller i varje fall inte
har påverkat upplevelserna av själva tentamensformen.
Tabell 4.12a. Resultat av attityd till tentamensform
____________________________________________________________
Tentamensform
Tentamensform
Student I
II
III
IV
Student I
II
III
IV
____________________________________________________________
A
1
1
5
1
I
1
1
5
2
B
2
2
4
3
J
3
3
3
3
C
2
1
5
1
K
1
2
4
2
D
1
4
4
4
L
2
1
3
3
E
1
2
4
3
M
2
3
4
2
F
1
2
4
2
N
4
3
2
3
G
1
1
5
2
O
5
4
1
3
H
2
2
3
3
____________________________________________________________
Kan man på basis av ovanstående data dra slutsatsen att studenter har olika
inställning till de fyra skilda tentamensformerna?
H0: Det finns ingen skillnad i inställningen till de olika tentamensformerna
H1: Det finns en skillnad i inställningen till de olika tentamensformerna
Signifikansnivå: =0,05
Nu ska man rangordna bedömningarna för varje student. Student A har
bedömt tentamensformerna I, II och IV lika, medan tentamensform 3 fått
ett högre värde. De tre förstnämnda ska dela på rangplatserna 1, 2 och 3,
vilket innebär att de får genomsnittet av dessa, dvs. rangtal 2. Tentamens-
© Horst Löfgren
153
form III får rang 4. Efter rangordning av studenternas inbördes bedömningar erhålls följande:
Tabell 4.12b. Resultat efter rangordning
____________________________________________________________
Tentamensform, rangtal
Tentamensform, rangtal
Student I
II
III
IV
Student I
II
III
IV
____________________________________________________________
A
2
2
4
2
I
1,5 1,5 4
3
B
1,5 1,5 4
3
J
2,5 2,5 2,5 2,5
C
3
1,5 4
1,5
K
1
2,5 4
2,5
D
1
3
3
3
L
2
1
3,5 3,5
E
1
2
4
3
M
1,5
3
4
1,5
F
1
2,5 4
2,5
N
4 2,5
1
2,5
G
1,5 1,5 4
3
O
4
3
1
2
____________________________
H
1,5 1,5 3,5 3,5
Rj
29 31,5 50,5 39
____________________________________________________________
Vid ej alltför små stickprov (nj>9) kan visas att Friedman-testet är approximativt 2-fördelat med k-1 frihetsgrader enligt följande formel:

12
2F = _______ (Rj)2 - 3n (k+1)
nk (k+1)
(formel 4.18)
n = antalet rader (individer)
k = antalet kolumner (mättillfällen)
Rj = rangsumma för kolumn j
Med de ovan erhållna data erhålls:

12
2F = ______ (292+31,52+50,52+392) - 3.15.5 = 11,18*
15.4.5
Då det kritiska värdet enligt 2-fördelningen på 5%-nivån för 3 frihetsgrader är 7,81, måste nollhypotesen förkastas (p=0,05), och vi drar slutsatsen
att de fyra tentamensformerna är olika populära. Om man nu vill, kan man
gå vidare och parvis studera skillnader mellan tentamensformer.
154
© Horst Löfgren
Appendix
© Horst Löfgren
155
Ett förenklat exempel på varianskomponenter i variansanalys
För att förstå hur de olika variansdelarna beräknas, dvs. SST (den totala
kvadratsumman), SSM (kvadratsumman mellan grupper) och SSI (kvadratsumman inom grupper) ges här ett mycket förenklat exempel. I exemplet
finns tre grupper med endast två observationer i varje grupp. Egentligen
går det inte att använda variansanalys på så små grupper – resultatet kommer att bli mycket underligt – men för att förstå varifrån de olika variansdelarna kommer kan exemplet fungera. I analyser av en större mängd data
och där medelvärden inte är heltalssiffror används en förenklad beräkningsmodell enligt exemplet på s. 95 ff. Nedan presenteras design med
data inskrivna för resp. grupp.
A
a1
a2
a3
G1
G2
G3
1, 3
2, 4
3, 5
Totalmedelvärde = (1+3+2+4+3+5)/6 = 18/6 = 3,0
Medelvärden för de tre grupperna:
M1 = (1+3)/2 = 2,0; M2 = (2+4)/2 = 3,0; M3 = (3+5)/2 = 4,0
Eftersom SST (Sum of Squares total) är summan av de kvadrerade avvikelserna från totalmedelvärdet för varje observation erhålls:
SST = (1-3)2 + (3-3)2 + (2-3)2 + (4-3)2 + (3-3)2 + (5-3)2 = 10
SSM är summan av differenserna mellan gruppmedelvärdena och totalmedelvärdet. Eftersom det finns två observationer i varje grupp multipliceras
avvikelserna med 2.
SSM = 2(2-3)2 + 2(3-3)2 + 2(4-3)2 = 4
SSI är summan av de kvadrerade avvikelserna inom grupperna
SSI = (1-2)2 + (3-2)2 + (2-3)2 + (4-3)2 + (3-4)2 + (5-4)2 = 6
Anova-tabell (jfr s. 94 ff.)
Variationsorsak
SS
mellan grupper
4,0
inom grupper
6,0
total
156
10,0
df
2
3
MS
2,0
2,0
F
2,0/2,0=1,0
p
>0,05
5
© Horst Löfgren
Tabeller
Tabell A:
t-fördelningen
____________________________________________________________
Kritiska värden (+/-)
Kritiska värden (+/-)
vid tvåsidig mothypotes
vid ensidig mothypotes
____________________________________________________________
FrihetsSannolikhet p % ()
Sannolikhet p % ()
Grader
20
10
5
1
0,1
10
5
1
0,1
____________________________________________________________
5
1,48 2,01 2,57 4,03 6,87
1,48 2,01 3,37 5,89
6
1,44 1,94 2,45 3,71 5,96
1,44 1,94 3,14 5,21
7
1,42 1,90 2,36 3,50 5,41
1,42 1,90 3,00 4,79
8
1,40 1,86 2,31 3,36 5,04
1,40 1,86 2,90 4,50
9
1,38 1,83 2,26 3,25 4,78
1,38 1,83 2,82 4,30
10
1,37 1,81 2,23 3,17 4,59
1,37 1,81 2,76 4,14
11
1,36 1,80 2,20 3,11 4,44
1,36 1,80 2,72 4,03
12
1,36 1,78 2,18 3,06 4,32
1,36 1,78 2,68 3,93
13
1,35 1,77 2,16 3,01 4,22
1,35 1,77 2,65 3,85
14
1,34 1,76 2,14 2,98 4,14
1,34 1,76 2,62 3,79
15
1,34 1,75 2,13 2,95 4,07
1,34 1,75 2,60 3,73
16
1,34 1,75 2,12 2,92 4,02
1,34 1,75 2,58 3,69
17
1,33 1,74 2,11 2,90 3,97
1,33 1,74 2,57 3,65
18
1,33 1,73 2,10 2,88 3,92
1,33 1,73 2,55 3,61
19
1,33 1,73 2,09 2,86 3,88
1,33 1,73 2,54 3,58
20
1,32 1,72 2,09 2,84 3,85
1,32 1,72 2,53 3,55
25
1,32 1,71 2,06 2,79 3,73
1,32 1,71 2,48 3,45
30
1,31 1,70 2,04 2,75 3,65
1,31 1,70 2,46 3,38
40
1,30 1,68 2,02 2,70 3,55
1,30 1,68 2,42 3,31
60
1,30 1,67 2,00 2,66 3,46
1,30 1,67 2,39 3,23
120
1,29 1,66 1,98 2,62 3,37
1,29 1,66 2,36 3,16

1,28 1,64 1,96 2,58 3,29
1,28 1,64 2,33 3,09
____________________________________________________________
© Horst Löfgren
157
Tabell B:
z-fördelningen
____________________________________________________________
Kritiska värden (+/-)
Kritiska värden (+/-)
vid tvåsidig mothypotes
vid ensidig mothypotes
____________________________________________________________
Sannolikhet p % ()
Sannolikhet p % ()
20 10
5
1
0,1
10
5
1
0,1
____________________________________________________________
1,28 1,64 1,96 2,58 3,29
1,28 1,64 2,33 3,09
z-fördelningen (den standardiserade normalfördelningen): Andel i % av
fördelningen som ligger till vänster om ett visst z-värde.
____________________________________________________________
z andel i % z andel i % z andel i % z
andel i %
____________________________________________________________
-3,0
0,1
-1,4
8,1 +0,2
57,9 +1,8
96,4
-2,9
0,2
-1,3
9,7 +0,3
61,8 +1,9
97,1
-2,8
0,3
-1,2
11,5 +0,4
65,5 +2,0
97,7
-2,7
0,4
-1,1
13,6 +0,5
69,1 +2,1
98,2
-2,6
0,5
-1,0
15,9 +0,6
72,6 +2,2
98,6
-2,5
0,6
-0,9
18,4 +0,7
75,8 +2,3
98,9
-2,4
0,8
-0,8
21,2 +0,8
78,8 +2,4
99,2
-2,3
1,1
-0,7
24,2 +0,9
81,6 +2,5
99,4
-2,2
1,4
-0,6
27,4 +1,0
84,1 +2,6
99,5
-2,1
1,8
-0,5
30,9 +1,1
86,4 +2,7
99,6
-2,0
2,3
-0,4
34,5 +1,2
88,5 +2,8
99,7
-1,9
2,9
-0,3
38,2 +1,3
90,3 +2,9
99,8
-1,8
3,6
-0,2
42,1 +1,4
91,9 +3,0
99,9
-1,7
4,5
-0,1
46,0 +1,5
93,3
-1,6
5,5
0
50,0 +1,6
94,5
-1,5
6,7 +0,1
54,0 +1,7
95,5
____________________________________________________________
158
© Horst Löfgren
Tabell C:
F-fördelningen
____________________________________________________________
Kritiska värden för tvåsidig mothypotes
Sannolikhet p %: första raden =0,10, andra raden=0,05, tredje raden
=0,01, fjärde raden =0,001
fgt= antalet frihetsgrader i täljaren; fgn= antalet frihetsgrader i nämnaren
____________________________________________________________
fgt
fgn p % 1
2
3
4
5
6
____________________________________________________________
5
10
5
1
0,1
4,06
6,61
16,3
47,2
3,78 3,62
5,79 5,41
13,3 12,1
37,1 33,2
3,52
5,19
11,4
31,1
3,45
5,05
11,0
29,7
3,40
4,95
10,7
28,8
6
3,78
5,99
13,7
35,5
3,46 3,29
5,14 4,76
10,9
9,78
27,0 23,7
3,18
4,53
9,15
21,9
3,11
4,39
8,75
20,8
3,05
4,28
8,47
20,0
7
3,59
5,59
12,2
29,2
3,26 3,07
4,74 4,35
9,55 8,45
21,7 18,8
2,96
4,12
7,85
17,2
2,88
3,97
7,46
16,2
2,83
3,87
7,19
15,5
8
3,46
5,32
11,3
25,4
3,11 2,92
4,46 4,07
8,65 7,59
18,5 15,8
2,81
3,84
7,01
14,4
2,73
3,69
6,63
13,5
2,67
3,58
6,37
12,9
9
3,36
5,12
10,6
22,9
3,01 2,81
4,26 3,86
8,02 6,99
16,4 13,9
2,69
3,63
6,42
12,6
2,61
3,48
6,06
11,7
6,55
3,37
5,80
11,1
© Horst Löfgren
159
____________________________________________________________
fgt
fgn p % 1
2
3
4
5
6
____________________________________________________________
10 10
5
1
0,1
3,28
4,96
10,0
21,0
2,92 2,73
4,10 3,71
7,56 6,55
14,9 12,6
2,61
3,48
5,99
11,3
2,52
3,33
5,64
10,5
2,46
3,22
5,39
9,92
11
3,23
4,84
9,65
19,7
2,86 2,66
3,98 3,59
7,21 6,22
13,8 11,6
2,54
3,36
5,67
10,3
2,45
3,20
5,32
9,58
2,39
3,09
5,07
9,05
12
3,18
4,75
9,33
18,6
2,81 2,61
3,89 3,49
6,93 5,95
13,0 10,8
2,48
3,26
5,41
9,63
2,39
3,11
5,06
8,89
2,33
3,00
4,82
8,38
15
3,07
4,54
8,68
16,6
2,70
3,68
6,36
11,3
2,49
3,29
5,42
9,34
2,36
3,06
4,89
8,25
2,27
2,90
4,56
7,57
2,21
2,79
4,32
7,09
20
2,97
4,35
8,10
14,8
2,59
3,49
5,85
9,95
2,38
3,10
4,94
8,10
2,25
2,87
4,43
7,10
2,16
2,71
4,10
6,46
2,09
2,60
3,87
6,02
30
2,88
4,17
7,56
13,3
2,49
3,32
5,39
8,77
2,28
2,92
4,51
7,05
2,14
2,69
4,02
6,12
2,05
2,53
3,70
5,53
1,98
2,42
3,47
5,12
40
2,84
2,44 2,23
2,09
2,00
1,93
4,08
3,23 2,84
2,61
2,45
2,34
7,31
5,18 4,31
3,83
3,51
3,29
12,6
8,25 6,60
5,70
5,13
4,73
____________________________________________________________
160
© Horst Löfgren
____________________________________________________________
fgt
fgn p % 1
2
3
4
5
6
____________________________________________________________
60 10
5
1
0,1
2,79
4,00
7,08
12,0
2,39
3,15
4,98
7,76
2,18
2,76
4,13
6,17
2,04
2,53
3,65
5,31
1,95
2,37
3,34
4,76
1,87
2,25
3,12
4,37
120
2,75
3,92
6,85
11,4
2,35
3,07
4,79
7,32
2,13
2,68
3,95
5,79
1,99
2,45
3,48
4,95
1,90
2,29
3,17
4,42
1,82
2,18
2,96
4,04

2,71
2,30 2,08
1,94
1,85
1,77
3,84
3,00 2,60
2,37
2,21
2,10
6,63
4,61 3,78
3,32
3,02
2,80
10,8
6,91 5,42
4,62
4,10
3,74
___________________________________________________________
____________________________________________________________
fgt
fgn p % 7
8
10
12
20

____________________________________________________________
5
6
10
5
1
0,1
3,37
4,88
10,5
28,2
3,34 3,30
4,82 4,74
10,3 10,1
27,6 26,9
3,27
4,68
9,89
26,4
3,21
4,56
9,55
25,4
3,10
4,36
9,02
23,8
3,01
4,21
8,26
19,5
2,98 2,94
4,15 4,06
8,10 7,87
19,0 18,4
2,90
4,00
7,72
18,0
2,84
3,87
7,40
17,1
2,72
3,67
6,88
15,7
7
2,78
2,75 2,70
2,67
2,59
2,47
3,79
3,73 3,64
3,57
3,44
3,23
6,99
6,84 6,62
6,47
6,16
5,65
15,0
14,6 14,1
13,7
12,9
11,7
____________________________________________________________
© Horst Löfgren
161
____________________________________________________________
fgt
fgn p % 7
8
10
12
20

____________________________________________________________
8
2,62
3,50
6,18
12,4
2,59 2,54
3,44 3,35
6,03 5,81
12,0 11,5
2,50
3,28
5,67
11,2
2,42
3,15
5,36
10,5
2,29
2,93
4,86
9,34
9
2,51
3,29
5,61
10,7
2,47
3,23
5,47
10,4
2,42
3,14
5,26
9,89
2,38
3,07
5,11
9,57
2,30
2,94
4,81
8,90
2,16
2,71
4,31
7,81
10
2,41
3,14
5,20
9,52
2,38
3,07
5,06
9,20
2,32
2,98
4,85
8,75
2,28
2,91
4,71
8,44
2,20
2,77
4,41
7,80
2,06
2,54
3,91
6,76
11
2,34
3,01
4,89
8,66
2,30
2,95
4,74
8,35
2,25
2,85
4,54
7,92
2,21
2,79
4,40
7,62
2,12
2,65
4,10
7,01
1,97
2,40
3,60
6,00
12
2,28
2,91
4,64
8,00
2,24
2,85
4,50
7,71
2,19
2,75
4,30
7,29
2,15
2,69
4,16
7,01
2,06
2,54
3,86
6,40
1,90
2,30
3,36
5,42
15
2,16
2,71
4,14
6,74
2,12
2,64
4,00
6,47
2,06
2,54
3,80
6,08
2,02
2,48
3,67
5,81
1,92
2,33
3,37
5,25
1,76
2,07
2,87
4,31
20
2,04
2,51
3,70
5,69
2,00
2,45
3,56
5,44
1,94
2,35
3,37
5,08
1,89
2,28
3,23
4,82
1,79
2,12
2,94
4,29
1,61
1,84
2,42
3,38
162
© Horst Löfgren
____________________________________________________________
fgt
fgn p % 7
8
10
12
20

____________________________________________________________
30
1,93
2,33
3,30
4,82
1,88
2,27
3,17
4,58
1,82
2,16
2,98
4,24
1,77
2,09
2,84
4,00
1,67
1,93
2,55
3,49
1,46
1,62
2,01
2,59
40
1,87
2,25
3,12
4,44
1,83
2,18
2,99
4,21
1,76
2,08
2,80
3,87
1,71
2,00
2,66
3,64
1,61
1,84
2,37
3,15
1,38
1,51
1,80
2,23
60
1,82
2,17
2,95
4,09
1,77
2,10
2,82
3,87
1,71
1,99
2,63
3,54
1,66
1,92
2,50
3,31
1,54
1,75
2,20
2,83
1,29
1,39
1,60
1,89
120
1,77
2,09
2,79
3,77
1,72
2,02
2,66
3,55
1,65
1,91
2,47
3,24
1,60
1,83
2,34
3,02
1,48
1,66
2,03
2,53
1,19
1,25
1,38
1,54

1,72
1,67 1,60
1,55
1,42
1,00
2,01
1,94 1,83
1,75
1,57
1,00
2,64
2,51 2,32
2,18
1,88
1,00
3,47
3,27 2,96
2,74
2,27
1,00
____________________________________________________________
© Horst Löfgren
163
Tabell D:
2-fördelningen
____________________________________________________________
Kritiska värden vid tvåsidig mothypotes:
____________________________________________________________
FrihetsSannolikhet p %
Grader
20
10
5
1
0,1
____________________________________________________________
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
164
1,64
3,22
4,64
5,99
7,29
8,56
9,80
11,03
12,24
13,44
14,63
15,81
16,99
18,15
19,31
20,47
21,62
22,76
23,90
25,04
26,17
27,30
28,43
29,55
30,68
31,80
32,91
34,03
35,14
36,25
47,27
58,16
2,71
4,61
6,25
7,78
9,24
10,64
12,02
13,36
14,68
15,99
17,28
18,55
19,81
21,06
22,31
23,54
24,77
25,99
27,20
28,41
29,62
30,81
32,01
33,20
34,38
35,56
36,74
37,92
39,09
40,26
51,81
63,17
3,84
5,99
7,81
9,49
11,07
12,59
14,07
15,51
16,92
18,31
19,68
21,03
22,36
23,68
25,00
26,30
27,59
28,87
30,14
31,41
32,67
33,92
35,17
36,42
37,65
38,89
40,11
41,34
42,56
43,77
55,76
67,51
6,63
9,21
11,34
13,28
15,09
16,81
18,48
20,09
21,67
23,21
24,73
26,22
27,69
29,14
30,58
32,00
33,41
34,81
36,19
37,57
38,93
40,29
41,64
42,98
44,31
45,64
46,96
48,28
49,59
50,89
63,69
76,15
10,83
13,82
16,27
18,47
20,52
22,46
24,32
26,13
27,88
29,59
31,26
32,91
34,53
36,12
37,70
39,25
40,79
42,31
43,82
45,32
46,80
48,27
49,73
51,18
52,62
54,05
55,48
56,89
58,30
59,70
73,40
86,66
© Horst Löfgren
____________________________________________________________
FrihetsSannolikhet p %
Grader
20
10
5
1
0,1
____________________________________________________________
60
68,97
74,40
79,08
88,38
99,61
70
79,72
85,53
90,53
100,43
112,32
80
90,41
96,58
101,88
112,33
124,84
90
101,05
107,57
113,15
124,12
137,21
100
111,67
118,50
124,34
135,81
149,45
150
164,35
172,58
179,58
193,21
209,26
200
216,61
226,02
233,99
249,45
267,54
____________________________________________________________
© Horst Löfgren
165
Tabell E:
Kritiska värden för Wilcoxon's teckenrangtest
____________________________________________________________
Sannolikhet p %
Sannolikhet p %
vid tvåsidig mothypotes
vid ensidig mothypotes
____________________________________________________________
n
10
5
1
0,1
5
1
____________________________________________________________
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
166
2
3
5
8
10
13
17
21
25
30
35
41
47
53
60
67
75
83
91
100
110
119
130
140
151
163
175
187
0
2
3
5
8
10
13
17
21
25
29
34
40
46
52
58
65
73
81
89
98
107
116
126
137
147
159
170
0
1
3
5
7
9
12
15
19
23
27
32
37
42
48
54
61
68
75
83
91
100
109
118
128
138
0
1
2
4
6
8
11
14
18
21
25
30
35
40
45
51
57
64
71
78
86
94
102
2
3
5
8
10
13
17
21
25
30
35
31
47
53
60
67
67
83
91
100
110
119
130
140
151
163
175
187
0
1
3
5
7
9
12
15
19
23
27
32
37
43
49
55
62
69
76
84
92
101
110
120
130
140
151
© Horst Löfgren
____________________________________________________________
Sannolikhet p %
Sannolikhet p %
vid tvåsidig mothypotes
vid ensidig mothypotes
____________________________________________________________
n
10
5
1
0,1
5
1
____________________________________________________________
34
200
182 148
111
200
162
35
213
195 159
120
213
173
36
227
208 171
130
227
185
37
241
221 182
140
241
198
38
256
235 194
150
256
211
39
271
249 207
161
271
224
40
286
264 220
172
286
238
41
302
279 233
183
302
252
42
319
294 247
195
319
266
43
336
310 261
207
336
281
44
353
327 276
220
353
296
45
371
343 291
233
371
312
46
389
361 307
246
389
328
47
407
378 322
260
407
345
48
426
396 339
274
426
362
49
446
415 355
289
446
379
50
466
434 373
304
466
397
____________________________________________________________
© Horst Löfgren
167
Tabell F:
Kritiska värden för Mann-Whitney vid
tvåsidig mothypotes
____________________________________________________________
Sannolikhet p %:
första raden =0,10, andra raden=0,05, tredje raden =0,01
____________________________________________________________
n2 p % n1 2
3
4
5
6
7
8
9
10
____________________________________________________________
2 10
0
0
0
1
1
1
5
0
0
0
1
3
10
5
1
-
0
-
0
-
1
0
-
2
1
-
2
1
-
3
2
-
3
2
0
4
3
0
4
10
5
1
-
0
-
1
0
-
2
1
-
3
2
0
4
3
0
5
4
1
6
4
1
7
5
2
5
10
5
1
0
-
1
0
-
2
1
-
4
2
0
5
3
1
6
5
1
7
6
2
8
7
3
11
8
4
6
10
5
1
0
-
2
1
-
4
2
1
6
3
1
8
5
2
11
6
3
13
8
4
15
10
5
17
11
6
7
10
5
1
0
-
2
1
-
4
3
0
6
5
1
8
6
3
11
8
4
13
10
6
15
12
7
17
14
9
8
10
5
1
1
0
-
3
2
-
5
4
1
8
6
2
10
7
4
13
10
6
15
13
7
18
15
9
20
17
11
9
10
5
1
1
0
-
3
2
0
6
4
1
9
7
3
12
10
5
15
12
7
18
15
9
21
17
11
24
20
13
168
© Horst Löfgren
Tabell G: Kritiska värden (Dmax) för KolmogorovSmirnov-testet för två stickprov
____________________________________________________________
Sannolikhet p %
Sannolikhet p %
vid tvåsidig mothypotes
vid ensidig mothypotes
n
5
1
5
1
____________________________________________________________
5
5
5
4
5
6
5
6
5
6
7
6
6
5
6
8
6
7
5
6
9
6
7
6
7
10
7
8
6
7
11
7
8
6
8
12
7
8
6
8
13
7
9
7
8
14
8
9
7
8
15
8
9
7
9
16
8
10
7
9
17
8
10
8
9
18
9
10
8
10
19
9
10
8
10
20
9
11
8
10
25
10
12
9
11
30
11
13
10
12
35
12
14
11
13
____________________________________________________________
För stora stickprov gäller följande kritiska värden:
____________________________________________________________

tvåsidigt test
ensidigt test
____________________________________________________________
0,10
0,05
0,01
0,001
n1+n2
1,36 n1+n2
1,63 n1+n2
1,95 n1+n2
1,22
n1+n2
1,22 n1+n2
1,52 n1+n2
1,86 n1+n2
1,07
____________________________________________________________
© Horst Löfgren
169
Tabell H: Kritiska värden för Run-testet för =0,05
Antal “runs“ färre eller lika med nedan angivna kritiska värden är signifikanta på 5%-nivån
____________________________________________________________
n2
2
3
4
5
6
7
8
9
10
n1
____________________________________________________________
3
2
2
2
2
2
4
2
2
2
3
3
3
5
2
2
3
3
3
3
3
6
2
2
3
3
3
3
4
4
7
2
2
3
3
3
4
4
5
8
2
3
3
3
4
4
5
5
9
2
3
3
4
4
5
5
5
10
2
3
3
4
5
5
5
6
11
2
3
4
4
5
5
6
6
12
2
2
3
4
4
5
6
6
7
13
2
2
3
4
5
5
6
6
7
14
2
2
3
4
5
5
6
7
7
15
2
3
3
4
5
6
6
7
7
16
2
3
4
4
5
6
6
7
8
17
2
3
4
4
5
6
7
7
8
18
2
3
4
5
5
6
7
8
8
19
2
3
4
5
6
6
7
8
8
20
2
3
4
5
6
6
7
8
9
____________________________________________________________
____________________________________________________________
n2 11
12
13
14
15
16
17
18
19
20
n1
____________________________________________________________
2
2
2
2
2
2
2
2
2
2
3
2
2
2
2
3
3
3
3
3
3
4
3
3
3
3
3
4
4
4
4
4
5
4
4
4
4
4
4
4
5
5
5
6
4
4
5
5
5
5
5
5
6
6
7
5
5
5
5
6
6
6
6
6
6
170
© Horst Löfgren
____________________________________________________________
n2 11
12
13
14
15
16
17
18
19
20
n1
____________________________________________________________
8
9
10
11
12
13
14
15
16
17
18
19
20
5
6
6
7
7
7
8
8
8
9
9
9
9
6
6
7
7
7
8
8
8
9
9
9
10
10
6
6
7
7
8
8
9
9
9
10
10
10
10
6
7
7
8
8
9
9
9
10
10
10
11
11
6
7
7
8
8
9
9
10
10
11
11
11
12
6
7
8
8
9
9
10
10
11
11
11
12
12
7
7
8
9
9
10
10
11
11
11
12
12
13
7
8
8
9
9
10
10
11
11
12
12
13
13
7
8
8
9
10
10
11
11
12
12
13
13
13
7
8
9
9
10
10
11
12
12
13
13
13
14
____________________________________________________________
Antal “runs“ fler eller lika med nedan angivna kritiska värden är signifikanta på 5%-nivån
____________________________________________________________
n2
4
5
6
7
8
9
10
11
12
n1
____________________________________________________________
4
9
9
5
9
10
10
11
11
6
9
10
11
12
12
13
13
13
13
7
11
12
13
14
14
15
15
16
8
11
12
13
14
14
15
15
16
9
13
14
14
15
16
16
16
10
13
14
15
16
16
17
17
11
13
14
15
16
17
17
18
12
13
14
16
16
17
18
19
13
15
16
17
18
19
19
14
15
16
17
18
19
20
15
15
16
18
18
19
20
16
17
18
19
20
21
© Horst Löfgren
171
____________________________________________________________
n2
4
5
6
7
8
9
10
11
12
n1
____________________________________________________________
17
18
19
20
-
-
-
-
17
17
17
17
18
18
18
18
19
19
20
20
20
20
21
21
21
21
22
22
____________________________________________________________
____________________________________________________________
n2
13
14
15
16
17
18
19
20
n1
____________________________________________________________
7
8
9
10
11
12
13
14
15
16
17
18
19
20
15
16
17
18
19
19
20
20
21
21
22
22
23
23
15
16
17
18
19
20
20
21
22
22
23
23
23
24
15
16
18
18
19
20
21
22
22
23
24
24
24
25
17
18
19
20
21
21
22
23
23
25
25
25
25
17
18
19
20
21
22
23
23
24
25
25
26
26
17
18
19
20
21
22
23
24
25
26
26
26
27
17
18
20
21
22
23
23
24
25
26
26
27
27
17
18
20
21
22
23
24
25
25
27
27
27
28
____________________________________________________________
172
© Horst Löfgren
Enkät och övningsuppgifter
Nedan följer ett utdrag ur en elevenkät från ett internationellt projekt ”IEA
-Written Composition”. I Sverige har enkäten besvarats av 546 elever,
slumpmässigt valda ur grundskolans årskurs 9. Den datafil som finns att
tillgå baserar sig således på verkliga data. Observera dock att det finns
internt bortfall på en del variabler, i vissa fall så stort att det kan få konsekvenser för möjligheten att dra korrekta slutsatser. Filen kan hämtas ner
från min webbsida på Internet. Sök på http://fmweb.mah.se/perslista/ och sök
i databasen efter Horst Löfgren. Klicka därefter på egen webbplats, gå till
länken och ladda ner filen IEA9Sv.sav.
Datafil: IEA9Sv.DAT
Kolumn nr Siffrorna inom parentes visar vilket variabelvärde som skrivits in i filen. Vid internt bortfall (Missing) finns inget variabelvärde utan en speciell markering.
1.
Är du pojke eller flicka?
(1) Pojke
(2) Flicka
2.
Vilken är den högsta utbildning som din mor har (eller den som är i
din mors ställe)?
(1) Folkskola
(2) Yrkesskola/lärlingsskola/1-årig handelsskola
(3) Realskola/enhetsskola/grundskola
(4) Flickskola/folkhögskola/fackskola
(5) Gymnasium
(6) Högskola eller universitet
(-) Vet ej
3.
Vilken är den högsta utbildning som din far har (eller den som är i
din fars ställe)?
(1) Folkskola
(2) Yrkesskola/lärlingsskola/1-årig handelsskola
(3) Realskola/enhetsskola/grundskola
(4) Flickskola/folkhögskola/fackskola
(5) Gymnasium
(6) Högskola eller universitet
(-) Vet ej
© Horst Löfgren
173
4-9.
4.
5.
6.
7.
Hur ofta gör barn och vuxna i din familj följande saker tillsammans?
Talar tillsammans om
vad som händer på
arbetet och i skolan
Talar tillsammans om
familjeangelägenheter,
t.ex. om hushållet,
släkten, ekonomin
Gör upp planer tillsammans, t.ex. för
veckohelg eller
semester, och
diskuterar olika
alternativ
Diskuterar allmänna
angelägenheter,
t.ex. moral,
religion, politik
Högst en
eller två
gånger
om året
Flera
gånger
om
året
En eller
två gånger
i månaden
En eller
Varje
två gånger eller
i veckan nästan
varje dag
(1)
(2)
(3)
(4)
(5)
(1)
(2)
(3)
(4)
(5)
(1)
(2)
(3)
(4)
(5)
(1)
(2)
(3)
(4)
(5)
8.
Diskuterar en bok som
någon av er har läst
(1)
(2)
(3)
(4)
(5)
9.
Diskuterar TV- eller
radioprogram
(1)
(2)
(3)
(4)
(5)
10. När detta året har gått, hur många fler års utbildning på heltid räknar
du med? Du ska räkna in studieår efter gymnasieskolan, om sådana
ingår i dina planer.
1
2
3
4
5
6
7
8
9
10 eller mer
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
174
© Horst Löfgren
11. Ungefär hur lång tid på dagen använder du hemma till att göra läxor i
alla ämnen?
(1)
(2)
(3)
(4)
(5)
Ingen tid alls
Ca 1/2 timme
Ca I timme
Ca 1 1/2 timme
Ca 2 timmar eller längre
12. Ungefär hur många timmar i veckan använder du till att läsa böcker,
artiklar och dylikt, som du fått i uppgift att läsa av dina lärare?
(1)
(2)
(3)
(4)
(5)
Ingen tid alls
Ca 2 timmar
Ca 4 timmar
Ca 6 timmar
Ca 8 timmar eller längre tid
13. Ungefär hur många timmar i veckan använder du till skriftliga hemuppgifter i olika ämnen?
_________ timmar i veckan
14. Hur många timmar brukar du titta på TV under en skoldag?
(1)
(2)
(3)
(4)
(5)
Tittar inte alls
Ca 1 timme eller kortare tid
Ca 2 timmar
Ca 3 timmar
Ca 4 timmar eller längre tid
15. Hur många timmar brukar du titta på TV under en dag då du inte går i
skolan?
(1) Tittar inte alls
(2) Ca I timme eller kortare
(3) Ca 2 timmar
(4) Ca 3 timmar
(5) Ca 4 timmar eller längre tid
© Horst Löfgren
175
16. Att skriva tycker jag är
(5) Mycket roligt
(4) Roligt
(3) Varken roligt eller tråkigt
(2) Tråkigt
(1) Mycket tråkigt
17. Många unga människor tycker om att skriva för sitt eget nöjes skull.
Kryssa för allt det som du tycker om att skriva. Du kan alltså välja
mer än ett svar. (Här fanns många situationer, varav endast en finns
med här.)
( ) Skriva berättelser (1=nej, 2=ja)
18. Hur tycker du själv att du kan skriva?
(4)
(3)
(2)
(1)
Jag är bra på att skriva
Jag är ganska bra på att skriva
Jag är ganska dålig på att skriva
Jag är inte alls bra på att skriva
19. Hur rolig eller tråkig fann du uppgiften?
(1) Tråkig
(2) Ganska tråkig
(3) Varken rolig eller tråkig
(4) Ganska rolig
(5) Rolig
20-21. Många unga människor tycker om att skriva för sitt eget nöjes
skull. Kryssa för allt det som du tycker om att skriva. Du kan alltså
välja mer än ett svar.
20. ( ) Skriva dagbok (1=ja; 2=nej)
21. ( ) Brevväxla regelbundet med en vän (l=ja; 2=nej)
22-25. Betyg på uppsats nr 6 (beskrivande, berättande)
22.
23.
24.
25.
176
Allmän bedömning (1-5)
Innehåll (1-5)
Disposition (1-5)
Stil och språkriktighet (1-5)
© Horst Löfgren
Övningsuppgifter
Uppgift 1-19 ska besvaras med hjälp av datafilen IEA9Sv
1. Beskriv betygsresultat på uppsatsskrivning (v22)
a) för totalgruppen
b) för pojkar och flickor separat
2. Visa med hjälp av lämpligt diagram resultatet för totalgruppen. Ge argument för valt diagram.
3. Du ska presentera utfallet av svaren på ”attityder till skrivning” (v16)
för en grupp åhörare. Gör lämpliga beräkningar och presentera resultatet.
4. Beskriv sambandet mellan TV-tittande på vardagar (v14) och resultat
på uppsatsprovet (v22) samt tolka resultatet.
5. Visa i en interkorrelationstabell sambanden mellan uppsatsskrivning
(v22), antal timmars läxläsning per dag (v11), antal timmar per vecka
till skriftliga hemuppgifter (v13) och självskattning av skrivförmågan
(v18). Kommentera tabellen.
6. Hur många pojkar resp. flickor skriver berättelser för sitt eget nöjes
skull (v17)?
7. Finns det något samband mellan kön och skriva berättelser för sitt eget
nöjes skull? (Ledtråd: Observera att det här rör sig om kategorivariabler.)
8. Du vill predicera resultaten på uppsatsskrivning (v22) utifrån kön (v1),
antal timmar per vecka till skriftliga hemuppgifter (v13) och attityder
till skrivning (v16).
a) Vilka variabler är oberoende resp. beroende?
b) Är det möjligt att predicera resultaten i uppsatsskrivning utifrån de
valda variablerna och i så fall hur mycket?
c) Vilken variabel är den bästa resp. sämsta prediktorn?
d) Hur stor del av variansen i variabel 22 kan prediceras utifrån de tre
prediktorerna?
© Horst Löfgren
177
9. Finns någon signifikant skillnad mellan pojkar och flickor vad gäller
uppsatsresultat (v22)?
a) Formulera den hypotes som ska prövas!
b) Identifiera de variabler som ingår (ober, ber, skalnivå)!
c) Vilka statistiska test kan användas för prövning av nollhypotesen?
d) Utför prövningen med hjälp av t-test och variansanalys och tolka resultaten!
e) T-testet ger ett t-värde och ANOVA ett F-värde. Hur förhåller sig t
och F till varandra?
10. Hur många pojkar resp. flickor skriver dagböcker? Ange både frekvens och i procent.
a) Finns någon signifikant relation mellan kön och dagboksskrivande?
b) Formulera hypoteserna (noll- och mothypotes).
c) Ange variabeltyp!
d) Testa hypotesen!
e) Om du finner en signifikant relation bör man ange ett storleksmått
på relationen. Vilket mått är lämpligt i detta sammanhang?
11. Eleverna har gjort en självskattning hur bra de är på uppsatsskrivning
(v18). Pröva om det också finns en verklig skillnad (v22) mellan dem
som skattar sig i de fyra kategorierna ”bra”, ”ganska bra”, ”ganska dålig” och ”inte alls bra”.
a) Ange hypotes!
b) Ange typ av variabler!
c) Pröva hypotesen!
d) Om det finns en signifikant skillnad, bör du ange ett storleksmått
på denna skillnad, vilket? Vad säger detta storleksmått?
12. Använd Pearson Corr för att erhålla sambandet mellan v18 och v22.
Jämför resultatet med utfallet av analysen i uppgift 11!
13. Pröva om det finns en skillnad mellan pojkar och flickor vad gäller
attityder till skrivning (v16). Presentera resultatet av analysen!
178
© Horst Löfgren
14. Finns någon skillnad i uppsatsresultat (v22) mellan grupper som lägger ner olika mycket tid på läxor (v11)? Presentera resultatet av analysen!
15. Pröva i en och samma analys skillnaden mellan pojkar och flickor på
uppsatsresultat (v22) och mellan grupper som lägger ner olika mycket
tid på läxor (v11)! Pröva också samtidigt eventuella samspelseffekter!
a) Ange samtliga hypoteser som prövas!
b) Presentera resultaten!
16. Bilda en ny variabel genom att summera de två frågorna om TVtittande (v14 och v15). Kalla denna variabel TVSUM. Gör en klassindelning av denna nya variabel genom att ge 0-5 timmar värdet 1, 6-7
timmar värdet 2 och mer än 8 timmar värdet 3. Pröva därefter om det
finns skillnader mellan dessa tre grupper vad gäller resultatet på uppsatsskrivning (v22) och presentera resultaten.
17. Försök med hjälp av faktoranalys att få grepp om vad instrumentet
försöker fånga in för områden (v2 tom v25). Försök att tolka utfallet.
a) Finns någon faktor som kan tolkas som hemkulturförhållanden?
b) Finns någon attitydfaktor?
c) Mäter variablerna 23 (innehåll), 24 (disposition) och 25 (stil och
språkriktighet) olika delar av förmågan?
18. Är det möjligt att använda summapoäng som är rimligt mätsäkra vad
gäller variablerna 4-9, variablerna 14-15 och variablerna 11-13?
19. Antag att mätvariabeln (den beroende variabeln) i uppgift 13 och 16
är sådan, att du endast vill använda en icke-parametrisk metod. Lös
uppgiften med lämpligt test och jämför med erhållet resultat med den
parametriska metoden.
© Horst Löfgren
179
20. I en undersökning studerades två olika inlärningssätt i matematik. På
ett efterföljande test erhölls följande resultat (observera att du i denna
övningsuppgift måste bygga upp egna datafiler, olika filer för a och
b):
Grupp 1
Grupp 2
1
3
4
4
6
6
6
7
7
7
7
8
8
9
10
0
3
5
5
6
6
7
7
8
8
8
9
9
10
11
a) Pröva om det finns någon signifikant skillnad i resultat mellan de
två metoderna, om eleverna har blivit parvis matchade.
b) Pröva om det finns någon signifikant skillnad i resultat mellan de
två metoderna, om eleverna inte blivit parvis matchade utan är
oberoende observationer.
21. Beräkna ett storleksmått på det speciella förklaringsexemplet på s.
154. Skriv gärna in data i en ny datafil och gör beräkningarna med
hjälp av SPSS. Förklara varför man erhåller en icke-signifikant skillnad (p=0,465) men samtidigt visar ett storleksmått på mycket stora
skillnader mellan grupperna.
180
© Horst Löfgren
Index
alpha-koefficient 59
-risk 79
additionssatsen 68
ANOVA 93
ANCOVA 116
ß-risk 79
beskrivande statistik 12
Chi-kvadrat-testet 121
Cochran Q-test 149
Cramérs index 143
Cronbach´s alpha 59
deskriptiv statistik 9
dummy-variabler 45
effektstorlek 103
egenvärde 52
enfaktors ANOVA 95
eta-kvadrat 102
faktor (oberoende variabel) 94
faktoranalys 47
fix modell 95
F-kvot 97
frekvenspolygon 20
frekvenstabell 19
Friedman testet 150
histogram 20
hypotetiska begrepp 47
hypotetiska variabler 47
© Horst Löfgren
icke-parametriska metoder 119
inferensstatistik 9
intervallskala 11
klusterurval 67
Kolmogorov-Smirnov testet 132
komponent 50
konfidensintervall 74
kontingenskoefficient 141
kontingenstabell 128
kovarians 23
kovariansanalys 116
korrelation 21
korrelationskvot 102
Kruskal-Wallis testet 146
kurvlinjärt samband 28
kvartilavvikelse 13
kvotskala 11
latent variabel 47
linjärt samband 28
Mann-Whitney U-test 129
matchning 94
McNemar-testet 136
medelfel 71
medelvärde 12
medelvärdesdiagram 111
medianvärde 13
mothypotes 76
multipel korrelation 36
multipel regression 36
multiplikationssatsen 69
mätmodell 47
181
nollhypotes 76
nominalskala 10
normalfördelning 14
obundet slumpmässigt urval 64
omega-kvadrat 101
ordinalskala 10
t-test 85
tillfälligt urval 67
tvåfaktors ANOVA 105
typ l-fel 80
typ lI-fel 80
typvärde 13
urvalsmetoder 64
population 9
prickdiagram 22
principalkomponent 50
produkt-moment korrelation 21
rangkorrelation 29
regression 31
regressionsskattning 32
regressionslinje 32
reliabilitet 57
repeterad mätning 91
rotering 52
run-testet 123
varians 14
variansanalys 93
varianskomponenter 96
variationsvidd 13
Wald-Wolfowitz Runs 134
Wilcoxon’s teckenrangtest 138
z-poäng 30
samplingfördelning 69
sannolikhet 68
signifikansnivå 78
skalvärden 10
skattningar 72
Spearman’s rangkorrelation 29
split-half-reliabilitet 58
standardavvikelse 14
standardpoäng 31
stegvis regressionsanalys 39
stickprov 9
stokastisk modell 95
stolpdiagram 20
stratifierat urval 66
systematiskt urval 65
180
© Horst Löfgren