Sandsynlighedsregning - Vestergaards Matematik Sider

Sandsynlighedsregning
Bayes' formel og Bayesianske netværk
© Erik Vestergaard
2
© Erik Vestergaard – www.matematiksider.dk
© Erik Vestergaard, 2015.
Opdateret 22. november 2015.
Billeder:
Forside:
Side 6:
Side 13:
Side 20:
Side 23:
Side 33:
Side 35:
Side 39:
Side 53:
Side 67:
Side 69:
Side 73:
Side 74:
Side 76:
jakobkramer.dk/Jakob Kramer
©iStock.com/solitude72
©iStock.com/Elenathewise
©iStock.com/ginevre
jakobkramer.dk/Jakob Kramer
©iStock.com/carlballou
jakobkramer.dk/Jakob Kramer
jakobkramer.dk/Jakob Kramer
© Pavel Losevsky | Dreamstime.com
©iStock.com/LiuNian
©iStock.com/jaroon
©iStock.com/caraman
©iStock.com/Big_Ryan
© Tossi66 | Dreamstime.com
Desuden egne fotos og illustrationer.
© Erik Vestergaard – www.matematiksider.dk
3
Indholdsfortegnelse
1. Indledning ................................................................................................................. 5
2. Endeligt sandsynlighedsfelt ...................................................................................... 5
3. Betingede sandsynligheder og uafhængighed ........................................................ 11
4. Bayes' formel .......................................................................................................... 16
5. Bayes' formel på odds form .................................................................................... 26
6. Bayes' formel i retsvidenskab ................................................................................. 28
7. Kædereglen og betinget uafhængighed .................................................................. 41
8. Kort om grafer ........................................................................................................ 48
9. Bayesianske netværk .............................................................................................. 49
10. Beregninger i et konkret bayesiansk netværk ....................................................... 49
11. Computerprogrammet AgenaRisk ........................................................................ 57
12. Bayesianske netværk historisk set ........................................................................ 61
A. Betingede sandsynligheder er også sandsynligheder ............................................. 64
Opgaver ...................................................................................................................... 66
Litteratur ..................................................................................................................... 85
Links ........................................................................................................................... 86
4
© Erik Vestergaard – www.matematiksider.dk
© Erik Vestergaard – www.matematiksider.dk
5
1. Indledning
Det overordnede formål med denne note er at præsentere den berømte Bayes formel fra
sandsynlighedsregningen og vise, hvordan denne formel giver anledning til indførelsen
af de såkaldte bayesianske netværk. Vi skal se, hvordan disse netværk kan bruges til at
løse problemer fra virkeligheden. Et af dem vil handle om, hvordan netværkene kan benyttes til at give et overblik over sandsynligheder i forbindelse kriminalsager. Idéen er,
at disse matematiske analyser skal kunne give et mere sikkert grundlag for vurderingen
af skyld/uskyld i retssager – ikke mindst i situationer, hvor menneskets "sunde fornuft"
fejler.
Først er det imidlertid nødvendigt med lidt indledende sandsynlighedsteori, så vi får fast
grund under fødderne. Noten er blandt andet henvendt til gymnasieelever, som måtte
skrive opgave i emnet. Jeg har forsøgt at sikre, at det er muligt for eleven at vise selvstændighed her, for eksempel ved at udpensle beviser, uddybe forklaringer og/eller løse
opgaver. Derfor er der også en del eksempler, som ligger tæt op af opgaverne.
2. Endeligt sandsynlighedsfelt
Sandsynlighedsregningen er måske det område i matematikken, hvor der historisk er
blevet begået flest fejltagelser. Selv berømte matematikere har troet, at de har regnet
rigtigt, for senere at blive korrigeret. Heldigvis har sandsynlighedsregningen i dag fået
et solidt axiomatisk grundlag, ikke mindst hjulpet på vej af russeren Andrey N. Kolmogorov (1903-1987). Begreber og betingelser er i dag blevet gjort mere tydelige. I dette
afsnit skal vi præsentere begrebet et endeligt sandsynlighedsfelt. Man kan sagtens definere sandsynlighedsfelter, som har et udfaldsrum med uendeligt mange elementer (se fx
[3] eller [4]), men vi vil holde os fra det her.
Definition 1 (Endeligt sandsynlighedsfelt)
Et endeligt sandsynlighedsfelt består af en ikke-tom mængde U, som har endeligt
mange elementer, samt en funktion P. Funktionen P skal både virke på elementer
u ∈U og på delmængder A ⊆ U , og det på en måde så følgende gælder:
a)
b)
0 ≤ P (u ) ≤ 1 for alle u ∈U .
∑ P (u ) = 1
u∈U
c)
P( A) = ∑ P(u ) for alle A ⊆ U .
u∈A
d)
P(∅) = 0 for den tomme mængde ∅ .
6
© Erik Vestergaard – www.matematiksider.dk
I definition 1 kaldes mængden U for udfaldsrummet, mens elementerne u i U benævnes
udfald. P kaldes for sandsynlighedsfunktionen og P(u) er sandsynligheden for udfaldet
u. En delmængde A ⊆ U kaldes for en hændelse og P ( A) er sandsynligheden for hændelsen A.
Øvelse 2
Benyt egenskab b) og c) i definition 1 til at vise at sandsynligheden for den hændelse,
som svarer til hele udfaldsrummet, er lig med 1, altså at P(U ) = 1 .
Eksempel 3
u
p1
P(u) 0,001
r1
r2
p2
Nitte
0,005
0,010
0,134
0,85
I et lotteri er der fire gevinster: En stor pengepræmie på 100.000 kr (p1), gavekort til restaurant 1 (r1), gavekort til restaurant 2 (r2)
og endelig en mindre pengepræmie på 200 kr.
(p2). Derudover er der naturligvis også nitter.
Sandsynlighederne for de forskellige gevinster fremgår af tabellen ovenfor.
Udfaldene er p1, p2, r1, r2 og Nitte. Udfaldsrummet er U = { p1, p 2, r1, r 2, Nitte} . Endvidere ser vi, at alle sandsynlighederne ligger mellem 0 og 1, så punkt a) i definition 1
er opfyldt. Endvidere er summen af sandsynlighederne lig med 1:
P( p1) + P( r1) + P( r 2) + P( p 2) + P( Nitte) = 0,001 + 0,005 + 0,010 + 0,134 + 0,85 = 1
Dermed er punkt b) i definitionen også opfyldt. Alle delmængder af U er hændelser. Vi
kunne for eksempel være interesseret i hændelsen A = { p1, p 2} ⊂ U . Ifølge c) i definition 1 fås sandsynligheden for A ved at addere sandsynlighederne for de enkelte udfald i
delmængden, som udgør hændelsen:
P( A) =
∑ P (u )
= P( p1) + P( p 2) = 0,001 + 0,134 = 0,135
u∈A
Man kunne eventuelt kalde hændelsen for det mere mundrette pengepræmie og skrive:
P( pengepræmie) = 0,135 . Ifølge punkt d) i definition 1 skal sandsynligheden for den
tomme mængde ∅ , altså den delmængde, der ikke indeholder elementer, være 0.
□
Øvelse 4
Hvad er sandsynligheden for hændelsen gevinst i eksempel 3?
7
© Erik Vestergaard – www.matematiksider.dk
Eksempel 5
Vi skal kigge på et lidt mere avanceret og spændende eksempel. Lad os sige, at vi slår
med to terninger, en grøn og en rød. Antal øjne betragtes. Et udfald kan da passende
beskrives ved et talpar, hvor det første tal angiver antal øjne for den grønne terning og
det andet tal angiver antal øjne for den røde terning. Vi har altså følgende udfaldsrum:
U = {(1,1), (1, 2), … , (1,6), (2,1), (2, 2), … , (2, 6), … , (6,6)}
I alt er der 36 kombinationer, og de er hver lige sandsynlige. Hver kombination må
derfor have en sandsynlighed på 361 ifølge definition 1b).
Rød
terning
6
(1,6) (2,6) (3,6) (4,6) (5,6) (6,6)
5
(1,5) (2,5) (3,5) (4,5) (5,5) (6,5)
4
(1,4) (2,4) (3,4) (4,4) (5,4) (6,4)
3
(1,3) (2,3) (3,3) (4,3) (5,3) (6,3)
2
(1,2) (2,2) (3,2) (4,2) (5,2) (6,2)
1
(1,1) (2,1) (3,1) (4,1) (5,1) (6,1)
1
2
3
4
5
6
Grøn
terning
Vi kunne dernæst være interesseret i følgende hændelse H: Summen af terningerne er 5.
For at få bedre overblik over situationen er det her smart at afbilde udfaldene i udfaldsrummet i et slags "koordinatsystem", hvor 1. aksen repræsenterer det antal øjne, den
grønne terning viser, mens 2. aksen repræsenterer antal øjne på den røde terning. Vi ser
straks, at de udfald, hvor summen af øjnene giver 5, ligger i en "lille diagonal", som vist
på figuren ovenfor. Hændelsen er altså følgende delmængde:
H = {(1, 4), (2,3), (3, 2), (4,1)}
Vi kan anvende Definition 1c) til at bestemme sandsynligheden:
P( H ) =
1
36
+ 361 + 361 + 361 =
4
36
=
1
9
Sandsynligheden for hændelsen H er altså 1/9.
□
Øvelse 6
Vi betragter igen eksperimentet i eksempel 5. Givet følgende hændelser:
H1 : Summen af terningernes øjne er 8.
H 2 : Den røde terning viser mindst 5 øjne.
a) Opskriv hændelserne som delmængder af U.
b) Bestem P ( H1 ) og P( H 2 ) .
8
© Erik Vestergaard – www.matematiksider.dk
Definition 7 (Stokastisk variabel)
Givet et endeligt sandsynlighedsfelt (U , P ) . En stokastisk variabel X er en reel funktion på udfaldsrummet U.
Eksempel 8
Lad os igen kigge på eksperimentet med de to terninger fra eksempel 5. Man kunne her
vælge at definere en stokastisk variabel X på følgende måde:
X : Summen af øjnene af den grønne og den røde terning.
Det er klart en funktion på U. På elementet u = (2, 4) giver den stokastiske variabel for
eksempel værdien 6: X ((2, 4)) = 2 + 4 = 6 . Man kunne overveje, hvilke mulige værdier,
den stokastiske variabel man antage. Svaret er alle hele tal fra 2 til 12, svarende til de
mulige værdier for summen af øjnene på to terninger. Sandsynlighedsfordelingen for
den stokastiske variabel kan beskrives i en tabel: Øverst har man de mulige værdier xi
for den stokastiske variabel og nederst deres tilhørende sandsynligheder. I eksempel 5
har vi allerede udregnet sandsynligheden for at X giver 5. Vi fandt, at det svarede til
summen af sandsynlighederne for udfaldene (1,4), (2,3), (3,2) og (4,1), hvilket gav 49 .
Vi har dermed, at P( X = 5) = 364 . Her er hele tabellen:
xi
2
3
4
5
6
7
8
9
10
11
12
P( X = xi )
1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
3
36
2
36
1
36
For at indse dette, kan man også vælge at
lave et koordinatsystem lidt i stil med det
i eksempel 5, men her med summen af
øjnene anbragt i felterne. Begrebet stokastisk variabel er et kraftigt værktøj at
have til rådighed. Det er meget mere generelt, end man først skulle tro. Man
kunne også definere en stokastisk variabel Y, som angiver differensen mellem
antal øjne på den grønne og den røde terning. Men det går langt videre:
Rød
terning
6
7
8
9
10
11
12
5
6
7
8
9
10
11
4
5
6
7
8
9
10
3
4
5
6
7
8
9
2
3
4
5
6
7
8
1
2
3
4
5
6
7
1
2
3
4
5
6
Grøn
terning
Man kunne for eksempel lave et spil, hvor en spiller slår med to terninger og definere
gevinster for de enkelte udfald. Så kunne den stokastiske variabel Z være gevinsten
(med fortegn) ved ét spil! Man kan endda analysere om spillet er til fordel eller ulempe
for spilleren i det lange løb. Vi vil ikke komme nærmere ind på det i hovedteksten, da
det ikke er nødvendigt for vores hovedformål, som er at studere bayesianske netværk.
Du kan dog selv studere det i opgave 2.2.
9
© Erik Vestergaard – www.matematiksider.dk
Vi skal kigge på forskellige operationer, man kan foretage på mængder. Først definerer
vi operationerne og derefter illustreres med Venn diagrammer.
A ∩ B består af de elementer, som er i både A og B.
A ∪ B består af de elementer, som er i A og/eller i B.
A og B kaldes disjunkte, hvis A og B ikke har nogen elementer til fælles, dvs. hvis A ∩ B = ∅ .
Komplementærmængde: Ac består af alle de elementer, som er i U, men ikke i A.
Delmængde:
A ⊆ B hvis ethvert element fra A også er i B. Det kan alternativt udtrykkes ved at u ∈ A ⇒ u ∈ B .
Klassedeling:
Mængderne A1 , A2 , … , An kaldes en klassedeling af A, hvis
mængderne to og to er indbyrdes disjunkte og foreningsmængden af dem alle er lig med B. Det kan også udtrykkes
ved: Ai ∩ Aj = ∅ for alle i ≠ j og A1 ∪ A2 ∪ … ∪ An = A .
Fællesmængde:
Foreningsmængde:
Disjunkte mængder:
U
A
U
A
B
B
AÇB
AÈB
Foreningsmængde
Fællesmængde
U
A
U
A
B
c
A
Disjunkte mængder
A
B
Komplementærmængde
U
U
A
A3
Delmængde
A2
A1
A4
A5
Klassedeling
Disse mængdeoperationer fører naturligt til spørgsmålet om, hvordan man udregner
sandsynligheder for mængder af ovenstående type. Vi skal formulere en sætning, som
skal komme os til nytte senere.
10
© Erik Vestergaard – www.matematiksider.dk
Sætning 9
For hændelser i samme sandsynlighedsfelt gælder:
a)
P( A ∪ B ) = P( A) + P( B ) − P( A ∩ B )
b) For disjunkte hændelser A og B gælder: P( A ∪ B ) = P( A) + P( B )
c)
P( Ac ) = 1 − P( A)
d) For en klassedeling A1 , A2 , … , An af A gælder:
n
∑ P( Ai )
= P( A1 ) + P( A2 ) + … + P( An ) = P( A)
i =1
Bevis: a) Vi ved at sandsynligheden for en hændelse fås ved at addere sandsynlighederne af de enkelte udfald i hændelsen. Når man beregner summen P( A) + P( B ) bliver
sandsynlighederne for udfaldene i A ∩ B talt med to gange. Derfor skal man trække
sandsynligheden af A ∩ B fra, for at få sandsynligheden for A ∪ B . Det overlades til
læseren at bevise de øvrige punkter.
□
Rød
terning
H
6
(1,6) (2,6) (3,6) (4,6) (5,6) (6,6)
5
(1,5) (2,5) (3,5) (4,5) (5,5) (6,5)
4
(1,4) (2,4) (3,4) (4,4) (5,4) (6,4)
3
(1,3) (2,3) (3,3) (4,3) (5,3) (6,3)
2
(1,2) (2,2) (3,2) (4,2) (5,2) (6,2)
1
(1,1) (2,1) (3,1) (4,1) (5,1) (6,1)
1
2
3
4
5
G
Grøn
terning
6
Eksempel 10
Vi arbejder videre på eksempel 5 fra tidligere i dette afsnit. Foruden hændelsen H, vil vi
indføre en ny hændelse G : Den røde terning viser højest 2. Udfaldene i denne hændelse
er markeret på figuren ovenfor. Fællesmængden H ∩ G = {(3, 2), (4,1)} er en hændelse,
som kan udtales: Summen af terningerne er 5 og den røde terning viser 2 eller derunder.
Ved at udregne summen af sandsynlighederne af udfaldene i hændelserne, får vi:
P(G ) = 12 ⋅ 361 =
12
36
=
1
3
, P( H ∩ G ) = 2 ⋅ 361 =
2
36
=
1
18
Hændelsen H ∪ G kan udtales: Summen af terningerne er 5 eller den røde terning viser
2 eller derunder. Hændelsens sandsynlighed kan beregnes ved brug af sætning 9a):
P ( H ∪ G ) = P ( H ) + P (G ) − P ( H ∩ G ) =
4
36
+
12
36
−
2
36
=
14
36
=
7
18
som også stemmer fint med, hvad man ville få ved at udregne den direkte.
□
11
© Erik Vestergaard – www.matematiksider.dk
Punkt c) i sætning 9 er ofte brugbar. Der er opgaver, hvor man ønsker at udregne sandsynligheden for en hændelse A, men hvor den er besværlig at udregne direkte, hvorimod
sandsynligheden for den komplementære hændelse Ac er meget nemmere at udregne.
Eksempel 11
Bestem sandsynligheden for at få plat mindst én gang ved fire kast med en mønt. Udfaldene i eksperimentet kan, i stil med terningeforsøgene, passende opskrives som et 4tuppel. Udfaldet ( p, p, k , p ) betyder således, at de første to kast gav plat, det tredje kast
gav krone, og det sidste gav plat. Det er oplagt, at der er 16 udfald i udfaldsrummet. Da
de i dette tilfælde er lige sandsynlige, har hvert udfald altså sandsynligheden 161 . Man
kunne begynde at undersøge, hvilke af udfaldene, som ligger i hændelsen A: Der er
mindst én plat, og derefter addere deres sandsynligheder. Det er imidlertid meget nemmere at betragte den komplementære hændelse Ac : Alle kast viste krone. I denne hændelse er der kun udfaldet (k , k , k , k ) . Sætning 9c) giver nu:
P ( A) = 1 − P ( Ac ) = 1 − 161 =
15
16
□
3. Betingede sandsynligheder og uafhængighed
Vi skal i dette afsnit studere begrebet betinget sandsynlighed, som skal vise sig at blive
centralt i forbindelse med Bayes' formel samt Bayesianske netværk. Først en definition.
Definition 12 (Betinget sandsynlighed)
Lad A og B være to hændelser i et endeligt sandsynlighedsfelt, hvor P( B ) ≠ 0 . Den
betingede sandsynlighed for A givet B betegnes P ( A B ) og er defineret således:
P( A B ) =
P( A ∩ B )
P( B )
Bemærkning 13
Man plejer at udvide definition 12 ved at vedtage, at P ( A B ) = 0 , når P( B ) = 0 .
□
Definition 12 kan umiddelbart virke lidt
underlig, men ved nærmere eftertanke forekommer den fornuftig: Med den nye viden
givet ved hændelsen B, er vores "nye verden" blevet mængden B. Derfor er vi kun
interesseret i den del af mængden A, som
ligger indenfor mængden B, altså A ∩ B .
Sandsynligheden for denne mængde sættes
i forhold til sandsynligheden for B.
U
A
B
AÇ B
12
© Erik Vestergaard – www.matematiksider.dk
Sætning 14 (Sandsynlighedsregningens multiplikationssætning)
Lad A og B være to hændelser i et endeligt sandsynlighedsfelt. Da gælder:
P( A ∩ B ) = P( A B) ⋅ P( B)
(1)
Bevis: Følger umiddelbart af definition 12 sammen med bemærkning 13.
□
Definition 15 (Uafhængighed)
To hændelser A og B i et endeligt sandsynlighedsfelt siges at være uafhængige, hvis
P( A ∩ B ) = P( A) ⋅ P( B )
(2)
Bemærkning 16
Hvis vi udnytter definitionen 15 i definitionen 11 for betinget sandsynlighed, får vi:
P( A ∩ B )
P( A) ⋅ P( B )
=
= P( A)
P( B )
P( B )
som passer meget fint med vores intuition: At hændelserne A og B er uafhængige vil
sige, at det ikke ændrer på sandsynligheden for hændelsen A, at man får at vide, om
hændelsen B er indtruffet eller ej!
(3)
P( A B ) =
Eksempel 17
Det er på tide med et eksempel. Vi arbejder trofast videre på eksemplet med kast med to
terninger. Vi antager givet de to hændelser H og G fra eksempel 10. Vi vil først udregne
sandsynligheden for hændelsen H givet G.
P( H G ) =
P( H ∩ G )
=
P (G )
2
36
12
36
=
1
6
Sandsynligheden for at summen af øjnene på de to terninger er 5 givet at man ved, at
den røde terning højest viste 2, er altså 1/6. Lad os undersøge, om de to hændelser er
uafhængige. Hertil udregner vi produktet af de to sandsynligheder:
P (G ) ⋅ P ( H ) =
Da P( H ∩ G ) = 181 er forskellig fra
1
27
4
36
⋅ 12
36 =
1
9
⋅ 13 =
1
27
, er de to hændelser altså ikke uafhængige.
□
Øvelse 18
Regn videre på eksempel 17: Hvad er sandsynligheden for G givet H, altså P ( H G ) ?
13
© Erik Vestergaard – www.matematiksider.dk
Eksempel 19
Marie og Kaja er kontorassistenter i et byggefirma. De har fået til opgave at læse korrektur på
et dokument fra firmaets reklameafdeling. Marie
opdager normalt ca. 80% af kommafejlene, mens
Kaja normalt kun opdager ca. 60% af kommafejlene. De to damer sættes uafhængigt af hinanden
til at læse korrektur på materialet. Hvad er sandsynligheden for, at en given kommafejl slipper
uopdaget forbi begge kontorassistenter?
Løsning: Vi indfører følgende hændelser:
A: Marie opdager kommafejlen
B: Kaja opdager kommafejlen
Hændelsen A ∪ B kan formuleres: Mindst én af
damerne opdager fejlen. Vi skal have fat i komplementærhændelsen ( A ∪ B )c : Hverken Marie eller Kaja opdager fejlen. Lad os først
udregne sandsynligheden for førstnævnte hændelse ved brug af sætning 9a):
P( A ∪ B ) = P( A) + P( B ) − P( A ∩ B )
= P( A) + P( B ) − P( A) ⋅ P( B )
= 0,80 + 0,60 − 0,80 ⋅ 0,60
= 0,92
hvor vi i 2. lighedstegn har brugt, at hændelserne A og B er uafhængige, hvilket er rimeligt. Der er altså 92% sandsynlighed for, at mindst én opdager fejlen. For at bestemme
sandsynligheden for den modsatte (komplementære) hændelse, bruger vi sætning 9c):
P(( A ∪ B )c ) = 1 − P( A ∪ B ) = 1 − 0,92 = 0,08
Der er altså kun 8% sandsynlighed for, at fejlen slipper under radaren hos begge.
□
Sætning 20
Antag at A og B er uafhængige hændelser i et endeligt sandsynlighedsfelt. Så er følgende hændelser også uafhængige to og to: A og B c , Ac og B samt Ac og B c .
Bevis: Vi nøjes med at vise første påstand. Den næste
fås da af symmetrigrunde. Uafhængigheden mellem
komplementærmængderne er overladt til læseren i
opgave 3.4. Mængderne A ∩ B og A ∩ B c udgør en
klassedeling af A, eftersom mængderne er indbyrdes
disjunkte og fordi deres foreningsmængde er lig med
hele A, dvs. ( A ∩ B ) ∪ ( A ∩ B c ) = A . Vi kan da udregne sandsynligheden ved at udnytte sætning 9d):
U
A
A Ç Bc
B
AÇ B
14
© Erik Vestergaard – www.matematiksider.dk
P( A ∩ B ) + P( A ∩ B c ) = P( A)
Trækkes første led fra på begge sider og udnyttes det, at A og B er uafhængige, fås:
P( A ∩ B c ) = P ( A) − P( A) ⋅ P( B ) = P( A) ⋅ (1 − P( B)) = P( A) ⋅ P( B c )
hvormed det ønskede er vist.
□
Øvelse 21
Argumenter for, at den hændelse, vi ønskede sandsynligheden bestemt for i eksempel
19, alternativt kan udtrykkes Ac ∩ B c . Benyt nu sætning 20 til at bestemme sandsynligheden fra eksempel 19 på en ny måde, nemlig som P( Ac ) ⋅ P( B c ) .
Bemærkning 22
Begrebet betinget sandsynlighed kan måske bringe forvirring hos nogle: Hvordan kan
man spørge om sandsynligheden for en hændelse A givet en anden hændelse B? Nogle
vil måske hævde, at når eksperimentet er udført, så må sandsynligheden enten være 1
eller 0 alt efter om A indtraf eller ej. Det skal imidlertid ikke betragtes på denne måde.
Det handler derimod om, hvad den enkelte person ved. Når personen erhverver ny viden
om det eksperiment, som er udført (eller tænkes udført), så vil sandsynligheden for at
hændelsen af A er sket – set fra personens synspunkt – skulle opdateres!
□
Hvordan definerer man uafhængighed, når der er mere end to hændelser? Dette er faktisk ikke helt oplagt. Antag givet n hændelser A1 , A2 , … , An . Man kunne vælge at sige,
at hændelserne to og to skal være uafhængige, det som kaldes parvis uafhængighed.
Denne definition sikrer imidlertid ikke, at man har multiplikationsreglen til rådighed:
(4)
P( A1 ∩ A2 ∩ … ∩ An ) = P( A1 ) ⋅ P( A2 )⋯ P( An )
Da denne regel er yderst vigtig i beregninger, vælger man at forøge kravene: Man vil
forlange, at hvis man tager et vilkårligt udvalg af de n hændelser, så skal sandsynligheden for deres fællesmængde være lig med produktet af deres sandsynligheder:
Definition 23
Hændelserne A1 , A2 , … , An siges at være uafhængige (eller indbyrdes uafhængige),
såfremt der for ethvert udvalg af indices i1 , i2 , … , ik mellem 1 og n gælder:
P ( Ai1 ∩ Ai2 ∩ … ∩ Aik ) = P ( Ai1 ) ⋅ P ( Ai2 ) ⋯ P ( Aik )
Ved regninger analoge til dem i beviset for sætning 20 kan man ret nemt vise, at hvis
A1 , A2 , … , An er uafhængige og man udskifter et vilkårligt udvalg af disse hændelser
med deres komplementære hændelser, så vil disse også være uafhængige.
15
© Erik Vestergaard – www.matematiksider.dk
En typisk situation, hvor uafhængighed mellem flere end to hændelser finder anvendelse, er tilfældet, hvor et basiseksperiment udføres adskillige gange. Lad os kigge på et
eksempel.
Eksempel 24
Hvad er sandsynligheden for ved fire kast med en terning at få mindst én toer.
Løsning: Eksperimentet er, at der kastes fire gange med en terning. Lad A1 være hændelsen, at der i første kast kommer en to'er, A2 være hændelsen, at der i andet kast viser
sig en to'er, etc. Det er oplagt at disse hændelser er indbyrdes uafhængige. Vi indser også at den komplementære hændelse til "mindst én to'er i fire kast" er hændelsen "ingen
to'ere i fire kast". Ifølge sætning 9c) haves derfor:
P(mindst en to'er i fire kast) = 1 − P (ingen to'ere i fire kast)
= 1 − P( A1c ∩ A2c ∩ A3c ∩ A4c )
= 1 − P( A1c ) ⋅ P( A2c ) ⋅ P( A3c ) ⋅ P( A4c )
= 1 −
( 65 )
4
= 0,518
Her er Aic hændelsen, at der ikke kommer en to'er i i'te kast. Sandsynligheden herfor fås
igen af sætning 9c): P ( Aic ) = 1 − P ( Ai ) = 1 − 16 = 65 . Vi konkluderer af ovenstående at
sandsynligheden for at få mindst én to'er ved fire kast med en terning er 51,8%.
□
Eksempel 25
I mange tilfælde kan man ikke udregne en
U
A
sandsynlighed i ét hug, som var tilfældet i ekc
c
c
c
sempel 24, men må dele problemet op. Lad os
A1Ç A2Ç A3Ç A4 A1Ç A2Ç A3Ç A4
betragte hændelsen A: "Der fås netop 2 femmec
c
c
c
re ved fire kast med en terning". Lad Ai være
A1Ç A2Ç A3Ç A4 A1Ç A2Ç A3Ç A4
hændelsen "det i'te kast gav en femmer". Man
c
c
c
c
kan da dele hændelsen A op i seks delhændelA1Ç A2Ç A3Ç A4 A1Ç A2Ç A3Ç A4
ser som vist på figuren til højre. Her betyder
A1 ∩ A2 ∩ A3c ∩ A4c hændelsen, at de første to
kast gav femmere, mens de sidste to gav "ikkefemmere". Tilsvarende med de øvrige. Det er oplagt, at de seks delhændelser har A som
foreningsmængde og at de er indbyrdes disjunkte. Der er altså tale om en klassedeling!
Det betyder, at vi kan bruge sætning 9d) til at konkludere at sandsynligheden for A er
summen af sandsynlighederne for hver af de seks delhændelser. Sandsynligheden for
2
2
den første er: P ( A1 ∩ A2 ∩ A3c ∩ A4c ) = 16 ⋅ 16 ⋅ 65 ⋅ 65 = ( 16 ) ⋅ ( 65 ) . De fem andre delhændel2
2
ser har faktisk samme sandsynlighed, hvilket betyder at P ( A) = 6 ⋅ ( 16 ) ⋅ ( 65 ) . Til den
interesserede læser kan det i øvrigt nævnes, at vi i dette eksempel har bevæget os ind på
området med den såkaldte Binomialfordeling. Ikke mere om dette her!
16
© Erik Vestergaard – www.matematiksider.dk
4. Bayes' formel
Vi skal i dette afsnit præsentere den vigtige Bayes' formel, som er meget brugbar, fordi
den i en vis forstand sætter os i stand til at "vende tingene på hovedet". Normalt har man
givet nogle udgangssandsynligheder (a priori sandsynligheder), og på baggrund af dem
kan man udregne sandsynligheden for forskellige hændelser. Bayes' formel giver mulighed for at vurdere udgangssandsynlighederne givet en viden (evidence) om udfaldet af
eksperimentet (a posteriori). På engelsk taler man om Prior Probability, henholdsvis
Posterior Probability. Bayes' formel kan angives i en simpel version og en fuld version.
Vi starter med at bevise og formulere nogle sætninger. Hvis de forekommer lidt abstrakte, kan du starte med eksemplerne og vende tilbage til sætningerne senere.
Sætning 26 (Bayes' formel – simpel version)
Lad A og B være hændelser i et endeligt sandsynlighedsfelt, med P( B ) ≠ 0 . Da gælder følgende formel for den betingede sandsynlighed for A givet B :
(5)
P( A B) =
P( B A) ⋅ P( A)
P( B )
Bevis: Formlen følger faktisk direkte fra definition 12 eller den umiddelbart afledte
sætning 14. Vi kan udtrykke sandsynligheden for fællesmængden på to måder:
(6)
P( A ∩ B ) = P( A B) ⋅ P( B)
(7)
P ( A ∩ B ) = P ( B A) ⋅ P ( A)
Sættes de to udtryk lig med hinanden, fås (5) umiddelbart.
□
Sætning 27 (Den totale sandsynlighed)
Lad A1 , A2 , … , An være en klassedeling af udfaldsrummet U i et endeligt sandsynlighedsfelt. For en vilkårlig hændelse B i sandsynlighedsfeltet gælder:
(8)
P( B ) =
n
∑ P( B Ai ) ⋅ P( Ai )
i =1
Bevis: For hver af mængderne Ai i klassedelingen tager vi fællesmængden med B. Da
vil følgen A1 ∩ B, A2 ∩ B, … , An ∩ B udgøre en klassedeling af mængden B, som det er
illustreret på figuren. Af sætning 9d) følger det da, at
n
(9)
∑ P( Ai ∩ B)
= P( B )
i =1
Det ønskede følger da af sætning 14.
□
17
© Erik Vestergaard – www.matematiksider.dk
U
A1
A2
B
A4
A2 Ç B
A4 Ç B
A7 Ç B
A5 Ç B
A5
A7
A6 Ç B
A3
A6
A8
Sætning 28 (Bayes' formel)
Lad A1 , A2 , … , An være en klassedeling af udfaldsrummet U i et endeligt sandsynlighedsfelt. Da gælder for enhver hændelse B med P( B ) ≠ 0 :
(10)
P( Ak B ) =
P( B Ak ) ⋅ P( Ak )
n
∑ P( B Ai ) ⋅ P( Ai )
i =1
Bevis: Følger straks af sætning 26 og 27.
□
Ikke sjældent har man brug for at bruge Bayes' formel i en situation, hvor klassedelingen af udfaldsrummet U kun består at to mængder, nemlig en mængde A og dens komplementærmængde Ac . I det tilfælde bliver Bayes' formel (10) til følgende:
(11)
P( A B ) =
P( B A) ⋅ P( A)
c
P( B A) ⋅ P( A) + P( B A ) ⋅ P( Ac )
Inden vi går til eksempler på brug af Bayes' formel, skal vi formulere en anden vigtig
sætning, der siger noget om betingede sandsynligheder.
Sætning 29
Lad A1 , A2 , … , An være en klassedeling af udfaldsrummet U i et endeligt sandsynlighedsfelt. Da gælder for enhver hændelse B med P( B ) ≠ 0 :
n
(12)
∑ P( Ai B)
i =1
= 1
18
© Erik Vestergaard – www.matematiksider.dk
Bevis: Ved brug af blandt andet definition 12, sætning 14 og sætning 27 om den totale
sandsynlighed har vi:
 P( A ∩ B ) 
∑ P( Ai B) = ∑  Pi( B)  =

i =1
i =1 
n
n
=
 P ( B Ai ) ⋅ P ( Ai ) 

P( B )
i =1 

n
∑
n
1
1
⋅ ∑ P ( B Ai ) ⋅ P ( Ai ) =
⋅ P( B) = 1
P ( B ) i =1
P( B )
□
I ovennævnte specielle tilfælde, hvor klassedelingen af U kun består af to mængder,
dvs. en mængde A og dens komplementære mængde Ac , reducerer (12) til:
P( A B ) + P( Ac B ) = 1
(13)
Denne er ganske nyttig i praksis.
Vi skal først se et eksempel på brug af den vigtige sætning 27 om den totale sandsynlighed. Idéen er at foretage en fornuftig klassedeling af udfaldsrummet.
Eksempel 30
Claus er ansat hos Røde Kors og har fået som opgave at ringe til
tilfældigt udvalgte personer i Københavnsområdet for at bede om
pengedonationer. En computer foretager den tilfældige udvælgelse i blandt telefonnumre i Frederiksberg, Ballerup og LyngbyTaarbæk kommune. En tidligere stikprøve har vist, at ca. 41% af
beboerne på Frederiksberg giver et bidrag, mens tallene for Ballerup og Lyngby-Taarbæk er henholdsvis 22% og 34%. Befolkningsfordelingen i de tre kommuner er henholdsvis 50%, 24% og 26%. Hvad er sandsynligheden for, at et tilfældigt opkald fører
til en donation?
Løsning: Eksperimentet består i, at en tilfældig person udtrækkes. Udfaldsrummet er
mængden af alle personer fra de tre områder. Vi antager at alle har telefon og vil svare,
hvis de bliver ringet op. Vi kan nu definere følgende hændelser:
F:
B:
L:
D:
Personen er fra Frederiksberg kommune
Personen er fra Ballerup kommune
Personen er fra Lyngby-Taarbæk kommune
Personen donerer et beløb
Det er oplagt, at vi skal bestemme P( D ) , altså sandsynligheden for donation uden betingelser! Vi kender imidlertid kun nogle betingede sandsynligheder for donation, for
eksempel at sandsynligheden for at personen donerer, givet at denne bor på Frederiksberg, lig med 41%, altså P ( D F ) = 0,41 . På tilsvarende vis har vi, at P ( D B ) = 0,22
samt at P ( D L) = 0,34 . Endeligt har vi P( F ) = 0,50 , P( B ) = 0,24 og P( L) = 0,26 .
19
© Erik Vestergaard – www.matematiksider.dk
U
D
F
FÇ D
L ÇD
L
BÇ D
B
Ifølge sætning 27 er den totale sandsynlighed for D følgende:
P( D ) = P( D F ) ⋅ P( F ) + P( D B ) ⋅ P( B ) + P( D B ) ⋅ P( B )
(14)
= 0,41 ⋅ 0,50 + 0,22 ⋅ 0,24 + 0,34 ⋅ 0,26
= 0,346
Sandsynligheden for at den tilfældigt udtrukne person vil yde en donation er altså
34,6%. Lad os analysere lidt på situationen, før vi afslutter opgaven. For det første ser
vi, at udtrykket ovenfor ikke er andet end et simpelt vejet gennemsnit: Vi tager sandsynlighederne for donationer fra de forskellige områder og vægter med den tilhørende sandsynlighed for at trække en person fra det pågældende område! Vi kan gå et skridt videre
i analysen. Ifølge beviset for sætning 27 eller alternativt fra sætning 14 har vi nemlig, at
vi kan skrive (10) på følgende alternative måde:
(15)
P( D ) = P( F ∩ D ) + P( B ∩ D ) + P( L ∩ D )
Og det giver i høj grad mening: Hændelserne F, B og L udgør en klassedeling af U.
Derfor vil F ∩ D , B ∩ D og L ∩ D være disjunkte og have foreningsmængde lig med
D. Udtrykket (15) er derfor i fin overensstemmelse med sætning 9d)! I øvrigt står hændelsen F ∩ D for: den udvalgte person er fra Frederiksberg og yder en donation. Tilsvarende med B ∩ D og L ∩ D . Denne opdeling af problemet er altså kernen i sætning
27 om den totale sandsynlighed.
□
Eksempel 31
Lad os arbejde lidt videre på eksempel 30 ved at stille et ekstra spørgsmål: Det oplyses
nu, at den udtrukne person rent faktisk foretog en donation. Hvad er sandsynligheden
for, at personen bor i Frederiksberg kommune?
Løsning: Vi skal udregne P ( F D ) , som ifølge definition 12 er P ( F ∩ D ) P ( D ) . Som
omtalt i forrige eksempel er P ( F ∩ D ) = P ( D F ) ⋅ P ( F ) , og i (14) er der et udtryk for
den totale sandsynlighed P( D ) . Vi har altså:
P( F D ) =
P( D F ) ⋅ P( F )
P( D F ) ⋅ P( F ) + P( D B ) ⋅ P( B ) + P( D B ) ⋅ P( B )
20
© Erik Vestergaard – www.matematiksider.dk
som faktisk er nøjagtigt det samme udtryk, som man får ved at sætte ind i Bayes' formel
i sætning 27. Vi har altså fået vendt problemet "på hovedet": Vi udregner P ( F D ) ud
fra P ( D F ) med mere. Når vi sætter tal ind, får vi:
P( F D) =
0,41 ⋅ 0,50
0, 2050
=
= 0,592
0,41 ⋅ 0,50 + 0,22 ⋅ 0,24 + 0,34 ⋅ 0,26
0,3462
Der er altså 59,2% sandsynlighed for, at den donerende person er fra Frederiksberg.
□
Eksempel 32 (Test for sygdom)
Vi skal nu kigge på et eksempel, som på bedste
vis illustrerer rækkevidden af Bayes' formel. Det
er samtidig en situation af ret generel karakter.
En person får foretaget en test for en sygdom, og
testen falder ud positiv. Det vides, at 1 ud af 1000
indbyggere i befolkningen har sygdommen. Som
det er tilfældet for alle mulige andre testmetoder,
er den pågældende ikke perfekt: I 2% af testene
fås en falsk-positiv og i 5% af tilfældene en falsknegativ test. Hvad er sandsynligheden for at personen rent faktisk har sygdommen?
Løsning: Der er to ting i spil her: Om personen
har sygdommen eller ej samt om testen viser positiv eller negativ. Meget i stil med eksperimentet
med to terninger, forestiller vi os et overordnet
multieksperiment, der består af to deleksperimenter. Det ene er at undersøge om personen har sygdommen. Det andet består i at foretage testen. Der er fire udfald i udfaldsrummet: (har sygdom, positiv test), (har ikke sygdom, positiv test), (har sygdom, negativ test) og (har ikke sygdom, negativ test). Vi indfører de to hændelser:
T : "Testen viser positiv"
S : "Personen har sygdommen"
Hændelsen S er mængden {(har sygdom, positiv), (har sygdom, negativ)} , mens T er
mængden {(har sygdom, positiv test), (har ikke sygdom, positiv test)} . Det overlades til
læseren at finde ud af, hvilke udfald, der ligger i hver af de komplementære hændelser
c
S c og T c . Af oplysningen om falsk-positiv uddrager vi følgende: P(T S ) = 0,02 .
c
c
Heraf får vi automatisk at P(T c S ) = 1 − P(T S ) = 1 − 0,02 = 0,98 (se eventuelt (13)
side 18). De øvrige sandsynligheder overlades til læseren. Sætning 9c) skal her igen
bringes i spil. Vores opgave er at bestemme sandsynligheden for at personen har sygdommen, men med viden om at testen er positiv. Vi skal med andre ord beregne den
betingede sandsynlighed P ( S T ) . Det er oplagt at benytte Bayes' formel.
21
© Erik Vestergaard – www.matematiksider.dk
P( S T ) =
P(T S ) ⋅ P( S )
c
P(T S ) ⋅ P( S ) + P(T S ) ⋅ P( S )
c
=
0,95 ⋅ 0,001
= 0,045
0,95 ⋅ 0,001 + 0,02 ⋅ 0,999
hvor vi har anvendt klasseinddelingen U = S ∪ S c . Da klasseinddelingen kun indeholder to mængder, har vi kunnet bruge specialtilfældet (11) af Bayes' formel fra side 17.
For at få et større overblik over situationen, kan vi vælge at tegne en figur:
T
c
T
har sygdom
nega!v test
har ikke sygdom
nega!v test
0,05 × 0,001
0,98 × 0,999
har sygdom
posi!v test
har ikke sygdom
posi!v test
0,95 × 0,001
0,02 × 0,999
S
Sc
I udtrykket for P ( S T ) øverst på siden er tælleren lig med P( S ∩ T ) og nævneren er
den totale sandsynlighed P (T ) . Dette fremgår direkte af de første udledninger i dette
afsnit. Hændelsen S ∩ T indeholder det ene udfald (har sygdom, positiv test) og er
indrammet med en orange kasse. Hændelsen T, som indeholder de to udfald (har sygdom, positiv test) og (har ikke sygdom, positiv test), er indrammet med en lilla kasse.
Det er ikke underligt, at vi dividerer sandsynlighederne for de to hændelser med
hinanden, for med den nye viden T om at testen er positiv, skal vi lade alle de udfald
ude af betragtning, hvor T ikke er positiv. Vi sætter sandsynligheden for de udfald, hvor
testen er positiv og hvor personen har sygdommen op mod sandsynligheden for alle de
udfald, hvor testen viser positiv.
Tilbage til talresultatet ovenfor. Det er nok overraskende for de fleste. Her har personen
fået at vide, at testen er positiv og at kun 1 ud af hver 1000 personer har sygdommen.
Alligevel er sandsynligheden for at have sygdommen, med den nye viden om at testen
er positiv, mindre end 5%! Det er godt nyt. Der vil skulle nye undersøgelser til for at
afklare, om personen ret faktisk har sygdommen.
Man kan få et indblik i, hvad der er årsagen til den lave sandsynlighed ved at tegne et
hændelsestræ. Det er gjort på næste side. Lad os sige, at vi ønsker at udregne, hvad der
sker for en by på 100000 indbyggere, hvor alt foregår gennemsnitligt efter sandsynlighederne. Vi starter med at dele ud i to grene alt efter om personen har sygdommen eller
ej. Der vil være 0.001 ⋅ 100000 = 100 , der har sygdommen, og 0.999 ⋅ 100000 = 99900 ,
som ikke har sygdommen. Vi videreinddeler nu i grene alt efter om personen har en positiv eller negativ test. Her anvendes de betingede sandsynligheder. For eksempel vil der
være 0.95 ⋅ 100 = 95 , som både har sygdommen og tester positiv.
22
© Erik Vestergaard – www.matematiksider.dk
95
0.95
S,T
100
S
0.001
0.05
5
S,T c
100000
1998
0.02
0.999
S c,T
99900
Sc
0.98
97902
S c,T c
Vi bemærker, at der er ganske mange personer, som tester positivt, men ikke har sygdommen. En lille procent af et stort tal, her 2% af 99900, giver i dette tilfælde et pænt
stort tal. Det er årsagen til den overraskende lille chance for at have sygdommen, selv
om man tester positiv. Der er altså 95 ud af de 95 + 1998 = 2093 , der tester positive,
som har sygdommen, i alt en andel på 95 (95 + 1998) = 0,045 = 4,5% .
□
Eksempel 33 (Monty Hall problemet)
I et TV show skal en spiller åbne én ud af tre døre og får som præmie det, der står bag
døren. Bag en af dørene står hovedpræmien, som er en splinterny Cadillac, mens der
bag de andre to døre befinder sig en ged. I første omgang bliver spilleren bedt om at
vælge en dør uden at åbne den. Studieværten ved bag hvilken dør hovedpræmien befinder sig og vælger blandt de to ikke-valgte døre at åbne en, som skjuler en ged. Derefter
får spilleren valget mellem at åbne den dør, denne valgte i første omgang, eller at skifte
til den anden uåbnede dør og åbne den. Hvad bør spilleren vælge at gøre?
Lad os præcisere:
1) Studieværten åbner altid en dør, som skjuler en ged.
2) Studieværten åbner aldrig den dør, spilleren har valgt.
3) Hvis studieværten kan åbne mere end én dør uden at overtræde de to første regler,
så vælger studieværten sin dør tilfældigt.
Ifølge artiklen [9] går dette berømte problem mindst tilbage til 1959, hvor Martin Gardner havde en version af opgaven i sin klumme i Scientific American. Siden er opgaven
dukket op diverse steder. Versionen, som florerer i dag, er navngivet efter en vært fra et
gammelt amerikansk TV show. Han brugte kunstnernavnet Monty Hall.
© Erik Vestergaard – www.matematiksider.dk
23
24
© Erik Vestergaard – www.matematiksider.dk
Det hævdes at problemet tiltrak langt flere breve og kommentarer end noget andet problem. Da Marilyn vos Savant gav sin i øvrigt rigtige løsning i hendes klumme i magasinet Parade, afstedkom det korrespondance med vrede læsere, som mente hendes løsning var forkert. Skænderiet endte endda med at blive omtalt på forsiden af New York
Times. Som en ekspert i kognitionsvidenskab udtrykte (oversat): Intet andet statistisk
problem kommer bare tæt på at narre alle folk hele tiden, som dette problem gør. Problemet er specielt interessant på grund af dets specifikke art, dets reproducerbarhed og
dets immunitet overfor højere uddannelse.
Skulle du være blandt dem, som ikke køber forklaringerne nedenfor, så skal du vide, at
du altid kan afgøre sagen med en Monte Carlo simulation. Det er en empirisk metode,
hvor man gentager forsøget et meget stort antal gange, fx på computer, registrerer udfaldene og bruger fordelingen af udfaldene til at begrunde et udsagn om sandsynligheden for en hændelse. Her skal afgøres om sandsynligheden for at vinde, når spilleren
skifter dør, er større end sandsynligheden for at vinde, hvis spilleren holder fast i sit
første valg. Monte Carlo metoden bygger naturligvis på Store tals lov, som meget løst
skrevet udtrykker, at held og uheld udligner sig med tiden, forstået på den måde, at frekvenserne vil nærme sig til de søgte sandsynligheder, hvis man udfører eksperiment et
tilstrækkelig stort antal gange.
Lad os analyse problemet. Ikke overraskende involverer det betinget sandsynlighed. For
det første kan vi uden indskrænkning antage, at spilleren vælger dør nr. 1. Dør nummeret er nemlig ikke vigtigt; det er derimod placeringen af Cadillacen i forhold til den
valgte dør og også hvilken dør værten vælger at åbne i forhold hertil. Lad os definere
følgende hændelser:
C1 : Cadillac'en er bag dør nr. 1
V1 : Værten vælger at åbne dør nr. 1
C2 : Cadillac'en er bag dør nr. 2
V2 : Værten vælger at åbne dør nr. 2
C3 : Cadillac'en er bag dør nr. 3
V3 : Værten vælger at åbne dør nr. 3
1
2
3
Vært åbner
Spiller ski!er
Lad os sige, at værten vælger at åbne dør nr. 3. Vi ønsker at bestemme sandsynligheden
for at spilleren vinder Cadillac'en, hvis denne skifter dør. Det svarer til at bestemme den
betingede sandsynlighed P (C2 V3 ) . Vi kan ikke direkte udregne denne betingede sandsynlighed, men Bayes kommer os til hjælp, da vi kender de omvendte betingede sand-
25
© Erik Vestergaard – www.matematiksider.dk
synligheder. Når vi ikke har fået nogen viden, så er det lige sandsynligt bag hvilken dør
Cadillac'en befinder sig, dvs. P(C1 ) = P(C2 ) = P(C3 ) = 13 . Hvis Cadillac'en befinder sig
bag dør nr. 1, så kan værten vælge at åbne dør nr. 2 eller dør nr. 3, hvilket betyder at
P (V3 C1 ) = 12 . Hvis Cadillac'en befinder sig bag dør nr. 2, så er værten nødsaget til at
åbne dør nr. 3, hvilket betyder at P (V3 C2 ) = 1 . Hvis Cadillac'en er bag dør nr. 3, så er
værten nødt til at åbne dør nr. 2, hvorfor P (V3 C3 ) = 0 . Bayes' formel i sætning 28 giver
os nu følgende:
P (C2 V3 ) =
(16)
=
P (V3 C2 ) ⋅ P (C2 )
P (V3 C1 ) ⋅ P (C1 ) + P (V3 C2 ) ⋅ P (C2 ) + P(V3 C3 ) ⋅ P(C3 )
1
2
⋅ 13
1 ⋅ 13
+ 1 ⋅ 13 + 0 ⋅ 13
=
1
3
1
6
+
1
3
=
2
3
Åbner værten derimod dør nr. 2 i stedet for dør nr. 3, vil det give samme sandsynlighed,
da situationen er symmetrisk, altså P (C3 V2 ) = 23 . Der er altså en sandsynlighed på 2/3
for at vinde Cadillac'en, hvis man skifter dør, og dermed nødvendigvis en sandsynlighed
på 1/3 for at vinde Cadillac'en, hvis man fastholder sit første valg af dør. Spilleren bør
altså altid skifte dør! Situationen kan også beskrives i et hændelsestræ:
1
2
Værten åbner dør nr. 2
1×1 =1
3 2 6
1
2
Værten åbner dør nr. 3
1×1 =1
3 2 6
Cadillac'en
er bag dør 2
1
Værten åbner dør nr. 3
1 ×1 = 1
3
3
Cadillac'en
er bag dør 3
1
Værten åbner dør nr. 2
1 ×1 = 1
3
3
Cadillac'en
er bag dør 1
1
3
1
3
1
3
En alternativ måde at gennemføre udregningen af P (C2 V3 ) på, er ved at farve de kasser
gule, der svarer til at værten åbner dør nr. 3. De har en samlet sandsynlighed på 16 + 13 .
Af de stier, som fører til de gule kasser, er det den nederste, som svarer til at Cadillac'en
er bag dør nr. 2. Det har en sandsynlighed på 13 . Vi har dermed følgende:
26
(17)
© Erik Vestergaard – www.matematiksider.dk
P(C2 V3 ) =
P(C2 ∩ V3 )
=
P(V3 )
1
3
1
6
+ 13
=
2
3
jf. definition 12 på betinget sandsynlighed. Vi får altså præcist det samme som i udregningen (16) … naturligvis!
Det har vist sig, at langt de fleste opgaveløsere mener, at sandsynligheden for at vinde
Cadillac'en er lige stor, hvad enten spilleren bliver ved sit førstevalg eller skifter dør. De
pågældende mener ikke, at værtens handling ændrer på noget. Men det er forkert! Ved
sin handling giver han faktisk spilleren noget information. Værten kunne jo ikke åbne
dør 1, som spilleren startede med at vælge, heller ikke selv om der var en ged bag den.
Med dør nr. 2 ved man derimod ikke, om værten fravalgte at åbne den, fordi Cadillac'en
var bag den eller hun blot valgte dør nr. 3, fordi hun valgte tilfældigt mellem dør 2 og
dør 3. Situationerne er altså ikke symmetriske. Informationen gør det mere sandsynligt,
at Cadillac'en befinder sig bag dør nr. 2.
En helt anden ting er, at de personer, som har deltaget i spillet, i stor udstrækning har
valgt ikke at skifte dør. Årsagen er psykologisk. Det føles simpelthen mere ærgerligt at
skifte standpunkt og se, at man skulle være blevet ved sit førstevalg, end at blive ved sit
førstevalg og se, at man skulle have skiftet. Denne psykologiske mekanisme har endda
vist sig at fungere på tværs af kulturer.
I [9] gives flere varianter af Monty Hall problemet, nogle endda med flere spillere eller
flere døre. I opgavesektionen kan du finde en variant.
□
5. Bayes' formel på odds form
I England betyder fx odds 3:1 eller 3/1, at man vinder 3 ved en indsats på 1. Denne tankegang kan benyttes i en reformulering af Bayes' formel på odds form, forstået på den
måde, at man ønsker et udtryk for sandsynligheden for en hypotese H (hændelse) i
forhold til sandsynligheden for den komplementære hændelse, både med og uden viden
eller evidence givet ved hændelsen E.
Sætning 34 (Bayes' formel på odds form)
Lad H og E være to hændelser i et endeligt sandsynlighedsfelt. Da gælder:
(18)
P( H E )
P( E H )
P( H )
=
⋅
c
c
P( H E )
P( H c )
P ( E H ) a posteriori odds
Bayes' faktor
a priori odds
Bevis: Benyt (5) i sætning 26 til at finde udtryk for henholdsvis P ( H E ) og P( H c E ) .
Divider derefter og reducer. Detaljerne overlades til læseren. □
© Erik Vestergaard – www.matematiksider.dk
27
Brøken på venstre side i (18) kan tolkes som odds til gunst for hypotensen H, givet informationen E. Den kaldes derfor også passende for a posteriori odds, fordi det er opdaterede odds efter viden er opnået. Den sidste brøk på højre side af lighedstegnet kan
derimod tolkes som odds til gunst for hypotensen H før viden er opnået, hvorfor den
også kaldes a priori odds. Endelig er der den første brøk på højre side af lighedstegnet.
Den kaldes Likelihood Ratio eller Bayes' faktor. Det er denne faktor, som skal ganges på
a priori odds for at få a posteriori odds. Den fortæller noget om, hvor kraftigt odds ændrer sig, når der kommer ny viden til! Er faktoren større end 1, vil odds for hypotesen H
højnes efter den nye viden er erhvervet. På samme måde vil odds for hypotesen mindskes med den nye viden, hvis Bayes' faktor er mindre end 1.
Bemærkning 35
Det bør nævnes, at når man sammenligner med det engelske begreb odds, så er det ikke
gevinsten ved et spil, for de er jo i en vis forstand omvendt proportionale med sandsynlighederne: Jo mindre sandsynlighed, jo større odds på gevinsten. Så længere holder
analogien altså ikke. Hos os er det odds på sandsynligheder!
Man kan generalisere sætning 34 til følgende:
Sætning 36 (Bayes' formel på relative odds form)
Lad H1 og H 2 være to hypoteser (hændelser) og E være viden (en hændelse) i et
endeligt sandsynlighedsfelt. Da gælder følgende:
P ( H1 E )
P ( E H1 ) P ( H1 )
=
⋅
P( H 2 E )
P( E H 2 ) P( H 2 )
(19)
Bevis: Analogt til sætning 34. Overlades til læseren.
□
Eksempel 37
Lad os kigge på eksempel 32 med test for sygdom igen. Vi har der:
P( S T )
P(T S )
P( S )
0,95 0,001
=
⋅
=
⋅
= 47,5 ⋅ 0,001 = 0,0475
c
c
c
0,02 0,999
P( S T )
P(T S ) P( S )
Bayes faktor er her 47,5. Helt uden at udregne a priori odds kan vi altså sige, at viden
om den positive test forøger sandsynligheden for at personen er syg med en faktor 47,5.
Da a priori odds imidlertid er meget små, er sandsynligheden for, at personen har sygdommen selv efter kendskab til testresultatet, stadig pænt lille.
□
28
© Erik Vestergaard – www.matematiksider.dk
6. Bayes' formel i retsvidenskab
Retsvidenskab er et andet eksempel
på et område, hvor Bayes' formel og
andre sider af sandsynlighedsregningen kommer i spil. Derfor fortjener
emnet sit eget afsnit. I vores retssystem kan en dom afsiges på grundlag af et bevis og/eller en række indicier. Politiet og anklagemyndigheden skal bevise uden for enhver rimelig tvivl, at den tiltalte er skyldig i
tiltalen. Men hvad ligger der i denne
formulering? En lidt mere matematisk måde at sige det på vil være at forlange, at sandsynligheden for at den tiltalte er
skyldig givet beviserne skal være tilstrækkelig stor, før man fælder dom. Præcis hvor
høj er mere diffust. Vores retssystem er også sådan indrettet, at man så vidt muligt sætter en dyd i, at inddrage menigmand og ikke bare professionelle dommere i bedømmelsen. Det sker gennem anvendelsen af nævninge i udvalgte sager. Derved sikres en højere grad af legitimitet i befolkningen. Udover indhentningen af ekspertvurderinger er
det også meningen, at nævningene skal anvende deres "sunde fornuft" i afgørelsen, dog
støttet af dommerens vejledning og anvisning. Systemet fungerer udmærket i mange
sager, men undertiden bliver problemstillingerne så komplekse, at mennesker ikke kan
overskue dem, eller den sunde fornuft fejler afgørende. Det sidste foregår også i helt
simple problemstillinger: Fremførte argumenter kan synes meget overbevisende, men
kan være logisk inkonsistente. At disse argumenter slipper igennem "filteret" kan være
fatalt for den tiltalte. Vi skal i dette afsnit analysere argumenterne matematisk og kigge
på konkrete retssager, hvor der blev begået alvorlige fejl.
Anklagerens fejlslutning
Vi antager at der er sket en forbrydelse, hvor der er fundet blod på gerningsstedet udover blodet fra offeret. En mistænkt, hvis blodtype matcher blodet fra gerningsstedet, er
anholdt. Kun 1% af befolkningen har den pågældende blodtype. Da ser man undertiden
anklageren anvende nedenstående fejlagtige følgeslutning:
Der er 1% chance for at tiltalte ville have samme blodtype, hvis han var uskyldig.
⇓
Der er 1% chance for at tiltalte er uskyldig.
⇓
Der er 99% sandsynlighed for at tiltalte er skyldig.
29
© Erik Vestergaard – www.matematiksider.dk
Analyse: Hypotesen H og viden E er følgende hændelser:
E : Anklagedes blodtype matcher blodet fra gerningsstedet
H : Anklagede var ikke på gerningsstedet
Faktisk er sidstnævnte følgeslutning i rammen korrekt, men da førstnævnte er forkert,
bryder argumentationen sammen. Anklageren tror fejlagtigt, at P ( H E ) = 0,01 . Havde
det været rigtigt, ville der rigtignok gælde: P( H c E ) = 1 − P( H E ) = 1 − 0,01 = 0,99 (se
evt. sætning 29), altså en sandsynlighed på 0,99 for at anklagede var på gerningsstedet,
givet viden om at blodtyperne matcher. Vi antager her, at det at have været på gerningsstedet er ækvivalent med at være skyldig! Men anklageren tager altså fejl: der gælder
P ( E H ) = 0,01 ! På engelsk går forvekslingen under betegnelsen the fallacy of the
transposed conditional eller i denne sammenhæng: The Prosecutors Fallacy. Anklageren får altså vendt rundt på hændelserne i den betingede sandsynlighed. Vi kan dog
godt forsøge at vurdere den "omvendte betingede sandsynlighed", nemlig ved at anvende Bayes' formel. Hertil får vi brug for a priori sandsynligheden P ( H ) . I fraværet af
anden viden, antager vi, at alle 5000 mandlige indbyggere i den lille by er mistænkte, og
at de er lige sandsynlige gerningsmænd. Sidstnævnte kan naturligvis diskuteres; man
kan eventuelt indskrænke til et bestemt aldersinterval. Foreløbig gør vi det dog simpelt.
Sandsynligheden for at tiltalte var på gerningsstedet er dermed 1/5000, og sandsynlighe1
den for at han ikke var der, fås ved at trække første sandsynlighed fra 1: P ( H c ) = 5000
4999
og P( H ) = 5000
. Vi får af Bayes' formel (se (11)):
P( H E ) =
(20)
=
P( E H ) ⋅ P( H )
c
P( E H ) ⋅ P( H ) + P( E H ) ⋅ P( H c )
4999
0,01 ⋅ 5000
4999
1
0,01 ⋅ 5000
+ 1 ⋅ 5000
= 0,980
og dermed P( H c E ) = 1 − P( H E ) = 1 − 0,980 = 0,020 . Altså en sandsynlighed på blot
2,0% for at anklagede er den skyldige, ikke 99%!
□
Anklagerens fejlslutning (Prosecutors Fallacy) er et betydeligt problem i retssale, ikke
mindst når der er tale om alvorlig kriminalitet og retssager, hvor et af hovedargumenterne er af statistisk art. Blot en lille sproglig drejning giver et helt andet og forkert indhold. Den begås ikke blot af anklageren, men også undertiden ubevidst af forsvareren.
Den begås af dommere, journalister og selv kriminaltekniske videnskabsfolk, der er indkaldt som vidner, kan også i et uskarpt øjeblik blive fanget i at bruge den. Det er derfor
ikke underligt, at jurymedlemmer ofte begår fejlen, enten fordi de selv foretager fejlslutningen i hovedet eller får overbragt den i retssalen. En del ansøgninger om en appelsag
bliver imødekommet netop fordi man har opdaget at anklagerens fejlslutning er blevet
anvendt undervejs i den oprindelige retssag. I [14] kan man fra side 244 og frem finde
diverse eksempler, hvor fejlslutningen har været i spil.
30
© Erik Vestergaard – www.matematiksider.dk
Forsvarerens fejlslutning
Forsvarerens fejlslutning (Engelsk: Defendant's Fallacy) er et slags modstykke til anklagerens fejlslutning. Den har overvejende en tendens til at nedtone sandsynligheden for
tiltaltes skyld. Typisk bagatelliseres et spor i sagen, hvorefter det foreslås at sporet kan
ignoreres eller tages ud af sagen. Lad os se på et eksempel fra [16]:
En kvinde er blevet dræbt og hendes ægtemand er anklaget for at
være gerningsmanden. Under sagen kommer det frem, at manden
har været voldelig over for sin kone igennem længere tid.
Forsvarsadvokaten fremfører, at hans klients misbrug bør udelukkes fra sagen, fordi kun 1 ud af 10000 mænd, som misbruger deres
kone, efterfølgende dræber dem.
Analyse: Vi har en hypotese H om skyld samt to beviser E1 og E2 :
E1 : Konen er myrdet
E2 : Ægtemanden har været voldelig overfor sin kone igennem længere tid
H : Ægtemanden har myrdet sin kone
1 , men den er ikke relevant,
Den størrelse forsvarsadvokaten nævner er P ( H E2 ) = 10000
da den ikke tager hensyn til det andet bevis i sagen, nemlig at konen er myrdet! Det er
altså P ( H E1 ∩ E2 ) , ofte skrevet P ( H E1, E2 ) , som vi ønsker. Vi ser på situationen i
opgave 6.4. Med de ekstra oplysninger angivet i opgaven, vil man komme frem til, at
ægtemandens skyld vokser fra P ( H E1 ) = 0,20 til P ( H E1, E2 ) = 0,56 , altså fra 20% til
knap 56%, når oplysningen om vold i hjemmet tilføjes. Dette tal er ikke uvæsenligt.
□
Eksempel 38 (Lucia de Berk sagen)
I et autentisk eksempel fra 2003 blev den hollandske sygeplejerske Lucia de Berk idømt
fængsel på livstid for at have dræbt 4 patienter og forsøgt drab på 3 andre. Man havde
fundet frem til, at Lucia havde været fysisk tilstede, mens mange af dødsfaldene på
hospitalet fandt sted. Sagen byggede altovervejende på statistiske argumenter. En statistiker havde udregnet odds for at det kunne være sket ved en ren tilfældighed – dvs. hvis
hun var uskyldig – og var kommet frem til odds 1 til 342 millioner. Herefter gjorde
domstolen og stort set alle andre, der var involveret i sagen, sig skyldig i anklagerens
fejlslutning. I denne situation vil den lyde således: Sandsynligheden for at kvinden er
uskyldig er 1/342000000. Heldigvis var der en videnskabsteoretiker Ton Derksen, der
sammen med sin søster Metta de Noo-Derksen undrede sig over sagen. De udgav omkring 2006 en bog om det de mente var en fejlbehæftet rettergang. Senere kom matematikeren Richard Gill fra Leiden ind i billedet. Gill fandt frem til, at førstnævnte statisti-
31
© Erik Vestergaard – www.matematiksider.dk
kers vurdering var kraftigt overvurderet og anklagerens fejlslutning blev fremhævet.
Den 14. april 2010 blev Lucia de Berk frikendt ved domstolen.
Betydningen af beviser - Bayes' faktoren
Hvis man vil fremhæve betydningen af viden eller spor/beviser, som måske vil være en
mere passende betegnelse under emnet retssager, kan man med stor fordel benytte
Bayes' formel på odds form fra sætning 34. Vi lader igen hypotesen H være hændelsen
at anklagede ikke var på gerningsstedet (altså er uskyldig), mens sporet er hændelsen E.
(21)
A posteriori odds for uskyld = Bayes-faktor × A priori odds for uskyld
A priori odds for uskyld, altså brøken P( H ) P( H c ) , fortolker vi som forholdet mellem
sandsynligheden for uskyld og sandsynligheden for skyld før inddragelse af spor. A
posteriori odds P( H E ) P( H c E ) er det samme forhold, blot med sporet taget i bec
tragtning. Bayes-faktoren er brøken P( E H ) P( E H ) , som involverer de omvendte
betingede sandsynligheder. Tælleren omtales undertiden som træfsandsynligheden (på
engelsk: hit rate): det er sandsynligheden for at se det pågældende bevis, givet at tiltalte
er uskyldig. Nævneren betegnes sandsynligheden for falsk alarm (på engelsk: false
alarm rate). Det er sandsynligheden for at se det pågældende bevis, givet at tiltalte ikke
er uskyldig, altså skyldig. Man kan også kalde den for en falsk positiv. Det gode ved
(21) er, at formlen gennem Bayes-faktoren giver et udtryk for betydningen af beviset
uden at inddrage a priori sandsynligheden for uskyld: P ( H ) . En stor del af modstanden
hos dommere og advokater mod at bruge Bayes' formel i retssale ligger nemlig i, at de
ikke bryder sig om at skulle vurdere a priori sandsynligheden for uskyld. I eksemplet
under anklagerens fejlslutning får vi:
Bayes-faktor =
P( E H )
c
P( E H )
=
0,01
= 0,01
1
Odds for uskyld bliver altså 100 gange så lille, når man får at vide, at anklagedes blodtype matcher blodet fra gerningsstedet. Sagt på en anden måde: Med de nye spor øges
forholdet mellem sandsynlighederne for skyld og uskyld altså med en faktor 100.
Det skal nævnes, at der naturligvis er situationer, hvor man er nødsaget til at inddrage a
priori sandsynlighederne. Det er for eksempel tilfældet, hvis man har vigtig viden om
den underliggende population.
Eksempel 39 (Sagen om Birmingham six)
Et autentisk eksempel, hvor Bayes-faktoren blev bragt i spil var sagen, der går under
navnet "Birmingham six case". Den 21. november 1974 blev der begået bombeattentater
i to pubber i Birmingham i England. I alt 21 mennesker døde og 182 blev såret. Hand-
32
© Erik Vestergaard – www.matematiksider.dk
lingen blev tilskrevet den irske republikanske hær (IRA), og seks personer blev i 1975
idømt fængsel på livstid. Hovedanklagen mod de seks bestod i, at de havde spor af
nitroglycerin på hænderne. Det var i hvert fald hvad en såkaldt Griess test viste. En kriminaltekniker udtalte i retten, at han var 99% sikker på, at de anklagede havde spor efter
sprængstoffer på deres hænder. Lad os betragte følgende to hændelser:
H : De anklagede har håndteret sprængstoffer
E : En prøve fra de anklagedes hænder giver en positiv Griess test
Der er imidlertid mange andre stoffer end nitroglycerin, som kan give anledning til et
positivt testresultat. Det er for eksempel tilfældet for maling, lak, spillekort, jord, benzin, cigaretter og sæbe. Kriminalteknikeren forveksler P ( E H ) med P ( H E ) og begår
dermed anklagerens fejltagelse. Det kan meget muligt være sandt, at sandsynligheden
for at få en positiv Griess test, hvis man har håndteret sprængstoffer, er i nærheden af
99%. Det betyder dog ikke nødvendigvis, at sandsynligheden for, at de anklagede har
håndteret sprængstoffer, givet at de har fået et positivt testresultat, også er 99%! Det
skal siges, at vi her antager, at H er synonym med skyldig.
I 1991 blev en appelansøgning accepteret efter aviser, dokumentarudsendelser og bøger
havde rejst tvivl om dommen. Den 14. marts 1991, efter at have siddet ca. 16 år i fængsel, blev de fængslede frikendt efter en retshandling, hvor den tidligere dom blev erklæc
ret usikker og utilfredsstillende. Forsvaret havde succes med at overveje P( E H ) ,
altså at få en positiv Griess test, givet at de ikke havde håndteret sprængstoffer, altså var
uskyldige. Eftersom nogle af de seks personer røg, samt at de havde spillet kort på et
c
tog kort før anholdelsen, blev det godtgjort, at den betingede sandsynlighed P( E H )
c
for "falske alarm" var ret stor. Dette bevirker, at Bayes-faktoren P( E H ) P( E H )
ikke er særlig stor, hvorfor betydningen af bevismaterialet ikke bidrager meget til sagens opklaring. I erkendelsen af dette samt af det faktum, at der ikke var andre væsentlige spor i sagen, blev dommen omstødt. De dømte modtog alle store erstatninger.
□
Vi har ovenfor set, at Bayes-faktoren for skyld knytter sig til et bestemt bevis E i sagen.
Bayes-faktoren for uskyld er blot den reciprokke brøk. Det er hensigtsmæssigt at fremhæve nogle egenskaber for Bayes-faktoren for skyld:
Sætning 40
Lad H være hypotesen (hændelsen) at tiltalte er skyldig og lad E være et bevis i
sagen. Da kan Bayes-faktoren B for skyld bruges til at konkludere følgende:
B > 1 : Beviset er til fordel for anklageren
B < 1 : Beviset er til fordel for forsvareren
B = 1 : Der er tale om et neutralt bevis, dvs. det taler hverken til fordel for anklageren eller forsvareren.
33
© Erik Vestergaard – www.matematiksider.dk
c
Bevis: Vi husker at B = P( E H ) P( E H ) . Sætning 34 giver umiddelbart det ønskede,
idet forholdet mellem sandsynligheden for skyld og sandsynligheden for uskyld ændres
med Bayes-faktoren, når det nye bevis inddrages. Detaljerne overlades til læseren.
□
Eksempel 41 (Adams sagen)
I 1991 blev en ung kvinde, Miss Marley, udsat for en voldtægt, da hun gik
hjem i de tidlige morgentimer i en by
lidt nord for London. I kvinden fandt
man sæd, som man lod DNA-undersøge. Politiet holdt resultatet op mod
DNA-profilerne i deres database. I
begyndelsen af 90'erne var politiets
database med DNA profiler ikke stor,
og det resulterede da heller ikke i
noget match. Sagen blev henlagt. To år senere blev Denis John Adams anholdt i forbindelse med en anden seksuel krænkelse. Det viste sig, at hans DNA matchede DNA for
den sæd, man havde fundet to år tidligere. Manden blev anholdt. Al anden evidens,
udover DNA-sporet, talte for Adams uskyld. Offeret havde for eksempel ikke været i
stand til at udpege den anholdte i et line-up. Desuden havde Adams et alibi derved, at
hans kæreste havde bekræftet, at de to havde været sammen hele dagen, mens forbrydelsen havde fundet sted.
Under retssagen, som fandt sted i januar 1995, fremlagde anklageren DNA-beviset som
et stærkt kort. Det blev estimeret, at sandsynligheden for at en uskyldig ville have samme DNA-profil som den fra gerningsstedet, ville være som 1:200.000.000. Det var rettens idé at DNA-beviset skulle håndteres som "videnskab" (science), mens de resterende
beviser skulle håndteres som "sund fornuft" (common sense) af juryen. På den måde
blev Adams-sagen en slags testsag, hvor et stærkt videnskabeligt bevis blev holdt op
mod en række vidnesbyrd af typen "sund fornuft". Forsvareren Mr. Thwaites angreb den
måde man var kommet frem til sandsynligheden på de 1 til 200 mio. på. Derudover argumenterede forsvareren for, at udregningen af sandsynligheden i det kvantitative
DNA-bevis beroede på en række skøn indenfor feltet retsmedicin og således principielt
ikke var væsentligt forskellig fra de "kvalitative sund fornuft" skøn, som indgik i forsvarets beviser. Derfor foreslog forsvaret at kvantitative metoder også skulle benyttes til
at vurdere betydningen af forsvarets beviser. Statistik-eksperten professor P. Donnelly
blev inddraget som vidne, og han redegjorde for, at den eneste logiske og konsistente
måde, hvorpå juryen kunne bedømme både DNA-beviset og de øvrige beviser, var ved
at anvende Bayes' formel. Mr. Donnelly anviste desuden et muligt spørgeskema, man
kunne give jury-medlemmerne. Metoden blev accepteret af anklageren. Retten bekendtgjorde, at hvert enkelt jurymedlem kunne afgøre med sig selv, om de ville bruge det.
Spørgeskemaet indeholdt syv spørgsmål. Hvert enkelt spørgsmål bestod i, at jurymedlemmet skulle estimere en sandsynlighed i forbindelse med fire beviser:
34
© Erik Vestergaard – www.matematiksider.dk
1) Antag at man ikke ved noget yderligere om sagen: hvad er så sandsynligheden for
at voldtagsforbryderen kommer fra det lokale område?
2a) Hvad er sandsynligheden for at tiltalte ikke vil passe på offerets beskrivelse, hvis
han er uskyldig?
2b) Hvad er sandsynligheden for at tiltalte ikke vil passe på offerets beskrivelse, hvis
han er skyldig?
3a) Hvad er sandsynligheden for at Adams under afhøringen afgav det vidne, som han
gjorde, hvis han er uskyldig?
3b) Hvad er sandsynligheden for at Adams under afhøringen afgav det vidne, som han
gjorde, hvis han er skyldig?
4a) Hvad er sandsynligheden for at tiltalte vil kunne få det alibi han har, hvis han er
uskyldig?
4b) Hvad er sandsynligheden for at tiltalte vil kunne få det alibi han har, hvis han er
skyldig?
Professor Donnelly fortalte ikke hvilke sandsynligheder, jurymedlemmerne skulle sætte
på hvert spørgsmål, men han gav nogle illustrative eksempler, mens han demonstrerede
proceduren. Lad os se på Mr. Donnellys illustrative eksempel:
1. Der er ca. 150000 personer mellem 18 og 60 år i lokalområdet, så hvis man for eksempel har svaret 75% til det første spørgsmål, så må det betyde, at den skyldige
skal søges i en population på 150000 0,75 = 200000 personer. Det giver en a priori
1
sandsynlighed for skyld, som er P( H ) = 200000
og en a priori sandsynlighed for
c
skyld, P( H ) , som får ved at trække førstnævnte sandsynlighed fra 1. Alt i alt
giver det følgende a priori odds for skyld:
P( H )
=
P( H c )
1
200000
199999
200000
=
1
199999
hvor det er underforstået at H står for hændelsen skyldig.
2. Offeret kunne ikke udpege tiltalte i et line-up, ligesom tiltalte heller ikke matchede
den beskrivelse offeret oprindeligt havde givet. Antag, at man for eksempel satte
sandsynlighederne i 2a) og 2b) til henholdsvis 90% og 10%. Så ville Bayes-faktoren for skyld for dette enkeltstående bevis være følgende:
B1 =
P( E1 H )
c
P( E1 H )
=
0,10
1
=
0,90
9
hvor det er underforstået at H igen står for hændelsen skyldig og E1 står for hændelsen at offeret ikke matchede beskrivelsen af tiltalte.
3. I sin illustrative beregning estimerede professor Donnelly her, at der var en fifty-fifty chance for at tiltalte ville afgive det vidne, som han gjorde, i forhold til om denne
er skyldig eller uskyldig. Det giver en Bayes-faktor for skyld på 1 i dette tilfælde,
hvilket betyder at beviset er neutralt:
35
© Erik Vestergaard – www.matematiksider.dk
B2 =
P ( E2 H )
c
=
P ( E2 H )
0,50
= 1
0,50
hvor H stadig står for hændelsen skyldig og E2 står for hændelsen, at tiltalte gav
det vidne i afhøringen, som han gjorde.
4. Tiltalte fortalte at han var sammen med kæresten mens voldtægten foregik, og kæresten bekræftede hans alibi. Hvis svarene i 4a) og 4b) er henholdsvis 50% og 25%,
så vil Bayes-faktoren for skyld for dette stykke bevis være:
B3 =
P ( E3 H )
c
=
P( E3 H )
0,25
1
=
0,50
2
hvor E3 står for hændelsen at tiltalte havde det alibi, han havde.
Hvad angår DNA-beviset, så er det egentligt af samme type, som de andre beviser. Det
giver anledning til følgende Bayes-faktor for DNA-beviset:
BDNA =
P( E DNA H )
c
P( EDNA H )
=
1
1
200000000
= 200000000
hvor EDNA står for hændelsen at tiltaltes DNA matcher DNA'et fra gerningsstedet.
Med bestemmelsen af Bayes-faktorerne for de fire beviser E1 , E2 , E3 og E DNA ovenfor
er vi nu i stand til at bestemme a posteriori odds for skyld givet samtlige beviser ved at
multiplicere Bayes-faktorerne for de enkelte beviser sammen og gange med a priori
odds for skyld. Forudsætningen for at det bliver så simpelt er, at de enkelte beviser er
betinget uafhængige af hinanden. Den interesserede læser kan studere emnet betinget
uafhængighed i afsnit 9 og løse opgave 9.1 i tilknytning hertil. Vi får:
36
© Erik Vestergaard – www.matematiksider.dk
P ( H E1 , E2 , E3 , E DNA )
P ( E DNA H ) P ( E3 H ) P ( E2 H ) P ( E1 H ) P ( H )
=
⋅
⋅
⋅
⋅
c
c
c
c
c
c
P ( H E1 , E2 , E3 , E DNA )
P ( E DNA H ) P ( E3 H ) P ( E2 H ) P ( E1 H ) P ( H )
1
1
1
= 200000000 ⋅ ⋅ 1 ⋅ ⋅
= 55,55583333
2
9 199999
A posteriori odds for skyld, givet alle beviser, er altså p = 55,55583333 . Det er altså
lidt over 55 gange så sandsynligt, at tiltalte er skyldig, som at han er uskyldig, når alle
beviser tages i betragtning. Vil man have a posteriori sandsynligheden for skyld, altså
tælleren x = P ( H E1 , E2 , E3 , E DNA ) , så kan den findes ved at udnytte, at nævneren er
sandsynligheden for den komplementære hændelse. Det betyder, at nævneren er lig med
1 − x . Vi skal altså løse følgende ligning: x (1 − x ) = p . Løsningen er x = p (1 + p ) (se
opgave 5.0 i opgavesektionen). Vi har dermed endeligt:
P( H E1, E2 , E3 , E DNA ) =
55,55583333
= 0,9823183580
1 + 55,55583333
Vi ser at med alle beviserne taget i betragtning, er sandsynligheden for skyld altså nede
på 98,2%. Om end en høj sandsynlighed, så dog ikke nær så tæt på 100%, som hvis man
havde begået anklagerens fejlslutning på DNA-beviset alene. Det ville nemlig have
1
givet 1 − 200000000
= 99,9999995% . Det skal tilføjes at forsvarerensadvokaten også udfordrede DNA-sandsynlighederne, idet han argumenterede for, at de skulle være 1 ud af
enten 20 mio. eller 1 ud af 2 mio.
Juryen endte med at finde tiltalte skyldig. Dommen indikerede, at juryen mente at
DNA-beviset var tilstrækkeligt til at bevise Adams skyld udover enhver rimelig tvivl. Et
år senere appellerede Adams dommen. Forsvarernes begrundelse for appellen var, at
DNA-beviset ikke alene var tilstrækkeligt til at fastslå skyld. For det andet mente forsvarerne, at dommeren heller ikke i tilstrækkelig grad havde instrueret eller forberedt
nævningene i anvendelse af Bayes' sætning. Appeldomstolen accepterede, at retten ikke
havde instrueret juryen ordentligt og henviste sagen til genoptagelse. Appeldomstolen
afviste dog den anden begrundelse, idet den fastslog, at det er op til juryen at afgøre om
DNA-beviser er tilstrækkeligt, trods fraværet af andre bekræftende beviser. Under appelsagen rejste retten omstridte spørgsmål om hvordan ekspertvidnet Mr. Donnelly kunne dominere juryens afgørelse. Retten kommenterede også det rimelige i at anvende
Bayes' formel til at opsummere ikke-DNA såvel som DNA beviser:
… we have very grave doubt as to whether that evidence [under anvendelse af
Bayes' formel, red.] was properly admissible, because trespassing on an area peculiarly and exclusively within the province of the jury, namely the way in which they
evaluate the relationship between one piece of evidence and another.
Retten var altså kritisk med hensyn til at håndtere "videnskabelige beviser" og "sund
fornuft beviser" under ét under anvendelse af Bayes' formel. Igen blev Adams dømt
skyldig. Adams appellerede igen i 1997, men anmodningen om at genoptage sagen blev
afvist. Den interesserede læser kan finde flere detaljer om sagen i [13].
37
© Erik Vestergaard – www.matematiksider.dk
Sandsynligheden for et andet match
Amerikaneren Jonathan J. Koehler, der har en grad i "adfærdsvidenskab" (Behavorial
Science), skrev i 1993 den prisbelønnede artikel Error and Exaggeration in the Presentation of DNA Evidence at Trial (se [15]). På side 33 beskriver han endnu en type fejlslutning begået i en konkret retssag fra Virginia. Fejlslutningen kan formuleres således:
Oplyst: Sandsynligheden for at en given uskyldig person har et DNA, som matcher det aktuelle DNA fundet
på gerningsstedet, er 1 ud af 705 mio.
⇓
Sandsynligheden for, at der er en anden person, der har
samme DNA-profil som det DNA, som er fundet på
gerningsstedet, er 1 ud af 705 mio.
Analyse: Fejlen her består i, at man slutter fra én konkret person til alle andre. Lad os
indføre følgende to hændelser:
Ek : DNA-profilen for person k matcher DNA på gerningsstedet
E:
Mindst én af personerne i populationerne har en DNA-profil, som matcher DNA
på gerningsstedet.
Deres komplementære hændelser kan formuleres således:
Ekc : DNA-profilen for person k matcher ikke DNA på gerningsstedet
E c : Ingen af personerne i populationerne har en DNA-profil, som matcher DNA på
gerningsstedet.
Lad N betegne populationens størrelse og lad os vedtage, at den er på 1 mio. I sidste
udsagn i rammen ovenfor ligger det implicit, at der menes mindst en anden person med
samme DNA. Vi skal altså have udregnet P( E ) . Det er imidlertid noget nemmere at
udregne sandsynligheden for E c , for vi har nemlig E c = E1c ∩ E2c ∩ … ∩ E Nc .
P( E ) = 1 − P( E c )
= 1 − P( E1c ∩ E2c ∩ … ∩ E Nc )
(22)
= 1 − P( E1c ) ⋅ P( E2c ) ⋅ … ⋅ P( E Nc )
= 1 − (1 − P( E1 )) ⋅ (1 − P( E2 )) ⋅… ⋅ (1 − P( E N ))
1
)1000000
= 1 − (1 − 705000000
= 0,0014
Hvor vi i linje 3 har udnyttet, at hændelserne E1 , E2 , … , E N er uafhængige. I linje 4 er
sætning 9c) benyttet. Det bemærkes i øvrigt, at ovenstående teknik er helt analog til
hvad vi foretog tidligere i eksempel 24. Vi konkluderer, at sandsynligheden for et match
i populationen er 1,4 promille, men altså ingenlunde så lille som påstået i rammen!
38
© Erik Vestergaard – www.matematiksider.dk
Ovenstående fører direkte videre til en analyse af situationen med en database fyldt med
1
som ovenDNA-profiler. Antag RMP (Random Match Probability) er lig med 705000000
for. Nedenstående graf viser da sandsynligheden for at finde mindst ét DNA-match som
funktion af antal DNA-profiler i databasen.
Sandsynlighed for mindst ét DNA-match
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
mio. DNA-profiler
0
0
500
1000
1500
2000
2500
3000
Man kan få en approksimation til sandsynligheden for at finde mindst ét DNA-match i
databasen ved at gange RMP med antallet N af DNA-profiler i databasen. Sidstnævnte
størrelse kaldes DMP (Database Match Probability). Den interesserede læser kan studere dette nærmere i opgave 6.5.
Sammenfatning
Vi har i dette afsnit set, hvordan Bayes-faktoren i Bayes' formel på odds form kan benyttes til at vurdere betydningen af et givet bevis i en sag. Hvis Bayes-faktoren for
skyld er større end 1, så styrker beviset anklagerens sag, hvorimod det svækker anklagerens sag, hvis faktoren er mindre end 1. Hvis faktoren er lig med 1, er beviset neutralt.
En vigtig erkendelse er, at det ikke er nok at se på P( E , H ) , altså sandsynligheden for
at se det pågældende bevis, givet at tiltalte er skyldig. Man skal også kigge på sandsync
ligheden for at se beviset, givet at tiltalte ikke er skyldig, dvs. P( E H ) . De falske alarmer er vigtige at inddrage. Det var for eksempel forsvarets fokus på sidstnævnte, der
førte til frifindelsen af de fængslede i Birmingham six sagen. Man godtgjorde, at sandsynligheden for at se det det pågældende bevis – her en positiv Griess test i jagten på at
finde spor af nitroglycerin på de tiltalte – ikke var ubetydelig lille, selv om de tiltalte
måtte være uskyldige. Griess testen kan nemlig slå positivt ud for andre stoffer end
nitroglycerin, og de pågældende stoffer kunne de tiltalte nemt have været i forbindelse
c
med i den aktuelle situation. Bayes-faktoren for skyld, P( E H ) P( E H ) , indeholder
begge sandsynligheder omtalt ovenfor. Tror man at sandsynligheden P( E , H ) alene kan
gøre det, begår man anklagerens fejlslutning (Prosecutors Fallacy). En anden god ting
ved Bayes' formel på odds form er, at man får adskilt bevisets betydning fra a priori
sandsynlighederne.
© Erik Vestergaard – www.matematiksider.dk
39
Vi har i dette afsnit også set en række rent logiske fejlslutninger, som florerer i retssale.
Men det er ikke de eneste. Ofte ganges sandsynligheder for hændelser sammen, hvor
hændelser ikke er uafhængige. Undertiden begås base rate neglect, som består i at argumentere med sandsynligheder alene, uden hensyntagen til populationens størrelse.
Brugen af statistik og sandsynlighed i retssale er på flere områder kontroversiel. Undertiden har det ført til arrige kommentarer fra dommeren, som tilfældet var i Adams-sagen
omtalt i eksempel 41. Særligt har der været modstand mod at anvende Bayes' formel til
inddragelse af subjektive vurderinger af sandsynligheder for konkrete delhændelser i
retssagerne. Selv om forsvareren i Adams-sagen fik lov til at udlevere spørgeskemaer til
jurymedlemmerne, så påpegede dommeren, at det var frivilligt for jurymedlemmerne,
om de ville anvende spørgeskemaet. Det var dommerens ønske at opdele beviserne i
"videnskabelige beviser" (Scientific Evidence) og øvrige beviser, som skulle behandles
med sund fornuft (Common Sense Evidence). Man overlader således tilsyneladende
trygt vurderingen af betydningen af det videnskabelige bevis til retsgenetikere og teknikere. I tilfældet med et DNA bevis vil teknikerne således i tilfældet med et DNA-match
angive den såkaldte RMP (Random Match Probability). De resterende beviser, såsom at
gerningsmanden ikke blev genkendt i et line-up samt at han havde et alibi, skal derimod
behandles som "sund fornuft-beviser".
Denne sondring kan matematisk set virke kunstig, da der i begge tilfælde er usikkerhed
ved vurderingerne af dem. Bestemmelsen af en værdi for RMP beror også på nogle skøn
hos den aktuelle retstekniker. Værdien i Adams-sagen blev da også udfordret af forsvareren. Det må dog medgives, at de andre "subjektive beviser" nok har en større usikkerhed. Faren ved at adskille den måde beviserne behandles på er desuden, at det nemt
ender med at jurymedlemmerne kommer til at begå anklagerens fejlslutning: Den lille
40
© Erik Vestergaard – www.matematiksider.dk
sandsynlighed (RMP) for at en vilkårlig valgt anden person har samme DNA, som det
DNA-materiale, som er fundet på gerningsstedet, bliver nemt til at være det samme som
sandsynligheden for at tiltalte er uskyldig. Desuden får tallet en særlig ophøjet status
ved at blive betegnet som et "videnskabeligt bevis". Til sammen kan det nemt ende med
at DNA-beviset "vinder over" andre "sund fornuft-beviser", der måtte tale til fordel for
tiltalte. I det hele taget er det betænkeligt at dømme folk i sager, hvor der udelukkende
er et DNA-bevis, særligt hvis den tiltalte findes via et Cold Hit i en database. Der skal
helst være en anden faktor, som også linker tiltalte til forbrydelsen. For det første er
DNA – byggende på identifikationen af et bestemt antal alleller – ikke unikt. For det
andet kan DNA'et i princippet være afsat af tiltalte før forbrydelsen, beviser kan være
kontaminerede eller DNA-materialet kan direkte være plantet. To en-æggede tvillinger
vil desuden have minimal forskel i DNA. Når dette er sagt skal det dog tilføjes, at fremkomsten af DNA-teknikken i 1980'erne har revolutioneret retsvidenskaben, og at det er
et formidabelt middel til at opnå en større sikkerhed i domsafsigelsen, hvad enten det
betyder, at sagen munder ud i en domfældelse eller en frikendelse.
Det er bekymrende med den lange række af fejldomme eller tvivlsomme domme, som
er forekommet i retssale verden over. Se for eksempel linket til siden Legal cases about
Bayes bag i denne note. Mange af dem skyldes de føromtalte logiske fejlslutninger. Der
er nok ikke tvivl om, at vi vil se mere sandsynlighedsregning og statistik anvendt i retssale i fremtiden på trods af modstanden fra visse dommere. Internettet og den lettere adgang til information har betydet et større og større fokus på domme, som er afsagt på et
løst eller tvivlsomt grundlag. Man kan derimod godt forstå dommernes bekymring for at
det, der foregår i retssalen, kan ende med at blive for "elitært". På den anden side er det
et stort problem at den højt besungne "sunde fornuft" fejler gang på gang. Sandsynlighedsregningen og statistikken indeholder så mange paradokser og giver så mange muligheder for fejlbedømmelser, at det er en stor fare, hvis man i retssager, hvor beviserne
overvejende er af statistisk art, udelukkende benytter sund fornuft. Eksperten i de såkaldte Bayesianske netværk Norman Fenton taler i [1] for, at man burde tillade anvendelsen af Bayesianske netværk i retssale. Han sammenligner det med at benytte en lommeregner, som jo er almindelig accepteret i dag. Det er så meningen, at jury-medlemmerne skal fodre netværket med værdier ud fra sund fornuft, lidt ligesom det blev beskrevet i Adams-sagen i eksempel 41. Herefter må man tro på de computerberegninger
af betingede sandsynligheder, som netværket leverer. Et Bayesiansk netværk er løst sagt
et netværk med knudepunkter og forbindelseslinjer, der repræsenterer sammenhænge i
den konkrete retssag. Det generaliserer Bayes' formel og kan således tage højde for
mere komplekse problemstillinger. Brugen af Bayesianske netværk vil nok kræve, at
man kan blive enige om udseendet af netværket og at man analyserer svarenes følsom
overfor små ændringer i de af jurymedlemmerne leverede værdier. Vi kigger nærmere
på Bayesianske netværk i de næste afsnit.
41
© Erik Vestergaard – www.matematiksider.dk
7. Kædereglen og betinget uafhængighed
Formålet med den sidste del af denne note er at studere de såkaldte bayesianske netværk. Til det formål har vi brug for at et ekstra begreb, nemlig betinget uafhængighed
samt en meget vigtig formel kaldet kædereglen. Sidstnævnte skal sætte os i stand til at
kunne reducere komplicerede regninger med betingede sandsynligheder.
Bemærkning 42
Fremover vil vi få brug for at udregne betingede sandsynligheder, hvor der er flere betingelser involveret. Det svarer til at udregne en betinget sandsynlighed givet fællesmængden af de pågældende betingelser. Således er P ( A E1 ∩ E2 ) den betingede sandsynlighed for hændelsen A givet betingelserne E1 og E2 . Begge skal altså være opfyldt.
Af notationsmæssige årsager vil vi undertiden skrive dette som P ( A E1 , E2 ) . Vi vil gøre
noget tilsvarende, hvis A er en fællesmængde: P ( A1 ∩ A2 ∩ … ∩ An E1 ∩ E2 ∩ … ∩ Em )
vil vi således ofte skrive som P ( A1 , A2 ,… , An E1 , E2 ,… , Em ) . □
Definition 43 (Betinget uafhængighed)
Lad A og B være to hændelser i et endeligt sandsynlighedsfelt. Antag at E er en tredje hændelse, hvor der gælder P( E ) ≠ 0 . Hændelserne A og B kaldes betinget uafhængige givet E, hvis
P( A ∩ B E ) = P ( A E ) ⋅ P( B E )
(23)
Ifølge definition 12 i afsnit 3 er kravet for at to hændelser A og B kan siges at være uafhængige, at der gælder P( A ∩ B ) = P( A) ⋅ P( B ) . I bemærkning 16 så vi, at det er ensbetydende med at P ( A B ) = P( A) skal være opfyldt. Man kunne få den tanke, at der er en
lignende alternativ måde at karakterisere betinget uafhængighed på. Svaret er bekræftende. Vi har nemlig følgende sætning:
Sætning 44 (Betinget uafhængighed)
Givet tre hændelser A, B og E i et endeligt sandsynlighedsfelt, hvor P( E ) ≠ 0 . Da
gælder:
(24)
A og B er betinget uafhængige givet E
⇔
P ( A B, E ) = P ( A E )
Bevis: Lad os omskrive venstresiden i (23) ved brug af definition 12 og sætning 14:
(25)
P ( A B, E ) ⋅ P ( B ∩ E )
P (( A ∩ B ) ∩ E )
P( A ∩ ( B ∩ E ))
=
=
P( E )
P( E )
P( E )
P( B ∩ E )
= P ( A B, E ) ⋅
= P ( A B, E ) ⋅ P ( B E )
P( E )
P( A ∩ B E ) =
Sammenlignes det sidste med højresiden i (24), fås det ønskede. □
42
© Erik Vestergaard – www.matematiksider.dk
Man kunne måske få den formodning, at der er en sammenhæng mellem uafhængighed
og betinget uafhængighed, men det er ikke tilfældet. Hvis man tænker lidt nærmere over
det, er det egentligt heller ikke så underligt, for i en betinget sandsynlighed ses der så at
sige bort fra de udfald, som ligger udenfor den delmængde, der betinges til, og sidstnævnte kan jo se ud på mange måder. Lad os kigge på nogle eksempler.
Eksempel 45
Der udtrækkes et kort fra et spil kort
med 52 kort plus 3 jokere. Betragt de
tre hændelser:
A : Kortet er et es
B : Kortet er en hjerter
E : Kortet er ikke en joker
Da alle kort har samme sandsynlighed for at blive udtrukket, og der er
fire esser, har vi P( A) = 554 . Når vi
skal udregne den betingede sandsynlighed for A givet E, skal vi derimod
kun kigge på de 52 kort, som ikke er
jokere. Der er 4 esser ud af de 52 kort, så P ( A E ) = 524 = 131 . Tilsvarende fås P( B ) = 13
55
1 . Hændelsen A ∩ B indeholder kun hjerter es, så P ( A ∩ B ) = 1 og
og P ( B E ) = 13
=
52
4
55
P ( A ∩ B E ) = 521 .
P( A) ⋅ P( B ) =
4 13
55 ⋅ 55
P( A E ) ⋅ P( B E ) =
=
52
3025
1 1
13 ⋅ 4
=
hvormed P( A ∩ B ) ≠ P( A) ⋅ P( B )
1
52
hvormed P( A ∩ B E ) = P( A E ) ⋅ P( B E )
Hændelserne A og B er altså ikke uafhængige, hvorimod de er betinget uafhængige givet
E. Det samme kunne være indset ved at benytte henholdsvis bemærkning 16 og sætning
44. Blandt hjerterne er der kun ét es, hvoraf vi får:
P( A B ) =
1
13
P ( A B, E ) =
hvormed P( A B ) ≠ P( A)
1
13
hvormed P( A B, E ) = P ( A E )
Dermed har vi givet et modbevis til hypotesen om at betinget uafhængighed generelt
skulle medføre afhængighed.
Eksempel 46
Ved et idrætsstævne med flere discipliner var der i alt 900 tilskuere. Inddelt efter køn,
alder (over eller under 30 år) og om de pågældende overværede en fodboldkamp eller
ej, fordeler tilskuerne sig som det fremgår af tabellen på næste side. På hver stævnebillet står et nummer. Ved afslutningsceremonien foretages en udtrækning blandt billetnumrene og vinderen modtager et gavekort til byens gourmetrestaurant.
43
© Erik Vestergaard – www.matematiksider.dk
Køn
Alder
Overværede fodboldkamp
Antal
Mand
≤ 30 år
> 30 år
Ja
Nej
Ja
Nej
100
200
40
200
Kvinde
≤ 30 år
> 30 år
Ja
Nej
Ja
Nej
20
180
40
120
Betragt følgende hændelser:
M : Vinderen er en mand/dreng
A : Vinderen er under 30 år
F : Vinderen overværede en fodboldkamp
Lad os undersøge om M og A er uafhængige hændelser.
P( M ) =
100 + 200 + 40 + 200
540
=
= 0,60
900
900
P( M A) =
100 + 200
300
=
= 0,60
100 + 200 + 20 + 180
500
Eftersom P ( M A) = P ( M ) , er hændelserne M og A uafhængige, ifølge bemærkning 16.
Oplysningen om at vinderen er under 30 år gammel ændrede altså ikke på sandsynligheden for at vinderen er en mand! Lad os undersøge, om M og A er betinget uafhængige
givet hændelsen F:
P( M F ) =
P( M A, F ) =
100 + 40
140
=
= 0,70
100 + 40 + 20 + 40
200
100
100
=
= 0,8333
100 + 20
120
Da P ( M A, F ) ≠ P ( M F ) , er hændelserne M og A altså ikke betinget uafhængige givet
F, ifølge sætning 44. Når man ved, at vinderen har overværet fodbold, øger den ekstra
oplysning om at vinderen desuden er under 30 år gammel, sandsynligheden for at vinderen er en mand/dreng, fra 70% til over 83%. Altså ingen betinget uafhængighed her.
Vi har dermed også aflivet hypotesen om at uafhængighed generelt skulle medføre betinget uafhængighed!
□
Nu til den meget vigtige kæderegel for betingede sandsynligheder:
Sætning 47 (Kædereglen)
Lad A1, A2 ,…, An være hændelser i et endeligt sandsynlighedsfelt. Antag desuden at
P( A2 , A3 ,… , An ) ≠ 0 . Da gælder:
(26)
P( A1 , A2 ,…, An ) =
n
∏ P( Ak
k =1
Ak +1,…, An )
44
© Erik Vestergaard – www.matematiksider.dk
Det store pi-tegn er et såkaldt produkttegn og betyder, at man skal gange størrelserne til
højre for tegnet sammen fra k = 1 til k = n . Lad os opskrive udtrykkene for nogle af de
første værdier af n, og derefter bevise sætningen i et specialtilfælde. Sidstnævnte bevis
kan umiddelbart udvides til det generelle tilfælde.
n = 2:
P( A1 , A2 ) = P( A1 A2 ) ⋅ P( A2 )
n = 3:
P( A1 , A2 , A3 ) = P( A1 A2 , A3 ) ⋅ P( A2 A3 ) ⋅ P( A3 )
n = 4:
P( A1 , A2 , A3 , A4 ) = P( A1 A2 , A3 , A4 ) ⋅ P( A2 A3 , A4 ) ⋅ P( A3 A4 ) ⋅ P( A4 )
Bevis for sætning 46 for tilfældet n = 4 :
P ( A1 , A2 , A3 , A4 ) = P( A1 ∩ A2 ∩ A3 ∩ A4 )
= P ( A1 ∩ ( A2 ∩ A3 ∩ A4 ))
(26)
= P ( A1 A2 ∩ A3 ∩ A4 ) ⋅ P( A2 ∩ A3 ∩ A4 )
= P ( A1 A2 , A3 , A4 ) ⋅ P( A2 , A3 , A4 )
= P ( A1 A2 , A3 , A4 ) ⋅ P( A2 A3 , A4 ) ⋅ P( A3 , A4 )
= P ( A1 A2 , A3 , A4 ) ⋅ P( A2 A3 , A4 ) ⋅ P( A3 A4 ) ⋅ P( A4 )
hvor vi i tredje lighedstegn har brugt (1) i sætning 14. I fjerde lighedstegn oversætter vi
blot til den nye notation fra bemærkning 42. Det andet led i linje 4 er P( A2 , A3 , A4 ) .
Hvad vi lige har gjort med P( A1 , A2 , A3 , A4 ) gentager vi nu med P( A2 , A3 , A4 ) . Det er
helt analogt. Dermed fås linje 5 og derefter linje 6.
□
Bemærkning 48
Det er en vigtig iagttagelse, at der ikke sker noget med udtrykket på venstre side i (26),
hvis man bytter rundt på A'erne. Derfor er udtrykket på højre side af lighedstegnet også
uafhængig af ombytning af A'erne. Der er altså stor valgfrihed. I konkrete problemstillinger skal man vælge rækkefølgen med omhu.
Eksempel 49
En dåse indeholder 30 blå kugler og 6 røde. Der trækkes nu i
blinde tre kugler fra dåsen, én efter én. Hvad er sandsynligheden
for i første trækning at få en blå, i næste en rød og i den sidste en
blå kugle? Et udfald kan man passende skrive som et tre-tuppel.
Vi skal finde sandsynligheden for (b, r, b) . Rækkefølgen er her
vigtig. Vi indfører følgende hændelser:
Rk : Udtrækning nr. k gav en rød kugle
Bk : Udtrækning nr. k gav en blå kugle
Formelt set er hændelsen R2 for eksempel den delmængde, der består af alle de tretupler, som har et r i den anden indgang.
45
© Erik Vestergaard – www.matematiksider.dk
Vi skal bestemme P( B3 ∩ R2 ∩ B1 ) eller P( B3 , R2 , B1 ) , som er det samme. Alle tre hændelser B1, R2 og B3 skal indtræffe, derfor en fællesmængde! Rækkefølgen vi skriver
hændelserne i er ligegyldig, men af pædagogiske årsager skriver vi dem som vi gør. Vi
kan nu bruge kædereglen:
P ( B3 , R2 , B1 ) = P ( B3 R2 , B1 ) ⋅ P ( R2 B1 ) ⋅ P ( B1 ) =
29
34
⋅ 356 ⋅ 30
36 =
29
238
Måske ville det være mere logisk, hvis produktet blev skrevet i omvendt rækkefølge, for
de 30
36 svarer til sandsynligheden for at få en blå kugle i første trækning, da der er 30 blå
kugler og 36 kugler i alt. I næste trækning er der stadig 6 røde kugler tilbage, mens der
kun er 29 blå kugler. Derfor er sandsynligheden for at få en rød kugle i anden udtrækning lig med 356 – det er en betinget sandsynlighed, givet udfaldet af første trækning. I
sidste trækning er der 29 blå kugler tilbage og 5 røde kugler. Det giver en sandsynlighed
29
på 34
for at få en blå kugle i sidste trækning – det er en betinget sandsynlighed givet
udfaldene af de første to trækninger.
□
Eksempel 50
Der er festuge i byen. Ægteparret Anders og Lise overvejer at deltage om fredagen, hvor
der er et særligt arrangement. Det kræver imidlertid, at Anders kan få fri fra arbejde.
Anders vurderer, at der er fifty-fifty chance for at få fri. Lise vil helt sikkert deltage,
hvis Anders kan. Derimod vurderer hun, at der kun er 25% chance for, at hun vil deltage, hvis Anders ikke kan deltage. Ulla er arbejdskollega med Lise, og hun overvejer
også at tage med. Lise lover at ringe til Ulla for at fortælle, om hun deltager. Hvis det
bliver et ja fra Lise, så vil Ulla spørge chefen om lov til at få fri. Hun vurderer, at der er
90% chance for i givet fald at få fri. Hvad er sandsynligheden for, at de alle tre kommer
til byfest om fredagen?
Løsning: Vi indfører følgende hændelser: A: Anders kommer til byfest. L: Lise kommer
til byfest og U: Ulla kommer til byfest. Vi bruger kædereglen:
P(U , L, A) = P(U L, A) ⋅ P( L A) ⋅ P( A)
= P(U L) ⋅ P( L A) ⋅ P( A)
= 0,90 ⋅ 1,00 ⋅ 0,50
= 0,45
Der er altså 45% chance for at de alle tre kommer til byfest om fredagen. Bemærk, at vi
i anden linje har foretaget en reduktion. Vi ved nemlig, at Ullas beslutning om at deltage
ikke afhænger af Anders' deltagelse. Sagt med hændelser, så er U betinget uafhængig af
A givet L, altså P (U L, A) = P (U L) .
□
Måske kunne du godt have klaret opgaven i eksempel 49 og 50 uden at kende til kædereglen på formelt plan. Når tingene bliver mere komplicerede i de såkaldte bayesianske
netværk vil vi dog se, at kædereglen er helt essentiel, da den skal bruges til at "ned-
46
© Erik Vestergaard – www.matematiksider.dk
bryde" beregningen af komplicerede sandsynligheder til et produkt af sandsynligheder,
der er nemmere at have med at gøre …
Eksempel 51 (Simpsons paradoks)
I en fiktiv historie forestiller vi os to læger, Klausen og Jensen, som begge foretager
hjerteoperationer og lægger forbindinger på patienter. Figuren nedenfor illustrerer, hvor
mange behandlinger hver læge har gennemført af hver type, og de sorte ikoner indikerer
de personer, som modtog en vellykket behandling. Hvis vi tæller sammen, opdager vi,
at den totale succesrate for Klausen er 63 84 = 0,75 = 75% , mens den for Jensen er
72 90 = 0,80 = 80% . Studerer man derimod kategorierne hver for sig, tegner der sig et
andet billede: Klausen har en succesrate på 49 70 = 0,70 = 70% på hjerteoperationer og
en succesrate på 14 14 = 1 = 100% på at lægge forbindinger. De tilsvarende tal for Jensen er henholdsvis 6 15 = 0,30 = 30% og 66 75 = 0,88 = 88% . Jensen har altså samlet
set den største succesrate, mens Klausen på hver kategori har den bedste succesrate.
Dette fænomen kan umiddelbart virke meget mærkeligt og går under betegnelsen Simpsons paradoks.
Hjerteopera!on
Forbinding
Klausen
Jensen
Nu kan man naturligvis ikke vide, hvordan Klausen ville have klaret sig i Jensens behandlinger og omvendt, men gør vi den antagelse, at ovenstående vil være det typiske
billede for de to læger på alle typer af patienter, så må vi konkludere, at Klausen sandsynligvis er den bedste læge af de to, og at han sandsynligvis netop som følge heraf har
fået tildelt de mere risikable hjerteoperationer. Læren må være, at man skal være forsigtig med at foretage sammenlægninger af kategorier indenfor statistik. Man kan også
sige, at behandlingstypen her er en skjult variabel. Det rigtige her vil være at se på hver
kategori for sig!
Til den avancerede læser: I en sandsynlighedsteoretisk kontekst vil Simpson's paradoks
lyde som følger, hvor vi har følgende hændelser:
47
© Erik Vestergaard – www.matematiksider.dk
S : Patienten får en succesfuld behandling
J : Patienten behandles af læge Jensen
H : Patienten får en hjerteoperation.
Udfaldsrummet er mængden af alle patienter i databanken ovenfor. Heraf ses, at de
komplementære hændelser til J og H er:
J c : Patienten behandles af læge Klausen
H c : Patienten får lagt en forbinding
Fra data har vi umiddelbart:
c
(27a)
P( S J , H ) < P( S J , H )
(27b)
P( S J , H c ) < P( S J , H c )
(27c)
P( S J ) > P( S J )
c
c
Vi kan udtrykke venstresiden og højresiden i ulighed (27c) ved hjælp af venstre og højresiderne i (27a) og (27b):
c
(28)
P( S J ) = P( S H , J ) ⋅ P( H J ) + P ( S H , J ) ⋅ P( H c J )
c
c
c
c
P( S J ) = P( S H , J c ) ⋅ P( H J ) + P( S H , J c ) ⋅ P ( H c J )
hvor vi har benyttet, at S ∩ H , S ∩ H c er en klassedeling af S, (25) samt appendiks A.
Detaljerne overlades til den avancerede læser. De med rødt fremhævede faktorer i (28)
kan betragtes som en slags "vægte". Med passende værdier af disse kan ulighedstegnet
altså skifte, som det sker i (27c).
□
Bemærkning 52
I appendiks A er en meget nyttig erkendelse beskrevet: Hvis man har en formel, som
gælder for alle sandsynlighedsfunktioner, så gælder den også med betingelser indsat.
Eftersom S ∩ H , S ∩ H c indlysende er en klassedeling af S, gælder der ifølge sætning
9d): P( S ) = P( S ∩ H ) + P( S ∩ H c ) . Derfor gælder formlen også med betingelsen J indsat: P( S J ) = P( S ∩ H J ) + P( S ∩ H c J ) . Det kan naturligvis også vises direkte uden
brug af appendiks A, men dette redskab er nyttig at have til rådighed!
48
© Erik Vestergaard – www.matematiksider.dk
8. Kort om grafer
En graf består af en mængde af knuder og en mængde af kanter. En kant er en forbindelseslinje mellem to knuder. Man taler om ikke-orienterede og orienterede grafer. I
førstnævnte har kanterne ikke nogen retning, mens hver kant i sidstnævnte type har en
retning. I orienterede grafer kan der forekomme cykler, som vist i delfigur (B) nedenfor.
Hvis man starter i en knude i en cykel og følger kanterne rundt i kanternes retning, så
kommer man tilbage til udgangspunktet. En acyklisk graf, som illustreret i delfigur (C),
har ingen cykler. Vi fik i øvrigt gjort den cykliske graf i delfigur (B) acyklisk ved at
vende retningen af kanten, der forbinder knuderne 3 og 5. To knuder kaldes naboknuder, såfremt de er forbundne med en kant. Hvis A og B er naboknuder i en orienteret
graf, og retningen af kanten går fra A til B, så vil vi kalde A for en forældreknude til B
og B for en barneknude til A. På delfigur (C) nedenfor er knuderne 1 og 5 således forældreknuderne til knude 3, mens knude 3 og 4 begge er børn af knude 5.
2
2
1
1
6
6
3
4
3
5
5
4
(A) ikke-orienteret graf
(B) Orienteret graf med cykel
2
1
6
3
4
5
(C) Orienteret acyklisk graf
Teorien om grafer udgør et helt selvstændigt område i matematikken: Grafteori eller på
engelsk Graph Theory. Typisk ændres en graf ikke ved at man "vrider" lidt i den, så
længe kanterne ikke brydes. Et berømt problem, som kan formuleres og analyseres i en
grafmæssig sammenhæng, er det såkaldte travelling salesman problem. Det består i at
en sælger skal fra en by A til en by B. Sælgeren kan vælge forskellige veje. Hvilken en
er den korteste? Her udgør byerne A og B samt mellemliggende byer/trafikknudepunkter knuderne i grafen og vejene er kanterne. I dette tilfælde er grafen vægtet, idet hver
kant har tilknyttet et tal, nemlig vejafstanden. Den interesserede læser kan studere dette
emne på egen hånd. I denne note skal vi dog kun bruge graf-begrebet som et koncept.
© Erik Vestergaard – www.matematiksider.dk
49
9. Bayesianske netværk
Vi er nu rede til at give en præcis definition på et bayesiansk netværk. Hvis du finder
det lovligt abstrakt på dette sted, kan du vælge at læse let hen over det og vende tilbage,
når du inden længe ser konkrete eksempler på bayesianske netværk.
Definition 53 (Bayesiansk netværk)
Et Bayesiansk netværk (BN) er en tripel (V , A, P ) derved at:
V = { X 1 , X 2 , … , X n } er en mængde af stokastiske variable. De stokastiske
variable kan visuelt tænkes anbragt i hver deres knude i en graf.
b) A er en mængde af forbindelseslinjer, kaldet kanter, mellem knuderne omtalt i
a). Tilsammen skal (V , A ) udgøre en orienteret acyklisk graf.
c) P er en mængde af betingede sandsynligheder: Til hver knude hører en tabel
med de betingede sandsynligheder for den tilhørende stokastiske variabel, givet
værdierne for de stokastiske variable i grafens forældre-knuder. Denne knudepunktstabel betegnes ofte NPT (Node Probability Table).
a)
Bemærkning 54
På engelsk betegnes et bayesiansk netværk et Bayesian network eller et Belief network.
Det sidste kommer af, at man, som vi senere skal se, kan tildele nogle mere eller mindre
subjektive værdier til knuderne i netværket og udregne, hvilken indflydelse det har på
sandsynlighederne for værdierne af de stokastiske variable i de øvrige knuder. Et bayesiansk netværk omtales ofte med forkortelsen BN.
Bemærkning 55
Man kan vise, at hvis man har at gøre med en ikke-orienteret graf, kan man ofte ikke repræsentere al information om sandsynlighedernes afhængighed i netværket. Ved at kræve at kanterne har en retning, bliver dette heldigvis muligt. Udover at kræve at grafen er
orienteret, er der også krav om, at grafen ikke må indeholde cykler. Det skyldes at der
ellers kan opstå inkonsistens i knudepunktstabellerne. Med kravet om en acyklisk graf
får man i øvrigt en eller flere knuder, som ikke har forældre-knuder. Disse knuder vil
dermed indeholde ubetingede sandsynligheder. Mængden af de betingede sandsynligheder kan lidt abstrakt skrives: P = {P( X i ) parents( X i ), X i ∈ V } , hvor parents ( X i ) betyder de stokastiske variable hørende til forældreknuderne til den i'te knude.
10. Beregninger i et konkret bayesiansk netværk
For at det hele ikke skal drukne i matematisk formalisme, vil vi i dette afsnit tage fat i et
eksempel på et bayesiansk netværk for konkret at illustrere begreber som simultane
sandsynligheder og marginale sandsynligheder. Situationen er skitseret på næste side.
50
© Erik Vestergaard – www.matematiksider.dk
Eksempel på Bayesiansk netværk: For sent på arbejde
Niels og Anna arbejder på samme arbejdsplads og begge tager normalt Metroen !l arbejde.
Niels er i modsætning !l Anna et B-menneske, som har svært ved at komme op om
morgenen, så det sker, at han sover over sig. Hvis metroen står s!lle på grund af repara!oner,
så er de nødt !l (individuelt) at vælge et andet transportmiddel for at komme !l arbejde. Det
er Niels' job at åbne forrretningsafdelingen. Hvis han ikke gør det !l !den modtager han en
reprimande fra chefen. Anna har dog været så venlig at !lbyde at gøre det for ham i de
!lfælde, hvor han kommer for sent, undtagen i de !lfælde, hvor hun er kaldt ud !l kunder.
Niels sover over sig
(O)
Metroen er defekt
(M)
Niels kommer for
sent på arbejde
(N)
Anna kommer for
sent på arbejde
(A)
Chefen giver Niels
en reprimande (C)
Niels sover over sig
0.85
False
True
0.15
Metroen er defekt
0.95
False
True
0.05
Niels kommer for sent på arbejde
Niels sover over sig
Metroen er defekt
False
True
False
True
False
0.90
0.30
0.10
0.70
True
True
False
0.50
0.10
0.50
0.90
Anna kommer for sent på arbejde
True
Metroen er defekt False
0.95
0.15
False
True
0.05
0.85
Chefen giver Niels en reprimande
Anna møder for sent
Niels møder for sent
False
True
False
True
False
1.00
0.90
0.00
0.10
True
True
False
1.00
0.00
0.00
1.00
51
© Erik Vestergaard – www.matematiksider.dk
Det aktuelle netværk udmærker sig ikke ved at være særligt nyttigt, men er valgt for at
skabe intuition hos læseren. Netværket har i alt fem knuder eller knudepunkter. De kan
hver især antage nogle værdier. I dette simple eksempel er disse værdier False og True,
svarende til falsk eller sandt. På figuren er desuden anført en knudepunktstabel for hver
knude, forkortet NPT for det engelske udtryk Node Probability Table. Vi vil referere til
hver knude ved hjælp af en stokastisk variabel. Bogstaverne for de stokastiske variable
er angivet i parentes i hver knude i det bayesianske netværk (se figur). Den stokastiske
variabel for knuden "Niels kommer for sent på arbejde" har for eksempel fået tildelt
bogstavet N. Knudepunktstabellen for den pågældende knude indeholder sandsynlighederne for at knuden antager værdierne False henholdsvis True, givet de mulige værdier
af forældreknuderne.
Niels kommer for sent på arbejde
Niels sover over sig
False
True
Metroen er defekt
False
0.90
0.30
False
0.10
0.70
True
True
True
False
0.50
0.10
0.50
0.90
Det matematiske indhold af det med rødt fremhævede tal i knudepunktstabellen ovenfor
kan udtrykkes således:
P ( N = False O = True ∩ M = False) = 0,30
(29)
Udtrykket N = False repræsenterer hændelsen at Niels ikke møder for sent, mens fællesmængden O = True ∩ M = False repræsenterer hændelsen at Niels sover over sig og
Metroen ikke er defekt. Skal vi udtrykke det hele sprogligt, kan det gøres således:
Sandsynligheden for at Niels ikke møder for sent, givet at han sover over sig og Metroen ikke er defekt, er 30%.
eller måske endnu bedre:
Hvis Niels sover over sig og Metroen kører, er der 30% sandsynlighed for at Niels
kommer til tiden.
Vi har altså ifølge definition 12 at gøre med en betinget sandsynlighed her. Af notationsmæssige årsager vælger man ofte at skrive (29) på følgende alternative måde, hvor
fællesmængdetegnet er udskiftet med et komma:
(30)
P ( N = False O = True, M = False ) = 0,30
Den simultane sandsynlighedsfordeling
Men det er jo sjældent de betingede sandsynligheder, man er interesseret i. Det er normalt mere interessant at vide, hvad sandsynligheden er for, at Niels møder til tiden, altså
at kende P( N = False) . Før vi kan angribe dette problem, skal vi først se på den såkaldte simultane sandsynlighedsfordeling (på engelsk Joint Probability Distribution). Denne
indbefatter alle de stokastiske variable i det bayesianske netværk, hvilket her er C, A, N,
52
© Erik Vestergaard – www.matematiksider.dk
M og O. Man er interesseret i sandsynligheden for en given kombination af udfald for
hver af de fem stokastiske variable. Da hver stokastisk variabel i dette tilfælde kan
antage værdierne False eller True er der altså 25 = 32 mulige kombinationer af værdier
af de fem variable. C = True ∩ A = False ∩ N = True ∩ M = True ∩ O = False er bare
et eksempel blandt de 32 mulige hændelser. Men kan vi overhovedet udregne sandsynligheden P(C = True ∩ A = False ∩ N = True ∩ M = True ∩ O = False) ? Vi har umiddelbart kun knudepunktstabellerne til rådighed. Svaret er heldigvis ja. Ved hjælp af kædereglen kan vi nemlig nedbryde sandsynligheden i mindre dele:
P(C = True, A = False, N = True, M = True, O = False) =
P(C = True A = False, N = True, M = True, O = False)
(31)
⋅ P( A = False N = True, M = True, O = False)
⋅ P( N = False M = True, O = False)
⋅ P( M = True O = False)
⋅ P(O = False)
Angående den første faktor i produktet efter lighedstegnet, bemærkes det, at C er betinget uafhængig af både M og O givet værdierne af A og N. Dette indses ved at betragte
kanterne i netværket: M og O er ikke efterkommere til C, hvorfor deres værdier ikke kan
ændre sandsynligheden for C, når man kender værdierne af C 's forældreknuder A og N!
Generelt defineres en knude B i et BN at være en efterkommer af en anden knude A i
netværket, hvis B kan nås fra A ved at følge eksisterende kanter i pilenes retning. På
grund af den betingede afhængighed kan vi stryge M og O fra betingelsen:
(32)
P(C = True A = False, N = True, M = True, O = False)
= P(C = True A = False, N = True)
Sådanne typer ræsonnementer er vigtige, når man skal foretage beregninger i Bayesianske netværk. På samme måde kan vi reducere de øvrige faktorer i (31) og får:
P(C = True, A = False, N = True, M = True, O = False) =
P(C = True A = False, N = True)
(33)
⋅ P( A = False M = True)
⋅ P( N = True M = True, O = False)
⋅ P( M = True)
⋅ P(O = False)
Indsætter vi tallene fra knudepunktstabellerne, får vi:
(34)
P(C = True, A = False, N = True, M = True, O = False)
= 0,10 ⋅ 0,15 ⋅ 0,70 ⋅ 0,05 ⋅ 0,85 = 0,0004462500
53
© Erik Vestergaard – www.matematiksider.dk
Vi ser, at der er en sandsynlighed på kun 0,000446 for at alle fem ting indtræffer samtidigt, altså at Niels ikke sover over sig, at metroen er defekt, at Niels kommer for sent,
at Anna ikke kommer for sent og at Chefen giver Niels en reprimande. Vi vil ofte lade
udtrykket P(C , A, N , M , O ) = P(C ∩ A ∩ N ∩ M ∩ O ) betegne den simultane sandsynlighedsfordeling, idet vi underforstår, at hver af de fem stokastiske variable antager værdierne henholdsvis False og True, hvilket her giver i alt 32 mulige kombinationer.
De marginale sandsynlighedsfordelinger
Som nævnt tidligere vil vi gerne kunne bestemme P( N = False) , altså besvare spørgsmålet: Hvad er sandsynligheden for, at Niels ikke kommer for sent? Her er tale om en
sandsynlighed uden betingelser og den involverer kun én af de stokastiske variable. Vi
søger med andre ord den marginale sandsynlighedsfordeling (på engelsk Marginal Probability Distribution). Løsningen er at summere alle de simultane sandsynligheder, som
opfylder N = False .
(35)
∑
P ( N = False) =
P (C , A, N = True, M , O )
C , A,M ,O
hvor der summeres over alle kombinationer af værdier af de stokastiske variable C, A,
M, og O. Hver variabel kan antage de to værdier False og True. Der er altså i alt 16
forskellige sandsynligheder at summere over. For at være lidt mere "økonomisk" vælger
vi at udregne hele den marginale fordeling for N på én gang:
(36)
P( N ) =
∑
P (C , A, N , M , O )
C , A,M ,O
Man kan så bare erstatte N med N = False eller N = True . Vi skal anvende kædereglen
på (36) og derefter foretage reduktioner, så vi ender op med et udtryk for den marginale
sandsynlighed, hvori der kun indgår sandsynligheder fra knudepunktstabellerne.
54
© Erik Vestergaard – www.matematiksider.dk
∑
P( N ) =
P(C , A, N , M , O )
C , A, M ,O
∑
=
P(C A, N , M , O ) ⋅ P( A N , M , O ) ⋅ P( N M , O ) ⋅ P( M O ) ⋅ P(O )
C , A, M ,O
∑
=
P(C A, N ) ⋅ P( A M ) ⋅ P ( N M , O ) ⋅ P( M ) ⋅ P(O )
C , A, M ,O
(37)



∑ P( N M , O ) ⋅ P( M ) ⋅ P(O ) ⋅  ∑ P( A M ) ⋅  ∑ P(C A, N )  
=

M ,O

A

C


∑ P( N M , O ) ⋅ P( M ) ⋅ P(O ) ⋅  ∑ P( A M ) 
=

M ,O
A

∑ P( N M , O ) ⋅ P( M ) ⋅ P(O )
=
M ,O
hvor vi har benyttet følgende:
1. lighedstegn:
2. lighedstegn:
3. lighedstegn:
4. lighedstegn:
5. lighedstegn:
6. lighedstegn:
De simultane sandsynligheder summeres over alle variable, bortset fra
den vi ønsker den marginale sandsynlighed for, her N.
Kædereglen i sætning 47 er benyttet.
Betingede uafhængigheder i det Bayesianske netværk er benyttet.
Der er (indirekte) fire summationstegn, nemlig én for hver variabel.
Mange af de indgående sandsynligheder afhænger ikke af C og A, så
de er sat udenfor summationstegnene for C og A. Dette trin kræver lidt
snilde.
Vi udnytter, at den inderste summation med C er lig med 1 ifølge sætning 29 side 17.
Igen bruges sætning 29.
For at bestemme sandsynligheden for at Niels ikke kommer for sent på arbejde, indsætter vi N = False på N ' s plads i (37):
P( N = False) =
∑ P( N = False M , O ) ⋅ P( M ) ⋅ P(O )
=
M ,O
P( N = False M = False, O = False) ⋅ P( M = False) ⋅ P(O = False)
+ P( N = False M = False, O = True) ⋅ P( M = False) ⋅ P(O = True)
(38)
+ P( N = False M = True, O = False) ⋅ P( M = True) ⋅ P(O = False)
+ P( N = False M = True, O = True) ⋅ P( M = True) ⋅ P(O = True)
= 0,90 ⋅ 0,95 ⋅ 0,85 + 0,50 ⋅ 0,95 ⋅ 0,15 + 0,30 ⋅ 0,05 ⋅ 0,85 + 0,10 ⋅ 0,05 ⋅ 0,15
= 0,8115
Sandsynligheden for at Niels ikke kommer for sent til arbejde – dvs. kommer til tiden –
er altså 81,15%. Den meget opmærksomme læser vil bemærke, at der egentligt bare er
© Erik Vestergaard – www.matematiksider.dk
55
tale om det vejede gennemsnit af sandsynligheder i knudepunktstabellen for N. Vægtene
er sandsynlighederne P ( M , O ) = P ( M O ) ⋅ P (O ) = P ( M ) ⋅ P (O ) . Generelt bør man dog
være varsom med at tage genveje i et netværk. Den sikre vej er altid at foretage summation over alle de relevante simultane sandsynligheder, som vi har gjort ovenfor.
Bemærkning 56
For at udregne P( N = True) kunne vi have foretaget en summation à la (38), men da N
kun kan antage de to værdier False og True, kan vi lige så godt bruge sætning 9d):
(39)
P( N = True) = 1 − P( N = False) = 1 − 0,8115 = 0,1885
□
Opdatering af marginale sandsynligheder når evidens er givet
En af de store pointer ved at anvende Bayesianske netværk er, at man kan tilføje ny viden (information, evidens) til det og iagttage, hvilken virkning det har på de marginale
sandsynligheder. Som et eksempel vil vi antage, at vi har indhentet information om at
Anna er kommet for sent på arbejde. Hvad er nu den opdaterede sandsynlighed for at
Niels også er kommet for sent på arbejde? Vi efterspørger med andre ord den betingede
sandsynlighed P ( N = True A = True ) . Vi gør det en smule mere generelt ved at udregne P ( N A = True ) , idet N da kan udskiftes med N = True eller N = False .
(40)
P( N A = True)
P( N ∩ A = True)
P( A = True)
1
=
⋅ ∑ P(C , A = True, N , M , O )
P( A = True) C ,M ,O
=
=
1
⋅ ∑ P(C A = True, N , M , O ) ⋅ P ( A = True N , M , O ) ⋅ P( N M , O ) ⋅ P( M O ) ⋅ P(O )
P( A = True) C ,M ,O
=
1
⋅ ∑ P(C A = True, N ) ⋅ P( A = True M ) ⋅ P( N M , O ) ⋅ P( M ) ⋅ P(O )
P( A = True) C ,M ,O
=



1
⋅ ∑  P( A = True M ) ⋅ P ( N M , O ) ⋅ P( M ) ⋅ P(O ) ⋅  ∑ P(C A = True, N )  
P( A = True) M ,O 
 C

=
1
⋅ ∑ P( A = True M ) ⋅ P ( N M , O ) ⋅ P( M ) ⋅ P(O )
P( A = True) M ,O
hvor vi har benyttet følgende:
1. lighedstegn:
2. lighedstegn:
Definition 12 er benyttet.
Sandsynligheden P( N ∩ A = True) bestemmes ved at addere alle de
simultane sandsynligheder, der opfylder N og A = True . Da N under-
56
© Erik Vestergaard – www.matematiksider.dk
3. lighedstegn:
4. lighedstegn:
5. lighedstegn:
6. lighedstegn:
forstås kendt, skal der altså summeres over alle mulige kombinationer
af værdierne af C, M og O.
Kædereglen i sætning 47 er benyttet.
Betingede uafhængigheder i det Bayesianske netværk er benyttet.
Vi sætter de størrelser uden for C-summationstegnet, som ikke afhænger af C.
Vi udnytter, at den inderste summation med C er lig med 1 ifølge sætning 29 side 17.
Vi er nu rede til at beregne den opdaterede marginale sandsynlighed for N = True , givet
informationen A = True . Vi indsætter N = True på N's plads i det sidste udtryk i (40):
(41)
P( N = True A = True)
=
1
⋅ ∑ P( A = True M ) ⋅ P ( N = True M , O ) ⋅ P( M ) ⋅ P(O )
P( A = True) M ,O
=
1
⋅
P( A = True)
[
P( A = True M = False) ⋅ P( N = True M = False, O = False) ⋅ P( M = False) ⋅ P(O = False)
+ P( A = True M = False) ⋅ P( N = True M = False, O = True) ⋅ P( M = False) ⋅ P(O = True)
+ P( A = True M = True) ⋅ P( N = True M = True, O = False) ⋅ P( M = True) ⋅ P(O = False)
+ P( A = True M = True) ⋅ P( N = True M = True, O = True) ⋅ P ( M = True) ⋅ P(O = True)
]
=
1
⋅ [
0,09
0,05 ⋅ 0,10 ⋅ 0,95 ⋅ 0,85
+ 0,05 ⋅ 0,50 ⋅ 0,95 ⋅ 0,15
+ 0,85 ⋅ 0,70 ⋅ 0,05 ⋅ 0,85
+ 0,85 ⋅ 0,90 ⋅ 0, 05 ⋅ 0,15
]
= 0,429
hvor de forskellige betingede sandsynligheder aflæses i knudepunktstabellerne. Den
marginale sandsynlighed P( A = True) = 0,09 antages udregnet efter samme principper
som vi udregnede den marginale sandsynlighed P( N = False) i (37) og (38) – se evt.
opgave 10.1. Vi konkluderer, at der er 42,9% sandsynlighed for at Niels er kommet for
sent på arbejde, hvis man får oplyst, at Anna er kommet for sent. Oplysningen om at
Anna er kommet for sent, har med andre ord øget sandsynligheden for at Niels også er
kommet for sent fra 18,9% til 42,9% (se bemærkning 56). Det skyldes naturligvis, at det
med informationen er blevet mere sandsynligt, at Metroen er defekt!
© Erik Vestergaard – www.matematiksider.dk
57
11. Computerprogrammet AgenaRisk
I afsnit 10 så vi, at det kan blive meget teknisk at foretage beregninger i et Bayesiansk
netværk. Og så var vores netværk endda lille! Heldigvis har dygtige folk lavet computerprogrammer, som udregner sandsynlighederne for os. Et af disse computerprogrammer er AgenaRisk. En reduceret udgave af det kommercielle program er gratis og kan
downloades fra firmaets hjemmeside www.agenarisk.com.
Programmet er meget brugervenligt. Der medfølger tutorials, så man hurtigt kan sætte sig ind
i det mest grundlæggende. Kort fortalt kan man
blandt andet tegne knuder, navngive dem og forbinde knuder med kanter, som vist på figur 1
nedenfor, idet vi tager udgangspunkt i BN eksemplet fra afsnit 10. På figur 2 er en knudepunktstabel for knuden N udfyldt. På figur 3 er
det vist, hvordan man alternativt til knuderne
med navne på, kan få vist de marginale sandsynlighedsfordelinger for de stokastiske variable i
hvert knudepunkt, herunder dem, som vi brugte
megen energi på at udregne manuelt i afsnit 10.
Figur 1
58
Figur 2
Figur 3
© Erik Vestergaard – www.matematiksider.dk
© Erik Vestergaard – www.matematiksider.dk
59
Figur 4
På figur 4 ovenfor har vi højreklikket på knuden A og valgt Enter Observation > Scenario 1 > True. Hermed har vi tilføjet informationen A = True til netværket. De marginale
sandsandsynligheder for samtlige knudepunkter bliver øjeblikkeligt opdateret med denne information! Vi ser, at P ( N = True A = True ) , så vi regnede altså rigtigt, da vi i
afsnit 10 fik sandsynligheden til 42,9%. Den opdaterede marginale sandsynlighed for A
er da også sat til 100% for True! På denne måde kan man lynhurtigt afprøve ting i netværket: hvilken betydning har den og den information for de enkelte sandsynligheder?
□
Det simpleste Bayesianske netværk man kan forestille sig er et, hvor der kun er to knuder med en kant imellem. Tilføjer man evidens til datterknuden, svarer det til at benytte
Bayes' formel. Lad os kigge på tilfældet med test for sygdom fra eksempel 32 side 20.
Roden i netværket er S : "Personen har sygdommen" og den har en kant rettet mod T :
"Testen viser positiv". Det er den kausale rækkefølge. A priori sandsynligheden for at
personen har sygdommen er 1/1000 = 0,001, svarende til, at man endnu ikke har fået
oplyst testresultatet. A priori sandsynligheden for ikke at have sygdommen er derfor
0,999. Disse to sandsynligheder for henholdsvis True og False til spørgsmålet om personen har sygdommen udgør knudepunktstabellen for knuden S. I knuden T har vi de
betingede sandsynligheder. Værdierne heri er betinget af om personen har sygdommen
60
© Erik Vestergaard – www.matematiksider.dk
eller ej. Vi kender sandsynlighederne for falsk-positiv (2%) og falsk-negativ (5%). Alt i
alt giver det anledning til nedenstående knudepunktstabeller.
Personen har
sygdommen (S)
Personen har sygdommen
0.999
False
True
0.001
Testen viser positiv
Testen viser
positiv (T)
Personen har sygdommen
False
True
False
0.98
0.02
True
0.05
0.95
I AgenaRisk konstrueres ovenstående BN og værdierne i knudepunktstabellerne indtastes. Det giver følgende marginale sandsynligheder:
Hvis man ikke ved noget, er sandsynligheden for et positivt testresultat altså 2,093%.
Tallet dækker både over de rigtigt syge og de falske-positive. Man kunne nu finde på at
tilføje den evidens, at testen viste positiv for at se hvilken indvirkning det har på de
marginale sandsynligheder for knuden S. Vi højreklikker derfor på knuden T og vælger
Enter Observation > Scenario 1 > True. Derved ændres de marginale sandsynligheder
for knuden T naturligvis til 0% for False og 100% for True. Men det interessante er at
den opdaterede marginale sandsynlighed for at knuden S er True er lig med 4,5%. Dette
kan oversættes til P ( S = True T = True ) = 0,045 , nøjagtigt som vi fik i eksempel 32!
© Erik Vestergaard – www.matematiksider.dk
61
□
AgenaRisk er i øvrigt ikke begrænset til kun at arbejde med diskrete fordelinger for de
indgående stokastiske variable: man kan også have variable, som for eksempel er normalfordelte!
12. Bayesianske netværk historisk set
I begyndelsen af 1980'erne introducerede Judea Pearl, forsker i computer science og statistik fra University of California, Los Angeles, Bayesianske netværk med det formål at
kunne repræsentere sandsynligheder for tro eller overbevisning (Beliefs) lokalt i netværket, så det tilsammen udgør et logisk sammenhængende hele. I starten handlede det dog
kun om træer og polytræer, som er specialtilfælde af de nuværende bayesianske netværk. Pearl udviklede først alene og senere sammen med en anden forsker algoritmer til
at "sende meddelelser" igennem netværket (belief propagation). Pearl arbejdede videre
med at lede efter algoritmer, som fungerer på mere generelle netværk. Hans banebrydende arbejde blev i øvrigt i 2011 belønnet med den prestigefyldte A. M. Turing Award
"For fundamental contributions to artificial intelligence through the development of a
calculus for probabilistic and causal reasoning".
Det næste store skridt fremad blev faktisk da danskeren Steffen L. Lauritzen, dengang
ansat på Aalborg Universitet, sammen med englænderen David John Spiegelhalter i
1988 beskrev en ny algoritme i artiklen "Local Computations with Probabilities on Graphical Structures and Their Application to Expert Systems" (se [19]). Artiklens jointree
algoritme, som fungerer for såkaldte multiply-connected structures, har stadig praktisk
betydning den dag i dag. Men jagten på andre algoritmer fortsatte. I 1994 fremkom
62
© Erik Vestergaard – www.matematiksider.dk
Zhang og Poole og siden Dechter i 1996 med den såkaldte variable elimination algoritme. Siden har en længere række af matematikere/statistikere forsøgt at gøre variabel elimination mere effektiv. Den lokale struktur i de bayesianske netværk kan afsløre uafhængighed, som igen betyder at udregningerne kan speedes op. To andre danskere fra
Aalborg Universitet, Stig K. Andersen og Finn V. Jensen, leverede også et bidrag i denne sammenhæng.
13. Anvendelser af Bayesianske netværk
I den banebrydende artikel [19] af Lauritzen og Spiegelhalter nævnt på forrige side,
diskuteres et fiktivt eksempel med diagnosticering af sygdomme. Det pågældende BN,
som kaldes "Asia", ser således ud:
Har været i
Asien?
Er ryger?
Har tuberkulose?
Har lungekræft?
Har bronkitis?
Tuberkulose eller
lungekræft?
Røntgenundersøgelsen
viser positiv?
Har
vejrtrækningsbesvær?
Eksemplet med knudepunktstabeller kan findes i en mappe, som downloades med den
gratis udgave af AgenaRisk. Eksemplet fås frem ved indefra programmet at vælge
menuen File > Open Example Model…. I mappen "Book models", som indeholder
eksemplerne fra Norman Fenton og Martin Neils bog [1], findes filen Asia.ast. Denne
fil åbnes, hvorefter man kan foretage eksperimenter med det, dvs. tilføje evidens til
bestemte knuder.
len Et af de områder, hvor man kan udnytte Bayesianske netværk i praksis, er til diagnosticering af sygdomme. Generelt er det ofte meget kompliceret at stille diagnoser i
63
© Erik Vestergaard – www.matematiksider.dk
lægeverdenen, eftersom symptomer kan være vage eller forskellige hos patienter. Her
kan automatiserede
På figuren
I 1989 dannede en gruppe af forskere fra Aalborg Universitet firmaet HUGIN Expert
A/S, opkaldt efter den ene af to ravne, som i den nordiske mytologi satte sig på Odins
skulder for at bringe nyt fra verden. Et andet firma som siden er kommet til siden er det
britiske AgenaRisk, ledet af Norman Fenton og Martin Neil. Figuren nedenfor giver en
indikation af de områder, hvor BN finder anvendelse.
Risk Management
Medical Diagnostic Systems
Forensic Science
Meteorology
Turbo Codes
Spam filters
Reasoning
Expert systems Probabilistic
Natural resource
management and policy
Military
Bioinformatics Networks
Security
Robotics
Artificial Intelligence
Uncertainty
Kalman filters
Machine Learning
Datamining
The LAW
Agriculture
Finance
Trouble shooting
CAUSAL MODELS
Decision Analysis
Diagnostisering af fejl i printer.
Safety and Realiability
64
© Erik Vestergaard – www.matematiksider.dk
A. Betingede sandsynligheder er også sandsynligheder
I dette appendiks vil vi steppe et niveau op i abstraktion i forhold til det meste af det
øvrige stof i denne note. Appendikset er ikke strengt nødvendigt, men kan hjælpe de læsere, som kan følge argumenterne, til en dybere forståelse. Samtidig vil det spare en
masse beviser for sætninger om betingede sandsynligheder.
Lad E være en hændelse, der ikke har sandsynlighed 0, dvs. P( E ) ≠ 0 . Vi vil vise, at
den betingede sandsynlighedsfunktion PE (⋅) ≡ P (⋅ E ) også er en sandsynlighedsfunktion. Punktummet er en såkaldt dummy, hvor man kan indsætte relevante størrelser. Da
P selv er en sandsynlighedsfunktion, tilfredsstiller den automatisk alle de fire punkter
a)-d) i definition 1 side 5. Vi skal vise, at den nye funktion PE også gør det. Det er hensigtsmæssigt først at præcisere, hvordan funktionen PE er defineret på både elementer u
i udfaldsrummet U og på delmængder A af U :
PE (u) = P({u} E ), u ∈U
(A1)
PE ( A) = P( A E ), A ⊆ U
Bemærk, at vi er nødt til at placere mængdeklammer rundt om elementet u, da betinget
sandsynlighed kun er defineret for mængder.
a) Det er klart at 0 ≤ PE (u ) ≤ 1 for alle u ∈U , fordi alle betingede sandsynligheder jo
ligger mellem 0 og 1.
b)
∑ PE (u)
=
u∈U
c)
∑ PE (u)
=
u∈U
∑
u∈U
P({u} ∩ E )
1
=
⋅ ∑ P({u} ∩ E )
P( E )
P( E ) u∈U
=
1
1
⋅ ∑ P(u ) =
⋅ P( E ) = 1
P( E ) u∈E
P( E )
=
∑ P({u} E )
u∈A
u∈A
=
d)
∑ P({u} E )
=
P({u} ∩ E )
1
=
⋅ ∑ P({u} ∩ E )
P( E )
P( E ) u∈A
u∈A
∑
1
1
⋅ ∑ P (u ) =
⋅ P( A ∩ E ) = P ( A E ) = PE ( A)
P( E ) u∈A∩ E
P( E )
PE (∅) = P(∅ E ) =
P (∅ ∩ E )
P (∅ )
0
=
=
= 0
P( E )
P( E )
P( E )
At PE tilfredsstiller de fire betingelser betyder, at PE selv er en sandsynlighedsfunktion
på U. Alle sætninger, såsom sætning 9, som er udledt på baggrund af de fire axiomer for
en sandsynlighedsfunktion, holder dermed også for P udskiftet med PE . Sætning 9c)
bliver for eksempel til PE ( Ac ) = 1 − PE ( A) , som når betydningen af PE udnyttes giver:
(A2)
P( Ac E ) = 1 − P( A E )
Vi kan altså bare sætte en betingelse E på alle sandsynlighederne i en given formel, så
gælder den stadig! Lad os kigge på, hvad der sker, når man bruger metoden på den
65
© Erik Vestergaard – www.matematiksider.dk
simple version af Bayes' formel i sætning 26. Før vi gør det skal vi dog lige godtgøre, at
hvis man i forvejen har en betinget sandsynlighed, så kan man bare sætte den nye betingelse ind som en ekstra betingelse:
(A3)
P ( A ∩ B E)
P ( A ∩ B)
PE ( A B ) = E
= E
=
PE ( B )
P( B E )
=
P( A ∩ B ∩ E )
P( E )
P( B ∩ E )
P( E )
P ( A ∩ ( B ∩ E ))
= P ( A B ∩ E ) = P ( A B, E )
P( B ∩ E )
Sidste lighedstegn angår blot notation, dvs. hvis vi har en betingelse, som er en fællesmængde af flere delbetingelser, så vælger man ofte at skrive delbetingelserne med komma imellem. Den simple version af Bayes' formel kommer til at se således ud med en
ekstra betingelse E indsat:
(A4)
P ( A B, E ) =
P( B A, E ) ⋅ P( A E )
P( B E )
Vi ser, at pointen i dette appendiks sætter os i stand til at generere en række nye formler.
66
© Erik Vestergaard – www.matematiksider.dk
Opgaver
Opgaverne er nummereret således, at det første ciffer angiver det afsnit, opgaven hører
til. Opgave 4.3 er således den tredje opgave hørende til afsnit 4.
Opgave 2.1
Betragt følgende eksperiment: Der spilles
plat og krone, og der foretages tre kast med
en mønt lige efter hinanden. Vi vedtager at
lade notationen ( p, k , p ) svare til det udfald,
hvor første kast gav plat, andet kast gav krone og tredje kast gav plat.
a) Opskriv alle de mulige udfald. Hvor mange elementer er der i udfaldsrummet?
b) Bestem sandsynlighederne for hvert udfald i udfaldsrummet. Hjælp: Du kan gange
sandsynlighederne for hvert kast sammen, da udfaldene af de enkelte kast er uafhængige af hinanden.
c) Betragt følgende hændelse H: Der var mindst 2 plat. Angiv den delmængde, som
svarer til hændelsen H og bestem sandsynligheden P ( H ) for hændelsen.
Opgave 2.2
Dette er en udvidelse af eksempel 7 i afsnit 2. Som udgangspunkt har vi det samme eksperiment som i eksempel 7, men den stokastiske variabel er en anden. En bankør tilbyder et spil, hvor spilleren slår med to terninger: en grøn og en rød. Hvis der er en 1’er
blandt de to terninger, skal spilleren betale 4 kr. til bankøren. I alle andre tilfælde vinder
spilleren det beløb i kroner, som svarer til forskellen mellem de to terningers visning.
Hvis den ene terning viser 5 og den anden 2, vinder spilleren altså 5 − 2 = 3 kroner.
X : Angiver det beløb, som spilleren vinder i ét enkelt spil.
a) Bestem sandsynlighedsfordelingen for X.
Hjælp: Ligesom i eksempel 7 skal du finde alle de mulige værdier, altså gevinster i
spillet. Du skal regne gevinsterne med fortegn, og da det er set fra spillerens synspunkt, er gevinsten positiv, hvis spilleren vinder noget og negativ, hvis spilleren
taber noget. For at bestemme de tilhørende sandsynligheder P( X = xi ) , kan du evt.
for at få overblik lave et "koordinatsystem" som i eksempel 7, blot med gevinsterne
anbragt i felterne fremfor summen af øjnene.
Man kan indføre begrebet middelværdien E ( X ) af en stokastisk variabel X. E'et står for
expectation på engelsk, altså den forventede værdi af X. Ikke overraskende er den defi-
67
© Erik Vestergaard – www.matematiksider.dk
neret som det vejede gennemsnit af værdierne x1 , x2 , … , xn af den stokastiske variabel.
Vægtene er naturligvis de tilhørende sandsynligheder P( X = xi ) :
E( X ) =
n
∑ xi ⋅ P( X = xi )
i =1
b) Benyt din sandsynlighedsfordeling fra a) til at vise, at E ( X ) = − 19 .
c) Hvad fortæller middelværdien her, sagt med ord? Hvorfor vil det ikke være
fornuftigt for spilleren i det lange løb at deltage i spillet?
Kommentar: Middelværdien betegnes undertiden også med det græske bogstav µ. En
anden størrelse, som man også bruger er variansen for X, og den er defineret ved:
n
∑ ( xi − µ)2 ⋅ P( X = xi )
Var( X ) =
i =1
Tager man kvadratroden af dette tal, fås spredningen: σ( X ) = Var ( X ) . Spredningen i
et spil som dette, vil fortælle lidt om, hvor spredte gevinsterne er, altså hvor chancebetonet spillet er. I det meget kedelige tilfælde, hvor et spil gav den samme gevinst, uanset
udfald, ville spredningen være 0.
Opgave 2.3
Vi betragter mængdeoperationerne fra side 9 samt Venn-diagrammer.
a) Tegn to overlappende delmængder A og B i et Venn-diagram. Skraver det område,
som svarer til mængden Ac ∪ B c .
b) Foretag nogle mængdeoperationer på delmængderne A og B, så resultatet svarer til
det markerede område i Venn-diagrammet på venstre delfigur.
U
A
B
U
A
B
c) Samme spørgsmål for højre delfigur.
Opgave 2.4
Lad A, B og C være vilkårlige delmængder af U. Vis følgende identiteter:
a)
b)
c)
d)
A ∪ ( B ∪ C ) = ( A ∪ B) ∪ C
A ∪ ( B ∩ C ) = ( A ∪ B) ∩ ( A ∪ C )
Ac ∪ B c = ( A ∩ B )c
Ac ∩ B c = ( A ∪ C )c
68
© Erik Vestergaard – www.matematiksider.dk
Hjælp: Du kan enten vælge at vise dem ved at tegne Venn-diagrammer, eller ved at argumentere direkte på elementer. Hvis du bruger Venn-diagrammer, så tegn overlappende delmængder. Hvis du argumenterer på element-niveau, tænk da således: Vis, at hvis
et element u tilhører venstresiden, så vil det også tilhøre højresiden og omvendt.
Opgave 2.5
Der slås med to terninger, en grøn og en rød. Lad der være givet følgende hændelser:
A : Forskellen på hvad den grønne og den røde terning viser er højest 1.
B : Den grønne terning viser mindst 5.
a) Bestem sandsynlighederne P ( A) , P( B) samt P( A ∩ B ) .
b) Prøv at udtrykke hændelsen Ac med ord og brug sætning 9 til at bestemme sandsynligheden for hændelsen.
c) Lav en liste med de udfald, som er i hændelsen ( A ∪ B )c .
Opgave 2.6
Bestem sandsynligheden for at få mindst en sekser ved 7 kast med en terning.
Hjælp: Bruge komplementærhændelsen efter metoden fra eksempel 33.
Opgave 2.7
Der vides at være gevinst på 10% af lodsedlerne i et stort lotteri. Thomas beslutter at
købe tre lodsedler. Lad Gk være hændelsen, at der er gevinst på den k'te lodseddel. Thomas vil gerne vide hvad sandsynligheden er for at han får gevinst på mindst en lodseddel og spørger derfor sin matematiklærer.
a) Hvorfor er hændelserne i princippet ikke helt uafhængige? Hvorfor er det her alligevel rimeligt at antage, at de er det, når man skal udregne en meget præcis (men
ikke helt rigtig) værdi for den søgte sandsynlighed? Udregn sandsynligheden.
b) Hvor mange lodsedler skal Thomas købe, hvis han vil være over 50% sikker på at
få gevinst på mindst én lodseddel?
Hjælp: Kig på komplementære hændelser, ligesom i eksempel 24.
Opgave 3.1
Eksperiment: Der trækkes på tilfældig måde ét kort fra et sæt spillekort med 52 kort.
Betragt følgende hændelser:
A : Kortet er et billedkort
B : Kortet er en spar
a) Bestem følgende sandsynligheder: P( A), P( B ), P( A ∩ B ) og P( A ∪ B ) .
b) Er hændelserne A og B uafhængige?
© Erik Vestergaard – www.matematiksider.dk
69
c) Bestem P( Ac ) . Hvordan vil du sprogligt formulere hændelsen Ac ?
d) Gentag a) og b) for et spil kort, som foruden de 52 kort har tre jokere.
Opgave 3.2
Ralf skal på en udflugt i en grotte i Sydeuropa. Antag at sandsynligheden for at blive
bidt af en flagermus i grotten i løbet af dagen er 2%. Det oplyses, at 3% af flagermusene
i grotten har hundegalskab. Hvad er sandsynligheden for at personen på udflugten bliver
bidt af en flagermus med hundegalskab? Benyt sandsynlighedsregningens multiplikationssætning (sætning 14) til at besvare spørgsmålet, idet du gør dig klart hvad de enkelte hændelser er.
Opgave 3.3
Vis at hvis A og B er to uafhængige hændelser i et endeligt sandsynlighedsfelt, så er de
komplementære hændelser Ac og B c også uafhængige.
Hjælp: Du skal vise, at (2) i definition 15 gælder for de to mængder Ac og B c . Regn på
venstre siden og højresiden og se, at det giver det samme, idet du undervejs flere gange
bruger sætning 9 for at komme tilbage til udtryk med A og B, som du ved noget om.
Undervejs får du brug for identiteten: Ac ∩ B c = ( A ∪ C )c fra opgave 24.
Opgave 3.4
Der foretages 7 kast med en terning.
a) Hvad er sandsynligheden for at få mindst én sekser.
b) Hvad er sandsynligheden for at få præcist 1 sekser?
Hjælp: Eksperiment: 7 kast med en terning. Betragt for i = 1, 2, … , 7 hændelserne Ai :
Den i'te terning viser 6 øjne.
70
© Erik Vestergaard – www.matematiksider.dk
Opgave 3.5
Der trækkes et kort fra et kortspil. Hvad er sandsynligheden for at kortet er en hjerter,
givet at det er en konge? Benyt definition 12 hertil. Giver det samme resultat, som din
intuition siger?
Opgave 4.1 (Beviser i simplere tilfælde)
Prøv at gennemføre beviserne for sætning 26 (loven om total sandsynlighed) samt beviset for sætning 28 (Bayes' formel) i tilfældet, hvor klassedelingen kun består af to
mængder, nemlig en mængde A og (nødvendigvis) dens komplementære mængde Ac .
Det kan være ganske nyttigt for at forstå det hele bedre. Skriv omhyggeligt op, idet du
tegner mængder …
Opgave 4.2
Eleverne på et lille gymnasium kan efter skoletid dyrke fitness meget billigt i et flot udstyret lokale på skolens område. Det vides at 35% af drengene på skolen har taget imod
tilbuddet, mens tallet for pigernes vedkommende er 20%. Det oplyses, at 55% af eleverne på skolen er piger. Fitness lokalet bliver kun brugt af elever på skolen. Hvad er sandsynligheden for at en tilfældig udvalgt person i fitnesslokalet er en pige?
Hjælp: Indfør hændelsen pige: Den udvalgte person er en pige, hændelsen dreng: Den
udvalgte person er en dreng samt hændelsen fitness: Den udvalgte person dyrker fitness.
Du spørges om P ( pige fitness ) , men ved mere om P ( fitness pige) , etc. Bayes' formel
er oplagt til at "vende problemet på hovedet".
Opgave 4.3
For at have mere sikre leverancer gør
en fabrik brug af tre underleverandører af en bestemt komponent til produktionen. Underleverandør A leverer
60% af komponenerne, mens de tilsvarende tal for underleverandør B og
C er henholdsvis 15% og 25%. Erfaringen har vist, at der hos underleverandørerne A, B og C er fejl i henholdsvis 3%, 8% og 5% af de komponenter den pågældende leverandør leverer.
a) Hvor stor en procentdel af de komponenter fabrikken modtager er der fejl i?
b) Der udtrækkes en tilfældig komponent fra en kasse med alle de komponenter
fabrikken har modtaget. Hvad er sandsynligheden for, at komponenten er leveret fra
underleverandør B.
71
© Erik Vestergaard – www.matematiksider.dk
Hjælp: I delspørgsmål a) skal du udregne den totale sandsynlighed, mens du i b) skal
benytte Bayes' formel. Indfør passende hændelser.
Opgave 4.4
Du skal regne videre på eksempel 32 med test for sygdom. Hvad er sandsynligheden for
at ikke at have sygdommen givet at testen er negativ?
c
Hjælp: Benyt Bayes' formel til at udregne sandsynligheden P( S c T ) .
Opgave 4.5 (ELISA test)
ELISA (Enzyme-linked immunosorbent assay) er en test til identifikation af bestemte
proteiner ved at udnytte antistoffers evne til at binde specifikt til dem. Formålet her er at
undersøge om blodet fra en person indeholder HIV. Testen er ikke perfekt: Antag, at
testen (korrekt) giver et positiv testresultat i 99% af de tilfælde, hvor blodet indeholder
virusset samt at testen (korrekt) giver et negativt testresultat i 99,5% af de tilfælde, hvor
blodet ikke indeholder virusset. Antag desuden at 1 ud af 10000 blodportioner indeholder HIV-virus.
a) Hvor mange procent af de donerede blodportioner vil teste positiv ved anvendelse
af ELISA-testen?
b) Hvor stor en del af de blodprøver, som giver et negativt resultat med ELISA-testen
er inficeret med HIV-virus?
c) Hvor stor en del af de blodprøver, som giver et positivt resultat ved testen, er rent
faktisk inficerede med HIV-virus?
Hjælp: Kig på eksempel 32, som er meget analog. Identificer de forskellige hændelser
og giv dem navne. Du kan for eksempel lade T være hændelsen: Testen viser positiv og
S være hændelsen: Blodportionen indeholder HIV-virus. Da haves P (T S ) = 0,99 , etc.
Hvilke sandsynligheder er det, der spørges efter i a), b) og c)? Du skal anvende både
formlen for den totale sandsynlighed (Sætning 27) og Bayes' formel (Sætning 28).
Opgave 4.6
Ifølge hjemmesiden www.lunge.dk er der i Danmark 17% af dem over 15 år, som ryger.
Her kan man også se, at 85% af alle lungekræfttilfældene i Danmark skyldes rygning.
En bestemt person (over 15 år) har fået konstateret lungekræft. Hvad er sandsynligheden for, at det skyldes rygning?
72
© Erik Vestergaard – www.matematiksider.dk
Opgave 4.7 (Arvelighedslære og Hardy-Weinberg-loven)
Når en mand og en kvinde får et barn, overfører de som bekendt et udvalg af deres arveanlæg til barnet. Af hensyn til matematikken i denne opgave er det nødvendigt at forstå
processen i grove træk. Hver almindelig celle i kroppen indeholder (normalt) 23 kromosompar, altså i alt 46 kromosomer. Hvert kromosompar bærer de samme gener på det
samme sted (locus) på kromosomerne. På figuren på næste side er således afbildet genet
for øjenfarve. Hvert gen kan imidlertid have forskellige former, kaldet alleller. På figuren har genet i det ene kromosom en allel for blå øjne, mens det andet har en allel for
brune øjne. Meiosen er den proces, som fører til dannelsen af kønsceller. Den proces er
afbildet på figuren, dog i en simplificeret udgave. Først sker en fordobling af
kromosomerne, herefter en indviklet proces, som ender ud med, at man har fire kønsceller (gameter). Gameterne er karakteristiske ved, at de hver især kun har 23 kromosomer
– der er nu ingen par! Hos kvinden går 3 ud af de fire gameter til grunde og bliver til såkaldte pollegemer. Denne proces er ikke afbildet på figuren. Det er tilfældigt hvilken
gamet, som fører til et modent æg. Rent matematisk vil det altså svare til på tilfældig vis
at vælge en af de fire gameter. Når en sædcelle (gamet fra manden) finder en ægcelle
(gamet fra kvinden), så kan man regne med, at det sker på tilfældig måde. På figuren
udvælges altså indirekte én af de fire sædceller og i praksis én af de fire kvindelige
gameter, og de har samme sandsynlighed for at blive valgt! Tilsammen vil den valgte
sædcelle og den valgte ægcelle danne en ny celle, kaldet en zygote, som er byggestenen
til alle celler i barnet. Det skal lige tilføjes, at +… på figuren hentyder til at der i cellen
er 22 andre objekter (kromosompar/kromosomer).
På figuren ser vi, at manden har genotype Bb for
øjenfarve, mens kvinden har genotypen bb. Her
står b for allellen blå øjne, mens B står for allellen brune øjne. Det betyder, at manden kommer
med 4 kønsceller med allellerne B, b, B, b, mens
kvinden kommer med b, b, b, b. At der er dobbelt så mange af hver allel ændrer intet ved
sandsynlighederne, så vi vil i det følgende blot
sige, at manden kommer med B, b, mens kvinden kommer med b, b. Mulighederne for hvilket
par af alleller barnet kan få, fremgår af figuren
på næste side.
Hardy-Weinberg loven
Lad os nu betragte situationen med genotyper på et overordnet plan, dvs. på populations-niveau. Hardy-Weinberg loven siger, at frekvenserne for en allel er konstante i en
population under nogle antagelser. Der vil altså under nogle forudsætninger automatisk
opstå en "ligevægt" i en population. Loven betyder, at man kan udregne frekvensfordelingen af genotyper i populationen. Lad os sige, at et gen har to mulige alleller, B og b,
som ovenfor. Vi kalder frekvensen af B for p og frekvensen af b for q.
73
© Erik Vestergaard – www.matematiksider.dk
Kopiering af kromosomer
gen for øjenfarve
b
B
kroma!der
b
b
B
B
Her to forskellige
udgaver af samme gen
kromosom
kromosom
kromosom
kromosom
B
+...
B
+...
b
b
B
b B
B
+...
+...
b
+...
Celle fra manden
b
+...
Meiose
sædceller (gameter)
+...
b
+...
b
+...
b
b
+...
b b
B
ægceller (gameter)
(Simplificeret)
b
b
b
+...
b
+...
Celle fra kvinden
b
+...
Zygote, hvorfra
barnet udvikles
74
© Erik Vestergaard – www.matematiksider.dk
Genotyperne BB og bb kaldes homozygote, mens genotypen Bb kaldes heterozygot. For
en heterozygot genotype er der i øvrigt ingen forskel på, om den ene eller den anden
allel kommer fra manden eller kvinden. For nogle geners vedkommende vil en eller
flere alleller være dominante i forhold til de øvrige, som dermed kaldes recessive. En
dominant allel vil komme til udtryk hos personen (fænotypiske udtryk). En dominant allel betegnes normalt med et stort bogstav, mens en recessiv allel betegnes med et lille
bogstav. For genet øjenfarve er allellen for brune øjne således dominerende over allellen
for blå øjne. Det betyder, at hvis bare en af allellerne er for brune øjne, så bliver personens øje brune. Kun i tilfældet med to alleller for blå øjne vil personen få blå øjne.
a) Argumenter for at genotyperne BB, bb og Bb forekommer med frekvenserne henholdsvis p 2 , q2 og 2 pq i populationen, idet du udnytter uafhængigheden mellem
allellerne.
b) I den danske befolkning har 36% brune øjne. Bestem, under antagelse af Hardy
Weinberg "ligevægt", frekvenserne for de to alleller for henholdsvis brune og blå
øje i Danmark, og brug det til at beregne frekvensfordelingen af de tre genotyper
BB, bb og Bb i Danmark.
Hjælp: Udnyt a) samt at p + q = 1 til at opstille en ligning og løs den.
c) Hardy-Weinbergs lov om "ligevægt" i frekvensen af allellerne i populationen har en
række forudsætninger. Søg på Internettet for at finde hvilke.
Det skal nævnes, at munken Gregor Mendel (1822-1884) i tidsrummet fra 1856 til 1863
eksperimenterede med ærteplanter på sit kloster. Her opdagede han på eksperimentel
basis, hvordan planternes arveanlæg blev nedarvet. Han nævnes derfor ofte som arvelighedslærens fader. Senere fandt man ud af, hvad der mere detaljeret sker på celleniveau,
både i mennesker, dyr og planter.
Opgave 4.8* (Genetik: Øjenfarve)
I denne opgave forudsættes det, at læseren er bekendt med den indledende teori om arvelighedslære fra opgave 45. Hermed menes specielt, hvordan genotyper nedarves. Poul
har brune øjne ligesom begge hans forældre. Søsteren Lise har derimod blå øjne.
a) Argumenter for, hvorfor begge forældre nødvendigvis må have genotype Bb.
b) Benyt a) til at vise, at sandsynligheden for at Poul har genotype Bb, er
Hjælp: Eksperimentet kan opfattes som et dobbelteksperiment derved, at der både udtrækkes en allel
fra moderen og en allel fra faderen. Udfaldsrummet har altså fire udfald, som er lige sandsynlige:
U = {( B, B ), ( B, b), (b, B ), ( b, b)} . Indfør dernæst
følgende fire hændelser:
2
3
.
Brune: Bb
Brune: Bb
Mor
Far
Poul
Brune
75
© Erik Vestergaard – www.matematiksider.dk
A1 : Poul har genotype BB
A2 : Poul har genotype Bb
A3 : Poul har genotype bb
C : Poul har brune øjne
Da hændelsen C er givet, er det P ( A2 C ) som skal beregnes. Da vi nemt kan finde
de "omvendte" betingede sandsynligheder, er det oplagt at bruge Bayes' formel.
c) Det oplyses, at Pouls kæreste Ida har blå øjne. Vis at sandsynligheden for at deres
første barn får blå øjne er 13 .
Hjælp: På figuren til højre er indtegnet sandsynligheden for at Poul har genotype Bb, som vi udregnede
i b). På tilsvarende vis udregnes, at sandsynligheden
for at Poul har genotype BB, er 13 . Vi ved altså ikke,
hvilken genotype Poul har, kun at det enten er Bb
eller BB, med sandsynligheder henholdsvis 23 og 13 .
Lav et vejet gennemsnit for at bestemme P( E1 ) , hvor
E1 skal står for hændelsen: "Det første barn har blå
øjne".
Brune:
Bb: !⁄#
BB: $⁄#
Blå: bb
Poul
Ida
Barn 1
d) Det oplyses nu, at det første barn faktisk fik brune øjne. Vis at med den nye information om det første barns øjenfarve, må sandsynligheden for, at det næste barn
også får brune øjne, opgraderes til 43 .
Hjælp: Lad E2 være hændelsen: "Det første barn har
brune øjne". Benyt Bayes' formel til at bestemme den
betingede sandsynlighed P ( A1 E2 ) ved hjælp af de
"omvendte" betingede sandsynligheder m.m. Gør det
samme med P ( A2 E2 ) . Derved har du de opdaterede
sandsynligheder for Pouls genotyper, afspejlende den
nye viden E2 . Med disse værdier kan du gå til figuren nedenfor. Skriv de nye værdier ud for genotype
Bb og BB. Benyt herefter vejet gennemsnit – som i
delspørgsmål c) – til at bestemme sandsynligheden
for at barn nummer 2 også får brune øjne. Du kan
lade F2 være hændelsen: "Barn 2 har brune øjne".
NB! I virkeligheden er øjenfarve ikke så simpelt som
vi gør det til i denne opgave. Faktisk er der flere loci,
som påvirker øjenfarven. Det er fx velkendt at nogle
personers øjenfarve er mere ovre i det grønne eller
grå område.
Brune:
Bb: !⁄#
BB: $⁄#
Blå: bb
Poul
Ida
Barn 1 Brune
Brune:
Bb: opdateret
BB: opdateret
Blå: bb
Ida
Poul
Barn 2
76
© Erik Vestergaard – www.matematiksider.dk
Opgave 4.9 (Variant af Monty Hall problemet)
I [9] omtales adskillige varianter af Monty Hall problemet. Nogle er med flere spillere
og andre med flere døre. Vi skal se på en variant, hvor der stadig er en spiller og tre
døre, men hvor betingelserne for værtens valg ændres en smule:
1) Studieværten åbner altid en dør, som skjuler en ged.
2) Studieværten åbner aldrig den dør, spilleren har valgt.
3) Hvis studieværten kan åbne mere end én dør uden at overtræde de to første regler,
så skal studieværten vælge den med det højeste nummer.
Hjælp: Start med at bestemme de betingede sandsynligheder, som har ændret sig en
smule i forhold til det klassiske Monty Hall problem. Brug derefter Bayes' formel. Du
kan naturligvis også vælge at lave et hændelsestræ.
Opgave 4.10 (Fangens fejlslutning)
Det er blevet annonceret, at to ud af fire
bestemte fanger i et fængsel skal løslades
før tid. En af de fire involverede fanger har
selv regnet ud, at han har en sandsynlighed
på 12 for at blive løsladt. Han er ven med
fængselsvagten og overvejer at spørge vagten om navnet på én af de andre tre, som
skal løslades. Men han tøver ud fra følgende overvejelser: Når vagten har fortalt mig
navnet på en af de andre tre medfanger, så
er der kun de andre to og mig selv tilbage.
Altså vil min sandsynlighed for at blive løsladt dale fra 12 til 13 . Påvis ved at indføre
passende hændelser, at fangen er forkert på den, og at han stadig har en sandsynlighed
på 12 for at blive løsladt, selv efter vagten nævner navnet på en af de andre tre.
Opgave 4.11
En undersøgelse viser ifølge hjemmesiden www.lunge.dk, at der i 2013 var 17% af danskerne over 15 år, som var rygere – lejlighedsrygere fraregnet. Skadevirkningen af rygning afhænger både af alder og af, hvor mange cigaretter, man ryger om dagen. Som et
godt middeltal kan man dog sige, at en ryger har 23 gange så stor sandsynlighed for at
udvikle lungekræft end en ikke-ryger. Vi tillader os at sidestille det med at af de personer, der har lungekræft, er der 23 gange så mange, som er rygere, som der er ikke rygere. Hvad er sandsynligheden for at en tilfældig valgt dansker med lungekræft er ryger?
Hjælp: Indfør for eksempel hændelserne: L : Personen har lungekræft og R : Personen er
c
ryger. Argumenter for at P( L R ) = 23 ⋅ P( L R ) . Benyt derefter Bayes' formel.
© Erik Vestergaard – www.matematiksider.dk
77
Opgave 5.1
Antag at man har fået beregnet a posteriori odds i sætning 34 til værdien p. Vis da, at
man får den a posteriori sandsynlighed ved P ( H E ) = p (1 + p ) .
Hjælp: Kald for eksempel P ( H E ) for x. Vis, at så må x (1 − x ) = p og løs ligningen.
Opgave 6.1 (Anklagerens fejlslutning – Sally Clark sagen)
Den britiske kvinde Sally Clark blev i 1999 fundet skyldig i at have myrdet begge hendes to børn, der begge døde pludseligt nogle få uger efter deres fødsel. Sagen byggede
på statistisk evidens. Det kom også frem, at Clark havde lidt af fødselsdepression efter
det første barns fødsel, men var kommet sig ved det andet barns fødsel. Børnelægen Sir
Roy Meadow forklarede i retten, at chancen for at to børn fra en velstående ikke-rygende familie skulle lide vuggedøden er 1 ud af 73 millioner. Han var nået frem til dette tal
ved at kvadrere tallet 1/8543, som blev angivet som sandsynligheden for at ét barn skulle lide vuggedøden.
a) Antag et øjeblik at sandsynligheden for at ét barn lider vuggedøden er 1/8543. Hvad
er betingelsen for, at man kan bestemme sandsynligheden for at begge børn lider
vuggedøden ved at opløfte 1/8543 til 2. potens? (Der er i øvrigt meget der tyder på,
at denne betingelse ikke er opfyldt!)
Mange aviser fremstillede sandsynligheden 1/73000000 som værende sandsynligheden
for at Sally Clark var uskyldig.
b) Redegør for hvorfor aviserne begår anklagerens fejlslutning.
Senere kom det frem, at hendes anden søn ikke havde lidt vuggedøden, men var død af
en stafylokok infektion. En oplysning, som forsvaret ikke havde modtaget. Sagen blev
genoptaget og i 2003 blev Sally Clark frikendt og løsladt. Misseren fik det britiske
retsvæsen til at undersøge flere hundrede gamle sager, hvilket førte til at to andre kvinder, der tidligere var dømt for at have myrdet deres børn, blev løsladt fra fængslet.
Opgave 6.2 (Bayes' faktoren – betydningen af øjenvidner)
I et Mecklenburg studie fra 2006 fandt man
at træfsandsynligheden, når øjenvidner skulle identificere en mistænkt i et line-up, var
60%, mens sandsynligheden for falsk alarm
var 3%. Betragt hændelserne:
H : Personen har begået udåden
E : Personen er genkendt ved opstilling foran øjenvidner
78
© Erik Vestergaard – www.matematiksider.dk
a) Bestem Bayes' faktoren for øjenvidneidentifikation, dvs.
P( E H )
c
.
P( E H )
b) Giv en sproglig fortolkning af denne faktor: Hvad kan man sige om a posteriori
odds i forhold til a priori odds?
Antag at a priori odds er 10%, dvs. at P( H ) P( H c ) = 0,10 .
c) Benyt Bayes' formel på odds form fra sætning 34 til at bestemme a posteriori odds
for øjenvidnegenkendelse ved et line-up.
d) Beregn a priori sandsynligheden P ( H ) og a posteriori sandsynligheden P ( H E ) .
Hjælp: Se pointen i opgave 5.0.
Opgave 6.3
Betragt eksempel 40 i afsnit 6. Retsmedicineren havde opgivet sandsynligheden for et
DNA match givet uskyld til at være 1 ud af 200 mio. Forsvareren Mr. Thwaites udfordrede disse tal, idet han mente, at de nærmere skulle drosles ned til enten 1 ud af 20 mio.
eller 1 ud af 2 mio. Benyt samme metode som vist i eksempel 40 til med de to reviderede DNA-sandsandsynligheder at bestemme de tilhørende sandsynligheder for uskyld,
altså P ( H E1, E2 , E3 , E DNA ) .
Opgave 6.4
En person er tiltalt for et mord. Betragt følgende hypoteser:
Hp : Tiltalte er skyldig i mordet
Hd : Tiltalte var ikke på gerningsstedet
Argumenter for, hvorfor disse to hændelser hverken behøver udgøre hele udfaldsrummet tilsammen eller ikke have noget overlap - altså at hændelserne ikke behøver udgøre
en klassedeling af udfaldsrummet.
Opgave 6.5
Vi skal undersøge eksemplet med forsvarerens fejlslutning (Defendant's fallacy) fra
afsnit 6 lidt nøjere. Vi gentager hændelserne:
E1 : Konen er myrdet
E2 : Ægtemanden har været voldelig overfor sin kone igennem længere tid
H : Ægtemanden har myrdet sin kone
Vi gør følgende antagelser:
•
•
•
1 ud af 10 mænd er voldelige overfor deres kone.
1 ud af 5 af de kvinder, som er myrdet, er myrdet af deres mand
50% af de ægtemænd, som har myrdet deres kone, har også været voldelig
overfor konen igennem længere tid.
79
© Erik Vestergaard – www.matematiksider.dk
Vi skal betragte et udtryk for sandsynligheden for at ægtemanden har begået mordet,
givet alle beviser. Det fås ved først at bruge Bayes' formel til at finde et udtryk for den
betingede sandsynlighed P ( H E2 ) og derefter tilføje den ekstra betingelse E1 i hver
sandsynlighed, som figurerer på højre og venstre side i formlen. Det kan vises at være
lovligt rent matematisk. Man får:
P ( H E2 , E1 ) =
P ( E2 H , E1 ) ⋅ P ( H E1 )
P ( E2 H , E1 ) ⋅ P ( H E1 ) + P( E2 H c , E1 ) ⋅ P( H c E1 )
a) Benyt antagelserne ovenfor til at identificere de enkelte sandsynligheder i formlen
ovenfor. Husk i den forbindelse at P( H c E1 ) = 1 − P( H E1 ) . Vis at det giver en
sandsynlighed på knap 56%.
b) Hvad er sandsynligheden for ægtemandens skyld, hvis vi ser bort fra oplysningen
om, at han er voldelig overfor sin kone, altså hvor stor er P ( H E1 ) ?
Opgave 6.6 (DMP – Database Match Probability)
I afsnit 6 kiggede vi på sandsynligheden for i en database med DNA-profiler at finde mindst ét DNA-match.
Vi arbejdede med en RMP (Random
1
Match Probability) på p = 705000000
.
Af vores analyse side 37 fremgår det
umiddelbart, at hvis der er x DNAprofiler i databasen, så er sandsynligheden for at finde mindst ét match givet ved f ( x ) = 1 − (1 − p ) x .
a) Benyt et CAS-værktøj til for ovenstående værdi af p at tegne grafen for funktionen
f. Lad definitionsmængden være fra 0 til 3 mia. Får du samme resultat som grafen
på side 38? Det skulle du gerne.
b) Hvor stor skal databasen være, for at der er 10% sandsynlighed for at finde mindst
ét DNA-match i databasen?
På grafen side 38 ser vi, at grafen ser meget lineær ud det første stykke. Det kan give os
en formodning om at vi kan vise en approksimativ lovmæssighed for sandsynligheden
for mindst ét DNA-match i en database med x DNA-profiler, når x ikke er for stor. I det
følgende må du gerne benytte CAS-værktøj.
c) Benyt differentialregning til at vise at ligningen for tangenten til grafen for f i punktet x = 0 er givet ved udtrykket L( x ) = − ln(1 − p ) ⋅ x , hvor p er RMP.
 − ln(1 − p ) 
d) Vis at lim 
 = 1.
p→∞
p


80
© Erik Vestergaard – www.matematiksider.dk
e) Benyt c) og d) til at konkludere, at for små værdier af p (som i praksis altid er
opfyldt) og ikke for store værdier af x, gælder følgende: f ( x ) ≈ p ⋅ x .
Bemærk at p ⋅ x netop er den såkaldte Database Match Probability, forkortet DMP. Vi
har dermed givet en begrundelse for det rimelige i at bruge denne størrelse.
Opgave 7.1
Lad A, B og C være hændelser i et endeligt sandsynlighedsfelt og antag at P( B, C ) ≠ 0 .
Vis at der da gælder følgende formel:
P( A, B, C )
P ( A B, C ) =
P ( B, C )
Opgave 7.2 (Simpsons paradoks – UC Berkeley)
Et autentisk eksempel på Simpsons paradoks hændte, da det berømte amerikanske University of California Berkeley i 1973 blev sagsøgt for at forfordele kvinder ved optagelse på videregående uddannelser. Tallene viste at mandlige studerende havde nemmere
ved at blive optaget, og forskellen kunne ikke tilskrives tilfældigheder, mente man. Antallet af studerende, som blev optaget og ikke optaget fordelt på køn er angivet i tabellen
nedenfor – for de seks største faggrupper.
UC Berkeley Optagelses data for de seks største fag
Fagområde
A
B
C
D
E
F
Mandlige studerende
Optaget
Ikke optaget
512
313
353
207
120
205
138
279
53
138
22
351
Kvindelige studerende
Optaget
Ikke optaget
89
19
17
8
202
391
131
244
94
299
24
317
a) Bestem optagelsesprocenterne for hvert køn og for hver faggruppe. Udregn desuden
optagelsesprocenterne for de to køn, når alle faggrupper lægges sammen i en pulje.
b) Man kunne foretage en masse statistiske analyser, men du skal blot kigge på tallene
for hver faggruppe for at vurdere, om du mener, at kvinderne er blevet forfordelt.
Hvad med procenterne i tilfældet, hvor alle faggrupper er slået sammen? Hvori består Simpsons paradoks i denne situation? Prøv at formulere det.
c) Forsøg at give en forklaring på, hvorfor procenterne i b) tilsyneladende vi giver et
meget forskelligt billede alt efter om man betragter dem fagruppevist eller totalt.
Hjælp: Eftersom det i Californien er ulovligt at offentliggøre meget specifik statistik om optagelser på universiteterne, er faggrupperne kun angivet med store bogstaver: A, B, …, F. Du kan måske gætte lidt på, hvilke faggrupper de forskellige
bogstaver kan stå for, når man tænker på forskelle i køn …
81
© Erik Vestergaard – www.matematiksider.dk
Opgave 9.1 (Bayes' formel på odds form, når der er flere beviser)
Lad der være givet tre "beviser" E1 , E2 og E3 samt en hypotese H. Vi ønsker at undersøge hvad der sker med a priori odds for H, når der tages hensyn til de tre beviser.
a) Vis at man kan udregne a posteriori odds ved at multiplicere med Bayes-faktorer,
som vist i denne formel:
P( H E1 , E2 , E3 )
P( E3 E2 , E1 , H ) P( E2 E1 , H )
P( E1 H )
P( H )
=
⋅
⋅
⋅
c
c
c
c
P( H E1 , E2 , E3 )
P( H c )
P( E3 E2 , E1 , H ) P( E2 E1 , H ) P( E1 H ) a posteriori odds
Bayes-faktor for E3
Bayes-faktor for E2
Bayes-faktor for E1 a priori odds
b) Vis at hvis beviserne er betinget uafhængige med hypotesen H, så reducerer udtrykket i a) til følgende udtryk:
P( H E1 , E2 , E3 )
P( E3 H ) P( E2 H ) P( E1 H ) P( H )
=
⋅
⋅
⋅
c
c
c
c
c
P( H E1 , E2 , E3 )
P( E3 H ) P( E2 H ) P( E1 H ) P( H )
Man kan altså under disse forudsætninger få a posteriori odds ved at starte med a
priori odds og multiplicere med Bayes-faktoren for hvert enkelt bevis (givet H) et
efter et!
Hjælp: a) Benyt Bayes' formel på odds form fra sætning 34 samt kædereglen. b) Tag udgangspunkt i formlen i a) og udnyt den betingede uafhængighed. Husk i øvrigt at når
man skriver komma imellem hændelser, så underforstås fællesmængde! Således betyder
P ( H E1, E2 , E3 ) det samme som P ( H E1 ∩ E2 ∩ E3 ) .
Opgave 10.1
Betragt det Bayesianske netværk "For sent til arbejde" fra afsnit 10.
a) Benyt teknikken i (37) til at vise, at den marginale sandsynlighedsfordeling for C er
givet ved følgende udtryk (ingen reduktioner er mulige her):
P (C ) =
∑
P (C A, N ) ⋅ P( A M ) ⋅ P ( N M , O ) ⋅ P( M ) ⋅ P(O )
A, N , M ,O
b) Vis på analog vis, at den marginale sandsynlighedsfordeling for A er givet ved følgende udtryk, hvor reduktioner via sætning 29 er mulige:
P( A) =
∑ P( A M ) ⋅ P( M )
M
c) Hvad er sandsynligheden for at Anna kommer for sent på arbejde? Hjælp: Se (38).
d) Hvad er sandsynligheden for at Niels slipper for en reprimande?
82
© Erik Vestergaard – www.matematiksider.dk
Opgave 10.2
Betragt det Bayesianske netværk "For sent til arbejde" fra afsnit 10.
a) Brug teknikken anvist i afsnit 10 til at vise, at den opdaterede marginale sandsynlighed for C givet informationen A = True er givet ved følgende udtryk:
P (C A = True)
=
1
⋅ ∑ P (C A = True, N ) ⋅ P ( A = True M ) ⋅ P ( N M , O ) ⋅ P ( M ) ⋅ P (O )
P ( A = True) N ,O ,M
b) Indsæt C = False på C 's plads i udtrykket under a) og udskriv eksplicit hvert led i
summen á la det vi gjorde i (41). Udregn til slut P (C = False A = True) , altså sandsynligheden for at Niels ikke får en reprimande af chefen, givet at Anna kommer
for sent – ved at indsætte værdierne fra knudepunktstabellerne. Svaret er 57,1%.
Opgave 10.3
I eksempel 50 i afsnit 7 kiggede vi på en situation, hvor Anders, Lise og Ulla overvejede at deltage i byfesten i deres hjemby. Situatuationen kan beskrives i rammerne af et
Bayesiansk netværk. Vi har de stokastiske variable A, L og U. Variablen A kan antage
værdierne True og False, alt efter om Anders detager i byfesten eller ej. Tilsvarende
med de to øvrige personer.
Anders deltager (A)
Anders deltager
0.50
False
True
0.50
Lise deltager (L)
Lise deltager
Anders deltager
False
True
Ulla deltager (U)
Ulla deltager
False
0.75
0.25
True
0.00
1.00
Lise deltager
False
True
False
1.00
0.00
True
0.10
0.90
a) Benyt teknikken fra afsnit 10 til at bestemme de marginale sandsynligheder for de
stokastiske variable A, L og U.
b) Dagen efter fortalte Ulla, at hun var til byfesten. Hvad er sandsynligheden for at
Anders også deltog? Hjælp: Bestem et udtryk for den marginale sandsynlighed for
A givet informationen U = True , altså bestem et udtryk for P ( A U = True ) og indsæt derefter A = True på A 's plads, og indsæt de relevante sandsynligheder fra
knudepunktstabellen.
83
© Erik Vestergaard – www.matematiksider.dk
Opgave 11.1
I stil med det sidste simple eksempel i afsnit 11 skal du i AgenaRisk lave et Bayesiansk
netværk med to knuder og en kant imellem, så det afspejler situationen i anklagerens
fejlslutning side 28-29:
Personen
var ikke på
gerningsstedet
(H)
Personen var ikke på gerningsstedet
0.0002
False
True
0.9998
Blodtype match
(E)
Anklagedes blodtype matcher blod fra gerningssted
True
Personen var ikke på gerningsstedet False
0.00
0.99
False
True
1.00
0.01
Prøv at tilføje evidensen True til knuden E, svarende til at man har registreret blodtype
match mellem anklagede og blodet på gerningsstedet. Får du samme resultat som på
side 29?
Opgave 11.2
I denne opgave skal vi betragte en situation, hvor der ikke blot foretages én test for sygdom som i afsnit 11, men hele to! Vi antager, at begge tests har samme betingede sandsynligheder. Desuden antager vi, at de to tests er betinget afhængige, dvs. knuderne skal
ikke forbindes med en kant!
Personen har
sygdommen (S)
Personen har sygdommen
0.999
False
True
0.001
Test 1 viser positiv
Personen har sygdommen
False
True
Testen viser
positiv (T1)
Testen viser
positiv (T2)
False
0.98
0.02
True
0.05
0.95
False
0.98
0.02
True
0.05
0.95
Test 2 viser positiv
Personen har sygdommen
False
True
a) Hvad er sandsynligheden for at have sygdommen, hvis begge tests viser positiv?
Hjælp: Tilføj evidensen True til både T1 og T2.
b) Hvad er sandsynligheden for at have sygdommen, hvis den første test viser positiv
og den anden negativ?
84
© Erik Vestergaard – www.matematiksider.dk
Opgave 11.3
Ved DNA-beviser er der en særlig problematik, hvis to nært beslægtede personer er
mistænkte i en kriminalsag. DNA profiler hos nære slægtninge er nemlig meget ens. I
det følgende betragter vi en situation, hvor en person er tiltalt og DNA materiale fundet
på gerningsstedet matcher personens DNA. Kriminalpolitiet opdager nu, at tiltaltes
broder også kan have været på gerningsstedet. Spørgsmålet er, hvilken indflydelse det
har på om tiltalte er skyldig? Vores BN med knudepunktstabeller er afbildet nedenfor. I
sidste tabel aflæses for eksempel, at hvis tiltalte er uskyldig og den nære slægtning var
på gerningsstedet, så er der 99,9% sandsynlighed for, at tiltalte er uskyldig.
Nær
slægtning var på
gerningsstedet?
(G)
Tiltalte er
skyldig? (S1)
Nær
slægtning er
skyldig?
(S2)
Der er DNA
match?
(D)
Tiltalte er skyldig?
0.9999
False
True
0.0001
Nær slægtning var på gerningsstedet?
0.9999
False
True
0.0001
Nær slægtning er skyldig?
Tiltalte er skyldig
Nær slægtning var på gern...
False
True
True
False
True
0.50
0.50
False
1.00
0.00
False
Tiltalte er skyldig
Nær slægtning var på gern... False
True
False
0.999999 0.999
True
0.000001 0.001
False
0.00
1.00
False
1.00
0.00
True
1.00
0.00
Der er DNA match?
True
True
0.00
1.00
a) Hvad er sandsynligheden for at tiltalte er skyldig, hvis der er DNA-match? Hjælp:
Tilføj evidensen True til knuden D.
b) Hvad er sandsynligheden for at tiltalte er skyldig, hvis vi tillige får at vide at den
nære slægtning var på gerningsstedet?
© Erik Vestergaard – www.matematiksider.dk
85
Litteratur
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
Norman Fenton, Martin Neil. Risk Assessment and Decision Analysis with Bayesian Networks. CRC Press, 2013.
James V. Stone. Bayes' Rule - A Tutorial Introduction to Bayesian Analysis. Septel Press. First Edition, 2013.
Ole Groth Jørsboe. Sandsynlighedsregning. Matematisk Institut, Danmarks
Tekniske Universitet, 1995.
Richard J. Larsen, Morris L. Marx. An Introduction to Mathematical Statistics
and its Applications. 5th Edition. Prentice Hall, 2012.
Lester L. Helms. Probability Theory – With Contemporary Applications. W. H.
Freeman and Company, 1996.
Dimitri P. Bertsekas, John N. Tsitsiklis. Introduction to Probability. Athena
Scientific, 2002.
Stephen M. Stigler. The History of Statistics - The Measurement of Uncertainty
before 1900. The Belknap Press of Harvard University Press, 1986.
Roger Hahn. Pierre Simon Laplace 1749-1827 - A Determined Scientist. Harvard
University Press, 2005.
Stephen Lucas, Jason Rosenhouse, Andrew Schepler. The Monty Hall Problem,
Reconsidered. Mathematics Magazine, Vol 82, No. 5, Dec. 2009, side 332-342.
A. P. Dawid. Bayes's Theorem And Weighing Evidence by Juries. University College London, 2001 (pdf).
Norman Fenton, Daniel Berger, David Lagnado, Martin Neil, Anne Tsu. When
'neutral' evidence still has probative value (with implications from the Barry
Georg Case). Science and Justice, Vol 54, 2014, page 274-287.
J. Pete Blair, D. Kim Rossmo. Evidence in Context: Bayes' Theorem and Investigations. Police Quarterly, Vol. 13, 2, 2010, page 123-135.
Michael Lynch, Ruth McNally. "Science", "common sense" and DNA evidence: a
legal controversy about the public understanding of science. Public Understanding of Science, 2009.
Ian W. Evett, Bruce S. Weir. Interpreting DNA Evidence – Statistical Genetics for
Forensics Scientists. Sinaur Associates Inc., U.S., 1998.
Jonathan J. Koehler. Error and Exaggeration in the Presentation of DNA Evidence at Trial. Jurimetrics Journal 34, 1993, page 21-39.
Joseph K. Blitzstein, Jessica Hwang. Introduction to Probability. CRC Press
(Chapman & Hall), 2015.
Keith Devlin, Gary Lordon. The Numbers Behind NUMB3RS – Solving Crime
with Mathematics. Plume Books, 2007.
David J. Balding. Christopher D. Steele. Weight-of-Evidence for Forensics DNA
Profiles. Second Edition, John Wiley & Sons, 2015.
Steffen L. Lauritzen, David J. Spiegelhalter. Local Computations with Probabilities on Graphical Structures and Their Application to Expert Systems. Journal of
the Royal Statistical Society, Series B (Methodological), Vol. 50, No. 2 (1988),
pp. 157-224.
86
© Erik Vestergaard – www.matematiksider.dk
Links
Legal Cases involving Bayes (Siden er baseret på offentliggjorte rapporter og personlige
erfaringer. Den indeholder en lang liste med retssager, hvor der har foregået diskussioner af sandsynlighedsmæssig art).
R. v. Denis John Adams (Transskription af appelsagen mod Denis John Adams).
Communicating and Interpreting Statistical Evidence in the Administration of Criminal
Justice (Vejledning til dommere, advokater, kriminaltekniske videnskabsfolk og ekspertvidner – ved Colin Aitken, Paul Roberts, Graham Jackson).
Avoiding Probabilistic Reasoning Fallacies in Legal Practice using Bayesian Networks
(Et udkast til en senere artikel i Australian Journal of Legal Philosophy, af Norman
Fenton og Martin Neil. Mange fine pointer).
Flere gode noter fra siden www.agenarisk.com af Norman Fenton og Martin Neil:
•
•
•
The use of Bayes and causal modelling in decision making, uncertainty and
risk (Om Bayes formel og Bayesianske netværk - ved Norman Fenton og
Martin Neil).
Making Sense of Probability: Fallacies, Myths and Puzzles (Hjemmeside
med en liste over fejlslutninger, myter og gåder ved Norman Fenton).
The “Jury Observation Fallacy” and the use of Bayesian Networks to present Probabilistic Legal Arguments (Med et Bayesiansk netværk demonstreres overraskende effekter, under kendskab til tidligere lignende domfældelser af den anklagede).
Math on Trial
http://www.medicine.mcgill.ca/epidemiology/hanley/tmp/CandHch0102/Math%20on%20Trial.pdf
AgenaRisk (Det britiske firma, som leverer BN løsninger. Ledet af Norman Fenton og
Martin Neil).
HUGIN Expert A/S (Det første firma i verden, som udnyttede Bayesianske netværk
kommercielt. Har udgangspunkt i Aalborg).