Biomatematik - Matematiska institutionen

Att f¨orst˚
a biologiska beteenden genom dynamisk
modellering och matematisk analys
Karam Mansour & Poya Liv¨alven
10th March 2013
Abstract
The world is full of dynamical systems that you could set up models for.
When you observe how networks, people and animals interact, it is the case
of a dynamical system. This is why it is interesting to describe these systems and analyse them with respect to stability and other interesting properties. The following text covers the fundamentals in mathematical analysis
of dynamical systems and models in biology. The focus is primarily on three
models: the chemostat model that describes population growth of bacteria, the
Volterra-Lotka model in population dynamics and FitzHugh-Nagumo’s model
for the electrical communication of neurons. The work is based on studies of
litterature made for the purpose of educating and researching on these aforementioned areas. The target group for this text is an audience interested in
mathematics and biology; maily students in upper secondary school that study
natural sciences and students in the first years of university that study or have
studied mathematics and/or biology.
V¨
arlden ¨
ar full av dynamiska system som man kan st¨
alla upp modeller
f¨
or. N¨
ar man tittar p˚
a hur n¨
atverk, m¨
anniskor och djur samverkar ¨
ar det
ett dynamiskt system det ¨
ar fr˚
aga om. D¨
arf¨
or ¨
ar det intressant att kunna
beskriva dessa system och analysera dessa utifr˚
an stabilitet och andra intressanta egenskaper. Denna text behandlar grunderna i matematisk analys av
dynamiska system och modeller inom biologin. Fokus ligger fr¨
amst p˚
a tre modeller: kemostatmodellen f¨
or bakterietillv¨
axt, Volterra-Lotkas populationsmodell och FitzHugh-Nagumos modell f¨
or neuroners elektriska kommunikation.
Arbetet ¨
ar baserat p˚
a litteraturstudier p˚
a material som gjorts i undervisningsoch forskningssyfte p˚
a dessa ovann¨
amnda omr˚
aden. M˚
algruppen f¨
or denna
text ¨
ar en publik som intresserad av matematk och biologi; mestadels studenter p˚
a gymnasieniv˚
a som studerar naturvetenskap eller studenter som l¨
aser de
f¨
orsta ˚
aren p˚
a universitet, som antingen studerar eller har studerat matematik
och/eller biologi.
Inneh˚
all
1 F¨
orord
1
2 Inledning
3
2.1
Fr˚
agest¨allning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2.2
M˚
algrupper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2.3
Metoder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3 Underliggande matematik
3.1
5
Lite om linj¨ar algebra . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
3.1.1
Egenv¨arden och egenvektorer . . . . . . . . . . . . . . . . . .
5
3.1.2
Linj¨art beroende och linj¨art oberoende . . . . . . . . . . . . .
8
3.2
Ordin¨ara differentialekvationer . . . . . . . . . . . . . . . . . . . . . . 10
3.3
Linj¨ara approximationer av icke-linj¨ara funktioner: tangenter och tangentplan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4 Dynamiska modeller av deterministiska ordin¨
ara differentialekvationer
4.1
4.2
4.3
17
Modellering . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.1.1
Ett enkelt exempel . . . . . . . . . . . . . . . . . . . . . . . . 17
4.1.2
Kemostat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Steady states” och linj¨ariserad stabilitetsanalys . . . . . . . . . . . . 23
4.2.1
Steady states . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2.2
Linj¨arisering . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Lokal stabilitet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5 Geometrisk analys: vektorf¨
alt, fasportr¨
att
35
5.1
Vektorf¨alt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.2
Linj¨ara fasportr¨att . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.3
Nullclines”: en mer systematisk metod . . . . . . . . . . . . . . . . . 39
i
5.4
Globala beteenden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6 Periodiska beteenden
48
6.1
Periodiska banor och gr¨anscykler . . . . . . . . . . . . . . . . . . . . 48
6.2
Ett exempel p˚
a gr¨anscykel . . . . . . . . . . . . . . . . . . . . . . . . 49
6.3
Existens av stabila gr¨anscykler . . . . . . . . . . . . . . . . . . . . . . 50
6.3.1
Van der Pol-ekvationen
. . . . . . . . . . . . . . . . . . . . . 52
6.3.2
Volterra-Lotkas modell
. . . . . . . . . . . . . . . . . . . . . 53
6.3.3
FitzHugh-Nagumos modell II . . . . . . . . . . . . . . . . . . 54
7 Slutord
57
ii
1
F¨
orord
V˚
arterminen 2012, d˚
a vi, f¨orfattarna, fortfarande l¨aste andra ˚
aret p˚
a gymnasiet, kom
vi i kontakt med matematikprofessorn Yishao Zhou vid Stockholms Universitet. Vi
fr˚
agade henne om hon hade n˚
agot bra f¨orslag till v˚
art kommande projektarbete
under tredje ˚
aret p˚
a gymnasiet. D˚
a hon sj¨alv forskade inom och undervisade i kontrollteori och dynamiska system som har stora praktiska till¨ampningar, f¨oreslog hon
omr˚
adet biomatematik som ¨ar en gren av den till¨ampade matematiken.
F¨oreliggande text behandlar just grunderna i matematisk biologi d¨ar fokus ligger
p˚
a dynamiska modeller och system inom biologin. Anledningen till att vi valt att
genomf¨ora detta arbete ¨ar att vi uppt¨ackt att matematiken ¨ar v¨al f¨orankrad i tekniken samt naturvetenskaperna fysik och kemi, d¨aremot ¨ar den matematiska grenen
inom biologin relativt ung och outforskad i j¨amf¨orelse med de andra. D¨arf¨or har vi
valt att skriva en introduktion till matematisk biologi. L¨arob¨ocker inom ¨amnet ¨ar i
allm¨anhet sv˚
artillg¨angliga, sv˚
ara och ok¨anda f¨or individer som inte ¨ar aktiva inom
disciplinen, vilket ¨ar f¨orklarligt d˚
a den biologiska verkligheten ¨ar otroligt komplex,
vi beh¨over bara titta p˚
a den otroliga biologiska m˚
angfald omkring oss f¨or att inse
detta. Biologiundervisningen p˚
a fr¨amst gymnasie- och h¨ogskoleniv˚
a ¨ar och har ocks˚
a
blivit otroligt bristf¨allig och fattig vad g¨aller matematik, trots att matematiken a¨r
ett mycket kraftfullt verktyg i jakten p˚
a en biologisk sanning. Samtidigt har matematik, teknik och naturvetenskaperna f˚
att ett minskat anseende i samh¨allet d˚
a
ara och tr˚
akiga f¨or allm¨anheten trots att i princip allting som
¨amnena kan verka sv˚
vi anv¨ander oss av i vardagen har sin grund i dessa. Vi tror att detta beror p˚
a att
undervisningen inom fr¨amst matematiken blivit f¨or teoretisk och att m¨anniskor har
sv˚
art till att relatera till ¨amnet i fr˚
aga. D¨arf¨or kommer texten f¨ors¨oka konkretisera matematiska koncept s˚
a gott det g˚
ar och f¨ors¨oka f˚
a l¨asaren att inse vikten av
matematik som verktyg.
Texten ¨ar grovt sett indelad i tre huvuddelar, n¨amligen: Teoretisk bakgrund, exem-
1
pelifiering samt analys av biologiska system.
Vi vill tacka v˚
ar handledare professor Yishao Zhou vid Stockholms Universitet som
alltid funnits d¨ar n¨ar vi beh¨ovt det. Vi vill tacka henne f¨or hennes ov¨arderliga hj¨alp,
t˚
alamod och kunskap som ledde till att vi genomf¨orde detta arbete som en del i
kursen Projektarbete 100p i den svenska gymnasieskolan. Samtidigt vill vi ocks˚
a
rikta ett stort tack till Lennart Malmqvist som varit en givande projekthandledare
med bra tips och kunskap som vi tagit till oss utav.
VT 2013
Poya Liv¨alven & Karam Mansour
2
2
2.1
Inledning
Fr˚
agest¨
allning
Hur kan man med hj¨alp av matematik beskriva dynamiska modeller och system
inom biologin?
2.2
M˚
algrupper
M˚
algruppen ¨ar intresserade studenter, b˚
ade p˚
a gymnasial niv˚
a och h¨ogskoleniv˚
a.
F¨or att f˚
a ut och f¨orst˚
a s˚
a mycket som m¨ojligt av texten, kr¨avs det att l¨asaren
¨ar intresserad och har en djup och bred kunskap inom gymnasiematematiken, med
f¨ordel om man l¨ast grundkurser p˚
a universitetet. F¨or ¨arlighetens skull kan vi s¨aga
att den matematiska formalismen i texten och de koncept som tas upp, inte alltid
ar vissa delar direkt utan m˚
aste
¨ar enkla och d¨arf¨or kan det h¨anda att man inte f¨orst˚
g˚
a tillbaka till ev. studentlitteratur. D˚
a matematiken f˚
att stort utrymme kommer
texten ibland upplevas v¨aldigt kr˚
anglig och on¨odigt byr˚
akratisk, men detta ¨ar ett
n¨odv¨andigt ont f¨or att beskriva den komplexa verklighet vi lever i s˚
a korrekt som
m¨ojligt i matematiska termer. Biologin kommer d¨aremot vara mer l¨attsm¨alt, d¨ar
endast kunskaper i grundl¨aggande biologi kr¨avs.
2.3
Metoder
I texten anv¨andes litteraturstudier om redan existerande modeller och teorier inom det ber¨orda omr˚
adet, ist¨allet f¨or att sj¨alva arbeta med att bevisa dessa. Detta
eftersom syftet var att integrera matematiken med biologin och inte g¨ora en rent
matematisk text med h¨arledningar och bevisningar. Litteraturen som anv¨andes var
s˚
adan som har nyttjats och nyttjas vid undervisning och forskning vid h¨ogskolor och
universitet, d.v.s. vetenskapligt material som ¨ar skrivet och godk¨ant av auktoriteter inom omr˚
adet. Genom k¨allkritik, valdes materialet som arbetades med ut efter
3
f¨oljande kriterier:
1. Vem ¨ar f¨orfattaren?
¨ materialet tendenti¨ost?
2. Ar
¨ informationen aktuell?
3. Ar
¨ materialet granskat och godk¨ant?
4. Ar
¨ k¨allan en l¨arobok eller dylikt?
5. Ar
Materialet erh¨olls fr¨amst av professor Zhou p˚
a Stockholms Universitet eller efter
¨
rekommendation av henne. Aven
biblioteket p˚
a Kungsholmens gymnasium konsulterades och uppmanades att k¨opa in b¨ocker och kurslitteratur som ber¨or ¨amnet.
¨
Aven
internet anv¨andes med fokus p˚
a hemsidor och material kopplat till universitet
och h¨ogskolor.
Huvudk¨allan i texten ¨ar Mathematical Models in Biology som ¨ar skriven av Leah
Edelstein-Keshet, professor i matematisk biologi vid University of British Columbia.
Boken ¨ar utgiven 2005 av SIAM, Society for Industrial and Applied Mathematics, en
organisation som startade 1951 f¨or att matematiker skulle kunna utbyta id´eer och
utvecklas. Boken anses d¨arf¨or vara en s¨aker k¨alla d˚
a den anv¨ants flitigt i undervisning
samt att den ¨ar godk¨and av matematiker och biologer runtom i v¨arlden.
De flesta av bilderna och simuleringarna ¨ar antingen gjorda f¨or hand eller i datorprogrammet Mathematica som anv¨ands flitigt av matematiker och ingenj¨orer. Alla
ber¨akningar har ¨aven dubbelkollats i programmet f¨or att s¨akerst¨alla att de ¨ar korrekta. Ett f˚
atal figurer ¨ar tagna fr˚
an boken Mathematical Models in Biology.
Det har ¨aven tagits hj¨alp i sakfr˚
agor av professor Yishao Zhou, som m¨ottes med
f¨orfattarna i genomsnitt en-tv˚
a g˚
ang i veckan p˚
a antingen Stockholms Universitet eller p˚
a Kungsholmens gymnasium. F¨orutom dessa m¨oten med Yishao har f¨orfattarna
arbetat tillsammans i genomsnitt en-tv˚
a g˚
anger i veckan och ¨aven arbetat enskilt
n¨ar tillf¨alle funnits.
4
3
Underliggande matematik
Som en introduktion till arbetet ¨ar det viktigt att l¨asaren har lite kunskaper om
linj¨ar algebra, ordin¨ara differentialekvationer samt linj¨arapproximationer av flervariabelfunktioner. F¨or att l¨asaren ska f˚
a denna grund b¨orjar vi med en introduktion
till ovann¨amnda matematiska begrepp. Huvudk¨allan f¨or teori och exempel ¨ar Linear Algebra with Applications [Le10] , Analys i en variabel [BP10] och en del av
kursmaterial fr˚
an Stockholms Universitet (SU) [Ta11, Ta10, BV12, Bø12].
3.1
3.1.1
Lite om linj¨
ar algebra
Egenv¨
arden och egenvektorer
Egenv¨arden och egenvektorer ¨ar matematiska begrepp som har sina viktiga anv¨andningsomr˚
aden n¨ar man behandlar dynamiska problem, ex. hur populationer f¨or¨andras, hur
vibrationer fortplantar sig och v˚
agfenomen i allm¨anhet. Vi ger f¨oljande definition:
Definition 3.1. L˚
at A vara en n × n matris. Talet λ (ett i allm¨anhet komplext tal)
och vektorn x (med komplexa tal som komponenter generellt sett), kallas egenv¨arde
respektive egenvektor av A om,
Ax = λx,
x 6= 0.
(1)
Egenv¨ardesproblem kan sammanfattas som att en matris A manipulerar en vektor
x lika med en konstant (i detta fall λ ) s˚
a att den f¨orl¨angs, f¨orkortas eller beh˚
aller
sin l¨angd samt att den beh˚
aller sin riktning eller antar den motsatta. Alla matriser
som behandlas i denna text ¨ar reella. Observera att detta inte inneb¨ar att λ och
x ska vara reella. Hur l¨oser vi ut λ och x? Vid f¨orsta anblick, observerar vi att vi
ska l¨osa n + 1 ok¨anda fr˚
an n icke-linj¨ara ekvationer. Men en n¨armare fundering p˚
a
hur ett linj¨art system kan l¨osas om λ ¨ar fixt, ger oss hopp att kunna l¨osa λ och x
5
separat. Detta f¨oljer av f¨oljande resonemang: (1) kan skrivas som
(A − λI)x = 0
(2)
d¨ar I ¨ar en n × n enhetsmatris. I fallet d¨ar λ ¨ar fixt s˚
a kan vi l¨osa x 6= 0 fr˚
an
ekvationssystem (2). Vi vet, enligt teorin f¨or linj¨ara ekvationssystem, att ekvationsystsmet (2) har en icketrivial l¨osning (dvs. x 6= 0) om och endast om det(A−λI) 6= 0.
D¨arav om x 6= 0 som kr¨avs f¨or att x ska vara en egenvektor, leder det till:
det(A − λI) = 0.
Vi kan visa att det(A − λI) ¨ar ett n:te grads polynom s˚
a λ kan l¨osas ut genom
den ovanst˚
aende polynomekvationen. N¨ar vi har f˚
att λ s˚
a kan vi l¨osa ekvationssystemet (2). Ekvationen det(A − λI) = 0 kallas f¨or den sekul¨ara ekvationen eller den
karakteristiska ekvationen f¨or matrisen A.
Vi g˚
ar vidare med ett exempel:


3 2
.
Exempel 3.2. Hitta egenv¨ardena och egenverktorerna till A om A = 
3 −2
 
x1
L¨osning: Enligt (2) kan vi g¨ora f¨oljande omskrivning om vi antar att x =  .
x2


3−λ
2
x = 0
(A − λI)x = 0 ⇔ 
3
−2 − λ
(3)
Vilket enligt teoridelen ovan leder till ett polynom, p(λ):
3 − λ
2 = (3 − λ)(−2 − λ) − 6
p(λ) = det(A − λI) = 3
−2 − λ
6
(4)
I detta fall blir p(λ) = (3 − λ)(−2 − λ) − 6 och om vi finner r¨otterna till p(λ) f˚
as
egenv¨ardet. p(λ) = 0 ⇔ λ2 − λ − 12 = 0 ⇔ λ1 = 4, λ2 = −3. Vi har nu funnit
egenv¨ardena och f¨or att finna egenvektorerna tillh¨orande egenv¨ardena
aste vil¨osa
 m˚
−1 2
.
(A − λI)x = 0. Vi b¨orjar med fallet d˚
a λ = 4, det ger att A − 4I = 
3 −6
 
x
−1 2
  1  = 0.
(A − 4I)x = 0 ⇔ 
3 −6 x2

(5)
  

0
−x1 + 2x2
 =  .
(5) kan skrivas om till f¨oljande: 
0
3x1 − 6x2
Med hj¨alp av gauss-jordan-elimination (en metod att l¨osa bl.a. ekvationsystem
 ge
2x2
nom att skriva systemet p˚
a matrisform) f˚
as sedan att x1 = 2x2 vilket ger x =  .
x2
 
2
Vi kan nu v¨alja enklast m¨ojliga egenvektor om x2 = 1, x =  . Med samma reso1
nemang som ovan kan
a λ = −3: Kalla egenvektorn f¨or
 man
 ber¨akna egenvektorn d˚
1
y, det ger att y =  .
−3
Anm¨arkning: N˚
agot intressant att till¨agga till detta
om man tittar p˚
a den
 ¨ar att 
a11 a12
 och ber¨aknar p(λ) =
karakteristiska ekvationen till en 2 × 2-matris A = 
a21 a22
2
det(A − λI) = (a11 − λ)(a22 − λ) − a12 a21 = λ − βλ + γ s˚
a f˚
ar vi att
def
β = a11 + a22 = tr(A)
(6)
och
def
γ = a11 a22 − a12 a21 = det(A),
(7)
vilket kan f¨orenkla eventuella r¨akneproblem. L˚
at s¨aga att vi ska ber¨akna r¨otterna
7
√
till p(λ) som ¨ar ett andragradspolynom, d˚
a f˚
ar vi att λ =
3.1.2
β±
β 2 −4γ
.
2
Linj¨
art beroende och linj¨
art oberoende
I v˚
ar studie beh¨over vi ¨aven anv¨anda oss av begrepp som linj¨art beroende respektive
oberoende vektorer. Vi n¨ojer oss bara med definitionenen i fallet med tv˚
a och tre
dimensioner eftersom vi i denna text endast beh¨over dessa. Geometriskt sett ¨ar tv˚
a
vektorer i planet linj¨art oberoende om de inte ¨ar parallella. Annars s¨ager vi att de
¨ar linj¨art beroende. Med andra ord ¨ar vektorerna v1 och v2 parallella om den ena
kan skrivas som linj¨ar kombination av den andra. Mer precist finns det ett tal α s˚
a
att v1 = αv2 . S˚
aledes kan vi p˚
ast˚
a att v1 och v2 ¨ar linj¨art oberoende om och endast
om α1 v1 + α2 v2 = 0 medf¨or att α1 = α2 = 0. Det ¨ar sj¨alvklart att tre vektorer eller
flera i planet alltid ¨ar linj¨art beroende. Det maximala antalet av linj¨art oberoende
kolonner i en matris A kallas f¨or matrisrangen eller rangen f¨or A.
P˚
a samma s¨att s¨ager vi att vektorerna v1 , v2 , ..., vk (d¨ar k ¨ar ett positivt heltal) ¨ar
linj¨art oberoende i rummet om α1 v1 + α2 v2 + ... + αk vk = 0 medf¨or att α1 = ... =
αk = 0. Notera att detta kan generaliseras till Rn eller ett godtyckligt vektorrum. S˚
a
tre vektorer i rummet ¨ar linj¨art oberoende om och endast om de inte ligger i n˚
agot
plan. Fyra vektorer eller flera ¨ar alltid linj¨art beroende i rummet.
 
 
2
1
Exempel 3.3. Tag vektorerna fr˚
an tidigare exempel x =  , y =  . De ¨ar
1
−3
linj¨art oberoende eftersom α1 x + α2 y = 0 bara har den entydiga l¨osningen α1 =
0, α2 = 0. Detta f¨oljer av att l¨osa f¨oljande ekvationssystem
α1 x + α2 y = 0
⇔
2α1 + α2 = 0,
α1 − 3α2 = 0
8
Observera att l¨osningen ¨ar entydig och ekvivalent med att
2 1 6= 0.
1 −3
Generellt kan vi visa:
Sats 3.4. L˚
at A vara en n × n-matris, λ och µ vara tv˚
a olika egenv¨arden till A
och u, v vara motsvarande egenvektorer. D˚
a ¨ar u och v linj¨art oberoende. Det g¨aller
ocks˚
a att om det(A) 6= 0, inneb¨ar det att kolonnerna i A ¨ar linj¨art oberoende.
Bevis: Vi har att λ 6= µ och att Au = λu, Av = µv. Vi ska visa att detta leder till
ekvationen: αu + βv = 0 som ska ha triviall¨osningen α = β = 0.
1. Antag nu ist¨allet att vi har αu + βv = 0 d¨ar α 6= 0. Vi kan utf¨ora vanliga
aritmetiska operationer p˚
a denna ekvation och skriver om den till u =
−β
v.
α
D˚
a ¨ar
Au = A(− αβ v) = − αβ Av = − αβ µv. ˚
A andra sidan ¨ar Au = λu = λ(− αβ v). D¨arf¨or
blir − αβ µv = λ(− αβ v) eller (λ − µ) αβ v = 0 vilket medf¨or att v = 0 eftersom λ och
µ ¨ar olika och β ¨ar nollskild. Det ¨ar en mots¨agelse mot att v ¨ar en egenvektor som
inte kan bli nollvektorn per definition.
h
i
2. Antag att A = u1 . . . un d¨ar ui a¨r en kolonnvektor och i ∈ N. Antag ocks˚
a
att alla dessa vektorer ¨ar linj¨art oberoende. d.v.s. att α1 u1 + . . . + αn un = 0 medf¨or
h
i
att α1 = . . . = αn = 0. Vi kan skriva detta som att Aα = 0 d¨ar A = u1 . . . un
 
α
 1
 .. 
aste det(A) 6= 0 enligt
och α =  . . F¨or att denna ska ha triviall¨osningen α = 0 m˚
 
αn
teori f¨or l¨oslighet av ekvationssystem.
Som en f¨oljd kan vi s¨aga att det finns en inverterbar matris P = [u, v] s˚
a att
AP = P Λ
9


λ 0
. Det ¨ar detsamma som p˚
ast˚
aendet att det finns
d¨ar Λ ¨ar en diagonalmatris: 
0 µ
en inverterbar matris P s˚
a att
P −1 AP = Λ.
En mer generell sats kan formuleras som
Sats 3.5. Antag att en n × n-matris A har n st distinkta egenv¨arden. D˚
a finns det
en inverterbar matris P s˚
a att P −1 AP = Λ med Λ som diagonalmatris.
Om A kan transformeras till en diagonalmatris s¨ager vi att A ¨ar diagonaliserbar.
3.2
Ordin¨
ara differentialekvationer
M˚
anga modeller inom biologin behandlar f¨orlopp som f¨or¨andras, ex. ¨over tid eller
en annan given variabel. F¨or¨andringar kan matematiskt beskrivas med differentialkalkyl, men ibland kan f¨or¨andringarna vara beroende av grundfunktionen.
Differentialekvationer ¨ar till skillnad fr˚
an algebraiska ekvationer, ekvationer som
best˚
ar av en funktion och dess derivator som oberoende variabler, d¨ar uppgiften
ofta best˚
ar i att finna den ursprungliga funktionen (det kan vara ett o¨andligt antal
funktioner). Olika differentialekvationer kan inneh˚
alla olika m˚
anga oberoende variabler. Ordin¨ara differentialekvationer (ODE) ¨ar de som endast best˚
ar av en funktion
och dess derivator. Exempelvis ¨ar h(t)y(t)+g(t)y 0 (t) = k(t) d¨ar y(t) ¨ar den beroende
variabeln, t den oberoende och g(t) 6= 0 en s.k. ordin¨ar, inhomogen differentialekvation av f¨orsta ordningen: att den ¨ar inhomogen inneb¨ar att k(t) 6= 0 och att den ¨ar av
f¨orsta ordningen inneb¨ar att den inneh˚
aller f¨orstaderivatan till den s¨okta funktionen
y(t). Detta ¨ar dock endast ett exempel och en ordin¨ar differentialekvation kan vara
homogen (k(t) = 0) och kan inneh˚
alla h¨ogre ordningens derivator.
F¨or att l¨osa en ODE av f¨orsta ordningen av typen
y 0 (t) = h(t)y(t) ⇔
10
dy
= h(t)y(t)
dt
(8)
kan man separera variabler s˚
a att den kan skrivas om s˚
a att variabeln respektive
differentialen hamnar p˚
a samma sidor av likhetstecknet. Ekvation (8) kan separeras
p˚
a detta vis, b˚
ada led multipliceras med dt och divideras med y(t)
dy
dy
= h(t)y(t) ⇔
= h(t)dt.
dt
y(t)
F¨or att bli av med differentialerna m˚
aste vi finna de primitiva funktionerna till b˚
ada
led.
Z
dy
=
y(t)
Z
h(t)dt ⇔ ln |y(t)| = H(t) + C
(9)
d¨ar H(t) ¨ar primitiv funktion till h(t). F¨or att f˚
a fram l¨osningen till (8) med ett
explicit uttryck y(t) skriver vi om (9). S˚
aledes y(t) = eH(t)+C = DeH(t) .
Exempel 3.6. L¨os differentialekvationen
dx
dt
= ax med bivillkoret x(0) = x0 och a en
parameter.
L¨osning: Vi b¨orjar med att separera variabler och f˚
ar att
dx
x
= adt. Vi integrerar b˚
ada
led och f˚
ar att ln |x(t)| = at + C ⇔ x(t) = Deat och med villkoret att x(0) = x0
f˚
as att D = x0 vilket ger att den slutgiltiga l¨osningen tll denna differentialekvation
¨ar att x(t) = x0 eat .
Med detta exempel och diagonalisering av en matris i bakhuvudet kan vi med linj¨ar
algebra ocks˚
a l¨osa linj¨ara differentialekvationssystem med konstanta koefficienter f¨or
t ∈ [a, b]:



y10 = a11 y1 + a12 y2 + ... + a1n yn




 y 0 = a y + a y + ... + a y
21 1
22 2
2n n
2
..


.




y 0 = a y + a y + ... + a y
n1 1
n2 2
nn n
n
(10)
med bivillkoret yi (a) = y¯i . Detta system har en entydig l¨osning yi = fi (t) : [a, b] → R
(i = 1, .., n).
11
 
 


0
y
y
a
a
... a1n
 1
 1
 11 12

 
 0


 y2  0  y2 
 a21 a22 ... a2n 

 

, kan vi skriva (10)
Om vi l˚
ater Y = 
 .. , Y =  ..  och A =  ..

.
.
 .

 
 


0
yn
yn
an1 an2 ... ann
0
som Y = AY.
Om A ¨ar diagonaliserbar s˚
a finns det en inverterbar matris P s˚
adan att A = P ΛP −1 .
h
iT
Nu g¨or vi ett variabelbyte Y = P Z, d¨ar Z = z1 z2 · · · zn . Det leder till n
stycken icke-kopplade ekvationer
zi0 (t) = λi zi (t)
med relaterade bivillkoren f¨or zi (a). D˚
a f˚
as l¨osningen zi (t) = zi (a)e−λi t .
Vi avslutar detta delavsnitt med ett kommenterande exempel om hur ett allm¨ant
system av f¨orsta ordningens differentialekvationer kan se ut.
Exempel 3.7 (van der Pols ekvation). Balthasar van der Pol var en holl¨andsk fysiker
som arbetade mycket med radiov˚
agor och elektriska kretsar. Inom det sistn¨amnda
omr˚
adet uppt¨ackte han sin ekvation nedan som idag har mycket stor betydelse inom
det mesta som har med oscillationer att g¨ora, alltifr˚
an hur pace-makers utformas
och programmeras till seismologisk modellering.
Betrakta ekvationen
x00 (t) + ε(x2 − 1)x0 + x = 0.
Inf¨or tillst˚
andsvariablerna x1 = x, x2 = x0 . D˚
a x01 = x2 och
x02 = x001 = −ε(x2 − 1)x0 − x = −ε(x21 − 1)x2 − x1
12
Nu har vi ett system av tv˚
a differentialekvationer av f¨orsta ordningen:

 x01 = x2
(11)
 x0 = −ε(x2 − 1)x − x .
2
1
1
2
V˚
ar slutsats ¨ar att h¨ogre ordningens differentialekvationer kan tranformeras till system av f¨orsta ordningens differentialekvationer.
3.3
Linj¨
ara approximationer av icke-linj¨
ara funktioner: tangenter och
tangentplan
M˚
anga modeller inom biologin kan beskrivas med hj¨alp av icke-linj¨ara funktioner.
Dessa funktioner har till f¨ordel att de ¨ar omfattande och v¨al beskriver den biologiska
verkligheten. I praktiken ¨ar de dock ofta v¨aldigt komplexa att arbeta med, i m˚
anga
fall kr¨avs datorsimulationer och sv˚
ara ber¨akningssteg f¨or att f˚
a fram vettiga resultat.
F¨or att f¨orenkla ber¨akningarna kan man oftast g¨ora goda approximationer till ickelinj¨ara funktioner genom att anv¨anda sig av linj¨ara funktioner i en liten omgivning
av den punkten av intresse.
Ett exempel a¨r att man kan uppskatta en differentierbar funktion y = f (x) p˚
a
intervallet I =]a, b[ i en punkt x = x0 ∈ I genom att ers¨atta funktionen med dess
tangent (p˚
a formen L(x) = ax+b) i den givna punkten (och en v¨aldefinierad n¨arhet).
L(x) − f (x0 ) = f 0 (x0 )(x − x0 ) ⇔ L(x) = f 0 (x0 )(x − x0 ) + f (x0 )
(12)
L(x) kallas f¨or tangenten i punkten x0 . Detta resonemang g¨aller f¨or de flesta funktioner av en variabel, f¨orutsatt att f (x) ¨ar deriverbar i x = x0 .
Exempel 3.8. Antag att f (x) = 3x3 − 2x2 + x, finn tangentens ekvation i punkten
x = 1.
13
L¨osning:
I punkten (1, 2) f˚
as att tangentens ekvation enligt (12) ¨ar L(x) = 6x − 4. Vi kan
illustrera detta i en figur p˚
a f¨oljande s¨att
Grafen f¨or funktionen samt dess tangent f¨or exemplet ovan.
F¨or flervariabelfunktioner (i detta fall tv˚
a variabler) kan man generalisera detta med
tangentplan. Tangentplan ¨ar, i likhet med tangenter, plan som tangerar funktionen
i en viss punkt. Antag att vi har en differentierbar funktion z = f (x, y) p˚
a omr˚
adet
D = {(x, y), x ∈ ]a, b[, y ∈ ]c, d[}, och att vi vill approximera funktionen i punkten
(x0 , y0 ) ∈ D med en linj¨ar funktion L(x, y).
L(x, y) = f (x0 , y0 ) +
∂f
∂f
(x0 , y0 )(x − x0 ) +
(x0 , y0 )(y − y0 )
∂x
∂y
(13)
Exempel 3.9. Antag att du har f¨oljande flervariabelfunktion f (x, y) = 1 − x2 − y 2 ,
ber¨akna tangentplanet i punkten ( 21 , 14 , 11
).
16
L¨osning:
) f˚
as enligt (13) att tangentplanet har f¨oljande ekvation z = −x −
I punkten ( 12 , 14 , 11
16
1
y
2
+
21
.
16
I en figur kan detta illustreras som:
14
Grafen f¨or funktionen samt dess tangentplan f¨or exemplet ovan.
Generalisering av detta till fler variabler a¨n tv˚
a utel¨amnas. Observera att differentiebarhet ¨ar ett mycket mer komplicerat begrepp n¨ar det talas om flervariabelfuntioner
¨an f¨or envariabelfunktioner. F¨or mer diskussion om detta h¨anvisar vi till [Ta11].
Tangenter och tangentplan a¨r egentligen specialfall av taylorserier, en metod att
approximera en funktion med polynom om funktionen ¨ar tillr¨ackligt m˚
anga g˚
anger
differentierbar i en viss punkt.
Sats 3.10 ([BP10]). En envariabelsfunktion, f (x) som ¨ar n + 1 g˚
anger kontinuerlig
differentierbar p˚
a intervallet I ∈]a, b[ kan approximeras i punkten x = x0 ∈ I med
ett polynom:
p(x) = f (x0 )+f 0 (x0 )(x−x0 )+
f (n) (x0 )
f (n+1) (ξ)
f 00 (x0 )
(x−x0 )2 +...+
(x−x0 )n +
(x−x0 )n+1
2!
n!
(n + 1)!
(14)
d¨ar ξ ¨ar en punkt mellan x0 och x.
Formeln ovan kallas f¨or Taylors formel och de n + 1 f¨orsta termerna kallas f¨or taylorpolynomet till f (x) medan den sista termen kallas f¨or resttermen. Som man kan
observera ¨ar de tv˚
a f¨orsta termerna i taylorutvecklingen densamma som tangentens
ekvation, detta g¨aller ¨aven f¨or funktioner av fler variabler och vi n¨ojer oss med att
15
formulera formeln f¨or funktioner i tv˚
a variabler.
∂f
∂f
f (x, y) =f (a, b) +
(a, b)(x − a) +
(a, b)(y − b)
∂x
∂y
1 ∂ 2f
∂ 2f
∂ 2f
2
2
+
(a, b)(x − a)(y − b) + 2 (y − b) + ...
(a, b)(x − a) + 2
2 ∂x2
∂x∂y
∂y
D¨ar (a, b) ¨ar den punkt vi vill taylorutveckla i.
F¨or enkelhets skull (men inte lika matematiskt stringent) skriver vi ... i formeln ovan
med H.O.T. (h¨ogre ordningens termer), vilket kan vara 2 eller 3 ... beroende av hur
exakt vi vill approximera. I v˚
ar text beh¨over vi bara de linj¨ara termerna.
16
4
Dynamiska modeller av deterministiska ordin¨
ara differentialekvationer
I detta avsnitt diskuterar vi f¨oljande ¨amnen: dynamiska modeller av ordin¨ara differentialekvationer, deras formuleringar samt analys och tolkningar i biologin. Vi
fokuserar speciellt p˚
a l¨ampliga antaganden, f¨orenklingar av problem, hur viktiga
variabler identifieras och hur differentialekvationer beskriver essensen av biologiska processer. Huvudk¨allorna f¨or detta avsnitt ¨ar Mathematical Models in Biology
[EK05], Fundamentals of Computational Neuroscience [Tr10] och Mathematics, Its
Content, Methods and Meaning [AK99].
4.1
4.1.1
Modellering
Ett enkelt exempel
Vi b¨orjar med ett mycket enkelt exempel som behandlar hur man modellerar expontiell tillv¨axt: L˚
at N (t) vara det totala antalet bakteriella celler observerade i tiden
t. Vi antar att det ¨ar m¨ojligt att observera hur en enkel bakteriell cell delas ¨over en
period av en tidsenhet. N¨asta generation av celler delas och s˚
a vidare, vilket leder
till totalt K nya bakteriella celler. Vi definierar tillv¨axt av bakterier med konstanten
K d¨ar K > 0, dvs att K ¨ar tillv¨axt per tidsenhet. Nu antar vi att vi har observerat
antalet bakterier i tv˚
a mycket n¨ara tider t och t + h, d¨ar h a¨r mycket litet. Vi antar
vidare att d¨odligheten ¨ar f¨orsumbar. D˚
a finner vi relationen
N (t + h) ≈ N (t) + KN (t)h.
Allts˚
a ¨ar det totala antalet bakteriella celler vid tiden t+h ungef¨ar lika med summan
av antalet vid tiden t och till¨okning i antalet p˚
a grund av tillv¨axt under tidsintervallet
17
h. Detta inneb¨ar att
N (t + h) − N (t)
= KN (t).
h
dN
(t),
dt
L˚
at h → 0, d˚
a konvergerar v¨ansterledet mot
vilket ger:
dN
= KN.
dt
Vi kan l¨osa denna differentialekvation med variabelseparation:
dN
= Kdt ⇒
N
Z
dN
=
N
Z
Kdt ⇒ ln N = Kt + c.
(15)
H¨ar kan vi best¨amma konstanten c genom begynnelsv¨ardet f¨or N dvs, i t = 0 har
vi ln N0 = c. Vi f˚
ar ln(N (t)/N0 ) = Kt. Med andra ord
N (t) = N0 eKt
(exponentiell tillv¨axt).
Den biologiska tolkningen av denna l¨osning ¨ar: Bakteriella populationer v¨axer exponetiellt s˚
a l¨ange det finns tillr¨acklig tillg˚
ang till n¨arings¨amnen.
Observera att tillg˚
angen till n¨arings¨amnen i verkligheten inte alltid a¨r obegr¨ansad.
Detta implicerar att K varierar med tiden. D˚
a blir l¨osningen
Rt
N (t) = N0 e
0
K(s)ds
.
En annan m¨ojlighet ¨ar att tillv¨axten direkt beror p˚
a resurser till populationen, t ex
beror den p˚
a niv˚
an av n¨arings¨amnen kvar i flaskan. S˚
a vi antar att K ¨ar proportionell
med n¨aringskoncentrationen C:
K(C) = κC.
Vidare antar vi att α enheter av n¨arings¨amnen ¨ar konsumerade i produktion av
18
en populationsenhet. Det inneb¨ar att bakterietillv¨axten och n¨arnings˚
atg˚
angen kan
beskrivas med tv˚
a ekvationer:
dN
= K(C)N = κCN
dt
dC
dN
= −α
= −ακCN.
dt
dt
Detta system av differentialekvationer kan l¨osas p˚
a f¨oljande s¨att:
dN
dC
= −α
⇒
dt
dt
Z
Z
dC = −α
dN ⇒ C(t) = −αN (t) + C0
d¨ar C0 = C(0) + αN (0) ¨ar en konstant. Om populationen ¨ar mycket liten i b¨orjan ¨ar
C0 ungef¨ar lika mycket som n¨aring i flaskan i b¨orjan. Ins¨attningen av C(t) ekvationen
f¨or N f˚
as:
dN
= κ(C0 − αN )N.
dt
˚
Aterigen anv¨ander vi oss av variabelseparation och kan l¨osa ekvationen s˚
a h¨ar:
dN
= κdt ⇔
(C0 − αN )N
Partialbr˚
aksuppdela v¨ansterledet
R
R
R 1 α
1
dN
=
κdt
⇔
+
C 0 C0 −αN
N
Z
dN
=
(C0 − αN )N
αdN
C0 −αN
+
R
dN
N
=
R
Z
κdt.
C0 κdt ⇔
R
dN
C0
−N
α
+
R
dN
N
C0 κt + C.
Detta leder till att
ln
N
= C0 κt + C
C0
−N
α
!
⇔ N (t) =
Vi har s˚
aledes att
N (t) =
Cˆ
C0 ˆ C0 κt
Ce
α
ˆ C0 κt
1 + Ce
=
Cˆ
C0 ˆ
C
α
.
+ e−C0 κt
C0 ˆ
C
α
+ e−C0 κt
d¨ar Cˆ a¨r en integrationskonstant som best¨ams av initialpopulationens v¨arde,
19
C0
α
¨ar
=
b¨arf¨orm˚
agan f¨or systemet och konstanten C0 κ ¨ar den inneboende tillv¨axtparametern”.
L¨osningen visar att populationen n˚
ar b¨arf¨orm˚
agan d˚
a t ¨ar mycket stort medan systemet f¨or sm˚
a v¨arden p˚
a t i princip v¨axer exponentiellt.
4.1.2
Kemostat
I detta avsnitt b¨orjar vi med lite bakgrund av bakteriell f¨or¨okning i en laboratoriemilj¨o, Kemostat. V˚
ar huvudreferens ¨ar [EK05].
Matematisk modell. L˚
at V vara den konstanta volymen av kulturv¨atskan i en bioreaktor, F vara (konstant och lika med) infl¨odet i vol/sek, (t.ex. m3 /s), N vara den
bakteriella populationst¨atheten i massa/vol, (t.ex g/m3 ), C vara n¨aringskoncentrationen
i massa/vol och C0 antas vara konstant n¨aringskoncentrationen i massa/vol. Vi antar att bioreaktorn ¨ar v¨alblandad. Vidare antar vi att (i) f¨or¨okningen av biomassa i
varje volymenhet ¨ar proportionell mot populationen (och mot intervall¨angden), och
beror p˚
a antalet n¨aringsenheter i den h¨ar volymen, dvs:
N (t + ∆t) − N (t) = K(C(t))N (t)∆t;
Konsumtion av n¨aring per volymenhet ¨ar proportionell mot den bakteriella f¨or¨okningen,
dvs:
C(t + ∆t) − C(t) = −α(N (t + ∆t) − N (t)).
Baserat p˚
a dessa antaganden kan vi anv¨anda f¨oljande matematisk modell f¨or Kemostat:
dN
= K(C)N − N F/V
dt
dC
= −αK(C)N − CF/V + C0 F/V.
dt
20
Ett l¨ampligt val av K(C) ¨ar
K(C) =
Kmax C
Kn + C
eller en vanligare notation
Vmax C
Km + C
Detta ger en linj¨ar tillv¨axt f¨or sm˚
a n¨aringskoncentrationer genom linj¨ar approximation (se §2.3):
K(C) ≈ K(0) + K 0 (0)C =
Vmax C
Km
men stannar av vid Vmax d˚
a C → ∞. Detta uttryck kallas f¨or Michaelis-Mentenkinetik. D˚
a C = Km , a¨r tillv¨axten h¨alften av det maximala, dvs, Vmax /2. Bokstaven
m”kan nu f¨orklaras d˚
a mst˚
ar f¨or middlep˚
a engelska eller det som p˚
a svenska heter
mitten”. Vi har d¨arf¨or tv˚
a ekvationer f¨or kemostaten med Michaelis-Menten-kinetik:

dN
Kmax C


=
N − N F/V

dt
Kn + C
dC
Kmax C



= −α
N − CF/V + C0 F/V
dt
Kn + C
(16)
N¨asta m˚
al ¨ar att studera det dynamiska beteendet f¨or detta system som best˚
ar av
tv˚
a ordin¨ara differentiala ekvationer f¨or alla m¨ojliga v¨arden p˚
a de sex parametrarna
Kmax , Kn , F, V, C0 , α.
Reducering av antal parametrar: F¨or att kunna uppn˚
a v˚
art m˚
al f¨ors¨oker vi f¨orenkla
modellengenom att reducera de sex parametrararna till n˚
agot f¨arre antal s˚
a att det
matematiskt ¨ar m¨ojligt att hantera. L˚
at
ˆ N = N ∗N
ˆ , t = t∗ tˆ
C = C ∗ C,
21
ˆ N
ˆ och tˆ ska best¨ammas och ∗-ade variablerna ¨ar nya. Ins¨attningen
d¨ar konstanterna C,
av dem i systemet ger:

ˆ)
d(N ∗ N
Kmax C ∗ Cˆ ∗ ˆ


ˆ

N N − (F/V )N ∗ N
=
 d(t∗ tˆ)
∗
ˆ
Kn + C C
ˆ
 d(C ∗ C)
Kmax C ∗ Cˆ


=
−α
N − (F/V )C ∗ Cˆ + C0 F/V

∗
∗
ˆ
ˆ
d(t t)
Kn + C C
Men
ˆ)
ˆ dN ∗ dC
ˆ
d(N ∗ N
N
d(C ∗ C)
Cˆ dC ∗
dN
=
=
=
=
,
,
dt
dt
dt
tˆ dt∗ dt
tˆ dt∗
vilka medf¨or:


dN ∗
tˆKmax C ∗ Cˆ ∗ tˆF ∗


N −
N
 dt∗ =
V
Kn + C ∗ Cˆ
 dC ∗
tˆKmax C ∗ ∗ ˆ tˆF ∗
tˆF


N N−
C +
C0
 ∗ = −α
ˆ
dt
V
Kn + C ∗ Cˆ
CV
Sortering av parametrarna ger

dN ∗
C∗
tˆF ∗

∗

ˆKmax )
=
(
t
N
N
−

 dt∗
V
Kn /Cˆ + C ∗
∗
ˆKmax

dC
C∗
tˆF ∗
α
t


C +
N∗ −
 ∗ =−
dt
V
Kn /Cˆ + C ∗
Cˆ
Det skulle vara b˚
ade trevligt och praktiskt att kunna g¨ora
αtˆKmax
ˆ
C
tˆF
C0
ˆ
CV
kn
ˆ
C
= 1,
tˆF
V
= 1 och
= 1. Lyckligtvis kan vi verkligen g¨ora det. Det inser vi genom att v¨alja
V ˆ
Cˆ
kn
kn F
Cˆ = kn , tˆ = , N
=
=
=
F
αV kmax
αtˆkmax
αtˆkmax
Detta ger:

dN ∗
V kmax
C∗


N∗ − N∗
 ∗ =
dt
F
1 + C∗

dC ∗
C∗
C0


=
−
N ∗ − C∗ +
∗
∗
dt
1+C
kn
22
F¨or enkelhetens skull skriver vi ˚
aterigen variablerna utan ∗. Vi introducerar nya
parametrar
α1 =
V kmax
C0
, α2 =
.
F
kn
Nu a¨r vi framme vid det f¨orenklade systemet
 dN
C

= α1
N −N

dt
1+C

 dC = − C N − C + α2
dt
1+C
(17)
Vi har nu reducerat sex parametrar till tv˚
a. Denna procedur kallas f¨or variabelomskalning. I forts¨attningen kommer vi att studera detta system, men vi beh¨over alltid
¨overs¨atta dem tillbaka i de ursprungliga parametrarna och storheterna. De nya och
gamla variablerna har f¨orljande samband:
t
k
F
F
F
t
n
∗
∗
∗
ˆN
ˆ
N (t) = N
=
= kn C
N
t , C(t) = CC
t .
αV kmax
V
V
tˆ
tˆ
∗
Observera att α1 , α2 ¨ar dimensionsl¨osa.
4.2
Steady states” och linj¨
ariserad stabilitetsanalys
Stabilitet och robusthet ¨ar ett systems motst˚
andskraft mot f¨or¨andring eller avsaknad av f¨or¨andring. Dessa ¨ar av stor biologisk betydelse (och s˚
a gott som f¨or alla
dynamiska system) d˚
a m˚
anga biologiska fenomen s˚
asom kroppstemperaturen och
dygnsrytmen etc. ter sig stabila trots yttre f¨or¨andringar s˚
asom ¨andring av temperatur och f¨orflyttningar fr˚
an den v¨astra halvan av jordklotet till den ¨ostra halvan (t¨ank
p˚
a v¨arldskartan). M˚
anga processer tycks ha en inneboende egenskap av att naturligt
inte vilja f¨or¨andras och det a¨r detta som steady states”, eller det som matematiskt
kallas f¨or j¨amviktspunkter och stabilitetsanalys kring dessa, behandlar.
23
4.2.1
Steady states
Steady states ¨ar precis som namnet betyder, ”j¨amviktstillst˚
and”. J¨amviktspunkten i
det h¨ar fallet inneb¨ar intuitivt att en trajektor (en bana) genererad av ett dynamiskt
system, kommer att f¨or alltid stanna i det l¨aget, om den har n˚
att denna punkt efter
en viss tid. Det ¨ar emellertid mycket sannolikt att den sticker iv¨ag om det finns
st¨orningar i omgivningen. Ponera att du vill balansera en l˚
ang och homogen stav p˚
a
din hand s˚
a att den blir st˚
aende. J¨amviktspunktet f¨or pinnen ¨ar den position d¨ar
staven st˚
ar rakt upp˚
at. Kan den st˚
a kvar om du inte hj¨alper till? Ett annat exempel
a still,
¨ar pendeln, t¨ank dig att du s¨atter en pendel i r¨orlse, tillslut kommer den st˚
vinkelr¨at mot marken och inte ¨andra l¨age s˚
avida man inte tillf¨or den energi av n˚
agon
form.
Definition 4.1. L˚
at oss betrakta f¨oljande system:

 x0 (t) = f (x(t), y(t)),
(18)
 y 0 (t) = g(x(t), y(t)).
Punkten (x, y) ¨ar en j¨amviktspunkt om den ¨ar en l¨osning till de algebraiska ekvationerna

 f (x, y) = 0,
 g(x, y) = 0.
Vi kallar ocks˚
a (x, y) f¨or ett steady state”.
Med andra ord ¨ar j¨amviktspunkten en konstantl¨osning till det dynamiska systemet,
definierat av (18). Observera att j¨amviktspunkt har andra betydelser vad g¨aller kemi
och fysik.
Exempel 4.2 (Voleterra-Lotkas ekvationer). Vi ska nu studera en populationsmodell
som unders¨oktes av matematikerna Vito Volterra och Alfred J. Lotka. Antag att det
finns tv˚
a djurarter i ett omr˚
ade: rovdjur och bytesdjur. L˚
at y(t) vara antalet rovdjur
vid tidpunkten t, och x(t) vara antalet bytesdjur vid samma tidpunkt. Bytesdjuren
24
antas ha gott om mat och konkurrerar inte inb¨ordes, vore det inte f¨or rovdjuren
skulle populationen bytesdjur v¨axa enligt x0 = ax. Best˚
andet bytesdjur minskar
emellertid p˚
a grund av rovdjuren, vilket ger till¨aggstermen −bxy. Utseendet f¨or
denna term motiveras av att kontakten mellan rovdjur och bytesdjur antas vara
proportionell mot xy, vi f˚
ar s˚
aledes att x0 = ax − bxy. Rovdjurens f¨oda a¨r som
bekant bytesdjuren, i fr˚
anvaron av dessa antas best˚
andet minska enligt y 0 = −cy.
Tillg˚
angen p˚
a bytesdjur ger en till¨aggsterm som ¨ar proportionell mot xy s˚
a att
y 0 = −cy + dxy. Sammanfattningsvis f˚
ar vi f¨oljande system:

dx


= ax − bxy
dt

 dy = −cy + dxy
dt
(19)
D¨ar a, b, c och d ¨ar positiva reella konstanter specifika f¨or situationen. Steady states
¨ar l¨osningar till
dx
dt
=
dy
dt
= 0. Vi f˚
ar fram tv˚
a m¨ojliga fall: (x1 , y1 ) = (0, 0) och
(x2 , y2 ) = ( dc , ab ).
F¨or att detta ska f˚
a fotf¨aste inom biologin och inte endast existera som ett matematiskt koncept, m˚
aste den biologiska relevansen diskuteras. J¨amviktspunkten(x1 , y1 ) =
(0, 0) betyder egentligen att om det inte finns n˚
agon population av varken rovdjur
eller bytesdjur, s˚
a kommer ingen a¨ndring av antalet att ske. Rent biologiskt kan
detta tyckas som en sj¨alvklarhet och resultatet ¨ar d¨arf¨or inte intressant. D¨aremot
a man i praktiken kan g˚
a och g¨ora
¨ar j¨amviktspunkten (x2 , y2 ) = ( dc , ab ) relevant d˚
unders¨okningar f¨or att se hur v¨al detta st¨ammer samtidigt som detta fina uttrycket
ber¨attar att j¨amviktspunkten ¨ar kvoten av koefficienterna vilket kanske ¨ar ov¨antat.
Exempel 4.3 (Kemostat). Vi s¨oker j¨amviktspunkter f¨or system (17). Vanlig ekva¯ , C)
¯ = (0, α2 ) med inskr¨ankningen
tionsr¨akning ger att en av j¨amviktspunkterna (N
ˆ , C)
ˆ = α1 (α1 α2 −α2 −1) , 1
med inskr¨ankningen att
att α2 > 0, och den andra (N
α1 −1
α1 −1
α1 > 1 och α2 >
1
.
α1 −1
Inskr¨ankningarna kr¨avs f¨or att l¨osningarna ska bli b˚
ade
matematiskt och biologiskt korrekta. Vad inneb¨ar nu dessa l¨osningar? Den f¨orsta
¯ , C)
¯ = (0, α2 ) kan f¨orkastas d˚
l¨osningen (N
a l¨osningen ¨ar en situation d¨ar inga bak25
teriella celler finns kvar, och d¨ar n¨aringskoncentrationen ¨ar densamma som den
ursprungliga. Den andra l¨osningen ¨ar d¨aremot mer intressant rent biologiskt, men
det ¨ar inte s¨akert att den alltid existerar biologiskt sett.
4.2.2
Linj¨
arisering
Huruvida ett steady state”¨ar stabilt eller inte (d.v.s. om vi inf¨or en liten f¨or¨andring
till v˚
ar steady state, kommer det ˚
aterv¨anda eller anta n˚
agon annan form?) kan vi
unders¨oka genom att inf¨ora en liten f¨or¨andring till v˚
art steady state. L˚
at , δ > 0
(dessa a¨r inte n¨odv¨andigtvis konstanter) och definiera
x=x+
(20)
y = y + δ.
D˚
a kan fr˚
agest¨allningen ovan omformuleras till: Kommer de sm˚
a f¨or¨andringarna till
v˚
art steady state vara f¨orsumbara eller kommer de v¨axa s˚
a att x och y inte hamnar
p˚
a steady state l¨angre?
F¨or att se hur och δ f¨or¨andras, m˚
aste vi st¨alla upp differentialekvationer f¨or dem (d˚
a
denna typ av ekvationer behandlar f¨or¨andringar). Vi deriverar: x0 = 0 = f (x, y) =
ar enligt
f (x + , y + δ) enligt (20) ovan. Taylorutveckla f (x + , y + δ) i (x, y), vi f˚
ovann¨amnda substitutioner att:
∂f
∂f
(x, y) +
(x, y)δ + H.O.T
∂x
∂y
∂f
∂f
=
(x, y) +
(x, y)δ + H.O.T
∂x
∂y
f (x + , y + δ) = f (x, y) +
d˚
a f (x, y) = 0, ger detta:
0 =
∂f
∂f
(x, y) +
(x, y)δ + H.O.T
∂x
∂y
26
Detsamma g¨aller f¨or:
δ 0 = g(x, y) =
∂g
∂g
(x, y) +
(x, y)δ + H.O.T.
∂x
∂y
Nu tar vi bara med linj¨ara termer ur ber¨akningarna ovan och vi kan skriva systemet
p˚
a f¨oljande matrisform:
  
∂f
0
(x, y)
  =  ∂x
∂g
δ0
(x, y)
∂x
 
∂f
(x, y)
∂y
 
∂g
(x, y)
∂y
(21)
δ
Vi inser att (21) a¨r ett linj¨art system. Den triviala steady state:en till det linj¨ara
h
iT h
iT
systemet, (21), ¨ar δ = 0 0 .
Nu till¨ampar vi teorin fr˚
an §3.1.2 f¨or att avg¨ora stabiliteten. Innan vi g˚
ar vidare
inf¨or vi n˚
agra definitioner och notationer. L˚
at

J(x, y) =
∂f
 ∂x
∂g
∂x

∂f
∂y 
∂g
∂y
.
J(x, y) kallas f¨or Jacobimatrisen (eller jacobian) i litteratur. (21) s¨ages vara det
linj¨ariserade systemet av (18) (kring j¨amviktspunkten (x, y) ).
Exempel 4.4 (Van der Pols ekvation:). Vi ska nu best¨amma linj¨arisering av van der
Pols ekvation kring steady state”. Se tillbaka till system (11), f¨or att linj¨arisera
detta system m˚
aste vi finna steady states och jacobianen. Vi b¨orjar med att finna steady states, genom inspektering kan man direkt se att ett steady state a¨r
(x¯1 , x¯2 ) = (0, 0). F¨or att ber¨akna de partiella derivatorna, s˚
a antag att vi kallar
x01 = f (x1 , x2 ) och x02 = g(x1 , x2 ). D˚
a kan vi ber¨akna dem enligt:
∂g
∂x1
= −2εx1 x2 − 1 och
∂g
∂x2
∂f
∂x1
= 0,
∂f
∂x2
= 1,
= ε(1 − x21 ). Vi skapar en Jacobimatris och evaluerar
27
den kring j¨amviktspunkten:

0
J(x¯1 , x¯2 ) = J(0, 0) = 
−1

1
.
ε
P˚
a matrisform kan vi nu skriva det linj¨ariserade systemet som:
  
0
0
 =
δ0
−1
 
1
 
ε
δ
(22)
Anledningen till att linj¨ariseringen a¨r viktig i analys av dynamiska beteende f¨orklaras
med f¨oljande sats:
Sats 4.5 (Hartman-Grobmans sats). Beteendet hos ett dynamiskt system n¨ara
ett steady state ¨ar kvalitativt sett detsamma som beteendet hos dess linj¨arisering
n¨ara steady state, givet att ingen av egenv¨ardenas realdelar tillh¨orande systemets
Jacobimatris ¨ar noll.
Med andra ord ¨ar stabiliteten hos den triviala steady state:en till (21) densamma
som stabiliteten f¨or hela systemet.
F¨or linj¨ara system Y0 = AY avg¨ors stabilitet med hj¨alp av egenv¨arden av matrisen
A, vilket vi kommer kunna se i n¨asta delavsnitt.
4.3
Lokal stabilitet
Vi s¨ager att det linj¨ara systemet Y0 = AY med bivillkoret Y(0) = Y0 , d¨ar A ¨ar
en n × n-matris, ¨ar stabilt om alla l¨osningar uppfyller att Y(t) → 0 d˚
a t → ∞.
Huvudsatsen ¨ar
Sats 4.6. Stabilitet av systemet Y0 = AY ¨ar ekvivalent med att alla realdelar av
egenv¨ardena till A ¨ar negativa.
Sats 4.7 (Routh-Hurwitz stabilitetskriterier). Om egenv¨ardena tillh¨orande
Jacobimatrisen i linj¨ariseringen ¨ar komplexa, d.v.s. λi ∈ C, ∀i, r¨acker det att man
28
tittar p˚
a Re(λi ) f¨or att dra slutsatser om lokal stabilitet. Om Re(λi ) < 0, ∀i s˚
a ¨ar
systemet stabilt, om n˚
agot Re(λi ) > 0, ¨ar systemet instabilt och om Re(λi ) = 0 kan
i de flesta fall ingen slutsats dras och det kr¨avs mer komplicerad analys f¨or att f˚
a
fram stabilitetsegenskaper.
F¨or icke-linj¨ara system Y0 = F (Y), d¨ar F ¨ar en vektorv¨ard funktion av n variabler,
(dvs F inneh˚
aller n stycken funktioner av n variabler) till¨ampar vi detta villkor p˚
a
f¨oljande s¨att:
• F¨or varje steady state Y ber¨aknas matrisen A som ¨ar Jacobimatrisen evaluerad
i Y och dess egenv¨arden testas;
• Om alla egenv¨arden av A har negativa realdelar, ¨ar systememt lokalt stabilt:
varje l¨osning av Y0 = F (Y) som b¨orjar n¨ara Y = Y konvergerar d˚
a mot Y d˚
a
t → ∞.
• Om A har ett egenv¨arde med positiv realdel s˚
a ¨ar det motsvarande icke-linj¨ara
atminstone n˚
agra
system Y0 = F (Y) instablit kring Y = Y , dvs, det existerar ˚
l¨osningar som startar n¨ara Y = Y och som kommer att flytta ifr˚
an Y = Y .
Observera att vi inte kan dra n˚
agon slutsats ifall egenv¨arden har noll som realdel.
Enligt analysen i slutet av §3.2 kan vi bevisa v˚
ar huvudsats relativt enkelt, men
vi ger bara ett bevis p˚
a ett tv˚
admensionellt system vilket ¨ar fallet i v˚
art arbete.
Observera att matrisen A antingen kan ha tv˚
a reella egenv¨arden, ett dubbelt reellt
egenv¨arde eller ett par komplexkonjugat som egenv¨arden.
1. Om A har tv˚
a olika reella egenv¨arden λ1 , λ2 kan A diagonaliseras. D˚
a ¨ar
l¨osningarna i princip p˚
a f¨oljande form (efter diagonalisering och anv¨andning
av samma beteckningar f¨or l¨osningen):
y1 (t) = y1 (0)eλ1 t , y2 (t) = y2 (0)eλ2 t .
Detta ger:
29
y1 (t) → 0, y2 (t) → 0 d˚
a t → ∞ ¨ar ekvivalent med att λ1 < 0 och λ2 < 0.
2. Om A har ett dubbelt egenv¨arde λ 6= 0, d˚
a finns v 6= 0 s˚
a att Av = λv ⇔
(A − λI)v = 0. Men v 6= 0 inneb¨ar att matrisen A − λI har rang mindre a¨n
eller lika 1.
I fall rang av A − λI ¨ar noll betyder det att matrisen A − λI ¨ar nollmatrisen,
vllket a¨r samma som A = λI. S˚
aledes a¨r l¨osningarna av typ y1 (t) = c1 eλt och
y2 (t) = c2 eλt d¨ar c1 , c2 ¨ar konstanter som best¨ams av begynelsv¨arden. De g˚
ar
mot 0 om och endast om λ < 0.
I fall rang av (A − λI) ¨ar lika med 1 finns det bara en linj¨art oberoende
egenvektor, s¨ag v, enligt teorin f¨or l¨osbarhet av linj¨ara ekvationssystem. Vi
kan utvidga v till en bas (v, w) i R2 . Aw = αv + βw, α 6= 0 (f¨or annars har
vi tv˚
a olika egenv¨arden eller det f¨oreg˚
aende fallet). D˚
a blir:




λ α
λ α
 ⇔ A=P
 P −1 ⇒
A(v, w) = (v, w) 
| {z } | {z } 0 β
0 β
P
P





λ α
λ α
 P −1 − λI = P 
 − λI  P −1 ⇒
A − λI = P 
0 β
0 β



λ α
 − λI  .
det(A − λI) = det 
0 β
Men d˚
a λ ¨ar ett dubbelt egenv¨arde, m˚
aste β = λ vilket
 inneb¨
 ar att vi efter
λ 1
 P −1 . Variabelnormalisering α = 1 f˚
ar Aw = v+λw. D˚
a har vi A = P 
0 λ


λ 1
 Z(t) ⇒ z2 (t) = c2 eλt , z1 (t) = (c1 + c2 t)eλt .
bytet Y = P Z ger Z 0 (t) = 
0 λ
Det ¨ar sj¨alvklart att Z(t) → 0 d˚
a t → ∞ ¨ar ekvivalent med att λ < 0.
3. Om A har ett par komplexkonjugat som egenv¨arden, dvs λ = σ ± iω d¨ar σ, ω
30
a samma s¨att som i fall 1 visa att
¨ar reella tal och vi antar att ω > 0, kan vi p˚
l¨osningar ¨ar p˚
a formen
y1 (t) = eσt (c1 cos(ωt) + c2 sin(ωt)) → 0
d˚
a t → ∞ ⇔ σ < 0.
y2 (t) = eσt (−c1 sin(ωt) + c2 cos(ωt)) → 0
Vidare har vi, enligt argumentet i §3.1.2:
Sats 4.8. Stabilitet av det linj¨ara systemet Y0 = AY d¨ar A ¨ar en 2 × 2-matris ¨ar
ekvivalent med: tr(A) < 0 och det(A) > 0.
Exempel 4.9 (Lokal stabilitet av van der Pols ekvation). D˚
a vi har det linj¨ariserade
systemet kring j¨amviktspunkten enligt (22), kan vi titta p˚
a determinanten och
sp˚
aret (trace, summan av diagonalelementen) till Jacobimatrisen f¨or att avg¨ora om
j¨amviktspunkten ¨ar stabil eller inte (enligt sats 3.5). Vi kommer anv¨anda denna sats
f¨or kommande exempel ocks˚
a.
Om vi nu allm¨ant kallar Jacobimatrisen f¨or A, kan vi ber¨akna att det(A) = 1 > 0
och tr(A) = ε. Vi ser att villkoret f¨or lokal stabilitet g¨allande determinanten ¨ar
uppfyllt, men f¨or att j¨amviktspunkten ska vara stabil m˚
aste ocks˚
a ε < 0.
Exempel 4.10(Lokal stabilitetav Volterra-Lotka ekvationer). Vi ber¨aknar den ¨allm¨anna”jacobianen
a − by −bx
. Sedan v¨aljer vi vilket steady state vi vill unders¨oka,
till systemet 
dy
dx − c
vi b¨orjar med (x1 , y1 ) = (0, 0) som vid ins¨attning ger det linj¨ariserade systemets
matris


a 0

,
0 −c
egenv¨ardesber¨akning ger att λ1 = a, λ2 = −c, om a < 0 c > 0 ¨ar steady state:en
stabil. Men det ¨ar inte av biologiskt intresse d¨arf¨or att a antas positivt. S˚
a origo ¨ar
instabil.
F¨or fallet (x2 , y2 ) = ( dc , ab ) kan vi med samma resonemang ber¨akna egenv¨ardena, vi
31

ber¨aknar Jacobimatrisen J(x2 , y2 ) = A = 
√
att: λ1,2 = ±i ca .
0
ad
b

− bcd

. Egenv¨ardesber¨akning ger
0
D˚
a Re(λ1,2 ) = 0 kan ingen riktig slutsats dras, utan det kr¨avs mer komplexa metoder
f¨or att ber¨akna hur stabilitetsuttrycket ser ut.
Exempel 4.11 (Lokal stabilitet av Kemostatmodellen). Betrakta system (17), kalla
dN
dt
= f (N, C) och
dC
dt
= g(N, C). Vi v¨aljer att linj¨arisera systemet vid den biologiskt
ˆ , C).
ˆ F¨or att g¨ora detta ber¨aknar vi den allm¨anna
relevanta j¨amviktspunkten (N
jacobianen,

J(N, C) =

∂f
 ∂N
∂f
∂C 
∂g
∂C
∂g
∂N

C
−1
α1 1+C

=
C
− 1+C
1
α1 (1+C)
2N
1
− (1+C)
2N


−1
.
ˆ , C)
ˆ f˚
I j¨amviktspunkten (N
ar vi att


(α1 − 1)(α2 (α1 − 1) − 1)

α2 (α1 −1)2 +1
−
α1
0
ˆ , C)
ˆ =
J(N
− α11
.
F¨or enklare matris, l˚
at oss kalla α2 (α1 − 1) − 1 = β d¨ar α1 > 1 och α2 > 0. D˚
a kan
vi skriva matrisen som

0
ˆ , C)
ˆ =
J(N
− α11
β(α1 − 1)
1
− β(α1 −1)+α
α1

.
F¨or att analysera den lokala stabiliteten f¨or systemet, ber¨aknar vi det(J) =
β(α1 −1)
α1
1
och tr(J) = − β(α1 −1)+α
.
α1
ˆ , C)
ˆ ska vara stabilt kr¨avs det att det(J) > 0 och att tr(J) < 0. Eftersom
F¨or att (N
vi sedan tidigare hade inskr¨ankningarna att α1 > 1 och α2 > 0, observerar vi att:
32
ˆ , C)
ˆ ¨ar med andra
det(J) > 0 och att tr(J) = −1 − det(J) < 0. J¨amviktspunkten (N
ord lokalt stabil.
Exempel 4.12 (FitzHugh-Nagumo modell I: lokal stabilitet). Inom den biologiska
matematiken och fysiken ¨ar ett stort biologiskt forskningsomr˚
ade den s.k. neurofysiologin, d.v.s. l¨aran om hj¨arnan, det centrala nervsystemet och deras respektive
funktioner. En av de tidigaste matematiska modellerna inom omr˚
adet ¨ar HodgkinHuxleys ekvationer fr˚
an 1952 som beskriver en nervcells elektriska kommunikation.
Ekvationen formulerades av Alan Lloyd Hodgkin och Andrew Huxley, b˚
ada biofysiker och fysiologer som 1963 blev tilldelade nobelpriset i medicin f¨or deras insatser
inom detta omr˚
ade. Ekvationen ser ut p˚
a f¨oljande s¨att:

dn


= αn (v)(1 − n) − βn (v)n



 dt
dm
= αm (v)(1 − m) − βm (v)m

dt




 dh = αh (v)(1 − h) − βh (v)h
dt
d¨ar αk och βk med villkoret k ∈ {n, m, h} ¨ar sp¨anningsberoende funktioner/kvantiteter.
Det ¨ar l¨att att inse att detta system av differentialekvationer generellt ¨ar icke-linj¨art,
dessa ¨ar matematiskt sv˚
ara att hantera, d¨arf¨or valde biofyskerna Richard FitzHugh
och Jin-Ichi Nagumo att p˚
a ett t¨amligen elegant s¨att f¨orenkla dessa ekvationer utan
att f¨or den skull mista k¨arnresonemangen bakom dem. FitzHugh-Nagumos modell
som f¨oljer f˚
angar de essentiella delarna av ovanst˚
aende ekvationssystem.
Betrakta det dynamiska systemet:

x3

0

x = c y + x −
3


 y 0 = − x − a + by
c
(23)
Vi ska nu unders¨oka den lokala stabiliteten f¨or detta system. Om x0 = f (x, y) och
y 0 = g(x, y) kan vi skriva systemets allm¨anna jacobian som:
33

J(x, y) = 
d¨ar 1 −
2b
3
2

c(1 − x )
c
− 1c
− cb

< a < 1, 0 < b < 1 och b < c2 .
F¨or att kunna unders¨oka lokal stabilitet, m˚
aste vi ocks˚
a finna j¨amviktspunkterna i
vilka vi ska evaluera jacobianen i. De talpar (x, y) som l¨oser f (x, y) = g(x, y) = 0
med andra ord . Vi n¨ojer oss med att endast visa att en reell j¨amviktspunkt existerar,
d˚
a den inte g˚
ar att beskriva enkelt och ¨ar sv˚
ar att analysera.
Bevis: Antag att f (x, y) = g(x, y) = 0, detta ger ett ekvationssystem. Vi v¨aljer
att l¨osa detta ekvationssystem genom att till¨ampa nollfaktorlagen p˚
a b˚
ade f och g
och substitutionsmetoden, d¨ar vi substituerar den implicita ekvationen f¨or y i g och
3
ers¨atter y i f . Vi f˚
ar s˚
aledes att 1b (a−x)+x− x3 = 0 ⇔
en ny funktion h(x) =
x3
3
x3
3
− 1b (a−x)−x = 0. Vi inf¨or
− 1b (a − x) − x. F¨or att f¨orst˚
a hur m˚
anga j¨amviktspunkter
som existerar m˚
aste vi se p˚
a derivatan av funktionen d˚
a den kan ge oss en ledtr˚
ad
om hur funktionen beter sig i det reella talplanet. h0 (x) = x2 + 1b − 1 ¨ar derivatan till
funktionen, den kan skrivas om till h0 (x) = x2 + c d¨ar c = 1b − 1. Derivatan ¨ar str¨angt
v¨axande, d.v.s. h0 (x) > 0 d˚
a 0 < b < 1. Detta inneb¨ar att en konstant h¨ogst sk¨ar den
i en punkt i intervallet och vi har bevisat att det endast existerar 
en reell l¨osning. L˚
at

c(1 − x¯2 )
c
.
− cb
− 1c
S˚
a (¯
x, y¯) ¨ar lokal stabil om tr(J) = −( cb −(1−¯
x2 c)) < 0 och det(J) = 1−(1−¯
x2 b) > 0.
s˚
aledes denna j¨amviktspunkt vara (¯
x, y¯). D˚
a har vi att J(¯
x, y¯) = 
L¨os ut olikheterna f¨or x¯ och vi f˚
ar x¯2 > max(1− cb2 , 1− 1b ) = 1− cb2 eftersom 0 < b < 1
och b < c2 . D¨arf¨or ¨ar j¨amviktspunkten stabil om x¯ inte ligger i intervallet:
r
−
b
(1 − 2 ) ≤ x¯ ≤
c
.
34
r
(1 −
b
)
c2
5
Geometrisk analys: vektorf¨
alt, fasportr¨
att
M˚
anga av de matematiska modellerna och l¨osningarna till dessa, diskuterade ovan,
kan beskrivas och tolkas geometriskt. Geometrin ¨ar mycket anv¨andbar inom matematiken oberoende av biologin, men i biologin kan geometrin kan ge l¨asaren en mer
adlig bild ¨an vad kanske en formel ger. Samtidigt ¨ar det ett annat s¨att att
¨oversk˚
beskriva och analysera problem p˚
a. Man kan via geometrisk analys utl¨asa nya egenskaper som man kanske inte hade hittat i andra fall. Ett exempel p˚
a detta ¨ar att man
i det komplexa talplanet kan rita ut egenv¨arden tillh¨orande linj¨ariseringens Jacobimatris f¨or ett dynamiskt system, om alla egenv¨arden befinner sig p˚
a ”v¨anstersida
relativt den imagin¨ara axeln, kan vi dra slutsatsen att systemet ¨ar lokalt stabilt, d˚
a
beh¨over man inte r¨akna eller g¨ora annan analys. Geometri ¨ar med andra ord n˚
agot
f¨ordelaktigt att anv¨anda sig av n¨ar det g¨aller biologiska system. Huvudk¨allorna f¨or
detta avsnitt ¨ar: Mathematical Models in Biology [EK05], Linear Algebra with Applications [Le10] och Analys i en variabel [BP10].
5.1
Vektorf¨
alt
Definition 5.1 (Vektorf¨alt). Ett vektorf¨alt ¨ar en avbildning F : R2 → R2 som
associerar varje x till en vektor F (x).
Exempel 5.2. L˚
at F (x, y) = (−y, x). I punkten (x, y) ser vi vektorn som en pil som
pekar moturs kring origo med en l¨angd proportionell mot (i sj¨alva verket lika med)
avst˚
andet fr˚
an origo. Se figuren p˚
a n¨asta sida
35
Exempel p˚
a vektorf¨alt enligt ovan.
Denna insikt kan anv¨andas i rekonstruktionen av en kvalitativ bild av l¨osningarna
till ett system av tv˚
a dimensioner som vi diskuterar h¨ar. En l¨osningskurva genom
(x, y) m˚
aste ha vektorerna som bygger upp vektorf¨altet som sina tangenter. D¨arf¨or
definierar vi en samling av dessa vektorer som ett vektorf¨alt. Dessa kan anv¨andas som
virtuell riktlinje vid ritning av m¨angden l¨osningskurvor, ett fasportr¨att. Generellt sett
brukar denna typ av vektorf¨alt kallas f¨or riktningsf¨alt d˚
a den visar vilken riktining
en l¨osningskurva tar.
Exempel 5.3. L˚
at

 x0 = xy − y
 y 0 = xy − x
Den geometriska l¨osningen till det ovann¨amnda systemet ¨ar:
36
Vektorf¨alt exempel 5.3.
I figuren kan man observera att punkterna (0, 0) och (1, 1) ¨ar steady states”. Om
man ser till omgivningen av punkten (0, 0), kan man se att det finns pilar som str˚
alar
in mot punkten och pilar som str˚
alar ut. Punkten (0, 0) ¨ar d¨arf¨or inte lokalt stabil,
det ¨ar en s.k. sadelpunkt (mer om detta rent matematiskt kommer nedan), stabil
om man kommer fr˚
an ett visst h˚
all och instabil fr˚
an ett annat, s˚
a generellt ¨ar inte
denna j¨amviktspunkt stabil. Punkten (1, 1) d¨aremot har i sin omgivning, pilar som
a¨r riktade ut˚
at, oavsett riktning. Detta inneb¨ar att punkten a¨r en s.k. instabil nod,
en punkt som ¨ar instabil oavsett i vilken riktning du r¨or dig fr˚
an j¨amviktspunkten.
5.2
Linj¨
ara fasportr¨
att
Vi delar in egenv¨arden av A i f¨oljande fall: (I) Olika reella och nollskilda egenv¨arden
λ1 6= λ2 (II) komplexa egenv¨arden λ1 , λ2 dvs σ ± iω, ω 6= 0. Vi diskuterar olika fall
i dessa tv˚
a kategorier.
(I) Olika reella och nollskilda egenv¨arden λ1 6= λ2 :
1. b˚
ada λ1 , λ2 ¨ar negativa: sink (stabil nod)
2. b˚
ada λ1 , λ2 ¨ar positiva: source (instabil nod)
3. λ1 λ2 < 0: sadel
37
(II) komplexa egenv¨arden λ1 , λ2 dvs σ ± iω ω 6= 0.
1. σ = 0: center. L¨osningar ser ut som ellipser (eller cirklar). F¨or att se om
de roterar moturs eller medurs kan man ta en punkt i planet och se vilken
riktning Ax pekar mot. Graferna av x(t) och y(t) (med tiden som parameter)
ser ungerf¨arligt ut som sinus- eller cosinuskurvor.
2. σ < 0: sprial sink (stabil spiral). Trajektorer g˚
ar mot och runt origo. Graferna
av x(t) och y(t) (med tiden) ser ungef¨arligt ut som sinus- eller cosinuskurvor
men amplituden g˚
ar mot noll (liknar d¨ampade oscillationer).
3. σ < 0: sprial sink (instabil spiral). Trajektorer g˚
ar fr˚
an och runt origo. Graferna
av x(t) och y(t) (med tiden som parameter) ser ungef¨arligt ut som sinus- eller
cosinuskurvor men ¨okar i amplitud (p˚
aminner om tilltagande oscillationer).
Vi illustrera dessa fall p˚
a sp˚
ar-determinant-planet. Se figur nedan.
Illustration av olika stabilitetsfall p˚
a sp˚
ar-determinant-planet.
Exempel 5.4 (kemostat). Som vi r¨aknade i exempel 3.11 s˚
a a¨r tr(J) = −1−det(J) <
0 d˚
a det(J) > 0. Vi ber¨aknar
tr(J)2 − 4 det(J) = (1 + det(J))2 − 4 det(J) = (1 − det(J))2 > 0
.
ˆ , C)
ˆ ¨ar en stabil nod eller sink”.
Detta visar att (N
38
5.3
Nullclines”: en mer systematisk metod
Antag att vi har f¨oljande system:

dy


= f (x, y)
dt

 dx = g(x, y)
dt
F¨or att finna l¨osningen till detta system av differentialekvationer, skulle vi kunna
rita ett riktningsf¨alt och skissera l¨osningskurvan, men faktum ¨ar att ett riktningsf¨alt
endast ger en kvalitativ bild av l¨osningen och inte en kvantitativ. N¨ar vi ritar segment av vektorer i ett f¨alt s˚
a har vi den begr¨ansningen att vi inte kan rita ut o¨andligt
m˚
anga vektorer, vilket skulle kr¨avas f¨or en o¨andlig noggrannhet. Varje l¨osningskurva
at s¨aga att vi ham¨ar med andra ord en mer eller mindra bra approximation, men l˚
nar p˚
a en j¨amviktspunkt, i vissa fall skulle det vara l¨att att rita l¨osningskurvan
trots existensen av s˚
adana, men ibland kan det vara n¨astintill om¨ojligt och t¨amligen
omatematiskt att gissa var l¨osningskurvan forts¨atter. D¨arf¨or har vi valt att ta med
begreppet nullclinessom kan vara ett viktigt verktyg f¨or att f˚
a en s˚
a bra approximation som m¨ojligt. Vi kan v¨alja att observera vad som h¨ander d˚
a funktionerna i
ovann¨amnda system, f och g, ¨ar noll.
Definition 5.5 (Nullclines). En y-nullcline ¨ar en familj av kurvor som uppfyller
att
dy
dt
= f (x, y) = 0, med andra ord betyder det att riktningsvektorn m˚
aste vara
parallell med x-axeln.
En x-nullcline a¨r p˚
a samma s¨att
dx
dt
= g(x, y) = 0 som inneb¨ar att riktningsvektorn
¨ar parallell med y-axeln.
Linj¨arisering kring ett steady state hj¨alper oss f¨orst˚
a den lokalabilden av hur fl¨odet
kring riktningsvektorerna ser ut, a¨ven om den inte alltid ger s˚
adan utsaga. Det
skulle vara praktiskt med n˚
agonting som skulle kunna ge oss en global bild av hela
systemet, ist¨allet f¨or att linj¨arisera och g˚
a och titta p˚
a varje j¨amviktspunkt enskilt.
Det ¨ar mycket sv˚
arare att f˚
a denna globala information som ber¨attar f¨or oss hur
39
dessa lokala bilder h¨anger ihop. En anv¨andbar metod f¨or att rita globala bilder ¨ar
nullclines. Med nullclines kan man f˚
a en allm¨an bild av hur vektorf¨altet beter sig
utan att beh¨ova rita ut alla vektorer.
En generalisering av systemet ovan ¨ar:
Definition 5.6 (Nullclines-generaliserat). Den xi -nullclinen ¨ar m¨angden av kurvor
som uppfyller x0i = 0. Denna m¨angd kan vara en union av kurvor och linjer eller
bara en s˚
adan kurva. Sk¨arningspunkter mellan nullclines ¨ar steady state”.
Exempel 5.7 (Kemostat). Vi har fr˚
an (17) att:
 dN
C

= f (N, C) = α1
N −N

dt
1+C

 dC = g(N, C) = − C N − C + α2
dt
1+C
C
C
Vi ber¨aknar N-nullcline f¨or f ⇒ α1 1+C
N − N = 0 ⇔ N (α1 1+C
− 1) = 0 och enligt
nollfaktorlagen f˚
ar vi att N-nullcline ¨ar tv˚
a linjer: N = 0 och C =
punkter ¨ar
dN
dt
1
.
α1 −1
I dessa
= 0 och i N-C-planet s˚
a ¨ar det tv˚
a vertikala linjer, parallella med
C
C-axeln. C-nullcline kan p˚
a samma s¨att ber¨aknas: − 1+C
N − C + α2 = 0 ⇔, i det h¨ar
fallet kommer vi inte f˚
a konstantl¨osningar som ovan d˚
a ekvationen a¨r mer komplex,
dock kan vi se N som en funktion av C och f˚
ar s˚
aledes: N (C) = −1 − C + αC2 + α2 .
5.4
Globala beteenden
Exempel 5.8 (Kemostat). Vi har fr˚
an exemplet ovan att:
N -nullcline: N = 0 och C =
1
;
α1 −1)
C-nullcline: N (C) = −1 − C + α2 /C + α2 .
F¨or att rita C-nullcline, beh¨over vi unders¨oka funktionen N (C).
Notera att N (α2 ) = 0 och att N (C) → 0 d˚
a C → 0 f¨or (C > 0). Vidare har vi
att N 0 (C) = −1 − α2 /C 2 < 0. H¨arav f˚
as att N (C) ¨ar str¨angt avtagande. N 00 (C) =
40
2α2 /C 3 > 0 ger att N (C) ¨ar str¨angt konvex. Med denna information kan vi rita
grafen till N (C). Sk¨arningspunkterna mellan dessa kurvor (nullclines) ¨ar precis de
j¨amviktspunkter vi fick tidigare. Observera ¨aven att kurvorna delar f¨orsta kvadraten
p˚
a fasplanet i fyra omr˚
aden vilka vi kallar f¨or omr˚
ade 1-4 enligt vanlig konvention.
F¨or att best¨amma om pilarna pekar upp eller ner p˚
a N -nullcline beh¨over vi avg¨ora
tecken f¨or
dC
:
dt
1. P˚
a linjen N = 0 har vi


> 0 om C < α2
dC
C
= −
N − C + α2
= −C + α2

dt
1+C
< 0 om C > α2 .
N =0
Detta visar att pilarna pekar upp˚
at d˚
a N < α2 och ned˚
at om N > α2 .
2. P˚
a linjen C =
1
(α1 −1)
har vi
C
−N (α1 − 1) − α1 (1 − α1 α2 + α2 )
dC
= −
N − C + α2
=
dt
1+C
α1 (α1 − 1)
C= α 1−1
1


> 0 om N < α1 (α2 − 1 )
α1 −1

< 0 om N > α1 (α2 −
1
).
α1 −1
S˚
a pilarna pekar upp˚
at om N < α1 (α2 − α11−1 ) och ned˚
at om N > α1 (α2 − α11−1 ).
P˚
a C-nullcline har vi
dN
=
dt


> 0 om C >
α1 C
−1 N

1+C
< 0 om C <
vilket inneb¨ar att pilarna pekar ˚
at h¨oger d˚
a C >
C<
1
α1 −1
f¨or N ≥ 0, det m˚
aste d˚
a g¨alla att
1
α1 −1
1
α1 −1
1
α1 −1
1
α1 −1
och pekar ˚
at v¨anster om
> 0. Sammanfattningsvis f˚
as:
F¨oljande fr˚
aga f¨orefaller mycket naturligt nu: Hur ser vektorf¨altet ut annanstans?
41
2.5
(N,C)
Α2
2.0
C-nullcline
1.5
1
4
1.0
N-nullcline
` `
(N ,C)
1
0.5
Α1 - 1
2
3
1
Α1 Α2 -
N-nullcline
Α1 - 1
0.0
0
2
4
6
8
10
Fasportr¨att av nullclines samt hur vektorf¨altet ser ut p˚
a dessa.
Nyckeln till svaret ¨ar observationen att det enda s¨attet att pilarna kan v¨anda riktning
¨ar genom att korsa en nullcline. Om
dN
dt
agon punkt A och
¨ar positiv i n˚
dN
dt
¨ar negativ
i en annan punkt B d˚
a m˚
aste A och B vara p˚
a motsatta sidor av N -nullcline. Detta
f¨oljer av att, om vi sp˚
arar en v¨ag mellan A och B (vilken v¨ag som helst, inte
n¨odv¨andigtvis en l¨osning till systemet), varierar derivatan
dN
dt
kontinuerligt (vilket
a m˚
aste finnas en punkt p˚
a denna v¨ag d¨ar
¨ar fallet f¨or exemplet) och d˚
dN
dt
= 0 enligt
satsen om mellanliggande v¨arden f¨or en kontinuerlig funktion. Sammanfattningsvis
kan vi p˚
ast˚
a att orientering av pilar ¨ar samma i respetive omr˚
ade av 1 till 4.
I omr˚
ade 1 ¨ar
dN
dt
> 0 och
dC
dt
< 0 eftersom de ¨ar v¨arden p˚
a randen av omr˚
adet. Rikt-
ningsvektorerna ¨ar d¨arf¨or riktade ˚
at sydost &. P˚
a samma s¨att kan vi resonera kring
riktningarna f¨or dessa i de ¨ovriga omr˚
adena. F¨oljande bild ¨ar en sammanst¨allning
av vektorf¨altet.
42
2.5
(N,C)
Α2
2.0
C-nullcline
1.5
1.0
N-nullcline
` `
(N ,C)
1
0.5
Α1 - 1
1
Α1 Α2 -
N-nullcline
Α1 - 1
0.0
0
2
4
6
8
10
Fasportr¨att av nullclines samt hur vektorf¨altet ser ut kring dessa.
¯ , C)
¯ ¨ar en sadelpunkt och (N
ˆ , C)
ˆ ¨ar en stabil nod. Det
P˚
a bilden ser vi att (N
st¨ammer med vad vi tidigare bevisat.
Exempel 5.9 (Global dynamik: Kemostat). M˚
alet med detta exempel a¨r att illustrera att global stabilitet kan f˚
as genom lokal stabilitetsinformation tillsammans med
ˆ , C)
ˆ utom n¨ar
analys p˚
a fasplanet. Vi ska visa att varje trajektor konvergerar mot (N
man startar fr˚
an N (0) = 0. Den praktiska f¨oljden av detta p˚
ast˚
ande ¨ar att det inte
spelar n˚
agon roll vad initialvillkoret ¨ar, kemostat-modellen landar alltid p˚
a steady
ˆ , C).
ˆ Enligt Ovning
¨
state (N
13, kapitel 5 i [EK05] kan vi ha nytta av linjen L:
N + α1 C − α1 α2 = 0
¯ , C)
¯ och (N
ˆ , C)
ˆ samt punkten (α1 α2 , 0) p˚
som g˚
ar genom punkterna (N
a N -axeln.
Simuleringar visar att n¨ar systemet startar p˚
a en punkt p˚
a linjen L, l¨amnar trajektorer aldrig linjen. Vi visar detta fenomen. F¨or varje trajektor, betraktar vi
z(t) = N (t) + α1 C(t) − α1 α2 .
D˚
a g¨aller att
dz
dN
dC
(t) =
+ α1
= −z(t).
dt
dt
dt
Ekvationen kan l¨osas ut explicit: z(t) = z(0)e−t . Allts˚
a z(t) = 0 f¨or alla t > 0 om
43
z(0) = 0 (invarians), och i allm¨anhet z(t) → 0 d˚
a t → ∞, dvs l¨osningarna g˚
ar mot
linjen L. Dessutom ¨ar punkterna p˚
a linjen N + α1 C − α1 α2 = m n¨ara punkter i L
om m ¨ar n¨ara 0.
Vi vet nu att alla trajektorer konvergerar mot linjen L och kan inte korsa L f¨or
annars blir inte l¨osningen entydig.
Anta att en trajektor startar (och s˚
aledes stannar kvar) i toppen av L och med
N (0) > 0. Eftersom trajektorn g˚
ar n¨armare och n¨armare L och m˚
aste stanna i
ˆ , C)
ˆ fr˚
f¨orsta kvadraten, kommer den antingen att konvergera mot (N
an nordv¨ast
eller s˚
a kommer den eventuellt i ett omr˚
ade nordv¨ast med pilar. I den punkten
ˆ , C).
ˆ V˚
m˚
aste trajektorn ha sv¨angt och b¨orjat flytta mot (N
ar slutsats ¨ar att varje
trajektor konvergerar.
2.5
2.0
1.5
1.0
0.5
0.0
0
2
4
6
8
Fasportr¨att p˚
a det globala beteendet f¨or kemostat-modellen.
Exempel 5.10 (Volterra-Lotkas modell). Enligt (19) kan vi skriva Volterra-Lotkas
modell som:

 dx
dt
= ax − bxy
 dy = −cy + dxy
dt
F¨or att f˚
a x-nullcline ber¨aknar vi x0 = 0 ⇒ x = 0, y = ab . F¨or att f˚
a y-nullcline
ber¨aknar vi p˚
a samma s¨att y 0 = 0 ⇒ y = 0, x = dc .
Vi best¨ammer hur vektorerna (pilarna) pekar p˚
a x-nullcline, detta genom att titta
p˚
a tecken f¨or y 0 :
P˚
a linjen x = 0 f˚
ar vi att y 0 = −cy ⇒


> 0 om y < 0

< 0 om y > 0.
pekar upp˚
at d˚
a y < 0 och ned˚
at d˚
a y > 0.
44
. Detta visar att pilarna
P˚
a linjen y =
a
b
0
f˚
ar vi att y =
c
d
pilarna pekar ned˚
at d˚
ax<
− acb
+
ad
x
b
⇒


> 0 om x >

< 0 om x <
och upp˚
at d˚
a x > dc .
c
d
. Detta visar att
c
d
Vi best¨ammer hur vektorerna (pilarna) pekar p˚
a y-nullcline, detta genom att titta
p˚
a tecken f¨or x0 :
P˚
a linjen y = 0 f˚
ar vi att x0 = ax ⇒


> 0 om x > 0
. Detta visar att pilarna pekar

< 0 om x < 0
˚
at h¨oger d˚
a x > 0 och ˚
at v¨anster d˚
a x < 0.


> 0 om y < a
b
c
ac
bc
0
.
P˚
a linjen x = d f˚
ar vi att x = d − d y ⇒

< 0 om y > a
b
Detta ger oss fasportr¨attet:
Fasportr¨att f¨or ovanst˚
aende Volterra-Lotkas modell.
Vi kan bevisa utseendet f¨or denna kurva, d.v.s. att den ¨ar sluten. Antag att x, y 6= 0
b¨orjar med att dividera
y0
x0
dy
dx
=
t). Vi har s˚
aledes att
dy
= −cx+dxy
dx
ax−bxy
y(−c+dx)
.
x(a−by)
=
=
y(−c+dx)
x(a−by)
(f¨or att slippa tidsvariabeln,
R
dy
Vi forts¨atter f¨oljande omskrivningar och f¨orenklingar: a−by
= −c+dx
⇔ a−by
dy =
y dx
x
y
R −c+dx
dx = a ln(y) − by + c ln(x) − dx = κ d¨ar κ ¨ar en integrationskonstant.
x
45
Uttrycket ovan kan skrivas om till :
y a xc
=K
eby edx
(24)
f¨or n˚
agot K.
L¨osningen ¨ar med andra ord en familj av kurvor, beskrivna av (24). Vi kan nu bevisa
att ovanst˚
aende definierar en familj av slutna kurvor f¨or x, y > 0.
Bevis:
Vi b¨orjar med att rita graferna f¨or
ya
eby
xc
g(x) = dx
e
f (y) =
(25)
Definiera nu dessa begrepp: st¨orsta v¨ardet f¨or F (y) = yM och st¨orsta v¨ardet f¨or
g(x) = xM , minsta v¨ardet kallas f¨or ym respektive xm . Det f¨oljer naturligt att (24)
inte har en l¨osning x, y > 0 f¨or K > xM yM . Vi beh¨over bara (av symmetrisk¨al)
unders¨oka fallet d˚
a K = λyM d¨ar 0 < λ < xM . Ekvationen
x = xm <
c
d
och en l¨osning x = xM >
c
d
xc
edx
= λ har en l¨osning
⇒
f (y) = y a e−by =
λ
xc edx
(26)
(26) har ingen l¨osning d˚
a x < xm eller x > xM men har d¨aremot en enda l¨osning d˚
a
y=
a
b
d˚
a x = xm eller x = xM . Ekvationen ovan har tv˚
a l¨osningar y1 (x) och y2 (x)
f¨or xm < x < xM d¨ar y1 (x) <
och y2 (x) →
a
b
a
b
< y2 (x). Detta leder till att y1 (x) →
a
b
d˚
a x → xm
d˚
a x → xM . Vi har s˚
aledes visat att (24) a¨r en sluten kurva f¨or
x, y > 0.
Exempel 5.11 (FitzHugh-Nagumos modell). Enligt (23) kan vi ber¨akna att y-nullcline
¨ar: x = a − by och y =
a−x
.
b
x- nullcline ¨ar p˚
a samma s¨att y =
46
x3
3
− x. P˚
a samma s¨att
som ovan kan vi d˚
a rita ett fasportr¨att ¨over detta (de streckade linjerna ¨ar graferna
f¨or systemets nullclines):
Fasportr¨att ¨over FitzHugh-Nagumos modell [EK05].
47
6
Periodiska beteenden
Inom matematiken och naturvetenskaperna finns det m˚
anga exempel p˚
a system med
periodiska beteenden. Det kan vara f¨ort¨atningar och f¨ortunningar i luften som skapar
ljudv˚
agor som l˚
ater sig beskrivas periodiskt. Det kan vara centralr¨orelsen vi k¨anner
n¨ar vi ˚
aker karusell, d˚
a vi efter en viss tidsperiod ˚
aterv¨ander till samma punkt. Eller
s˚
a kan det vara biologiska system d¨ar man kan titta p˚
a m¨anniskans dygnsrytm som
¨ar periodisk eller andra biologiska klockor. Med andra ord ¨ar periodicitet ett vanligt
fenomen i naturen och d¨arf¨or kr¨avs det verktyg som kan beskriva dessa fenomen.
F¨oljande avsnitt kommer introducera en del nya begrepp, med f¨oreg˚
aende avsnitt
som grund. Ett centralt begrepp ¨ar limit cycles”, eller gr¨anscykler. Huvudk¨allorna f¨or
detta avsnitt ¨ar: Mathematical Models in Biology [EK05], On Dynamical Behaviour
of FitzHugh-Nagumo Systems [RZ06] och Mathematics, Its Content, Methods and
Meaning [AK99]
6.1
Periodiska banor och gr¨
anscykler
N¨ar vi analyserat icke-linj¨ara system i xy-planet, har vi hittills koncentrerat oss
p˚
a s¨okandet efter steady states, avg¨orandet av stabilitet i dessa punkter samt hur
vektorf¨altet och trajektorer ser ut runt dem. Det finns dock annat man kan analysera,
n˚
agot viktigt man kan titta p˚
a ¨ar de trajektorer som bildar en sluten kurva, C. Om
detta h¨ander kommer l¨osningen z(t) = (x(t), y(t)) existera geometriskt som en punkt
som g˚
ar runt kurvan C med en viss period T , med andra ord ¨ar x(t + T ) = x(t) och
y(t + T ) = y(t), ∀t.
Om det existerar en s˚
adan sluten kurva, m˚
aste alla trajektorer i n¨arheten ungef¨ar
bete sig som C. Trajektorer i n¨arheten kan antingen g˚
a in mot C, g˚
a ut fr˚
an C eller
sj¨alva vara slutna kurvor. Om det senare inte g¨aller , d.v.s. att C ¨ar en isolerad
sluten kurva, s˚
a kallas C f¨or en limit cycle”eller gr¨anscykel. Denna kan vara stabil,
instabil eller semi-stabil beroende p˚
a om trajektorer i n¨arheten g˚
ar mot C, fr˚
an C
48
eller b˚
ada fallen. Definitionsm¨assigt brukar man s¨aga att en gr¨anscykel ¨ar vilken
sluten kurva som helst som ¨ar enkel (d.v.s. inte korsar sig sj¨alv) och inte inneh˚
aller
n˚
agra j¨amviktspunkter.
6.2
Ett exempel p˚
a gr¨
anscykel
Exempel 6.1. L¨os systemet av differentialekvationer

dx


=µx − ωy − x(x2 + y 2 )
dt
dy


=ωx + µy − y(x2 + y 2 )
dt
d¨ar µ, ω > 0 ¨ar reella konstanter.
L¨osning:
Genom variabelbyte f˚
ar vi att x = r cos θ, y = r sin θ och f˚
ar s˚
aledes tv˚
a nya ekvationer d¨ar r och θ inte a¨r beroende av varandra.

dθ


=ω
dt

 dr = r(µ − r2 )
dt
Vi integrerar den f¨orsta ekvationen en g˚
ang och f˚
ar
θ(t) = ωt + C
Ekvationen f¨or r a¨r d¨aremot en separabel typ.
s L¨osningen best¨ams av
Z
Z
r2
dr
=
dt
⇔
ln
= µ(t + c).
r(µ − r2 )
|r2 − µ|
F¨or att l¨osa ut r som en explicit funktion av t delar vi parametern µ i tv˚
a fall: (i)
µ ≤ 0 och (ii) µ > 0.
q
2
F¨or µ ≤ 0 har vi ln r2r−µ = µ(t + c) ⇔
49
r=
q
−µ
.
e−2µ(t+c) −1
F¨or µ > 0 har vi antingen
q
µ
r = 1−e−2µ(t+c)
d˚
a r2 > a, ( eller t > −c)
q
µ
eller r = 1+e−2µ(t+c)
d˚
a r2 ≤ a, ( eller t ≤ −c).
1.0
0.5
-1.0
0.5
-0.5
1.0
-0.5
-1.0
Ett geometriskt exempel p˚
a gr¨anscykel enligt ovan.
L¨agg ocks˚
a m¨arke till att f¨or µ ≤ 0 g˚
ar r mot 0 och f¨or µ > 0 g˚
ar r mot
√
µ d˚
a
t → ∞. Ins¨attningen av utl¨osta r, θ i x, y bildar en parameterkurva p˚
a xy-planet
vars utseende beror p˚
a tecknet p˚
a parametern µ. N¨ar µ ≤ 0 g˚
ar (x(t), y(t)) mot
√
origo medan (x(t), y(t)) f¨or µ > 0 g˚
ar mot cirkeln med centrum i origo och radie µ
d˚
a t → ∞. Bilden ovan ¨ar f¨or µ = 2. Detta beteende kallas f¨or gr¨anscykel.
6.3
Existens av stabila gr¨
anscykler
Den viktigaste typen av gr¨anscykel inom biologin ¨ar den s.k. stabila gr¨anscykeln, d¨ar
alla trajektorer n¨ara C, g˚
ar mot C fr˚
an b˚
ada sidor. Periodiska fenomen i naturen
kan oftast beskrivas med denna och biologin ¨ar inget undantag. Tyv¨arr vet man
f¨orv˚
anansv¨art lite om dessa gr¨anscykler, framf¨or allt hur man visar att ett system
har gr¨anscykler eller inte samt hur m˚
anga som existerar. David Hilbert, en av 18001900-talets stora matematiker, lade ˚
ar 1900 fram en lista ¨over d˚
a 23 ol¨osta problem
inom matematiken som kallas f¨or Hilbertproblemen. Hilberts 16:e problem, Problem
g¨allande algebraiska kurvors och ytors topologi”¨ar ett a¨nnu ol¨ost problem som bl.a.
50
handlar om best¨amandet av gr¨ansen f¨or hur m˚
anga gr¨anscykler ett polynomiellt
vektorf¨alt av n:te graden kan ha som mest. Det p˚
ag˚
ar fortfarande forskning och
f¨ors¨ok att l¨osa problemet ¨an idag.
Vi kan dock i denna text anv¨anda oss av satser som kan visa s˚
adant som ¨ar k¨ant!
Sats 6.2 (Poincar´
e-Bendixons sats). Vi har att:

 x0 = f (x, y)
(27)
 y 0 = g(x, y)
Antag nu att R ¨ar en ¨andlig region av planet, liggandes mellan tv˚
a enkla, slutna
kurvor, D1 och D2 , och att F ¨ar riktningsvektorsf¨altet f¨or system (27). Om
1. F i varje punkt i D1 och D2 pekar mot R och
2. R inte inneh˚
aller n˚
agra j¨amviktspunkter
s˚
a har system (27) en st¨angd trajektor liggandes i R.
Sats 6.3 (Levinson-Smiths sats). Antag att vi har f¨oljande system:

 x0 = y
(28)
 y 0 = −v(x) − u(x)y
Antag att dessa villkor ¨ar uppfyllda:
1. u(x) ¨ar en j¨amn och kontinuerlig funktion.
2. v(x) ¨ar udda och kontinuerlig f¨or alla x samt v(x) > 0 d˚
a x > 0.
3. V (x) → ∞ d˚
a x → ∞, d¨ar V (x) =
Rx
0
4. F¨or n˚
agot k > 0, har vi:
U (x) < 0 f¨or 0 < x < k
U (x) > 0 och v¨axande, f¨or x > k
U (x) → ∞ d˚
ax→∞
51
v(t)dt.
d¨ar U (x) =
Rx
0
u(t)dt.
D˚
a har system (28):
1. en unik j¨amviktspunkt i origo
2. en unik, nollskilld sluten trajektor, C, som ¨ar en stabil gr¨anscykel runt origo
3. alla andra nollskilda trajektorer, som g˚
ar mot C d˚
a t → ∞.
6.3.1
Van der Pol-ekvationen
Enligt (11) kom Van der Pol fram till detta system av differentialekvationer:

 x01 = x2
(29)
 x0 = −ε(x2 − 1)x − x .
2
1
2
1
F¨or att avg¨ora huruvida systemet har en stabil gr¨anscykel, kan vi anv¨anda oss
av Levinson-Smiths sats som n¨amndes ovan d˚
a Van der Pol-ekvationen har det
utseendet som system (28) har.
Vi identifierar u(x1 ) = ε(x21 − 1) och v(x1 ) = x1 och nu f¨oljer vi i numerisk ordning
villkoren och ser om de ¨ar uppfyllda eller inte:
1. u(x1 ) ¨ar en j¨amn och kontinuerlig funktion d˚
a u(−x1 ) = u(x1 ) (tack vare
kvadrattermen) samt det faktum att lim u(x1 ) = u(x0 ) f¨or varje punkt x0 i
x1 →x0
definitionsm¨angden.
2. v(x1 ) = x1 ¨ar en udda funktion d˚
a v(−x1 ) = −v(x1 ) och f¨or x1 > 0 ¨ar
v(x1 ) = x1 v¨axande ty v 0 (x1 ) > 0.
Z x1
x2
x2
aledes att V (x1 ) = 21 . V (x1 ) → ∞ d˚
a
3. V (x1 ) =
v(t) dt = 1 , vi har s˚
2
0
x1 → ∞.
Z x1
x3
4. U (x1 ) =
u(t) dt = ε( 1 − x1 ). U (x1 ) → ∞ d˚
a x1 → ∞, f¨or n˚
agot k > 0
3
0
52
d¨ar 0 < x < k s˚
a ¨ar U (x1 ) < 0 (ex. d˚
a k=1) och U (x1 ) > 0 och v¨axande f¨or
n˚
agot x1 > k (ex. k = 3).
D˚
a alla fyra kriterier a¨r uppfyllda kan vi vara s¨akra p˚
a att en gr¨anscykel existerar,
dock ¨ar gr¨anscyklerna i allm¨anhet v¨aldigt sv˚
ara att finna och uttrycka. Vi v¨aljer
d¨arf¨or att med dator illustrera en gr¨anscykel f¨or systemet ovan:
Exempel p˚
a gr¨anscykel i Van der Pols ekvation.
I detta fall har vi valt f¨oljande v¨arden p˚
a parametern ε = 3. Begynnelsev¨ardena ¨ar
x1 (0) = 0 och x2 (0) = 0, 5.
6.3.2
Volterra-Lotkas modell
F¨or Volterra- Lotkas modell ska vi analysera huruvida det existerar en stabil gr¨anscykel
eller inte genom att resonera kring den implicita ekvationen (24):
y a xc
=K
eby edx
(30)
f¨or n˚
agot K.
Om vi v¨aljer olika punkter (x, y) och s¨atter in dem i ekvationen ovan, kommer vi f˚
a
olika v¨arden p˚
a K, med andra ord kommer olika begynnelsev¨arden ge olika slutna
kurvor och det kan d˚
a per definition inte vara tal om att systemet har en gr¨anscykel.
53
6.3.3
FitzHugh-Nagumos modell II
I detta exempel unders¨oker vi en speciell typ av FitzHugh-Nagumos modell som g¨or
handr¨akning m¨ojligt, d.v.s. att det ger sn¨alla”v¨arden som inte ¨ar alltf¨or komplicerade, detta utan att f¨orlora essensen i resonemangen som tas upp nedan.
Betrakta f¨oljande system:

dV
V3


= 10(V −
− R + I)
dt
3

 dR = 4 (−R + 5 V + 3 )
dt
5
4
2
(31)
D¨ar variabeln V ¨ar sp¨anning ¨over axonmembranen (membranen p˚
a nervcellens l˚
anga
utskott), R ¨ar en ˚
aterh¨amtningsvariabel samt I ¨ar insignalen som driver processerna. Notera att tidskonstanten f¨or V ¨ar 12, 5 g˚
anger snabbare ¨an den f¨or R, vilket belyser det faktum att aktiveringsprocesser i axonet ¨ar mycket snabbare ¨an
˚
aterh¨amtningsprocesser. Nullclines f¨or detta system best¨ams av
R=V −
V3
5
3
+ I och R = V + .
3
4
2
F¨or I = 0, finns det en entydig l¨osning till de ovanst˚
aende ekvationerna: V = − 32 ,
R = − 38 , dvs att systemet endast har ett steady state. Jacobimatrisen i denna punkt
¨ar:

10 − 10V
3 3
J(− , − ) = 
2 8
1
Vi f˚
ar ¨aven fram egenv¨ardena
1
20
2

−10

− 45
−133 −
√

=
(− 23 ,− 83 )
− 25
 2
1

−10

− 45
√
1
9689 < 0, 20
−133 + 9689 < 0,
vilket visar att (− 32 , − 38 ) ¨ar en asympotiskt stabil nod, detta utan insignal (I=0). F¨or
hyperpolarisering (d.v.s. att nervcellen ˚
aterg˚
ar till sitt vilotillst˚
and) eller h¨ammande
insignal (I < 0), har systemet samma beteende. Detta f¨oljer av studiet av f¨oljande
54
polynomekvation
V −
L˚
at f (V ) =
V3
3
f 0 (V ) = V 2 +
V3
5
3
V3 V
3
+ I = V + ⇐⇒
+ + − I = 0.
3
4
2
3
4
2
+ V4 + 32 − I. Vi ser att f (V ) ¨ar en strikt v¨axande funktion eftersom
1
4
> 0. Det inneb¨ar att f (V ) = 0 bara har en l¨osning. Med hj¨alp av
Mathematica kan vi hitta denna rot V explict f¨or ett fixt I:
V =
d¨ar v¯ =
1
v¯
− ,
2¯
v 2
p
√
3
18 − 12I + 325 − 432I + 144I 2 .
Nu avg¨or vi f¨or vilka I, det(J(V )) > 0 och tr(J(V )) < 0, detta f¨or att V ska vara
en asymptotiskt stabil steady state. Av ber¨akningarna ovan ser vi att
4
2
det(J(V )) = − (10 − 10V ) + 10,
5
4
2
tr(J(V )) = 10 − 10V − .
5
Den f¨orsta olikheten g¨aller f¨or alla reella tal I medan den andra g¨aller f¨or
√
√
2250 − 167 23
2250 + 167 23
I<
eller
.
1500
1500
Allts˚
a har vi att tr(J) < 0 (I <
√
2250−167 23
)
1500
inte ska a¨ndra dynamiken f¨or syste-
met. F¨or depolalisering (joner str¨ommar och ¨andrar den elektriska sp¨anningen ¨over
membranet, I > 0) ¨ar situationen annorlunda. Ur ovanst˚
aende har vi att tecknet
f¨or sp˚
aret av Jacobimatrisen g¨or att V ¨ar en instabil punkt om
√
√
2250 − 167 23
2250 + 167 23
<I<
.
1500
1500
Nu vill vi visa att det finns en entydig stabil gr¨anscykel med hj¨alp av Poincar´eBendixons sats. Eftersom V ¨ar instabil m˚
aste trajektorer l¨amna n˚
agot omr˚
ade kring
V.
55
Konstruera en yttre sluten kurva enligt f¨oljande: B¨orja i punkten A p˚
a kurvan
dR
dt
= 0 med tillr¨ackligt stort V . Se bilden nedan, d¨ar vi har valt I =
(2.16667, 4.20833). Dra en horisontell linje tills linjen sk¨ar kurvan
dV
dt
3
2
och A =
= 0 i punkten
B (som ¨ar (−2.5, 4.20833) i bilden). Enligt systemet m˚
aste alla trajektorer korsa
denna linje i riktningen sydv¨ast”in i omr˚
adet eftersom
vidare en vertikal linje fr˚
an B tills linjen sk¨ar kurvan
dR
dt
dV
dt
< 0 och
dR
dt
< 0. Dra
= 0 i punkten C (som ¨ar
(−2.5, −1.625)). ˚
Aterigen visar ekvationerna att alla trajektorer m˚
aste korsa denna
linje i riktningen sydost in i omr˚
adet d¨arf¨or att
dV
dt
> 0 och
dR
dt
< 0. Med samma
resonemang drar vi en linje fr˚
an C till D som ligger precis rakt nedanf¨or punkten
A och sedan en vertikal linje fr˚
an D till A. Alla trajektorer korsar linjestr¨ackan
CD i riktning nordost in i omr˚
adet d˚
a
dV
dt
dR
dt
> 0 och
> 0, och det faktum att alla
trajektorer m˚
aste korsa linjestr¨ackan DA i riktningen nordv¨ast ty
dV
dt
< 0 och
dR
dt
> 0.
Enligt Poincar´e-Bendixons sats finns det en entydig asymptotiskt stabil gr¨anscykel
eftersom alla trajektorer g˚
ar in i omr˚
adet begr¨ansat av rektangeln ABCD och alla
trajektorer l¨amnar omgivningen av den instabila j¨amviktspunkten.
dV/dt=0
B
A
4
dR/dt=0
2
0
C
D
-2
gränscykeln
-4
-3
-2
-1
0
1
2
3
Exempel p˚
a ovanst˚
aende gr¨anscykel i FitzHugh-Nagumos modell.
56
7
Slutord
Syftet med denna text har varit att sj¨alva l¨ara oss om och ge dig, l¨asaren, en introduktion till hur matematiken och biologin tillsammans kan anv¨andas f¨or att beskriva
v¨arlden vi lever i. Vi menar inte att l¨agga anspr˚
ak p˚
a omr˚
aden som vi inte behandlat,
men naturvetenskaperna kan i symbios med matematiken g¨ora underverk i s¨okandet
efter svaren p˚
a fr˚
agorna: Hur kommer det sig att allt fungerar? Vad g¨or vi h¨ar?
Vem ¨ar jag? och m˚
anga andra kanske mindre filosofiska fr˚
agor. Dynamiska system
a¨r n˚
agot som finns o¨verallt i v˚
ar omv¨arld, alltifr˚
an hur m¨anniskor samverkar till
hur maskiner fungerar. F¨or 100 ˚
ar sedan hade man inte kunnat ana vilken utveckling tekniken och biologin skulle g¨ora under 1900-talet, d¨ar mycket av den moderna
fysiologin, genetiken och neodarwinismen har en matematisk grund som kr¨avs f¨or
vetenskapen ska utvecklas. F¨or lite mer ¨an 100 ˚
ar sedan, ˚
ar 1899, sa en kommissionsmedlem p˚
a det amerikanska patentverket att ¨allt som kan uppfinnas har redan
uppfunnits- Ack s˚
a fel han hade! Under hela 1900-talet utvecklades tv˚
a nya teorier i fysiken fram, relativitetsteorin och kvantmekaniken som b˚
ada f¨or¨andrat v˚
ar
v¨arldsbild och lett till teknologiska uppfinningar som vi aldrig tidigare ens hade kunnat dr¨omma om. Fysiken har hela tiden varit beroende av matematiken p˚
a ett s¨att
¨
biologin inte varit f¨or¨an nutid. Aven
biologin hade sin explosionsartade utveckling
i och med Darwins evolutionsteori och Mendels ¨arftlighetsl¨ara, dock har biologin
alltid hamnat i efterk¨alken vad g¨aller anv¨andningen av matematik d˚
a biologin innefattar otroligt komplexa system med ibland tusentals variabler. Tidigare har vi inte
haft verktygen f¨or att analysera dessa system, men nu med en hela tiden v¨axande
ber¨akningskraft hos datorer s˚
a kan biologin ¨antligen ta matematiken i handen och
kanske st˚
a vid ¨annu en revolution. Faktum ¨ar att man inte b¨or se naturvetenskaperna och matematiken som skilda entiteter utan som verktyg som alla kombinerat kan
ge oss en ¨an mer exakt beskrivning av jorden, universum, m¨anniskor och allt som vi
¨
om det utvecklas grenar inom ¨amnena som kan tyckas vara
¨ar intresserade av. Aven
helt v¨arldsfr˚
anvarande s˚
a har tekniken alltid varit beroende av vetenskapen f¨or att
57
utvecklas och det har lett till att vi har de bekv¨ama och h¨ogteknologiska liv vi har.
58
Referenser
[AK99]
Aleksandrov, A.D. Kolmogorov, A.N. Lavrent’ev, M.A. 1999, Mathematics, Its Content, Methods and Meaning: Three volumes bound as one.
USA: Dover publications.
[BP10]
B¨oiers, L-C. Persson, A. 2010, Analys i en variabel: Tredje upplagan. Lund:
Studentlitteratur AB.
[BV12]
R. Bøgvad, and P. Vaderlind. 2012, Kompendium i linj¨ar algebra. Stockholm: Matematiska institutionen, SU.
[Bø12]
Bøgvad, R. 2012, Algebra 1: Fj¨arde tryckningen. Stockholm: Matematiska
institutionen, SU.
[EK05]
Edelstein-Keshet, L. 2005, Mathematical Models in Biology: SIAM Classics
in Applied Mathematics 46. New York, SIAM.
[Le10]
Leon, S J. 2010, Linear Algebra with Applications: Eight edition. USA:
Pearsons Education International.
[RZ06]
Ringqvist, M. Zhou, Y. 2006, On Dynamical Behaviour of FitzHughNagumo Systems: Research Reports in Mathematics, Number 5. Stockholm: Matematiska institutionen, SU.
[Ta10]
Tamm, M. 2010, Inledning till flervariabelanalys: Andra upplagan. Stockholm: Matematiska institutionen, SU.
[Ta11]
M. Tamm. 2011, Till¨ampningar av envariabelanalys p˚
a problem i flera variabler. Stockholm: Matematiska institutionen, SU.
[Tr10]
Trappenberg, T.P. 2010, Fundamentals of Computational Neuroscience:
Second edition. Storbrittanien: Oxford University Press.
59