23
Kapitel 18 Flerdimensionale transformationer Når man i praksis skal opstille en sandsynlighedsmodel for et eksperiment, vil man altid tage udgangspunkt i uafhængighed. Ofte kan man tænke på det udførte ekspe- riment som et sammensat eksperiment, hvor de enkelte deleksperimenter er udført hver for sig, altså “uafhængigt” i en intuitiv betydning af ordet. Hvis vi har udført n deleksperimenter, kan en fornuftig model være at hvert af disse beskrives af en stokastisk variabel X i , hvor X i ∼N (ξ i 2 ), i = 1,..., n , og hvor X 1 ,..., X n er uafhængige. Denne model, med uafhængige, normalfordelte variable hvor middelværdien får lov at afhænge af observationsnummeret, men hvor variansen er fast, er det grundlæggende statistiske værktøj i et meget stort antal situ- ationer. I andre situationer er uafhængigheden mere skjult. Man kan f.eks. forestille sig at de observerede variable X 1 ,..., X n har en autoregressiv struktur: X i = ρ X i1 + ǫ i , i = 2,..., n , hvor ρ (1, 1) er en parameter, og hvor ǫ ’erne er uafhængige og identisk fordelte, f.eks. ǫ i ∼N (02 ), i = 1,..., n . 376

Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

Kapitel 18

Flerdimensionaletransformationer

Når man i praksis skal opstille en sandsynlighedsmodel for et eksperiment, vil manaltid tage udgangspunkt i uafhængighed. Ofte kan man tænke på det udførte ekspe-riment som et sammensat eksperiment, hvor de enkelte deleksperimenter er udførthver for sig, altså “uafhængigt” i en intuitiv betydning af ordet. Hvis vi har udførtn deleksperimenter, kan en fornuftig model være at hvert af disse beskrives af enstokastisk variabelXi, hvor

Xi ∼ N(ξi , σ2), i = 1, . . . , n ,

og hvor X1, . . . ,Xn er uafhængige. Denne model, med uafhængige, normalfordeltevariable hvor middelværdien får lov at afhænge af observationsnummeret, men hvorvariansen er fast, er det grundlæggende statistiske værktøj i et meget stort antal situ-ationer.

I andre situationer er uafhængigheden mere skjult. Man kan f.eks. forestille sig at deobserverede variableX1, . . . ,Xn har enautoregressivstruktur:

Xi = ρXi−1 + ǫi , i = 2, . . . , n ,

hvor ρ ∈ (−1, 1) er en parameter, og hvorǫ’erne er uafhængige og identisk fordelte,f.eks.

ǫi ∼ N(0, σ2), i = 1, . . . , n .

376

Page 2: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.1. Klassifikationseksperimenter 377

Det karakteristiske i dette setup er atǫi ’erne slet ikke observeres - vi observerer kunhvordanǫi ’erne manifesterer sig iXi ’erne. Der er således noget fiktivt over deǫ’erhvorpå vi lægger uafhængighedsantagelsen. Bemærk at de observerede variable ikkeer uafhængige, det er f.eks. let at se at

Cov(Xi ,Xi−1) = ρVXi−1, i = 2, . . . , n.

Når vi insisterer på at tage udgangspunkt i uafhængighed, erdet fordi at den enesteform for samvariation mellem stokastiske variable, vi for alvor er i stand til at begribe,er ’ingen samvariation’, altså uafhængighed. Når vi tvinges til at modellere afhæn-gighed, vil det altid ske i form af en transformation af en model med uafhængigevariable.

Vi tænker på produktmål som ’simple’ flerdimensionale mål, og vi insisterer altsåpå altid at beskrive data - enten observerede data eller bagvedliggende fiktive data- ved hjælp af sådanne produktmål. De komplicerede flerdimensionale mål (og forså vidt også komplicerede etdimensionale mål) kommer primært til verden, når vitransformerer data.

18.1 Klassifikationseksperimenter

I et simpelt klassifikationseksperiment undersøger man et objekt fra en given po-pulation, ogklassificerer det efter et vist inddelingskriterium. Vi klistrer altså en“etikette” på objektet, der fortæller hvad for en slags objekt der er tale om. Der erkun endeligt mange mulige etiketter. I abstrakte sammenhænge bruger man som re-gel etiketterne1, . . . ,N, mens det i praksis ofte er mere naturligt at bruge en andenendelig mængdeX som etikettemængde.

Eksempel 18.1Et højt elsket klassifikationseksperiment handler om at tage en kugleop af en urne, og undersøge hvilken farve den udtrukne kugle har. Hvis urnen inde-holder røde, hvide og sorte kugler, vil det være naturligt atbruge etikettemængden

X = rød, hvid, sort. (18.1)

Man kan naturligvis vælge en rækkefølge af farverne, f.eks.lade “rød” svare til 1,“hvid” til 2 og “sort” til 3, og derefter bruge etikettemængden 1, 2, 3, og hvis manvil lade data behandle af en computer, er man som regel nødt til at gøre noget i denne

Page 3: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

378 Kapitel 18. Flerdimensionale transformationer

stil. Men nummereringen har noget utilfredsstillende arbitrært over sig, og man stårsig ofte ved at bruge etiketterne i (18.1).

Eksempel 18.2 Et andet klassisk klassifikationseksperiment består i at undersøgeblodtypen på en patient. Klassificeres blodtypen efterAB0-systemetbruges etikette-mængden

X = A, B, AB, 0.

Der findes en del andre klassifikationssystemer, herunderRhesusblodtypen.

Selve klassifikationen er givetvis deterministisk: når manstår med et objekt i hånden,er der ikke noget stokastisk over hvilken etikette vi påklistrer det. Tilfældighedenkommer ind, fordi objektet er valgt tilfældigt fra populationen. Man kunne lige sågodt have valgt et andet objekt, og dermed muligvis have observeret en anden eti-kette. Så klassifikationen har et stokastisk fremtrædende,for så vidt som at vi ikkefør objektet vælges ved hvilken etikette vi kommer til at se.Chancerne for at se enkonkret etikette, afspejler altså hvor stor en del af populationen, der - hvis undersøgt- ville få netop denne etikette påklistret.

En sandsynlighedsmodel for et simpelt klassifikationseksperiment består altså af enendelig mængdeX = 1, . . . ,N og et sandsynlighedsmålν på (X, P(X)). Vi repræ-senterer eksperimentet ved en stokastisk variabel

X : (Ω, F,P)→ (X, P(X)),

sådan atP(X = x) = px, x = 1, . . . ,N.

hvor (p1, . . . , pN) er sandsynlighedsfunktionen forν. Altså sådan atX(P) = ν.

I et sammensat klassifikationseksperiment udvælger man efter turn objekter fra po-pulationen, og hvert af disse klassificeres. De udtrukne objekter udgør enstikprøvefra populationen. Hvis hvert undersøgt objekt sættes tilbage i populationen efter endtklassifikation, og kan trækkes påny på lige fod med de ikke-undersøgte objekter, såtaler vi omstikprøveudtagning med tilbagelægning. Vi taler også ofte om stikprø-veudtagning med tilbagelægning, uanset hvad der sker med deundersøgte objekter,hvis blot populationen er uendelig stor, sådan at et enkelt objekt fra eller til ikkespiller nogen rolle for fordelingen af etiketter i populationen.

Page 4: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.1. Klassifikationseksperimenter 379

En naturlig sandsynlighedsmodel for stikprøveudtagning med tilbagelægning er atbruge uafhængige, identisk fordelte stokastiske variableX1, . . . ,Xn, alle defineret pået baggrundsrum (Ω, F,P), med værdier i (X, P(X)), sådan at

P(Xi = x) = px, x = 1, . . . ,N, i = 1, . . . , n.

Med andre ord: sådan at den simultane fordeling af (X1, . . . ,Xn) er produktmåletν ⊗ . . . ⊗ ν på (Xn, P(X)⊗n).

Det er nemt at angive sandsynligheden for at observere enhver konkret sekvens(x1, . . . , xn) af etiketter: det er simpelthen

P(X1 = x1, . . . ,Xn = xn) =n

i=1

pxi .

Til gengæld er en observeret sekvens af etiketter en helt uoverskuelig kaskade af data,i hvert fald hvisn er stor. Man vil derfor oftetabellere data, dvs. transformere medfunktionentn : Xn→ N0

N givet ved

tn(x1, . . . , xn) =

n∑

i=1

11(xi), . . . ,n

i=1

1N(xi)

for (x1, . . . , xn) ∈ Xn.

Førstekoordinaten itn(x1, . . . , xn) er altså antallet af 1-taller i etikettesekvensen(x1, . . . , xn), andenkoordinaten er antallet af 2-taller, og så videre. Vi bemærker attn(x1, . . . , xn) ∈ S(N, n) for alle (x1, . . . , xN) ∈ Xn fordi det samlede antal etiketter joern.

Sætning 18.3Lad X1, . . . ,Xn være uafhængige, identisk fordelte stokastiske vari-able, defineret på(Ω, F,P) med værdier iX = 1, . . . ,N. Antag at

P(Xi = x) = px, x = 1, . . . ,N, i = 1, . . . , n.

Lad Y= (Y1, . . . ,YN) være tabelleringen af Xi ’erne, altså

Y = tn(X1, . . . ,Xn).

Da er Y polynomialfordelt med længde n og sandsynlighedsvektor (p1, . . . , pN).

Page 5: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

380 Kapitel 18. Flerdimensionale transformationer

B: Tag en sekvensy = (y1, . . . , yN) ∈ S(N, n). Da er

P(Y1 = y1, . . . ,Yn = yN) = P(X ∈ tn−1(y))

=

x∈ tn−1(y)

P(X1 = x1, . . . ,Xn = xn) =∑

x∈ tn−1(y)

n∏

i=1

pxi

=

x∈tn−1(y)

p1y1 · . . . · pN

yN = |tn−1(y)|N

j=1

p jyj .

Hvor mangen-sekvenser afX-etiketter findes der med den foreskrevne tabelleringy?Definition 16.7 er direkte rettet mod dette spørgsmål, og vi ser at

|tn−1(y)| =(

ny1, . . . , yN

)

.

Alt i alt får vi at

P(Y1 = y1, . . . ,Yn = yN) =

(

ny1, . . . , yN

) N∏

j=1

p jyj ,

som ønsket.

Eksempel 18.4Man undersøgte hvilken form for studentereksamen 1 000 studenterfik i året 1997. Hver eksamen klassificeredes i en af følgende kategorier:

X = Sproglig, Matematisk, HF = S, M, H.

De observerede data er en sekvens af formen

H, S, H, M, S, H, M, H, S, H, H, H, S, S, . . .

Sekvensen fortsætter side op og side ned. Det er meget begrænset, hvilken indsigtman kan vinde ved at stirre på disse rå data. Helt anderledes forholder det sig hvisman tabellerer dem:

Sproglig Matematisk HF

333 436 231

Page 6: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.1. Klassifikationseksperimenter 381

Her kan man umiddelbart få et overblik over data. For at opnå dette overblik harvi foretaget endatareduktion - vi har smidt store mængder information væk. Vi erf.eks. ude af stand til at reproducere de oprindelige data udfra tabelleringen - enhverinformation om rækkefølgen af de tre etiketter i den rå sekvens er væk. Men vi føleros ikke hæmmede af at have smidt information væk, den ekstra information der liggeri de oprindelige data forekommer os ikke særlig relevant.

Om tallene i tabellen er repræsentative for hvor almindelige de forskellige typer stu-dentereksamen er i den samlede population af studenter, er et andet spørgsmål. Dethar at gøre med hvordan de 1 000 studenter er blevet valgt ud til undersøgelse. Erde f.eks. taget i en bestemt geografisk region, eller er der i udvælgelsesprocedurenforkærlighed for et bestemt køn?

Man kan godt diskutere om der virkelig er tale om stikprøveudtagning med tilbage-lægning. Ud fra et strengt formelt synspunkt er der i hvert fald ikke tale om tilba-gelægning. Man har udtaget 1 000forskellige elever, man har naturligvis ikke tilladtden samme elev at blive talt med flere gange. Formelt taler manom stikprøveudtag-ning uden tilbagelægning. En tabellering af stikprøven i et udtrækningsproces udentilbagelægning erikke polynomialfordelt. Men afvigelsen er ubetydelig, hvis densamlede population er meget større end den udtagne stikprøve.

I 1997 blev der i alt taget godt 23 000 studentereksamener, så1 000 udtagne studentervirker ikke som nogen helt forsvindende stikprøve. Men det er ikke klart at de faktiskaflagte studentereksamener udgør “populationen”. I så faldkunne man jo bare tælledem op alle sammen, og så ville enhver tilfældighed være elimineret. De svar mankan opnå på denne måde er bare sjældent svar på de spørgsmål man virkelig ønskerbesvaret. I dette tilfælde er man måske interesseret i at vurdere om lærerallokeringenmellem de tre gymnasiale retninger svarer til behovet i de kommende år. I så fald erde elever der fik en studentereksamen i 97 er en nærmest irrelevant population. De erjo ude af det gymnasiale system. Det vigtige er hvordan dekommendeårgange vilfordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordeltesig på retningerne efter samme mekanisme som kommende års studerende. Dermeder 97-årgangen i sig selv en slags stikprøve (og de 1 000 elever vi har tabelleret, eren substikprøve). Der er en eller anden ikke alt for veldefineret underliggende virtuelpopulation af “gymnasiaster i Danmark”.

Men man griber ofte til det trick at forestille sig at populationen er potentielt uende-lig, at mankunnehave tildelt en studentereksamen til mange flere end dem der rentfaktisk fik en, og at de virtuelle studentereksamener ville fordele sig på de tre typer

Page 7: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

382 Kapitel 18. Flerdimensionale transformationer

på stort set samme måde som de faktisk opnåede studentereksamener. Man er nødt tilat foretage den slags intellektuelle kraftspring, dels forat få frekvensfortolkningen afsandsynligheder til at give mening, og dels for at kunne svare på de spørgsmål manvirkelig er interesseret i.

Man vinder altså ofte i klarhed ved transformationer. Men for en pris: modellen forde transformerede data er meget mere kompliceret end for de oprindelige data. DeenkelteYi-variable har ganske vist en simpel fordeling, de er alle binomialfordelte.Men deres samvariation er væmmelig, se f.eks. (17.14).

Sætning 18.5Lad Y = (Y1, . . . ,YN) og Y′ = (Y′1, . . . ,Y′N) være uafhængige poly-

nomialfordelte variable med længde n hhv. n′ og sammesandsynlighedsparameter(p1, . . . , pN). Da er

Y′′ = (Y′′1 , . . . ,Y′′N) = (Y1 + Y′1, . . . ,YN + Y′N)

polynomialfordelt med længde n+ n′ og sandsynlighedsparameter(p1, . . . , pN).

B: LadX1, . . . ,Xn+n′ , defineret på samme baggrundsrum (Ω, F,P) og med værdieri X = 1, . . . ,N, være uafhængige, identisk fordelte, sådan at

P(Xi = x) = px, x = 1, . . . ,N, i = 1, . . . , n+ n′.

Vi konstruerer nye variable

Z = (Z1, . . . ,ZN) = tn(X1, . . . ,Xn),

Z′ = (Z′1, . . . ,Z′N) = tn′(Xn+1, . . . ,Xn+n′).

Det er klart atZ er polynomialfordelt med længden og sandsynlighedsparameter(p1, . . . , pN), såZ har samme fordeling somY. Tilsvarende erZ′ polynomialfordeltmed længden′ og sandsynlighedsparameter (p1, . . . , pN), såZ′ har samme fordelingsomY′. Det følger af sætning 16.18 atZ og Z′ er uafhængige, og daY og Y′ ogsåer uafhængige, kan vi konstatere at den simultane fordelingaf (Y,Y′) er den sammesom den simultane fordeling af (Z,Z′). Derfor harY′′ samme fordeling som

Z′′ = (Z′′1 , . . . ,Z′′N) = (Z1 + Z′1, . . . ,ZN + Z′′N) .

Men Z′′ er polynomialfordelt med længden + n′ og sandsynlighedsparameter(p1, . . . , pN), for

Z′′ = tn+n′(X1, . . . ,Xn+n′).

Page 8: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.2. Ordnede variable 383

Det anførte bevis for sætning 18.5 virker en smule kompliceret, men er baseret på ensimpel ide: hvis de indgående polynomialfordelinger er kommet til verden ved tabel-lering af klassifikationseksperimenter, så er påstanden stort set triviel. Og man tænkeraltid på polynomialfordelinger på denne måde. Men sætningens formulering tilladeri virkeligheden at polynomialfordelingerneikke har basis i klassifikationseksperi-menter (skønt det i så fald kan være svært at forestille sig hvordan de er kommet tilverden). Derfor skal man overbevise sig om at den påstand dergøres, ikke afhængeraf hvordan polynomialfordelingerne skabes.

Ved på tilsvarende måde at fokusere på polynomialfordelinger med basis i klassifi-kationseksperimenter, kan man give simple beviser for andre generelle resultater ompolynomialfordelinger, herunder lemma 16.11 og formel (17.14).

18.2 Ordnede variable

Betragt afbildningenh : Rn→ Rn givet ved

h(x1, . . . , xn) = (x(1), . . . , x(n)), (18.2)

hvor x(1) ≤ . . . ≤ x(n) er deordnede værdier af xi ’erne. Vi ønsker at undersøgefølgende spørgsmål: hvisX1, . . . ,Xn er uafhængige, identisk fordelte stokastiske va-riable, hvad er så den marginale fordeling af hvertX(m)? Vi vil senere vende tilbagetil den simultane fordeling af hele sættet (X(1), . . . ,X(n)).

Eksempel 18.6Lad X1 og X2 være uafhængige, ligefordelte på (0, 1). På figur 18.1har vi optegnet et scatterplot af 1 000 observationspar af denne type, samt et histo-gram overX1. Der er intet i denne tegning der overrasker os, punkterne afformen(X1,X2) spreder sig ud i enhedskvadratet, ogX1-histogrammet viser den forventedeligefordeling.

Helt anderledes forholder det sig, hvis vi ordner observationerne før vi laver teg-ningen. På figur 18.1 har vi også optegnet et scatterplot af (X(1),X(2)), baseret på desamme observationer som før, samt et histogram overX(1)-værdierne. Det er tydeligtat X(1) og X(2) er afhængige- en storX(1)-værdi giver automatisk en storX(2)-værdi.Og det er tydeligt ud fra histogrammet atX(1) ikke er ligefordelt.

For en overfladisk betragtning er det måske overraskende atX(1) ikke er ligefordelt.Vi ved jo atX(1) er lig en af de oprindeligeX’er, og de er begge ligefordelte. Hvis man

Page 9: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

384 Kapitel 18. Flerdimensionale transformationer

0.0 0.5 1.0

0.0

0.5

1.0

0.0 0.5 1.0

0.0

0.5

1.0

0.0 0.5 1.0

0.0

0.5

1.0

0.0 0.5 1.0

01

2

X1X1

X2

X(1)X(1)

X(2

)

Figur 18.1:Øverst til venstre et scatterplot af 1 000 simulationer af touafhængige variableX1 og X2, begge ligefordelte på(0, 1). Øverst til højre et histogram af de observeredeX1-værdier. Nederst til venstre et scatterplot af de ordnede observationerX(1) og X(2), og nedersttil højre et histogram af de observeredeX(1)-værdier.

havde taget entilfældig af de oprindeligeX’er, så ville den resulterende variabel ogsåvære ligefordelt. Men vi tager ikke et tilfældigX, vi tager systematisk det mindste.Og det tvingerX(1) til at være lille - hvisX(1) er stor, måbeggeX’er være store, ogdet er ikke så sandsynligt.

Sætning 18.7Lad X1, . . . ,Xn være uafhængige, identisk fordelte stokastiske variablemed fordelingsfunktion F. For m= 1, . . . , n er fordelingsfunktionen for X(m) givet ved

G(y) =n

k=m

(

nk

)

F(y)k(1− F(y))n−k

, y ∈ R. (18.3)

Page 10: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.2. Ordnede variable 385

B: At X(m) ≤ y er ækvivalent med atmindst maf X’erne er mindre endy. Vi delerop efter præcis hvilkeX’er der er mindre endy:

(X(m) ≤ y) =⋃

I⊂1,...,n|I |≥m

(Xi ≤ y for i ∈ I ,X j > y for j < I )

=

n⋃

k=m

I⊂1,...,n|I |=k

(Xi ≤ y for i ∈ I ,X j > y for j < I ) .

Dette er en disjunkt forening, så

G(y) = P(X(m) ≤ y) =n

k=m

I⊂1,...,n|I |=k

P(Xi ≤ y for i ∈ I ,X j > y for j < I )

=

n∑

k=m

I⊂1,...,n|I |=k

F(y)k(1− F(y))n−k=

n∑

k=m

(

nk

)

F(y)k(1− F(y))n−k .

I specialtilfældetm = n, hvor vi altså tager maksimum afn stokastiske variable,bliver (18.3) til

G(y) = F(y)n, for y ∈ R. (18.4)

I specialtilfældetm = 1, hvor vi altså tager minimum afn stokastiske variable, bli-ver (18.3) til

G(y) = 1− (

1− F(y))n, for y ∈ R. (18.5)

Eksempel 18.8Hvis X1, . . . ,Xn er uafhængige og ligefordelte på (0, 1), så følger detaf (18.3) at hvertX(m) har fordelingsfunktion

G(y) =n

k=m

(

nk

)

yk (1− y)n−k for y ∈ (0, 1).

Page 11: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

386 Kapitel 18. Flerdimensionale transformationer

Differentieres fordelingsfunktionen, får vi

G′(y) =n

k=m

(

nk

)

(

k yk−1 (1− y)n−k − (n− k) yk (1− y)n−k−1)

=

n∑

k=m

n

(

n− 1k− 1

)

yk−1 (1− y)n−k −n

k=m

n

(

n− 1k

)

yk (1− y)n−1−k .

Denne sum teleskoperer, og efter lidt reduktion ser man at

G′(y) =n!

(m− 1)! (n−m)!ym−1 (1− y)n−m.

Dette er netop tætheden forB(m, n− m+ 1)-fordelingen. Og heraf slutter vi atX(m)

er B(m, n− m+ 1)-fordelt. Blandt andet ser vi at hvisn = 2, følgerX(1) en B(1, 2)-fordeling, i fin overensstemmelse med figur 18.1.

I princippet kan man gå videre, og finde den flerdimensionale fordelingsfunktion forden simultane fordeling af alleX(m)’erne - eller måske blot af nogle af dem. Udtryk-kene bliver dog i almindelighed temmelig uhåndterlige. Hvis man skærper kravene,sådan at de indgående variable har tæthed, så kan man derimodfå brugbare karakte-riseringer af den simultane fordeling af de ordnede observationer frem, som vi senereskal se.

Bemærk at den empiriske fordeling af punkternex1, . . . , xn ∈ R bliver den sammeuanset hvordan observationerne er stillet i rækkefølge. Såman kan udlede den empi-riske fordeling ud fra de ordnede observationer.

Omvendt, hvis man kender den empiriske fordeling, kan man finde den empiriskefordelingsfunktion som i eksempel 14.7. Springpunkterne for den empiriske forde-lingsfunktion fortæller netop hvor observationerne er faldet, men man kan ikke sei hvilken rækkefølge de er fremkommet. Man er altså i stand til at reproducere deordnede observationer, men ikke de oprindelige observationer.

Vi konkluderer, at en angivelse af de ordnede observationerer ækvivalent med enangivelse af den empiriske fordelingsfunktion. Empiriskefordelingsfunktioner spilleren betydelig rolle i statistik, så denne forbindelse kan tilen vis grad forklare hvorforman er interesseret i ordnede observationer.

Page 12: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.3. Range 387

Eksempel 18.9Lad X1, . . . ,Xn være uafhængige og ligefordelte på (0, 1). Betragt etp ∈ (0, 1) og ladY være den mindste empiriskep-fraktil,

Y = X([np]+1) .

Ifølge eksempel 18.8 erY B-fordelt med formparametre ([np] + 1, n− [np]). Vi ser at

EY=[np] + 1

n+ 1≈ p , VY=

([np] + 1)(n− [np])

(n+ 1)2(n+ 2)≈ p(1− p)

n.

Vi ser til vores tilfredsstillelse at den empiriskep-fraktil i det mindste ligger tæt påden sandep-fraktil, og jo tættere, jo flere observationer vi har.

18.3 Range

Når man ordner observationerx1, . . . , xn ∈ R, så opgiver man at holde styr på hvilkeobservationer, der er store, og hvilke, der er små. Et helt andet syn på observatio-nerne får man, hvis man udelukkende fokuserer på deres kombinatoriske struktur,altså hvilke observationer, der er store og hvilke der er små, men ser bort fra præcishvor store og små de er. Hvis alle observationerne er forskellige- vi siger at der ikkeer ties - kan vi opsummere observationernes kombinatoriske struktur i rangene: viordner hele datamaterialet, og giver den mindste observation rang 1, den næstmindsterang 2 osv. Formelt udregner vi

Ri =

n∑

j=1

1(xj≤xi ) , i = 1, . . . , n , (18.6)

hvor vi tæller op hvor mange observationer, der er mindre endeller lig xi.

Hvis der er ties mellem observationerne, kan to observationer få tildelt samme “rang”ud fra (18.6), og i så fald bliver rangbegrebet lidt ubehageligt. Men hvis derikke erties, så vil de forskellige observationer få hver sin rang. Med andre ord: rangeneR(x1, . . . , xn) = (R1, . . . ,Rn) vil udgøre enn-permutation.

Lemma 18.10 Lad X1, . . . ,Xn være uafhængige, identisk fordelte reelle stokastiskevariable med en kontinuert fordeling. Med sandsynlighed 1 er der ingen ties mel-lem observationerne, og rangeneR(X1, . . . ,Xn) er ligefordelt på den symmetriskegruppeSn.

Page 13: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

388 Kapitel 18. Flerdimensionale transformationer

B: Sandsynligheden for at observere en tie mellemXi ogX j er nul, ifølge Tonellissætning. Dermed er der sandsynlighed nul for at observere entie overhovedet. Så vikan gå ud fra at rangene er veldefinerede.

Hvis (r1, . . . , rn) er en konkretn-permutation, så er udsagnet at

(R1, . . . ,Rn) = (r1, . . . , rn)

simpelthen et udsagn om atXi ’erne er placeret i en speciel rækkefølge. Hvis(r1, . . . , rn) er den trivielle permutation (1, . . . , n), så er udsagnet det samme som atsige atX1 < X2 < . . . < Xn.

Men Xi ’erne er ombyttelige, så den ene rækkefølge er præcis lige såsandsynlig somden anden. Og det oversættes til at enhver permutation har samme sandsynlighed forat blive ramt afR. Der er præcisn! permutationer iSn, så vi har at

P((R1, . . . ,Rn) = (r1, . . . , rn)) =1n!

for alle permutationer (r1, . . . , rn) ∈ Sn .

Bemærk at kender vibåde de ordnede observationer (x(1), . . . , x(n)) og rangene(R1, . . . ,Rn), så kan vi reproducere de oprindelige observationer (x1, . . . , xn).

18.4 Foldninger

Vi vil slutte dette kapitel af med at behandle en af de oftest udførte transformationeraf flerdimensionale variable: hvad kan der siges om fordelingen afX + Y, hvis mankender den simultane fordeling afX ogY? Vi vil fokusere på situationen hvorX ogYer uafhængige variable. Vi skal dog se i senere kapitler, at det også er muligt at sigenoget om fordelingen afX + Y, selv hvis variablene er afhængige.

Definition 18.11 Lad µ og ν være sandsynlighedsmål på(R,B). Betragt funktionenφ : R2→ R givet ved

φ(x, y) = x+ y, (x, y) ∈ R2. (18.7)

Da kaldes billedmåletµ ∗ ν = φ(µ ⊗ ν)

for foldningen af µ ogν.

Page 14: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.4. Foldninger 389

Foldning er en pæn komposition på rummet af sandsynlighedsmål på (R,B). Den erbåde kommutativ og associativ.

Sætning 18.12Hvis X og Y er uafhængige reelle stokastiske variable, defineret på(Ω, F,P), så er

(X + Y)(P) = X(P) ∗ Y(P).

B: Ved at bruge (18.7) ser vi at

(X + Y)(P) =(

φ (X,Y))

(P) = φ(

(X,Y)(P))

= φ(

X(P) ⊗ Y(P))

= X(P) ∗ Y(P).

Så at lægge uafhængige reelle stokastiske variable sammen,svarer til at folde deresfordelinger. Vi starter med at folde diskrete fordelinger:

Sætning 18.13Lad X og Y være uafhængige reelle stokastiske variable, defineret på(Ω, F,P). Hvis X og Y begge er koncentreret påZ, med sandsynlighedsfunktion p hhv.r, så er X+ Y koncentreret påZmed sandsynlighedsfunktion

q(n) =∞∑

m=−∞p(n−m) r(m), for alle n ∈ Z. (18.8)

B: Det er klart atX+Y er koncentreret påZ - en værdi uden forZ ville jo kræve atmindst én af variableneX ellerY havde værdi uden forZ, og det er der sandsynlighednul for. Vi finder let sandsynlighedsfunktionen:

P(X + Y = n) =∞∑

m=−∞P(X = n−m,Y = m) =

∞∑

m=−∞p(n−m) r(m).

Page 15: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

390 Kapitel 18. Flerdimensionale transformationer

Eksempel 18.14 Lad X og Y være uafhængige og binomialfordelte med længdenhhv. m og sammesuccessandsynlighedp. Da er sandsynlighedsfunktionen for for-delingen afX + Y

p(i) =∞∑

j=−∞

(

ni − j

)

pi− j(1− p)n−i+ j(

mj

)

p j(1− p)m− j

= pi(1− p)n+m−i∞∑

j=−∞

(

ni − j

)(

mj

)

=

(

n+mi

)

pi(1− p)n+m−i

for alle i ∈ Z. Altså erX + Y binomialfordelt med længden+m og den oprindeligesuccessandsynlighedp. Det vidste vi sådan set godt i forvejen, det kan ses som et spe-cialtilfælde af resultaterne i sætning 18.5 om fordelingenaf summen af to uafhængigepolynomialfordelte variable.

Eksempel 18.15 Hvis X og Y er uafhængige og Poissonfordelte med parametreλ

hhv.µ, er sandsynlighedsfunktionen for fordelingen afX + Y

p(i) =i

j=0

λi− j

(i − j)!e−λ

µ j

j!e−µ

= (λ + µ)i e−(λ+µ)

i!

i∑

j=0

(

ij

) (

λ

λ + µ

)i− j (µ

λ + µ

) j

=(λ + µ)i

i!e−(λ+µ)

for alle i ∈ Z. Altså erX + Y Poissonfordelt med parameterλ + µ.

Samme ide som førte til sætning 18.13 kan bruges i mere generelle situationer til atsige noget om fordelingsfunktionen af en sum af uafhængige variable.

Sætning 18.16Lad X og Y være uafhængige reelle stokastiske variable, defineret på(Ω, F,P). Lad X have fordelingµ og fordelingsfunktion F. Lad tilsvarende Y have

Page 16: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.4. Foldninger 391

fordeling ν og fordelingsfunktion G. Da har X+ Y fordelingsfunktionen H, bestemtved

H(z) =∫ ∞

−∞F(z− y) dν(y) =

∫ ∞

−∞G(z− x) dµ(x). (18.9)

B: Tag etz ∈ R. Da har vi at

H(z) = P(X + Y ≤ z) = (X,Y)(P)((x, y) ∈ R2 | x+ y ≤ z)

= µ ⊗ ν((x, y) ∈ R2 | x+ y ≤ z).

Tonellis sætning giver nu at

H(z) =∫ ∞

−∞µ(x ∈ R | x+ y ≤ z) dν(y) =

∫ ∞

−∞F(z− y) dν(y).

Ved tilsvarende at bruge Tonellis sætning på den anden led, fås

H(z) =∫ ∞

−∞ν(y ∈ R | x+ y ≤ z)dµ(x) =

∫ ∞

−∞G(z− x) dµ(x).

Ved at skærpe antagelsen om de indgående fordelinger, kan man på baggrundaf (18.9) også skærpe konklusionen fra sætning 18.16.

Korollar 18.17 Lad X og Y være uafhængige reelle stokastiske variable, defineret på(Ω, F,P). Hvis Xeller Y har en kontinuert fordeling, så har X+Y også en kontinuertfordeling.

B: Lad X og Y have fordelingµ hhv. ν og fordelingsfunktionF hhv. G, og ladX + Y have fordelingsfunktionH. Helt analogt med (18.9) kan man indse at

H(z− 0) =∫ ∞

−∞F(z− y− 0)dν(y) =

∫ ∞

−∞G(z− x− 0)dµ(x).

Hvis f.eks.X har en kontinuert fordeling, erF(z− y − 0) = F(z− y) for alle z og y.Og dermed er

H(z− 0) =∫ ∞

−∞F(z− y− 0)dν(y) =

∫ ∞

−∞F(z− y) dν(y) = H(z)

for alle z ∈ R. Så fordelingsfunktionen forX + Y er kontinuert. Argumentet hvisYhar en kontinuert fordeling, er analogt.

Page 17: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

392 Kapitel 18. Flerdimensionale transformationer

Korollar 18.18 Lad X og Y være uafhængige reelle stokastiske variable, defineretpå (Ω, F,P). Hvis X eller Y har tæthed med hensyn til m, så har X+ Y også tæthedmed hensyn til m.

Mere præcist, hvis X har tæthed f , og Y har fordelingν, så har X+ Y tæthed

h(z) =∫ ∞

−∞f (z− y) dν(y) for z ∈ R . (18.10)

B: Det følger af (18.9) atX + Y har fordelingsfunktion

H(z) =∫ ∞

−∞

∫ z−y

−∞f (x) dx dν(y).

Substitutionenw = x + y i det inderste integral, efterfulgt af en brug af Tonellissætning, giver

H(z) =∫ z

−∞

∫ ∞

−∞f (w− y) dν(y) dw =

∫ z

−∞h(w) dw

hvor h er funktionen fra (18.10). Heraf følger let ath er en sandsynlighedstæthed, ogat fordelingen afX + Y har tæthedh.

Den oftest benyttede variant af disse resultater, er den følgende, hvor vi antager atbegge variable har tæthed. Bemærk hvor tæt beslægtet (18.11) er med (18.8).

Korollar 18.19 (Foldning af tætheder) Lad X og Y være uafhængige reelle stoka-stiske variable, defineret på(Ω, F,P). Hvis X har tæthed f med hensyn til m, og Yhar tæthed g med hensyn til m, så har X+ Y tæthed

h(z) =∫ ∞

−∞f (z− y)g(y) dy =

∫ ∞

−∞f (x)g(z− x) dx for z∈ R (18.11)

B: Det første udtryk forh følger ved indsættelse afν = g ·m i (18.10). Det andetfølger af symmetrigrunde.

Page 18: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.4. Foldninger 393

Eksempel 18.20Lad X ogY være uafhængige stokastiske variable, og lad

X ∼ N(ξ, σ2), Y ∼ N(µ, ν2).

Vi vil vise, at X + Y erN(ξ + µ, σ2+ ν2)-fordelt. Da

X + Y = (X − ξ) + (Y − µ) + (ξ + µ)

er det nok, at betragte tilfældetξ = µ = 0. Ifølge foldningsformlen (18.11) er tæthe-denh for fordelingen afX + Y givet ved

h(z) =∫

1√

2πσ2e−

(z−x)2

2σ21√

2πν2e−

x2

2ν2 dx

=

12πσν

e−1

2σ2ν2(ν2z2

+(σ2+ν2)x2−2ν2xz)dx

for allez ∈ R. Ideen er nu at omskrive eksponenten, så det er kvadratet på en toleddetstørrelse. Vi ser at

ν2z2+ (σ2

+ ν2)x2 − 2ν2xz=

(

σ2 + ν2x− ν2

√σ2 + ν2

z

)2

+σ2ν2z2

σ2 + ν2.

Dermed er

h(z) =1

2πσνe− z2

2(σ2+ν2)

e− 1

2σ2ν2

(√σ2+ν2x− ν2√

σ2+ν2z

)2

dx

=1

2πσνe− z2

2(σ2+ν2)

e−(σ2+ν2)x2

2σ2ν2 dx

=1

√2π√σ2 + ν2

e− z2

2(σ2+ν2)

for alle z ∈ R. Og således erX + Y normalfordelt som ønsket.

Det egentlige indhold af disse regninger er atX + Y er normalfordelt. De præciseparametre kan man nemt finde, hvis man blot ved atX + Y er normalfordelt, foruafhængigheden sikrer at

E(X + Y) = EX+ EY= ξ + µ, V(X + Y) = VX+ VY= σ2+ ν2.

Et oplagt induktionsargument fortæller at hvisX1, . . . ,Xn er uafhængige og hver isærnormalfordelte, vi kan sigeXi ∼ N(ξi , σ

2i ), så er

n∑

i=1

Xi ∼ N

n∑

i=1

ξi ,

n∑

i=1

σ2i

.

Page 19: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

394 Kapitel 18. Flerdimensionale transformationer

Specielt ser vi at hvisX1, . . . ,Xn er uafhængige, og alleN(ξ, σ2)-fordelte, så er

1n

n∑

i=1

Xi ∼ N(

ξ,σ2

n

)

.

Eksempel 18.21Lad X ogY være uafhængige variable,Γ-fordelt med formparame-terλ hhv.µ og medsammeskalaparameterβ > 0. Vi skal vise, atX + Y erΓ-fordeltmed formparameterλ + µ og skalaparameterβ. Da

X + Y = β

(

Xβ+

)

er det nok at betragte tilfældetβ = 1. Ifølge foldningsformlen (18.11) er tæthedenhfor fordelingen afX + Y givet ved

h(z) =∫ z

0

1Γ(λ)

(z− x)λ−1e−(z−x) 1Γ(µ)

xµ−1e−xdx

=1

Γ(λ)Γ(µ)e−z

∫ z

0(z− x)λ−1xµ−1dx

=1

Γ(λ)Γ(µ)e−z zλ+µ−1 B(λ, µ) =

1Γ(λ + µ)

zλ+µ−1 e−z

for alle z > 0. Fordelingen afX + Y er således enΓ-fordeling med formparameterλ + µ som ønsket.

Det egentlige budskab er atX + Y erΓ-fordelt. De præcise parametre kan man nemtfinde ud fra middelværdi og varians, når man ved atX + Y erΓ-fordelt.

Ved induktion udvides resultatet til summenX1+ . . .+Xn af n uafhængigeΓ-fordeltevariable med formparametreλ1, . . . , λn og samme skalaparameterβ: denne sum erΓ-fordelt med formparameterλ1 + . . . + λn og skalaparameterβ.

Hvis Y1, . . . ,Yn er indbyrdes uafhængigeN(0, 1)-fordelte variable, så erY21 , . . . ,Y

2n

uafhængige og hver isærχ2-fordelt med 1 frihedsgrad ifølge eksempel 12.6. Og der-med følger

∑ni=1 Y2

i enχ2-fordeling medn frihedsgrader.

Tilsvarende, hvisZ1, . . . ,Zn er indbyrdes uafhængige eksponentialfordelte variable,hver med skalaparameterβ, så erZ1+ · · ·+Zn Erlangfordelt med formparametern ogskalaparameterβ.

Page 20: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.5. Foldninger og karakteristiske funktioner 395

18.5 Foldninger og karakteristiske funktioner

Det blev i kapitel 15 flere gange antydet at den virkelige begrundelse for at indførekarakteristiske funktioner ikke så meget skal søges i den indsigt, der kan vindes vedat studere denne funktions opførsel. Det helt centrale er atfoldning af sandsynlig-hedsmål lader sig udtrykke meget simpelt i termer af karakteristiske funktioner.

Sætning 18.22Lad X og Y være uafhængige reelle stokastiske variable, defineret på(Ω, F,P). Lad X have karakteristisk funktionφ1 og lad Y have karakteristisk funktionφ2. Da har X+ Y karakteristisk funktionψ givet ved

ψ(θ) = φ1(θ)φ2(θ) for alle θ ∈ R (18.12)

B: Man kan få resultatet frem ved at kombinere sætning 17.31 ogsætning 17.28.Men man kan også benytte lemma 17.30 direkte:

ψ(θ) =∫

ei θ(X+Y) dP=∫

ei θxei θy d(X,Y)(P)(x, y)

=

ei θx dX(P)(x)∫

ei θy dY(P)(y) = φ1(θ)φ2(θ)

Der er i virkeligheden ikke noget i sætningen der kræver reelle variable, den gælderord til andet for uafhængige variable med værdier iRn - vi har blot formuleret denreelt for at kunne sammenligne med de tidligere foldningsresultater.

Og man må sige at (18.12) udmærker sig kraftigt i forhold til (18.9) og (18.11): der eringen komplicerede integraler, der skal regnes ud - i hvert fald ikke hvis man alleredehar de to marginale karakteristiske funktioner. Til gengæld har svaret en karakter, dermåske forekommer novicen lidt ulden. Man skal have vænnet sig til karakteristiskefunktioner, før man ser lyset. Men visse anvendelser er umiddelbart overbevisende:

Page 21: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

396 Kapitel 18. Flerdimensionale transformationer

Eksempel 18.23Lad X og Y være uafhængige reelle stokastiske variable, og lad

X ∼ N(ξ, σ2), Y ∼ N(µ, ν2).

Vi vil bruge (18.12) til (endnu en gang) at finde fordelingen af X + Y. De to variableX ogY har ifølge eksempel 15.18 karakteristisk funktion henholdsvis

φ1(θ) = ei θξ e−σ2θ2/2 og φ2(θ) = ei θµ e−ν

2θ2/2 .

Dermed harX + Y karakteristisk funktion

ψ(θ) =(

ei θξ e−σ2θ2/2

)(

ei µξ e−ν2θ2/2

)

= ei θ(ξ+µ)e−(σ2+ν2) θ2/2 .

Men denne karakteristiske funktion nikker vi genkendende til: det er den karakteri-stiske funktion forN(ξ + µ, σ2

+ ν2)-fordelingen. Ved at henvise til sætning 15.22kan vi konstatere atX + Y må væreN(ξ + µ, σ2

+ ν2)-fordelt.

Hvis man sammenligner med de komplicerede substitutioner,der var nødvendige forat kunne udregne foldningsintegralerne i eksempel 18.20, kan man nok godt få øje pågevinsten i at udnytte det trick med eksponentialfunktionens funktionalligning, somsætning 18.22 til syvende og sidst hænger på.

Men man skal på den anden side ikke underkende det arbejde, der ligger bag konklu-sionen i eksempel 18.23. For det første har man behov for at kende den karakteristiskefunktion for normalfordelingen. For det andet har man behovfor at vide at summenX+Y faktisk karakteriseres entydigt af sin karakteristiske funktion - ellers kunne manjo ikke slutte baglæns og se at summen er normalfordelt. Ingen af disse resultater komgratis til os i kapitel 15, hvor der måtte arbejdes hårdt for begge dele.

Der er ikke noget specielt etdimensionalt ved regningerne ieksempel 18.23, og vikan uden problemer gentage dem i højere dimensioner:

Eksempel 18.24 Lad X og Y være uafhængige stokastiske variable med værdier iR

n, og ladX ∼ Nn(ξ1,Σ1), Y ∼ Nn(ξ2,Σ2).

De to variableX og Y har ifølge definition 17.33 karakteristisk funktion henholdsvis

φ1(θ) = ei θTξ1 e−θTΣ1 θ/2 og φ2(θ) = ei θTξ2 e−θ

TΣ2θ/2 .

Page 22: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

18.6. Opgaver 397

Dermed harX + Y karakteristisk funktion

ψ(θ) =(

ei θTξ1 e−θTΣ1 θ/2

)(

ei θTξ2 e−θTΣ2θ/2

)

= ei θT (ξ1+ξ2)e−θT (Σ1+Σ2)θ/2 .

Men denne karakteristiske funktion nikker vi uden problemer genkendende til. Vikonstaterer således atX + Y erNn(ξ1 + ξ2,Σ1 + Σ2)-fordelt.

18.6 Opgaver

O 18.1. LadX og Y være uafhængige stokastiske variable med fordelingsfunk-tionerF ogG henholdsvis.

Find fordelingsfunktionen for maxX,Y, minX,Y og maxX3,Y.LadZ være en stokastisk variabel med en fordeling bestemt ved

P(Z = 1) = 1− P(Z = 0) = p, p ∈ [0, 1].

Antag atX, Y ogZ er indbyrdes uafhængige. Find fordelingsfunktionen forZX+ (1−Z)Y og ZX+ (1− Z) maxX,Y.

O 18.2. LadX1, . . . ,Xn være indbyrdes uafhængige identisk fordelte stokasti-ske variable med fordelingsfunktionF. Lad Fm betegne fordelingsfunktionen forΓ-fordelingen med formparametermog skalaparameter 1,m= 1, . . . , n.

Vis under forudsætning af atF er strengt voksende og kontinuert, at forn→ ∞ vil

P(

X(m) ≤ F−1( xn)

)→ Fm(x), x > 0.

Vink: Betragt først tilfældet, hvorF er fordelingsfunktionen for ligefordelingen. Be-nyt opgave 14.8 og 14.9

O 18.3. De uafhængige stokastiske variableX1 og X2 er identisk fordelte medtæthed (θ > 1)

f (x) = logθ θ−x, x > 0.

Vis at f er en tæthed. Find fordelingen afX1 + X2.

O 18.4. LadX1,X2, . . . ,Xn, . . . være en følge af indbyrdes uafhængige identiskfordelte stokastiske variable, alle ligefordelte på (0, 1). Vis at tæthedenϕn for forde-lingen afX1 + . . . + Xn tilfredsstiller relationen

ϕn+1(y) =∫ y

y−1ϕn(t)dt, y ∈ R, n = 1, 2, . . .

Page 23: Flerdimensionale transformationer - kuweb.math.ku.dk/~erhansen/misand1_07/doku/noter/chap18.pdffordele sig. Og 97-årgangen er interessant for så vidt som dens studerende fordelte

398 Kapitel 18. Flerdimensionale transformationer

O 18.5. LadX1 og X2 være uafhængige og ligefordelte over (0, 1). Vis at

Cov(X(1),X(2)) =136

.