• Rezultati Niso Bili Najdeni

UNIVERZA V LJUBLJANI FAKULTETA ZA MATEMATIKO IN FIZIKO Finan£na matematika  1. stopnja Urban Merhar

N/A
N/A
Protected

Academic year: 2022

Share "UNIVERZA V LJUBLJANI FAKULTETA ZA MATEMATIKO IN FIZIKO Finan£na matematika  1. stopnja Urban Merhar"

Copied!
19
0
0

Celotno besedilo

(1)

UNIVERZA V LJUBLJANI

FAKULTETA ZA MATEMATIKO IN FIZIKO Finan£na matematika 1. stopnja

Urban Merhar

Elipti£ne porazdelitve in Kendallov tau Delo diplomskega seminarja

Mentor: izr. prof. dr. Janez Bernik Somentor: asist. dr. Gregor ’ega

Ljubljana, 2021

(2)

Kazalo

1. Uvod 4

2. Korelacijska koecienta 5

3. Elipti£ne porazdelitve 6

4. Povezava med ρ inτ 9

5. Priloga 17

Slovar strokovnih izrazov 19

Literatura 19

(3)

Elipti£ne porazdelitve in Kendallov tau Povzetek

Diplomsko delo razi²£e in dokaºe povezavo med Pearsonovim korelacijskim koeci- entom in Kendallovim tauom za elipti£ne porazdelitve. Oba korelacijska koecienta deniramo in med sabo primerjamo. Poleg tega deniramo elipti£ne porazdelitve in pokaºemo, kako jih zapi²emo na druga£en na£in. Z omenjenim zapisom dokaºemo, da je vsota dveh elipti£nih porazdelitev z enako nenegativno simetri£no matriko prav tako elipti£na porazdelitev. Vse skupaj uporabimo, da izpeljemo povezavo med rho in tau za elipti£ne porazdelitve.

Elliptical distributions and Kendall's tau Abstract

The thesis investigates and proves the connection between Pearson's correlation coecient and Kendall's tau for elliptical distributions. Both correlation coecients are dened and compared. In addition, we dene elliptical distributions and show how to present them in a dierent way. This presentation allows us to prove that the sum of two elliptical distributions with the same non-negative symmetric matrix is also an elliptical distribution. As an application the relation between rho and tau for elliptical distributions is derived.

Math. Subj. Class. (2010): 60E05; 62H20

Klju£ne besede: Elipti£na porazdelitev; Pearsonov korelacijski koecient; Kendal- lov tau

Keywords: Elliptical distribution; Pearson correlation coecient; Kendall's tau

(4)

1. Uvod

V tem delu bomo spoznali elipti£ne porazdelitve in korelacijski koecient, ki ga imenujemo Kendallov tau.

Glavni namen diplome je pokazati povezavo med dobro poznanim Pearsonovim korelacijskim koecientom in Kendallovim tauom. Uvodno poglavje je namenjeno ponovitvi dveh izrekov o karakteristi£ni funkciji ter izreku o varian£no-kovarian£ni matriki. Omenjeni izreki nam bodo pomagali pri kasnej²ih dokazih. Sledilo bo poglavje, kjer bomo denirali oba korelacijska koecienta ter ju primerjali med seboj.

Denirali bomo elipti£ne porazdelitve in dokazali trditev, kako lahko predstavimo elipti£no porazdeljene slu£ajne vektorje. Kon£no poglavje bo namenjeno glavnemu delu diplome, povezavi med Pearsonovim korelacijskim koecientom in Kendallovim tauom, ki velja za elipti£ne porazdelitve. Povezavo bomo dokazali s pomo£jo ve£

lem, ki nas bodo popeljale do kon£nega dokaza.

Vse slu£ajne spremenljivke v diplomskem delu so denirane na verjetnostnem prostoru (Ω,F, P). Oglejmo si trditve, ki nam bodo pomagale v kasnej²ih dokazih.

Spomnimo se karakteristi£ne funkcije in si poglejmo naslednja izreka z njimi.

Izrek 1.1. Naj bodo slu£ajne spremenljivkeX1, . . . , Xnneodvisne in naj boY njihova vsota. Z φXi ozna£imo karakteristi£no funkcijo slu£ajne spremenljivke Xi za vsak i. Potem je

φY(t) = φX1(t). . . φXn(t).

Dokaz. Ker so slu£ajne spremenljivke X1, . . . , Xn neodvisne, velja φY(t) = E(eit(X1+···+Xn)) = E(eitX1. . . eitXn) =

=E(eitX1). . . E(eitXn) = φX1(t). . . φXn(t).

□ Izrek 1.2. Naj bo X ∈ Rk slu£ajni vektor s karakteristi£no funkcijo φX(t). De- nirajmo Y = A+BX, kjer je A ∈ Rp konstanten vektor in B ∈ Rp×k konstantna matrika. Potem je karakteristi£na funkcija slu£ajnega vektorja Y enaka

φY(t) = eitTAφX(BTt).

Dokaz.

φY(t) =E(eitTY) =E(eitT(A+BX))

=E(eitTAeitTBX) = eitTAE(eitTBX).

Opazimo tTB = (BTt)T.

φY(t) = eitTAE(ei(BTt)TX)

=eitTAφX(BTt).

□ Naslednji izrek govori o varian£no-kovarian£ni matriki.

Izrek 1.3. Naj bo X ∈ Rn slu£ajni vektor in naj bo A ∈Rk×n konstantna matrika ter naj obstajata E(X) = µ in E(X2). Potem za varian£no-kovarian£no matriko velja

V ar(AX) = A V ar(X)AT.

(5)

Dokaz. Vse skupaj vstavimo v denicijo V ar(X) = E(︁

(X−E(X))(X−E(X))T)︁

: V ar(AX) =E(︁

(A(X−µ))(A(X−µ))T)︁

=E(︁

A(X−µ)(X−µ)TAT)︁

. Vemo, da velja E(AX) =AE(X). Torej je:

V ar(AX) = AE(︁

(X−µ)(X−µ)T)︁

AT

=A V ar(X)AT.

□ 2. Korelacijska koeficienta

Denicija 2.1. Pearsonov korelacijski koecient slu£ajnih spremenljivk X in Y je ρ(X, Y) = Cov(X, Y)

√︁V ar(X)V ar(Y),

£e obstajata varianci slu£ajnih spremenljivk X inY.

Pearsonov korelacijski koecient je mera linearne povezanosti med dvema slu-

£ajnima spremenljivkama. Vidimo, da gre za kovarianco slu£ajnih spremenljivk ulomljeno s produktom njunih standardnih odklonov. Torej korelacijski koecient lahko opi²emo kot normalizirano mero kovariance slu£ajnih spremenljivk.

Denicija 2.2. Kendallov tau za slu£ajni spremenljivki X1 inX2 je deniran kot τ(X1, X2) = P(︁

(X1−X˜ )(X1 2−X˜ )2 >0)︁

−P(︁

(X1−X˜ )(X1 2 −X˜ )2 <0)︁

kjer je (X˜1, X˜ )2 neodvisna kopija vektorja (X1, X2).

Opomba 2.3. To, da je X˜ neodvisna kopija X, lahko poljudno razumemo kot da je to ²e ena neodvisna ponovitev istega poskusa.

Ob pogledu na deniciji obeh korelacijskih koecientov opazimo izjemno razliko med Pearsonovim korelacijskim koecientom in Kendallovim tauom. V primeru Pe- arsonovega korelacijskega koecienta za izra£un uporabimo kovarianco in varianco obeh slu£ajnih spremenljivk, medtem ko Kendallov tau izra£unamo direktno iz ver- jetnosti. Oba koecienta imata svoje prednosti in slabosti.

Prednost Pearsonovega korelacijskega koecienta je v tem, da v izra£unu z upo- rabo kovariance in obeh varianc izkoristi ve£ informacij, ki jih imamo o porazdelitvi.

Njegova slabost je, da meri le linearno povezanost med slu£ajnima spremenljivkama.

Medtem je prednost Kendallovega taua, da direktno uporabi geometrijske lastno- sti elipti£nih porazdelitev, ki jih bomo spoznali v naslednjem poglavju. Kendallov tau ne zahteva nobenega izra£una varianc in kovarianc. Slednje je lahko hkrati slabost, saj v primeru, ko varianca in kovarianca obstajata, ne izkoristimo vseh podatkov, ki jih imamo na voljo o porazdelitvi. Prednost taua je tudi v tem, da meri povezavo med slu£ajnima spremenljivkama, ki jo lahko opi²emo z monotono funkcijo.

V praksi naletimo na veliko podatkov, kot so na primer nan£ni podatki o £asovnih vrstah in podatki o upravljanju s tveganji, ki niso porazdeljeni normalnon razseºno, ampak se jih da opisati s kak²no drugo elipti£no porazdelitvijo s teºjimi repi. V primeru, ko imamo v podatkih velika odstopanja, bo Kendallov tau zaradi direktnega izra£una iz verjetnosti bolj robusten kot Pearsonov korelacijski koecient.

(6)

Med Kendallovim tauom in Pearsonovim korelacijskim koecientom obstaja po- vezava, ki omogo£a, da enega lahko hitro ocenimo z drugim. Povezavo medρ inτ si bomo ogledali v zadnjem poglavju. Bolj splo²no je povezava med ρinτ uporabljena za izra£un varian£no-kovarian£nih matrik ve£dimenzionalnih elipti£nih porazdelitev (v nekaterih primerih je potrebno matriko popraviti, da zagotovimo pozitivno de- nitnost).

3. Elipti£ne porazdelitve

Denirajmo elipti£no porazdeljene slu£ajne vektorje. Samo ime elipti£na porazde- litev izvira iz tega, da £e nari²emo graf gostote za dvodimenzionalni slu£ajni vektor, so nivojnice elipse, za tridimenzionalni slu£ajni vektor pa elipsoidi.

Elipti£ne porazdelitve uporabljamo v statistiki, ekonomiji in pri nan£ni mate- matiki. Primer iz nan£ne matematike so £asovne vrste za upravljanje trºnih in kreditnih tveganj. Te £asovne vrste navadno niso porazdeljene z ve£razseºno nor- malno porazdelitvijo, ampak s kak²no drugo elipti£no porazdelitvijo s teºjimi repi.

V okviru modeliranja kreditnega tveganja lahko s pomo£jo elipti£nih porazdelitev opisujemo odvisnosti spremenljivk, ki predstavljajo vrednosti sredstev.

Denicija 3.1. Slu£ajni p razseºni vektor X je porazdeljen elipti£no, £e njegova karakteristi£na funkcija φzado²£a naslednji ena£bi za vsak t ∈Rp

φX−µ(t) =ϕ(tTΣt),

kjer je µ∈Rp lokacijski parameter inΣ∈Rp×p nenegativna simetri£na matrika ter ϕ funkcija ϕ: [0,∞)→R.

Opomba 3.2. ƒe jeprazseºni slu£ajni vektorX porazdeljen elipti£no, to zapi²emo z notacijo X ∼Ep(µ,Σ, ϕ).

Naslednja trditev govori o tem, kako lahko druga£e zapi²emo elipti£no porazdeljen vektor.

Trditev 3.3. Slu£ajni vektor X ∈ Rp je porazdeljen elipti£no X ∼ Ep(µ,Σ, ϕ) z rank(Σ) =k £e in samo £e obstajata R in U, da lahko zapi²emo

X =d µ+RAU,

kjer je U ∈ Rk slu£ajen vektor enakomerno porazdeljen na enotski sferi in R ≥ 0 slu£ajna spremenljivka neodvisna od U, µ∈Rp in A∈Rp×k matrika za katero velja AAT = Σ.

Za laºjo predstavo si poglejmo to z matrikami.

⎣ p×1

=d

⎣ p×1

⎦ +[︁

1×1]︁

p×k

⎣k×1

Dokaz. (1) Naj bo X ∼Ep(µ,Σ, ϕX)in B ∈Rp×p ter b ∈Rp. Potem karakteri- sti£na funkcija φY vektorja Y =b+BX ustreza

φY(t) =eitT(b+Bµ) ϕX(tTBΣBTt),

(7)

kjer je t∈Rp in Σ =AAT. Pokaºimo, da je to res:

φY(t) = E(eitTY) =E(eitT(b+BX)) = E(eitTbeitTBX)

=eitTbE(eitTBX) =eitTbE(ei(BTt)TX).

Opazimo, da je matemati£no upanje v ena£bi enako φX. Torej:

φY(t) = eitTbφX(BTt).

Uporabimo ϕX, ki smo jo denirali v 3.1:

φY(t) = eitTbei(BTt)TµϕX(︁

(BTt)TΣBTt)︁

=eitTbeitTϕX(tTBΣBTt)

=eitT(b+Bµ)ϕX(tTBΣBTt).

Pokazali smo, da je Y porazdeljen elipti£no,Y ∼Ep(b+Bµ, BΣBT, ϕX). (2) Za pozitivno semidenitno matriko Σ ∈ Rp×p z rank(Σ) = k obstaja A ∈

Rp×k, da je AAT = Σ. Tako lahko deniramo slu£ajni vektor Y =A−1(X−µ),

kjer je A−1 ∈ Rp×k psevdo inverz matrike A. Torej velja A−1A = Ik in AT(AT)−1 =Ik.

Ponovno si pogledamo karakteristi£no funkcijo Y zat ∈Rk. φY(t) = φA−1(X−µ)(t) = φX−µ(︁

(A−1)Tt)︁

=ϕ(︂

(︁(A−1)Tt)︁T

Σ(A−1)Tt)︂

=ϕ(︂

tT(︁

(A−1)T)︁T

Σ(A−1)Tt)︂

. Velja(︁

(A−1)T)︁T

=A−1.

φY(t) = ϕ(︁

tTA−1Σ(A−1)Tt)︁

. Vstavimo Σ =AAT.

φY(t) =ϕ(︁

tTA−1AAT(A−1)Tt)︁

.

Opazimo A−1A=Ik in AT(A−1)T =AT(AT)−1 =Ik. Sledi:

φY(t) =ϕ(tTt).

Tako smo pokazali, da je Y elipti£no porazdeljen.

□ Opomba 3.4. Zapis X =d µ+RAU ni nujno enoli£en.

(1) Zapis iz trditve 3.3 ni enoli£en, ker £e jeO ∈Rk×kortogonalna matrika, lahko zapi²emo: A =AO inU =OTU, od koder X =d µ+RAU =µ+RAU. (2) Elipti£ne porazdelitve z razli£nimi parametri so lahko enake. Na primer, £e

je X ∼Ep(µ,Σ, ϕ), potem za vsakc >0 ins≥0, kjer jeϕc(s) =ϕ(sc)lahko porazdelitevX zapi²emo tudi kot X ∼Ep(µ, cΣ, ϕc).

(8)

Dokaz. (1) Preverimo, £e je AU = AU in upo²tevamo, da je O ortogonalna matrika, torej je O · OT =I.

AU =AO · OT

⏞ ⏟⏟ ⏞

I

U =AU.

(2) Naj bo X ∼Ep(µ, cΣ, ϕc) inϕc(s) =ϕ(sc) za vsakc >0 ins ≥0. φX−µ(t) =ϕc(tTcΣt) =ϕc(ctTΣt) = ϕ(︁c

ctTΣt)︁

=ϕ(tTΣt).

Kar je enako karakteristi£ni funkciji elipti£ne porazdelitve X ∼Ep(µ,Σ, ϕ).

□ Poglejmo si, kako lahko zapi²emo Pearsonov korelacijski koecient, £e imamo elip- ti£no porazdeljene slu£ajne spremenljivke.

Denicija 3.5 (denicija linearnega korelacijskega koecienta [4, denicija 3.2.]).

Naj bo X ∼Ep(µ,Σ, ϕ), £e sta Σii>0in Σjj >0 zai, j ∈ {1, . . . , p} potem je ρ(Xi, Xj) = ρij = Σij

√︁ΣiiΣjj linearni korelacijski koecient za Xi,Xj.

ƒe sta V ar(Xi) inV ar(Xj) kon£na, je

ρ(Xi, Xj) = ρij = Cov(Xi, Xj)

√︁V ar(Xi)V ar(Xj).

Naslednja lema nam pove, da je linearna kombinacija dveh neodvisnih elipti£nih porazdelitev z isto matrikoΣ (alicΣ, kjer jec >0)prav tako elipti£na porazdelitev.

Lema 3.6. Naj bosta X ∼ Ep(µ,Σ, ϕ) in X˜ ∼ Ep(µ˜, cΣ, ϕ˜) neodvisni in c > 0. Potem za a, b∈R velja

aX+bX˜ ∼Ep(aµ+bµ˜,Σ, ϕ), kjer je ϕ(u) = ϕ(a2u)ϕ˜(b2cu).

Dokaz. Lemo dokaºemo za vsak t∈Rp. Izpostavimo a in b: φaX+bX˜−aµ−bµ˜(t) = φa(X−µ)+b(X˜−µ˜)(t).

Ker staX inX˜ med sabo neodvisna, lahko uporabimo, kar vemo o vsoti neodvisnih slu£ajnih spremenljivk za karakteristi£ne funkcije:

φaX+bX˜−aµ−bµ˜(t) = φa(X−µ)(t)φb(X˜−µ˜)(t).

Vemo, da velja φa(X−µ)(t) =φX−µ(at):

φaX+bX˜−aµ−bµ˜(t) =φX−µ(at)φX˜−µ˜(bt).

Uporabimo denicijo elipti£ne porazdelitve φX−µ(t) = ϕ(tTΣt): φaX+bX˜−aµ−bµ˜(t) =ϕ(︁

(at)TΣat)︁

ϕ˜(︁

(bt)TcΣbt)︁

. Upo²tevamo, da so a, b in ckonstante:

φaX+bX˜−aµ−bµ˜(t) =ϕ(a2tTΣt)ϕ˜(b2ctTΣt).

Dobimo ravno ϕ(tTΣt)iz na²e leme. □

(9)

4. Povezava med ρ in τ

Glavni del diplomskega dela je naslednja trditev, ki govori o povezavi med Ken- dallovim tauom in Pearsonovim korelacijskim koecientom za elipti£ne porazdelitve.

Trditev 4.1. Naj bo X ∼Ep(µ,Σ, ϕ). ƒe i, j ∈ {1, . . . , p} zado²£ata P(Xii)<

1 in P(Xjj)<1, potem je τ(Xi, Xj) =(︂

1−∑︂

x

(︁P(Xi =x))︁2)︂2

π arcsinρij. Vsota ∑︁

x pomeni vsoto po zalogi vrednosti slu£ajne spremenljivke.

V posebnem, £e je rank(Σ)≥2, potem se ena£ba poenostavi v τ(Xi, Xj) =(︂

1−(︁

P(Xii))︁2)︂2

πarcsinρij, kar se naprej poenostavi v

τ(Xi, Xj) = 2

πarcsinρij,

£e je P(Xii) = 0.

Za dokaz te trditve si bomo ogledali ve£ razli£nih lem, ki nam bodo pomagale dokazati na²o trditev. Najprej si s pomo£jo opomb razjasnimo vse, kar nastopa v trditvi.

Opomba 4.2. Pri Kendallovem tau uporabljam izraz∑︁

x, kar pomeni vsoto po vseh delcih porazdelitve, torej vsota pri diskretni in integral pri zvezni porazdelitvi.

Oznako za vsoto uporabljam, da ostanem konsistenten z originalnim £lankom.

Opomba 4.3. Zapis P(Xii)<1 nam pove, da je U ̸= 0 inAi ̸= 0.

Dokaz. Res, najprej si poglejmo moºnost U = 0. Sledi Xi = µi +RAiU = µi. Slu£ajni vektor Xi je konstantno enak µi, kar pomeni, daj je P(Xi = µi) = 1. Imamo protislovje s predpostavko P(Xii)<1, iz £esar sledi U ̸= 0.

Poglejmo si primer U ̸= 0. Uporabimo zapis Xii+RAiU: P(Xii) = P(µi+RAiU =µi)

=P(RAiU = 0)

=P(R = 0, AiU = 0) +P(R = 0, AiU ̸= 0) +P(R̸= 0, AiU = 0).

Upo²tevamo neodvisnost med R in U:

P(Xii) =P(R= 0)P(AiU = 0)+P(R= 0)P(AiU ̸= 0)+P(R̸= 0)P(AiU = 0).

Zdruºimo prva dva £lena in opazimo P(AiU = 0) +P(AiU ̸= 0) = 1: P(Xii) = P(R = 0) +P(R ̸= 0)P(AiU = 0).

Vemo, da je R ≥0:

P(Xii) =P(R = 0) +P(R >0)P(AiU = 0) <? 1.

Vpra²amo se, v katerem primeru bo zgornji izraz manj²i od 1? Izraz bo manj²i od 1, £e bo P(AiU = 0) ̸= 1, kar pa bo natanko tedaj, ko boAi ̸= 0, saj smo ºe zgoraj

pokazali, da U ̸= 0. □

Opomba 4.4. Zapis P(Xi = µi) = 0 pove, da je R > 0 (oziroma ekvivalentno P(R= 0) = 0) ter U ̸= 0 in Ai ̸= 0.

(10)

Dokaz. Res, za verjetnost P(Xii) = 0 velja opomba 4.3, ker velja P(Xii) = 0<1.

Sledi U ̸= 0 in Ai ̸= 0.

Naprej uporabimo zapis Xii+RAiU.

P(Xii) =P(µi+RAiU =µi) =P(RAiU = 0) = 0.?

Ker sta U ̸= 0 inAi ̸= 0, bo zgornji izraz enak ni£ natanko tedaj, ko je R >0. □ Opomba 4.5. Naj bo X ∼Ep(µ,Σ, ϕ) inP(Xii)<1 za vse i∈ {1, . . . , p}.

(1) Naj bo rank(Σ) = 1, potem so X1, . . . , Xp zvezne slu£ajne spremenljivke £e in samo £e je R zvezna slu£ajna spremenljivka.

(2) ƒe je rank(Σ) ≥ 2, so X1, . . . , Xp zvezne slu£ajne spremenljivke natanko takrat, ko je P(Xi = µi) = 0 za ∀i (oziroma ekvivalentno, natanko takrat, ko jeP(R= 0) = 0).

Dokaz. Naj bo X=µ+RAU.

(1) Vzamemorank(Σ) = 1, iz £esar sledi, da jeA∈Rp×1inU simetri£na matrika z vrednostmi {1,−1}. Pogoj P(Xii) <1 nam pove, da je Ai1 ̸= 0, kot smo pokazali v opombi 4.3. Torej boX zvezna slu£ajna spremenljivka £e in samo £e jeR zvezna slu£ajna spremenljivka.

(2) ƒe je rank(Σ) ≥ 2, deniramo Ai = (Ai1, . . . , Aik) in a = AiATi . Ker je P(Xi = µi) < 1, sledi Ai1 ̸= 0, torej primer a = 0 izklju£imo. S pomo£jo opombe 3.4 lahko privzamemo, da obstaja ortogonalna matrika O ∈ Rk×k, da je Ai = (a,0, . . . ,0). Ob tem privzetku poenostavimo zapis Xi = µi+ aRU1. Ker je U slu£ajen vektor enakomerno porazdeljen na enotski sferi in rank(Σ)≥2, jeU1 zvezna slu£ajna spremenljivka.

Torej P(µi +aRUi =x) = 0 za vse x ∈ R\{x = µi}, ker £e je R = 0, je verjetnost enaka1, £e jex=µi. Sledi, da jeXzvezna slu£ajna spremenljivka natanko tedaj, ko je P(R = 0) = 0, kar je po opombi 4.4 ekvivalentno P(Xii) = 0.

□ Pridobili smo dovolj znanja in lahko dokaºemo posebno verzijo trditve o poveza- nosti Kendallovega taua ter Pearsonovega korelacijskega koecienta za primer, ko je rank(Σ) = 1.

Lema 4.6. Naj bo X ∼Ep(µ,Σ, ϕ), kjer je rank(Σ) = 1. ƒe je P(Xii)<1 in P(Xjj)<1, potem je

τ(Xi, Xj) =(︂

1−∑︂

x

(︁P(Xi =x))︁2)︂2

π arcsinρij.

Dokaz. Naj bo X˜ neodvisna kopijaX in zapi²emoX =µ+RAU inX˜ =µ+R˜AU˜, kjer je (R˜, U˜ ) neodvisna kopija (R, U) ter A∈Rp×1.

Za laºjo predstavo, si oglejmo, kako izgleda X =µ+RAU.

⎣ X1

...

Xi ...

Xp

=

⎣ µ1

...

µi ...

µp

⎦ +[︁

R]︁

⎣ A11

...

Ai1 ...

Ap1

⎦ [︁U]︁

.

(11)

VeljaP(Xii)<1inP(Xjj)<1, iz £esar slediU ̸= 0,Ai1 ̸= 0inAj1 ̸= 0. Zdaj, ko smo si razjasnili predpostavke leme, lahko nadaljujemo dokaz.

(1) Za za£etek se spomnimo, da po trditvi 3.3 velja AAT = Σ in pokazali smo, kako izra£unamo Pearsonov korelacijski koecient iz Σ.

AAT =

⎣ A11

...

Ai1

...

Ap1

[︁A11 · · · Ai1 · · · Ap1

]︁ =

A211 · · · A11Ai1 · · · A11Ap1

... ... ... ...

Ai1A11 · · · A2i1 · · · Ai1Ap1

... ... ...

Ap1A11 · · · A2p1

⎦ .

Vemo, da je Pearsonov korelacijski koecient enak ρij. ρij = Σij

√︁ΣiiΣjj = Ai1Aj1

√︂

A2i1A2j1 .

Opazimo lahko, da nam ρij pove predznak produkta Ai1Aj1. Spomnimo se, da produkt Ai1Aj1 ̸= 0, ker Ai1 ̸= 0 in Aj1 ̸= 0.

ρij = Ai1Aj1

√︂

A2i1A2j1

=

{︄1 Ai1Aj1 >0,

−1 Ai1Aj1 <0.

Ker korelacijski koecient meri jakost linearne povezanosti, smo ravnokar pokazali, da je med slu£ajnima spremenljivkamaXiinXj linearna funkcijska zveza.

(2) Ohranimo to v mislih in si poglejmo ²e drugi del dokaza. Poglejmo si deni- cijo Kendallovega taua.

τ(Xi, Xj) =P(︁

(Xi−X˜i)(Xj −X˜j)>0)︁

−P(︁

(Xi−X˜i)(Xj −X˜j)<0)︁

. (3) Pora£unajmo, kako lahko druga£e izrazimo (Xi −X˜i)(Xj −X˜j) s tem, da

vstavimo na² zapis X =µ+RAU.

(Xi−X˜i)(Xj −X˜j) = (µi+RAi1U −µi−R˜Ai1U˜ )(µj +RAj1U −µj −R˜Aj1U˜ )

= (RAi1U −R˜Ai1U˜ )(RAj1U −R˜Aj1U˜ )

=Ai1Aj1(RU −R˜U˜ )(RU −R˜U˜ )

=Ai1Aj1(RU −R˜U˜ )2.

(4) Zdaj lo£imo dva primera glede na to, ali je Ai1Aj1 ve£ji ali manj²i od 0. Za za£etek naj boAi1Aj1 >0. Vstavimo na² izra£un za (Xi−X˜i)(Xj −X˜j): τ(Xi, Xj) = P(︁

(Xi−X˜i)(Xj −X˜j)>0)︁

−P(︁

(Xi−X˜i)(Xj−X˜j)<0)︁

=P(︁

Ai1Aj1(RU −R˜U˜ )2 >0)︁

−P(︁

Ai1Aj1(RU −R˜U˜ )2 <0)︁

=P(︁

(RU −R˜U˜ )2 >0)︁

−P(︁

(RU −R˜U˜ )2 <0)︁

. VerjetnostP(︁

(RU −R˜U˜ )2 <0)︁

= 0, ker nekaj na kvadrat je gotovo ve£je ali enako 0.

τ(Xi, Xj) = P(︁

(RU −R˜U˜ )2 >0)︁

. To verjetnost lahko zapi²emo tudi druga£e.

τ(Xi, Xj) = 1−P(︁

(RU −R˜U˜ )2 = 0)︁

−P(︁

(RU −R˜U˜ )2 <0)︁

.

(12)

Zadnji £len je ponovno enak0: τ(Xi, Xj) = 1−P(︁

(RU −R˜U˜ )2 = 0)︁

= 1−P(RU −R˜U˜ = 0)

= 1−P(RU =R˜U˜ ).

(5) Zdaj naj bo Ai1Aj1 <0. Ponovno vstavimo (Xi−X˜i)(Xj −X˜j): τ(Xi, Xj) = P(︁

(Xi−X˜i)(Xj −X˜j)>0)︁

−P(︁

(Xi−X˜i)(Xj−X˜j)<0)︁

=P(︁

Ai1Aj1(RU −R˜U˜ )2 >0)︁

−P(︁

Ai1Aj1(RU −R˜U˜ )2 <0)︁

. Ko zdaj delimo zAi1Aj1, se nam predznak obrne, ker je Ai1Aj1 <0.

τ(Xi, Xj) = P(︁

(RU −R˜U˜ )2 <0)︁

−P(︁

(RU −R˜U˜ )2 >0)︁

. Prvi £len je enak 0.

τ(Xi, Xj) = −P(︁

(RU −R˜U˜ )2 >0)︁

.

Verjetnost ponovno zapi²emo druga£e in ponovno dobimo £len, ki je enak0. τ(Xi, Xj) =−(︂

1−P(︁

(RU −R˜U˜ )2 = 0)︁

−P(︁

(RU −R˜U˜ )2 <0)︁)︂

=−(︂

1−P(︁

(RU −R˜U˜ )2 = 0)︁)︂

=P(︁

(RU −R˜U˜ )2 = 0)︁

−1

=P(RU −R˜U˜ = 0)−1

=P(RU =R˜U˜ )−1.

(6) Pokazali smo, da velja:

τ(Xi, Xj) =

{︄1−P(RU =R˜U˜ ) Ai1Aj1 >0, P(RU =R˜U˜ )−1 Ai1Aj1 <0.

(7) Pora£unajmo ²e P(RU =R˜U˜ ): P(RU =R˜U˜ ) =∑︂

x

P(RU =x in R˜U˜ =x).

Upo²tevamo, da je (R˜, U˜ ) neodvisna kopija (R, U). P(RU =R˜U˜ ) =∑︂

x

P(RU =x)(R˜U˜ =x)

=∑︂

x

P(RU =x)(RU =x)

=∑︂

x

P(RU =x)2. (8) Vstavimo P(RU =R˜U˜ ) v τ(Xi, Xj).

τ(Xi, Xj) =

⎩ 1−∑︁

x

P(RU =x)2 Ai1Aj1 >0,

−(︁

1−∑︁

x

P(RU =x)2)︁

Ai1Aj1 <0.

(13)

(9) Kako priti do π2arcsinρij? Na za£etku tega dokaza samo pokazali ρij =

{︄1 Ai1Aj1 >0,

−1 Ai1Aj1 <0.

Vemo, da velja π2 arcsin(1) = 1 in π2arcsin(−1) = −1, kar lahko uporabimo v na²em zapisuτ(Xi, Xj).

(10) Torej lahko zapi²emo τ(Xi, Xj) =(︂

1−∑︂

x

(︁P(RU =x))︁2)︂2

πarcsinρij

ker, £e boAi1Aj1 >0, sledi ρij = 1 ter £e Ai1Aj1 <0, sledi ρij =−1.

□ Trditev smo dokazali zarank(Σ) = 1, preostane nam primerrank(Σ)≥2. Dokaz bomo naredili s pomo£jo naslednjih lem.

Lema 4.7. Naj bo X ∼ Ep(µ,Σ, ϕ) in rank(Σ) = k ≥ 2 ter X˜ naj bo neodvisna kopija slu£ajnega vektorja X, £e je P(Xii)<1, potem je

P(Xi =X˜i) =(︁

P(Xii))︁2

.

Dokaz. Naj bo X =µ+RAU. DeniramoAi = (Ai1, . . . , Aik)∈R1×k ina=AiATi . Zaradi zahteveP(Xii)<0sledi Ai ̸= 0inU ̸= 0 ter posledi£no zato izvzamemo primer a= 0.

V opombi 3.4 smo pokazali, da zapis X =µ+RAU ni nujno enoli£en, zato lahko privzamemo, da obstaja taka ortogonalna matrikaO ∈Rk×k, da jeAi = (a,0, . . . ,0). Ob privzetem lahko poenostavimo zapis RAiU.

RAiU =R[︁

a 0 · · · 0]︁

⎣ U1 U2 ...

Uk

=aRU1.

Opazimo, da je U1 zvezna slu£ajna spremenljivka, ker je k ≥ 2. Torej P(µi + aRU1 = x) = 0 za vse x ∈ R\{x = µi}, ker ²e vedno je R lahko enak 0 in v tem primeru je P(µi+aRU1 =x) =P(µi =x) = 1, £e je x=µi.

Izra£unajmo P(Xi =X˜i)in upo²tevajmo, da je X˜ neodvisna kopija X. P(Xi =X˜i) =∑︂

x

P(Xi =x in X˜i =x) =∑︂

x

P(Xi =x)P(X˜i =x)

=∑︂

x

P(Xi =x)P(Xi =x) = ∑︂

x

(︁P(Xi =x))︁2

. Vstavim Xii +aRU1.

P(Xi =X˜i) =∑︂

x

(︁P(µi+aRU1 =x))︁2

. Verjetnost v vsoti bo enaka 0 za vse x∈R\{x=µi}.

P(Xi =X˜i) = (︁

P(µi+aRU1i))︁2

. Upo²tevam µi+aRU1 =Xi.

P(Xi =X˜i) =(︁

P(Xii))︁2

.

(14)

□ Lema 4.8. Naj bo X ∼ Ep(µ,Σ, ϕ) in rank(Σ) = k ≥ 2 ter X˜ naj bo neodvisna kopija slu£ajnega vektorja X, £e je P(Xii)<1 in P(Xjj)<1, potem

τ(Xi, Xj) = 2P(︁

(Xi−X˜

i)(Xj −X˜

j)>0)︁

−1 +(︁

P(Xii))︁2

.

Dokaz. Poglejmo si Y = X−X˜, kjer je X˜ neodvisna kopija X. Ozna£imo to kot X ∼Ep(µ,Σ, ϕ) inX˜ ∼Ep(µ˜,Σ, ϕ˜), ker jeX˜ neodvisna kopijaX velja, da jeµ=µ˜ in ϕ=ϕ˜. Torej lahko uporabimo lemo 3.6 in ugotovimo, da je Y ∼Ep(0,Σ, ϕ2). Iz

£esar sledi, da lahko po trditvi 3.3 Y zapi²em kotY =RAU. Zdaj se spomnimo, da po lemi 4.7 velja:

P(Yi = 0) =P(Xi−X˜i = 0) =P(Xi =X˜i) =(︁

P(Xii))︁2

in podobno P(Yii)<1, ker je za vektor Y µ= 0, pi²emo kar P(Yi = 0)<1. Zdaj podobno kot pri dokazu leme 4.7 deniramo Ai = (Ai1, . . . , Aik) in Aj = (Aj1, . . . , Ajk), £e je potrebno ponovno s pomo£jo opombe 3.4 privzamemo, da ob- staja ortogonalna matrika O, da pridemo do ºeljenega. Opazimo, da sta AiU in AjU zvezna slu£ajna vektorja, ker Ai in Aj sta samo vektorja iz realnih ²tevil, U pa je slu£ajni vektor, ki je porazdeljen enakomerno zvezno, ker je rank(Σ) ≥ 2. Ugotovljeno pomeni da je P(AiU = 0) = 0in P(AjU = 0) = 0.

S pomo£jo zapisa Yi =RAiU lahko pokaºemo par enakosti.

(1)

P(Yi = 0) =P(RAiU = 0)

=P(R= 0, AiU ̸= 0) +P(R̸= 0, AiU = 0) +P(R = 0, AiU = 0).

Upo²tevajmo, da sta R in U med seboj neodvisna.

P(Yi = 0) =P(R= 0)P(AiU ̸= 0) +P(R ̸= 0)P(AiU = 0) +P(R= 0)P(AiU = 0).

Ravno prej smo ugotovili, da velja P(AiU = 0) = 0, kar pomeni, da sta v slednji ena£bi zadnja dva £lena enaka 0.

P(Yi = 0) =P(R = 0)P(AiU ̸= 0).

VerjetnostP(AiU ̸= 0) = 1, ker vemo, da veljaP(AiU = 0) = 0. (2) Podobno kot prej lahko pokaºemo podobno zaP(YiYj = 0).

P(YiYj = 0) =P(RAiU RAjU = 0) =P(R2AiAjU2 = 0).

=P(R2 = 0, AiAjU2 ̸= 0) +P(R2 ̸= 0, AiAjU2 = 0) +P(R2 = 0, AiAjU2 = 0).

Ker staR inU neodvisna, sta tudi R2 inU2 neodvisna.

P(YiYj = 0) =P(R2 = 0)P(AiAjU2 ̸= 0) +P(R2 ̸= 0)P(AiAjU2 = 0) +P(R2 = 0)P(AiAjU2 = 0).

Ker je U zvezna porazdelitev, sledi, da je tudi U2 zvezna porazdelitev in zato je P(AiAjU2 = 0) = 0. Ponovno sta zadnja dva £lena enaka 0, ker je P(AiAjU2 = 0) = 0.

P(YiYj = 0) =P(R2 = 0)P(AiU AjU ̸= 0).

(15)

Drugi £len zapi²emo z obratno verjetnostjo.

P(YiYj = 0) =P(R2 = 0)(︁

1−P(AiAjU2 = 0))︁

=P(R2 = 0) =P(R = 0).

Preko zapisa Yi =RAiU in s pomo£jo leme 4.7 smo pokazali naslednje enakosti:

P(YiYj = 0) =P(R = 0) =P(Yi = 0) =(︁

P(Xii))︁2

.

Pokazane enakosti vstavimo v denicijo Kendallovega taua in dokaz bo kon£an.

τ(Xi, Xj) =P(︁

(Xi−X˜i)(Xj −X˜j)>0)︁

−P(︁

(Xi−X˜i)(Xj −X˜j)<0)︁

. Iz na²e denicije Y sledi, da jeXi−X˜

i =Yi in podobno za j. τ(Xi, Xj) = P(YiYj >0)−P(YiYj <0).

Drugi £len zapi²emo kot 1−P(YiYj = 0)−P(YiYj >0): τ(Xi, Xj) = P(YiYj >0)−(︁

1−P(YiYj = 0)−P(YiYj >0))︁

=P(YiYj >0)−1 +P(YiYj = 0) +P(YiYj >0)

= 2P(YiYj >0)−1 +P(YiYj = 0).

Za konec vstavimo P(YiYj = 0) =(︁

P(Xii))︁2

. τ(Xi, Xj) = 2P(YiYj >0)−1 +(︁

P(Xii))︁2

.

□ Lema 4.9. Naj bo X ∼ Ep(0,Σ, ϕ) in X˜ ∼Ep(0, cΣ, ϕ˜) in rank(Σ) ≥ 2 ter c >0,

£e je P(Xi = 0)<1 in P(X˜i = 0)<1, potem P(XiXj >0)(︁

1−P(X˜i = 0))︁

=P(X˜ij >0)(︁

1−P(Xi = 0))︁

.

Dokaz. Opazimo, da zapis P(Xi = 0) < 1 pomeni isto kot zapis P(Xi = µi) < 1, saj je µ= 0.

(1) Vzamemo X = RAU, kot smo pokazali v trditvi 3.3 in ozna£imo W = AU (torej X =RW). Sledi

P(XiXj >0) =P(RWiRWj >0).

Uporabimo pogojno verjetnost.

P(XiXj >0) = P(RWiRWj|R >0)P(R >0)

=P(R2WiWj|R >0)P(R >0)

=P(WiWj >0)P(R >0).

(2) Podobno storimo za X˜, ki ga po trditvi 3.3 zapi²emo kotX˜ = √

cR˜W, kjer je c >0.

P(X˜ij >0) =P(√ cR˜Wi

√cR˜Wj >0).

Uporabimo pogojno verjetnost.

P(X˜ij >0) =P(cR˜WiR˜Wj|R˜ >0)P(R˜ >0)

=P(cR˜2WiWj >0)P(R˜ >0).

Sc lahko delimo, ker jec > 0.

P(X˜ij >0) =P(WiWj >0)P(R˜ >0).

(16)

Iz dokaza leme 4.7 se spomnimo, da je W = AU porazdeljena zvezno, zato lahko pokaºemo

P(Xi = 0) =P(RWi = 0) =P(R = 0).

Slednje in dejstvo, da je R ≥0, uporabimo pri naslednjem izra£unu.

P(R >0) = 1−P(R≤0) = 1−P(R= 0) = 1−P(Xi = 0).

Vse vstavimo skupaj in na²a lema sledi.

P(XiXj >0)(︁

1−P(X˜i = 0))︁

=P(WiWj >0)P(R >0)P(R˜ >0)

=P(R >0)P(X˜ij >0)

=P(X˜

i

j >0)(︁

1−P(Xi = 0))︁

.

□ Naslednja lema nam bo pokazala, od kod se pojavi arcsin.

Lema 4.10. Naj bo X ∼Np(µ,Σ)in X˜ neodvisna kopija slu£ajne spremenljivke X,

£e je P(Xii)<1 in P(Xjj)<1, potem τ(Xi, Xj) = 2P(︁

(Xi −X˜

i)(Xj−X˜

j)>0)︁

−1 = 2

π arcsinρij. Dokaz. Naj bo X∼Np(µ,Σ)in X˜ njegova neodvisna kopija. Ozna£imo

(1) σi =√

Σii >0, (2) σj =√︁

Σjj >0, (3) ρij = σΣij

iσj, (4)

Σij =

[︃Σii Σij Σji Σjj ]︃

=

[︃ σ2i σiσjρij

σiσjρij σj2 ]︃

. Denirajmo Y =X−X˜. Velja

Y =X−X˜ ∼Np(µ,Σ)−Np(µ,Σ)∼Np(µ−µ,Σ + Σ)∼Np(0,2Σ), kar pomeni, da je vektor (Yi, Yj)∼N2(0,2Σij).

Zapi²imo Kendallov tau kot v lemi 4.8 τ(Xi, Xj) = 2P(︁

(Xi−X˜

i)(Xj−X˜

j >0)︁

−1 +(︁

P(Xii))︁2

.

Ker je X zvezno porazdeljen, je P(Xii) = 0. Nadaljujemo s tem, da v ena£bo vstavimo denirani Y.

τ(Xi, Xj) = 2P(YiYj >0)−1.

Zaradi simetrije (Yi, Yj) sledi.

τ(Xi, Xj) = 2·2P(Yi >0, Yj >0)−1.

Izra£un verjetnosti je prikazan v prilogi 5.1.

τ(Xi, Xj) = 4(︁1 4+ 1

2πarcsinρij)︁

−1

= 1 + 2

π arcsinρij −1

= 2

πarcsinρij.

(17)

Lema 4.11. Naj bo X ∼Ep(µ,Σ, ϕ) in rank(Σ) =k ≥ 2, £e je P(Xii)<1 in P(Xjj)<1, potem

τ(Xi, Xj) = (︂

1−(︁

P(Xi =x))︁2)︂2

πarcsinρij.

Dokaz. Naj bo X˜ neodvisna kopijaX ∼Ep(µ,Σ, ϕ). Na za£etku se spomnimo leme 4.8, kjer smo pokazali, da lahko zapi²emo Kendallov tau na naslednji na£in:

τ(Xi, Xj) = 2P(︁

(Xi−X˜i)(Xj −X˜j)>0)︁

−1 +(︁

P(Xii))︁2

. Lema 3.6 nam pove X −X˜ ∼ Ep(0,Σ, ϕ2), lema 4.7 pa P(Xi =X˜

i) = (︁

P(Xi = µi))︁2

< 1, ker je P(Xi = µi) < 1. Podobno lahko zapi²emo za j: P(Xj = X˜

j) = (︁P(Xjj))︁2

.

Denirajmo Z in Z˜ ∼ Np(µ,Σ), ki sta med sabo neodvisna. Velja Z −Z˜ ∼ Np(0,Σ)∼Ep(0,Σ, ϕN). Uporabimo lemo 4.9

P(︁

(Xi−X˜

i)(Xj−X˜

j)>0)︁(︁

1−P(Zi−Z˜

i = 0))︁

=P(︁

(Zi−Z˜i)(Zj −Z˜j)>0)︁(︁

1−P(Xi−X˜i = 0))︁

. Ker je Z −Z˜ zvezna, jeP(Zi−Z˜i = 0) = 0.

P(︁

(Xi−X˜i)(Xj −X˜j)>0)︁

=P(︁

(Zi−Z˜i)(Zj −Z˜j)>0)︁(︁

1−P(Xi−X˜i = 0))︁

=P(︁

(Zi−Z˜

i)(Zj −Z˜

j)>0)︁(︁

1−P(Xi =X˜

i))︁

. Pri zadnji verjetnosti uporabimo lemo 4.7.

P(︁

(Xi−X˜i)(Xj−X˜j)>0)︁

=P(︁

(Zi−Z˜i)(Zj−Z˜j)>0)︁(︂

1−(︁

P(Xii))︁2)︂

. Izra£unano vstavimo v ena£bo za Kendallov tau.

τ(Xi, Xj) = 2P(︁

(Xi−X˜i)(Xj −X˜j)>0)︁

−1 +(︁

P(Xii))︁2

= 2P(︁

(Zi−Z˜

i)(Zj −Z˜

j)>0)︁(︂

1−(︁

P(Xii))︁2)︂

−1 +(︁

P(Xii))︁2

= 2P(︁

(Zi−Z˜i)(Zj −Z˜j)>0)︁(︂

1−(︁

P(Xii))︁2)︂

−(︂

1−(︁

P(Xii))︁2)︂

=(︂

2P(︁

(Zi−Z˜i)(Zj −Z˜j)>0)︁

−1)︂(︂

1−(︁

P(Xii))︁2)︂

. Prvi oklepaj je po lemi 4.10 enak 2πarcsinρij.

τ(Xi, Xj) =(︂

1−(︁

P(Xii))︁2)︂2

πarcsinρij.

□ 5. Priloga

Primer 5.1 (Povzeto po viru [2, vaja 4.7.17]). Naj bo slu£ajni vektor (X, Y) po- razdeljen normalno dvorazseºno z gostoto

fX,Y(x, y) = 1 2π√︁

1−ρ2e

1

2(1−ρ2)(x2−2ρxy+y2)

,

kjer je ρ ∈ (−1,1) korelacijski koecient. Pokaºimo, da sta X in Z = √Y−ρX

1−ρ2

neodvisni slu£ajni spremenljivki porazdeljeniN(0,1)in izra£unajmoP(X >0, Y >

0).

(18)

Ozna£imo w = x in z = √y−ρx

1−ρ2 z inverzoma x = w in y = ρw+z√︁

1−ρ2. Za transformacijo izra£unamo Jacobijevo matriko.

J = [︃∂x

∂w

∂x

∂y ∂z

∂w

∂y

∂z

]︃

=

[︃1 0

ρ √︁

1−ρ2 ]︃

.

Pora£unamo transformacijo.

fW,Z(w, z) =fX,Y(︁

x(w, z), y(w, z))︁

· |det J|

=

√︁1−ρ2 2π√︁

1−ρ2e

1

2(1−ρ2)(1−ρ2)(w2+z2)

= 1

2πe12(w2+z2).

Kar pomeni, da sta W inZ neodvisni in porazdeljeni N(0,1). Izra£unajmo P(X > 0, Y > 0) = P(︁

W > 0, Z > −√W ρ

1−ρ2

)︁. Za laºje ra£unanje uporabimo polarne koordinate in vzamemo w = rcosθ in z = rsinθ, kjer je r ∈ (0,∞). Dolo£imo interval θ.

θ = arcsin(︁z r

)︁= arcsin(︁ z

√w2+z2 )︁.

Upo²tevajmo, da je w >0in z >−√

1−ρ2.

θ = arcsin

(︄ −√

1−ρ2

w2 +w1−ρ2ρ22

)︄

= arcsin

(︄ −√

1−ρ2

w

√︂

1 + 1−ρρ22

)︄

= arcsin

(︄ −√ρ

1−ρ2

√︂1−ρ22 1−ρ2

)︄

= arcsin

(︄−√ρ

1−ρ2

1 1−ρ2

)︄

= arcsin(−ρ) = −arcsinρ.

Torej θ ∈(−arcsinρ,π2).

Zdaj lahko izra£unamo verjetnost.

P(X >0, Y >0) = P(︂

W >0, Z > −W ρ

√︁1−ρ2 )︂

=

∫︂

θ

∫︂

r

fW,Z(w=rcosθ, z=rsinθ)rdrdθ

=

∫︂

θ

∫︂

r

1

2πe12(r2cos2θ+r2sin2θ)rdrdθ.

(19)

Vemo cos2θ+ sin2θ= 1.

P(X >0, Y >0) =

∫︂

θ

∫︂ r=0

1

2πe1r2rdrdθ

=

∫︂ π2

θ=−arcsinρ

1 2πdθ

= 1 2π

(︁π

2 + arcsinρ)︁

= 1 4 + 1

2π arcsinρ.

♢ Slovar strokovnih izrazov

characteristic function karakteristi£na funkcija correlation coecient korelacijski koecient determinant of the matrix determinanta matrike elliptical distribution elipti£na porazdelitev

expected value pri£akovana vrednost ali matemati£no upanje independent copy neodvisna kopija

Jacobi matrix Jacobijeva matrika Kendall's tau Kendallov tau

normal distribution normalna porazdelitev orthogonal matrix ortogonalna matrika rank of a matrix rank matrike

standard normal distribution standardna normalna porazdelitev uniform distribution enakomerna porazdelitev

variance-covariance matrix varian£no-kovarian£na matrika Literatura

[1] F. Lindskog, A. McNeil in U. Schmock, Kendall's tau for elliptical distributions, v: Credit Risk (ur. G. Bol, G. Nakhaeizadeh, S.T. Rachev, T. Ridder, KH. Vollmer), Physica-Verlag HD, 2003, str. 149156.

[2] G.R. Grimmett in D. Stirzaker, Probability and Random Processes: Problems and Solutions, Oxford Science Publications, New York, 1992.

[3] R. Jamnik, Verjetnostni ra£un, Matematika-zika: Zbirka univerzitetnih u£benikov in mono- graj 3, Mladinska knjiga, Ljubljana, 1971.

[4] H. Hult in F. Lindskog, Multivariate extremes, aggregation and dependence in elliptical dis- tributions, v: Advances in Applied Probability (ur. P.G. Taylor), 34, Cambridge University Press, 2002, str. 587608.

[5] G. Frahm, Generalized Elliptical Distributions: Theory and Applications, doktorsko delo, Wirtschafts- und Sozialwissenschaftlichen Fakultät, Universiät zu Köln, 2004.

Reference

POVEZANI DOKUMENTI

Marjan Jerman, Univerza v Ljubljani, Fakulteta za matematiko in fiziko, član Silva Kmetič, Zavod RS za šolstvo, članica7. Samo Repolusk, Univerza v Mariboru, Fakulteta za

Fakulteta za naravoslovje in matematiko Oddelek za matematiko in raˇ cunalniˇstvo Matematika

Fakulteta za naravoslovje in matematiko Oddelek za matematiko in raˇ cunalniˇstvo Matematika

Fakulteta za naravoslovje in matematiko Oddelek za matematiko in raˇ cunalniˇstvo Matematika

Fakulteta za naravoslovje in matematiko Oddelek za matematiko in raˇ cunalniˇstvo Matematika 1.. KOLOKVIJ IZ

Fakulteta za naravoslovje in matematiko Oddelek za matematiko in raˇ cunalniˇstvo Matematika

Fakulteta za naravoslovje in matematiko Oddelek za matematiko in raˇ cunalniˇstvo Matematika

Metode podatkovne analitike pri nadzoru kakovosti ˇstudija si lahko pogledamo skozi analize ocen (po predmetih, po ˇ casu), analize pretoˇ cnosti (skozi predmete ter skozi letnike)