• Rezultati Niso Bili Najdeni

TAKAGIJEVA FAKTORIZACIJA

N/A
N/A
Protected

Academic year: 2022

Share "TAKAGIJEVA FAKTORIZACIJA"

Copied!
32
0
0

Celotno besedilo

(1)

univerza v ljubljani pedago²ka fakulteta

REBEKA MEšAN

TAKAGIJEVA FAKTORIZACIJA

Diplomsko delo

Ljubljana, junij 2018

(2)

univerza v ljubljani pedago²ka fakulteta

’tudijski program: Dvopredmetni u£itelj

REBEKA MEšAN

Mentor: izr. prof. dr. Marko Slapar Somentor: asist. dr. Tadej Star£i£

TAKAGIJEVA FAKTORIZACIJA

Diplomsko delo

Ljubljana, junij 2018

(3)

Zahvala

Najve£ja zahvala gre seveda mojemu mentorju, dr. Marku Slaparju, ki mi je bil skozi celotno obdobje pisanja diplomske naloge na voljo, me prena²al enkrat tedensko in potrpeºljivo odgovarjal na moja vpra²anja.

Rada bi se zahvalila tudi moji mami za pomo£ pri lektoriranju naloge.

Hvala pa tudi tebi, Anja, ker si mi velikokrat stala ob strani in me spodbujala s sme²nimi komentarji, ²e posebej takrat, ko se je zdelo, da nimam ve£ mo£i nadaljevati.

(4)

Povzetek

Diplomska naloga Takagijeva faktorizacija bralcu predstavi faktorizacijo kompleksno simetri£nih matrik. Kompleksno simetri£ne matrike v splo²nem ne moremo diagonalizirati, lahko pa pokaºemo, da so unitarnoT−kongruentne diagonalni matriki. Temu re£emo Takagijeva faktorizacija.

V prvem poglavju so predstavljene splo²ne lastnosti matrik ter njihova diagonalizabilnost. Diagonalizacija ni nujno izvedljiva pri kompleksno ortogonalnih matrikah, medtem ko so realno simetri£ne in kompleksno

hermitske matrike vedno diagonalizabilne. Pomemben izrek za razumevanje diagonalizacije in podobnosti je Schurov izrek, ki je v nadaljevanju opisan in dokazan.

Kratek del diplomske naloge je posve£en opisu japonskega matematika Teijija Takagija, nato pa sledi glavni del naloge, obravnava Takagijeve faktorizacije.

Klju£ne besede: matrike, podobnost matrik, diagonalizacija, Schurov izrek, Takagijeva faktorizacija

(5)

Abstract

This diploma thesis, Takagi factorization, presents the reader a factorization of complex symmetric matrices. A complex symmetric matric can not in general be diagonalizable but it can be showed, that it can always be unitaryT−con- gruent to some diagonal matrix. That is called Takagi factorization.

In the rst chapter the basic properties of matrices and matrix diagonalizability are presented. A diagonalization is not always realisable in the case of a complex orthogonal matrix while for real symmetric and for complex Hermitian matrix the diagonalization always exists. An important theorem for understanding the process of diagonalization and similarity is Schur form. It is described and pro- ved below.

Short part of this dissertation is devoted to Japanese mathematician Teiji Ta- kagi, followed by the main subject of this paper, discussion of Takagi factoriza- tion.

Key words: matrices, matrix similarity, diagonalization, Schur form, Takagi factorization

(6)

Kazalo

1 Matrike 1

1.1 Denicije in osnovne operacije . . . 1

1.2 Podobnost matrik, lastne vrednosti in lastni vektorji . . . 5

1.3 Ortogonalne in unitarne matrike . . . 6

1.4 Simetri£ne in hermitske matrike . . . 7

2 Schurov izrek in diagonalizacija 9 2.1 Schurov izrek . . . 9

2.2 Diagonalizacija hermitskih matrik . . . 10

2.3 Diagonalizacija unitarnih matrik . . . 11

2.4 Kompleksno simetri£na nediagonalizabilna matrika . . . 11

2.5 Kompleksno ortogonalna nediagonalizabilna matrika . . . 12

3 Takagijeva faktorizacija 15 3.1 Teiji Takagi . . . 15

3.2 Takagijeva faktorizacija . . . 16

4 Konsimilarnost in kondiagonalizacija 21 4.1 Konlastne vrednosti in konlastni vektorji . . . 23

(7)

1 Matrike

Literaturo za to poglavje sem pridobila v virih[1],[4],[5]in[6].

1.1 Denicije in osnovne operacije

Denicija 1.1. Pravokotno tabelo R ali C ²tevil velikosti m×n imenujemo matrika. Naravno ²tevilo mpredstavlja ²tevilo vrstic,n∈Npa ²tevilo stolp- cev matrike. Matrike na splo²no zapi²emo:

A=

a11 a12 . . . a1n

a21 a22 . . . a2n

... ... . . . ...

am1 am2 . . . amn

= [aij]m×n

aij predstavlja element matrike, ki leºi vi−tivrstici in vj−temstolpcu, pri

£emeri= 1, . . . , mter j= 1, . . . , n. Primer 1.2. Matrika5×5:

2 3 3 1 4 1 2 7 2 3 3 0 9 11 4 1 3 6 5 2 2 34 6 22 7

Elementa32leºi v tretji vrstici in drugem stolpcu ter ima vrednost 0.

Denicija 1.3. OznakaCm×n (Rm×n) predstavlja mnoºico vseh kompleksnih (realnih) matrik velikosti m×n. Kadar velja m =n, je matrika kvadratna.

Pri kvadratnih matrikah poznamo tudi pojem diagonale. Tvorijo jo elementi aij, kjeri=j.

Primer 1.4. Naj boA∈C3×3.

A=

7−4i 2 16i

−3i 15 −12 + 8i

0 6i 2i

Diagonalni elementi matrikeAso: 7−4i,15,2i.

(8)

Denicija 1.5. Matrika A ∈ Cn×n je diagonalna matrika, £e za njo velja, da so vsi elementi razenaii,i∈ {1, . . . , n}, enaki0.

A=

a11 0 . . . 0 0 a22 . . . 0 ... ... ... ...

0 0 . . . ann

Denicija 1.6. Kadar so vsi elementi aij = 0, kjer i, j ∈ {1, . . . , n}, za vsak i > j, je kvadratna matrikaA zgornje trikotna. Kvadratna matrika Apa je spodnje trikotna, kadar aij = 0, za vsak i < j.

ƒe je matrikaA∈Cn×nspodnje in zgornje trikotna hkrati, jeAdiagonalna matrika.

Denicija 1.7. Kvadratna matrikaA= [aij], velikosti n×n, za katero velja:

aij =





1 ;i=j 0 ;sicer

se imenuje identi£na matrika ali identiteta in jo ozna£imo z I.

Denicija 1.8. Vzemimo matriki A, B ∈ Cm×n. Vsota A+B je denirana kot

A+B=

a11+b11 a12+b12 . . . a1n+b1n

a21+b21 a22+b22 . . . a2n+b2n

... ... ... ...

am1+bm1 am2+bm2 . . . amn+bmn

(9)

Denicija 1.9. Za poljuben skalar α ∈ R in matriko A ∈ Cn×n deniramo produkt matrike A s skalarjem αtako:

αA=

αa11 αa12 . . . αa1n αa21 αa22 . . . αa2n

... ... ... ...

αan1 αan2 . . . αann

Denicija 1.10. Vzemimo matrikiA∈Cm×ninB∈Cn×p. Produkt matrik A·B je deniran kot

A·B=

 Pn

k=1a1kbk1 Pn

k=1a1kbk2 . . . Pn

k=1a1kbkp Pn

k=1a2kbk1 Pn

k=1a2kbk2 . . . Pn

k=1a2kbkp

... ... ... ...

Pn

k=1amkbk1 Pn

k=1amkbk2 ... Pn

k=1amkbkp

Primer 1.11. Naj bo matrika A∈ C2×2 in matrika B ∈ C2×1. Izra£unajmo produkt A·B.

A=

 2i 3

−2 7i

, B=

 i 5i

ProduktA·B ∈C2×1 je tak²en

A·B=

(2i)·i + 3·(5i)

−2·i + (7i)·(5i)

=

−2 + 15i

−2i−35

Denicija 1.12. Inverzna matrika kvadratne matrike A, ki jo ozna£imo z A−1, je matrika, za katero velja:

AA−1=A−1A=I

ƒe inverz obstaja, pravimo, da je matrika A obrnljiva oziroma regularna.

KadarA−1 ne obstaja, je matrikaA singularna.

Denicija 1.13. Transponiranje je operacija, ki matriki A ∈Cm×n priredi transponirano matrikoAT ∈Cn×m: ƒe je

A=

a11 a12 . . . a1n

a21 a22 . . . a2n

... ... ... ...

am1 am2 . . . amn

 ,

(10)

potem je njena transponiranka enaka

AT =

a11 a21 . . . am1 a12 a22 . . . am2 ... ... ... ...

a1n a2n . . . amn

 .

Transponiranko AT torej dobimo z zamenjavo istoleºnih vrstic in stolpcev matrikeA.

Primer 1.14.

A=

4i 8 2 1 3 −9i 7 6i 8

⇒AT =

4i 1 7 8 3 6i 2 −9i 8

Denicija 1.15. Konjugacija matrike A ∈ Cm×n je operacija, pri kateri najprej transponiramo osnovno matriko, nato pa vse njene elemente spremenimo v kompleksno konjugirane. Konjugirano matriko ozna£imo z A = AT = ( ¯A)T.

Primer 1.16. Naj boA∈C3×3 matrika,

A=

4 2 + i 3i 7 + i −i 5

0 1 2−4i

 ,

potem je njena konjugirana matrikaA enaka:

A=

4 7−i 0 2−i i 1

−3i 5 2 + 4i

 .

ƒe stax= (x1, x2, . . . , xn)in y= (y1, y2, . . . , yn)poljubna vektorja vCn in je

hx, yi=a11+x22+· · ·+xnn

standardni skalarni produkt, potem velja hAx, yi=hx, Ayi.

(11)

1.2 Podobnost matrik, lastne vrednosti in lastni vektorji

Denicija 1.17. Kvadratna matrikaAje podobna neki kvadratni matrikiB,

£e obstaja obrnljiva kvadratna matrika P, da velja B = P AP−1. Podobnost med matrikamaAinB ozna£imo z A∼B.

Denicija 1.18. Za matrikoApravimo, da je diagonalizabilna, £e je podobna kak²ni diagonalni matriki D. Torej mora obstajati neka obrnljiva matrika P, da velja D=P AP−1. Postopek, ki pretvori matriko v diagonalno, imenujemo diagonalizacija.

Matrika A je torej diagonalizabilna natanko tedaj, ko obstaja neka obrnljiva matrikaP in diagonalna matrikaD, da veljaD=P AP−1:

 µ1

µ2

...

µn

=P AP−1,

kjerD=diag(µ1, . . . , µ2).

Denicija 1.19. Naj boA∈Cn×n. Neni£elni vektorx∈Cn je lastni vektor zaA, £e obstaja takµ∈C, da velja:

Ax=µx.

Pri tem jeµlastna vrednost matrike Aza lastni vektorx.

Denicija 1.20. Naj boA∈Cn×n matrika. Determinanta je preslikava, ki matrikiApriredi ²tevilo in jo ozna£imo z det A

detA=

a11 a12 · · · a1n

a21 a22 · · · a2n ... ... ...

an1 an2 · · · ann

=X

π

signπ

n

Y

k=1

akπ(k),

kjer vsota te£e po vseh moºnih permutacijah mnoºice {1,2, . . . , n} in jesignπ predznak permutacije.

(12)

Determinanta kompleksne kvadratne2×2matrike

A=

 a b c d

je torejdetA=ad−bc, determinanta kompleksne matrike3×3

B =

a b c d e f g h i

pa

detB = a(ei−f h)−b(di−f g) +c(dh−eg)

= aei−af h+bf g−bdi+cdh−ceg Primer 1.21. Izra£unajmo determinanto matrike A∈C2×2.

A=

 i −4i 3 −2

detA je potem enaka

detA=−2·i−(−4i·3) = 10i.

Spomnimo se, da je determinanta matrike neni£elna natanko tedaj, ko je matrika obrnljiva.

Denicija 1.22. Polinom pA(µ) = det(A−µI) imenujemo karakteristi£ni polinom matrike A.

Izrek 1.23. µ∈ C je lastna vrednost matrike A natanko tedaj, ko je µ ni£la karakteristi£nega polinoma.

1.3 Ortogonalne in unitarne matrike

Literaturo za to poglavje sem pridobila v virih[2]in [4].

Denicija 1.24. Kompleksna matrikaO, velikostin×n, je ortogonalna, kadar veljaOOT =I.

Denicija 1.25. Kadar za kompleksno kvadratno matriko U velja U U =I, pravimo, da jeU unitarna.

(13)

Trditev 1.26. Naj boA∈Cn×n unitarna matrika. Veljajo naslednje lastnosti:

(1) Za unitarne matrike velja hU x, U yi = hx, yi, kjer sta x, y par poljubnih kompleksnih vektorjev.

(2) Vse lastne vrednosti matrikeA so velikosti1.

Dokaz. (1) hU x, U yi= (U x)U y=xUU y=xy=hx, yi

(2) Naj boµlastna vrednost matrikeA, razli£na od0. Potem velja Ax=µ¯x

Uporabimo(1):

hx, xi=hAx, Axi= ¯µµhx, xi Kerhx, xi 6= 0, velja µµ¯ =|µ|2= 1.

Obi£ajno si pod pojmom ortogonalne matrike predstavljamo le realne ortogo- nalne matrike. V takem primeru ni razlike med unitarnostjo in ortogonalnostjo.

Velja kar OT = U, v kompleksnem pa je razlika med obema razredoma kar precej²nja. Medtem ko unitarne matrike lahko diagonaliziramo, za kompleksne ortogonalne matrike to ni nujno. Ve£ sledi v nadaljevanju.

1.4 Simetri£ne in hermitske matrike

Literaturo za to poglavje sem pridobila v virih[1]in [3].

Denicija 1.27. Kompleksna matrikaA∈Cn×n, ki ustreza predpisuA=AT, se imenuje simetri£na matrika.

Denicija 1.28. Kompleksna matrika je hermitska ali sebiadjungirana, £e veljaA=A.

Primer 1.29. Naj bo dana kompleksna matrika

A=

3 4 + 8i −2 4−8i 12 9

−2 9 0

(14)

Njena konjugirano transponirana matrikaA je potem enaka

A=

3 4 + 8i −2 4−8i 12 9

−2 9 0

Vidimo, da sta matriki enaki in velja A = A, torej je matrika A hermitska oziroma sebiadjungirana matrika.

Torej, £e je matrikaArealna, potem sta simetri£nost in hermitskost enaka pojma. Vemo, da za realne matrike velja AT = ¯AT = A. Zato za realne simetri£ne matrike veljajo vse lepe lastnosti, ki jih lahko izpeljemo za sebiad- jungirane matrike. Kot bomo videli, pa imajo kompleksne simetri£ne matrike na£eloma precej druga£ne lastnosti od sebiadjungiranih matrik.

Trditev 1.30. Naj za matriko A velja, da je hermitska, torejA=A. Potem veljajo naslednje lastnosti:

• elementi, ki leºijo po glavni diagonali, soR²tevila,

• lastne vrednostiArealne.

Dokaz. Prva lastnost je o£itna. Poglejmo si dokaz druge lastnosti. Naj bo µ poljubna lastna vrednost in v pripadajo£i lastni vektor zapisan v stolpcu ter v6= 0. Tedaj jev vrstica. Skalarni produkt oziroma kvadrat velikosti lastnega vektorja predstavlja produkt vv. Zapi²emo lahko:

µvv=vµv=vAv=vAv= (vA)v= (µv)= ¯µvv

Po kraj²anju skrajne leve in desne strani ena£be dobimo: µ = ¯µ, to pa velja natanko tedaj, ko jeµ∈R.

Denicija 1.31. Sebiadjungirana matrika A je pozitivno denitna, £e za vsak neni£eln vektor x velja hAx, xi > 0 in pozitivno semidenitna, £e je hAx, xi ≥0za vsak vektorx.

Trditev 1.32. ƒe jeA pozitivno semidenitna, so vse lastne vrednosti matrike A nenegativne. ƒe jeApozitivno denitna, so lastne vrednosti pozitivne.

(15)

Dokaz. Vzemimo poljubni lastni vektorxmatrikeAza lastno vrednostλ. Dokaz trditve za pozitivne semidenitne matrike sledi iz

λhx, xi=hAx, xi=hx, Axi ≥0, za pozitivno denitne pa iz dejstva, da je neenakost stroga.

Za poljubno matriko A je matrika AA pozitivno semidenitna, saj velja hAAx, xi=hAx, Axi. ƒe jeA nesingularna, je matrikaAA pozitivno deni- tna.

2 Schurov izrek in diagonalizacija

2.1 Schurov izrek

Schurov izrek pravi, da je vsaka kvadratna kompleksna matrika A unitarno podobna neki zgornje trikotni matriki, katere diagonalni elementi so lastne vre- dnosti matrike A, zapisane v poljubnem vrstnem redu.

Izrek 2.1 (Schurova triangularizacija). Naj bo A ∈ Cn×n matrika. Potem obstaja neka unitarna matrikaU ∈Cn×n tako, daUAU =T, kjer jeT zgornje trikotna matrika. Elementi diagonale so lastne vrednosti matrikeA.

Dokaz. Naj bo xnormaliziran lastni vektor matrikeA, to je xx= 1(dolºina tega vektorja je enaka 1), za lastno vrednost µ1. VeljaAx=µ1x. Naj bo

U1=h

x u1 · · · un i

taka unitarna matrika, katere prva vrstica je lastni vektorx. Potem velja:

U1AU1=U1h

Ax Au2 · · · Aun

i=U1h

µ1x Au2 · · · Aun

i

=

 x1 u2 ...

un

 h

µ1x Au2 · · · Aun

i

=

µ1xx xAu2 · · · xAun

u2µ1x u2Au2 · · · u2Aun

... ... ... ...

unµ1x unAu2 · · · u2Aun

(16)

=

 µ1 F

0 A1

Stolpci matrikeU1so ortonormirani. ƒen= 2, smo dokazali obstoj unitarne triangularizacije. V nasprotnem primeru, £e n >2, zopet skr£imo podmatriko A1 na podmatrikoA2in jo zapi²emo v obliki U2A1U2.

A1=

 µ2 F

0 A2

MatrikoAtorej zapi²emo kot(U12)A(U12), kjer je

2=

 1 0 0 U2

unitarna matrika. Zmnoºimo elemente, ki sestavljajo matrikoAin dobimo

2U1AU12=

µ1 F F 0 µ2 F 0 0 A2

Nadaljujemo s postopkom kr£enja, kjer podmatrikeAirazbijamo na unitarne matrike Ui ∈C(n−i+1)×(n−i+1), i= 1,· · · , n−1 ter na unitarne matrike U˜i ∈ C(n−i+1)×(n−i+1), i= 2,· · ·, n−2. MatrikaU =U123· · ·U˜n−2 je unitarna in UAU je zgornje trikotna.

ƒe je matrikaA realna in ima le realne lastne vrednosti, potem so pripada- jo£i lastni vektorji realni. Posledi£no obstaja neka realna ortogonalna matrika Q∈Rn×n tako, daQTAQ=T, kjer jeT zgornje trikotna matrika, z lastnimi vrednostmi matrikeApo diagonali.

2.2 Diagonalizacija hermitskih matrik

Oglejmo si, kaj se dogaja pri diagonalizaciji hermitskih matrik. Vemo,

da A = A. Po Schurovem izreku torej obstaja neka unitarna matrika U ter zgornje trikotna matrika T, da lahko zapi²emoA=U T U. Potem velja:

A=A U T U=U TU

T =T.

(17)

Ker je matrika T zgornje trikotna, je matrika T spodnje trikotna. MatrikaT mora biti torej isto£asno zgornje in spodnje trikotna. Vidimo torej, da nam v primeru hermitskih matrik Schurov izrek zagotovi, da je matrika T kar diago- nalna matrika. Vsako hermitsko matriko torej lahko diagonaliziramo.

2.3 Diagonalizacija unitarnih matrik

Podobno kot za hermitske matrike, poglejmo, kako je z diagonalizacijo neke unitarne matrikeA. Ker je le-ta unitarna, veljaAA=I. Naj bo po Schurovem izreku T zgornje trikotna inU unitarna, da veljaA=U T U.

AA=I U T UU TU=I

Po upo²tevanju, da je matrikaU unitarna (U U=I) in mnoºenju z leve strani zU ter z desne strani zU, dobimo:

T T=I.

Zgornje trikotna matrika je unitarna natanko tedaj, ko je diagonalna in so vre- dnosti na diagonali po velikosti enake 1. Vsako unitarno matriko torej lahko diagonaliziramo.

2.4 Kompleksno simetri£na nediagonalizabilna matrika

Medtem ko so kompleksne hermitske matrike vedno diagonalizabilne, pa ni teºko najti primera kompleksno simetri£ne matrike, ki ni diagonalizabilna. Naj bo

A=

 1 i

i −1

.

Matrika je simetri£na. Poglejmo si lastne vrednosti µmatrikeA:

det

1−µ i i −1−µ

=µ2.

Edina lastna vrednost matrike A je torej µ = 0. Ker A ni ni£elna matrika, je seveda ne moremo diagonalizirati, saj bi diagonalna matrika morala biti kar ni£elna matrika.

(18)

Kompleksno simetri£ne matrike so dokaj splo²en razred matrik. Velja na- mre£, da je vsaka kompleksna matrika podobna neki kompleksno simetri£ni matriki. Dokaz za to lahko bralec najde v[3].

2.5 Kompleksno ortogonalna nediagonalizabilna matrika

Nekoliko teºje kot v primeru kompleksno simetri£nih matrik bomo videli, da tudi kompleksnih ortogonalnih matrik ne moremo vedno diagonalizirati. Prvi primer lahko najdemo v dimenziji3.

Trditev 2.2. Vsaka2×2 kompleksna ortogonalna matrika je diagonalizabilna.

Dokaz. Naj bo O ∈C2×2 neka ortogonalna kompleksna matrika. Zanima nas,

£e jo lahko zapi²emo v oblikiO=U T U, kjer jeT diagonalna matrika. Naj bo

O=

 a b c d

, OT =

 a c b d

,

kjera, b, c, d∈C. ƒe je a6= 0, nam pogoj

OOT =

a2+b2 ac+bd ac+bd c2+d2

=

 1 0 0 1

pove, da mora matrikaA biti oblike

a ε1

1−a2

−ε1ε2

1−a2 ε2a

,

kjer staε1, ε2=±1. Pripadajo£e lastne vrednosti so v primeru, ko jeε2=−1, enakeµ1 = 1in µ2=−1. V tem primeru se matrikoO da diagonalizirati, saj sta pripadajo£i lastni vrednosti razli£ni. Diagonalna matrika je oblike

T =

 1 0 0 −1

.

ƒe pa jeε2= 1, sta lastni vrednostiµ1=a+√

a2−1in µ2=a−√ a2−1. Lastni vrednosti sta razli£ni, razen £e jea=±1. V tem primeru pa je matrika ºe diagonalna. Diagonalna matrikaT je torej oblike

T =

 a+√

a2−1 0

0 a−√

a2−1

.

(19)

Oglejmo si ²e primer, ko je a= 0. Posledi£no je tudi d= 0, b =ε1 in c=ε2, kjerε1, ε2=±1. Matrika je torej enaka

 0 ε1 ε2 0

.

Izra£unamo lastne vrednosti in po re²evanju ena£be µ2 = ε1ε2 dobimo dve moºnosti. V prvem primeru imamo dve realni lastni vrednosti, µ1= 1in µ2 = −1, v drugem pa sta lastni vrednosti µ1 = i in µ2 = −i. Pripadajo£i diagonalni matriki sta torej

T1=

 1 0 0 −1

, T2=

 i 0 0 −i

.

Videli smo, da so kompleksno ortogonalne matrike, velikosti 2×2, vedno diagonalizabilne. Diagonalna matrika je bodisi oblike

±1 0 0 ∓1

,

ali pa

µ 0

0 1/µ

,

kjer je µ6= 0 poljubno kompleksno ²tevilo. Torej je prva moºnost za nediago- nalizabilnost matrika velikosti3×3.

Primer 2.3. Oglejmo si primer matrikeA∈C3×3, ki ni diagonalizabilna.

A=

1 i 1

−i 322i

−1 −2i 12

Preverimo, £e je ortogonalna.

AAT =

1 i 1

−i 322i

−1 −2i 12

1 −i −1 i 322i 1 −2i 12

=

1 0 0 0 1 0 0 0 1

=I

(20)

Poi²£emo lastne vrednostiµmatrikeA:

det

1−µ i 1

−i 32−µ −2i

−1 −2i 12−µ=

=−µ3+ 3µ2−3µ+ 1 =−(µ−1)3.

Edina lastna vrednost matrike je torejµ= 1. ƒe bi bila matrikaAdiagonaliza- bilna, bi morala biti podobna identiteti. Ker pa je edina matrika, ki je podobna identiteti, identiteta,A ne moremo diagonalizirati.

(21)

3 Takagijeva faktorizacija

Literaturo za to poglavje sem pridobila v virih[3],[4]in [7].

3.1 Teiji Takagi

Teiji Takagi je bil japonski matematik, rojen leta 1875. še kot u£enec se je navdu²eval nad angle²kimi matemati£nimi knjigami. šal v tistih £asih mate- mati£ni zapisi v japon²£ini niso obstajali. V £asu svojega ²tudija je obiskoval predmete ra£unstva in analiti£ne geometrije. Ugotovil pa je, da matemati£ne stvari razume bolje, £e jih predela sam. Za£el se je poglabljati v algebrsko li- teraturo in posledi£no je kmalu izdal svoj prvi £lanek. Vseboval je moderen pristop k algebrskim vsebinam. Po ²tudiju je odpotoval v Nem£ijo, kjer se je poglobil v raziskavo integralskih ena£b. Leta 1901 se je vrnil v rojstno mesto Tokio in postal asistent za algebro na tokijski univerzi. Z doktoratom dve leti kasneje je pridobil naziv rednega profesorja na univerzi. Med pou£evanjem je na²el £as za pisanje matemati£nih besedil, ki so pripomogla k razvoju japonske osnovno²olske in univerzitetne ravni matematike. Napisal je kar 13 besedil v razmaku sedmih let, med njimi najpomembnej²e pa je 500 strani dolgo besedilo z naslovom A new course of arithmetic. V njem opisuje razvoj realnih ²tevil z Dedekindovimi rezi. Naslednje pomembno besedilo je napisal v £asu obiska v Evropi leta 1920.

(22)

V njem je predstavil Takagijevo teorijo za razrede obsegov (Takagi class-field theory). Kmalu so za£eli ceniti njegove doseºke. Dobil je veliko mednarodnih priznanj in postal podpredsednik Mednarodnega kongresa matematikov v Züri- chu leta 1932. Po upokojitvi leta 1936 je nadaljeval s pisanjem matemati£nih besedil. Dve najpomembnej²i iz tistega obdobja sta Uvod v analizo in Teorija algebrai£nih ²tevil.

Umrl je v bolni²nici tokijske univerze leta 1960.

3.2 Takagijeva faktorizacija

Kot smo videli, v splo²nem se kompleksno simetri£nih matrik ne da diagonalizi- rati. Lahko pa si pomagamo s faktorizacijo oblike A=U4UT, kjer je matrika U unitarna in 4 zgornje trikotna matrika. ƒe je matrika A simetri£na, mora biti matrika4kar diagonalna. S tem se je prvi ukvarjal Leon Autonne (1915), podrobnej²i opis faktorizacije kompleksno simetri£nih matrik pa je podal Teiji Takagi leta 1925. Kasneje je bilo ²e veliko drugih avtorjev, ki so odkrivali in do- kazovali obstoj ter primere omenjene faktorizacije (Jacobsen 1939, Siegel 1943, Hua 1944 itd.).

Naj bo dana matrikaA∈Cn×n. Kot bomo videli, je Takagijeva faktorizacija tesno povezana z lastnostmi matrikeAA¯.

Trditev 3.1. ƒe obstaja unitarna matrika U ∈ Cn×n, da velja A = U4UT in 4 je zgornje trikotna matrika, potem je vsaka lastna vrednost matrike AA¯ nenegativna.

Dokaz. ƒe jeA=U4UT in je4 zgornje trikotna matrika, potem je AA¯=U4UTU¯4U¯ =U44U¯ .

Produkt dveh zgornje trikotnih matrik je zopet zgornje trikotna matrika. Ele- menti na diagonali44¯ so torej lastne vrednosti matrikeAA¯. Ker so diagonalni elementi 44¯ ravno kvadrati absolutnih vrednosti diagonalnih elementov ma- trike4, so torej lastne vrednosti matrike AA¯vse pozitivne.

(23)

Trditev 3.2. Naj bo A ∈ Cn×n in p ∈ {0,1, . . . , n}. Naj ima matrika AA¯ vsajprealnih nenegativnih lastnih vrednostiµ1, . . . , µp. Potem obstaja unitarna matrika U ∈Cn×n, da velja:

A=U

 4 F

0 C

UT,

kjer je matrika4 ∈Cn×nzgornje trikotna s koreni lastnih vrednosti√

µ1, . . . ,√ µp

po diagonali terCpodmatrika,C∈C(n−p)×(n−p). ƒe imaAA¯natankoprealnih nenegativnih lastnih vrednosti, jihCC¯ nima.

Dokaz. ƒen= 1 alip= 0, je dokaz trivialen.

Naj bo torej n≥2 in p≥1. Vzemimo enotski lastni vektor xmatrike AA¯ za pripadajo£o nenegativno lastno vrednost µ. Naj bo σ = √

µ ≥ 0. Pokaºimo, da obstaja enotski vektor z, za katerega velja Az¯ = σz. Naj bosta najprej x in A¯x linearno odvisna. Potem obstaja λ ∈ C, da je A¯x = λx. Zato je µx=AAx¯ =A¯λ¯x=|λ|2xin posledi£no|λ|=σ. Naj boϕtak, da jee−2iϕλ=σ. Potem je

A(ex) =e−iϕA¯x=e−iϕλx= (e−2iϕλ)(ex) =σ(ex).

Za vektor z=extorej velja A¯z =σz. Predpostavimo sedaj, da staxin A¯x linearno neodvisna in naj boz=A¯x+σx. Potem je

A¯z=AAx¯ +Aσ¯x=σ2x+σA¯x=σz.

Naj bo U unitarna matrika oblikeU = [z u1, . . . , un] terB = ¯UTAU¯. Element b11 matrike B je enak zA¯z = σzz = σ. Pravokotnost stolpcev matrike U zagotovi, da so vsi ostali elementi b1i, i∈ {2, . . . , n}enaki 0, saj veljauiA¯z= σuiz= 0 zai∈ {2, . . . , n}. Torej je

A= ( ¯UT)−1B( ¯U)−1=U BUT =U

σ F

0 A2

UT,

kjerA2∈C(n−1)×(n−1)inσ=√

µnenegativna. Produkt matrikAA¯je enak

AA¯=U

σ2 F 0 A22

U=U

µ F

0 A22

U.

(24)

ƒeA2∈C(n−p)×(n−p)ali paA22 nima realnih nenegativnih lastnih vrednosti, je dokaz kon£an. V nasprotnem primeru pa raz£lenjamo podmatrike Ai, i ∈ {2, . . . , p}, podobno kot pri dokazu Schurovega izreka. Za dokon£no raz£lenitev je potrebnih maksimalnopkorakov.

Oba trditvi skupaj nam dasta naslednji izrek.

Izrek 3.3. Naj bo A∈ Cn×n. Potem obstajaU ∈ Cn×n unitarna matrika in obstaja 4 ∈ Cn×n zgornje trikotna matrika, da je

A=U4UT

natanko tedaj, ko so vse lastne vrednosti matrike AA¯ realne in nenegativne.

Kadar velja pogoj, da so vse lastne vrednosti matrike AA¯nenegativne in realne, lahko zgornje trikotno matriko 4 izberemo tako, da so vsi elementi na glavni diagonali nenegativni.

ƒe je matrika A ∈ Cn×n hermitska, potem po Schurovem izreku obstaja unitarna matrika U, da lahko matriko A zapi²emo v obliki A = U DU, kjer je D realna diagonalna matrika. Za kompleksno simetri£ne matrike tak izrek v splo²nem ni mogo£, saj matrike niso nujno diagonalizabilne. ƒe pa namesto

-kongruence vzamemoT-kongruenco, pa lahko dokaºemo naslednji izrek:

Izrek 3.4 (Takagijeva faktorizacija). ƒe je matrika A ∈ Cn×n kompleksno simetri£na, obstaja unitarna matrikaU ∈ Cn×n in diagonalna matrika

Σ = diag(α1, . . . , αn)∈Cn×n, z nenegativnimi elementi po diagonali, da velja A = UΣUT. Diagonalni elementi matrike Σ so nenegativni kvadratni koreni lastnih vrednosti matrike AA¯, stolpci matrike U pa so lastni vektorji matrike AA¯.

Dokaz. Dokaºimo najprej, da je matrikaAA¯pozitivno semidenitna in ima zato same nenegativne lastne vrednosti. Ker je A simetri£na, veljaA=AT in zato A = ¯A. Posledi£no je matrika AA¯ = AA¯T = AA pozitivno semidenitna.

Vemo torej, da ko so vse lastne vrednosti produkta AA¯ nenegativne, obstaja unitarna matrika U ∈ Cn×n in taka zgornje trikotna matrika 4 ∈ Cn×n, da veljaA=U4UT.

(25)

4ima obliko

α1 F

...

0 αn

, αi≥0.

Matrika Aje simetri£na in posledi£no velja:

U4UT =A=AT = (U4UT)T =U4TUTU4UT =U4TUT.

Pomnoºimo z leve strani zU−1 ter z desne strani z(UT)−1in dobimo enakost 4=4T,

to pa je res natanko tedaj, kadar je4diagonalna matrika, torej 4 ≡Σ.

V matrikiΣna glavni diagonali leºijo nenegativni kvadratni koreni lastnih vre- dnosti produkta matrikAA¯oziromaAA. Ker jeU unitarna, velja

UTU =UU = ¯I=I in zato

AA¯= (UΣUT)(UΣUT) =UΣUTU¯ΣU=UΣ(UTU¯)ΣU=UΣ2U. Stolpci unitarne matrikeU so torej lastni vektorji produktaAA¯.

Primer 3.5. Vzemimo matrikoA velikosti2x2.

A=

12 3i2

3i 2

1 2

Matrika A je simetri£na. šelimo poiskati unitarno matrikoU, ki bo vsebovala lastne vektorje matrike AA¯ in le ti bodo zado²£ali ena£bi Av = µ¯v. Lastne vrednostiµdobimo iz produkta simetri£ne matrikeAin konjugirane matrikeA¯. Vemo pa tudi, da v diagonalni matriki Σpo glavni diagonali leºijo kvadratni koreni teh lastnih vrednosti.

Najprej konjugiramo matrikoA, nato pa izra£unamo produktAA¯.

A¯=

123i2

3i2 12

AA¯=

12 3i2

3i 2

1 2

123i2

3i2 12

=

5 2

3i 2

3i2 52

(26)

Lastni vrednosti tega produkta staµ1 = 1 in µ2 = 4 s pripadajo£ima nor- miranima lastnima vektorjema

v1=

−i/√ 2 1/√

2

 in v2=

 i/√

2 1/√

2

.

Da poi²£emo stolpca matrike U, bomo za j = 1,2 re²ili ena£bi Auj =√ µjj. Prij = 1torej i²£emo re²itve ena£be:

12 3i2

3i 2

1 2

 x y

= 1·

¯ x

¯ y

.

Po mnoºenju in re²evanju sistema dveh linearnih ena£b z dvema neznankama dobimo normiran vektoru1za lastno vrednost µ1= 1:

u1=

 1/√

2

−i/√ 2

ter normiran vektoru2 za lastno vrednostµ2= 4:

u2=

 i/√

2

−1/√ 2

.

Pripadajo£a unitarna matrikaU je torej naslednja:

U =

 1/√

2 i/2

−i/√

2 −1/√ 2

.

Bralec lahko preveri, da je matrika U res unitarna.

Preverimo sedaj ²e, £e s produktomUTAU res dobimo diagonalno matriko Σ, kjer na glavni diagonali leºijo nenegativni kvadratni koreni lastnih vrednosti matrikeAA¯.

UTAU =

2 2i

2

2 i

2

2

2 2

12 3i2

3i 2

1 2

2 2

i 2 2

i

2

2

2 2

=

2 2 4

2i 2 4

4i

2

44

2 4

2 2

i 2 2

i

2

2

2 2

=

4

8+48 4i84i8

8i8 +4i8 88+88

=

 1 0 0 2

(27)

To pa je ravno diagonalna matrikaΣ. Veljati bi moralo tudi A=UΣUT.

UΣUT =

2 2

i 2 2

i

2

2

2 2

 1 0 0 2

2 2i

2 2 i

2

2

2 2

=

2

2 i√

2

i

2

2 −√

2

2

2i

2

2 i

2

2

2 2

=

2

4222i42i2

2i42i224+22

=

12 3i2

3i 2

1 2

=A

Ker vemo, da so stolpci matrike U lastni vektorji matrikeAA¯, morata biti u1

in u2 enotska ve£kratnika vektorjevv1in v2, ne nujno v tem vrstnem redu. To je res, saj jeu1=−iv2 inu2=−v1.

Primer 3.6. Poglejmo si, kaj nam Takagijeva faktorizacija pove v primeru kompleksne simetri£ne matrike A = I. Seveda velja AA¯ = I. Edina lastna vrednost AA¯ je torej 1, vsi vektorji pa so lastni vektorji. Unitarna podobnost nam je v tem primeru preprosto

AA¯=I=V IV=V V,

kjer je V poljubna unitarna matrika. Pri Takagijevi faktorizaciji pa i²£emo tak²no unitarno matrikoU, da bo veljalo

A=I=U IUT =U UT.

Matrika, ki v tem primeru zadosti Takagijevi faktorizaciji, je torej vsaka matrika, ki je tako kompleksno ortogonalna kot tudi unitarna. Torej mora veljati

U UT =U U,

oziromaU=UT, ali ²e bolje,U = ¯U, torej vsaka realna ortogonalna matrika.

4 Konsimilarnost in kondiagonalizacija

Literaturo za to poglavje sem pridobila v viru[3].

Denicija 4.1. Matriki A in B sta konsimilarni, £e obstaja nesingularna kompleksna matrikaS, da velja A=SBS¯−1.

(28)

ƒe je ta matrikaS realna, je konsimilarnost enaka podobnosti dveh matrik, torej A=SBS¯−1=SBS−1.

V primeru, ko je matrikaSunitarna, lahkoS¯−1nadomestimo sS¯−1= ¯S=ST. Torej je unitarnaT-kongruenca enaka unitarni konsimilarnosti: A=SBS¯−1= SBST.

Vemo, da so ortogonalne kompleksne matrike teºje obvladljive pri diagonaliza- ciji. Kompleksno ortogonalno matriko S v konsimilarnosti lahko zamenjamo s S¯−1 =ST =S in sledi, da je potem kompleksno ortogonalna konsimilarnost matrikAinBenaka kompleksni ortogonalni∗-kongruenciA=SBS¯−1=SBS.

V analogiji s Schurovim izrekom podajmo naslednjo denicijo.

Denicija 4.2. Matrika Aje kontriagularizabilna, £e obstaja taka matrika S, da je matrika S−1AS¯ zgornje trikotna.

V primeru, ko jeAkontriagularizabilna, torejA=S∆ ¯S−1 za neko zgornje trikotno matriko∆, imaAA¯same nenegativne lastne vrednosti, saj velja

AA¯=S∆ ¯S−1S¯∆S¯ −1=S∆ ¯∆S−1.

Elementi glavne diagonale zgornje trikotne matrike∆ ¯∆ so namre£ nenegativni.

Velja pa tudi obrat, saj iz Trditve 3.2 sledi, da je A unitarno kontriagona- lizabilna, £e ima AA¯ same nenegativne lastne vrednosti. Tako smo pokazali naslednjo trditev.

Trditev 4.3. Naj bo dana matrikaA∈Cn×n. Naslednje izjave so ekvivalentne.

1. Aje kontriagularizabilna.

2. Aje unitarno kontriagularizabilna.

3. Vsaka lastna vrednost matrike AA¯je realna in nenegativna.

Denicija 4.4. Matrika A je kondiagonalizabilna, £e lahko izberemo tako matrikoS, da jeS−1AS¯diagonalna matrika.

ƒe je matrikaAunitarno kondiagonalizabilna, potem obstaja unitarna ma- trika U in velja A = UΣ ¯U−1 = UΣUT. Spomnimo se, da v matriki Σ po diagonali leºijo lastne vrednosti matrikeAA¯. Posledi£no je matrikaA

simetri£na.

(29)

Trditev 4.5. MatrikaA∈Cn×nje unitarno kondiagonalizabilna natanko tedaj, ko je simetri£na.

4.1 Konlastne vrednosti in konlastni vektorji

Denicija 4.6. Naj bo A∈Cn×n matrika. Potem je nenegativni vektorx∈ Cn, za katerega velja A¯x = µx za neko lastno vrednost µ ∈ C, konlastni vektor matrikeA. Ob tem je skalarµkonlastna vrednost iste matrike.

Poglejmo najprej primer, ko so konlastne vrednosti dolo£ene le do velikosti natan£no. Povedano druga£e, £e je µ konlastna vrednost za A za konlastni vektor x, potem je e−2iϕµ tudi konlastna vrednost za A, v tem primeru za konlastni vektorex. To preprosto sledi iz enakosti

Aex=e−iϕA¯x=e−iϕµx= (e−2iϕµ)(ex).

ƒe je torejµ konlastna vrednost, je|µ| tudi, zato lahko vedno predpostavimo, da so konlastne vrednosti matrike nenegativne.

Velja: £eAx¯ =µx, potem AAx¯ = A(A¯x) = Aµx = ¯µA¯x= ¯µµx =|µ|2x.

ƒe je torej µkonlastna vrednost zaAs konlastnim vektorjemx, potem je|µ|2 lastna vrednost matrike AA¯za lastni vektorx. Pri dokazu Takagijevega izreka smo videli tudi obrat. ƒe je|µ|2 lastna vrednost zaAA¯, potem je|µ|konlastna vrednost za A. Nenegativne lastne vrednosti matrike AA¯ so torej v nekak²ni bijektivni korespondenci s (nenegativnimi) konlastnimi vrednostmi matrikeA. Z malo truda bi lahko pokazali naslednji izrek.

Izrek 4.7 ([3], Theorem 4.6.11). Matrika A je kondiagonalizabilna natanko tedaj, ko je AA¯ diagonalizabilna, vse lastne vrednosti AA¯ so nenegativne in rankA= rank AA¯.

Sledi nekaj primerov.

Primer 4.8. Poglejmo si matriko

A=

 i 1 0 i

.

Ker je

AA¯=

 i 1 0 i

−i 1 0 −i

=

 1 0 0 1

,

(30)

je edina (nenegativna) konlastna vrednost matrikeAenaka1. Da dobimo kon- lastne vektorje, moramo torej re²iti ena£bo

 i 1 0 i

¯ x

¯ y

= 1·

 x y

,

oziroma

i¯x+ ¯y=x i¯y=y

ƒe pi²emoy=y1+iy2, je druga ena£ba ekvivalentnay1=y2, torejy=a(1 +i) za poljuben realena. ƒe to vstavimo v prvo ena£bo in zopet pi²emo

x=x1+ix2, je prva ena£ba ekvivalentna x1 =a+x2. Vsi konlastni vektorji za konlastno vrednost1so torej vektorji oblike

v=a

 1 1 +i

+b

 1 +i

0

,

kjer staain bpoljubni realni ²tevili, ne obe enaki0. ƒe torej vzamemo

S =

1 1 +i 1 +i 0

,

velja

AS¯=SI oziroma

 i 1 0 i

=

1 1 +i 1 +i 0

 1 0 0 1

1 1 +i 1 +i 0

−1

.

Matrika A je torej kondiagonalizabilna. Seveda matrikaAni diagonalizabilna, ker ni diagonalna, in ima eno samo lastno vrednost,i.

Primer 4.9. Poglejmo si matriko

A=

 1 −1 1 1

.

V tem primeru bomo videli, matrika Ani kondiagonalizabilna, je pa diagonali- zabilna.

(31)

Lastni vrednosti te matrike staµ1,2= 1±i. Ker sta dve razli£ni, je matrika Adiagonalizabilna.

Da preverimo, £e je kondiagonalizabilna, si pomagamo z izrekom 4.7. Izra£u- namo produktAA¯, ki je v tem primeru enak

 0 −2 2 0

Lastni vrednosti tega produkta sta µ1,2 =±2i. Ker torej AA¯ nima le nenega- tivnih lastnih vrednosti,Ani kondiagonalizabilna.

(32)

Literatura

[1] ECCLES, P.J. 2009. Notes 9: Similarity & diagonalization. Home page for Peter Eccles. [Citirano 6.5.2018; 11.00]. Dostopno na:

http://www.maths.manchester.ac.uk/ peter/MATH10212/notes9.pdf [2] EREMENKO, A. 2017. Spectral theorems for Hermitian and unitary matri-

ces. Purdue University, Mathematics Department. [Citirano 5.7.2018; 10.00].

Dostopno na: https://www.math.purdue.edu/ eremenko/dvi/spectral.pdf [3] HORN, R.A. in JOHNSON, C.R. 2013. Matrix Analysis. Drugi natis. Zdru-

ºene drºave Amerike: Cambridge University Press

[4] HRA’OVEC, A. 2010. Simetri£ne matrike. Diplomsko delo. Maribor: Uni- verza v Mariboru, Fakulteta za naravoslovje in matematiko.

[5] KRIšANIƒ, F. 1993. Linearna algebra in linearna analiza. Ljubljana: DZS.

[6] MAGAJNA, B. 2011. Linearna algebra, metri£ni prostor in funkcije ve£ spre- menljivk. Ljubljana: DMFA-zaloºni²tvo.

[7] O'CONNOR, J.J. in ROBERTSON, E.F. 2001. Teiji Takagi. [£lanek].

[Citirano 22. 11. 2017, 10.00] Dostopno na: http://www-history.mcs.st- andrews.ac.uk/Biographies/Takagi.html

Reference

POVEZANI DOKUMENTI

Podatkov ne moremo posplošiti na osnovno množico, za vzorec pa lahko trdimo, da so predšolski otroci pri peti nalogi na preizkusu, ki je preverjala razvitost slušnega

Podatkov ne moremo posplošiti na osnovno množico, za vzorec pa lahko trdimo, da so dijaki izkazali boljše znanje biologije volka na preizkusu znanja po delavnici (M =

Na splo{no torej lahko re~emo, da Ljubljano kot urbano obmo~je zaznamuje nekoliko vi{ja stopnja mobilnosti gospodinjstev, kar naj bi omogo~alo njihovo bolj{o porazdeli-

preventivnem centru (ZVC) v zdravstvenih domovih v Sloveniji. Udeležba v individualnem svetovanju je brezplačna. Vanj vas lahko napoti vaš osebni izbrani zdravnik, lahko pa

U č ili se bomo o bitjih, ki so tako majhna, da jih sploh ne moremo videti, pa lahko kljub temu prav zaradi njih hudo zbolimo.. Packo : Kaj so ta bitja manjša od

Še enkrat bomo ponovili, da je izredno pomembno uskladiti svoj energijski vnos (količino in vrsto hrane, ki jo pojemo) z energijsko porabo (predvsem dnevno telesno dejavnostjo)..

Tega pa ne moremo poimenovati le veliko podjetje, temu lahko rečemo nakupovalni center, kjer je nenehno obojestransko zadovoljstvo tako zaposlenih kot kupcev oziroma

The task at Sheffield University was to show that good quality, reproducible endplates could be thixoformed using a standard casting aluminium alloy, into a non-hardened steel die..