• Rezultati Niso Bili Najdeni

UNIVERZA V LJUBLJANI FAKULTETA ZA MATEMATIKO IN FIZIKO Matematika – 1. stopnja Tim Mulej Normalne matrike Delo diplomskega seminarja Mentor: prof. dr. Roman Drnovšek Ljubljana, 2021

N/A
N/A
Protected

Academic year: 2022

Share "UNIVERZA V LJUBLJANI FAKULTETA ZA MATEMATIKO IN FIZIKO Matematika – 1. stopnja Tim Mulej Normalne matrike Delo diplomskega seminarja Mentor: prof. dr. Roman Drnovšek Ljubljana, 2021"

Copied!
27
0
0

Celotno besedilo

(1)

UNIVERZA V LJUBLJANI

FAKULTETA ZA MATEMATIKO IN FIZIKO Matematika – 1. stopnja

Tim Mulej Normalne matrike

Delo diplomskega seminarja

Mentor: prof. dr. Roman Drnovšek

Ljubljana, 2021

(2)

Kazalo

1. Uvod 4

2. Osnovne definicije 4

3. Razcepi matrik 7

3.1. Schurov razcep 7

3.2. Polarni razcep 8

4. Karakteristične lastnosti normalnih matrik 11

5. Hoffman-Wielandtov izrek 21

5.1. Birkhoffov izrek 22

6. Slovar strokovnih izrazov 27

Literatura 27

(3)

Normalne matrike

Povzetek

Normalnost matrik je eno od bolj zanimivih poglavij linearne algebre. Ne samo zato, ker imajo normalne matrike razmeroma preprosto definicijo, ampak tudi zato, ker so uporabne v praksi, kar je razlog, da je bilo odkritih že 89karakterističnih lastnosti normalnih matrik. V tem delu smo si izbrali25karakterističnih lastnosti in pokazali ekvivalence med njimi. Posvetili pa smo se tudi vprašanju, kako “blizu” sta si dve kvadratni matriki glede na njune lastne vrednosti. Ali še bolj zanimivo, kaj se zgodi z lastnimi vrednostmi matrike, če matriko malo perturbiramo. V tem delu smo na ti dve vprašanji odgovorili za normalne matrike.

Normal matrices

Abstract

Matrix normality is one of the most interesting topics in linear algebra and matrix theory, since normal matrices have not only simple structures under unitary simila- rity but also many applications, which is why a great deal of work has been done on them. There are89 different characteristic properties. In this thesis we chose25 of those characteristic properties and proved their equivalence to basic definition of normal matrices. We were also interested in how “close” are the matrices in terms of their eigenvalues. More interestingly, if a matrix is “perturbed” a little bit, how would the eigenvalues of the matrix change? In this thesis we present answers to these two questions if the matrices are normal.

Math. Subj. Class. (2020): 15B99

Ključne besede: matrika, lastna vrednost, lastni vektor, Schurov razcep, polarni razcep, Hoffman-Wielandtov izrek, Sunov izrek

Keywords: matrix, eigenvalue, eigenvector, Schur decomposition, polar decompo- sition, Hoffman–Wielandt theorem, Sun theorem

(4)

1. Uvod

Množica normalnih matrik nima nobene algebraične strukture, kot jo ima na pri- mer množica ortogonalnih matrik, ki je grupa. Za poljubni dve normalni matriki niti ne velja, da je njun produkt nujno normalna matrika, torej množica normalnih matrik ni zaprta za množenje. Zato bi se morda komu pojavilo vprašanje, zakaj bi jim posvečali toliko pozornosti. Na to vprašanje bomo poskusili odgovoriti v tem diplomskem delu tako, da bomo navedli seznam lastnosti, ki veljajo za normalne matrike, in s tem pokazali zanimivost le-teh. Veliko rezultatov dela je preprostih, vendar nam lahko pomagajo pri uporabi normalnih matrik v praksi, ali pa jih lahko razširimo na normalne operatorje na neskončno dimenzionalnih Hilbertovih prosto- rih.

Najbolj uporabne podmnožice normalnih matrik so hermitske (A = A), uni- tarne (UU = I) in antihermitske matrike (A = −A), ki se večkrat pojavijo pri numeričnem računanju analize napak.

Prvi seznam karakterističnih lastnosti za normalne matrike so objavili matematiki Grone, Johnson, Sa in Wolkowicz leta 1987, ki je vseboval 70 lastnosti [5]. Nato pa sta leta 1998 matematika Elsner in Ikramov temu seznamu dodala še dodatnih 19 lastnosti [6].

V drugem poglavju so zbrane osnovne definicije, na katerih temeljijo glavni izreki tega dela. V naslednjem poglavju sta razložena Schurov in polarni razcep, ki smo ju uporabili za dokazovanje nekaterih ekvivalenc med lastnostmi normalnih matrik.

Četrto poglavje vsebuje že prej omenjene karakteristične lastnosti in dokaze povezav med njimi. V zadnjem poglavju pa smo se posvetili Hoffman-Wielandtovem izreku, ki pove, za koliko se lahko lastne vrednosti dveh normalnih matrik razlikujejo. Potem pa smo si ogledali še Sunov izrek, ki je podoben Hoffman-Wielandtovem izreku, samo da si ogledamo razlike lastnih vrednosti med normalno in poljubno matriko. Nato smo podali še primer, ki pokaže, da je predpostavka o normalnosti začetne matrike pomembna.

2. Osnovne definicije

Za začetek navedimo nekaj definicij za lažje razumevanje nadaljnjega besedila.

Definicija 2.1. Matrika A ∈ Cn×n je normalna, če komutira s svojo hermitsko transponiranko, torej velja

AA=AA.

Definicija 2.2. Matrika U ∈Cn×n je unitarna, če je matrika U njen inverz, torej U U =UU =I.

Definicija 2.3. Matrika H ∈ Cn×n je hermitska, če je enaka svoji hermitski tran- sponiranki, torej

H =H.

Definicija 2.4. Matrika D ∈ Cn×n je diagonalna, če so vsi njeni koeficienti izven diagonale enaki nič, torej

dij = 0, če je i̸=j,

kjer sodij koeficienti matrikeD. Zapišemo jo lahko tudi kotD= diag(d1, d2, . . . , dn).

(5)

Definicija 2.5. Matrika T ∈ Cn×n je zgornje trikotna, če so vsi njeni koeficienti pod diagonalo enaki nič, torej

tij = 0, če je i > j.

Definicija 2.6. Matrika M ∈Cn×n je idempotentna, če za njo velja M2 =M.

Definicija 2.7. Kvadratna hermitska matrikaP ∈Cn×n jepozitivno semi-definitna, če za vsak x∈Cn velja

⟨P x, x⟩ ≥0.

Da je matrika P pozitivno semi-definitna, lahko zapišemo tudi kotP ≥0.

Definicija 2.8. Matrika P ∈Rn×n je permutacijska, če vsaka njena vrstica in vsak njen stolpec vsebujeta natanko eno 1, vsi ostali koeficienti pa so enaki 0.

Permutacijskih matrik velikosti n × n je natanko n!. Množica permutacijskih matrik velikosti n ×n tvori grupo, kjer je P−1 = PT. To lahko opazimo, če si produkt matrik P in PT pogledamo po elementih

(︁P PT)︁

ij =

n

∑︂

k=1

pikpTkj =

n

∑︂

k=1

pikpjk,

kjer sopij koeficienti matrikeP inpTij koeficienti matrikePT. Ker ima permutacijska matrika v vsakem stolpcu samo en koeficient enak 1, velja

(P PT)ij =

{︄1 i=j 0 i̸=j . Torej je

P PT =I.

Od tod vidimo, da so permutacijske matrike podmnožica unitarnih matrik.

Definicija 2.9. Matrika S = (sij) ∈ Rn×n je dvojno stohastična, če se vse njene vrstice in stolpci seštejejo v ena in ima vse koeficiente nenegativne. Ali povedano drugače,

eTS =eT in Se=e, kjer je e = (1,1, . . . ,1)T in si,j ≥0.

Ker se koeficienti dvojno stohastične matrike v vsaki vrstici in v vsakem stolpcu seštejejo v ena, se te matrike velikokrat pojavljajo v verjetnosti.

Definicija 2.10. Sled matrike A = (aij) ∈ Cn×n je vsota njenih diagonalnih ele- mentov:

sled(A) =

n

∑︂

i=1

aii.

Zaradi koristnih lasnosti se sled matrike velikokrat uporablja pri računanju z matrikami. Ena izmed bolj uporabnih je, da za kvadratni matriki A, B ∈ Cn×n velja

sled(AB) = sled(BA).

(6)

To dokažemo po definiciji sled(AB) =

n

∑︂

i=1 n

∑︂

j=1

aijbji =

n

∑︂

j=1 n

∑︂

i=1

bjiaij = sled(BA).

Zgornji dokaz smo našli na spletni strani [9].

To lastnost pa lahko posplošimo, torej sled je invariantna na ciklične permutacije.

To je preprosto dokazati za tri matrike, za več matrik pa nadaljujemo induktivno.

Naj bo matrika B produkt matrik C in D. Potem lahko zapišemo sled(ACD) = sled(AB) = sled(BA) = sled(CDA).

Sedaj je preprosto videti, da je sled matrike A res enaka vsoti lastnih vrednosti matrike A: če izračunamo Jordanovo kanonično formo matrike A, dobimo A = P−1J P, kjer ima J po diagonali lastne vrednosti matrike A. Sedaj uporabimo zgornjo enakost in dobimo

sledA= sledP−1J P = sledJ P P−1 = sledJ.

Na spletni vtrani [10] so singularne vrednosti razložene kot:

Definicija 2.11. Singularna vrednost σmatrikeA∈Cm×nje kvadratni koren lastne vrednosti produkta matrik AA. Torej je σ ničla polinoma

det(AA−λ2I).

Obstaja tudi preprosta geometrijska interpretacija singularnih vrednosti matrike A. Predstavljajmo si enotsko sfero. Če jo preslikamo z A, dobimo elipsoid. Singu- larne vrednosti matrike Apredstavljajo polosi elipsoida. To je preprosto pokazati z polarnim razcepom, ki ga dokažemo v naslednjem poglavju, zato bomo natančnejšo razlago pustili za kasneje.

Definicija 2.12. Konveksna kombinacija je linearna kombinacija vektorjev, kjer so vsi koeficienti nenegativni in se seštejejo v ena.

Matriki lahko na več načinov dodelimo število, na primer izračunamo njeno de- terminanto, sled, največjo lastno vrednost. Eden izmed bolj uporabnih načinov je, da izračunamo njeno matrično normo.

Definicija 2.13. Naj bo Cn×n vektorski prostor vseh kompleksnih n ×n matrik.

Potem je matrična funkcija ∥·∥ : Cn×n → R matrična norma, če za vsaki A, B ∈ Cn×n in vsak c∈C velja:

(1) ∥A∥ ≥0; enakost velja natanko tedaj, ko jeA= 0, (2) ∥cA∥=|c| ∥A∥,

(3) ∥A+B∥ ≤ ∥A∥+∥B∥, (4) ∥AB∥ ≤ ∥A∥ ∥B∥.

Matrična norma, ki jo bomo uporabljali v tem delu, je definirana kot:

Definicija 2.14. Za poljubno matriko A∈Cn×n definiramo

∥A∥F = (sled(AA))1/2 = (︄ n

∑︂

i,j=1

|aij|2 )︄1/2

. Tej matrični funkciji pravimo Frobeniusova norma.

(7)

Frobeniusova norma je matrična norma, ker za vsaki matriki A, B ∈ Cn×n in za vsak c∈C zadošča pogojem:

∥A∥F =(︂

∑︁n

i,j=1|aij|2)︂1/2

>0 razen, če je A= 0, potem je ∥A∥F = 0,

∥cA∥F =|c|(︂

∑︁n

i,j=1|aij|2)︂1/2

=|c| ∥A∥ za vse c∈C,

Matriki A in B spremenimo v vektorja velikosti n×n tako, da vrstice matrike zapišemo zaporedoma, na način vA= (a11, a12, . . . , a1n, a21, . . . , ann). Potem je Fro- beniusova norma za matriko A enaka evklidski normi za vektor vA, kar nam da

∥A+B∥F =∥vA+vB2 ≤ ∥vA2+∥vB2 =∥A∥F +∥B∥F .

Koeficiente matrike AB si predstavljamo kot skalarne produkte vrstic ai matrike A in stolpcev bj matrike B. Potem uporabimo Cauchy–Schwarzovo neenakost in dobimo

∥AB∥F = (︄ n

∑︂

i,j=1

|⟨ai, bj⟩|2 )︄1/2

≤ (︄ n

∑︂

i,j=1

∥ai2∥bj2 )︄1/2

= (︄ n

∑︂

i=1

∥ai2F

)︄1/2(︄ n

∑︂

j=1

∥bj2F )︄1/2

=∥A∥F ∥B∥F .

Dokaz, da je Frobeniusova norma matrična norma smo povzeli po dokazu v Wil- liamovi Fordovi knjigi z naslovom Numerical linear algebra with applications [2, Poglavje 7]. Ker je sled matrike enaka vsoti njenih lastnih vrednosti, je preprosto videti, da velja tudi

∥A∥F = (sled(AA))1/2 = (︄ n

∑︂

i=1

σi2(A) )︄1/2

,

kjer so σi singularne vrednosti matrike A. Poleg te lastnosti pa lahko še opazimo, da je Frobeniusova norma unitarno invariantna norma, kar pomeni, da za poljubno matriko A∈Cn×n in za vsaki unitarni matriki U, V ∈Cn×n velja

∥U AV∥F = sled(VAAV) = sled(AA) = ∥A∥F. 3. Razcepi matrik

V tem poglavju si bomo ogledali dva razcepa matrik. Prvi bo Schurov razcep, drugi pa polarni razcep.

3.1. Schurov razcep. Iskanje lastnih vrednosti matrik je računsko zahtevna ope- racija. Lahko izračunamo Jordanovo kanonično formo matrike, vendar je ta izračun zelo občutljiv na numerične napake. Zato bi bilo lažje, če bi iskali prehodno ma- triko, ki nam osnovno matriko spremeni v zgornje trikotno. Potem je očitno, da bo dobljena matrika imela lastne vrednosti stare matrike po diagonali. Izkaže se, da za vsako matriko A obstaja unitarna matrika U, za katero velja, da je UAU zgornje trikotna. To lastnost opisuje Schurov izrek, poimenovan po ruskem matematiku Issaiku Schuru.

(8)

Izrek 3.1 (Schurov razcep). Naj bodo λ1, λ2, . . . , λn lastne vrednosti matrike A ∈ Cn×n. Potem obstaja taka unitarna matrikaU ∈Cn×n, da je UAU zgornje trikotna matrika:

UAU =

λ1

λ2 . ..

0 λn

⎠ .

Dokaz. Pri dokazu si bomo pomagali z indukcijo. Za n = 1 je izrek očiten. Sedaj pa pokažimo še indukcijski korak.

Naj bo x1 enotski lastni vektor matrike A, ki pripada lastni vrednosti λ1, torej velja

Ax11x1.

Potem si iz množice pravokotnih vektorjev na x1 izberemo n−1 linearno neodvi- snih vektorjev in jih po Gram-Smitovem postopku preoblikujemo v ortonormirano bazo (y2, y3, . . . , yn). Ta postopek je natančno opisan v Williamovi Fordovi knjigi z naslovom Numerical linear algebra with applications [2, poglavje 14]. Od tod lahko sestavimo unitarno matriko S = (x1, y2, . . . , yn). Torej je

AS = (Ax1, Ay2, . . . , Ayn)

= (λ1x1, Ay2, . . . , Ayn)

=S(u, S−1Ay2, . . . , S−1Ayn), kjer je u= (λ1,0, . . . ,0)T. Tako lahko zapišemo

SAS =

(︃λ1 v 0 B

)︃

,

kjer je v vrstica in B ∈C(n−1)×(n−1). Po indukcijski predpostavki obstaja za B taka unitarna matrika V velikosti (n−1)×(n−1), da je VBV zgornje trikotna. Naj bo

U =S

(︃1 0 0 V

)︃

.

Ker sta V in S unitarni matriki, je tudi matrika U unitarna in UAU je zgornje trikotna z lastnimi vrednostmi λ1, λ2, . . . , λn na diagonali. □ 3.2. Polarni razcep. Poleg Schurovega razcepa bomo potrebovali tudi polarni raz- cep. Če si matriko A ∈Cn×n predstavljamo kot linearno transformacijo, jo polarni razcep razdeli na rotacijo in zrcaljenje U, ter na razteg P po ortogonalnih smereh.

Preden dokažemo obstoj polarnega razcepa za vsako matriko A ∈Cn×n, si oglejmo naslednjo lemo.

Dokaz naslednje leme ter dokaz polarnega razcepa smo povzeli po Garrettovi Buffingtonovi skripti z naslovom Polar decomposition of a matrix [1, poglavje 2] in po diplomskem delu Larise Gostenčnik z naslovom Polarni razcep matrik [4, poglavje 3].

Lema 3.2. Za vsako pozitivno semi-definitno matriko P z lastnimi vrednostmi λ1, λ2, . . . , λn obstaja enolično določena pozitivno semi-definitna matrika B, da velja

B2 =P in lastne vrednosti matrike B so enake √

λ1,√

λ2, . . . ,√ λn.

(9)

Dokaz. V naslednjem poglavju med karakterističnimi lastnostmi normalnih matrik dokažemo, da lastni vektorji normalne matrike tvorijo ortonormirano bazo prostora Cn. Ker so pozitivno semi-definitne matrike podmnožica normalnih matrik, tudi la- stni vektorjiu1, u2, . . . , unpozitivno semi-definitne matrike P tvorijo ortonormirano bazo prostora Cn×n. Zato lahko preslikavo, ki jo opiše P, zapišemo kot operator, ki bazne vektorje preslika kot P(ui) = λiui, kjer je λi ustrezna lastna vrednost. Naj operator B preslika bazo kot B(ui) = √

λiui za vsak i = 1,2, . . . , n. Torej je √ λi lastna vrednost matrike B, poleg tega pa je lahko preveriti, da velja B2 = P. Da velja ⟨B(x), x)⟩ ≥0 za vsakx∈Cn, se lahko prepričamo tako, da xrazpišemo kot

x=a1u1 +a2u2 +· · ·+anun. Potem je

⟨B(x), x⟩=a21√︁

λ1+a22√︁

λ2+· · ·+a2n√︁

λn ≥0.

Da pokažemo enoličnost, predpostavimo, da obstaja še en operatorC, za katerega velja

C2(x) =P(x) in ⟨C(x), x⟩=⟨x, C(x)⟩ ≥0 za vse x∈Cn.

Naj bo (µi, vi) lastni par preslikave C. Potem velja C2vi = µiCvi = µ2ivi, kar pa pomeni, da je µ2i lastna vrednost C2 = P. Ker so lastne vrednosti matrike P enake λ1, λ2, . . . , λn in so vse nenegativne, so torej vsiµi enaki √

λi. Ker tudi lastni vektorji matrike C tvorijo ortonormirano bazo prostora Cn, lahko lastne vektorje matrikeB2 =P zapišemo kot linearne kombinacije vektorjev v1, v2, . . . , vn. Za vsak i naj bo

ui =w1iv1+w2iv2+· · ·+wnivn. Torej je

C2(ui) = P(ui) = λiui =w1iλiv1+w2iλiv2+· · ·+wniλivn. Po drugi strani pa je

C2(ui) =C2(w1iv1+w2iv2+· · ·+wnivn) = w1iλ1v1+w2iλ2v2+· · ·+wniλnvn. Ker so v1, v2, . . . , vn linearno neodvisni, velja wtiλi = wtiλt zat = 1,2, . . . , n. Tako sledi

C(ui) =C(w1iv1 +· · ·+wnivn)

=w1i√︁

λ1v1+· · ·+wni√︁

λnvn

=w1i√︁

λiv1+· · ·+wni√︁

λivn

=√︁

λiui =B(ui).

Ker u1, u2, . . . , un sestavljajo bazo prostora Cn, je B =C. □ Sedaj ko smo dokazali, da obstaja dobro definirani koren pozitivno semi-definitne matrike, se lahko lotimo polarnega razcepa.

Izrek 3.3(Polarni razcep). Za vsako matriko A∈Cn×nobstajata enolično določena unitarna matrika U ∈Cn×n in pozitivno semi-definitna matrikaP ∈Cn×n, za kateri velja

A=U P.

Lastne vrednosti matrike P so enake singularnim vrednostim matrike A.

(10)

Dokaz. Če matriko A pomnožimo z njeno hermitsko transponiranko, dobimo her- mitsko matriko AA, za katero velja

xAAx=⟨x, AAx⟩=⟨Ax, Ax⟩=||Ax||2 ≥0 za vsak x∈Cn.

Torej je AA pozitivno semi-definitna. Po prejšnjem izreku obstaja enolično dolo- čena matrika P =√

AA, ki je pozitivno semi-definitna in njene lastne vrednosti so enake korenom lastnih vrednosti matrike AA, torej so po definiciji enake singular- nim vrednostim matrike A. Ker je matrika P pozitivno semi-definitna, njeni lastni vektorjiv1, v2, . . . , vn tvorijo ortonormirano bazo prostoraCn. Upoštevamo še, da so lastne vrednosti λ1, λ2, . . . , λn matrikeP nenegativne. Če lastne vrednosti uredimo po velikosti, velja λ1, λ2, . . . , λr > 0 in λr+1r+2 =· · · =λn = 0 za neko število r. Definirajmo dve novi matrikiD in C, kot

C= (v1, v2, . . . , vn) in D= (︃ 1

λ1

Av1, 1 λ2

Av2, . . . , 1 λr

Avr, wr+1, wr+2. . . , wn, )︃

, kjer so vektorji wr+1, wr+2, . . . , wn normirani, paroma pravokotni in pravokotni na Av1, Av2, . . . , Avr. Matrika C je unitarna po definiciji, za matriko D pa preverimo, da je unitarna

⟨︃ 1

λjAvj, 1 λiAvi

⟩︃

= 1

λjλi⟨vj, AAvi⟩= 1

λjλi⟨vj, P2vi

= 1

λjλi⟨vj, λ2ivi⟩= λi

λj⟨vj, vi⟩=

{︄1 i=j

0 i̸=j , za vsak i, j ≤r.

Vektorji wr+1, wr+2, . . . , wn pa matriko D unitarno dopolnjejo, do polnega ranga.

Sedaj lahko definiramo matriko U kot U =DC =

(︃ 1

λ1Av1, 1

λ2Av2, . . . , 1

λrAvr, wr+1, wr+2, . . . , wn

)︃

(v1, v2, . . . , vn), ki je očitno unitarna. Poglejmo sedaj, kam matrika U preslika bazo v1, v2, . . . , vn prostora Cn:

U vi =DCvi =D(v1, v2, . . . , vn)vi =D

⟨v1, vi

⟨v2, vi⟩ ...

⟨vn, vi

=Dei = 1 λi

Avi, 1≤i≤r

kjer je ei = (0, . . . ,0,1,0, . . . ,0) enotski vektor, ki ima enico na i-tem mestu. Za i > r pa velja

U vi =Dei =wi.

Če matriko U pomnožimo z desne s P in si ogledamo, kam matrika U P preslika bazne vektorje v1, v2, . . . , vr, vidimo, da velja

U P vi =U λiviiU vi = λi

λiAvi =Avi za 1≤i≤r.

Če želimo pokazati, da sta A in U P enaki, moramo še preveriti, kam obe matriki slikata preostale bazne vektorje vr+1, vr+2, . . . , vn:

U P vi =U0vi = 0 za i > r.

(11)

Torej če so vektorji vi za i > r v jedru matrike A, je dokaz končan. Pa si poglejmo kvadrat norme vektorja Avi:

∥Avi2 =⟨Avi, Avi⟩=⟨vi, AAvi⟩=⟨vi, P2vi⟩=⟨Bvi, Bvi⟩=∥Bvi2 =∥0vi2 = 0,

za i > r. □

Sedaj, ko imamo polarni razcep, lahko pokažemo, da singularne vrednosti matrike Apredstavljajo polosi elipsoida, ki smo ga dobili tako, da smo zApreslikali enotsko sfero.

Naj bodo singularne vrednosti matrike A enake σ1, σ2, . . . , σn. S polarnim razce- pom lahko A zapišemo kot

A=U P,

ker je P pozitivno semi-definitna matrika z lastnimi vrednostmi σ1, σ2, . . . , σn inU unitarna matrika. Ker je matrika P pozitivno semi-definitna, je tudi normalna. V naslednjem poglavju pokažemo, da lahko normalne matrike unitarno diagonalizi- ramo, torej obstaja unitarna matrika V, da velja

P =VDV,

kjer je D= diag(σ1, σ2, . . . , σn). Potem lahko zapišemo A=U VDV.

Če sedaj postopoma preslikamo enotsko sfero zA=U VDV, dobimo, daU preslika sfero samo vase, matrika D jo raztegne v elipsoid s polosimi enakim σ1, σ2, . . . , σn, unitarna matrikaU V pa elipsoid zavrti in zrcali. Torej singularne vrednosti matrike A res predstavljajo polosi elipsoida.

4. Karakteristične lastnosti normalnih matrik

Cilj tega poglavja je povezati lastnosti normalnih matrik z njihovo osnovno defi- nicijo AA =AA.

Večino trditev in dokazov smo povzeli po Fuzhen Zangovi knjigi z naslovom Matrix theory [8, poglavje 9].

Izrek 4.1. Naj bo A = (aij) n × n kompleksna matrika z lastnimi vrednostmi λ1, λ2, . . . , λn. Potem so naslednje izjave ekvivalentne.

(1) Matrika A je normalna, torej velja AA=AA.

(2) MatrikoAlahko unitarno diagonaliziramo, kar pomeni, da obstaja takan×n unitarna matrika U, da velja

UAU = diag(λ1, λ2, . . . , λn).

(3) Obstaja tak polinom p(x), da velja A =p(A).

(4) Obstaja množica lastnih vektorjev matrike A, ki tvorijo ortonormirano bazo za Cn.

(5) Vsak lastni vektor matrike A je lastni vektor matrike A. (6) Vsak lastni vektor matrike A je lastni vektor matrike A+A. (7) Vsak lastni vektor matrike A je lastni vektor matrike A−A.

(8) Matriko A lahko razpišemo kot A =B +iC za neki hermitski matriki B in C, ki komutirata.

(9) Matriko A lahko razpišemo kot A=∑︁n

i=1λiEi, kjer jeλi ∈C in Ei ∈Cn×n, ki zadošča pogojem Ei2 =Ei =Ei, EiEj = 0 za i̸=j in ∑︁n

i=1Ei =I.

(10) sled(AA) = ∑︁n

i=1i|2.

(12)

(11) Vse singularne vrednosti matrike A so enake |λ1|,|λ2|, . . . ,|λn|.

(12) ∑︁n

i=1(Reλi)2 = 14sled(A+A)2. (13) ∑︁n

i=1(Imλi)2 =−14 sled(A−A)2.

(14) Lastne vrednosti matrike A+A so λ11, λ22, . . . , λnn. (15) Matrika AA−AA je pozitivno semi-definitna.

(16) sled(AA)2 = sled((A)2A2).

(17) (AA)2 = (A)2A2.

(18) ||Ax||=||Ax|| za vse x∈Cn.

(19) ⟨Ax, Ay⟩=⟨Ax, Ay⟩ za vse x, y ∈Cn. (20) A =AU za neko unitarno matriko U.

(21) A =V A za neko unitarno matriko V.

(22) U P =P U, če jeA =U P polarni razcep.

(23) AU =U A, če je A=U P polarni razcep.

(24) AP =P A, če je A=U P polarni razcep.

(25) MatrikaA komutira z neko normalno matrikoB, ki ima same različne lastne vrednosti.

Dokaz. V spodnjih diagramih so grafično prikazane vse implikacije, ki jih bomo dokazali v tem dokazu.

(3)

(8) (1) (2) (4)

(9) (7) (5) (6)

(18) (13) (10) (11)

(15) (1) (2) (12)

(17) (16) (19) (14)

(23) (22) (20) (25)

(24) (1) (2) (21)

(1) ⇒ (2): S Schurovim razcepom razcepimo osnovno definicijo normalnosti AA =AA in dobimo

UT U UTU =UTU UT U,

kjer je U unitarna matrika, matrika T pa je zgornje trikotna. Od tod je preprosto videti, da sta matriki T T inTT enaki, torej se ujemajo tudi njuni koeficienti. Če

(13)

primerjamo prva elementa v prvi vrstici matrik TT inT T, dobimo zvezo

|t11|2 =|t11|2+

n

∑︂

j=2

|t1j|2.

Od tod sledi, da je t1j = 0 vse j = 2,3, . . . , n. Sedaj pa si poglejmo drugi element v drugi vrstici matrik TT inT T:

|t12|2+|t22|2 =|t22|2+

n

∑︂

j=3

|t2j|2

Ker jet12= 0, jet2j = 0za vsej = 3,4, . . . , n. Ta postopek induktivno nadaljujemo.

Opazimo, da je tij = 0 za vse i̸=j. Torej je T diagonalna matrika.

(2) ⇒ (1): Po predpostavki je A = UT U, kjer je U unitarna in T diagonalna, torej komutira s svojo hermitsko transponiranko. Zato lahko produkt matrik A in A zapišemo kot

AA =UT U(UT U) =UT U UTU =UT TU

=UTT U =UTIT U =UTU UT U

= (UT U)UT U =AA.

(2) ⇒(3): Naj bo L ={λ1, λ2, . . . , λm} množica različnih lastnih vrednosti ma- trike A. Moč množice L je enaka m ≤ n. Z Lagrangeevo interpolacijo poiščemo polinom p stopnje m−1:

p(x) =

m

∑︂

i=1

(︃

∏︂

1≤j≤m j̸=i

x−λj λi−λj

)︃

λi,

Kako najti Lagrangeev interpolacijski polinom je Marjeta Krajnc, opisala v zbirki nalog z rešitvami z naslovom Numerična aproksimacija in interpolacija [7, poglavje 5].

Za interpolacijski polinom velja:

p(λi) =λi za vsak i= 1,2, . . . , m.

Po predpostavki je A = Udiag(λ1, . . . , λn)U za neko unitarno matriko U, zato velja:

A =Udiag(λ1, . . . , λn)U

=Udiag(p(λ1), . . . , p(λn))U

=Up(diag(λ1, . . . , λn))U

=p(Udiag(λ1, . . . , λn)U)

=p(A).

(3) ⇒(1): Očitno velja

AA=p(A)A=Ap(A) = AA.

(2) ⇒(4): Če razcep A=Udiag(λ1, . . . , λn)U pomnožimo z U z desne, dobimo AU =Udiag(λ1, λ2, . . . , λn)

ali

Auiiui za i= 1,2, . . . , n,

(14)

kjeruipredstavljai-ti stolpec matrikeU, torej jeuipo definiciji lastni vektor matrike A. Ker pa je U unitarna matrika, njeni stolpci tvorijo ortonormirano bazo prostora Cn. Torej lastni vektorji matrike A tvorijo ortonormirano bazo prostoraCn.

(4) ⇒ (2): Naj lastni vektorji u1, u2, . . . , un matrike A tvorijo ortonormirano bazo prostora Cn. Če matrikoU sestavimo iz lastnih vektorjevu1, u2, . . . , un, kot je opisano spodaj

U = (u1, u2, . . . , un),

je očitno, da je matrika U unitarna. Sedaj pa si oglejmo, kaj dobimo, če zmnožimo U inA,

AU = (λ1u1, λ2u2, . . . , λnun) = Udiag(λ1, λ2, . . . , λn).

Enačbo pomnožimo z U iz leve in dobimo UAU = diag(λ1, λ2, . . . , λn). Torej se da matriko A unitarno diagonalizirati.

(2) ⇒ (5): Za matriko A velja zveza UAU = diag(λ1, λ2, . . . , λn), kjer so λ1, λ2, . . . , λn njene lastne vrednosti. Če zvezo pomnožimo zU z leve, dobimo

AU =Udiag(λ1, λ2, . . . , λn), kar pa je enako

A(u1, u2, . . . , un) = (λ1u1, λ2u2, . . . , λnun), kjer so u1, u2, . . . , un stolpci matrikeU. Ali zapisano drugače

Auiiui za i= 1,2, . . . , n.

Torej so stolpci matrikeU lastni vektorjiA. Če enačboAU =Udiag(λ1, λ2, . . . , λn) hermitsko transponiramo in pomnožimo z U z leve in desne, dobimo

AU =Udiag(λ1, λ2, . . . , λn).

Od tod po enakem postopku kot zgoraj izračunamo, da so stolpci matrike U lastni vektorji matrike A.

(5) ⇒(2): Najprej se prepričajmo, da velja naslednja ekvivalenca:

Ax=λx⇔(UAU)(Ux) = λ(Ux).

Tega ni težko dokazati: med A in x vrinemo I =U U, ter z leve pomnožimo z U in dobimo želeno ekvivalenco.

Sedaj s Schurovim razcepom spremenimo A v zgornje trikotno in novo matriko označimo z Aˆ =UAU. Očitno je, da jee1 = (1,0, . . . ,0)T lastni vektorAˆ. Matrika Aˆ je še vedno normalna, ker velja

Aˆ =UAU UAU =UAAU =UAAU =UAU UAU =AˆAˆ.

Torej je vektor e1 tudi lastni vektor Aˆ, ki je spodnje trikotna. Iz definicije Aˆe1 = λ1e1 za lastni vektor matrike Aˆ vidimo, da ima prvi stolpec matrike Aˆ povsod ničle razen na prvem mestu. Torej velja:

Aˆ =

(︃λ1 0 0 B

)︃

in Aˆ =

(︃λ1 0 0 B

)︃

.

Matrika B je tudi normalna in zgornje trikotna, kar pomeni, da lahko postopek induktivno nadaljujemo na B, dokler ne dobimo, da je

Aˆ =UAU =

⎝ λ1

λ2 . ..

λn

⎠ ,

(15)

kar pa smo hoteli dokazati.

(5) ⇒ (6): Naj bo λ lastna vrednost matrike A, potem je λ lastna vrednost matrike A. Zato lahko zapišemo:

(A+A)u=Au+Au=λu+λu = (λ+λ)u.

Torej jeulastni vektor matrikeA+A in(λ+λ)njemu pripadajoča lastna vrednost.

(6) ⇒(5): Naj bo (A+A)u=λu in Au=µu zau̸= 0. Potem:

Au=λu−Au= (λ−µ)u.

Torej je u lastni vektor matrikeA.

(5) ⇔(7): Se dokaže podobno kot ekvivalenca (5)⇔(6).

(8) ⇒(1): Naj za normalno matrikoAveljaA=B+iC, kjer staBinChermitski matriki, za kateri velja BC =CB. Potem samo razpišemo AA in dobimo

AA= (B−iC)(B +iC) = (B −iC)(B+iC)

=B2+C2 = (B+iC)(B −iC) = (B+iC)(B+iC) =AA. (1) ⇒(8): Naj bosta B = A+A2 inC = A−A2i . Preprosto je opaziti, da velja:

B =

(︃A+A 2

)︃

= A+A 2 =B in

C =

(︃A−A 2i

)︃

= A−A 2i =C.

Da dokažemo, da B in C komutirata, samo razpišemo BC kot BC = (A+A)(A−A)

4i = A2−(A)2

4i = (A−A)(A+A)

4i =CB.

(9) ⇒ (1): Izraz A = ∑︁n

i=1λiEi vstavimo v osnovno definicijo normalnosti in upoštevamo, da je EiEj = 0 za i̸=j

AA =

n

∑︂

i=1

λiEi n

∑︂

i=1

λiEi =

n

∑︂

i=1

i|2EiEi

=

n

∑︂

i=1

i|2EiEi =

n

∑︂

i=1

λiEi

n

∑︂

i=1

λiEi =AA.

(2) ⇒(9): Če označimo stolpce unitarne matrike U z u1, u2, . . . , un, potem lahko A=Udiag(λ1, λ2, . . . , λn)U razpišemo kot

A=Udiag(λ1, λ2, . . . , λn)U1u1u12u2u2 +· · ·+λnunun.

Naj boEi =uiui zai= 1, . . . , n. Preveriti moramo, aliEi izpolnjuje pogoje devete trditve:

Ei = (uiui) =uiui =Ei.

Matriki Ei inEj razpišemo in zmnožimo drugi in tretji faktor EiEj =uiuiujuj = 0, če jei̸=j

EiEi =uiuiuiui =uiui =Ei, če je i=j.

(16)

Diagonalni elementi vsote matrik Ei se seštejejo v ena, elementi izven diagonal pa v nič, ker je U unitarna matrika

n

∑︂

i=1

Ei =

n

∑︂

i=1

|u1,i|2 u1,iu2,i . . . u1,iun,i

u2,iu1,i |u2,i|2 . . . u2,iun,i ... ... . .. ... un,iu1,n un,iu2,i . . . |un,i|2

=

∥u12 ⟨u1, u2⟩ . . . ⟨u1, un

⟨u2, u1⟩ ∥u22 . . . ⟨u2, un⟩ ... ... . .. ...

⟨un, u1⟩ ⟨un, u2⟩ . . . ∥un2

=I.

(2) ⇒(10): Naj boU unitarna in Ddiagonalna matrika iz druge trditve. Potem lahko zapišemo:

sled(AA) = sled(UDU UDU) = sled(UDDU) = sled(DD) =

n

∑︂

i=1

i|2. (10) ⇒ (2): Matriko A razcepimo s Schurovim razcepom in dobimo A = UT U, kjer je U unitarna, matrika T pa zgornje trikotna, torej dobimo

n

∑︂

i=1

i|2 = sled(AA) = sled(UTU UT U) = sled(TT) =

n

∑︂

i=1

i|2+∑︂

i<j

|tij|2. To pa pomeni, da so vsi nediagonalni elementi matrike T enaki nič.

(11)⇒(10): Ker je sled matrikeA enaka vsoti njenih lastnih vrednosti, velja:

sled(AA) = λ1(AA) +· · ·+λn(AA)

2122+· · ·+σ2n

=|λ1|2+|λ2|2+· · ·+|λn|2.

(2) ⇒(11): Produkt matrik A inA razcepimo po drugi trditvi in dobimo AA =UDDU.

Od tod je očitno, da so lastne vrednosti matrike AA enake |λ1|2,|λ2|2, . . . ,|λn|2, kar pa pomeni, da so singularne vrednosti A enake |λ1|,|λ2|, . . . ,|λn|.

(12) ⇒ (10): Lahko predpostavimo, da je A zgornje trikotna, ker za vsako uni- tarno matriko U veljasled(A) = sled(UAU). Torej lahko sled(A)in sled(A) zapi- šemo kot vsoto njunih lastnih vrednosti

sled(A) =

n

∑︂

i=1

λi in sled(A) =

n

∑︂

i=1

λi,

kjer so λ1, λ2, . . . , λn lastne vrednosti matrike A. Poleg tega pa velja tudi

sled(A+A)2 = sled(A2+AA+AA+ (A)2) = sled(A)2+ 2 sled(AA) + sled(A)2. Od tod sledi

sled(AA) = 1 2

(︁sled(A+A)2−sledA2−sled(A)2)︁

.

(17)

Če identiteto Reλi = λi2 i vstavimo v začetno enačbo, dobimo enakost

n

∑︂

i=1

(Reλi)2 =

n

∑︂

i=1

ii)2

4 = 1

4sled(A+A)2.

Ker so lastne vrednosti matrikeA2 enakeλ2i in lastne vrednosti matrike(A)2 enake λi2, velja

sled(AA) = 1 2

(︁sled(A+A)2−sledA2 −sled(A)2)︁

= 1 2

(︄ n

∑︂

i=1

ii)2

n

∑︂

i=1

λ2i

n

∑︂

i=0

λi2 )︄

=

n

∑︂

i=0

i|2. (2) ⇒(12): Ker je A=UDU, je

sled(A+A)2 = sled(UDU + (UDU))2 = sled(U(D+D)U)2

= sled(D+D)2 =

n

∑︂

i=1

ii)2 =

n

∑︂

i=1

(2 Reλi)2. (2) ⇒(13): Izraz sled(A−A)2 podobno razpišemo kot zgoraj in dobimo

sled(A−A)2 =

n

∑︂

i=1

i−λi)2 =

n

∑︂

i=1

(2iImλi)2 =−4

n

∑︂

i=1

(Imλi)2.

(13)⇒(10): V izrazusled(A−A)2 predpostavimo, da jeA zgornje trikotna. To lahko naredimo, ker bo enakost še vedno veljala, če A zamenjamo z UAU, kjer je U unitarna matrika. Potem lahko podobno kot v dokazu implikacije (12) ⇒ (10) izračunamo

sled(AA) =−1 2

(︁sled(A−A)2−sledA2−sled(A)2)︁

= 1 2

(︄

−4

n

∑︂

i=1

(Imλi)2

n

∑︂

i=1

λ2i

n

∑︂

i=1

λi 2

)︄

= 1 2

(︄ n

∑︂

i=1

i−λi)2

n

∑︂

i=1

λ2i

n

∑︂

i=1

λi2 )︄

=

n

∑︂

n=1

i|2.

(14)⇒(12): Na več načinov lahko opazimo, da če jeλlastna vrednost matrikeA, je λ2 lastna vrednost matrike A2. Najpreprostejše je, da pogledamo, kam A2 slika pripadajoči lastni vektor v matrikeA:

A2v =A(λv) = λAv=λ2v.

Sedaj pa se lahko lotimo dokazovanja implikacije. Torej če so λ1 + λ1, λ2 + λ2, . . . , λnn lastne vrednosti matrike A+A, so potem tudi njihovi kvadrati lastne vrednosti matrike (A+A)2. Tako velja

sled(A+A)2 =

n

∑︂

i=1

ii)2 =

n

∑︂

i=1

(2 Reλi)2 = 4

n

∑︂

i=1

(Reλi)2.

(2) ⇒(14): Dokaz v to smer je preprost. Samo razpišemoAkot A=UDU, kjer je U unitarna matrika inD diagonalna matrika, in dobimo

A+A =UDU +UDU =U(D+D)U,

(18)

kar pa je diagonalizacija matrikeA+A, torej so diagonalni elementi matrikeD+D lastne vrednosti matrike A+A.

(1) ⇔ (15): V desno stran je očitno. Leva implikacija pa je kombinacija dveh lastnosti sledi. Prva je

sled (XY −Y X) = 0,

kar velja za vse kvadratne matrikeX inY enakih velikosti. Druga lastnost pa pravi, da če je matrika P pozitivno semi-definitna, za njo velja

sledP = 0⇔P = 0.

Torej je

sled (AA−AA) = 0, kar pomeni, da je AA =AA.

Prva lastnost je očitna, druga pa je očitna samo v levo stran. Za dokaz v drugo stran upoštevajmo, da so vse lastne vrednosti pozitivno semi-definitne matrike ne- negativne in da je sled matrike enaka vsoti njenih lastnih vrednosti

sledP =

n

∑︂

i=1

λi(P)≥ (︄ n

∑︂

i=1

i(P))2 )︄1/2

.

Ker so pozitivno semi-definitne matrike tudi normalne, so lastne vrednosti enake singularnim vrednostim, torej dobimo

sledP ≥ (︄ n

∑︂

i=1

i(P))2 )︄1/2

= (︄ n

∑︂

i=1

i(P))2 )︄1/2

=∥P∥F = (︄ n

∑︂

i,j=1

|pij|2 )︄1/2

. To pomeni, da velja

0 = sledP ≥ (︄ n

∑︂

i,j=1

|pij|2 )︄1/2

, od koder sledi

sledP = 0⇒P = 0.

(1) ⇒(16): Ker je AA=AA, je

sled(AA)2 = sled(AAAA) = sled((A)2A2).

(16) ⇒ (1): Za dokaz v drugo smer upoštevajmo, da za kvadratne matrike X in Y enakih velikosti velja

sled(XY) = sled(Y X) in sled(XX) =∥X∥2F = 0⇔X = 0.

Sedaj izračunajmo sled matrike (AA− AA)(AA −AA) = (AA−AA)2 in dobimo

sled(AA−AA)2 = sled(AA)2−sled((A)2A2)−sled(A2(A)2) + sled(AA)2. Po predpostavki se odšteje prvi in drugi del ter tretji in četrti del. Tako dobimo, da je sled((AA−AA)(AA−AA)) = 0, kar pa pomeni da je AA−AA = 0.

(16)⇔(17): Samo uporabimo ekvivalencosled(AA) = 0⇔A= 0.

(1) ⇒(18): Samo razpišemo∥Ax∥2 kot

∥Ax∥2 =⟨Ax, Ax⟩=⟨x, AAx⟩=⟨x, AAx⟩=⟨Ax, Ax⟩=∥Ax∥2.

(18)⇒(1): Dokaz te implikacije smo našli v Simonovi Foucartovi skripti [3, dokaz 2].

(19)

V to stran uporabimo dve lastnosti kompleksnih števil. Prva je, da za vsakz ∈C obstaja tak λ ∈ C, da velja |λ| = 1 in ℜ(λz) = |z|. Od tod dobimo, da za vsaka x, y ∈Cn obstaja λ∈Cdolžine ena, da velja

ℜ(λ⟨x,(AA−AA)y⟩) =|⟨x,(AA−AA)y⟩|.

Druga pa, da za vsaka x, y ∈Cn velja

∥x+y∥2 =⟨x+y, x+y⟩=∥x∥2+∥y∥2+⟨x, y⟩+⟨y, x⟩

=∥x∥2 +∥y∥2+⟨x, y⟩+⟨x, y⟩=∥x∥2+∥y∥2+ 2ℜ(⟨x, y⟩) Sedaj razpišemo obe strani enačbe ∥A(λx+y)∥2 =∥A(λx+y)∥2 in dobimo

∥Ax∥2 +∥Ay∥2 + 2ℜ(λ⟨Ax, Ay⟩) = ∥Ax∥2+∥Ay∥2+ 2ℜ(λ⟨Ax, Ay⟩) Ker velja ∥Ax∥2 =∥Ax∥2 in∥Ay∥2 =∥Ay∥2, dobimo

0 = ℜ(λ⟨Ax, Ay⟩ −λ⟨Ax, Ay⟩) =ℜ(λ⟨x, AAy⟩ −λ⟨x, AAy⟩)

=ℜ(λ⟨x,(AA−AA)y⟩) = |⟨x,(AA−AA)y⟩|.

Ker je to res za vsak x∈Cn lahko sklepamo, da je(AA−AA)y = 0, kar pa drži za vsak y∈Cn, to pa pomeni da je AA−AA = 0.

(19)⇔(1): Opazimo, da veljata naslednji ekvivalenci

AA =AA ⇔ ⟨AAx, y⟩=⟨AAx, y⟩ ⇔ ⟨Ax, Ay⟩=⟨Ax, Ay⟩, za vse x, y ∈Cn.

(20)⇒(1): Naj boA =AU za neko unitarno matriko U, potem velja AA=A(A) = (AU)(AU) =AA.

(2) ⇒ (20): Naj bo A = Vdiag(λ1, λ2, . . . , λn)V, kjer je V unitarna matrika.

Za U vzemimo U =Vdiag(l1, l2, . . . , ln)V, kjer je li = λλi

i, če je λi ̸= 0, drugače je li = 1. Potem velja

A =Vdiag(λ1, λ2, . . . , λn)V

=Vdiag(λ1, λ2, . . . , λn)V Vdiag(l1, l2, . . . , ln)V

=AU.

(2) ⇔(21): Dokaz je zelo podoben kot pri dvajseti trditvi.

(1) ⇔ (22): Naj bo A = U P polarni razcep A, torej je matrika U unitarna in P pozitivno semi-definitna. Iz osnovne zveze za normalnost matrike AA = AA dobimo

PP =U P PU, oziroma

P2 =U P2U =U P P U =U P UU P U = (U P U)2.

Zaradi enoličnosti v lemi 3.2je zgornja enakost ekvivalentna naslednji enakosti P =U P U,

kar pa nam da

P U =U P.

Torej je ekvivalenca dokazana.

(22)⇒(23): Če matrikoA pomnožimo z U, kjer jeU unitarna matrika iz polar- nega razcepa matrike A, dobimo

AU =U P U =U U P =U A.

Reference

POVEZANI DOKUMENTI

Klju£ne besede: ekstremalna kombinatorika, verjetnostna metoda, mnoºica brez vsot, turnir, dominantna mnoºica, prekriºno ²tevilo, incidence to£k in premic Keywords:

Najprej bomo spoznali Mangoldtovo funkcijo in funkcijo psi, ki se presenetljivo pojavljata tako v logaritmi£nem odvodu funkcije zeta, kot tudi v ekvivalentni obliki pra²tevil-

Uporabnost trditve, da lahko množico neurejenih parov topološko gledamo kot Möbiusov trak, prihaja iz dejstva, da preslikava G slika točke oblike {x, x} (kar je ravno

Iz normalizacijskega pogoja, da mora biti ||α j || = 1, lahko dobimo tudi normali- zacijski pogoj za koeficiente β j.. Spomnimo se, da je standardni skalarni produkt v

Dokaºemo, da je poljubna nerazcepna upodobitev abelove grupe prve stopnje.. Za konec si pogledamo karakterje upodobitev, to so preslikave, ki vsakemu elementu iz grupe priredijo

Iskali bomo mnogoterosti, ki jih lahko dobimo z identifikacijo robov enega mno- gokotnika, vseeno pa si naslednji izrek oglejmo v večji splošnosti, ker bomo srečali tudi

Ideja prvega dokaza topolo²kega Radonovega izreka, ki ga bom obravnavala, je, da Borsuk-Ulamov izrek enostavno prenesemo na topolo²ki Radonov izrek.. ƒe se vrnemo na primer

Dokazali bomo formulo za izra£un ²tevila izjemnih enot v poljubnem kolobarju ostankov, nato pa si bomo ogledali, na koliko na£inov lahko predstavimo poljuben element iz kolobarja