UNIVERZA V LJUBLJANI
FAKULTETA ZA MATEMATIKO IN FIZIKO Matematika – 1. stopnja
Tim Mulej Normalne matrike
Delo diplomskega seminarja
Mentor: prof. dr. Roman Drnovšek
Ljubljana, 2021
Kazalo
1. Uvod 4
2. Osnovne definicije 4
3. Razcepi matrik 7
3.1. Schurov razcep 7
3.2. Polarni razcep 8
4. Karakteristične lastnosti normalnih matrik 11
5. Hoffman-Wielandtov izrek 21
5.1. Birkhoffov izrek 22
6. Slovar strokovnih izrazov 27
Literatura 27
Normalne matrike
Povzetek
Normalnost matrik je eno od bolj zanimivih poglavij linearne algebre. Ne samo zato, ker imajo normalne matrike razmeroma preprosto definicijo, ampak tudi zato, ker so uporabne v praksi, kar je razlog, da je bilo odkritih že 89karakterističnih lastnosti normalnih matrik. V tem delu smo si izbrali25karakterističnih lastnosti in pokazali ekvivalence med njimi. Posvetili pa smo se tudi vprašanju, kako “blizu” sta si dve kvadratni matriki glede na njune lastne vrednosti. Ali še bolj zanimivo, kaj se zgodi z lastnimi vrednostmi matrike, če matriko malo perturbiramo. V tem delu smo na ti dve vprašanji odgovorili za normalne matrike.
Normal matrices
Abstract
Matrix normality is one of the most interesting topics in linear algebra and matrix theory, since normal matrices have not only simple structures under unitary simila- rity but also many applications, which is why a great deal of work has been done on them. There are89 different characteristic properties. In this thesis we chose25 of those characteristic properties and proved their equivalence to basic definition of normal matrices. We were also interested in how “close” are the matrices in terms of their eigenvalues. More interestingly, if a matrix is “perturbed” a little bit, how would the eigenvalues of the matrix change? In this thesis we present answers to these two questions if the matrices are normal.
Math. Subj. Class. (2020): 15B99
Ključne besede: matrika, lastna vrednost, lastni vektor, Schurov razcep, polarni razcep, Hoffman-Wielandtov izrek, Sunov izrek
Keywords: matrix, eigenvalue, eigenvector, Schur decomposition, polar decompo- sition, Hoffman–Wielandt theorem, Sun theorem
1. Uvod
Množica normalnih matrik nima nobene algebraične strukture, kot jo ima na pri- mer množica ortogonalnih matrik, ki je grupa. Za poljubni dve normalni matriki niti ne velja, da je njun produkt nujno normalna matrika, torej množica normalnih matrik ni zaprta za množenje. Zato bi se morda komu pojavilo vprašanje, zakaj bi jim posvečali toliko pozornosti. Na to vprašanje bomo poskusili odgovoriti v tem diplomskem delu tako, da bomo navedli seznam lastnosti, ki veljajo za normalne matrike, in s tem pokazali zanimivost le-teh. Veliko rezultatov dela je preprostih, vendar nam lahko pomagajo pri uporabi normalnih matrik v praksi, ali pa jih lahko razširimo na normalne operatorje na neskončno dimenzionalnih Hilbertovih prosto- rih.
Najbolj uporabne podmnožice normalnih matrik so hermitske (A∗ = A), uni- tarne (U∗U = I) in antihermitske matrike (A∗ = −A), ki se večkrat pojavijo pri numeričnem računanju analize napak.
Prvi seznam karakterističnih lastnosti za normalne matrike so objavili matematiki Grone, Johnson, Sa in Wolkowicz leta 1987, ki je vseboval 70 lastnosti [5]. Nato pa sta leta 1998 matematika Elsner in Ikramov temu seznamu dodala še dodatnih 19 lastnosti [6].
V drugem poglavju so zbrane osnovne definicije, na katerih temeljijo glavni izreki tega dela. V naslednjem poglavju sta razložena Schurov in polarni razcep, ki smo ju uporabili za dokazovanje nekaterih ekvivalenc med lastnostmi normalnih matrik.
Četrto poglavje vsebuje že prej omenjene karakteristične lastnosti in dokaze povezav med njimi. V zadnjem poglavju pa smo se posvetili Hoffman-Wielandtovem izreku, ki pove, za koliko se lahko lastne vrednosti dveh normalnih matrik razlikujejo. Potem pa smo si ogledali še Sunov izrek, ki je podoben Hoffman-Wielandtovem izreku, samo da si ogledamo razlike lastnih vrednosti med normalno in poljubno matriko. Nato smo podali še primer, ki pokaže, da je predpostavka o normalnosti začetne matrike pomembna.
2. Osnovne definicije
Za začetek navedimo nekaj definicij za lažje razumevanje nadaljnjega besedila.
Definicija 2.1. Matrika A ∈ Cn×n je normalna, če komutira s svojo hermitsko transponiranko, torej velja
A∗A=AA∗.
Definicija 2.2. Matrika U ∈Cn×n je unitarna, če je matrika U∗ njen inverz, torej U U∗ =U∗U =I.
Definicija 2.3. Matrika H ∈ Cn×n je hermitska, če je enaka svoji hermitski tran- sponiranki, torej
H =H∗.
Definicija 2.4. Matrika D ∈ Cn×n je diagonalna, če so vsi njeni koeficienti izven diagonale enaki nič, torej
dij = 0, če je i̸=j,
kjer sodij koeficienti matrikeD. Zapišemo jo lahko tudi kotD= diag(d1, d2, . . . , dn).
Definicija 2.5. Matrika T ∈ Cn×n je zgornje trikotna, če so vsi njeni koeficienti pod diagonalo enaki nič, torej
tij = 0, če je i > j.
Definicija 2.6. Matrika M ∈Cn×n je idempotentna, če za njo velja M2 =M.
Definicija 2.7. Kvadratna hermitska matrikaP ∈Cn×n jepozitivno semi-definitna, če za vsak x∈Cn velja
⟨P x, x⟩ ≥0.
Da je matrika P pozitivno semi-definitna, lahko zapišemo tudi kotP ≥0.
Definicija 2.8. Matrika P ∈Rn×n je permutacijska, če vsaka njena vrstica in vsak njen stolpec vsebujeta natanko eno 1, vsi ostali koeficienti pa so enaki 0.
Permutacijskih matrik velikosti n × n je natanko n!. Množica permutacijskih matrik velikosti n ×n tvori grupo, kjer je P−1 = PT. To lahko opazimo, če si produkt matrik P in PT pogledamo po elementih
(︁P PT)︁
ij =
n
∑︂
k=1
pikpTkj =
n
∑︂
k=1
pikpjk,
kjer sopij koeficienti matrikeP inpTij koeficienti matrikePT. Ker ima permutacijska matrika v vsakem stolpcu samo en koeficient enak 1, velja
(P PT)ij =
{︄1 i=j 0 i̸=j . Torej je
P PT =I.
Od tod vidimo, da so permutacijske matrike podmnožica unitarnih matrik.
Definicija 2.9. Matrika S = (sij) ∈ Rn×n je dvojno stohastična, če se vse njene vrstice in stolpci seštejejo v ena in ima vse koeficiente nenegativne. Ali povedano drugače,
eTS =eT in Se=e, kjer je e = (1,1, . . . ,1)T in si,j ≥0.
Ker se koeficienti dvojno stohastične matrike v vsaki vrstici in v vsakem stolpcu seštejejo v ena, se te matrike velikokrat pojavljajo v verjetnosti.
Definicija 2.10. Sled matrike A = (aij) ∈ Cn×n je vsota njenih diagonalnih ele- mentov:
sled(A) =
n
∑︂
i=1
aii.
Zaradi koristnih lasnosti se sled matrike velikokrat uporablja pri računanju z matrikami. Ena izmed bolj uporabnih je, da za kvadratni matriki A, B ∈ Cn×n velja
sled(AB) = sled(BA).
To dokažemo po definiciji sled(AB) =
n
∑︂
i=1 n
∑︂
j=1
aijbji =
n
∑︂
j=1 n
∑︂
i=1
bjiaij = sled(BA).
Zgornji dokaz smo našli na spletni strani [9].
To lastnost pa lahko posplošimo, torej sled je invariantna na ciklične permutacije.
To je preprosto dokazati za tri matrike, za več matrik pa nadaljujemo induktivno.
Naj bo matrika B produkt matrik C in D. Potem lahko zapišemo sled(ACD) = sled(AB) = sled(BA) = sled(CDA).
Sedaj je preprosto videti, da je sled matrike A res enaka vsoti lastnih vrednosti matrike A: če izračunamo Jordanovo kanonično formo matrike A, dobimo A = P−1J P, kjer ima J po diagonali lastne vrednosti matrike A. Sedaj uporabimo zgornjo enakost in dobimo
sledA= sledP−1J P = sledJ P P−1 = sledJ.
Na spletni vtrani [10] so singularne vrednosti razložene kot:
Definicija 2.11. Singularna vrednost σmatrikeA∈Cm×nje kvadratni koren lastne vrednosti produkta matrik A∗A. Torej je σ ničla polinoma
det(A∗A−λ2I).
Obstaja tudi preprosta geometrijska interpretacija singularnih vrednosti matrike A. Predstavljajmo si enotsko sfero. Če jo preslikamo z A, dobimo elipsoid. Singu- larne vrednosti matrike Apredstavljajo polosi elipsoida. To je preprosto pokazati z polarnim razcepom, ki ga dokažemo v naslednjem poglavju, zato bomo natančnejšo razlago pustili za kasneje.
Definicija 2.12. Konveksna kombinacija je linearna kombinacija vektorjev, kjer so vsi koeficienti nenegativni in se seštejejo v ena.
Matriki lahko na več načinov dodelimo število, na primer izračunamo njeno de- terminanto, sled, največjo lastno vrednost. Eden izmed bolj uporabnih načinov je, da izračunamo njeno matrično normo.
Definicija 2.13. Naj bo Cn×n vektorski prostor vseh kompleksnih n ×n matrik.
Potem je matrična funkcija ∥·∥ : Cn×n → R matrična norma, če za vsaki A, B ∈ Cn×n in vsak c∈C velja:
(1) ∥A∥ ≥0; enakost velja natanko tedaj, ko jeA= 0, (2) ∥cA∥=|c| ∥A∥,
(3) ∥A+B∥ ≤ ∥A∥+∥B∥, (4) ∥AB∥ ≤ ∥A∥ ∥B∥.
Matrična norma, ki jo bomo uporabljali v tem delu, je definirana kot:
Definicija 2.14. Za poljubno matriko A∈Cn×n definiramo
∥A∥F = (sled(A∗A))1/2 = (︄ n
∑︂
i,j=1
|aij|2 )︄1/2
. Tej matrični funkciji pravimo Frobeniusova norma.
Frobeniusova norma je matrična norma, ker za vsaki matriki A, B ∈ Cn×n in za vsak c∈C zadošča pogojem:
∥A∥F =(︂
∑︁n
i,j=1|aij|2)︂1/2
>0 razen, če je A= 0, potem je ∥A∥F = 0,
∥cA∥F =|c|(︂
∑︁n
i,j=1|aij|2)︂1/2
=|c| ∥A∥ za vse c∈C,
Matriki A in B spremenimo v vektorja velikosti n×n tako, da vrstice matrike zapišemo zaporedoma, na način vA= (a11, a12, . . . , a1n, a21, . . . , ann). Potem je Fro- beniusova norma za matriko A enaka evklidski normi za vektor vA, kar nam da
∥A+B∥F =∥vA+vB∥2 ≤ ∥vA∥2+∥vB∥2 =∥A∥F +∥B∥F .
Koeficiente matrike AB si predstavljamo kot skalarne produkte vrstic ai matrike A in stolpcev bj matrike B. Potem uporabimo Cauchy–Schwarzovo neenakost in dobimo
∥AB∥F = (︄ n
∑︂
i,j=1
|⟨ai, bj⟩|2 )︄1/2
≤ (︄ n
∑︂
i,j=1
∥ai∥2∥bj∥2 )︄1/2
= (︄ n
∑︂
i=1
∥ai∥2F
)︄1/2(︄ n
∑︂
j=1
∥bj∥2F )︄1/2
=∥A∥F ∥B∥F .
Dokaz, da je Frobeniusova norma matrična norma smo povzeli po dokazu v Wil- liamovi Fordovi knjigi z naslovom Numerical linear algebra with applications [2, Poglavje 7]. Ker je sled matrike enaka vsoti njenih lastnih vrednosti, je preprosto videti, da velja tudi
∥A∥F = (sled(A∗A))1/2 = (︄ n
∑︂
i=1
σi2(A) )︄1/2
,
kjer so σi singularne vrednosti matrike A. Poleg te lastnosti pa lahko še opazimo, da je Frobeniusova norma unitarno invariantna norma, kar pomeni, da za poljubno matriko A∈Cn×n in za vsaki unitarni matriki U, V ∈Cn×n velja
∥U AV∥F = sled(V∗A∗AV) = sled(A∗A) = ∥A∥F. 3. Razcepi matrik
V tem poglavju si bomo ogledali dva razcepa matrik. Prvi bo Schurov razcep, drugi pa polarni razcep.
3.1. Schurov razcep. Iskanje lastnih vrednosti matrik je računsko zahtevna ope- racija. Lahko izračunamo Jordanovo kanonično formo matrike, vendar je ta izračun zelo občutljiv na numerične napake. Zato bi bilo lažje, če bi iskali prehodno ma- triko, ki nam osnovno matriko spremeni v zgornje trikotno. Potem je očitno, da bo dobljena matrika imela lastne vrednosti stare matrike po diagonali. Izkaže se, da za vsako matriko A obstaja unitarna matrika U, za katero velja, da je U∗AU zgornje trikotna. To lastnost opisuje Schurov izrek, poimenovan po ruskem matematiku Issaiku Schuru.
Izrek 3.1 (Schurov razcep). Naj bodo λ1, λ2, . . . , λn lastne vrednosti matrike A ∈ Cn×n. Potem obstaja taka unitarna matrikaU ∈Cn×n, da je U∗AU zgornje trikotna matrika:
U∗AU =
⎛
⎜
⎜
⎝
λ1 ∗
λ2 . ..
0 λn
⎞
⎟
⎟
⎠ .
Dokaz. Pri dokazu si bomo pomagali z indukcijo. Za n = 1 je izrek očiten. Sedaj pa pokažimo še indukcijski korak.
Naj bo x1 enotski lastni vektor matrike A, ki pripada lastni vrednosti λ1, torej velja
Ax1 =λ1x1.
Potem si iz množice pravokotnih vektorjev na x1 izberemo n−1 linearno neodvi- snih vektorjev in jih po Gram-Smitovem postopku preoblikujemo v ortonormirano bazo (y2, y3, . . . , yn). Ta postopek je natančno opisan v Williamovi Fordovi knjigi z naslovom Numerical linear algebra with applications [2, poglavje 14]. Od tod lahko sestavimo unitarno matriko S = (x1, y2, . . . , yn). Torej je
AS = (Ax1, Ay2, . . . , Ayn)
= (λ1x1, Ay2, . . . , Ayn)
=S(u, S−1Ay2, . . . , S−1Ayn), kjer je u= (λ1,0, . . . ,0)T. Tako lahko zapišemo
S∗AS =
(︃λ1 v 0 B
)︃
,
kjer je v vrstica in B ∈C(n−1)×(n−1). Po indukcijski predpostavki obstaja za B taka unitarna matrika V velikosti (n−1)×(n−1), da je V∗BV zgornje trikotna. Naj bo
U =S
(︃1 0 0 V
)︃
.
Ker sta V in S unitarni matriki, je tudi matrika U unitarna in U∗AU je zgornje trikotna z lastnimi vrednostmi λ1, λ2, . . . , λn na diagonali. □ 3.2. Polarni razcep. Poleg Schurovega razcepa bomo potrebovali tudi polarni raz- cep. Če si matriko A ∈Cn×n predstavljamo kot linearno transformacijo, jo polarni razcep razdeli na rotacijo in zrcaljenje U, ter na razteg P po ortogonalnih smereh.
Preden dokažemo obstoj polarnega razcepa za vsako matriko A ∈Cn×n, si oglejmo naslednjo lemo.
Dokaz naslednje leme ter dokaz polarnega razcepa smo povzeli po Garrettovi Buffingtonovi skripti z naslovom Polar decomposition of a matrix [1, poglavje 2] in po diplomskem delu Larise Gostenčnik z naslovom Polarni razcep matrik [4, poglavje 3].
Lema 3.2. Za vsako pozitivno semi-definitno matriko P z lastnimi vrednostmi λ1, λ2, . . . , λn obstaja enolično določena pozitivno semi-definitna matrika B, da velja
B2 =P in lastne vrednosti matrike B so enake √
λ1,√
λ2, . . . ,√ λn.
Dokaz. V naslednjem poglavju med karakterističnimi lastnostmi normalnih matrik dokažemo, da lastni vektorji normalne matrike tvorijo ortonormirano bazo prostora Cn. Ker so pozitivno semi-definitne matrike podmnožica normalnih matrik, tudi la- stni vektorjiu1, u2, . . . , unpozitivno semi-definitne matrike P tvorijo ortonormirano bazo prostora Cn×n. Zato lahko preslikavo, ki jo opiše P, zapišemo kot operator, ki bazne vektorje preslika kot P(ui) = λiui, kjer je λi ustrezna lastna vrednost. Naj operator B preslika bazo kot B(ui) = √
λiui za vsak i = 1,2, . . . , n. Torej je √ λi lastna vrednost matrike B, poleg tega pa je lahko preveriti, da velja B2 = P. Da velja ⟨B(x), x)⟩ ≥0 za vsakx∈Cn, se lahko prepričamo tako, da xrazpišemo kot
x=a1u1 +a2u2 +· · ·+anun. Potem je
⟨B(x), x⟩=a21√︁
λ1+a22√︁
λ2+· · ·+a2n√︁
λn ≥0.
Da pokažemo enoličnost, predpostavimo, da obstaja še en operatorC, za katerega velja
C2(x) =P(x) in ⟨C(x), x⟩=⟨x, C(x)⟩ ≥0 za vse x∈Cn.
Naj bo (µi, vi) lastni par preslikave C. Potem velja C2vi = µiCvi = µ2ivi, kar pa pomeni, da je µ2i lastna vrednost C2 = P. Ker so lastne vrednosti matrike P enake λ1, λ2, . . . , λn in so vse nenegativne, so torej vsiµi enaki √
λi. Ker tudi lastni vektorji matrike C tvorijo ortonormirano bazo prostora Cn, lahko lastne vektorje matrikeB2 =P zapišemo kot linearne kombinacije vektorjev v1, v2, . . . , vn. Za vsak i naj bo
ui =w1iv1+w2iv2+· · ·+wnivn. Torej je
C2(ui) = P(ui) = λiui =w1iλiv1+w2iλiv2+· · ·+wniλivn. Po drugi strani pa je
C2(ui) =C2(w1iv1+w2iv2+· · ·+wnivn) = w1iλ1v1+w2iλ2v2+· · ·+wniλnvn. Ker so v1, v2, . . . , vn linearno neodvisni, velja wtiλi = wtiλt zat = 1,2, . . . , n. Tako sledi
C(ui) =C(w1iv1 +· · ·+wnivn)
=w1i√︁
λ1v1+· · ·+wni√︁
λnvn
=w1i√︁
λiv1+· · ·+wni√︁
λivn
=√︁
λiui =B(ui).
Ker u1, u2, . . . , un sestavljajo bazo prostora Cn, je B =C. □ Sedaj ko smo dokazali, da obstaja dobro definirani koren pozitivno semi-definitne matrike, se lahko lotimo polarnega razcepa.
Izrek 3.3(Polarni razcep). Za vsako matriko A∈Cn×nobstajata enolično določena unitarna matrika U ∈Cn×n in pozitivno semi-definitna matrikaP ∈Cn×n, za kateri velja
A=U P.
Lastne vrednosti matrike P so enake singularnim vrednostim matrike A.
Dokaz. Če matriko A pomnožimo z njeno hermitsko transponiranko, dobimo her- mitsko matriko A∗A, za katero velja
x∗A∗Ax=⟨x, A∗Ax⟩=⟨Ax, Ax⟩=||Ax||2 ≥0 za vsak x∈Cn.
Torej je A∗A pozitivno semi-definitna. Po prejšnjem izreku obstaja enolično dolo- čena matrika P =√
A∗A, ki je pozitivno semi-definitna in njene lastne vrednosti so enake korenom lastnih vrednosti matrike A∗A, torej so po definiciji enake singular- nim vrednostim matrike A. Ker je matrika P pozitivno semi-definitna, njeni lastni vektorjiv1, v2, . . . , vn tvorijo ortonormirano bazo prostoraCn. Upoštevamo še, da so lastne vrednosti λ1, λ2, . . . , λn matrikeP nenegativne. Če lastne vrednosti uredimo po velikosti, velja λ1, λ2, . . . , λr > 0 in λr+1 =λr+2 =· · · =λn = 0 za neko število r. Definirajmo dve novi matrikiD in C, kot
C= (v1, v2, . . . , vn) in D= (︃ 1
λ1
Av1, 1 λ2
Av2, . . . , 1 λr
Avr, wr+1, wr+2. . . , wn, )︃
, kjer so vektorji wr+1, wr+2, . . . , wn normirani, paroma pravokotni in pravokotni na Av1, Av2, . . . , Avr. Matrika C je unitarna po definiciji, za matriko D pa preverimo, da je unitarna
⟨︃ 1
λjAvj, 1 λiAvi
⟩︃
= 1
λjλi⟨vj, A∗Avi⟩= 1
λjλi⟨vj, P2vi⟩
= 1
λjλi⟨vj, λ2ivi⟩= λi
λj⟨vj, vi⟩=
{︄1 i=j
0 i̸=j , za vsak i, j ≤r.
Vektorji wr+1, wr+2, . . . , wn pa matriko D unitarno dopolnjejo, do polnega ranga.
Sedaj lahko definiramo matriko U kot U =DC∗ =
(︃ 1
λ1Av1, 1
λ2Av2, . . . , 1
λrAvr, wr+1, wr+2, . . . , wn
)︃
(v1, v2, . . . , vn)∗, ki je očitno unitarna. Poglejmo sedaj, kam matrika U preslika bazo v1, v2, . . . , vn prostora Cn:
U vi =DC∗vi =D(v1, v2, . . . , vn)∗vi =D
⎛
⎜
⎜
⎝
⟨v1, vi⟩
⟨v2, vi⟩ ...
⟨vn, vi⟩
⎞
⎟
⎟
⎠
=Dei = 1 λi
Avi, 1≤i≤r
kjer je ei = (0, . . . ,0,1,0, . . . ,0) enotski vektor, ki ima enico na i-tem mestu. Za i > r pa velja
U vi =Dei =wi.
Če matriko U pomnožimo z desne s P in si ogledamo, kam matrika U P preslika bazne vektorje v1, v2, . . . , vr, vidimo, da velja
U P vi =U λivi =λiU vi = λi
λiAvi =Avi za 1≤i≤r.
Če želimo pokazati, da sta A in U P enaki, moramo še preveriti, kam obe matriki slikata preostale bazne vektorje vr+1, vr+2, . . . , vn:
U P vi =U0vi = 0 za i > r.
Torej če so vektorji vi za i > r v jedru matrike A, je dokaz končan. Pa si poglejmo kvadrat norme vektorja Avi:
∥Avi∥2 =⟨Avi, Avi⟩=⟨vi, A∗Avi⟩=⟨vi, P2vi⟩=⟨Bvi, Bvi⟩=∥Bvi∥2 =∥0vi∥2 = 0,
za i > r. □
Sedaj, ko imamo polarni razcep, lahko pokažemo, da singularne vrednosti matrike Apredstavljajo polosi elipsoida, ki smo ga dobili tako, da smo zApreslikali enotsko sfero.
Naj bodo singularne vrednosti matrike A enake σ1, σ2, . . . , σn. S polarnim razce- pom lahko A zapišemo kot
A=U P,
ker je P pozitivno semi-definitna matrika z lastnimi vrednostmi σ1, σ2, . . . , σn inU unitarna matrika. Ker je matrika P pozitivno semi-definitna, je tudi normalna. V naslednjem poglavju pokažemo, da lahko normalne matrike unitarno diagonalizi- ramo, torej obstaja unitarna matrika V, da velja
P =V∗DV,
kjer je D= diag(σ1, σ2, . . . , σn). Potem lahko zapišemo A=U V∗DV.
Če sedaj postopoma preslikamo enotsko sfero zA=U V∗DV, dobimo, daU preslika sfero samo vase, matrika D jo raztegne v elipsoid s polosimi enakim σ1, σ2, . . . , σn, unitarna matrikaU V∗ pa elipsoid zavrti in zrcali. Torej singularne vrednosti matrike A res predstavljajo polosi elipsoida.
4. Karakteristične lastnosti normalnih matrik
Cilj tega poglavja je povezati lastnosti normalnih matrik z njihovo osnovno defi- nicijo AA∗ =A∗A.
Večino trditev in dokazov smo povzeli po Fuzhen Zangovi knjigi z naslovom Matrix theory [8, poglavje 9].
Izrek 4.1. Naj bo A = (aij) n × n kompleksna matrika z lastnimi vrednostmi λ1, λ2, . . . , λn. Potem so naslednje izjave ekvivalentne.
(1) Matrika A je normalna, torej velja A∗A=AA∗.
(2) MatrikoAlahko unitarno diagonaliziramo, kar pomeni, da obstaja takan×n unitarna matrika U, da velja
U∗AU = diag(λ1, λ2, . . . , λn).
(3) Obstaja tak polinom p(x), da velja A∗ =p(A).
(4) Obstaja množica lastnih vektorjev matrike A, ki tvorijo ortonormirano bazo za Cn.
(5) Vsak lastni vektor matrike A je lastni vektor matrike A∗. (6) Vsak lastni vektor matrike A je lastni vektor matrike A+A∗. (7) Vsak lastni vektor matrike A je lastni vektor matrike A−A∗.
(8) Matriko A lahko razpišemo kot A =B +iC za neki hermitski matriki B in C, ki komutirata.
(9) Matriko A lahko razpišemo kot A=∑︁n
i=1λiEi, kjer jeλi ∈C in Ei ∈Cn×n, ki zadošča pogojem Ei2 =Ei =Ei∗, EiEj = 0 za i̸=j in ∑︁n
i=1Ei =I.
(10) sled(A∗A) = ∑︁n
i=1|λi|2.
(11) Vse singularne vrednosti matrike A so enake |λ1|,|λ2|, . . . ,|λn|.
(12) ∑︁n
i=1(Reλi)2 = 14sled(A+A∗)2. (13) ∑︁n
i=1(Imλi)2 =−14 sled(A−A∗)2.
(14) Lastne vrednosti matrike A+A∗ so λ1+λ1, λ2+λ2, . . . , λn+λn. (15) Matrika AA∗−A∗A je pozitivno semi-definitna.
(16) sled(A∗A)2 = sled((A∗)2A2).
(17) (A∗A)2 = (A∗)2A2.
(18) ||Ax||=||A∗x|| za vse x∈Cn.
(19) ⟨Ax, Ay⟩=⟨A∗x, A∗y⟩ za vse x, y ∈Cn. (20) A∗ =AU za neko unitarno matriko U.
(21) A∗ =V A za neko unitarno matriko V.
(22) U P =P U, če jeA =U P polarni razcep.
(23) AU =U A, če je A=U P polarni razcep.
(24) AP =P A, če je A=U P polarni razcep.
(25) MatrikaA komutira z neko normalno matrikoB, ki ima same različne lastne vrednosti.
Dokaz. V spodnjih diagramih so grafično prikazane vse implikacije, ki jih bomo dokazali v tem dokazu.
(3)
(8) (1) (2) (4)
(9) (7) (5) (6)
(18) (13) (10) (11)
(15) (1) (2) (12)
(17) (16) (19) (14)
(23) (22) (20) (25)
(24) (1) (2) (21)
(1) ⇒ (2): S Schurovim razcepom razcepimo osnovno definicijo normalnosti AA∗ =A∗A in dobimo
U∗T U U∗T∗U =U∗T∗U U∗T U,
kjer je U unitarna matrika, matrika T pa je zgornje trikotna. Od tod je preprosto videti, da sta matriki T T∗ inT∗T enaki, torej se ujemajo tudi njuni koeficienti. Če
primerjamo prva elementa v prvi vrstici matrik T∗T inT T∗, dobimo zvezo
|t11|2 =|t11|2+
n
∑︂
j=2
|t1j|2.
Od tod sledi, da je t1j = 0 vse j = 2,3, . . . , n. Sedaj pa si poglejmo drugi element v drugi vrstici matrik T∗T inT T∗:
|t12|2+|t22|2 =|t22|2+
n
∑︂
j=3
|t2j|2
Ker jet12= 0, jet2j = 0za vsej = 3,4, . . . , n. Ta postopek induktivno nadaljujemo.
Opazimo, da je tij = 0 za vse i̸=j. Torej je T diagonalna matrika.
(2) ⇒ (1): Po predpostavki je A = U∗T U, kjer je U unitarna in T diagonalna, torej komutira s svojo hermitsko transponiranko. Zato lahko produkt matrik A in A∗ zapišemo kot
AA∗ =U∗T U(U∗T U)∗ =U∗T U U∗T∗U =U∗T T∗U
=U∗T∗T U =U∗T∗IT U =U∗T∗U U∗T U
= (U∗T U)∗U∗T U =A∗A.
(2) ⇒(3): Naj bo L ={λ1, λ2, . . . , λm} množica različnih lastnih vrednosti ma- trike A. Moč množice L je enaka m ≤ n. Z Lagrangeevo interpolacijo poiščemo polinom p stopnje m−1:
p(x) =
m
∑︂
i=1
(︃
∏︂
1≤j≤m j̸=i
x−λj λi−λj
)︃
λi,
Kako najti Lagrangeev interpolacijski polinom je Marjeta Krajnc, opisala v zbirki nalog z rešitvami z naslovom Numerična aproksimacija in interpolacija [7, poglavje 5].
Za interpolacijski polinom velja:
p(λi) =λi za vsak i= 1,2, . . . , m.
Po predpostavki je A = U∗diag(λ1, . . . , λn)U za neko unitarno matriko U, zato velja:
A∗ =U∗diag(λ1, . . . , λn)U
=U∗diag(p(λ1), . . . , p(λn))U
=U∗p(diag(λ1, . . . , λn))U
=p(U∗diag(λ1, . . . , λn)U)
=p(A).
(3) ⇒(1): Očitno velja
A∗A=p(A)A=Ap(A) = AA∗.
(2) ⇒(4): Če razcep A=Udiag(λ1, . . . , λn)U∗ pomnožimo z U z desne, dobimo AU =Udiag(λ1, λ2, . . . , λn)
ali
Aui =λiui za i= 1,2, . . . , n,
kjeruipredstavljai-ti stolpec matrikeU, torej jeuipo definiciji lastni vektor matrike A. Ker pa je U unitarna matrika, njeni stolpci tvorijo ortonormirano bazo prostora Cn. Torej lastni vektorji matrike A tvorijo ortonormirano bazo prostoraCn.
(4) ⇒ (2): Naj lastni vektorji u1, u2, . . . , un matrike A tvorijo ortonormirano bazo prostora Cn. Če matrikoU sestavimo iz lastnih vektorjevu1, u2, . . . , un, kot je opisano spodaj
U = (u1, u2, . . . , un),
je očitno, da je matrika U unitarna. Sedaj pa si oglejmo, kaj dobimo, če zmnožimo U inA,
AU = (λ1u1, λ2u2, . . . , λnun) = Udiag(λ1, λ2, . . . , λn).
Enačbo pomnožimo z U∗ iz leve in dobimo U∗AU = diag(λ1, λ2, . . . , λn). Torej se da matriko A unitarno diagonalizirati.
(2) ⇒ (5): Za matriko A velja zveza U∗AU = diag(λ1, λ2, . . . , λn), kjer so λ1, λ2, . . . , λn njene lastne vrednosti. Če zvezo pomnožimo zU z leve, dobimo
AU =Udiag(λ1, λ2, . . . , λn), kar pa je enako
A(u1, u2, . . . , un) = (λ1u1, λ2u2, . . . , λnun), kjer so u1, u2, . . . , un stolpci matrikeU. Ali zapisano drugače
Aui =λiui za i= 1,2, . . . , n.
Torej so stolpci matrikeU lastni vektorjiA. Če enačboAU =Udiag(λ1, λ2, . . . , λn) hermitsko transponiramo in pomnožimo z U z leve in desne, dobimo
A∗U =Udiag(λ1, λ2, . . . , λn).
Od tod po enakem postopku kot zgoraj izračunamo, da so stolpci matrike U lastni vektorji matrike A.
(5) ⇒(2): Najprej se prepričajmo, da velja naslednja ekvivalenca:
Ax=λx⇔(U∗AU)(U∗x) = λ(U∗x).
Tega ni težko dokazati: med A in x vrinemo I =U U∗, ter z leve pomnožimo z U∗ in dobimo želeno ekvivalenco.
Sedaj s Schurovim razcepom spremenimo A v zgornje trikotno in novo matriko označimo z Aˆ =U∗AU. Očitno je, da jee1 = (1,0, . . . ,0)T lastni vektorAˆ. Matrika Aˆ je še vedno normalna, ker velja
Aˆ∗Aˆ =U∗A∗U U∗AU =U∗A∗AU =U∗AA∗U =U∗AU U∗A∗U =AˆAˆ∗.
Torej je vektor e1 tudi lastni vektor Aˆ∗, ki je spodnje trikotna. Iz definicije Aˆ∗e1 = λ1e1 za lastni vektor matrike Aˆ∗ vidimo, da ima prvi stolpec matrike Aˆ∗ povsod ničle razen na prvem mestu. Torej velja:
Aˆ =
(︃λ1 0 0 B
)︃
in Aˆ∗ =
(︃λ1 0 0 B∗
)︃
.
Matrika B je tudi normalna in zgornje trikotna, kar pomeni, da lahko postopek induktivno nadaljujemo na B, dokler ne dobimo, da je
Aˆ =U∗AU =
⎛
⎜
⎜
⎝ λ1
λ2 . ..
λn
⎞
⎟
⎟
⎠ ,
kar pa smo hoteli dokazati.
(5) ⇒ (6): Naj bo λ lastna vrednost matrike A, potem je λ lastna vrednost matrike A∗. Zato lahko zapišemo:
(A+A∗)u=Au+A∗u=λu+λu = (λ+λ)u.
Torej jeulastni vektor matrikeA+A∗ in(λ+λ)njemu pripadajoča lastna vrednost.
(6) ⇒(5): Naj bo (A+A∗)u=λu in Au=µu zau̸= 0. Potem:
A∗u=λu−Au= (λ−µ)u.
Torej je u lastni vektor matrikeA∗.
(5) ⇔(7): Se dokaže podobno kot ekvivalenca (5)⇔(6).
(8) ⇒(1): Naj za normalno matrikoAveljaA=B+iC, kjer staBinChermitski matriki, za kateri velja BC =CB. Potem samo razpišemo A∗A in dobimo
A∗A= (B∗−iC∗)(B +iC) = (B −iC)(B+iC)
=B2+C2 = (B+iC)(B −iC) = (B+iC)(B+iC)∗ =AA∗. (1) ⇒(8): Naj bosta B = A+A2 ∗ inC = A−A2i ∗. Preprosto je opaziti, da velja:
B∗ =
(︃A+A∗ 2
)︃∗
= A+A∗ 2 =B in
C∗ =
(︃A−A∗ 2i
)︃∗
= A−A∗ 2i =C.
Da dokažemo, da B in C komutirata, samo razpišemo BC kot BC = (A+A∗)(A−A∗)
4i = A2−(A∗)2
4i = (A−A∗)(A+A∗)
4i =CB.
(9) ⇒ (1): Izraz A = ∑︁n
i=1λiEi vstavimo v osnovno definicijo normalnosti in upoštevamo, da je EiEj = 0 za i̸=j
AA∗ =
n
∑︂
i=1
λiEi n
∑︂
i=1
λiEi∗ =
n
∑︂
i=1
|λi|2EiEi∗
=
n
∑︂
i=1
|λi|2Ei∗Ei =
n
∑︂
i=1
λiEi∗
n
∑︂
i=1
λiEi =A∗A.
(2) ⇒(9): Če označimo stolpce unitarne matrike U z u1, u2, . . . , un, potem lahko A=Udiag(λ1, λ2, . . . , λn)U∗ razpišemo kot
A=Udiag(λ1, λ2, . . . , λn)U∗ =λ1u1u∗1+λ2u2u∗2 +· · ·+λnunu∗n.
Naj boEi =uiu∗i zai= 1, . . . , n. Preveriti moramo, aliEi izpolnjuje pogoje devete trditve:
Ei∗ = (uiu∗i)∗ =uiu∗i =Ei.
Matriki Ei inEj razpišemo in zmnožimo drugi in tretji faktor EiEj =uiu∗iuju∗j = 0, če jei̸=j
EiEi =uiu∗iuiu∗i =uiu∗i =Ei, če je i=j.
Diagonalni elementi vsote matrik Ei se seštejejo v ena, elementi izven diagonal pa v nič, ker je U unitarna matrika
n
∑︂
i=1
Ei =
n
∑︂
i=1
⎛
⎜
⎜
⎝
|u1,i|2 u1,iu2,i . . . u1,iun,i
u2,iu1,i |u2,i|2 . . . u2,iun,i ... ... . .. ... un,iu1,n un,iu2,i . . . |un,i|2
⎞
⎟
⎟
⎠
=
⎛
⎜
⎜
⎜
⎝
∥u1∥2 ⟨u1, u2⟩ . . . ⟨u1, un⟩
⟨u2, u1⟩ ∥u2∥2 . . . ⟨u2, un⟩ ... ... . .. ...
⟨un, u1⟩ ⟨un, u2⟩ . . . ∥un∥2
⎞
⎟
⎟
⎟
⎠
=I.
(2) ⇒(10): Naj boU unitarna in Ddiagonalna matrika iz druge trditve. Potem lahko zapišemo:
sled(A∗A) = sled(U∗D∗U U∗DU) = sled(U∗D∗DU) = sled(D∗D) =
n
∑︂
i=1
|λi|2. (10) ⇒ (2): Matriko A razcepimo s Schurovim razcepom in dobimo A = U∗T U, kjer je U unitarna, matrika T pa zgornje trikotna, torej dobimo
n
∑︂
i=1
|λi|2 = sled(A∗A) = sled(U∗T∗U U∗T U) = sled(T∗T) =
n
∑︂
i=1
|λi|2+∑︂
i<j
|tij|2. To pa pomeni, da so vsi nediagonalni elementi matrike T enaki nič.
(11)⇒(10): Ker je sled matrikeA enaka vsoti njenih lastnih vrednosti, velja:
sled(A∗A) = λ1(A∗A) +· · ·+λn(A∗A)
=σ21+σ22+· · ·+σ2n
=|λ1|2+|λ2|2+· · ·+|λn|2.
(2) ⇒(11): Produkt matrik A inA∗ razcepimo po drugi trditvi in dobimo A∗A =U∗D∗DU.
Od tod je očitno, da so lastne vrednosti matrike A∗A enake |λ1|2,|λ2|2, . . . ,|λn|2, kar pa pomeni, da so singularne vrednosti A enake |λ1|,|λ2|, . . . ,|λn|.
(12) ⇒ (10): Lahko predpostavimo, da je A zgornje trikotna, ker za vsako uni- tarno matriko U veljasled(A) = sled(U∗AU). Torej lahko sled(A)in sled(A∗) zapi- šemo kot vsoto njunih lastnih vrednosti
sled(A) =
n
∑︂
i=1
λi in sled(A∗) =
n
∑︂
i=1
λi,
kjer so λ1, λ2, . . . , λn lastne vrednosti matrike A. Poleg tega pa velja tudi
sled(A∗+A)2 = sled(A2+AA∗+A∗A+ (A∗)2) = sled(A)2+ 2 sled(A∗A) + sled(A∗)2. Od tod sledi
sled(A∗A) = 1 2
(︁sled(A+A∗)2−sledA2−sled(A∗)2)︁
.
Če identiteto Reλi = λi+λ2 i vstavimo v začetno enačbo, dobimo enakost
n
∑︂
i=1
(Reλi)2 =
n
∑︂
i=1
(λi+λi)2
4 = 1
4sled(A+A∗)2.
Ker so lastne vrednosti matrikeA2 enakeλ2i in lastne vrednosti matrike(A∗)2 enake λi2, velja
sled(A∗A) = 1 2
(︁sled(A+A∗)2−sledA2 −sled(A∗)2)︁
= 1 2
(︄ n
∑︂
i=1
(λi+λi)2−
n
∑︂
i=1
λ2i −
n
∑︂
i=0
λi2 )︄
=
n
∑︂
i=0
|λi|2. (2) ⇒(12): Ker je A=U∗DU, je
sled(A+A∗)2 = sled(U∗DU + (U∗DU)∗)2 = sled(U∗(D+D∗)U)2
= sled(D+D∗)2 =
n
∑︂
i=1
(λi+λi)2 =
n
∑︂
i=1
(2 Reλi)2. (2) ⇒(13): Izraz sled(A−A∗)2 podobno razpišemo kot zgoraj in dobimo
sled(A−A∗)2 =
n
∑︂
i=1
(λi−λi)2 =
n
∑︂
i=1
(2iImλi)2 =−4
n
∑︂
i=1
(Imλi)2.
(13)⇒(10): V izrazusled(A−A∗)2 predpostavimo, da jeA zgornje trikotna. To lahko naredimo, ker bo enakost še vedno veljala, če A zamenjamo z U∗AU, kjer je U unitarna matrika. Potem lahko podobno kot v dokazu implikacije (12) ⇒ (10) izračunamo
sled(A∗A) =−1 2
(︁sled(A−A∗)2−sledA2−sled(A∗)2)︁
= 1 2
(︄
−4
n
∑︂
i=1
(Imλi)2−
n
∑︂
i=1
λ2i −
n
∑︂
i=1
λi 2
)︄
= 1 2
(︄ n
∑︂
i=1
(λi−λi)2−
n
∑︂
i=1
λ2i −
n
∑︂
i=1
λi2 )︄
=
n
∑︂
n=1
|λi|2.
(14)⇒(12): Na več načinov lahko opazimo, da če jeλlastna vrednost matrikeA, je λ2 lastna vrednost matrike A2. Najpreprostejše je, da pogledamo, kam A2 slika pripadajoči lastni vektor v matrikeA:
A2v =A(λv) = λAv=λ2v.
Sedaj pa se lahko lotimo dokazovanja implikacije. Torej če so λ1 + λ1, λ2 + λ2, . . . , λn +λn lastne vrednosti matrike A+A∗, so potem tudi njihovi kvadrati lastne vrednosti matrike (A+A∗)2. Tako velja
sled(A+A∗)2 =
n
∑︂
i=1
(λi+λi)2 =
n
∑︂
i=1
(2 Reλi)2 = 4
n
∑︂
i=1
(Reλi)2.
(2) ⇒(14): Dokaz v to smer je preprost. Samo razpišemoAkot A=U∗DU, kjer je U unitarna matrika inD diagonalna matrika, in dobimo
A+A∗ =U∗DU +U∗D∗U =U∗(D+D∗)U,
kar pa je diagonalizacija matrikeA+A∗, torej so diagonalni elementi matrikeD+D∗ lastne vrednosti matrike A+A∗.
(1) ⇔ (15): V desno stran je očitno. Leva implikacija pa je kombinacija dveh lastnosti sledi. Prva je
sled (XY −Y X) = 0,
kar velja za vse kvadratne matrikeX inY enakih velikosti. Druga lastnost pa pravi, da če je matrika P pozitivno semi-definitna, za njo velja
sledP = 0⇔P = 0.
Torej je
sled (AA∗−A∗A) = 0, kar pomeni, da je AA∗ =A∗A.
Prva lastnost je očitna, druga pa je očitna samo v levo stran. Za dokaz v drugo stran upoštevajmo, da so vse lastne vrednosti pozitivno semi-definitne matrike ne- negativne in da je sled matrike enaka vsoti njenih lastnih vrednosti
sledP =
n
∑︂
i=1
λi(P)≥ (︄ n
∑︂
i=1
(λi(P))2 )︄1/2
.
Ker so pozitivno semi-definitne matrike tudi normalne, so lastne vrednosti enake singularnim vrednostim, torej dobimo
sledP ≥ (︄ n
∑︂
i=1
(λi(P))2 )︄1/2
= (︄ n
∑︂
i=1
(σi(P))2 )︄1/2
=∥P∥F = (︄ n
∑︂
i,j=1
|pij|2 )︄1/2
. To pomeni, da velja
0 = sledP ≥ (︄ n
∑︂
i,j=1
|pij|2 )︄1/2
, od koder sledi
sledP = 0⇒P = 0.
(1) ⇒(16): Ker je A∗A=AA∗, je
sled(A∗A)2 = sled(A∗AA∗A) = sled((A∗)2A2).
(16) ⇒ (1): Za dokaz v drugo smer upoštevajmo, da za kvadratne matrike X in Y enakih velikosti velja
sled(XY) = sled(Y X) in sled(X∗X) =∥X∥2F = 0⇔X = 0.
Sedaj izračunajmo sled matrike (A∗A− AA∗)∗(A∗A −AA∗) = (A∗A−AA∗)2 in dobimo
sled(A∗A−AA∗)2 = sled(A∗A)2−sled((A∗)2A2)−sled(A2(A∗)2) + sled(AA∗)2. Po predpostavki se odšteje prvi in drugi del ter tretji in četrti del. Tako dobimo, da je sled((A∗A−AA∗)∗(A∗A−AA∗)) = 0, kar pa pomeni da je A∗A−AA∗ = 0.
(16)⇔(17): Samo uporabimo ekvivalencosled(A∗A) = 0⇔A= 0.
(1) ⇒(18): Samo razpišemo∥Ax∥2 kot
∥Ax∥2 =⟨Ax, Ax⟩=⟨x, A∗Ax⟩=⟨x, AA∗x⟩=⟨A∗x, A∗x⟩=∥A∗x∥2.
(18)⇒(1): Dokaz te implikacije smo našli v Simonovi Foucartovi skripti [3, dokaz 2].
V to stran uporabimo dve lastnosti kompleksnih števil. Prva je, da za vsakz ∈C obstaja tak λ ∈ C, da velja |λ| = 1 in ℜ(λz) = |z|. Od tod dobimo, da za vsaka x, y ∈Cn obstaja λ∈Cdolžine ena, da velja
ℜ(λ⟨x,(A∗A−AA∗)y⟩) =|⟨x,(A∗A−AA∗)y⟩|.
Druga pa, da za vsaka x, y ∈Cn velja
∥x+y∥2 =⟨x+y, x+y⟩=∥x∥2+∥y∥2+⟨x, y⟩+⟨y, x⟩
=∥x∥2 +∥y∥2+⟨x, y⟩+⟨x, y⟩=∥x∥2+∥y∥2+ 2ℜ(⟨x, y⟩) Sedaj razpišemo obe strani enačbe ∥A(λx+y)∥2 =∥A∗(λx+y)∥2 in dobimo
∥Ax∥2 +∥Ay∥2 + 2ℜ(λ⟨Ax, Ay⟩) = ∥A∗x∥2+∥A∗y∥2+ 2ℜ(λ⟨A∗x, A∗y⟩) Ker velja ∥Ax∥2 =∥A∗x∥2 in∥Ay∥2 =∥A∗y∥2, dobimo
0 = ℜ(λ⟨Ax, Ay⟩ −λ⟨A∗x, A∗y⟩) =ℜ(λ⟨x, A∗Ay⟩ −λ⟨x, AA∗y⟩)
=ℜ(λ⟨x,(A∗A−AA∗)y⟩) = |⟨x,(A∗A−AA∗)y⟩|.
Ker je to res za vsak x∈Cn lahko sklepamo, da je(A∗A−AA∗)y = 0, kar pa drži za vsak y∈Cn, to pa pomeni da je A∗A−AA∗ = 0.
(19)⇔(1): Opazimo, da veljata naslednji ekvivalenci
A∗A =AA∗ ⇔ ⟨A∗Ax, y⟩=⟨AA∗x, y⟩ ⇔ ⟨Ax, Ay⟩=⟨A∗x, A∗y⟩, za vse x, y ∈Cn.
(20)⇒(1): Naj boA∗ =AU za neko unitarno matriko U, potem velja A∗A=A∗(A∗)∗ = (AU)(AU)∗ =AA∗.
(2) ⇒ (20): Naj bo A = V∗diag(λ1, λ2, . . . , λn)V, kjer je V unitarna matrika.
Za U vzemimo U =V∗diag(l1, l2, . . . , ln)V, kjer je li = λλi
i, če je λi ̸= 0, drugače je li = 1. Potem velja
A∗ =V∗diag(λ1, λ2, . . . , λn)V
=V∗diag(λ1, λ2, . . . , λn)V V∗diag(l1, l2, . . . , ln)V
=AU.
(2) ⇔(21): Dokaz je zelo podoben kot pri dvajseti trditvi.
(1) ⇔ (22): Naj bo A = U P polarni razcep A, torej je matrika U unitarna in P pozitivno semi-definitna. Iz osnovne zveze za normalnost matrike A∗A = AA∗ dobimo
P∗P =U P P∗U∗, oziroma
P2 =U P2U∗ =U P P U∗ =U P U∗U P U∗ = (U P U∗)2.
Zaradi enoličnosti v lemi 3.2je zgornja enakost ekvivalentna naslednji enakosti P =U P U∗,
kar pa nam da
P U =U P.
Torej je ekvivalenca dokazana.
(22)⇒(23): Če matrikoA pomnožimo z U, kjer jeU unitarna matrika iz polar- nega razcepa matrike A, dobimo
AU =U P U =U U P =U A.