• Tidak ada hasil yang ditemukan

BAB 2 LANDASAN TEORI 2.1 Transpose, Invers dan Determinan Matriks Definisi 2.1.1 Apabila terdapat suatu matriks - Analisis Perubahan Bentuk Permukaan Kuadrat Menggunakan Diagonalisasi Matriks

N/A
N/A
Protected

Academic year: 2019

Membagikan "BAB 2 LANDASAN TEORI 2.1 Transpose, Invers dan Determinan Matriks Definisi 2.1.1 Apabila terdapat suatu matriks - Analisis Perubahan Bentuk Permukaan Kuadrat Menggunakan Diagonalisasi Matriks"

Copied!
24
0
0

Teks penuh

(1)

BAB 2

LANDASAN TEORI

2.1 Transpose, Invers dan Determinan Matriks

Definisi 2.1.1 Apabila terdapat suatu matriks A[aij] berordo mn, maka transpose dari matriks A adalah T

A berordo nm yang dihasilkan dengan mempertukarkan baris dan kolom matriks A; yaitu, kolom pertama dari AT adalah baris pertama dari A, kolom kedua dari AT adalah baris kedua dari A, dan seterusnya.

Beberapa sifat matriks transpose:

(i). T T T

B A B

A )  

(

(ii). (AT)TA (iii). ( T) ( T)

kA A

k  , k suatu skalar.

(iv). T T T

A B AB)  (

Definisi 2.1.2 Suatu matriks A disebut simetris apabila transpose matriks A

sama dengan matriks A atau matriks A simetris bila T

A

A .

Contoh 2.1

  

 

  

  

 

6 0 4

0 7 2

4 2 1

A dan

  

 

  

  

 

6 0 4

0 7 2

4 2 1

T

A

A disebut matriks simetris, T

A

A .

(2)

Contoh 2.2 Misal

   

  

 

3 1

5 2

A dan

     

2 1

5 3 B

maka

I

AB

               

  

 

1 0

0 1 2 1

5 3 3 1

5 2

I

BA

         

  

 

     

1 0

0 1 3 1

5 2 2 1

5 3

Definisi 2.1.4 Jika A adalah matriks bujursangkar, maka minor dari entri a ij dinyatakan sebagai M ij dan didefinisikan sebagai determinan dari submatriks yang tersisa setelah baris ke-i dan kolom ke-j dihilangkan dari A. Nilai

ij j i

M  1)

( dinyatakan sebagai C ij dan disebut sebagai kofaktor dari entri a . ij Determinan dapat dinotasikan Aa11C11a12C12 ...a1nC1n.

Contoh 2.3 Misalkan

  

 

  

 

8 4 1

6 5 2

4 1 3 A

Determinan dari matriks A adalah

A =

4 1

5 2 ) 4 ( 8 1

6 2 1 8 4

6 5 3 13 13 12 12 11

11Ca Ca C     a

46 12 10 48 ) 3 ( 4 ) 10 ( 1 ) 16 (

3      

2.2 Sistem Persamaan Linier Homogen

(3)

0 ...

0 ...

2 2

22 1 21

1 2

12 1 11

 

 

 

 

n n

n n

x a x

a x a

x a x

a x a

   

0 ...

2 2 1

1  m   mn n

m x a x a x

a

Setiap sistem persamaan linier homogen adalah konsisten karena semua sistem memiliki solusi x1 0, x2 0, ... , xn 0. Solusi ini disebut solusi trivial; jika terdapat solusi lain, maka solusi-solusi tersebut disebut solusi nontrivial.

Contoh 2.4 Suatu sistem persamaan linier sebagai berikut 2

1 2

2xxx3 + x5= 0 1

x

 − x2+ 2x3− 3x4 + x5= 0

1

x + x2− 2x3x5= 0 3

x + x4 + x5= 0 Matriks yang diperbesar untuk sistem tersebut adalah

   

 

   

 

 

 

0 1

1 1 0 0

0 1 0 2 1 1

0 1

3 2 1 1

0 1

0 1 2 2

   

Dengan mereduksi matriks tersebut menjadi bentuk eselon baris, kita memperoleh

   

 

   

 

0 0 0 0 0 0

0 0 1 0 0 0

0 1 0 1 0 0

0 1 0 0 1 1

   

Sistem persamaan yang bersesuaian adalah 1

x + x2 + x5= 0 3

x + x5= 0 4

x = 0 Dengan menyelesaikan variabel-variabel utama diperoleh

5 2 1 x x x  

(4)

0 4  x Jadi, solusi umumnya adalah

t s

x1  , x2s, x3t, x4 0, x5t Perhatikan bahwa solusi trivial diperoleh bila st0.

2.3 Ruang Vektor dengan Ruang Hasil Kali Dalam

Definisi 2.3.1 Hasil kali dalam (inner product) pada sebuah ruang vektor real V

adalah sebuah fungsi yang mengasosiasikan sebuah bilangan real <u,v> dengan sepasang vektor u dan v di dalam V sedemikan hingga aksioma-aksioma berikut ini terpenuhi bagi semua vektor u, v dan w di dalam V dan semua bilangan skalar

k .

(i). < u, v > = < v, u > (Aksioma kesimetrian) (ii). < u + v, w > = < u, w > + < v, w > (Aksioma penjumlahan) (iii). < ku, v > = k< u, v > (Aksioma homogenitas)

(iv). < v, v > ≥ 0 (Aksioma positivitas)

dan < v, v > = 0 jika dan hanya jika v0.

Sebuah ruang vektor real yang memiliki sebuah hasil kali dalam disebut ruang hasil kali dalam real (real inner product space).

Definisi 2.3.2 Jika V adalah sebuah ruang hasil kali dalam, maka norma (norm) atau panjang (length) sebuah vektor u di dalam V dinotasikan dengan ||u|| dan didefinisikan sebagai

||u|| = < u, u >1/2

Jarak (distance) antara dua buah titik (vektor) u dan v dinotasikan dengan d(u, v) dan didefinisikan sebagai

d(u, v) = || u - v ||

Contoh 2.5 Misalkan u = (u1, u2) dan v = (v1, v2) adalah vektor-vektor pada R2.

Hasil kali dalam Euclidean berbobot

<u, v> = 3u1v1 + 2u2v2

(5)

(i). Aksioma kesimetrian;

< u, v > = 3u1v1 + 2u2v2 = 3v1u1 + 2v2u2 = < v, u >

yang membuktikan terpenuhinya aksioma pertama. (ii). Aksioma penjumlahan;

Jika w = (w1, w2), maka

< u +v, w > = 3(u1 + v1)w1 + 2(u2 + v2)w2

= (3u1w1 + 2u2w2) + (3v1w1 + 2v2w2)

= <u, w> + <v, w> yang membuktikan terpenuhinya aksioma kedua. (iii). Aksioma homogenitas;

Selanjutnya,

< ku, v > = 3(ku1)v1 + 2(ku2)v2 = k(3u1v1 + 2u2v2) = k< u, v > yang membuktikan terpenuhinya aksioma ketiga.

(iv). Aksioma positivitas; Akhirnya,

<v, v> = 3v1v1 + 2v2v2 = 3v12 + 2v22

Jelaslah, <v, v> = 3v12 + 2v22 ≥ 0. Lebih jauh lagi, <v, v> = 3v12 + 2v22 = 0

jika dan hanya jika v1 = v2. Dengan demikian, semua aksioma memenuhi

syarat.

2.4 Basis Ortonormal dan Matriks Ortogonal

2.4.1 Basis Ortonormal

Definisi 2.4.1 Himpunan S = {u1, u2, ..., uk} pada Rn adalah himpunan ortogonal jika <ui, uj> = 0, untuk setiap ij.

Definisi 2.4.2 Himpunan S = {u1, u2, ..., uk} pada Rn adalah ortonormal jika : (i). S adalah ortogonal

(6)

Contoh 2.6 Himpunan S = {u1, u2}, dengan u1= [0, 1, 0] dan u2= [1, 0, 1] adalah

ortogonal, karena :

<u1, u2> = 0(1) + 1(0) + 0(1) = 0

Karena ||u1|| = 1 dan ||u2|| = 2 maka S bukan himpunan ortonormal.

Dengan menormalisasikan masing-masing vektor dari S, diperoleh : v1 = u1/|| u1|| = 1[0, 1, 0] = [0, 1, 0], v2 = u2/|| u2|| =

2 1

[1, 0, 1] = 

2 1 , 0 , 2 1

{v1, v2}adalah himpunan yang ortonormal, karena :

(i). <u1, u2> 0 2 1 . 0 0 . 1 2 1 .

0   

(ii). ||v1|| = 1 dan ||v2|| = 1

Teorema 2.4.1 Jika S = {v1, v2, ..., vn} adalah suatu himpunan ortogonal vektor-vektor taknol pada sebuah ruang hasil kali dalam, maka S bebas linier.

Bukti. Asumsikan bahwa

k1v1 + k2v2 +...+ knvn = 0

Akan ditunjukkan bahwa S = {v1, v2, ..., vn} adalah bebas linier, yakni dengan membuktikan k1k2 ...kn 0.

Untuk setiap vi dalam S, berdasarkan asumsi diperoleh

< k1v1 + k2v2 +...+ knvn, vi > = < 0, vi > = 0 atau secara ekuivalen

k1< v1,vi> + k2< v2,vi> +...+ kn< vn,vi> = 0

Dari ortogonalitas S kita memperoleh <vj,vi> = 0 untuk ji, sehingga persamaan ini dapat disederhanakan menjadi

ki < vi,vi>ki vi,vi 0

Karena vektor-vektor di dalam S diasumsikan sebagai vektor-vektor taknol <vi,vi> ≠ 0 berdasarkan aksioma positivitas untuk hasil kali dalam. Dengan demikian, ki 0. Karena indeks i adalah sebarang, kita memperoleh

0 ...

2

1 k  kn

(7)

Teorema 2.4.2 Misalkan {v1, v2,..., vn} adalah basis ortonormal pada Rn dan misal u sembarang vektor pada n

R maka memenuhi : u = <u,v1> v1 + <u,v2> v2 +...+ <u,vn> vn dengan <u,v1> adalah koefisien dari vi .

Bukti. Misalkan S = {v1, v2,..., vn} adalah basis ortonormal pada Rn dan misal u sembarang vektor pada n

R , maka memenuhi : u = k1v1 + k2v2 +...+ knvn

dengan k1,k2,...,kn adalah skalar. Karena S adalah ortonormal maka ortogonal sedemikian hingga <vi, vj> = 0 untuk ij. Selebihnya, jika S adalah ortonormal, maka setiap vektor vi pada S adalah vektor satuan, yaitu <vi, vi> = ||vi||2 = 1. Misal

i memenuhi 1in, maka :

<vi, u> = <vi, k1v1 + k2v2 +...+ knvn >

= k1<vi, v1> + k2<vi, v2> +...+ ki<vi, vi> +...+ kn<vi, vn> 0

. ... 1 . ... 0 . 0

. 2

1 k ki kn

k     

 ki

Jadi terbukti koefisien dari vi

adalah i i

k  <vi, u> = vi.u = u.vi

Contoh 2.7 Misalkan

v1 = [0, 1, 0], v2 =

  



5 3 , 0 , 5 4

, v3 =

  

5 4 , 0 , 5 3

Maka V = {v1, v2, v3} adalah basis ortonormal untuk R3.

Akan diperlihatkan bahwa u = [1, 1, 1] adalah kombinasi linier vektor-vektor V . Sesuai teorema 2.4.2 didapatkan :

<u,v1> = 1; <u,v2> 5 1 

; <u,v3> 5 7 

dan

u = <u,v1> v1 + <u,v2> v2 + <u,v3> v3

[1, 1, 1] = 1 [0, 1, 0] +      

5 1

  



5 3 , 0 , 5 4

+ 

    

5 7

  

5 4 , 0 , 5 3

= [0, 1, 0] +  

25 3 , 0 , 25

4

+ 25 28 , 0 , 25 21

(8)

Teorema 2.4.3 (Proses Gram-Schmidt) Setiap ruang hasil kali dalam taknol berdimensi terhingga memiliki sebuah basis ortonormal.

Bukti. Misalkan V adalah suatu ruang hasil kali dalam taknol berdimensi terhingga sebarang dan misalkan {u1,u2,...,un} adalah basis sebarang untuk V . Akan ditunjukkan bahwa V memiliki sebuah basis ortogonal, karena vektor-vektor di dalam basis ortogonal itu dapat dinormalisasikan untuk menghasilkan sebuah basis ortonormal untuk V . Urutan langkah berikut ini akan menghasilkan sebuah basis ortogonal {v1,v2,...,vn} untuk V .

Langkah 1. Misalkan

v1 = u1 / || u1 ||

Langkah 2. Terdapat sebuah vektor v2 yang ortogonal terhadap v1 dengan

menghitung komponen v1 yang direntang oleh v1.

v1 = (u2– <u2, v1>v1) / || u2– <u2, v1>v1 ||

Langkah 3. Selanjutnya

v3 = (u3– <u3, v1>v1– <u3, v2>v2) / || u3– <u3, v1>v1– <u3, v2>v2 ||

dan seterusnya sampai vn. Setelah langkah ke-n akan diperoleh himpunan vektor-vektor ortogonal {v1,v2,...,vn}. Karena V berdimensi n dan setiap himpunan ortogonal bersifat bebas linier, maka himpunan {v1,v2,...,vn} adalah sebuah basis ortogonal bagi V.

Contoh 2.8 Diberikan 3

R beserta perkalian dalam Euclid dengan mempergunakan proses ortonormalisasi Gram-Schmidt transformasikan vektor-vektor basis

u1 = (1, 1, 1), u2 = (0, 1, 1) u3 = (0, 0, 1)

menjadi basis yang ortonormal. Vektor v1 yang ortonormal

v1 = u1 / ||u1||

 

 

3 1 , 3 1 , 3 1 1 , 1 , 1 3 1

Vektor v2 yang ortonormal

v1 = (u2– <u2, v1>v1) / || u2– <u2, v1>v1 ||

u2– <u2, v1>v1

 

   

3 1 , 3 1 , 3

2 3

(9)

maka

v1 = (u2– <u2, v1>v1) / || u2– <u2, v1>v1 ||  

  

 

6 1 , 6 1 , 6

2 3

1 , 3 1 , 3

2 6 3

Vektor v3 yang ortonormal

v3 = (u3– <u3, v1>v1– <u3, v2>v2) / || u3– <u3, v1>v1– <u3, v2>v2 ||

u3– <u3, v1>v1– <u3, v2>v2

    

6 1 , 6 1 , 6 2 6 1 3 1 , 3 1 , 3 1 3 1 1 , 0 , 0

  

  

2 1 , 2 1 , 0

maka

v3 = (u3– <u3, v1>v1– <u3, v2>v2) / || u3– <u3, v1>v1– <u3, v2>v2 ||

  

     

  

2 1 , 2 1 , 0 2 1 , 2 1 , 0 2

Jadi, v1 

3 1 , 3 1 , 3 1

, v2 

6 1 , 6 1 , 6 2

, v3  

2 1 , 2 1 , 0

Membentuk basis ortonormal untuk R3.

2.4.2. Matriks Ortogonal

Definisi 2.4.3 Matriks Aberordo nn adalah matriks ortogonal jika kolom-kolom dari matriks A adalah himpunan vektor kolom yang ortonormal.

Definisi 2.4.4 Sebuah matriks bujursangkar A yang memiliki sifat T

A A1 

disebut sebagai matriks ortogonal.

Teorema 2.6.4 Jika matiks A adalah matiks ortogonal, maka A 1.

Bukti. MatriksAortogonal jika dan hanya jika 1 

A

AT

A A A AT  1

(10)

kemudian

I A AT 

1  A AT

1

2

A

1   A

Contoh 2.9 Vektor-vektor u = [1, 0, 0], v =    5 1 , 5 2 ,

0 dan w = 

5 2 , 5 1 , 0 adalah vektor-vektor ortonormal. Sedemikian hingga matriks :

  

 

  

 

 

5 2 5 1 0

5 1 5 2 0

0 0

1 A

Adalah ortogonal, maka didapatkan :

  

 

  

 

 

5 2 5 1 0

5 1 5 2 0

0 0

1

1 T

A A

  

 

  

 

   

 

  

 

 

5 2 5 1 0

5 1 5 2 0

0 0

1

5 2 5 1 0

5 1 5 2 0

0 0

1 A AT

  

 

  

  

1 0 0

0 1 0

0 0 1

2.5 Ekuivalensi Bentuk Kuadrat

Sebelumnya akan didefinisikan suatu operasi elementer pada matriks.

Definisi 2.5.1 Operasi elementer pada matriks A adalah:

(i). Penukaran tempat antara dua baris atau dua kolom, yakni baris ke-i dengan baris ke-j atau kolom ke-i dengan kolom ke-j.

(11)

(iii). Menambah baris ke-i dengan 𝛼 kali baris ke-j atau menambah kolom ke-i dengan konstanta 𝛼 kali kolom ke-j.

Definisi 2.5.2 Dua matriks A dan B yang berordo sama dikatakan ekuivalen bila salah satu matriks tersebut dapat diperoleh dari matriks yang lain dengan menggunakan operasi elementer. Atau dengan kata lain, dua matriks A dan B yang berordo sama disebut ekuivalen jika B = PAQ untuk suatu matriks P dan Q yang tak singular atau matriks elementer.

Untuk relasi ekuivalensi ini diberikan simbol ‘ ~ ‘. A~ B memiliki arti A

ekuivalen dengan B. Relasi ekuivalen, yaitu : (i). A~ A untuk setiap matriks A

(ii). A~B maka B ~ A

(iii). A~B dan B~C maka A~C

Contoh 2.10

  

 

  

  

1 2 3

3 1 2

3 2 1 A

  

 

  

  

1 0 0

1 1 0

3 2 1 B

maka

3 2 1

3 1 2

4 13 1 ~ 8 4 0

3 3 0

3 2 1

3 2 ~ 1 2 3

3 1 2

3 2 1

b b b

b b b A

      

    

 

  

     

     

B

b b

   

 

  

 

   

 

  

 

1 0 0

1 1 0

3 2 1 ~

2 1 0

1 1 0

3 2 1

2 3

ditulis A~B. Di mana b1 yaitu baris ke-1, b2 yaitu baris ke-2 dan b3 yaitu baris ke-3.

Definisi 2.5.3 Dua bentuk kuadrat xTAx dan yTBy disebut ekuivalen jika dan hanya jika terdapat matriks tak singular P yang memenuhi x = Py dan

AP P

(12)

xTAx = (Py)TA(Py) = yTPT A Py = yT (PTAP) y = yTBy

2.6 Nilai Eigen, Vektor Eigen dan Ruang Eigen

Definisi 2.8.1 Misalkan A adalah sebuah matriks nn. Skalar  disebut nilai eigen dari A ketika sebuah vektor x sedemikian hingga Ax = λx. Vektor x disebut vektor eigen dari A yang bersesuaian terhadap λ. Vektor eigen A terhadap λ yang didapat merupakan vektor tak nol di dalam ruang solusi pada sistem linier. Ruang solusi ini disebut ruang eigen yang tersusun atas basis ruang eigen. Dari persamaan Ax = λx didapatkan:

λx – Ax = (λI– A) x 2 0

1

2 1

2 22

21

1 12

11

  

  

 

    

 

   

 

   

 

   

 

 

 

 

n nn n

n

n n

x x x

a a

a

a a

a

a a

a

 

 

 

Sistem persamaan homogen di atas mempunyai solusi tak trivial jika dan hanya jika IA 0. Penguraian determinan ini akan menghasilkan suatu polinomial P

 

 berderajat n yang biasa disebut sebagai persamaan karakteristik. Metode pencarian akarnya dapat dicari dengan pemfaktoran, rumus ABC (jika persamaan kuadrat) dan pembagian sintetis (aturan horner).

Contoh 2.11

  

 

  

  

4 2 2

2 4 2

2 2 4 A

Karena

  

 

  

 

 

  

 

  

4 2

2

2 4 2

2 2

4

 

 I A

(13)

0

Dijabarkan sebagai berikut

4

3(2)3(2)3(2)2

4

(2)2

4

(2)2

4

0

akan diselesaikan dengan operasi baris elementer sebagai berikut

sehingga vektor eigen yang bersesuaian dengan  2 adalah

x

(14)

2

akan diselesaikan dengan operasi baris elementer sebagai berikut

sehingga vektor eigen yang bersesuaian dengan  8 adalah

x

adalah basis pada ruang eigen yang bersesuaian dengan  8.

2.7 Diagonalisasi Matriks dan Diagonalisasi secara Ortogonal

(15)

Teorema 2.7.1 Jika A adalah sebuah matriks nn, maka kedua pernyataan berikut adalah ekuivalen.

(i). A dapat didiagonalisasi

(ii). A memiliki n vektor eigen yang bebas linier.

Bukti. (i) (ii) Karena A diasumsikan dapat didiagonalisasi, maka terdapat sebuah matriks yang dapat dibalik

 memperoleh

Ap1 = λ1p1, Ap2 = λ2p2, ... Apn = λnpn (2.2) Karena P dapat dibalik, vektor-vektor kolomnya semua tak nol; sehingga, berdasarkan persamaan (2.2) 1,2,...,n adalah nilai-nilai eigen dari A, dan p1,

(16)

(ii) (i) Berdasarkan perkalian matriks, vektor-vektor kolom dari matriks AP adalah

Ap1, Ap2,..., Apn Namun

Ap1 = λ1p1, Ap2 = λ2p2, ... Apn = λnpn sehingga

PD sebagai entri-entri diagonal utamanya. Karena vektor-vektor kolom matriks P bebas linier; sehingga, persamaan (2.3) dapat dinotasikan sebagai P1APD

dengan demikian matriks A dapat didiagonalisasi.

Berdasarkan teorema 2.7.1 di atas didapatlah langkah-langkah untuk mendiagonalisasi sebuah matriks A berordo nn yang dapat didiagonalisasi, yaitu :

Langkah 1. Tentukan nilai-nilai eigen matriks A.

Langkah 2. Tentukan n vektor eigen yang bebas linier dari matriks A, yaitu p1,

p2,..., pn.

Langkah 3. Bentuk matriks P yang kolomnya adalah vektor-vektor dengan p1,

p2,..., pn sebagai vektor-vektor kolomnya matriks.

(17)

n  

1, 2,..., sebagai entri-entri diagonalnya secara berurutan, di mana

i

 adalah nilai eigen yang terkait dengan pi , untuk i1,2,...,n. Contoh 2.12

Karena

maka persamaan karakteristik matriks A adalah

1



5

2 0

akan diselesaikan dengan operasi baris elementer sebagai berikut

sehingga vektor eigen yang bersesuaian dengan  5 adalah

(18)

maka p1

adalah basis pada ruang eigen yang bersesuaian

dengan  5.

akan diselesaikan dengan operasi baris elementer sebagai berikut

Sehingga vektor eigen yang bersesuaian dengan  1 adalah

x

(19)

Contoh 2.13 Persamaan karakteristik dari matriks

akan diselesaikan dengan operasi baris elementer sebagai berikut  vektor eigen yang bersesuaian dengan  1 adalah

x

Karena merupakan ruang eigen yang berdimensi satu, maka A tidak mempunyai dua vektor eigen yang bebas linier, sehingga A tidak dapat didiagonalisasi.

Teorema 2.7.2 Jika v1,v2,...,vk adalah vektor eigen dari matriks A yang bersesuaian dengan nilai-nilai eigen yang berbeda 1,2,...,k, maka {v1,v2,...,vk} adalah himpunan vektor bebas linier.

(20)

nilai-nilai eigen yang berbeda 1,2,...,k. Misalkan v1,v2,...,vk adalah tidak bebas linier agar didapatkan kontradiksinya. Agar disimpulkan v1,v2,...,vk bebas linier. Karena vektor eigen menurut definisi adalah tak nol, maka {v1} adalah bebas

linier. Misalkan r adalah bilangan bulat terbesar sehingga {v1,v2,...,vk} bebas linier. Karena diasumsikan bahwa {v1,v2,...,vk} tidak bebas linier, r memenuhi syarat 1rk. Selanjutnya, sesuai definisi r, {v1,v2,...,vr+1} tidak bebas linier.

Dengan demikian, skalar c1,c2,...,cr1, tidak semuanya nol, sehingga

c1v1 + c2v2 +...+ cr+1vr+1 = 0 (2.4)

Dengan mengalikan kedua sisi pada (2.4) dengan matriks A dan menerapkan Av1 = λ1v1, Av2 = λ2v2, ..., Avr+1 = λ1vr+1

kita memperoleh

c1λ1v1 + c2λ2v2 +...+ cr+1λr+1vr+1 = 0 (2.5)

Dengan mengalikan kedua sisi (2.4) dengan r1 dan mengurangkan persamaan yang diperoleh dari (2.5) menghasilkan

c1(λ1–λr+1)v1 + c2(λ2–λr+1)v2 +...+ cr (λrλr+1)vr = 0

Karena {v1,v2,...,vr} merupakan himpunan bebas linier, persamaan ini mengakibatkan

1 1

2

2 1

...

1

0

1  r cr  cr rr 

c      

dan karena 1,2,...,r1 berbeda, maka diperoleh 0 ...

2

1 c  cr

c (2.6)

Substitusi nilai-nilai ini pada (2.4) akan menghasilkan cr+1vr+1

Karena vektor eigen vr+1 tidak nol, maka

0 1   r

c (2.7)

Persamaan (2.6) dan (2.7) bertentangan dengan hal yang terjadi bahwa 1

2 1,c ,...,cr

(21)

Contoh 2.14 Dari contoh 2.12 didapatkan matriks

    

      

0 1 0

1 0 1

1 0 1 P

di mana kolom-kolomnya adalah vektor eigen. Karena P 0 maka vektor- vektor kolomnya adalah vektor-vektor yang bebas linier.

Teorema 2.7.3 Jika sebuah matriks A berordo nn memiliki n nilai eigen yang berbeda, maka A dapat didiagonalisasi.

Bukti. Jika v1,v2,...,vn adalah vektor-vektor eigen yang terkait dengan nilai-nilai eigen yang berbeda

1,

2,...,

n, maka sesuai teorema 2.7.2, v1,v2,...,vn bebas linier. Jadi sesuai dengan teorema 2.7.1 maka A dapat didiagonalisasi.

Contoh 2.15 Misalkan sebuah matriks

    

    

 

8 17 4

1 0 0

0 1 0 A

memiliki tiga nilai eigen yang berbeda, 1 4,2 2 3 dan 3 2 3. Oleh karena itu, A dapat didiagonalisasi. Yakni :

    

    

 

 

3 2 0 0

0 3 2 0

0 0

4 1AP P

Selanjutnya untuk menentukan matriks P dapat digunakan cara yang sesuai teorema 2.7.1.

Definisi 2.7.2 Matriks bujursangkar A dapat didiagonalisasi secara ortogonal jika terdapat matriks P yang ortogonal sehingga P1APPTAP diagonal. Matriks

P disebut mendiagonalisasi A secara ortogonal.

(22)

(i). A dapat didiagonalisasi secara ortogonal.

(ii). A memiliki sebuah himpunan vektor-vektor eigen yang ortonormal.

Bukti. (i)  (ii) Karena A dapat didiagonalisasi secara ortogonal, maka terdapat sebuah matriks ortogonal P sedemikian hingga matriks P1APadalah diagonal. Sesuai teorema 2.7.1, n vektor kolom matriks P adalah vektor-vektor eigen matriks A. Karena P ortogonal, ortogonal vektor-vektor kolom ini adalah ortonormal, sehingga A memiliki n vektor eigen yang ortonormal.

(ii)  (i) Asumsikan bahwa A memiliki sebuah himpunan ortonormal yang terdiri dari n vektor eigen { p1,p2,...,pn }. Sebagaimana ditunjukkan dalam pembuktian pada teorema 2.7.1, matriks P dengan vektor-vektor eigen ini sebagai kolom-kolomnya akan mendiagonalisasi A. Karena vektor-vektor eigen ini ortonormal, maka P ortogonal sehingga akan mendiagonalisasi A secara ortogonal.

Teorema 2.7.5 Jika A adalah matriks yang dapat didiagonalisasi maka A adalah matiks simetris.

Bukti. Misalkan A dapat didiagonalisasi secara ortogonal, terdapat matriks P yang ortogonal sedemikian hingga :

AP P D 1 Jadi,

1  PDP A

atau, karena ortogonal, maka :

T PDP A sehingga

PDP

PD P PDP A

ATT TT TT

terbukti bahwa A simetris.

(23)

Bukti. Misalkan v1 dan v2 adalah vektor-vektor eigen yang terkait dengan dua nilai

eigen yang berbeda, yaitu 1 dan 2 dari matriks A. Akan ditunjukkan bahwa v1.v2 = 0. Pembuktian mengenai hal ini melibatkan suatu trik yang dimulai dengan

menyatakan Av1.v2. Dari sifat perkalian vektor dan sifat simetris matriks akan A

diperoleh

Av1.v2 = v1. ATv2 = v1. Av2 (2.8)

Tetapi v1 adalah sebuah vektor eigen matriks A yang berhubungan dengan 1dan

v2 adalah sebuah vektor eigen matriks A yang berhubungan dengan 2, sehingga

persamaan (2.8) menghasilkan hubungan

λ1v1.v2 = v1. λ2v2

dapat dituliskan kembali sebagai

(λ1–λ2)v1.v2 = 0 (2.9)

Karena 12 0, karena 1 dan 2 diasumsikan berbeda. Oleh karena itu, dari persamaan (2.9) diperoleh v1.v2 = 0.

Akibat teorema 2.7.6 di atas, berikut langkah-langkah yang dapat dilakukan untuk mendiagonalisasi matriks simetris yang ortogonal:

Langkah 1. Tentukan sebuah basis untuk setiap ruang eigen matriks A.

Langkah 2. Gunakan proses Gram-Schmidt pada masing-masing basis berikut untuk memperoleh sebuah basis ortonormal pada setiap ruang eigen. Langkah 3. Bentuklah sebuah matriks P yang kolom-kolomnya adalah vektor-vektor basis yang dibuat pada langkah 2; matriks ini secara ortogonal mendiagonalisasi A.

Contoh 2.16 Tentukan sebuah matriks ortogonal P yang mendiagonalisasi

    

     

4 2 2

2 4 2

2 2 4 A

(24)

2

 

8

0 4

2 2

2 4 2

2 2 4

2

 

  

I A

Sehingga, nilai-nilai eigen dari Aadalah  2 dan  8. Dengan menggunakan pencarian basis, dapat ditunjukkan bahwa

u1

  

 

  

  

0 1 1

dan u2

  

 

  

  

1 0 1

membentuk sebuah basis untuk ruang eigen yang terkait dangan  2. Dengan menerapkan proses Gram-Schmidt pada {u1,u2} akan menghasilkan vektor-vektor

eigen ortonormal seperti berikut:

v1

  

 

  

  

0 2 1

2 1

dan v2

  

 

  

    

6 2

6 1

6 1

Ruang eigen yang terkait dengan  8 memiliki

u3

    

     

1 1 1

sebagai sebuah basis. Dengan menerapkan proses Gram-Schmidt pada {u3} akan

menghasilkan

v3

  

 

  

  

3 1

3 1

3 1

Akhirnya, dengan menggunakan v1, v2 dan v3 sebagai vektor-vektor kolom

diperoleh

  

 

  

 

  

3 1 6 2 0

3 1 6 1 2 1

3 1 6 1 2 1 P

Referensi

Dokumen terkait