• Tidak ada hasil yang ditemukan

BAB 2 LANDASAN TEORI. 2.1 Definisi Citra, Pengolahan Citra, dan Pengenalan Pola

N/A
N/A
Protected

Academic year: 2021

Membagikan "BAB 2 LANDASAN TEORI. 2.1 Definisi Citra, Pengolahan Citra, dan Pengenalan Pola"

Copied!
16
0
0

Teks penuh

(1)

LANDASAN TEORI

2.1 Definisi Citra, Pengolahan Citra, dan Pengenalan Pola

Citra dapat didefinisikan sebagai fungsi dua dimensi dari f(x,y) di mana x

dan y adalah koordinat bidang dan amplitudo dari f pada pasangan koordinat

apapun adalah intensitas atau tingkat keabu – abuan dari citra pada titik tersebut. Jika x, y, dan nilai intensitas dari f tersebut berhingga, bernilai diskrit, citra

tersebut disebut citra digital (Gonzalez and Woods, 2008, p. 1).

Pengolahan citra (image processing) merupakan bidang yang

behrubungan dengan proses transformasi citra (image) yang bertujuan untuk

mendapatkan kualitas citra yang lebih baik (Fairhurst, 1988, p. 5).

Pengenalan pola (pattern recognition) merupakan bidang ilmu yang

melakukan proses analisis gambar yang inputnya adalah gambar ataupun citra digital dan menghasilkan output suatu deskripsi dengan tujuan untuk mendapatkan informasi yang disampaikan oleh gambar atau citra, dengan kata lain meniru kemampuan manusia (otak manusia) dalam mengenali suatu objek atau pola terentu (Fairhurst, 1988, p. 5).

(2)

2.2 Computer Vision

Computer vision merupakan ilmu yang mempelajari bagaimana komputer

dapat mengenali obyek yang diamati (Fairhurst, 1988, p. 5). Computer vision

adalah kombinasi antara pengolahan citra dan pengenalan pola. Computer vision

bersama intelegensia semu (artificial intelligence) akan mampu menghasilkan

sistem intelegen visual (visual intelligence system).

2.3 Matriks

Matriks adalah sebuah cara yang dengan unik merepresentasikan dan bekerja dalam transformasi linear. Dengan kata lain, setiap transformasi linear dapat direpresentasikan dengan matriks, dan setiap matriks berhubungan dengan transformasi linear yang khas. Matriks dan determinan merupakan konsep yang sangat penting dalam aljabar linear, dan pertama kali diformulasikan oleh Sylvester (1851) dan Cayley.

2.3.1 Matriks Ortogonal

Sebuah matriks Anxn adalah matriks ortogonal jika AAT = I dimana AT adalah matriks transpose dari A dan I adalah matriks identitas. Dengan kata lain, matriks ortogonal selalu memiliki invers dan A-1 = AT.

(3)

2.3.2 Matriks Invers

Invers dari sebuah matriks bujur sangkar A, disebut juga matriks kebalikan, adalah sebuah matriks A-1 yang memenuhi AA-1 = I di mana I adalah matriks identitas. Sebuah matriks bujur sangkar A memiliki invers jika dan hanya jika determinan ||A|| ≠ 0 (Lipschutz, 1991, p. 45). Matriks yang memiliki invers disebut juga matriks non-singular.

2.3.3 Matriks Singular

Matriks singular adalah matriks yang tidak memiliki invers. Sebuah matriks bujur sangkar A adalah matriks singular jika dan hanya jika determinan

||A|| = 0.

2.3.4 Matriks Kovarian

Jika terdapat n himpunan yang dinotasikan dengan {X1}, {X2}, …, {Xn}, matriks kovarian orde pertama didefinisikan dengan Vij = cov(xi, xj) ≡ [(xi - µi) (xj - µj)] di mana µi adalah rata – rata (mean). Matriks dengan orde lebih tinggi

didefinisikan dengan Vijmn = [(xi - µi)m (xj - µj)n]. Elemen matriks individual Vij = cov(xi, xj) disebut juga kovarian dari xi dan xj.

(4)

2.3.5 Matriks Identitas

Matriks identitas adalah diagonal matriks paling sederhana yang didefinisikan oleh I(X) ≡ X untuk semua vektor X. Matriks identitas dapat dinotasikan dengan 1, I, atau E (singkatan dari istilah dalam Bahasa Jerman

Einheitsmatrix”; Courant dan Hilbert, 1989, p. 7). Matriks identitas juga

dikenalan sebagai matriks unit (Akivis dan Goldberg, 1972, p. 71).

2.3.6 Matriks Transpose

Matriks transpose A atau AT adalah matriks yang didapat dengan menukar setiap baris pada A menjadi kolom pada matriks AT, (aij = aji), dan memenuhi (AT)-1 = (A-1)T.

2.3.7 Nilai Eigen

Nilai eigen adalah himpunan khusus dari skalar yang berhubungan dengan persamaan sistem linear yang dikenal juga dengan nama akar karakteristik (Hoffman dan Kunze, 1971), proper values, atau latent roots

(5)

2.3.8 Vektor Eigen

Vektor eigen adalah himpunan khusus dari vektor yang berhubungan dengan persamaan sistem linear yang dikenal juga dengan nama vektor karakteristik, proper vector, atau latent vector (Marcus dan Minc, 1988, p. 144).

Vektor eigen dan nilai eigen dalam sebuah sistem sangat berpengaruh pada bidang fisika dan teknik, di mana vektor eigen ekuivalen dengan diagonalisasi matriks dan sering muncul pada aplikasi – aplikasi yang umum seperti analisis stabilitas, fisika rotasi, sistem getaran, dan lainnya.

Dekomposisi sebuah matriks bujur sangkar A menjadi nilai eigen dan vektor eigen dikenal dengan dekomposisi eigen, dan adalah fakta bahwa dekomposisi ini selalu mungkin dilakukan selama matriksnya adalah matriks bujur sangkar dikenal dengan Eigen Decomposition Theorem.

2.4 Principal Component Analysis

Principal Component Analysis (PCA) merupakan salah satu metode

paling sering digunakan dalam pengenalan citra dan kompresi data. Tujuan dari PCA adalah untuk mereduksi dimensi yang besar dari ruang data (observed

variables) menjadi dimensi intrinsik yang lebih kecil dari ruang fitur

(independent variables), yang dibutuhkan untuk mendeskripsikan data lebih

(6)

Pekerjaan yang bisa dilakukan oleh PCA antara lain adalah prediksi, penghapusan redundansi, ekstraksi fitur, kompresi data, dan lainnya. Karena PCA merupakan metode yang bisa bekerja pada wilayah linear, maka aplikasi – aplikasi yang memiliki model linear dapat menggunakan metode ini, seperti pengolahan sinyal, pengolahan citra, komunikasi, dan lainnya. Algoritma dari Principal Component Analysis adalah sebagai berikut:

1. Prepare the data

Kumpulkan seluruh data yang akan diproses dalam sebuah matriks.

2. Subtract the mean

Agar PCA dapat bekerja dengan benar, rata – rata dari data harus dikurangkan dari setiap data yang ada. Rata – rata yang dikurangkan merupakan rata – rata dari setiap dimensi yang ada. Sehingga, setiap nilai x memiliki rata – rata x yang akan dikurangkan dan setiap nilai y memiliki rata – rata y yang akan dikurangkan.

3. Calculate the covariance matrix

Hitung matriks kovarian dari matriks yang telah dikurangkan dengan rata – ratanya.

4. Calculate the eigenvectors and eigenvalues of the covariance matrix Hitung vektor eigen dan nilai eigen dari matriks kovarian yang sudah didapat sebelumnya. Penghitungan vektor eigen dari matriks kovarian

(7)

yang dimiliki, memungkinkan untuk mengekstraksi karakteristik dari data.

5. Choosing components and forming a feature vector

Pada umumnya, setelah vektor eigen didapatkan dari matriks kovarian, langkah selanjutnya adalah mengurutkan vektor eigen tersebut berdasarkan nilai eigennya, dari paling tinggi ke paling rendah. Hal ini membuat vektor eigen tersusun berdasarkan besar pengaruhnya. Vektor eigen yang tidak terlalu berpengaruh (memiliki nilai eigen yang kecil) dapat dihilangkan sehingga dimensi matriks menjadi lebih kecil, namun informasi dari data dapat hilang walaupun sedikit.

6. Deriving the new data set

Langkah terakhir adalah untuk mendapatkan nilai data baru dengan mengalikan matriks dari vektor eigen yang didapat dari langkah sebelumnya dengan data lama yang sudah dikurangi dengan rata – ratanya.

2.5 Orthogonal Locality Preserving Projection

Laplacianfaces adalah metode linear yang baru diajukan untuk

(8)

Preserving Projection (LPP) dan dengan tegas memperhitungkan struktur manifold dari wajah.

Diberikan sebuah himpunan citra wajah {x1, x2, …, xn} ⊂ Rm, dan X = [x1, x2, …, xn]. S menjadi matriks similaritas yang terdefinisi pada titik – titik data. Laplacianfaces dapat diperoleh dengan menyelesaikan permasalahan

minimalisasi berikut:

(

)

a XLX a min arg S x a x a min arg a T T a n 1 i n 1 j ij 2 j T i T a opt = − =

∑∑

= =

dengan batasan aTXDXTa = 1, di mana L = D - S adalah graph laplacian dan Dii

= ∑jSij. Dii mengukur kepadatan lokal dari xj. Laplacianfaces mengkonstruksikan

matriks similaritas S menjadi t xj xi ij 2 e S − −

= untuk xi dan xj berhubungan dan Sij = 0 untuk xi dan xj tidak berhubungan.

Fungsi objektif pada Laplacianfaces mengalami penalti jika titik – titik

yang berdekatan, xi dengan xj, dipetakan berjauhan. Karena itu, menyelesaikan permasalahan minimalisasi di atas merupakan usaha untuk memastikan bahwa xi dan xj berdekatan, sehingga yi(=aTxi) dan yj(=aTxj) juga berdekatan. Pada akhirnya, fungsi basis dari Laplacianfaces adalah vektor eigen yang

berhubungan dengan nilai eigen terkecil dari masalah eigen XLXTa = λXDXTa.

XDXT menjadi tunggal setelah beberapa tahap pemrosesan terhadap X pada

(9)

vektor eigen dari matriks (XDXT)-1 XLXT yang berhubungan dengan nilai eigen terkecil. Karena pada umumnya matriks (XDXT)-1 XLXT tidak simetris, fungsi basis dari Laplacianfaces tidak ortogonal.

Setelah vektor eigen dihitung, Ak = [a1, a2, …, ak] menjadi matriks transformasi. Sehingga jarak Euclidean antara dua titik data pada ruang tereduksi

dapat dihitung sebagai berikut:

(

)

(

)

T

(

i j

)

T j i j i T j T i T j i j i x x AA x x x x A x A x A y y ) y , dist(y − − = − = − = − =

Jika A adalah matriks ortogonal, maka AAT = I dan struktur metrik tetap terjaga.

2.6 Orthogonal Laplacianfaces

Algoritma dari metode Orthogonal Laplacianfaces untuk representasi dan

pengenalan wajah berdasarkan kepada Orthogonal Locality Preserving

Projection (OLPP). Pada analisis wajah berdasarkan penampilan, masalah yang

sering ditemukan adalah vektor dari citra wajah jumlahnya lebih besar dibandingkan dengan jumlah citra wajah itu sendiri, sehingga matriks XDXT bersifat tunggal. Untuk mengatasi masalah tersebut, metode PCA dapat diaplikasikan untuk memproyeksikan wajah ke dalam sebuah sub-ruang tanpa harus kehilangan informasi apapun dan matriks XDXT menjadi tidak tunggal.

(10)

Algoritma dari Orthogonal Locality Preserving Projection adalah sebagai

berikut:

1. PCA projection

Memproyeksikan citra wajah xi ke dalam sub-ruang PCA dengan cara menghilangkan komponen – komponen terkecil yang memiliki nilai eigen menuju nol. Matriks transformasi yang dihasilkan oleh PCA dinotasikan dengan WPCA. Dengan proyeksi PCA, wajah – wajah yang diekstrak tidak berhubungan (berdasarkan statistik) dan rank dari matriks yang baru

sama besarnya dengan jumlah dimensi.

2. Constructing the adjacency graph

G menunjuk pada sebuah graph dengan n titik. Titik ke-i menunjuk

kepada citra wajah xi. Sebuah sudut diletakkan antara titik i dan j jika xi dan xj berdekatan, contohnya, xi berada di antara p nearest-neighbors dari

xj atau xj berada di antara p nearest-neighbors dari xi. Perlu dicatat, jika

informasi kelas tersedia, sudut antara dua titik data dalam satu kelas dapat dengan mudah diletakkan.

3. Choosing the weights

Jika titik i dan j berhubungan, maka Sij = ed, d = -||xi – xj||2 t-1, t adalah konstanta yang cocok. Sebaliknya, jika titik i dan j tidak berhubungan maka Sij = 0. Matriks bobot S pada graph G memodelkan struktur lokal dari manifold wajah.

(11)

4. Computing the orthogonal basis function

D didefinisikan sebagai matriks diagonal yang elemen – elemennya adalah kolom (atau baris, dikarenakan S simetris) penjumlahan dari S, Dii = ∑jSij. Didefinisikan juga L = D - S yang merupakan matriks Laplacian

pada teori Spectral Graph. {a1, a2, …, ak} adalah vektor basis ortogonal.

Didefinisikan A(k-1) = [a1, a2, …, ak-1] dan B(k-1) = [A(k-1)]T (XDXT)-1 A(k-1).

Vektor basis ortogonal {a1, a2, …, ak} dapat dihitung sebagai berikut:

- Hitung a1 sebagai vektor eigen dari (XDXT)-1 XLXT yang berhubungan dengan nilai eigen terkecil.

- Hitung ak sebagai vektor eigen dari M(k) = {I – (XDXT)-1 A(k-1) [B(k-1)] -1 [A(k-1)]T} (XDXT)-1 XLXT yang berhubungan dengan nilai eigen terkecil dari M(k).

5. OLPP embedding

WOLPP = [a1, a2, …, al], embedding-nya adalah sebagai berikut:

x → y = WT x, W = WPCA WOLPP, y adalah representasi berdimensi l dari citra wajah x, dan W adalah matriks transformasi.

(12)

2.7 Nearest-neighbor Classifier

Nearest-neighbor Classifier adalah sebuah metode sederhana yang

digunakan untuk mengklasifikasikan sebuah objek baru berdasarkan kesamaan data pada objek yang berada pada training set. Nilai k yang ada pada

Nearest-neighbor Classifier adalah parameter jumlah nearest-neighbor yang

akan diambil untuk klasifikasi data baru. Algoritma dari Nearest-neighbor Classifier adalah sebagai berikut:

1. Menentukan nilai k (banyaknya nearest-neighbor).

2. Hitung jarak antara data – data pada objek baru dengan data – data pada

objek yang lama dengan rumus ( )

(

)

= − = n 1 i 2 i i y x, x y D dimana x adalah

objek baru, y adalah objek yang berada pada training set, n adalah jumlah

pixel, dan D(x,y) adalah jarak antara objek baru dengan objek pada

training set.

3. Urutkan objek berdasarkan jarak yang didapat dan ambil k objek yang memiliki nilai D(x,y) paling kecil.

4. Mengumpulkan kategori dari setiap objek yang termasuk nearest-neighbor.

5. Objek baru termasuk dalam kategori yang paling banyak muncul dari objek yang termasuk nearest-neighbor.

(13)

2.8 Perangkat Lunak

Perangkat lunak adalah (1) instruksi – instruksi (program komputer) yang ketika dieksekusi akan memberikan fungsi dan performa seperti yang diinginkan, (2) struktur data yang memungkinkan program memanipulasi informasi secara proporsional, dan (3) dokumen yang menggambarkan operasi dan penggunaan program (Pressman, 2001, p6)

Perangcangan perangkat lunak adalah disiplin perancangan yang berhubungan dengan semua aspek dari produksi perangkat lunak dari tahap awal spesifikasi sistem sampai dengan pemeliharaan setelah sistem dalam tahap berjalan (Sommerville, 2001, p6).

Salah satu model perancangan perangkat lunak adalah Waterfall Model

atau dikenal juga dengan Linear Sequential Model. Menurut Pressman (2001,

p28), Waterfall Model meliputi beberapa aktivitas berikut:

- Problem Definition/Concept Exploration

Perangkat lunak selalu menjadi bagian sistem yang lebih besar, sehingga pekerjaan dimulai dari menentukan kebutuhan untuk semua elemen sistem dan kemudian menempatkan beberapa sub-bagian dari kebutuhan pada perangkat lunak. Pengamatan terhadap sistem menjadi penting ketika perangkat lunak harus berinteraksi dengan elemen lainnya seperti perangkat keras, manusia, dan database.

(14)

- Requirements Analysis Specification

Mengerti jenis program yang akan dibuat, pembuat perangkat lunak harus mengerti domain informasi dari perangkat lunaknya, begitu juga fungsi yang dibutuhkan, tingkah laku, performa, dan antarmuka.

- Design Prototyping

Desain perangkat lunak sebenarnya adalah sebuah proses bertingkat yang terkonsentrasi pada empat buat atribut berbeda dari program, yaitu struktur data, arsitektur perangkat lunak, representasi antar-muka, dan prosedur (algoritma) rinci.

- Implementation and Unit Testing

Desain yang diajukan harus bisa ditranslasikan menjadi bentuk yang bisa dibaca oleh mesin sehingga mampu diimplementasikan. Jika desain dapat dikerjakan secara rinci, unit testing dapat diselesaikan secara mekanis.

- Integration and System Testing

Setelah kode program diselesaikan, percobaan terhadap program dilakukan. Proses percobaan difokuskan pada bagian internal perangkat lunak, memastikan semua pernyataan sudah dicoba, dan juga pada fungsi eksternal; yaitu, melakukan tes untuk menemukan kesalahan dan memastikan bahwa dari input yang diberikan, akan keluar hasil yang diinginkan.

(15)

- Release, Operation, and Maintenance

Perangkat lunak akan mengalami perubahan setelah diberikan kepada pelanggan. Perubahan akan terjadi karena kesalahan yang ditemukan, karena keperluan untuk beradaptasi dengan perubahan lingkungan, atau karena pelanggan membutuhkan penambahan fungsi atau peningkatan performa.

Gambar 2.1 Waterfall Model.

2.9 C#

Menurut Bradley L. Jones (2001), C# adalah sebuah bahasa pemrograman baru yang dibuat oleh Microsoft dan telah diajukan kepada ECMA untuk standardisasi. Bahasa pemrograman C# dibuat oleh sebuah tim dari Microsoft yang dipimpin oleh Anders Hejlsberg yang sebelumnya telah membuat bahasa pemrograman lain yaitu Turbo Pascal dan Delphi.

(16)

2.10 Makalah Relevan

Penelitian – penelitian yang pernah dilakukan oleh peneliti lain yang berhubungan dengan penelitian terkait dengan penulisan skripsi ini adalah sebagai berikut:

1. Orthogonal Laplacianfaces for Face Recognition, 2006, Deng Cai, Xiaofei He, Jiawei Han, Hong-Jiang Zhang. Mengajukan teori

Orthogonal Laplacianfaces dan membandingkannya dengan metode

Eigenfaces, Fisherfaces, dan Laplacianfaces.

2. Orthogonal Locality Preserving Indexing, 2005, Deng Cai, Xiaofei He. Memberikan contoh aplikasi lain dari Orthogonal Locality Preserving Projection.

3. Locality Preserving Projections, 2003, Xiaofei He, Partha Niyogi. Memperkenalkan metode LPP sebagai salah satu metode pengenalan wajah.

Gambar

Gambar 2.1 Waterfall Model.

Referensi

Dokumen terkait

Tujuan dari penelitian ini adalah untuk mengetahui seberapa besar pengaruh Electronic Word of Mouth terhadap Purchase Intention dengan Information

menggunakan alat tradisional sampai yang tidak menggunakan alat tersebut bisa dilakukan dalam permainan Tradisional masyarakat Mandailing. Permainan Tradisional masyarkat

Berdasarkan olah data interaksi, pemberian pupuk kandang dan pupuk urea dapat meningkatkan produksi jagung tertinggi sebesar 6.88 ton/ha tongkol dan 5.50 ton/ha

( 1 cm) untuk β -karoten yaitu 2600. Setelah pengukuran absorbansi dilakukan, larutan dievaporasi kembali sampai kering untuk digunakan pada analisis kandungan β

Dalam kedudukanya sebagai bahasa asing, bahasa-bahasa seperti bahasa Inggris, Perancis, Mandarin, Belanda, Jerman tidak memiliki kemampuan untuk bersaing dengan

Dapat disimpulkan bahwa risiko likuiditas, risiko kredit, risiko pasar, dan risiko operasional secara bersama-sama mempunyai pengaruh yang signifikan terhadap CAR

Dokumen Prakualifikasi selain poin B di atas disampaikan dalam bentuk soft file yang disampaikan secara elektronik sesuai ketentuan Pemasukan Dokumen Prakualifikasi (Pasal

Homogenitas bubuk-bubuk padatan dengan proses sol-gel dipengaruhi oleh perbandingan komposisi senyawa pembentuknya dalam larutan (keadaan sol), sehingga pada sintesa