Copyright @ 2007 By Emy 1
Copyright @ 2007 By Emy 2
Copyright @ 2007 By Emy 3
Kompetensi
À Mampu menjelaskan dan menyebutkan proses-proses
pada kompresi citra
À Mampu menjelaskan kriteria dari kompresi citra yang
baik
À Mampu menyebutkan dan menjelaskan jenis-jenis
kompresi citra
À Mampu menjelaskan metode kompresi citra yang banyak
digunakan untuk meningkatkan kualitas hasil kompresi citra
Topik
1.
Dasar-dasar Kompresi
Citra
2.
Model Kompresi citra
3.
Teori Informasi
Copyright @ 2007 By Emy 5
Dasar-Dasar Kompresi Citra
Kendala Data Citra Dijital
Kendala Data Citra Dijital
À
Mengapa perlu kompresi dan reduksi data?
– Data citra umumnya berukuran besar
– Tidak praktis dalam aspek penyimpanan, proses dan transmisi
– Perlu reduksi atau pemampatan data dengan mengurangiredundancy atau duplikasi data
À
Data redundancy:
– adalah bagian data yang tidak mengandung informasi terkait atau merupakan pengulangan dari informasi yang sudah dinyatakan sebelumnya atau sudah diketahui
Copyright @ 2007 By Emy 7
Contoh Aplikasi
Contoh Aplikasi
À
Aplikasi yang membutuhkan image compression:
dimana perkembangannya ditentukan oleh
efisiensi pada manipulasi data, penyimpanan, dan
transmisi citra biner / monokrom / berwarna:
– Televideo-conferencing
– Remote sensing
– Telemedical / Medical imaging
– Facsimile transmission
Kategori Teknik Kompresi Citra
Kategori Teknik Kompresi Citra
À
Berdasarkan detail suatu citra, teknik kompresi citra
dapat diklasifikasikan menjadi 2 kategori :
– Berugi (Lossy)
Teknik mendapatkan data yang lebih ringkas dengan melalui suatu proses penghampiran (approksimasi) dari data asli dengan tingkat error yang dapat diterima. Beberapa informasi pada citra yang asli hilang, meskipun hanya sebagian kecil saja
Contoh : JPEG (Joint Photographic Experts Group), TV broadcast.
– Tanpa rugi (Lossless)
Teknik yang memproses data asli menjadi bentuk yang lebih ringkas tanpa hilangnya informasi
Contoh : GIF (Graphical Interchange Format), Aplikasi biomedis.
Copyright @ 2007 By Emy 9
Kriteria Mengukur Metode
Kompresi Citra
À Waktu kompresi dan waktu rekronstruksi yang
sebaiknya cepat.
À Kebutuhan memori
– Memori yang dibutuhkan untuk merepresentasikan citra
seharusnya berkurang secara berarti. Teknik kompresi dikatakan baik apabila didapatkan rasio kompresi yang besar, karena semakin besar rasio kompresi yang didapat berarti semakin kecil ukuran hasil kompresi. Pada beberapa metode, ukuran memori hasil kompresi bergantung pada citra itu sendiri. Citra yang mengandung banyak elemen duplikasi (misalnya citra langit cerah tanpa awan, citra lantai keramik) umumnya berhasil dikompresikan dengan memori yang lebih sedikit dibandingkan dengan mengkompresikan citra yang mengandung banyak objek (misalnya citra pemandangan alam).
Kriteria Mengukur Metode
Kompresi Citra
– Hasil rasio kompresi ( R ) dirumuskan
À Kualitas kompresi(fidelity)
– Informasi yang hilang akibat kompresi seharusnya seminimal mungkin sehingga kualitas hasil kompresi tetap dipertahankan. Kualitas hasil kompresi dengan kebutuhan memori biasanya berbanding terbalik. Kualitas sebuah citra bersifat subyektif dan relatif, bergantung pada pengamatan orang yang menilainya. Dan untuk dapat membuat ukuran kualitas hasil kompresi citra menjadi ukuran kuantitatif dengan menggunakan besaran PSNR (Peak Signal to Noise Ratio).
Teknik kompresi dikatakan baik apabila menghasilkan nilai MSE yang kecil dan nilai PSNR yang tinggi yang berartierror atau kesalahan dari teknik kompresi ini sangat kecil dan hasil citra rekonstruksi terhadap citra asli mempunyai kemiripan yang tinggi. Sedangkan nilai rasio sinyal terhadap derau puncak atau nilai PNSR dalamdicibels(dB) dapat dihitung dari persamaan
% 100 1 tan⎥× ⎦ ⎤ ⎢ ⎣ ⎡ − = Asli Pemampa U U R MSE PSNR 2 10 ) 255 ( log * 10 = ∑∑[ ] = = − = M y N x y x I y x I N M MSE 1 1 2 ) , ( ' ) , ( . 1
Copyright @ 2007 By Emy 11
Kriteria Mengukur Metode
Kompresi Citra
À
Format keluaran.
–
Format citra hasl kompresi sebaiknya cocok
untuk pengiriman dan penyimpanan data.
Pembacaan citra bergantung pada bagaimana
citra tersebut direpresentasikan (atau
disimpan).
Pendekatan Pada Proses
Kompresi
ÀPendekatan statistik
– Kompresi citra didasarkan pada frekuensi kemunculan derajat keabuan
pixel di dalam seluruh bagian citra. Contoh metode Huffman Coding.
ÀPendekatan ruang
– Kompresi citra didasarkan pada hubungan spasial antarapixel-pixel
didalam suatu kelompok yang memiliki derajad keabuan yang sama di dalam suatu daerah di dalam citra. Contoh metodeRun Length Encoding
ÀPendekatan kuantisasi
– Kompresi citra dilakukan dengan mengurangi jumlah derajat keabuan yang tersedia. Contoh metode kompresi kuantisasi
ÀPendekatan fraktal
– Kompresi citra didasarkan pada kenyataan bahwa kemiripan bagian-bagian di dalam citra dapat dieksploitasi dengan suatu matriks transformasi. Contoh metodeFractal Image Compression.
Copyright @ 2007 By Emy 13
Konsep
Data Redundancy
Konsep
Data Redundancy
À Tidak abstrak dan dapat dinyatakan dalam entitas besaran matematis
À Relative data redundancy RD:
RD= 1 - 1/CR dan CR= n1/n2
n1dan n2: jumlah satuan informasi yang dibawa data set 1 dan data set 2.
Bila n1= n2, maka CR= 1 dan RD= 0 (tidak ada redundancy).
Bila n2<< n1, maka CRmendekati tak terhingga dan RDmendekati 1 (terjadi redundancy yang tinggi).
Bila n2>> n1, maka CRmendekati 0 dan RDmendekati minus tak terhingga
(informasi yang dibawa data set 2 jauh lebih besar dari data set 1) Bila 0 < CR < 1 dan RDrendah ( tingkat redundancy rendah).
Data Redundancy
À
Ada 3 jenis data redundancy pada citra:
– Coding redundancy
– Interpixel redundancy
– Psychovisual redundancy
À
Suatu data dikatakan terkompresi jika satu
atau lebih redundancy tersebut bisa
Copyright @ 2007 By Emy 15
Coding redundancy (1)
Coding redundancy (1)
À
Terjadi bila suatu kode simbol yang
digunakan terdiri dari sejumlah bit
yang melebihi jumlah bit yang
diperlukan untuk representasi setiap
simbol (dalam hal ini: tingkat
keabuan piksel citra).
Coding redundancy (2)
Coding redundancy (2)
À
Fixed-length versus variable-length coding:
rK p(rK) fixed L(rK) variable L(rK) 0 0.19 000 3 11 2 1/7 0.25 001 3 01 2 2/7 0.21 010 3 10 2 3/7 0.16 011 3 001 3 4/7 0.08 100 3 0001 4 5/7 0.06 101 3 00001 5 6/7 0.03 110 3 000001 5 1 0.02 111 3 000000 6
Copyright @ 2007 By Emy 17
Coding redundancy (3)
Coding redundancy (3)
À
Tingkat keabuan yang probabilitas terjadinya tinggi
diberi panjang kode yang pendek, dan bila sebaliknya
diberi kode yang panjang.
À
Bila digunakan variable-length coding, panjang kode
rata-rata:
À
Bila digunakan fixed-length coding 3 bits, tingkat
redundancy-nya adalah:
R
D= 1 – 1/C
R= 1 – 1/(3/2.7) = 0.099 (sekitar 10%)
7 0( ) ( )
2.7
AVE K K KL
L r p r
bits
==
∑
=
Interpixel Redundancy (1)
Interpixel Redundancy (1)
1 n Δ = Δ = Histogram distribusi tingkat keabuan sama untuk kedua citra. Pada gambar nilai autocorrelation tinggi pada dan pada gambar (b) juga tinggi pada dan90.1
n
Copyright @ 2007 By Emy 19
Interpixel Redundancy (2)
Interpixel Redundancy (2)
À
Sering disebut juga sebagai spatial redundancy,
geometric redundancy, atau interframe redundancy.
À
Normalized autocorrelation coefficient:
dimana N adalah jumlah piksel pada baris x dan
Nilai tinggi (berkorelasi tinggi) pada atau 90 (b)
dimana ada spasi garis vertikal. Juga piksel yang berdekatan
mempunyai korelasi tinggi, yaitu dengan dimana nilai
adalah 0.9922 dan 0.9928 masing-masing untuk gambar (a) dan (b). ( ) ( ) (0) A n n A γ Δ = Δ 1 0 1 ( ) ( , ) ( , ) N n y A n f x y f x y n N n − −Δ = Δ = + Δ − Δ
∑
γ 45 n Δ = Δ <n Nγ
γ
1 n Δ =Interpixel Redundancy (3)
Interpixel Redundancy (3)
À
Artinya: data redundancy dinyatakan dengan
korelasi antar piksel dimana intensitas suatu
piksel dapat diperkirakan dari intensitas
piksel-piksel tetangganya.
À
Artinya: informasi yang dibawa oleh setiap
piksel relatif tidak besar atau kontribusi
setiap piksel kepada gambar secara
keseluruhan adalah redundan.
Copyright @ 2007 By Emy 21
Interpixel Redundancy (4)
Interpixel Redundancy (4)
À
Citra yang mengandung interpixel redundancy dapat
direpresentasi ke dalam bentuk yang lebih efisien
(non-visual format). Dimana citra tidak dinyatakan dalam
bentuk matriks dari intensitas piksel-pikselnya, akan
tetapi dipetakan (mapping) dalam bentuk perbedaan
intensitas antar piksel yang bersebelahan. Bentuk data
yang dimampatkan ini bersifat reversible, artinya dapat
direkonstruksi kembali menjadi citra asalnya.
À
Run-Length Coding: (g
1,R
1), (g
2,R
2) …
g
imenyata-kan tingkat keabuan dan R
imenyatakan jumlah piksel
bersebelahan pada baris bersangkutan yang mempunyai
intensitas g
i.
Interpixel Redundancy (5)
Interpixel Redundancy (5)
À Contoh Citra: Run-Length Code Representation:
0 0 0 0 1 1 0 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 1 1 1 1 1 0 0 0 1 1 1 1 1 0 0 0 0 1 1 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0
À Informasi Yang Disimpan:
22 pairs of integers (0,3), (1,2), (0,2) (0,3), (1,4), (0,1) (0,3), (1,4), (0,1) (0,2), (1,5), (0,1) (0,2), (1,5), (0,1) (0,3), (1,3), (0,3) (0,4), (1,1), (0,3) (0,8)
Copyright @ 2007 By Emy 23
Psychovisual Redundancy (1)
Psychovisual Redundancy (1)
À
Mach Band:
– Suatu fenomena dimana intensitas keabuan yang
bervariasi dilihat sebagai intensitas konstan,
artinya: mata tidak mempunyai sensitivitas yang
sama terhadap semua informasi yang dianggap
penting dan tidak penting. Hal tersebut diatas
dapat dikatakan sebagai psychovisual
redundancy, yang bila dihilangkan tidak
mengganggu persepsi kwalitas citra.
Psychovisual Redundancy (2)
Psychovisual Redundancy (2)
À
Quantization:
– Eliminasi psychovisual redundancy mengakibatkan kerugian informasi bersifat kwalitas. Teknik ini disebut quantization, yaitu pemetaan dari daerah intensitas yang lebar menjadi daerah intensitas terbatas (batas kemampuan visual manusia)
– Mata sangat sensitif terhadap informasi edge / garis batas / patahan. Proses kwantisasi dapat disesuaikan untuk kepentingan mempertahankan informasi edge seperti yang dilakukan pada Improved Gray Scale (IGS) Quantization.
À
Irreversible Operation:
– Quantization mengakibatkan hilangnya sebagian informasi visual, dengan demikian teknik ini termasuk pada kategori lossy
Copyright @ 2007 By Emy 25
Psychovisual Redundancy (3)
Psychovisual Redundancy (3)
À
IGS (Improved Gray Scale) Quantization
Pixel Gray Level Sum IGS Code
i - 1 NA 0000 0000 NA
i 0110 1100 0110 1100 0110
i + 1 1000 1011 1001 0111 1001
i + 2 1000 0111 1000 1110 1000
i + 3 11110100 1111 0100 1111
Jika 4 most significant number bernilai 1111, maka yang
ditambahkan adalah 0000
1000 1011 1100 1001 0111
Copyright @ 2007 By Emy 27
Psychovisual Redundancy (4)
À
Lossy compression
Æ
perlu adanya kriteria
penilaian untuk mengatakan apakah hasil
kompresi bagus atau tidak.
À
Kriteria penilaian terbagi 2:
– Secara objektif
Hilangnya informasi dinyatakan sebagai fungsi dari citra input ke citra output (next page)
– Secara subjektif
Berdasarkan pada penilaian mata manusia. Tingkatannya: Excellent, fine, passable, marginal, inferior, unusable.
Psychovisual Redundancy (5)
Psychovisual Redundancy (5)
ÀKesalahan akibat hilangnya informasi:
f(x,y) adalah citra asli dan f’(x,y) adalah citra approksimasi Total Error: Root-Mean-Square Error: Mean-square Signal-to-Ratio: 1 1 0 0 ( '( , ) ( , )) M N x y Error f x y f x y − − = = =
∑∑
− 1 1 2 1 / 2 0 0 1 ( ( '( , ) ( , ) ) ) M N R M S x y E f x y f x y M N − − = = = ∑ ∑ − 1 1 2 0 0 1 1 2 0 0 '( , ) ( '( , ) ( , )) M N x y MS M N x y f x y SNR f x y f x y − − = = − − = = = −∑∑
∑∑
Copyright @ 2007 By Emy 29
Model Kompresi citra
Model sistem kompresi umum
À Source encoder: menghilangkan redundansi input
À Channel encoder: meningkatkan imunitas output source encoder terhadap gangguan noise (menggunakan Hamming code)
À Channel decoder & source decoder: mengembalikan ke data semula
À Jika channel dianggap bebas noise, maka channel encoder/decoder bisa diabaikan.
Copyright @ 2007 By Emy 31
Source encoder & decoder
Source encoder & decoder
ÀSource Encoder: terdiri dari Mapper, Quantizer dan Symbol Coder
– Mapper: melakukan transformasi dari citra masukan (visual format) menjadi suatu non-visual format dan dimaksud untuk eliminasi interpixel redundancy. Biasanya bersifat reversible, contoh: run-length coding.
– Quantizer: melakukan eliminasi psychovisual redundancy menurut kriteria fidelity yang ditentukan. Pada sistem kategori error-free compression, tahap ini tidak dilakukan – Symbol Coder: menghasilkan kode fixed-length atau
Copyright @ 2007 By Emy 33
Source encoder & decoder
Source Decoder: melakukan operasi yang
berlawanan dengan source encoder dan
menghasilkan suatu citra rekonstruksi yang
persis atau merupakan bentuk approksimasi dari
citra asalnya.
Channel Encoder dan Decoder: menyisipkan
controlled redundancy bits (penambahan bits)
untuk mendeteksi bila terjadi error atau
gangguan waktu transmisi.
Copyright @ 2007 By Emy 34
Copyright @ 2007 By Emy 35
Teori Informasi (1)
Teori Informasi (1)
À Informasi yang dikandung oleh suatu pesan dapat dinyatakan dengan suatu model yang bersifat probabilistik dalam bentuk yang dapat diterima secara intuisi.
À Suatu event (yaitu komponent yang membentuk data) terjadi dengan probabilitas P(E) dan mengandung satuan informasiyang dapat dinyatakan dengan:
dengan I(E) disebut juga sebagai self-information of E.
À Contoh-1: Bila P(E)=1 maka I(E)=0, artinya tidak ada informasi yang dibawa event E. Penjelasan secara intuitif: P(E)=1 berarti event E terjadi secara terus menerus, sehingga tidak ada yang tidak diketahui mengenai E (no uncertainty). Artinya event E sudah diketahui karena selalu terjadi sehingga tidak ada informasi yang dibawa oleh event E.
1 ( ) log log ( ) ( ) I E P E P E = = −
Teori Informasi (2)
Teori Informasi (2)
ÀContoh-2: Dalam kurun waktu 20 tahun yang lalu jarang (ridak) terjadi pemboman di Indonesia, P(E) =0.99. Namum akhir-akhir ini mulai terjadi pemboman dan yang terdasyat adalah baru-baru ini terjadi di Legian, Bali, P(tidakE)=0.01. Penjelasannya secara intuitif: Memberitakan terjadinya pemboman lebih membawa informasi dibanding dengan memberitakan tidak terjadi pemboman.
ÀContoh-3: Bila P(E)=1/2, maka I(E)=-log(1/2)= 1 bit (dengan log basis 2). Nilai 1 bit disini mempunyai arti besarnya informasi yang dikandung bila salah satu event (dari dua event yang probabilitas terjadinya sama besar yaitu ½) terjadi.
Copyright @ 2007 By Emy 37
Average Self-information (1)
Average Self-information (1)
ÀSuatu sumber informasi terdiri dari simbol: {a
1, a
2, … ,
a
j}, dengan P(a
j) adalah probabilitas sumber tersebut
menghasilkan simbol a
j, dengan:
À
Sumber informasi (A,z) dengan: A={a
1, a
2, … , a
j} dan
z={P(a
1), P(a
2), … , P(a
j)}. Bila sumber infromasi
menghasilkan k simbol, maka simbol a
jakan terjadi
rata-rata sebanyak kP(a
j) kali. Sehingga average
self-information yang dikandung oleh k simbol adalah:
1 ( ) 1 J j j P a = =
∑
1 ( ) log ( ) J j j j k P a p a = −∑
Average Self-information (2)
Average Self-information (2)
À
Selanjutnya dapat dirumuskan average information per
simbol (per source output):
À
H(z) disebut juga sebagai tingkat uncertainty atau
entropy dari sumber informasi. Bila H(k) = 0 artinya
no uncertainty.
1 ( ) ( ) log ( ) J j j j H z P a p a = = −∑
Copyright @ 2007 By Emy 39
Using Information Theory (1)
Using Information Theory (1)
À Average information content content (entropy) of each pixel in an image:
À 4x8 8-bit-pixel image: 21 21 21 95 169 243 243 243 21 21 21 95 169 243 243 243 21 21 21 95 169 243 243 243 21 21 21 95 169 243 243 243 .
À Bila menggunakan asumsi adanya uniform distribution, yaitu P(aj)=1/256 (256 adalah jumlah tingkat keabuan), maka H(z) = -256*(1/256*log(1/256)) yang mempunyai nilai 8. Artinya average information content (entropy) per pixel adalah 8 bits dan total entropy of the 4x8 image = 4 * 8 * 8 bits = 256 bits. 1
( )
(
) log (
)
J j j jH z
P a
p a
== −
∑
Using Information Theory (2)
Using Information Theory (2)
ÀBila menggunakan model histogram tingkat keabuan citra untuk menentukan probabilitas source symbols (pixel intensities), maka:
Tingkat Keabuan Jumlah Probabilitas
21 12 3/8
95 4 1/8
169 4 1/8
243 12 3/8
ÀDalam hal ini dikatakan bahwa (the first-order estimate) of the entropy per pixel: H(z) = - (2*(3/8)*log(3/8) + 2*(1/8)*log(1/8)) = 1.81 bits dan total entropy of image = 4*8*1.81 = 58 bits.
Copyright @ 2007 By Emy 41
Using Information Theory (3)
Using Information Theory (3)
À Estimating the entropy of gray-level source by examining the relative frequency of pixel blocks (a block is a grouping of adjacent pixels):
Gray Level Pair Count Probability
(21,21) 8 1/4 (21,95) 4 1/8 (95,169) 4 1/8 (169,243) 4 1/8 (243,243) 8 1/4 (243,21) 4 1/8
À Dalam hal ini dikatakan bahwa (the second-order estimate) of entropy per pixel H(z) = - (2*(1/4)*log(1/4) + 4*(1/8)*log(1/8))/2 = 1.25 bits.
Using Information Theory (4)
Using Information Theory (4)
ÀA difference array:
Gray Level Difference Count Probability
0 (column 2,3,7,8) 16 1/4
21 (column1) 4 1/8
74 (column 4,5,6) 12 3/8
À(the first-order estimate) of entropy per pixel = 1.41 bits and total entropy of image = 4 * 8 * 1.41 bits = 46 bits.