• Tidak ada hasil yang ditemukan

III. METODE PENELITIAN

3.4. Pengolahan dan Analisis Data

3.4.5. Analisis Regresi

Setelah dilakukan pengubahan data dari skala ordinal ke skala interval dengan (successive interval method), selanjutnya dilakukan dengan mengetahui bagaimana peubah terikat (y) dapat diprediksi melalui peubah bebas (x). Guna mengetahui hal tersebut, maka digunakan analisis regresi sebagaimana dijelaskan oleh Sugiono (2007) bahwa analisis regresi dapat digunakan untuk memutuskan apakah naik dan turunnya peubah terikat (dependen) dapat dilakukan dengan menaikkan atau menurunkan keadaan peubah bebas (independen) dan sebaliknya. Regresi linear adalah metode statistika yang digunakan untuk membentuk model hubungan antara peubah terikat (dependen Y) dengan satu atau lebih peubah bebas (independen X). Apabila banyaknya peubah bebas hanya ada satu, disebut sebagai regresi linear sederhana, sedangkan apabila terdapat lebih dari satu peubah bebas, disebut sebagai regresi linear berganda.

Analisis regresi setidak-tidaknya memiliki 3 kegunaan (Kurniawan, 2008), yaitu :

1. Deskripsi dari fenomena data atau kasus yang sedang diteliti

Regresi mampu mendeskripsikan fenomena data melalui terbentuknya suatu model hubungan yang bersifatnya numerik.

2. Kontrol

Regresi juga dapat digunakan untuk melakukan pengendalian (kontrol) terhadap suatu kasus atau hal-hal yang sedang diamati melalui penggunaan model regresi yang diperoleh.

3. Prediksi

Model regresi dapat dimanfaatkan untuk melakukan prediksi untuk peubah terikat. Prediksi di dalam konsep regresi hanya boleh dilakukan di dalam rentang data dari peubah-peubah bebas yang digunakan untuk membentuk model regresi tersebut. Misal, suatu model regresi diperoleh dengan mempergunakan data peubah bebas yang memiliki rentang antara 5 - 25, maka prediksi hanya boleh dilakukan bila suatu nilai yang digunakan sebagai input untuk peubah X berada di dalam rentang tersebut. Konsep ini disebut sebagai interpolasi.

Data untuk peubah independen X pada regresi linear merupakan data pengamatan yang tidak ditetapkan sebelumnya oleh peneliti (observational data) maupun data yang telah ditetapkan (dikontrol) oleh peneliti sebelumnya. Perbedaannya bahwa menggunakan (fixed data), informasi yang diperoleh lebih kuat dalam menjelaskan hubungan pengaruh antara peubah X terhadap Y. Pada (observational data), peubah X yang diamati disesuaikan keadaan di lapangan. Biasanya, (fixed data) diperoleh dari percobaan laboratorium dan (observational data) yang diperoleh dengan menggunakan kuesioner.

Persamaan regresi linear sederhana adalah :

= a + bX………...……….(8) Dimana : Y = Subyek dalam peubah dependen yang diprediksi

b = angka arah atau koefisien regresi yang menunjukkan angka peningkatan bila b (+) ataupun penurunan bila b (-) peubah dependen yang didasarkan pada peubah independen.

X = Slope atau subyek pada peubah independen yang mempunyai nilai tertentu.

1. Regresi Linear Berganda Multiple Regression

Persamaan ini digunakan untuk mengukur hubungan pelbagai peubah kuantitatif, di mana satu peubah terikat (dependent) dan selebihnya lagi adalah peubah-peubah bebas (independent). Formula yang digunakan adalah :

Y = 0+ 1X1+ 2X2+ 3X3……..…+ -1X -1+ X +€………(9)

Langkah-langkah dalam analisis regresi adalah :

1. Membentuk plot antara peubah terikat dengan masing-masing peubah bebas. Pembentukan plot adalah sebagai pendeteksian awal, apakah regresi linear cocok bila diterapkan atau tidak.

2. Menduga model regresi 3. Menguji asumsi klasik regresi

Terdapat tiga metode umum yang merupakan pendekatan sekuensial untuk menentukan peubah bebas, yaitu metode pemilihan (backward, forward dan stepwise). Pada penelitian ini digunakan metode pemilihan (backward), dimana langkah pertama pada metode ini adalah memasukkan semua peubah bebas yang ada ke dalam persamaan regresi. Setelah itu, dinilai apakah suatu peubah independen layak tetap berada dalam persamaan regresi. Peubah independen yang keluar dari persamaan tidak dapat masuk ke dalam persamaan regresi tersebut atau (irreversible) (Wibisono, 1999)

Tahap–tahap yang dilakukan adalah :

1. Menampilkan persamaan regresi yang mencakup seluruh peubah independen yang ada.

2. Menghitung nilai r2 yang disebabkan penghilangan setiap peubah atau nilai uji F bagi tiap peubah independen yang diperlukan sebagai peubah terakhir yang masuk persamaan regresi.

3. Membandingkan nilai uji F parsial yang terendah, yaitu diberi langkah FL, dengan suatu nilai kritis yang telah ditentukan, diberi dengan

lambang FC.

a. Jika FL < FC maka peubah yang berhubungan dengan nilai FL

dikeluarkan, lalu kita hitung kembali persamaan regresi berdasarkan susunan peubah independen yang baru dan kembali ke tahap 2.

b. Jika FL > FC, maka persamaan regresi tersebut valid untuk diambil.

2. Pengujian Koefisien Regresi

a. Uji Simultan Model Regresi (Uji F)

Uji simultan (keseluruhan atau bersama-sama) pada konsep regresi linear adalah pengujian mengenai apakah model regresi yang didapatkan benar-benar dapat diterima. Uji simultan bertujuan untuk menguji apakah antara peubah-peubah bebas X dan terikat Y, atau setidaktidaknya antara salah satu peubah X dengan peubah terikat Y, benar-benar terdapat hubungan linear (linear relation). Hipotesis yang berlaku untuk pengujian ini adalah :

H0 : 1= 2 ...= k=0

H1 : Tidak semua i=0

i = 1, 2, ..., k

k = banyaknya peubah bebas X

i = parameter (koefisien) ke-i model regresi linear

Penjabaran secara hitungan untuk uji simultan ini dapat ditemui pada tabel ANOVA (Analysis Of Variance). Di dalam tabel ANOVA akan ditemui nilai statistik-F (Fhitung), yaitu : jika Fhitung Ftabel (db1, db2)

maka terima H0 dan jika Fhitung > Ftabel (db1, db2), maka tolak H0. db1

dan db2 adalah parameter-parameter Ftabel, dimana :

db1 = derajat bebas 1 = p -1

db2 = derajat bebas 2 = n - p

= banyaknya peubah bebas + 1 n = banyaknya pengamatan

Apabila H0 ditolak, maka model regresi yang diperoleh dapat

digunakan.

b. Uji Parsial (Uji t)

Uji parsial digunakan untuk menguji apakah sebuah peubah bebas X benar-benar memberikan kontribusi terhadap peubah terikat Y. Dalam pengujian ini ingin diketahui apakah jika secara terpisah, suatu peubah X masih memberikan kontribusi secara nyata terhadap peubah terikat Y. Baik intersep dan kooefisien regresi keduanya memiliki ( value) lebih kecil dari 0,05.

Hipotesis untuk uji ini adalah: H0 : j = 0 dan H1 : j 0 dimana:

j = 0, 1, ..., k

k = banyaknya peubah bebas X

Uji parsial ini menggunakan uji-t, yaitu: jika thitung ttabel (n-p), maka terima H0

jika thitung> ttabel(n-p), maka tolak H0

dimana :

(n-p) = parameter ttabel

n= banyaknya pengamatan

p= banyaknya parameter (koefisien) model regresi linear

Apabila H0 ditolak, maka peubah bebas X tersebut memiliki

kontribusi nyata terhadap peubah terikat Y. Pengujian signifikansi koefisien selain dapat menggunakan tabel, juga dapat dihitung dengan uji t berikut :

. ...………...(10)

c. Koefisien Determinasi (R2)

Koefisien determinasi adalah besarnya keragaman (informasi) di dalam peubah Y yang dapat diberikan oleh model regresi yang didapatkan. Nilai R2 berkisar 0-1. Apabila nilai R2 dikalikan 100%, maka hal ini menunjukkan persentase keragaman (informasi) di

peubah Y yang dapat diberikan oleh model regresi yang didapatkan. Semakin besar nilai R2 , semakin baik model regresi yang diperoleh. 3. Uji Asumsi Klasik Regresi linear

1. Error atau Galat menyebar normal dengan rataan nol dan suatu ragam (variance) tertentu. Penulisan matematis dari asumsi kedua ini adalah:

€ ~ N (0, 2)……….(11)

Dimana : € = galat

~ = menyebar mengikuti distribusi

N (0, 2) = sebaran normal dengan rata-rata nol dan ragam 2

Statistik uji yang paling sering digunakan untuk menguji asumsi kenormalan galat dengan menggunakan Kolmogorov-Smirnov (normality test). Uji Kolmogorov-Smirnov bekerja dengan cara membandingkan 2 (dua) buah distribusi/sebaran data, yaitu distribusi yang dihipotesiskan dan distribusi yang teramati. Distribusi yang dihipotesiskan dalam kasus ini adalah distribusi normal. Sedangkan distribusi yang teramati adalah distribusi yang dimiliki oleh data yang sedang kita uji. Apabila distribusi yang teramati mirip dengan distribusi yang dihipotesiskan (distribusi normal), maka dapat disimpulkan bahwa data yang kita amati memiliki distribusi/sebaran normal. Hipotesis dalam uji normalitas adalah :

H0 : Data menyebar normal, H1 : Data tidak menyebar normal.

Uji ini ditentukan dengan nilai ( value). Jika ( value) lebih besar dari 0,05 maka H0 dapat diterima dan dapat dikatakan bahwa asumsi

kenormalan galat tidak dilanggar.

2. Ragam dari galat bersifat homogen (homoskedastik). Maksud dari ragam bersifat homogen adalah bahwa galat memiliki nilai ragam yang sama antara galat ke-i dan galat ke-j. Secara matematik ditulis

2

€i 2€j 2€ dimana i, j = 1, ...., n; dan n = banyaknya pengamatan.

Galat sebenarnya berupa data. Hanya saja, sangat sulit atau bahkan tidak mungkin untuk mengetahui nilainya secara pasti. Maka, diperlukan suatu penduga dari data galat. Data penduga yang paling tepat adalah data residual. Setiap nilai dari data residual diharapkan memiliki nilai ragam yang mirip. Apabila galat memiliki ragam yang

homogen, maka seharusnya serupa residualnya. Dengan demikian, apabila ditemukan bahwa residual memiliki ragam yang homogen, maka dapat dikatakan bahwa galatmemiliki ragam homogen. Statistik uji yang sering digunakan adalah (Breusch-Pagan test). Hipotesis yang berlaku dalam uji homoskedatisitas ragam galat adalah : H0 : 2€i =

2

€j = …. 2€n = 2€ dan H1 : Setidak-tidaknya ada satu pasang ragam

galat yang tidak sama. Statistik uji (Breusch-Pagan test) menghasilkan ( value)lebih besar dari 0,05 yang mengindikasikan penerimaan H0. Jika hal tersebut terjadi, maka0 disimpulkan bahwa

tidak terjadi homoskedastisitas pada ragam galat. 3. Residu tidak mengalami autokorelasi

Adanya autokorelasi pada galatmengindikasikan bahwa ada satu atau beberapa faktor (peubah) penting yang mempengaruhi peubah terikat Y yang tidak dimasukkan ke dalam model regresi. Statistik uji yang sering dipakai adalah (Durbin-Watson statistics) atau (DW-statistics). Hipotesis untuk uji asumsi autokorelasi yang sering dipakai adalah: H0 : =0 dan H1 : 0

Pada beberapa paket (software) statistika, (output) untuk uji asumsi autokorelasi pada galat dengan Durbin-Watson (statistics) tidak menyertakan (p-value) sebagai alat pengambilan keputusan, sehingga pengguna masih harus menggunakan tabel Durbin-Watson (bounds). Di bawah ini adalahkriteria uji bagi (DW-statistics)untuk kasus uji 2- arah :

- jika DW < dL , maka tolak H0 , atau

- jika DW > 4 – dL , maka tolak H0 , atau

- jika dU < DW < 4 – dU , maka terima H0 , namun jika

- jika dL DW dU atau 4−dU DW 4−dL , maka tidak dapat disimpulkan apakah terjadi autokorelasi atau tidak. Jika demikian, sebaiknya menggunakan statistik uji yang lain, misal uji autokorelasi.

Keterangan :

dL = batas bawah tabel Durbin-Watson (bounds)pada suatu n dan k tertentu

dU = batas atas tabel Durbin-Watson (bounds) pada suatu n dan k tertentu

n = banyaknya pengamatan

k= banyaknya peubah bebas dalam model regresi d. Tidak terjadi multikolinearitas antar peubah bebas X.

Asumsi ini hanya tepat untuk kasus regresi linear berganda. Adanya multikolinearitas menunjukkan terjadinya korelasi linear yang erat antar peubah bebas. Dalam hal ini digunakan statistik uji yang tepat dengan (Variance Inflation Factor atau VIF). Nilai VIF lebih besar dari 10 mengindikasikan adanya multikolinearitas serius.

Dokumen terkait